samply项目v0.13.1版本发布:跨平台性能分析工具的重大更新
samply是一款现代化的跨平台性能分析工具,它能够帮助开发者对应用程序进行低开销的性能剖析。该工具支持多种操作系统平台,包括Linux、macOS和Windows,能够捕获CPU使用情况、函数调用栈等关键性能数据,并以直观的可视化方式呈现分析结果。
Windows平台支持成为亮点
本次发布的v0.13.1版本最显著的改进是增加了对Windows平台的支持。这一功能通过ETW(Event Tracing for Windows)技术实现,具体使用xperf工具记录系统活动到ETL文件中,然后由samply进行转换处理。
值得注意的是,在Windows平台上进行性能分析时,samply会请求管理员权限,这是ETW正常工作所必需的。开发团队特别感谢了Jeff Muizel和Vadim Vukicevic的贡献,他们克服了ETW文档不足的困难,实现了这一重要功能。
跨平台功能增强
除了Windows支持外,本次更新还带来了多项跨平台改进:
-
macOS平台:现在支持附加到正在运行的进程及其子进程进行性能分析。新增的
samply setup命令可以自动完成代码签名,使进程附加功能能够正常工作。 -
Android支持:
samply import命令现在对Android simpleperf工具有更好的支持,使移动端性能分析更加便捷。 -
线程控制:新增了
--main-thread-only标志,允许开发者只分析主线程的性能数据,这在GUI应用程序分析中特别有用。 -
参数记录:
--include-args参数可以捕获程序启动时的命令行参数,为性能分析提供更多上下文信息。 -
CPU利用率优化:Windows和Linux平台新增了
--per-cpu-threads标志,可以更精确地控制CPU使用率。
符号处理能力提升
新版本在符号处理方面做了多项改进:
-
新增了多种符号相关参数,包括
--symbol-dir、--windows-symbol-server等,支持从不同来源获取符号信息。 -
Windows平台可以通过
--windows-symbol-server参数指定微软的符号服务器地址,自动下载系统库和内核栈的符号信息。 -
虽然目前需要手动配置符号服务器,但开发团队已计划在未来版本中加入配置文件功能,使符号服务器配置更加持久化。
技术实现细节
在底层实现上,本次更新有几个值得注意的技术点:
-
最低Rust版本要求:现在需要Rust 1.77或更高版本才能构建samply。
-
macOS兼容性:修复了在macOS 15 Sequoia上的库枚举问题,确保工具在新系统上也能正常工作。
-
zerocopy依赖:解决了与zerocopy和zerocopy_derive相关的构建错误,提高了工具的稳定性。
已知问题与未来方向
尽管v0.13.1带来了许多改进,但仍存在一些已知问题:
-
Windows符号默认不可用,需要手动配置符号服务器。
-
预编译的.NET代码符号支持不完善,相关修复正在开发中。
-
CoreCLR支持存在一些问题,特别是在某些场景下可能无法正常工作。
开发团队表示将继续完善这些功能,并计划在未来版本中引入更多改进,如永久性的符号服务器配置等。
安装与使用
用户可以通过多种方式安装samply v0.13.1:
-
使用shell脚本一键安装:执行简单的curl命令即可完成安装。
-
通过PowerShell脚本安装:适合Windows用户快速部署。
-
直接下载预编译的二进制文件:支持多种平台架构,包括Apple Silicon、Intel macOS、x64 Windows、ARM64 Linux等。
对于开发者而言,samply v0.13.1提供了更全面的跨平台性能分析能力,特别是在Windows平台的支持上迈出了重要一步。无论是桌面应用、服务器程序还是移动应用的性能优化,这个版本都提供了更加强大的工具支持。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0137- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
MusicFreeDesktop插件化、定制化、无广告的免费音乐播放器TypeScript00