MangoHud 0.8.0版本发布:游戏性能监控工具的重大更新
MangoHud是一款开源的游戏性能监控工具,主要用于在Linux平台上实时显示游戏的FPS、CPU/GPU使用率、温度、内存占用等关键性能指标。它支持Vulkan和OpenGL游戏,可以覆盖在游戏画面上方,帮助玩家和开发者监控系统资源使用情况,优化游戏性能。
排除列表功能增强
新版本增加了对Ubisoft Store(UplayWebCore.exe)、halloy(IRC客户端)和Plutonium Launcher(plutonium.exe等程序的排除列表支持。这意味着当这些程序运行时,MangoHud将不会自动加载,避免了在这些不需要监控的程序上显示性能指标。
重要问题修复
0.8.0版本修复了多个关键问题:
- 配置文件读取逻辑改进,现在能正确覆盖配置选项
- 解决了日志系统在某些情况下可能导致的崩溃问题
- 修复了平均FPS的双重记录问题
- 改进了NVIDIA显卡支持,当nvml和xnvctrl都不可用时会有明确警告
- 修复了mangoapp对HUD显示/隐藏命令的响应问题
- 增加了对32位xkbcommon的依赖支持
- 为openSUSE系统添加了缺失的依赖项
- 实现了正确的垂直同步(VSync)支持
- 重构了FPS计算逻辑,使其更加准确
- 修复了水平模式下exec、网络连接、GPU和VRAM显示不正确的问题
功能改进与新增特性
多GPU支持
新版本最重要的改进之一是支持显示多个GPU的性能数据。默认情况下,MangoHud会显示所有检测到的GPU信息。用户可以通过gpu_list或pci_dev参数选择要监控的特定GPU。
Intel GPU支持
0.8.0版本新增了对Intel显卡的支持,包括集成显卡和独立显卡(i915和xe驱动)。需要注意的是:
- 温度监控需要Linux 6.13+内核
- 集成显卡不支持温度和功耗监控
- VRAM和GPU使用率是基于进程而非系统范围的(系统范围监控需要root权限)
内存使用监控重构
内存使用监控进行了重构,使其与其他应用程序的监控方式保持一致,提供更准确的系统内存使用情况。
OpenGL Shim改进
OpenGL Shim现在会优先加载,而不是直接加载OpenGL库。它会先检查是否存在OpenGL上下文再进行hook,这一改进解决了许多崩溃问题。
执行命令改进
当在Steam运行时环境中使用exec命令时,现在会通过steam-runtime-launch-client启动命令。对于Flatpak用户,需要允许应用程序访问org.freedesktop.Flatpak DBus地址才能正常使用此功能。
新增配置参数
0.8.0版本引入了几个新的配置参数:
network_color- 设置网络连接监控元素的显示颜色display_server- 显示当前使用的显示服务器类型(Xorg/Xwayland/Wayland)gpu_list- 指定要显示的GPU列表(如gpu_list=0,1)- 改进了
proc_mem和io_read在gamescope中的支持
架构调整
- DLSYM现在默认启用,可以通过设置
MANGOHUD_DLSYM=0禁用 - 移除了mangoapp Vulkan层(这是一个测试项目,已停止开发)
- 改进了Wayland下的键盘绑定支持
- 日志系统错误信息调整为调试级别
- 日志中新增了CPU功耗记录
总结
MangoHud 0.8.0版本带来了多项重要改进,特别是多GPU支持和Intel显卡支持大大扩展了工具的适用范围。性能监控的准确性和稳定性也得到了显著提升。对于Linux游戏玩家和开发者来说,这是一个值得升级的版本,能够提供更全面、更可靠的系统性能监控体验。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust073- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
Hy3-previewHy3 preview 是由腾讯混元团队研发的2950亿参数混合专家(Mixture-of-Experts, MoE)模型,包含210亿激活参数和38亿MTP层参数。Hy3 preview是在我们重构的基础设施上训练的首款模型,也是目前发布的性能最强的模型。该模型在复杂推理、指令遵循、上下文学习、代码生成及智能体任务等方面均实现了显著提升。Python00