VMware Host Modules项目:解决VMware Workstation 17.5在Linux内核6.8.0下的编译问题
在Linux系统上使用VMware Workstation时,经常会遇到内核模块编译失败的问题。特别是在升级到较新版本的Linux内核后,原有的VMware内核模块可能无法正常编译安装。本文将详细介绍如何利用vmware-host-modules项目解决VMware Workstation 17.5在Linux内核6.8.0环境下的模块编译问题。
问题背景
当用户在Linux内核6.8.0-40-generic环境下尝试运行VMware Workstation 17.5时,系统会尝试编译并加载两个关键的内核模块:vmmon和vmnet。从错误日志中可以看到,编译过程主要遇到了以下几类问题:
- 内核头文件路径验证问题
- GCC编译器版本不匹配警告
- 函数原型缺失警告
- 隐式函数声明错误
- objtool相关错误
其中最关键的错误出现在vmx86.c文件中,提示random_get_entropy_fallback函数隐式声明,这直接导致了编译过程中断。
解决方案
vmware-host-modules项目提供了针对不同VMware版本的修补后的内核模块源代码。对于VMware Workstation 17.5.1版本,可以按照以下步骤解决问题:
- 首先获取项目源代码:
git clone https://github.com/mkubecek/vmware-host-modules.git -b workstation-17.5.1
- 进入项目目录并创建模块压缩包:
cd vmware-host-modules-workstation-17.5.1
tar -cf vmmon.tar vmmon-only
tar -cf vmnet.tar vmnet-only
- 将生成的压缩包复制到VMware模块源目录:
sudo cp -v vmmon.tar vmnet.tar /usr/lib/vmware/modules/source/
- 最后重新配置并安装所有VMware模块:
sudo vmware-modconfig --console --install-all
技术原理
这个解决方案的核心在于使用经过社区修补的模块源代码替换VMware自带的原始代码。vmware-host-modules项目维护者已经针对新内核中的API变化做了相应调整,特别是:
- 修复了
random_get_entropy_fallback相关的问题 - 添加了缺失的函数原型声明
- 调整了与objtool的兼容性
- 确保与GCC 12编译器的兼容性
这种方法相比直接修改系统配置或降级内核版本更为优雅,因为它保持了系统的完整性,同时解决了兼容性问题。
注意事项
-
确保系统中已安装必要的内核头文件和构建工具:
sudo apt install build-essential linux-headers-$(uname -r) -
操作前建议备份原有的模块文件:
sudo cp /usr/lib/vmware/modules/source/vmmon.tar /usr/lib/vmware/modules/source/vmmon.tar.bak sudo cp /usr/lib/vmware/modules/source/vmnet.tar /usr/lib/vmware/modules/source/vmnet.tar.bak -
如果遇到其他问题,可以检查VMware的日志文件获取更多信息:
cat /tmp/vmware-$(whoami)/vmware-modconfig-*.log
通过这种方法,用户可以顺利地在较新版本的Linux内核上运行VMware Workstation,而无需降级内核或等待官方更新。这体现了开源社区在解决软件兼容性问题上的灵活性和高效性。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01