TrenchBroom 2025.2版本发布:跨平台地图编辑器迎来重要更新
TrenchBroom是一款功能强大的跨平台3D地图编辑器,主要用于Quake引擎系列游戏的地图制作。作为开源项目,它以其直观的用户界面和高效的编辑工具赢得了众多关卡设计师的青睐。2025年3月,TrenchBroom团队发布了2025.2版本,带来了一系列改进和修复。
平台支持与系统要求
2025.2版本延续了TrenchBroom一贯的跨平台特性,支持Windows、Linux和macOS三大主流操作系统。具体而言:
- Windows系统需要10或11版本,仅支持64位架构
- Linux系统需要Qt 6.7或更高版本支持
- macOS系统要求10.14(Mojave)或更高版本
所有平台都需要支持OpenGL 2.1和GLSL 1.2的显卡及最新驱动程序。Windows用户还需特别注意安装Microsoft Visual C++ Redistributable for Visual Studio 2015-2022的x64版本,这是运行64位TrenchBroom的必要组件。
主要更新内容
游戏引擎与编译工具参数处理优化
本次更新修复了游戏引擎和编译工具参数处理方面的问题。对于地图设计师而言,这意味着在使用TrenchBroom配置外部游戏引擎或编译工具时,参数传递将更加可靠和准确。这一改进特别有利于那些使用自定义编译流程的高级用户,确保了从编辑器到实际游戏引擎的无缝衔接。
Linux平台打包格式改进
Linux用户将注意到一个显著变化:AppImage构建现在以zip压缩包形式分发。这一调整使得Linux版本的发布与其他平台保持一致,简化了下载和分发流程。虽然对最终用户功能没有直接影响,但这种标准化处理体现了开发团队对跨平台一致性的重视。
Quake游戏定义文件更新
2025.2版本包含了由社区贡献者eGax提供的quake.fgd文件更新。FGD(Forge Game Data)文件是TrenchBroom理解特定游戏实体和属性的关键配置文件。这些更新可能包括新的实体定义、属性修正或其他游戏特定功能的改进,为Quake系列地图制作者提供了更准确和全面的编辑支持。
技术实现细节
从技术角度看,2025.2版本虽然是一个小版本更新,但包含了多项底层改进:
-
参数处理机制重构:修复了可能导致命令行参数解析错误的问题,特别是在处理包含空格或特殊字符的路径时。
-
构建系统优化:Linux平台的打包流程经过调整,现在生成zip格式的AppImage包,与其他平台保持一致。
-
FGD文件维护:持续更新游戏定义文件,确保编辑器能够正确识别和处理最新的游戏实体和属性。
用户升级建议
对于现有用户,升级到2025.2版本是一个推荐的选择,特别是:
- 经常使用外部编译工具链的用户将受益于改进的参数处理
- Linux用户可以获得更一致的发布包体验
- Quake地图制作者能够利用最新的游戏实体定义
新用户可以放心地从2025.2版本开始使用TrenchBroom,它提供了稳定的跨平台编辑体验和最新的功能支持。
未来展望
虽然2025.2是一个维护性质的更新,但它展示了TrenchBroom项目对稳定性和跨平台一致性的持续关注。开发团队似乎在为更大的功能更新奠定基础,同时保持对社区贡献的开放态度。用户可以期待未来版本中可能出现更先进的编辑功能和对更多游戏引擎的支持。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00