DagorEngine在Windows ARM64平台上的DX12编译与运行问题解析
背景介绍
DagorEngine是一款功能强大的游戏引擎,在跨平台开发中表现优异。本文将重点探讨在Windows ARM64平台上编译和运行DagorEngine测试样例(GITest)时遇到的DirectX 12相关技术问题及其解决方案。
主要问题分析
在Windows ARM64环境下编译DagorEngine测试样例时,开发者可能会遇到以下典型问题:
- DX12驱动编译失败:在ARM64架构下使用Clang编译器时,drv3d_DX12模块可能出现编译错误
- 驱动选择问题:即使设置使用DX12,运行时仍可能默认使用DX11驱动
- 着色器编译缺失:缺少DX12着色器编译器可执行文件
- 运行时错误:使用DX12时出现内存泄漏和移动时的报错
解决方案
编译器选择与配置
针对ARM64平台,建议采用以下配置策略:
-
优先使用VC编译器:相比Clang,Visual C++编译器对ARM64的支持更为完善。可通过修改jamfile指定平台特定的编译器:
PlatformSpec_windows_x86_64 ?= clang ; PlatformSpec_windows_arm64 ?= vc17 ; -
更新开发工具链:确保使用make_devtools.py更新到最新的工具链版本,这对Clang编译DX12模块尤为重要。
DX12驱动配置
-
启用DX12支持:在jamfile中明确指定支持的驱动列表:
UseD3DMulti ?= yes ; UseD3DMultiList = stub DX11 DX12 ; -
运行时验证:检查settings.blk配置文件,确认驱动设置正确。注意DX12仅在x86_64和ARM64平台上可用,32位模式下会因内存映射不足而被禁用。
运行时依赖处理
-
DX12组件部署:需要将最新版本的d3d12core.dll和d3d12sdklayers.dll从DX12 Agility SDK复制到游戏目录的d3d12子文件夹中。
-
预编译着色器:可以直接使用项目发布的预编译着色器包,避免在ARM64平台上编译着色器的复杂性。
性能与稳定性建议
-
ARM64平台优先选择DX12:根据实际测试,ARM64硬件对DX11的驱动支持较差,容易出现随机崩溃,而DX12运行更为稳定。
-
错误处理:某些DX12运行时错误(如移动时的报错)可以暂时忽略,不影响基本功能。这可能是特定硬件或驱动版本的兼容性问题。
-
内存管理:注意监控DX12模式下的内存使用情况,及时处理可能的内存泄漏问题。
总结
在Windows ARM64平台上使用DagorEngine开发时,正确配置编译环境和运行时组件是关键。通过选择合适的编译器、明确驱动支持列表、部署必要的运行时组件,可以充分发挥DX12在ARM64平台上的性能优势。虽然可能会遇到一些兼容性问题,但通过合理的配置和错误处理,仍能获得良好的开发体验。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00