GoldenDict-NG 在 Qt6 6.7.2 下的构建问题分析与解决方案
问题背景
GoldenDict-NG 是一款优秀的开源词典软件,近期在 Arch Linux 系统上使用 AUR 包构建时遇到了编译失败的问题。这个问题主要出现在系统升级到 Qt6 6.7.2 版本后,特别是在处理 FFmpeg 相关代码时出现了兼容性问题。
问题分析
主要错误表现
构建过程中最关键的失败点出现在 FFmpeg 音频处理模块的编译阶段,具体表现为:
- AVCodecContext 结构体中缺少
channels和channel_layout成员 av_get_default_channel_layout和swr_alloc_set_opts函数未声明avcodec_close函数被标记为已弃用
这些错误表明代码中使用的 FFmpeg API 与新版本的 FFmpeg 库不兼容。FFmpeg 在较新版本中对音频通道相关的 API 进行了重构,移除了旧的成员变量和函数。
其他兼容性问题
除了 FFmpeg 相关的问题外,构建过程中还出现了其他一些兼容性警告:
- QCryptographicHash 类的
addData方法被标记为已弃用 - QKeyCombination 的转换操作符被标记为已弃用
- QTouchEvent 和 QEventPoint 中的多个方法被标记为已弃用
这些警告虽然不会导致构建失败,但也表明代码需要更新以适应新版本的 Qt6 API。
解决方案
临时解决方案
对于急需使用 GoldenDict-NG 的用户,最简单的解决方案是禁用 FFmpeg 播放器支持:
cmake -DWITH_FFMPEG_PLAYER=OFF ...
这将跳过有问题的 FFmpeg 相关代码的编译,允许构建过程继续进行。不过这会牺牲掉 FFmpeg 支持的音频播放功能。
长期解决方案
从代码层面解决这个问题需要以下修改:
- 更新 AVCodecContext 的使用方式,使用新的
ch_layout成员替代旧的channels和channel_layout - 使用
swr_alloc_set_opts2替代已弃用的swr_alloc_set_opts - 使用 FFmpeg 的新版通道布局 API 替代
av_get_default_channel_layout - 更新已弃用的 Qt API 调用
系统环境配置建议
对于使用 Arch Linux 等滚动更新发行版的用户,如果系统中同时安装了多个版本的 FFmpeg,可以通过调整 PKG_CONFIG_PATH 环境变量来确保构建系统使用正确版本的 FFmpeg:
export PKG_CONFIG_PATH=/usr/lib/pkgconfig:/usr/share/pkgconfig
这可以确保构建系统优先使用系统主版本的 FFmpeg 而非兼容性版本。
构建资源管理
在构建过程中,部分用户可能会遇到编译器进程被终止的情况,这通常是由于系统内存不足导致的。建议:
- 增加交换空间(Swap)
- 关闭其他内存密集型应用
- 在内存较小的系统上,可以考虑使用
-j参数限制并行编译任务数
总结
GoldenDict-NG 在 Qt6 6.7.2 下的构建问题主要源于 FFmpeg API 的变更和部分 Qt API 的弃用。用户可以通过禁用 FFmpeg 支持作为临时解决方案,而长期解决方案需要代码层面的更新以适应新的 API。对于开发者而言,及时跟进上游依赖库的 API 变更,定期更新代码中的相关调用,是维护软件兼容性的重要工作。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00