innoextract 技术文档
本文档旨在帮助用户安装和使用 innoextract 工具,详细介绍了安装指南、使用说明以及项目 API 使用文档。
1. 安装指南
依赖关系
在安装 innoextract 之前,需要确保以下依赖项已正确安装:
对于 Boost,需要其头文件以及 iostreams、filesystem、date_time、system 和 program_options 库。较旧的 Boost 版本可能也可以工作,但不受官方支持。boost::iostreams 库需要与 zlib 和 bzip2 支持一起构建。
虽然可以手动设置 -DUSE_LZMA=OFF 来禁用 liblzma,但强烈建议不要这样做,因为没有它,将无法提取大多数使用较新 Inno Setup 版本创建的安装程序。
此外,构建 innoextract 还需要 CMake 2.8 和一个工作正常的 C++ 编译器,以及 liblzma 和 Boost 的开发头文件。
编译与安装
要编译 innoextract,请运行以下命令:
mkdir -p build && cd build
cmake ..
make
要将二进制文件系统范围安装,请以 root 用户身份运行以下命令:
make install
默认构建设置适用于普通用户。如果您计划对 Arx Libertatis 进行更改,应在 cmake 命令后添加 -DDEVELOPER=1 选项,以启用调试输出和快速增量构建。
2. 使用说明
innoextract 工具用于提取 Inno Setup 创建的安装程序,而无需在非 Windows 系统上运行实际的安装程序。要提取一个安装文件到当前目录,请运行:
innoextract <file>
要获取 innoextract 的可用选项列表,请运行:
innoextract --help
文档还以手册页的形式提供:
man 1 innoextract
3. 项目 API 使用文档
innoextract 的 API 使用文档目前不提供,因为它主要是作为一个命令行工具使用,而不是一个库。
4. 项目安装方式
innoextract 的安装方式已在“安装指南”部分详细说明。以下是简要步骤:
- 确保所有依赖项已安装。
- 创建构建目录并进入。
- 使用
cmake配置项目。 - 运行
make命令编译项目。 - 使用
make install命令安装编译后的二进制文件。
请按照上述指南进行操作,以成功安装和使用 innoextract。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00