Valgrind 技术文档
1. 安装指南
从 Subversion 仓库安装
-
从 SVN 仓库检出代码,具体操作请参考 Valgrind 下载页面。
-
进入源代码目录。
-
运行
./autogen.sh脚本以设置环境(需要标准的 autoconf 工具)。 -
接着执行以下步骤...
从 tar.bz2 分发安装
-
运行
./configure,如果需要,可以添加一些选项。唯一有趣的选项是通常的--prefix=/where/you/want/it/installed。 -
运行
make。 -
运行
make install,如果目标权限需要,可能需要 root 权限。 -
检查是否成功安装。尝试运行
valgrind ls -l。如果这能正常运行,说明安装成功;如果报错,请通知我们(参考 Valgrind 网站)。
重要提示: 不要将 Valgrind 安装移动到与构建时指定的 --prefix 不同的位置。这可能会导致在处理 fork/exec 调用时出现微妙的问题。
2. 项目使用说明
Valgrind 是一个用于构建动态分析工具的框架。它包含了一些可以自动检测许多内存管理和线程错误的工具,并且可以详细分析程序。您还可以使用 Valgrind 构建新的工具。
Valgrind 分发版目前包括六个生产质量的工具:一个内存错误检测器、两个线程错误检测器、一个缓存和分支预测分析器、一个生成调用图的缓存和分支预测分析器以及一个堆分析器。此外,还包括三个实验性工具:一个堆/栈/全局数组溢出检测器、一种不同类型的堆分析器和 SimPoint 基本块矢量生成器。
Valgrind 与 CPU、操作系统、编译器和基本 C 库的细节紧密相关。这使得它难以移植。尽管如此,它还是可以在以下平台上使用:
- X86/Linux
- AMD64/Linux
- PPC32/Linux
- PPC64/Linux
- ARM/Linux
- x86/MacOSX
- AMD64/MacOSX
- S390X/Linux
- MIPS32/Linux
- MIPS64/Linux
注意:AMD64 是 x86_64 的另一个名称,Valgrind 在 Intel 处理器上运行良好。另外,MacOSX 的核心称为 "Darwin",有时会使用这个名字。
Valgrind 根据 GNU 通用公共许可证第二版授权。请阅读源分发中的 COPYING 文件以获取详细信息。
但是:如果您贡献代码,您需要将其作为 GPL 第二版或更高版本提供,而不是仅第二版。
3. 项目 API 使用文档
Valgrind 的 API 文档可以在用户指南中找到。指南的位置是 $PREFIX/share/doc/valgrind/manual.html,其中 $PREFIX 是构建时使用 --prefix= 指定的前缀。
4. 项目安装方式
请参考上述 "安装指南" 部分进行项目安装。
以上是 Valgrind 的技术文档,希望对您有所帮助。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00