PerfMark:Java 低开销手动追踪库

项目介绍
PerfMark 是一款专为 Java 设计的低开销、手动追踪库。通过在代码中添加追踪函数调用,用户可以轻松查看每个部分执行所需的时间。PerfMark 的设计理念是尽可能减少对性能敏感代码的干扰,同时提供强大的追踪功能。
项目技术分析
PerfMark 的核心技术优势在于其低开销和动态启用的特性。当启用时,追踪一个函数调用仅需约 70ns,这得益于其采用的无锁、无等待、线程本地缓冲区的设计。此外,PerfMark 可以在运行时动态启用或禁用,禁用时完全无开销,充分利用 JIT 编译器来移除追踪代码。
PerfMark 还支持跨线程通信,解决了现有分析工具难以表达线程间唤醒和执行工作的问题。通过显式表达这种关系,PerfMark 为用户提供了清晰的代码流程图。
项目及技术应用场景
PerfMark 适用于需要精确追踪代码执行时间的场景,特别是在性能敏感的应用中。例如:
- 微服务架构:在微服务架构中,跨服务的调用链路追踪至关重要。PerfMark 可以帮助开发者追踪每个服务的执行时间,优化性能瓶颈。
- 高并发系统:在高并发系统中,线程间的协作和调度是关键。PerfMark 的跨线程追踪功能可以帮助开发者理解线程间的交互,优化线程调度策略。
- 性能调优:在性能调优过程中,PerfMark 可以提供详细的执行时间数据,帮助开发者快速定位性能瓶颈。
项目特点
- 极低开销:启用时仅需约 70ns,禁用时无开销。
- 动态启用:支持在运行时动态启用或禁用,灵活性高。
- 跨线程通信:显式表达线程间的唤醒和执行关系,提供清晰的代码流程图。
- 小巧轻便:API 仅 7 KB,依赖少,易于集成。
- Chrome Trace Viewer 集成:支持导出为 Chrome Trace Event 格式,方便在浏览器中查看。
使用指南
添加依赖
在 build.gradle 中添加以下依赖:
dependencies {
implementation 'io.perfmark:perfmark-api:0.27.0'
// 仅在应用程序中需要,库中不需要
implementation 'io.perfmark:perfmark-traceviewer:0.27.0'
}
或在 pom.xml 中添加:
<dependency>
<groupId>io.perfmark</groupId>
<artifactId>perfmark-api</artifactId>
<version>0.27.0</version>
</dependency>
代码示例
在代码中添加 PerfMark 追踪调用:
Map<String, Header> parseHeaders(List<String> rawHeaders) {
try (TaskCloseable task = PerfMark.traceTask("Parse HTTP headers")) {
Map<String, String> headers = new HashMap<>();
for (String rawHeader : rawHeaders) {
Header header = parseHeader(rawHeader);
headers.put(header.name(), header);
}
return headers;
}
}
PerfMark 还支持记录异步工作:
Future<Response> buildResponse() {
try (TaskCloseable task = PerfMark.traceTask("Build Response")) {
Link link = PerfMark.linkOut();
return executor.submit(() -> {
try (TaskCloseable task2 = PerfMark.traceTask("Async Response")) {
PerfMark.linkIn(link);
return new Response(/* ... */);
}
});
}
}
查看追踪结果
在浏览器中查看追踪结果,生成 HTML:
PerfMark.setEnabled(true);
PerfMark.event("My Task");
TraceEventViewer.writeTraceHtml();
输出效果如下:

配置
PerfMark 提供了一些系统属性,允许控制其初始化方式。这些属性可以通过 JVM 参数设置(例如 -Dio.perfmark.PerfMark.startEnabled=true)。
io.perfmark.PerfMark.startEnabled:控制 PerfMark 是否在启动时启用。io.perfmark.PerfMark.debug:控制 PerfMark 是否记录初始化步骤。
版本控制与 API 稳定性
PerfMark 遵循语义化版本控制,不会在次版本更新中破坏现有 API。PerfMark 可能会禁用某些功能,因此可能需要使某些追踪调用变为无操作。在这种情况下,调用这些函数仍然是安全的。
用户
PerfMark 最初为 gRPC 设计,也被 Zuul 使用。
PerfMark 是一款功能强大且易于使用的 Java 追踪库,特别适合需要精确追踪代码执行时间的场景。无论是在微服务架构、高并发系统还是性能调优中,PerfMark 都能为您提供有力的支持。立即尝试 PerfMark,优化您的代码性能!
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00