NewRelic Node.js 代理 v12.17.0 版本发布:增强Azure Functions支持与分布式追踪采样控制
NewRelic Node.js 代理是一个功能强大的应用性能监控工具,它能够帮助开发者深入了解Node.js应用的运行状况,捕获关键性能指标,并追踪分布式系统中的请求流转。最新发布的v12.17.0版本带来了几项重要更新,特别是在Azure Functions支持和分布式追踪采样控制方面有了显著增强。
Azure Functions利用率监控
在这个版本中,代理新增了对Azure Functions的利用率监控功能。Azure Functions作为无服务器计算服务,其资源利用情况一直是开发者关注的焦点。通过这项功能,开发者现在可以更清晰地了解函数执行的资源消耗情况,包括CPU、内存等关键指标。
这项改进使得在Azure Functions环境中部署的Node.js应用能够获得与其他环境一致的可观测性体验。开发者可以像监控传统服务器应用一样,监控无服务器函数的性能表现,及时发现潜在的性能瓶颈。
W3C traceparent采样标志支持
分布式追踪是现代微服务架构中不可或缺的组成部分。v12.17.0版本引入了一项重要特性:支持W3C traceparent规范的采样标志控制。
在分布式系统中,一个请求可能会经过多个服务,每个服务都可能产生大量追踪数据。为了平衡数据收集和系统开销,采样机制变得尤为重要。traceparent规范定义了一个采样标志位,用于指示上游服务是否希望当前服务记录追踪数据。
新版本提供了灵活的配置选项,开发者可以通过以下配置项精确控制采样行为:
-
当traceparent采样标志为"01"(表示上游希望采样)时:
- always_on:强制采样
- always_off:强制不采样
- default:使用代理原有的优先级采样机制
-
当traceparent采样标志为"00"(表示上游不希望采样)时:
- 同样提供上述三种选项
这种细粒度的控制能力使得开发者可以根据业务需求调整采样策略,在保证关键业务数据完整性的同时,有效控制监控系统的开销。
OpenTelemetry桥接器改进
v12.17.0还对OpenTelemetry桥接器进行了重构,主要是为了集中管理span属性的映射规则。OpenTelemetry作为云原生可观测性的标准,其语义约定规范会不断更新。通过这次改进,代理能够更好地适应这些规范变化,确保与OpenTelemetry生态系统的兼容性。
这项改进虽然对终端用户透明,但它为未来的功能扩展打下了坚实基础,使得代理能够更快地支持OpenTelemetry规范的新特性。
测试与兼容性
为了保证稳定性,新版本特别针对LangChain的OpenAI集成进行了测试适配,确保在相关技术栈中的兼容性。同时,代理的兼容性报告也得到了更新,帮助开发者更好地评估升级风险。
升级建议
NewRelic建议用户尽快升级到最新版本,以获得最佳的性能监控体验和安全保障。如果无法立即升级,也应确保使用的代理版本不超过90天。定期更新监控代理不仅能获得新功能,还能确保监控数据的准确性和安全性。
对于使用Azure Functions或复杂分布式系统的团队,v12.17.0版本提供的增强功能将显著提升监控能力,值得优先考虑升级。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00