Promptfoo 0.103.4版本发布:增强测试过滤与断言功能
Promptfoo是一个专注于大语言模型(Large Language Model)测试和评估的开源框架。它允许开发者系统地测试不同提示词(Prompt)的效果,比较不同模型或配置的输出,并确保AI系统的可靠性和安全性。本次0.103.4版本的更新主要围绕测试过滤、断言功能增强和安全性测试改进三个方面展开。
核心功能增强
测试结果过滤功能
新版本在命令行工具中增加了--filter-errors-only参数,这是一个实用的测试结果过滤功能。当执行eval命令时,使用该参数可以只显示包含错误的测试用例,帮助开发者快速定位问题。这个功能特别适合在持续集成(CI)环境中使用,可以显著减少日志噪音,让开发者专注于需要修复的问题。
F5提供商支持
框架新增了对F5提供商的占位支持。F5作为知名的应用交付和安全解决方案提供商,其集成将为用户提供更多部署选项。虽然当前版本只是占位实现,但为后续完整支持奠定了基础。
外部断言功能强化
断言系统是Promptfoo的核心组件之一,本次更新对其进行了多项改进:
-
现在可以在外部断言中指定函数名称,这为复杂测试场景提供了更大的灵活性。开发者可以更精确地控制断言逻辑的执行方式。
-
修复了Python断言中引用配置的问题,确保其行为与文档示例一致。这个修复使得Python断言更加可靠,特别是在需要访问测试配置信息的场景下。
-
改进了断言示例,并调整了默认使用的模型为GPT4-mini,这有助于提高断言执行的效率和成本效益。
安全测试改进
Promptfoo的安全测试功能在本版本中获得了多项增强:
-
改进了树状策略的评分机制,使其对潜在安全风险的识别更加准确。
-
优化了迭代式测试提供商的测试用例评分系统,提高了测试的精确度。
-
调整了树节点选择算法并增加了元数据支持,这使得测试过程更加透明,结果更易于分析。
-
减少了迭代式图像提供商的拒绝率,提高了测试的覆盖面和有效性。
-
新增了英语语言的网络安全评估内容,扩展了安全测试的覆盖范围。
开发者体验优化
-
改进了Web界面中元数据的展开/收起处理,使测试结果的浏览更加流畅。
-
增强了提供商覆盖设置的显示,确保配置信息准确呈现。
-
为WatsonX AI提供商增加了对WATSONX_AI_AUTH_TYPE环境变量的支持,简化了认证配置。
-
在Llama提供商中添加了调试日志,便于问题排查。
-
改进了测试的设置和清理过程,提高了测试的可靠性。
文档与示例改进
-
安全配置对话框的内容更加清晰,帮助用户更快上手复杂的安全测试场景。
-
文档中增加了暗黑模式支持,改善了阅读体验。
-
插件列表现在按pluginId排序,查找更加方便。
-
更新了LLM安全类型文档,反映了最新的安全研究成果。
-
修正了G-Eval页面的拼写错误,提高了文档的准确性。
技术细节优化
-
更新了多个依赖项到最新版本,包括@aws-sdk/client-bedrock-runtime和openai等关键库。
-
解决了依赖锁定文件中的问题,确保构建过程的稳定性。
-
为提供商测试响应添加了类型定义,增强了代码的类型安全性。
Promptfoo 0.103.4版本通过这些改进,进一步巩固了其作为大语言模型测试首选工具的地位。无论是常规的提示词测试,还是复杂的安全评估场景,新版本都提供了更强大、更可靠的功能支持。对于重视AI系统质量和安全性的团队来说,升级到这个版本将获得更完善的测试能力和更流畅的开发体验。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
ruoyi-plus-soybeanRuoYi-Plus-Soybean 是一个现代化的企业级多租户管理系统,它结合了 RuoYi-Vue-Plus 的强大后端功能和 Soybean Admin 的现代化前端特性,为开发者提供了完整的企业管理解决方案。Vue06- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00