Promptfoo 0.114.0版本发布:增强AI测试与评估能力
项目简介
Promptfoo是一个专注于AI提示工程和模型评估的开源工具。它帮助开发者和研究人员系统地测试、比较和优化各种AI模型的提示词(prompt)效果,支持多种主流AI提供商如OpenAI、Anthropic、Google等。通过提供标准化的评估框架,Promptfoo让用户能够量化AI模型的输出质量,从而做出更明智的技术决策。
核心功能更新
1. 新增xAI图像提供商支持
本次版本增加了对xAI图像生成服务的集成。xAI作为新兴的AI提供商,其图像生成能力现在可以直接通过Promptfoo进行测试和评估。开发者可以:
- 将xAI与其他图像生成服务(如DALL-E、Stable Diffusion)进行横向对比
- 通过标准化测试评估不同提示词在xAI上的效果差异
- 建立自动化测试流程监控xAI生成质量的稳定性
2. CLI验证命令增强
新引入的validate命令行工具为配置文件和测试用例提供了静态检查功能:
- 自动检测YAML/JSON配置文件中的语法错误
- 验证提供者API密钥等关键配置的完整性
- 检查测试用例结构的合规性
- 支持在CI/CD流水线中作为预提交检查使用
3. 红队测试能力扩展
在安全测试方面,本次更新带来了多项增强:
- 新增camelCase策略:针对驼峰命名敏感场景的特殊测试方法
- 集成ToxicChat数据集:提供现成的有害内容检测基准
- 界面优化:改进了红队测试目的字段的展示效果
- 插件支持:增加了无标签策略插件的兼容性
4. 评估查询类型化接口
为提升开发体验,新增了类型化的行接口用于评估查询:
- 提供强类型的查询结果结构定义
- 增强IDE的代码补全和类型检查能力
- 减少运行时类型错误的风险
- 改善大型评估项目的可维护性
重要问题修复
-
提示词分隔符处理:修复了当PROMPTFOO_PROMPT_SEPARATOR包含在文本文件字符串中时的拆分逻辑问题,确保复杂提示词的正确解析。
-
Bedrock测试隔离:解决了AWS Bedrock测试中代理变量污染的问题,保证测试环境的独立性。
-
文档导航体验:优化了文档页面的滚动行为,修复了链接跳转后页面位置不重置的问题。
-
意图提取稳定性:改进了当提取过多意图时的错误处理机制,防止界面渲染失败。
-
认证请求路径:修正了API认证请求的路径配置,确保安全验证流程的正确执行。
开发者体验优化
-
Claude 4模型支持:在Anthropic、Bedrock和Vertex提供商中增加了对最新Claude 4模型的兼容性。
-
Fal提供商更新:同步了Fal提供商的最新API变更,确保服务的稳定性。
-
浏览器运行选项:在Web界面中添加了最大并发数的配置选项,方便控制本地运行的资源占用。
-
类型化工具模式:为MCP(模型控制平面)工具模式添加了类型化接口,提升开发效率。
安全与合规增强
-
红队报告完善:在红队测试报告中新增了"Agent Discovered Information"部分,提供更全面的安全评估数据。
-
有害插件预设:在红队设置界面中增加了有害插件的预设选项,简化安全测试的初始配置。
-
Gemini MCP集成:修复了无法解析$schema字段的问题,确保与Gemini模型的合规集成。
文档与示例改进
-
内容复制功能:为文档页面添加了简洁的复制按钮,并改进了文本净化处理。
-
红队插件文档:补充了之前缺失的红队测试插件使用说明。
-
图示说明:新增了迭代式越狱(jailbreak)的示意图解,帮助理解复杂的安全测试概念。
技术架构演进
本次版本在架构层面有几个值得注意的改进:
-
类型系统强化:通过引入更多类型化接口,项目正在向更严格的类型安全方向演进,这对大型评估项目的可维护性至关重要。
-
插件体系扩展:新增的ToxicChat数据集作为插件集成,展示了Promptfoo灵活的插件架构,可以方便地纳入第三方测试资源。
-
多提供商支持:持续扩展的提供商集成列表(如新增xAI)体现了项目对多模型生态的支持承诺。
升级建议
对于现有用户,建议关注以下升级注意事项:
-
如果使用Bedrock服务,请注意代理变量隔离的变更可能影响现有测试环境配置。
-
新引入的类型化接口可能需要对自定义评估脚本进行小幅调整以获得完整的类型检查优势。
-
红队测试功能的扩展为安全评估提供了更多工具,值得安全团队探索。
-
CLI验证命令的加入建议纳入CI/CD流程,作为质量门禁的一部分。
Promptfoo 0.114.0版本通过多项新功能和改进,进一步巩固了其作为AI提示工程和模型评估首选工具的地位。无论是新增的xAI支持、增强的安全测试能力,还是开发者体验的持续优化,都体现了项目团队对提升AI开发生命周期质量的专注。这些改进使得从基础提示词测试到复杂的安全评估等各种场景都能获得更好的支持。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00