首页
/ Promptfoo 0.104.1版本发布:动态测试用例与LLM评估能力增强

Promptfoo 0.104.1版本发布:动态测试用例与LLM评估能力增强

2025-06-09 20:02:48作者:齐冠琰

项目简介

Promptfoo是一个专注于AI提示工程和模型评估的开源工具,它帮助开发者系统地测试、比较和优化不同提示词(prompt)及语言模型的表现。通过提供标准化的评估框架,Promptfoo已成为提示工程领域的重要工具。

核心功能更新

动态测试用例支持

本次版本最显著的改进是增加了对动态测试用例的支持。现在开发者可以直接从Python和JavaScript/TypeScript文件中加载测试用例,这带来了几个重要优势:

  1. 灵活性提升:不再局限于静态配置文件,可以通过编程方式动态生成测试用例
  2. 复用性增强:可以直接导入现有代码库中的测试逻辑
  3. 复杂场景覆盖:能够处理需要动态生成输入数据的测试场景

这一特性特别适合那些测试逻辑复杂或需要与其他系统集成的评估场景。

LLM评估标准增强

在模型评估方面,0.104.1版本对llm-rubric断言功能进行了多项改进:

  1. 阈值支持:新增了threshold参数,允许设置通过评估的最低分数阈值
  2. 输出解析优化:改进了对LLM评分输出的解析逻辑,现在能够更准确地处理各种评分格式
  3. 宽松JSON处理:评估时对JSON格式的处理更加宽容,减少了因格式问题导致的误判

这些改进使得基于LLM的自动评估更加可靠和灵活,特别是在需要量化评估模型输出的场景中。

重要功能优化

安全与合规增强

  1. 有害内容检测:改进了拒绝检测逻辑,能够更准确地识别模型生成的有害或不当内容
  2. 认证清理:当签名认证被禁用时,会自动清理相关配置信息,避免潜在的安全风险

用户体验改进

  1. 进度反馈:为长时间运行的任务(如红队测试)添加了进度条支持
  2. 界面优化
    • 搜索字段增加了清除按钮
    • 通过率现在以渐变颜色显示,更直观
    • 下拉菜单的视觉布局得到改善

新模型支持

  1. Bedrock Llama3.3:新增了对AWS Bedrock平台上Llama3.3模型的支持
  2. Fireworks:集成了Fireworks AI平台作为新的提供商选项

开发者体验提升

  1. 配置处理:现在能够优雅地处理空配置文件,避免意外中断
  2. 缓存控制:提供了deleteFromCache方法,允许开发者主动清除特定缓存项
  3. 路径处理:改进了对绝对路径的处理逻辑,使代码导入更加可靠
  4. 参数覆盖:允许覆盖Alibaba API的基础URL,方便自定义部署场景

技术细节优化

  1. Go语言提供程序:修复了包含引号的提示词处理问题
  2. OpenAI聊天补全:增强了边缘情况处理能力
  3. 动态方法调用:添加了更严格的验证机制
  4. 依赖更新:升级了多个关键依赖项,包括Vitest和esbuild

总结

Promptfoo 0.104.1版本通过引入动态测试用例支持和增强LLM评估能力,进一步巩固了其作为提示工程评估工具的领导地位。新版本不仅提升了工具的灵活性和可靠性,还通过多项细节优化改善了开发者体验。这些改进使得Promptfoo能够更好地服务于从简单提示词测试到复杂模型评估的各种场景,是AI应用开发者和研究人员不可或缺的工具。

登录后查看全文