AutoGen项目v0.5.1版本发布:AgentChat消息类型重构与结构化输出支持
AutoGen是一个由微软开发的自动化多智能体对话框架,它允许开发者构建复杂的多智能体系统,实现智能体之间的协作与对话。在最新的v0.5.1版本中,AutoGen带来了多项重要更新,特别是对AgentChat消息类型的重构和结构化输出的支持,这些改进显著提升了框架的灵活性和实用性。
AgentChat消息类型重构
本次版本最核心的变化是对AgentChat消息类型的重构。在之前的版本中,消息类型是固定的,开发者只能使用预定义的消息类型。新版本通过引入类层次结构,将消息类型组织得更加清晰,并支持开发者定义自定义消息类型。
具体来说,原有的ChatMessage和AgentEvent联合类型被重构为基类BaseChatMessage和BaseAgentEvent,所有内置的具体消息类型都继承自这两个基类。这种设计使得:
- 框架核心接口(如消息处理函数
on_messages、run等)现在使用基类作为类型提示,提高了扩展性 - 开发者可以创建自定义消息类型,只需继承相应的基类
- 向后兼容性得到保持,原有代码只需少量类型提示修改即可继续工作
特别值得注意的是新引入的StructureMessage[T]泛型类型,它允许开发者创建带有结构化内容的消息类型,其中T是一个Pydantic模型。这为后续的结构化输出支持奠定了基础。
结构化输出支持
v0.5.1版本显著增强了模型客户端和智能体对结构化输出的支持能力。结构化输出是指模型返回符合预定格式的数据,而非自由文本,这在构建生产级应用时尤为重要。
模型客户端的结构化输出
在模型客户端层面,新增了json_output参数,开发者可以指定一个Pydantic模型作为期望的输出格式。模型客户端会确保返回的JSON字符串可以反序列化为指定的模型类型。
class AgentResponse(BaseModel):
thoughts: str
response: Literal["happy", "sad", "neutral"]
response = await model_client.create(
messages=[...],
json_output=AgentResponse
)
这种机制使得模型输出更加可控,便于后续处理。
AssistantAgent的结构化输出
在智能体层面,AssistantAgent新增了output_content_type参数。当设置了这个参数后,智能体会自动将工具调用结果转换为指定类型的StructuredMessage。
agent = AssistantAgent(
name="assistant",
output_content_type=AgentResponse,
...
)
这种设计使得智能体间的结构化数据传递更加自然,同时也保持了与现有消息流的兼容性。
其他重要改进
除了上述核心变化外,v0.5.1版本还包含多项实用改进:
-
Azure AI搜索工具:新增了与Azure AI搜索服务的集成工具,使智能体能够执行专业的搜索任务。
-
SelectorGroupChat增强:
- 新增
candidate_func参数,支持过滤候选智能体 - 增加了对异步选择函数的支持
- 新增
-
代码执行器改进:
- Docker执行器支持取消操作
- 标准化了代码执行器的接口方法
- 默认工作目录改为临时目录,提高安全性
-
模型客户端改进:
- 多个模型客户端增加了"思考过程"字段支持
- 改进了对Gemini/Anthropic模型空内容的处理
- 支持更多非前缀模型名称(如Mistral)
-
TokenLimitedChatCompletionContext:新增的上下文管理类,可自动限制发送给模型的token数量,对长对话场景特别有用。
开发者迁移指南
对于大多数开发者,v0.5.1版本的变更不会影响现有功能的使用。但如果你有以下需求,需要进行适配:
-
自定义智能体或终止条件:将类型提示中的
AgentEvent改为BaseAgentEvent,ChatMessage改为BaseChatMessage -
结构化输出:可以开始使用新的
json_output参数和output_content_type参数来获得类型安全的模型输出 -
序列化/反序列化:如果原有代码依赖联合类型进行消息处理,可以继续使用,但建议逐步迁移到基类以支持自定义消息类型
总结
AutoGen v0.5.1版本通过消息类型系统的重构和结构化输出的支持,为开发者提供了更强大、更灵活的多智能体开发体验。这些改进不仅解决了现有的一些限制,还为未来的功能扩展奠定了基础。特别是结构化输出的支持,使得AutoGen在构建生产级应用时更加可靠和高效。
对于正在使用AutoGen的开发者,建议评估新特性如何能够改进现有应用,特别是那些需要严格输出格式或自定义消息类型的场景。随着这些核心架构的改进,AutoGen正在成为一个更加成熟和强大的多智能体开发框架。
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00