AutoGen项目v0.5.1版本发布:AgentChat消息类型重构与结构化输出支持
AutoGen是一个由微软开发的自动化多智能体对话框架,它允许开发者构建复杂的多智能体系统,实现智能体之间的协作与对话。在最新的v0.5.1版本中,AutoGen带来了多项重要更新,特别是对AgentChat消息类型的重构和结构化输出的支持,这些改进显著提升了框架的灵活性和实用性。
AgentChat消息类型重构
本次版本最核心的变化是对AgentChat消息类型的重构。在之前的版本中,消息类型是固定的,开发者只能使用预定义的消息类型。新版本通过引入类层次结构,将消息类型组织得更加清晰,并支持开发者定义自定义消息类型。
具体来说,原有的ChatMessage
和AgentEvent
联合类型被重构为基类BaseChatMessage
和BaseAgentEvent
,所有内置的具体消息类型都继承自这两个基类。这种设计使得:
- 框架核心接口(如消息处理函数
on_messages
、run
等)现在使用基类作为类型提示,提高了扩展性 - 开发者可以创建自定义消息类型,只需继承相应的基类
- 向后兼容性得到保持,原有代码只需少量类型提示修改即可继续工作
特别值得注意的是新引入的StructureMessage[T]
泛型类型,它允许开发者创建带有结构化内容的消息类型,其中T是一个Pydantic模型。这为后续的结构化输出支持奠定了基础。
结构化输出支持
v0.5.1版本显著增强了模型客户端和智能体对结构化输出的支持能力。结构化输出是指模型返回符合预定格式的数据,而非自由文本,这在构建生产级应用时尤为重要。
模型客户端的结构化输出
在模型客户端层面,新增了json_output
参数,开发者可以指定一个Pydantic模型作为期望的输出格式。模型客户端会确保返回的JSON字符串可以反序列化为指定的模型类型。
class AgentResponse(BaseModel):
thoughts: str
response: Literal["happy", "sad", "neutral"]
response = await model_client.create(
messages=[...],
json_output=AgentResponse
)
这种机制使得模型输出更加可控,便于后续处理。
AssistantAgent的结构化输出
在智能体层面,AssistantAgent
新增了output_content_type
参数。当设置了这个参数后,智能体会自动将工具调用结果转换为指定类型的StructuredMessage
。
agent = AssistantAgent(
name="assistant",
output_content_type=AgentResponse,
...
)
这种设计使得智能体间的结构化数据传递更加自然,同时也保持了与现有消息流的兼容性。
其他重要改进
除了上述核心变化外,v0.5.1版本还包含多项实用改进:
-
Azure AI搜索工具:新增了与Azure AI搜索服务的集成工具,使智能体能够执行专业的搜索任务。
-
SelectorGroupChat增强:
- 新增
candidate_func
参数,支持过滤候选智能体 - 增加了对异步选择函数的支持
- 新增
-
代码执行器改进:
- Docker执行器支持取消操作
- 标准化了代码执行器的接口方法
- 默认工作目录改为临时目录,提高安全性
-
模型客户端改进:
- 多个模型客户端增加了"思考过程"字段支持
- 改进了对Gemini/Anthropic模型空内容的处理
- 支持更多非前缀模型名称(如Mistral)
-
TokenLimitedChatCompletionContext:新增的上下文管理类,可自动限制发送给模型的token数量,对长对话场景特别有用。
开发者迁移指南
对于大多数开发者,v0.5.1版本的变更不会影响现有功能的使用。但如果你有以下需求,需要进行适配:
-
自定义智能体或终止条件:将类型提示中的
AgentEvent
改为BaseAgentEvent
,ChatMessage
改为BaseChatMessage
-
结构化输出:可以开始使用新的
json_output
参数和output_content_type
参数来获得类型安全的模型输出 -
序列化/反序列化:如果原有代码依赖联合类型进行消息处理,可以继续使用,但建议逐步迁移到基类以支持自定义消息类型
总结
AutoGen v0.5.1版本通过消息类型系统的重构和结构化输出的支持,为开发者提供了更强大、更灵活的多智能体开发体验。这些改进不仅解决了现有的一些限制,还为未来的功能扩展奠定了基础。特别是结构化输出的支持,使得AutoGen在构建生产级应用时更加可靠和高效。
对于正在使用AutoGen的开发者,建议评估新特性如何能够改进现有应用,特别是那些需要严格输出格式或自定义消息类型的场景。随着这些核心架构的改进,AutoGen正在成为一个更加成熟和强大的多智能体开发框架。
- Ggpt-oss-20bgpt-oss-20b —— 适用于低延迟和本地或特定用途的场景(210 亿参数,其中 36 亿活跃参数)Jinja00
- QQwen3-Coder-480B-A35B-InstructQwen3-Coder-480B-A35B-Instruct是当前最强大的开源代码模型之一,专为智能编程与工具调用设计。它拥有4800亿参数,支持256K长上下文,并可扩展至1M,特别擅长处理复杂代码库任务。模型在智能编码、浏览器操作等任务上表现卓越,性能媲美Claude Sonnet。支持多种平台工具调用,内置优化的函数调用格式,能高效完成代码生成与逻辑推理。推荐搭配温度0.7、top_p 0.8等参数使用,单次输出最高支持65536个token。无论是快速排序算法实现,还是数学工具链集成,都能流畅执行,为开发者提供接近人类水平的编程辅助体验。【此简介由AI生成】Python00
- GGLM-4.5-AirGLM-4.5 系列模型是专为智能体设计的基础模型。GLM-4.5拥有 3550 亿总参数量,其中 320 亿活跃参数;GLM-4.5-Air采用更紧凑的设计,拥有 1060 亿总参数量,其中 120 亿活跃参数。GLM-4.5模型统一了推理、编码和智能体能力,以满足智能体应用的复杂需求Jinja00
uni-app
A cross-platform framework using Vue.jsJavaScript01GitCode百大开源项目
GitCode百大计划旨在表彰GitCode平台上积极推动项目社区化,拥有广泛影响力的G-Star项目,入选项目不仅代表了GitCode开源生态的蓬勃发展,也反映了当下开源行业的发展趋势。05GOT-OCR-2.0-hf
阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00openHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!C0253Yi-Coder
Yi Coder 编程模型,小而强大的编程助手HTML013RuoYi-Cloud-Plus
微服务管理系统 重写RuoYi-Cloud所有功能 整合 SpringCloudAlibaba、Dubbo3.0、Sa-Token、Mybatis-Plus、MQ、Warm-Flow工作流、ES、Docker 全方位升级 定期同步Java014- CC-_QT_Hotel_Room基于C++和QT实现的酒店客房入住管理系统设计毕业源码案例设计C++01
热门内容推荐
最新内容推荐
项目优选









