AutoGen项目v0.4.8版本发布:增强AI代理协作能力
AutoGen是一个由微软开发的AI代理协作框架,它允许开发者创建多个AI代理进行协同工作,完成复杂的任务。该框架支持多种大语言模型,并提供丰富的工具和接口来构建智能代理系统。最新发布的v0.4.8版本带来了多项重要更新,进一步提升了框架的功能性和易用性。
Ollama聊天客户端集成
v0.4.8版本新增了对Ollama聊天客户端的原生支持。Ollama是一个流行的本地大语言模型运行环境,开发者现在可以轻松地将本地运行的模型集成到AutoGen系统中。
使用Ollama客户端非常简单,首先需要安装额外的依赖包:
pip install -U "autogen-ext[ollama]"
然后就可以创建Ollama客户端实例并发送请求:
from autogen_ext.models.ollama import OllamaChatCompletionClient
from autogen_core.models import UserMessage
ollama_client = OllamaChatCompletionClient(model="llama3")
result = await ollama_client.create([UserMessage(content="法国的首都是哪里?", source="user")])
这个新功能特别适合需要在本地环境运行模型的场景,为开发者提供了更多灵活性。Ollama客户端还支持结构化输出,可以自动将模型响应转换为预定义的Pydantic模型。
消息处理机制改进
新版本对消息处理机制做了几项重要改进:
-
FunctionExecutionResult新增必填字段:现在FunctionExecutionResult必须包含name字段,这有助于更好地追踪函数调用结果。
-
新增thought字段支持:CreateResult和ThoughtEvent现在支持thought字段,用于存储模型在工具调用过程中产生的额外文本内容。这个功能目前已在OpenAIChatCompletionClient中实现,当有thought内容时,AssistantAgent会将其作为ThoughtEvent消息发出。
-
消息元数据支持:所有AgentChat消息类型现在都支持metadata字段,开发者可以在这个字段中存储自定义的元数据内容。
代理终止条件增强
v0.4.8版本引入了新的终止条件,让开发者能更精确地控制代理的行为:
-
TextMessageTerminationCondition:允许基于文本消息内容终止代理运行,适合控制单代理团队的循环执行。
-
FunctionCallTermination:这是一个自定义终止条件的示例,展示了如何基于函数调用来终止代理。
这些新特性使得代理行为的控制更加灵活和精确,开发者可以根据具体需求设计复杂的终止逻辑。
错误处理改进
新版本改进了错误处理机制,现在如果在AgentChat代理(如AssistantAgent)中发生异常,系统会直接抛出异常而不是静默停止团队运行。这一变化使得错误更容易被发现和调试,提高了系统的可靠性。
文档和示例更新
v0.4.8版本包含了大量文档更新和新的示例代码:
-
ChainLit示例:新增了包含UserProxyAgent的团队示例,展示了如何从UI获取用户输入。
-
日志记录指南:新增了AgentChat的日志记录说明,并增强了核心日志指南。
-
API文档:丰富了AssistantAgent API文档,增加了更多使用示例。
-
终止条件和工具使用指南:更新了终止条件的使用说明和工具使用指南。
这些文档更新使得新用户能更快上手AutoGen框架,同时也为高级用户提供了更多参考信息。
其他改进和错误修复
除了上述主要特性外,v0.4.8版本还包含了许多其他改进和错误修复:
-
结构化输出修复:修复了OpenAIChatCompletionClient中结构化输出与工具调用的问题。
-
参数转换改进:自动将Pydantic和数据类参数转换为AutoGen工具调用中的正确格式。
-
HTTP工具增强:支持在HTTP工具请求中添加自定义头部。
-
Anthropic原生支持:新增了对Anthropic模型的原生支持。
这些改进进一步提升了框架的稳定性和功能性,为开发者提供了更好的使用体验。
总结
AutoGen v0.4.8版本带来了多项重要更新,包括新的Ollama客户端支持、消息处理机制改进、更灵活的终止条件以及大量文档更新。这些变化使得AutoGen框架更加强大和易用,为构建复杂的AI代理系统提供了更多可能性。无论是需要在本地运行模型的场景,还是需要精确控制代理行为的复杂应用,新版本都提供了更好的支持。
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00