使用Strands Agent与OpenAI模型构建智能代理的入门指南
2025-06-03 19:51:13作者:范靓好Udolf
概述
Strands Agent是一个采用模型驱动方法的SDK,能够帮助开发者用少量代码构建和运行AI代理。该框架支持多种模型提供商,可以灵活地部署在任何环境中。本文将重点介绍如何通过Strands Agent SDK集成OpenAI模型(以Azure托管的gpt-4.1-mini为例)来构建一个具备天气查询和时间查询功能的智能代理。
技术架构解析
Strands Agent采用了简洁而强大的架构设计:
- 模型层:通过LiteLLM统一接口支持多种LLM提供商
- 工具层:可扩展的工具集,为代理提供特定功能
- 代理核心:协调模型推理与工具调用的中枢系统
这种分层架构使得开发者可以灵活地替换模型提供商或添加新工具,而不影响整体系统稳定性。
环境准备
基础要求
- Python 3.10或更高版本
- Azure账户权限
- 可访问gpt-4.1-mini模型的服务端点
依赖安装
首先需要安装必要的Python包:
pip install -r requirements.txt
核心代码实现
1. 导入依赖
import os
from datetime import datetime
from datetime import timezone as tz
from typing import Any
from zoneinfo import ZoneInfo
from strands import Agent, tool
from strands.models.litellm import LiteLLMModel
2. 配置Azure API密钥
os.environ["AZURE_API_KEY"] = "<YOUR_API_KEY>"
os.environ["AZURE_API_BASE"] = "<YOUR_API_BASE>"
os.environ["AZURE_API_VERSION"] = "<YOUR_API_VERSION>"
3. 定义工具函数
我们创建两个示例工具来展示代理能力:
@tool
def current_time(timezone: str = "UTC") -> str:
"""获取指定时区的当前时间"""
if timezone.upper() == "UTC":
timezone_obj: Any = tz.utc
else:
timezone_obj = ZoneInfo(timezone)
return datetime.now(timezone_obj).isoformat()
@tool
def current_weather(city: str) -> str:
"""获取指定城市的天气情况(示例返回固定值)"""
return "sunny"
4. 配置模型参数
model = "azure/gpt-4.1-mini"
litellm_model = LiteLLMModel(
model_id=model, params={"max_tokens": 32000, "temperature": 0.7}
)
5. 创建代理实例
system_prompt = "You are a simple agent that can tell the time and the weather"
agent = Agent(
model=litellm_model,
system_prompt=system_prompt,
tools=[current_time, current_weather],
)
测试与验证
执行查询
results = agent("What time is it in Seattle? And how is the weather?")
分析结果
- 查看完整的对话历史:
agent.messages
- 检查资源使用情况:
results.metrics
最佳实践建议
- 模型选择:根据任务复杂度选择合适的模型,简单任务可使用轻量级模型
- 温度参数:对于确定性任务,建议降低temperature值(如0.2-0.5)
- 工具设计:保持工具函数单一职责,提供清晰的文档字符串
- 错误处理:在实际应用中应增强工具函数的错误处理能力
扩展思考
通过这个基础示例,开发者可以进一步探索:
- 集成更复杂的工具链(如数据库查询、API调用)
- 实现多代理协作系统
- 添加记忆机制实现上下文感知
- 开发自定义监控和日志系统
Strands Agent的模块化设计为这些高级功能提供了良好的扩展基础。
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust0138- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
MiniCPM-V-4.6这是 MiniCPM-V 系列有史以来效率与性能平衡最佳的模型。它以仅 1.3B 的参数规模,实现了性能与效率的双重突破,在全球同尺寸模型中登顶,全面超越了阿里 Qwen3.5-0.8B 与谷歌 Gemma4-E2B-it。Jinja00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
MusicFreeDesktop插件化、定制化、无广告的免费音乐播放器TypeScript00
热门内容推荐
最新内容推荐
项目优选
收起
暂无描述
Dockerfile
726
4.66 K
Ascend Extension for PyTorch
Python
598
750
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
1.09 K
610
deepin linux kernel
C
29
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
997
138
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
427
377
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
992
986
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.65 K
970
暂无简介
Dart
969
246
昇腾LLM分布式训练框架
Python
162
190