Strands Agents快速入门:10个实用示例带你玩转AI智能体
2026-02-06 05:51:20作者:蔡丛锟
Strands Agents是一个简单而强大的Python SDK,采用模型驱动的方法来构建和运行AI智能体。从简单的对话助手到复杂的自主工作流,从本地开发到生产部署,Strands Agents都能满足您的需求。本文将为您介绍如何快速上手Strands Agents,并通过10个实用示例展示其强大功能。
🚀 快速安装指南
开始使用Strands Agents非常简单,只需几行命令:
# 创建并激活虚拟环境
python -m venv .venv
source .venv/bin/activate
# 安装Strands Agents和工具包
pip install strands-agents strands-agents-tools
💡 10个实用示例详解
1. 基础对话智能体
创建一个简单的对话智能体,只需几行代码:
from strands import Agent
agent = Agent()
response = agent("你好!介绍一下你自己")
print(response.message)
2. 数学计算助手
结合内置计算器工具,创建数学助手:
from strands import Agent
from strands_tools import calculator
agent = Agent(tools=[calculator])
response = agent("计算1764的平方根是多少?")
3. 多模态内容处理
处理文本和图像混合输入:
from strands import Agent
from strands.types.content import ContentBlock
agent = Agent()
response = agent([
{"text": "请描述这张图片"},
{"image": {"url": "https://example.com/image.jpg"}}
])
4. 自定义工具开发
使用Python装饰器创建自定义工具:
from strands import Agent, tool
@tool
def word_count(text: str) -> int:
"""统计文本中的单词数量"""
return len(text.split())
agent = Agent(tools=[word_count])
response = agent("这句话中有多少个单词?")
5. 实时流式响应
获取实时的流式响应:
from strands import Agent
agent = Agent()
async for event in agent.stream_async("请详细说明AI智能体的工作原理"):
if "data" in event:
print(event["data"], end="", flush=True)
6. 结构化输出
获取结构化的数据输出:
from pydantic import BaseModel
from strands import Agent
class UserInfo(BaseModel):
name: str
age: int
email: str
agent = Agent()
user_info = agent.structured_output(UserInfo, "请提供您的姓名、年龄和邮箱")
7. 多模型提供商支持
切换不同的AI模型提供商:
from strands import Agent
from strands.models import BedrockModel, GeminiModel, OllamaModel
# Amazon Bedrock
bedrock_agent = Agent(model=BedrockModel(model_id="us.amazon.nova-pro-v1:0"))
# Google Gemini
gemini_agent = Agent(model=GeminiModel(model_id="gemini-2.5-flash"))
# Ollama本地模型
ollama_agent = Agent(model=OllamaModel(model_id="llama3"))
8. 热重载工具目录
自动加载和重载工具目录中的工具:
from strands import Agent
# 自动监控 ./tools/ 目录的变化
agent = Agent(load_tools_from_directory=True)
response = agent("使用工具目录中的任意工具")
9. MCP服务器集成
集成Model Context Protocol服务器:
from strands import Agent
from strands.tools.mcp import MCPClient
from mcp import stdio_client, StdioServerParameters
aws_docs_client = MCPClient(
lambda: stdio_client(StdioServerParameters(command="uvx", args=["awslabs.aws-documentation-mcp-server@latest"]))
)
with aws_docs_client:
agent = Agent(tools=aws_docs_client.list_tools_sync())
response = agent("请告诉我Amazon Bedrock的详细信息"))
10. 双向音频流
创建实时语音对话智能体:
import asyncio
from strands.experimental.bidi import BidiAgent
from strands.experimental.bidi.models import BidiNovaSonicModel
from strands.experimental.bidi.io import BidiAudioIO, BidiTextIO
async def main():
model = BidiNovaSonicModel()
agent = BidiAgent(model=model)
audio_io = BidiAudioIO()
text_io = BidiTextIO()
await agent.run(
inputs=[audio_io.input()],
outputs=[audio_io.output(), text_io.output()]
)
asyncio.run(main())
🔧 核心功能特性
轻量级与灵活性
Strands Agents提供简单有效的智能体循环,完全可定制化配置。
模型无关性
支持Amazon Bedrock、Anthropic、Gemini、LiteLLM、Llama、Ollama、OpenAI、Writer等多种提供商。
高级能力
- 多智能体系统
- 自主智能体
- 流式支持
- 内置MCP支持
内置MCP
原生支持Model Context Protocol服务器,可访问数千个预构建工具。
📊 性能优化技巧
会话管理优化
使用滑动窗口会话管理器来优化上下文窗口:
from strands import Agent
from strands.agent.conversation_manager import SlidingWindowConversationManager
agent = Agent(conversation_manager=SlidingWindowConversationManager())
工具执行策略
配置工具执行策略:
from strands import Agent
from strands.tools.executors import ConcurrentToolExecutor
agent = Agent(tool_executor=ConcurrentToolExecutor())
🎯 实际应用场景
客户服务助手
创建自动化的客户服务智能体,处理常见问题咨询。
数据分析师
构建数据分析智能体,能够理解和处理数据查询。
内容创作助手
开发内容创作智能体,协助写作和编辑工作。
🛠️ 开发最佳实践
工具设计原则
- 保持工具功能单一化
- 提供清晰的文档说明
- 设计合理的输入输出类型
错误处理策略
- 实现适当的异常处理
- 提供有意义的错误信息
- 考虑工具执行的超时机制
📈 进阶功能探索
多智能体协作
创建多个智能体协同工作:
from strands.multiagent import MultiAgentSystem
system = MultiAgentSystem()
通过这10个实用示例,您已经掌握了Strands Agents的核心用法。无论是简单的对话智能体还是复杂的多模态处理系统,Strands Agents都能为您提供强大的支持。现在就开始构建您自己的AI智能体吧!🚀
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
热门内容推荐
最新内容推荐
跨系统应用融合:APK Installer实现Windows环境下安卓应用运行的技术路径探索如何用OpCore Simplify构建稳定黑苹果系统?掌握这3大核心策略ComfyUI-LTXVideo实战攻略:3大核心场景的视频生成解决方案告别3小时抠像噩梦:AI如何让人人都能制作电影级视频Anki Connect:知识管理与学习自动化的API集成方案Laigter法线贴图生成工具零基础实战指南:提升2D游戏视觉效率全攻略如何用智能助手实现高效微信自动回复?全方位指南3步打造高效游戏自动化工具:从入门到精通的智能辅助方案掌握语音分割:从入门到实战的完整路径开源翻译平台完全指南:从搭建到精通自托管翻译服务
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
570
99
暂无描述
Dockerfile
709
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.42 K
116
暂无简介
Dart
952
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2