Strands Agents SDK Python 开源项目教程
2025-05-18 11:48:48作者:鲍丁臣Ursa
1. 项目介绍
Strands Agents SDK Python 是一个开源的 Python SDK,采用模型驱动的方法,帮助开发者轻松构建 AI 代理。这个 SDK 支持多种模型提供者,包括 Amazon Bedrock、Anthropic、LiteLLM 和 Ollama 等。它提供了构建简单的对话助手到复杂的自动化工作流的工具,并且可以从本地开发无缝迁移到生产部署。
2. 项目快速启动
在开始之前,确保你的系统中已经安装了 Python 3.10 或更高版本。
创建虚拟环境
python -m venv .venv
source .venv/bin/activate # Windows 下使用:.venv\Scripts\activate
安装 Strands 和工具
pip install strands-agents strands-agents-tools
创建简单的代理
以下是一个简单的代理示例,它使用内置的计算器工具来响应查询。
from strands import Agent
from strands_tools import calculator
agent = Agent(tools=[calculator])
response = agent("What is the square root of 1764")
print(response)
确保你有一个可用的 AWS 凭据,并且为 Claude 3.7 Sonnet 模型启用了访问权限,如果使用默认的 Amazon Bedrock 模型提供者。
3. 应用案例和最佳实践
使用 Python 装饰器构建工具
你可以使用 Python 装饰器轻松创建自定义工具。
from strands import Agent, tool
@tool
def word_count(text: str) -> int:
"""计算文本中的单词数量。"""
return len(text.split())
agent = Agent(tools=[word_count])
response = agent("How many words are in this sentence?")
print(response)
集成 Model Context Protocol (MCP) 服务器
你可以无缝地集成 MCP 服务器,以访问预先构建的工具。
from strands import Agent
from strands.tools.mcp import MCPClient
from mcp import_stdio_client, StdioServerParameters
aws_docs_client = MCPClient(
lambda: _stdio_client(StdioServerParameters(command="uvx", args=["awslabs.aws-documentation-mcp-server@latest"])))
with aws_docs_client:
agent = Agent(tools=aws_docs_client.list_tools_sync())
response = agent("Tell me about Amazon Bedrock and how to use it with Python")
print(response)
支持多种模型提供者
Strands Agents 支持多种模型提供者,以下是如何使用不同模型提供者的示例。
from strands import Agent
from strands.models import BedrockModel, OllamaModel, LlamaAPIModel
# 使用 Bedrock 模型
bedrock_model = BedrockModel(model_id="us.amazon.nova-pro-v1:0", temperature=0.3)
agent = Agent(model=bedrock_model)
agent("Tell me about Agentic AI")
# 使用 Ollama 模型
ollama_model = OllamaModel(host="http://localhost:11434", model_id="llama3")
agent = Agent(model=ollama_model)
agent("Tell me about Agentic AI")
# 使用 Llama API 模型
llama_model = LlamaAPIModel(model_id="Llama-4-Maverick-17B-128E-Instruct-FP8")
agent = Agent(model=llama_model)
response = agent("Tell me about Agentic AI")
print(response)
4. 典型生态项目
Strands Agents SDK Python 的生态系统包括一系列的项目和工具,这些项目扩展了 SDK 的功能,并为开发者提供了更多可能性。以下是一些典型的生态项目:
- strands-agents-tools: 一个可选的工具包,包含了预构建的工具,以便快速实验。
- 自定义提供者: 开发者可以实施自定义提供者,以支持更多的模型和服务。
这些项目通常在 GitHub 上维护,并鼓励社区贡献和反馈,以促进项目的持续发展。
登录后查看全文
热门项目推荐
相关项目推荐
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
LongCat-AudioDiT-1BLongCat-AudioDiT 是一款基于扩散模型的文本转语音(TTS)模型,代表了当前该领域的最高水平(SOTA),它直接在波形潜空间中进行操作。00- QQwen3.5-397B-A17BQwen3.5 实现了重大飞跃,整合了多模态学习、架构效率、强化学习规模以及全球可访问性等方面的突破性进展,旨在为开发者和企业赋予前所未有的能力与效率。Jinja00
HY-Embodied-0.5这是一套专为现实世界具身智能打造的基础模型。该系列模型采用创新的混合Transformer(Mixture-of-Transformers, MoT) 架构,通过潜在令牌实现模态特异性计算,显著提升了细粒度感知能力。Jinja00
FreeSql功能强大的对象关系映射(O/RM)组件,支持 .NET Core 2.1+、.NET Framework 4.0+、Xamarin 以及 AOT。C#00
项目优选
收起
deepin linux kernel
C
27
14
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
657
4.26 K
Ascend Extension for PyTorch
Python
502
606
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
939
862
Oohos_react_native
React Native鸿蒙化仓库
JavaScript
334
378
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
390
284
AscendNPU-IR是基于MLIR(Multi-Level Intermediate Representation)构建的,面向昇腾亲和算子编译时使用的中间表示,提供昇腾完备表达能力,通过编译优化提升昇腾AI处理器计算效率,支持通过生态框架使能昇腾AI处理器与深度调优
C++
123
195
openGauss kernel ~ openGauss is an open source relational database management system
C++
180
258
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.54 K
891
昇腾LLM分布式训练框架
Python
142
168