Strands Agents SDK Python 开源项目教程
2025-05-18 13:54:17作者:鲍丁臣Ursa
1. 项目介绍
Strands Agents SDK Python 是一个开源的 Python SDK,采用模型驱动的方法,帮助开发者轻松构建 AI 代理。这个 SDK 支持多种模型提供者,包括 Amazon Bedrock、Anthropic、LiteLLM 和 Ollama 等。它提供了构建简单的对话助手到复杂的自动化工作流的工具,并且可以从本地开发无缝迁移到生产部署。
2. 项目快速启动
在开始之前,确保你的系统中已经安装了 Python 3.10 或更高版本。
创建虚拟环境
python -m venv .venv
source .venv/bin/activate # Windows 下使用:.venv\Scripts\activate
安装 Strands 和工具
pip install strands-agents strands-agents-tools
创建简单的代理
以下是一个简单的代理示例,它使用内置的计算器工具来响应查询。
from strands import Agent
from strands_tools import calculator
agent = Agent(tools=[calculator])
response = agent("What is the square root of 1764")
print(response)
确保你有一个可用的 AWS 凭据,并且为 Claude 3.7 Sonnet 模型启用了访问权限,如果使用默认的 Amazon Bedrock 模型提供者。
3. 应用案例和最佳实践
使用 Python 装饰器构建工具
你可以使用 Python 装饰器轻松创建自定义工具。
from strands import Agent, tool
@tool
def word_count(text: str) -> int:
"""计算文本中的单词数量。"""
return len(text.split())
agent = Agent(tools=[word_count])
response = agent("How many words are in this sentence?")
print(response)
集成 Model Context Protocol (MCP) 服务器
你可以无缝地集成 MCP 服务器,以访问预先构建的工具。
from strands import Agent
from strands.tools.mcp import MCPClient
from mcp import_stdio_client, StdioServerParameters
aws_docs_client = MCPClient(
lambda: _stdio_client(StdioServerParameters(command="uvx", args=["awslabs.aws-documentation-mcp-server@latest"])))
with aws_docs_client:
agent = Agent(tools=aws_docs_client.list_tools_sync())
response = agent("Tell me about Amazon Bedrock and how to use it with Python")
print(response)
支持多种模型提供者
Strands Agents 支持多种模型提供者,以下是如何使用不同模型提供者的示例。
from strands import Agent
from strands.models import BedrockModel, OllamaModel, LlamaAPIModel
# 使用 Bedrock 模型
bedrock_model = BedrockModel(model_id="us.amazon.nova-pro-v1:0", temperature=0.3)
agent = Agent(model=bedrock_model)
agent("Tell me about Agentic AI")
# 使用 Ollama 模型
ollama_model = OllamaModel(host="http://localhost:11434", model_id="llama3")
agent = Agent(model=ollama_model)
agent("Tell me about Agentic AI")
# 使用 Llama API 模型
llama_model = LlamaAPIModel(model_id="Llama-4-Maverick-17B-128E-Instruct-FP8")
agent = Agent(model=llama_model)
response = agent("Tell me about Agentic AI")
print(response)
4. 典型生态项目
Strands Agents SDK Python 的生态系统包括一系列的项目和工具,这些项目扩展了 SDK 的功能,并为开发者提供了更多可能性。以下是一些典型的生态项目:
- strands-agents-tools: 一个可选的工具包,包含了预构建的工具,以便快速实验。
- 自定义提供者: 开发者可以实施自定义提供者,以支持更多的模型和服务。
这些项目通常在 GitHub 上维护,并鼓励社区贡献和反馈,以促进项目的持续发展。
登录后查看全文
热门项目推荐
相关项目推荐
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C092
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00
项目优选
收起
deepin linux kernel
C
27
11
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
474
3.54 K
React Native鸿蒙化仓库
JavaScript
287
339
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
224
92
Ascend Extension for PyTorch
Python
283
316
暂无简介
Dart
723
174
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
10
1
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
849
441
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.27 K
699
🔥LeetCode solutions in any programming language | 多种编程语言实现 LeetCode、《剑指 Offer(第 2 版)》、《程序员面试金典(第 6 版)》题解
Java
65
19