LangGraph SDK 0.1.59版本发布:全面支持自定义HTTP头功能
LangGraph是一个用于构建和运行基于语言模型的工作流的Python库,它提供了强大的工具来创建复杂的AI应用。该项目通过SDK封装了与后端服务的交互,使开发者能够专注于业务逻辑的实现。
在最新的0.1.59版本中,LangGraph SDK进行了重要升级,全面增强了自定义HTTP头支持能力。这一改进为开发者提供了更大的灵活性和控制权,特别是在需要自定义认证、跟踪请求或传递特定元数据的场景中。
自定义HTTP头支持详解
核心HTTP客户端增强
基础HTTP客户端类(HttpClient和SyncHttpClient)现在全面支持自定义头信息。开发者可以在所有HTTP方法(get、post、put、patch、delete和stream)中传递额外的headers参数。这一改进不仅增加了灵活性,还确保了头信息的正确合并处理,避免覆盖系统默认头。
各功能模块的统一支持
新版本在所有功能模块中都实现了headers参数支持,包括:
-
助手管理(AssistantsClient):在创建、获取、更新、删除和搜索助手时,可以传递自定义头信息。例如,可以添加认证令牌或跟踪标识。
-
线程管理(ThreadsClient):线程相关的所有操作,包括创建、状态管理和历史记录获取,现在都支持自定义头。这对于多租户系统特别有用。
-
运行控制(RunsClient):运行创建、状态监控和结果获取等操作支持自定义头,便于实现细粒度的访问控制和审计跟踪。
-
定时任务(CronClient):定时任务的创建、查询和管理操作支持自定义头,方便集成到现有监控系统中。
-
存储操作(StoreClient):键值存储的读写和命名空间管理支持自定义头,为数据隔离和安全控制提供了更多可能性。
技术实现亮点
-
头信息合并策略:SDK采用智能的头信息合并策略,确保开发者提供的自定义头不会意外覆盖系统必需的头信息。
-
全栈一致性:无论是同步还是异步客户端,都实现了相同的headers支持,保证了API使用体验的一致性。
-
向后兼容:新功能以可选参数形式添加,完全不影响现有代码的运行。
实际应用场景
-
认证与授权:通过自定义Authorization头实现灵活的认证机制,支持多种认证方案。
-
请求跟踪:添加X-Request-ID等跟踪头,便于分布式系统中的请求追踪和调试。
-
多租户支持:通过自定义头传递租户标识,实现数据隔离和个性化处理。
-
A/B测试:使用自定义头控制功能开关或实验分组,实现无侵入式的功能测试。
-
性能监控:添加性能采集标记,便于服务端记录和处理时间等指标。
升级建议
对于现有项目,升级到0.1.59版本是无缝的,不需要任何代码修改。如果需要使用自定义头功能,只需在调用相关方法时添加headers参数即可。建议开发团队评估是否有需要传递自定义元数据的场景,充分利用这一新特性来增强系统的灵活性和可观测性。
这一版本的发布进一步巩固了LangGraph作为构建复杂语言模型应用的首选工具地位,为开发者提供了更多控制权和集成可能性。
kernelopenEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。C091
baihu-dataset异构数据集“白虎”正式开源——首批开放10w+条真实机器人动作数据,构建具身智能标准化训练基座。00
mindquantumMindQuantum is a general software library supporting the development of applications for quantum computation.Python058
PaddleOCR-VLPaddleOCR-VL 是一款顶尖且资源高效的文档解析专用模型。其核心组件为 PaddleOCR-VL-0.9B,这是一款精简却功能强大的视觉语言模型(VLM)。该模型融合了 NaViT 风格的动态分辨率视觉编码器与 ERNIE-4.5-0.3B 语言模型,可实现精准的元素识别。Python00
GLM-4.7GLM-4.7上线并开源。新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。 目前,GLM-4.7已通过BigModel.cn提供API,并在z.ai全栈开发模式中上线Skills模块,支持多模态任务的统一规划与协作。Jinja00
AgentCPM-Explore没有万亿参数的算力堆砌,没有百万级数据的暴力灌入,清华大学自然语言处理实验室、中国人民大学、面壁智能与 OpenBMB 开源社区联合研发的 AgentCPM-Explore 智能体模型基于仅 4B 参数的模型,在深度探索类任务上取得同尺寸模型 SOTA、越级赶上甚至超越 8B 级 SOTA 模型、比肩部分 30B 级以上和闭源大模型的效果,真正让大模型的长程任务处理能力有望部署于端侧。Jinja00