HuggingFace Hub 安全张量信息解析异常问题分析
2025-07-01 07:07:01作者:何举烈Damon
问题背景
近日,HuggingFace Hub 用户在使用 model_info 方法获取模型信息时遇到了一个异常问题。当尝试加载某些特定模型仓库(如 CohereForAI/c4ai-command-r-v01)的信息时,系统会抛出 TypeError 异常,提示 SafeTensorsInfo.init() 接收到了一个意外的关键字参数 'sharded'。
问题现象
用户在使用 huggingface_hub 库的 HfApi.model_info() 方法时遇到以下错误:
TypeError: SafeTensorsInfo.__init__() got an unexpected keyword argument 'sharded'
这个问题影响了多个依赖 huggingface_hub 的上层工具,包括 vLLM 等流行的模型服务框架。用户报告称,在没有更改任何依赖项或代码的情况下,原本正常工作的系统突然开始出现此问题。
技术分析
根本原因
该问题的根源在于 HuggingFace 服务器端对 SafeTensors 信息的返回格式进行了变更,新增了一个 'sharded' 字段。然而,客户端代码中的 SafeTensorsInfo 数据类并未包含这个新字段,导致在解析响应时出现参数不匹配的错误。
影响范围
该问题影响了所有使用 huggingface_hub 库与模型仓库交互的场景,特别是:
- 直接使用 HfApi.model_info() 方法的用户
- 依赖 huggingface_hub 进行模型加载的上层框架(如 vLLM)
- 使用 huggingface-cli 工具下载模型的用户
解决方案
临时解决方案
在问题确认初期,社区用户提出了以下临时解决方案:
- 修改 huggingface_hub 库的 hf_api.py 文件,在 SafeTensorsInfo 类中添加 sharded 字段:
@dataclass
class SafeTensorsInfo(dict):
parameters: List[Dict[str, int]]
total: int
sharded: None
def __post_init__(self):
self.update(asdict(self))
- 安装修复分支版本:
pip install git+https://github.com/huggingface/huggingface_hub@2186-fix-safetensors-info
官方修复
HuggingFace 团队迅速响应,采取了双管齐下的修复策略:
- 服务器端回滚:将 API 响应格式恢复为兼容版本
- 客户端增强:提交 PR 更新 SafeTensorsInfo 类以支持 sharded 字段,增强未来兼容性
目前,服务器端修复已经部署,用户无需更新客户端库即可恢复正常使用。官方也合并了客户端修复代码,确保未来类似变更不会导致兼容性问题。
经验总结
- API 设计应考虑向后兼容性,特别是对广泛使用的客户端库
- 客户端代码应尽可能设计为对未知字段保持宽容
- 开源社区协作在问题诊断和解决中发挥了关键作用
- 监控和快速响应机制对于维护平台稳定性至关重要
后续建议
对于 huggingface_hub 用户:
- 建议定期更新到最新版本,以获得最佳兼容性和安全性
- 在关键生产环境中考虑实现故障转移机制
- 关注官方更新公告,及时了解 API 变更信息
对于库开发者:
- 考虑使用更灵活的数据结构处理 API 响应
- 实现更完善的字段验证和错误处理机制
- 建立更严格的变更管理和兼容性测试流程
登录后查看全文
热门项目推荐
相关项目推荐
atomcodeClaude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed. Get StartedRust099- DDeepSeek-V4-ProDeepSeek-V4-Pro(总参数 1.6 万亿,激活 49B)面向复杂推理和高级编程任务,在代码竞赛、数学推理、Agent 工作流等场景表现优异,性能接近国际前沿闭源模型。Python00
MiMo-V2.5-ProMiMo-V2.5-Pro作为旗舰模型,擅⻓处理复杂Agent任务,单次任务可完成近千次⼯具调⽤与⼗余轮上 下⽂压缩。Python00
GLM-5.1GLM-5.1是智谱迄今最智能的旗舰模型,也是目前全球最强的开源模型。GLM-5.1大大提高了代码能力,在完成长程任务方面提升尤为显著。和此前分钟级交互的模型不同,它能够在一次任务中独立、持续工作超过8小时,期间自主规划、执行、自我进化,最终交付完整的工程级成果。Jinja00
Kimi-K2.6Kimi K2.6 是一款开源的原生多模态智能体模型,在长程编码、编码驱动设计、主动自主执行以及群体任务编排等实用能力方面实现了显著提升。Python00
MiniMax-M2.7MiniMax-M2.7 是我们首个深度参与自身进化过程的模型。M2.7 具备构建复杂智能体应用框架的能力,能够借助智能体团队、复杂技能以及动态工具搜索,完成高度精细的生产力任务。Python00
热门内容推荐
最新内容推荐
跨系统应用融合:APK Installer实现Windows环境下安卓应用运行的技术路径探索如何用OpCore Simplify构建稳定黑苹果系统?掌握这3大核心策略ComfyUI-LTXVideo实战攻略:3大核心场景的视频生成解决方案告别3小时抠像噩梦:AI如何让人人都能制作电影级视频Anki Connect:知识管理与学习自动化的API集成方案Laigter法线贴图生成工具零基础实战指南:提升2D游戏视觉效率全攻略如何用智能助手实现高效微信自动回复?全方位指南3步打造高效游戏自动化工具:从入门到精通的智能辅助方案掌握语音分割:从入门到实战的完整路径开源翻译平台完全指南:从搭建到精通自托管翻译服务
项目优选
收起
deepin linux kernel
C
28
16
Claude Code 的开源替代方案。连接任意大模型,编辑代码,运行命令,自动验证 — 全自动执行。用 Rust 构建,极致性能。 | An open-source alternative to Claude Code. Connect any LLM, edit code, run commands, and verify changes — autonomously. Built in Rust for speed.
Get Started
Rust
572
99
暂无描述
Dockerfile
710
4.51 K
本项目是CANN提供的数学类基础计算算子库,实现网络在NPU上加速计算。
C++
958
955
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
1.61 K
942
Ascend Extension for PyTorch
Python
572
694
openEuler内核是openEuler操作系统的核心,既是系统性能与稳定性的基石,也是连接处理器、设备与服务的桥梁。
C
413
339
🍒 Cherry Studio 是一款支持多个 LLM 提供商的桌面客户端
TypeScript
1.43 K
116
暂无简介
Dart
952
235
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
12
2