TimesFM 2.5版本深度解析:新增功能与性能提升全测评
核心功能升级
TimesFM 2.5作为时间序列基础模型(Time Series Foundation Model)的重大更新,在预测精度、处理能力和部署灵活性上实现显著突破。相较于1.0版本,2.5版本通过重构网络架构与优化预测逻辑,将上下文处理能力提升至16384时间步长,同时保持毫秒级推理速度。
模型架构革新
2.5版本采用模块化设计,核心架构定义于timesfm_2p5_base.py。关键改进包括:
- 输入补丁长度(input_patch_len) 固定为32,输出补丁长度(output_patch_len)提升至128,使单次预测覆盖更广时间范围
- 堆叠Transformer层数 增加至20层,模型维度(model_dims)达1280,配备16个注意力头(num_heads)
- 量化头输出维度 扩展至10240,支持9个分位数(0.1-0.9)预测,通过output_projection_quantiles实现概率分布预测
双框架支持
2.5版本首次实现Flax与PyTorch双后端支持:
- Flax实现:通过timesfm_2p5_flax.py提供JAX加速,支持自动并行与编译优化
- PyTorch实现:timesfm_2p5_torch.py采用nn.Module架构,兼容HuggingFace生态,支持动态图调试
两种实现共享统一配置系统configs.py,可通过ForecastConfig控制预测行为,如设置max_context(最大上下文长度)、force_flip_invariance(强制翻转不变性)等关键参数。
性能优化技术
推理速度提升
2.5版本引入三大优化技术,在编译逻辑中实现:
- 自回归解码缓存:通过
DecodeCache存储注意力键值对,避免重复计算 - 跨设备批处理:支持
per_core_batch_size配置,在多GPU环境自动分片数据 - 量化头分离:将点预测与分位数预测分离为两个投影层,减少计算耦合
在g2-standard-32实例上测试,200M参数模型处理1000序列(长度512)的96步预测仅需0.8秒,较1.0版本提速3倍。
数据预处理增强
新增线性插值与前导NaN移除工具,实现缺失值鲁棒处理。对于含噪声的工业时序数据,预处理流程可将预测误差降低15-20%。
预测能力强化
协变量融合机制
通过forecast_with_covariates方法实现多类型协变量支持:
# 动态数值协变量示例
dynamic_numerical = {"temperature": [[18.5, 19.2, ...], [20.1, 19.8, ...]]}
# 静态分类协变量示例
static_categorical = {"product_line": ["A", "B"]}
model.forecast_with_covariates(
inputs=time_series_data,
dynamic_numerical_covariates=dynamic_numerical,
static_categorical_covariates=static_categorical,
xreg_mode="timesfm + xreg" # 先模型预测再残差校正
)
支持两种融合策略:timesfm + xreg(模型预测后校正)和xreg + timesfm(协变量先建模),适应不同业务场景需求。
长时序预测表现
在ETT数据集上的测试显示,2.5版本较1.0版本在长 horizon 预测上优势显著:
注:图中展示TimesFM 1.0与Amazon Chronos在不同预测长度(96/192/336)下的WAPE指标对比,2.5版本在此基础上进一步提升12%
部署与使用指南
快速开始
from src.timesfm.timesfm_2p5.timesfm_2p5_torch import TimesFM_2p5_200M_torch
# 加载预训练模型
model = TimesFM_2p5_200M_torch.from_pretrained("google/timesfm-2.5-200m-pytorch")
# 编译模型(设置最大上下文与预测长度)
model.compile(forecast_config=ForecastConfig(
max_context=16384,
max_horizon=1024,
per_core_batch_size=8
))
# 执行预测
point_forecast, quantile_forecast = model.forecast(
horizon=336,
inputs=[np.array([1.2, 1.5, ..., 2.3])] # 输入时序数据
)
扩展基准测试
2.5版本在11个公开数据集上超越现有SOTA模型,包括ETT、Weather、Traffic等典型场景:
数据来源:extended_benchmarks/README.md,展示MASE与SMAPE指标对比
未来展望
2.5版本作为TimesFM技术路线图的重要里程碑,为后续发展奠定基础:
- 模型压缩:计划推出100M轻量版本,适配边缘设备部署
- 多模态融合:正在开发图像-时序融合接口,支持传感器数据联合预测
- 在线微调:peft/目录提供参数高效微调工具,可针对特定领域数据优化
项目完整代码与文档见GitHub仓库,建议通过requirements.txt管理依赖,使用Python 3.9+环境运行。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
yuanrongopenYuanrong runtime:openYuanrong 多语言运行时提供函数分布式编程,支持 Python、Java、C++ 语言,实现类单机编程高性能分布式运行。Go051
MiniCPM-SALAMiniCPM-SALA 正式发布!这是首个有效融合稀疏注意力与线性注意力的大规模混合模型,专为百万级token上下文建模设计。00
ebook-to-mindmapepub、pdf 拆书 AI 总结TSX01

