告别复杂金融预测:5分钟上手Kronos实现市场趋势预判
你是否还在为金融数据预测的复杂流程而困扰?是否尝试过多种工具却仍难以获得可靠的市场趋势分析?本文将带你快速掌握Kronos——首个专为金融K线序列设计的开源基础模型,让你在5分钟内完成从环境搭建到生成预测结果的全流程。读完本文,你将能够:
- 理解Kronos的核心优势及工作原理
- 完成模型的安装与基础配置
- 使用示例代码生成首个金融预测
- 了解如何基于自有数据进行模型微调
- 掌握模型预测结果的可视化方法
为什么选择Kronos?
Kronos是专为金融市场"语言"——K线序列设计的开源基础模型,区别于通用时间序列模型,它能更好地处理金融数据的高噪声特性。其创新的两阶段框架让金融预测变得前所未有的简单:
- 专用Tokenizer将连续的多维K线数据(OHLCV)量化为层次化离散 tokens
- 大型自回归Transformer在这些tokens上预训练,可作为多样化量化任务的统一模型
项目核心优势:
- 专为金融数据优化,处理高噪声环境表现更优
- 支持多种量化任务,无需为不同任务构建专用模型
- 提供完整的微调流程,轻松适应特定市场数据
- 包含WebUI界面和丰富示例,降低使用门槛
快速开始:环境准备
安装步骤
首先确保你的系统已安装Python 3.10+,然后通过以下命令获取项目并安装依赖:
# 克隆仓库
git clone https://gitcode.com/GitHub_Trending/kronos14/Kronos
cd Kronos
# 安装依赖
pip install -r requirements.txt
项目结构概览
熟悉项目结构有助于更好地使用Kronos:
-
核心模型代码:model/
-
示例代码:examples/
- prediction_example.py - 基础预测示例
- prediction_batch_example.py - 批量预测示例
- prediction_cn_markets_day.py - A股市场日级预测
-
微调工具:finetune/
- train_tokenizer.py - Tokenizer微调
- train_predictor.py - 预测器微调
-
Web界面:webui/
- app.py - WebUI主程序
- templates/index.html - 前端页面
5分钟实现你的首个预测
步骤1:加载模型和Tokenizer
Kronos提供多种预训练模型,从小型到大型以适应不同需求。这里我们使用基础版模型进行演示:
from model import Kronos, KronosTokenizer, KronosPredictor
# 加载Tokenizer和模型
tokenizer = KronosTokenizer.from_pretrained("NeoQuasar/Kronos-Tokenizer-base")
model = Kronos.from_pretrained("NeoQuasar/Kronos-small")
步骤2:初始化预测器
# 初始化预测器,指定设备(CPU或GPU)
predictor = KronosPredictor(model, tokenizer, device="cuda:0", max_context=512)
注意:Kronos-small和Kronos-base的max_context为512,这是模型可处理的最大序列长度。为获得最佳性能,建议输入数据长度(lookback)不超过此限制。
步骤3:准备输入数据
Kronos预测器需要以下输入:
- 包含历史K线数据的DataFrame(必须包含'open', 'high', 'low', 'close'列,'volume'和'amount'可选)
- 历史数据对应的时间戳
- 要预测的未来时间戳
import pandas as pd
# 加载示例数据
df = pd.read_csv("examples/data/XSHG_5min_600977.csv")
df['timestamps'] = pd.to_datetime(df['timestamps'])
# 定义上下文窗口和预测长度
lookback = 400 # 历史数据长度
pred_len = 120 # 预测未来长度
# 准备输入数据
x_df = df.loc[:lookback-1, ['open', 'high', 'low', 'close', 'volume', 'amount']]
x_timestamp = df.loc[:lookback-1, 'timestamps']
y_timestamp = df.loc[lookback:lookback+pred_len-1, 'timestamps']
步骤4:生成预测
# 生成预测
pred_df = predictor.predict(
df=x_df,
x_timestamp=x_timestamp,
y_timestamp=y_timestamp,
pred_len=pred_len,
T=1.0, # 采样温度,控制随机性
top_p=0.9, # Nucleus采样概率
sample_count=1 # 生成并平均的预测路径数量
)
# 查看预测结果
print("预测数据前5行:")
print(pred_df.head())
预测结果可视化
运行示例脚本可以生成预测结果可视化图表:
python examples/prediction_example.py
该脚本会生成一个对比图表,展示真实数据与模型预测结果的对比:
如果你不需要成交量(Volume)和成交额(Amount)数据,可使用另一个示例脚本:
python examples/prediction_wo_vol_example.py
批量预测功能
当你需要同时预测多个资产或时间序列时,Kronos的批量预测功能可以显著提高效率:
# 准备多个数据集
df_list = [df1, df2, df3] # DataFrames列表
x_timestamp_list = [x_ts1, x_ts2, x_ts3] # 历史时间戳列表
y_timestamp_list = [y_ts1, y_ts2, y_ts3] # 未来时间戳列表
# 生成批量预测
pred_df_list = predictor.predict_batch(
df_list=df_list,
x_timestamp_list=x_timestamp_list,
y_timestamp_list=y_timestamp_list,
pred_len=pred_len,
T=1.0,
top_p=0.9,
sample_count=1,
verbose=True
)
批量预测要求:
- 所有序列必须具有相同的历史长度(lookback窗口)
- 所有序列必须具有相同的预测长度(pred_len)
- 每个DataFrame必须包含必要列:['open', 'high', 'low', 'close']
- 'volume'和'amount'列可选,如缺失将用零填充
在自有数据上微调
Kronos提供完整的微调流程,使模型能更好地适应特定市场数据。以A股市场为例,微调过程分为四个主要步骤:
微调准备
首先修改配置文件finetune/config.py设置路径和超参数,主要包括:
- qlib_data_path: Qlib数据目录路径
- dataset_path: 处理后的数据保存目录
- save_path: 模型检查点保存目录
- pretrained_tokenizer_path和pretrained_predictor_path: 预训练模型路径
数据准备
使用Qlib准备A股市场数据:
python finetune/qlib_data_preprocess.py
该脚本将从Qlib目录加载原始市场数据,处理并分割为训练、验证和测试集,保存为pickle文件。
模型微调
微调过程分为两个阶段:首先微调Tokenizer,然后微调预测器模型:
# 微调Tokenizer(替换NUM_GPUS为你的GPU数量)
torchrun --standalone --nproc_per_node=NUM_GPUS finetune/train_tokenizer.py
# 微调预测器
torchrun --standalone --nproc_per_node=NUM_GPUS finetune/train_predictor.py
回测评估
微调完成后,运行回测脚本评估模型性能:
# 指定GPU进行推理
python finetune/qlib_test.py --device cuda:0
脚本将输出详细的性能分析,并生成累积收益曲线图:
WebUI界面使用
Kronos提供了WebUI界面,使预测操作更加直观:
cd webui
python run.py
启动后访问本地服务器地址,即可通过网页界面上传数据、调整参数并查看预测结果。WebUI会将预测结果保存在webui/prediction_results/目录下,方便后续分析。
进阶应用与资源
关键资源文件
从演示到生产的重要考虑
- 信号处理:演示中的信号是原始预测,实际量化工作流中通常需要将这些信号输入组合优化模型
- 数据处理:提供的QlibDataset是示例,对于不同数据源需要调整数据加载和预处理逻辑
- 策略复杂度:简单的top-K策略是起点,实际策略通常包含更复杂的组合构建和风险管理逻辑
模型选择建议
Kronos提供多种预训练模型,可根据需求选择:
| 模型 | Tokenizer | 上下文长度 | 参数 | 开源 |
|---|---|---|---|---|
| Kronos-mini | Kronos-Tokenizer-2k | 2048 | 4.1M | ✅ |
| Kronos-small | Kronos-Tokenizer-base | 512 | 24.7M | ✅ |
| Kronos-base | Kronos-Tokenizer-base | 512 | 102.3M | ✅ |
| Kronos-large | Kronos-Tokenizer-base | 512 | 499.2M | ❌ |
总结
通过本文介绍,你已经掌握了Kronos的基本使用方法,包括环境搭建、模型预测、结果可视化和微调流程。Kronos的设计理念是让复杂的金融预测变得简单,无论是个人投资者还是专业量化团队,都能快速上手并应用于实际场景。
想要深入了解更多功能,可以查看项目中的示例代码和详细文档,开始你的金融预测之旅吧!
如果觉得本项目有帮助,请给我们点赞和收藏,关注项目更新以获取最新功能和改进。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
KuiklyUI基于KMP技术的高性能、全平台开发框架,具备统一代码库、极致易用性和动态灵活性。 Provide a high-performance, full-platform development framework with unified codebase, ultimate ease of use, and dynamic flexibility. 注意:本仓库为Github仓库镜像,PR或Issue请移步至Github发起,感谢支持!Kotlin08
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00


