PyBroker v1.2.9 版本发布:支持NumPy v2与新增策略模式
PyBroker 是一个专注于量化交易策略开发和回测的Python框架,它提供了简洁的API和强大的功能,帮助开发者快速构建和测试交易策略。最新发布的v1.2.9版本带来了多项重要更新,包括对NumPy v2的支持、新增策略模式以及性能指标的增强。
NumPy v2兼容性升级
本次版本最显著的变化是增加了对NumPy v2的支持,同时保持对NumPy v1的向后兼容。NumPy作为Python科学计算的核心库,其v2版本带来了性能优化和API改进。PyBroker的这一更新意味着:
- 用户现在可以自由选择使用NumPy v1或v2,无需担心兼容性问题
- 采用NumPy v2的用户可以获得更好的计算性能
- 项目维护了更广泛的依赖兼容性,降低了用户升级的障碍
对于量化交易策略而言,NumPy的计算性能直接影响回测速度,特别是处理大规模历史数据时。PyBroker的这一改进让用户能够根据自身需求选择最优的NumPy版本。
新增策略模式:LONG_ONLY与SHORT_ONLY
v1.2.9版本引入了两种新的策略模式配置选项,丰富了策略开发的灵活性:
- LONG_ONLY模式:限制策略只能做多,适合专注于多头策略的开发
- SHORT_ONLY模式:限制策略只能做空,适用于专门研究空头策略的场景
这些模式通过StrategyConfig的position_mode参数进行配置。在实际应用中,这些限制模式有多个优势:
- 简化策略逻辑:开发者可以专注于单一方向的信号研究
- 符合特定市场规则:某些市场或产品可能限制做空
- 风险控制:避免策略在复杂市场条件下产生意外的反向操作
性能评估指标增强
回测结果的评估是量化策略开发的关键环节。本次更新在EvalMetrics中新增了max_drawdown_date指标,它记录了最大回撤发生的具体日期。这一改进带来以下价值:
- 更直观地识别策略的脆弱时期
- 便于结合具体市场事件分析策略表现
- 为策略优化提供更精确的时间参考点
最大回撤日期信息现在可以通过TestResult中的eval_metrics属性获取,与其他性能指标一起为策略评估提供更全面的视角。
依赖问题修复
版本更新还修复了yfinance依赖版本的问题,确保了数据获取模块的稳定性。yfinance作为常用的金融市场数据接口,其稳定性直接影响策略回测的可靠性。
升级建议
对于现有PyBroker用户,升级到v1.2.9版本是推荐的,特别是:
- 希望利用NumPy v2性能优势的用户
- 开发单边策略(纯多头或纯空头)的研究者
- 需要更详细回测分析指标的量化团队
升级过程应该保持平滑,但建议在测试环境中先验证现有策略的兼容性,特别是当同时升级NumPy版本时。
PyBroker持续关注量化交易开发者的实际需求,这次的更新再次体现了框架在功能性、兼容性和易用性方面的平衡。对于量化交易策略开发者而言,这些改进将进一步提升开发效率和策略评估的准确性。
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00