动态加速强化学习的闪存缓冲库——Flashbax
项目简介 🌟
Flashbax 是一款专为强化学习(RL)设计的高效体验回放缓冲库,特别针对JAX环境进行了优化。它提供了一种简单且灵活的方式来管理和利用这些缓冲区,即使在完全编译的函数和训练循环中也不例外。
通过Flashbax,您可以轻松实现不同类型的缓冲区,包括平面缓冲区、轨迹缓冲区以及优先级版本的这两种缓冲区。无论是学术研究、工业应用还是个人项目,都能享受到这个库带来的便利性。
技术亮点 🔥
效能优化的缓冲区
所有Flashbax缓冲区都是基于轨迹缓冲区的专业变体,旨在优化内存使用和功能,适用于各种缓冲类型。
平面缓冲区
类比于DQN算法中的过渡缓冲区,平面缓冲区采用2周期(即,),用于完整考虑过渡对。
项缓冲区
项缓冲区存储独立的项,例如(观测,动作,奖励,折扣,下一个观测)元组或整个episode,非常灵活。
轨迹缓冲区
轨迹缓冲区支持多步轨迹的采样,非常适合使用递归网络如R2D2的算法。
优先级缓冲区
平面上和轨迹上的优先级缓冲区允许基于用户定义的优先级进行采样,遵循PER论文的原理。
路径/平面队列
提供了队列数据结构,适合按先进先出顺序采样数据,在特定的On-Policy算法中有其用途。
安装与起步 📦
要将Flashbax集成到您的项目中,请按照以下步骤操作:
-
安装:首先使用
pip安装Flashbax:pip install flashbax -
选择缓冲区:从各种缓冲选项中挑选,例如:
from flashbax import make_trajectory_buffer, make_prioritised_trajectory_buffer, make_flat_buffer, make_prioritised_flat_buffer, make_item_buffer, make_trajectory_queue buffer = make_trajectory_buffer(...) # 或者 buffer = make_prioritised_trajectory_buffer(...) # 或者 buffer = make_flat_buffer(...) # 或者 buffer = make_prioritised_flat_buffer(...) # 或者 buffer = make_item_buffer(...) # 或者 buffer = make_trajectory_queue(...) # 初始化 state = buffer.init(example_timestep) # 添加数据 state = buffer.add(state, example_data) # 采样数据 batch = buffer.sample(state, rng_key)
快速入门 🏃♂️
以下是一个使用平面缓冲区的简易示例,展示了如何使用纯函数来定义平面缓冲区的基本用法。请注意,这些纯函数与jax.pmap和jax.jit兼容,但此处为了简洁起见未使用它们:
import jax
import jax.numpy as jnp
from flashbax import make_flat_buffer
# 使用简单的配置实例化平面缓冲区。
# 返回的`buffer`只是一个容器,用于平面缓冲区所需的纯函数。
buffer = make_flat_buffer(max_length=32, min_length=2, sample_batch_size=1)
# 初始化缓冲区状态。
fake_timestep = {"obs": jnp.array([0, 0]), "reward": jnp.array(0.0)}
state = buffer.init(fake_timestep)
# 向缓冲区添加数据。
state = buffer.add(state, {"obs": jnp.array([1, 2]), "reward": jnp.array(3.0)})
print(buffer.can_sample(state)) # 输出:False,因为min_length尚未达到。
state = buffer.add(state, {"obs": jnp.array([4, 5]), "reward": jnp.array(6.0)})
print(buffer.can_sample(state)) # 输出:False,因为我们仍需2个transition(即3个时间步长)。
state = buffer.add(state, {"obs": jnp.array([7, 8]), "reward": jnp.array(9.0)})
print(buffer.can_sample(state)) # 输出:True!我们有了2个transition(3个时间步长)。
# 从缓冲区获取一个transition。
rng_key = jax.random.PRNGKey(0) # 随机数源
batch = buffer.sample(state, rng_key) # 采样
# 我们得到了一个transition!打印:obs = [[4 5]],obs' = [[7 8]]
print(
f"obs = {batch.experience.first['obs']}, obs' = {batch.experience.second['obs']}"
)
示例代码 playground 🎲
我们也提供了多个Colab笔记本,涵盖了不同缓冲区的详细教程和使用示例:
| 训练本链接 | 描述 |
|---|---|
| 平面缓冲区快速启动 | |
| 轨迹缓冲区快速启动 | |
| 优先级平面缓冲区快速启动 |
重要注意事项 ❗️
在使用Flashbax时,您需要注意以下几点以确保您的RL代理正常运行:
序列数据添加
由于Flashbax使用了轨迹缓冲区作为基础,因此数据的添加必须是有序的。这使得数据流沿着时间轴增添,确保了序列数据的正确处理。对于序列数据的保存和加载,请参阅相关示例文档以了解更多详情。
立即开始探索Flashbax的世界,让您的强化学习之旅更加得心应手!🚀
ERNIE-4.5-VL-28B-A3B-ThinkingERNIE-4.5-VL-28B-A3B-Thinking 是 ERNIE-4.5-VL-28B-A3B 架构的重大升级,通过中期大规模视觉-语言推理数据训练,显著提升了模型的表征能力和模态对齐,实现了多模态推理能力的突破性飞跃Python00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
MiniMax-M2MiniMax-M2是MiniMaxAI开源的高效MoE模型,2300亿总参数中仅激活100亿,却在编码和智能体任务上表现卓越。它支持多文件编辑、终端操作和复杂工具链调用Python00
HunyuanVideo-1.5暂无简介00
MiniCPM-V-4_5MiniCPM-V 4.5 是 MiniCPM-V 系列中最新且功能最强的模型。该模型基于 Qwen3-8B 和 SigLIP2-400M 构建,总参数量为 80 亿。与之前的 MiniCPM-V 和 MiniCPM-o 模型相比,它在性能上有显著提升,并引入了新的实用功能Python00
Spark-Formalizer-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00
GOT-OCR-2.0-hf阶跃星辰StepFun推出的GOT-OCR-2.0-hf是一款强大的多语言OCR开源模型,支持从普通文档到复杂场景的文字识别。它能精准处理表格、图表、数学公式、几何图形甚至乐谱等特殊内容,输出结果可通过第三方工具渲染成多种格式。模型支持1024×1024高分辨率输入,具备多页批量处理、动态分块识别和交互式区域选择等创新功能,用户可通过坐标或颜色指定识别区域。基于Apache 2.0协议开源,提供Hugging Face演示和完整代码,适用于学术研究到工业应用的广泛场景,为OCR领域带来突破性解决方案。00