动态加速强化学习的闪存缓冲库——Flashbax
项目简介 🌟
Flashbax 是一款专为强化学习(RL)设计的高效体验回放缓冲库,特别针对JAX环境进行了优化。它提供了一种简单且灵活的方式来管理和利用这些缓冲区,即使在完全编译的函数和训练循环中也不例外。
通过Flashbax,您可以轻松实现不同类型的缓冲区,包括平面缓冲区、轨迹缓冲区以及优先级版本的这两种缓冲区。无论是学术研究、工业应用还是个人项目,都能享受到这个库带来的便利性。
技术亮点 🔥
效能优化的缓冲区
所有Flashbax缓冲区都是基于轨迹缓冲区的专业变体,旨在优化内存使用和功能,适用于各种缓冲类型。
平面缓冲区
类比于DQN算法中的过渡缓冲区,平面缓冲区采用2周期(即,),用于完整考虑过渡对。
项缓冲区
项缓冲区存储独立的项,例如(观测,动作,奖励,折扣,下一个观测)元组或整个episode,非常灵活。
轨迹缓冲区
轨迹缓冲区支持多步轨迹的采样,非常适合使用递归网络如R2D2的算法。
优先级缓冲区
平面上和轨迹上的优先级缓冲区允许基于用户定义的优先级进行采样,遵循PER论文的原理。
路径/平面队列
提供了队列数据结构,适合按先进先出顺序采样数据,在特定的On-Policy算法中有其用途。
安装与起步 📦
要将Flashbax集成到您的项目中,请按照以下步骤操作:
-
安装:首先使用
pip安装Flashbax:pip install flashbax -
选择缓冲区:从各种缓冲选项中挑选,例如:
from flashbax import make_trajectory_buffer, make_prioritised_trajectory_buffer, make_flat_buffer, make_prioritised_flat_buffer, make_item_buffer, make_trajectory_queue buffer = make_trajectory_buffer(...) # 或者 buffer = make_prioritised_trajectory_buffer(...) # 或者 buffer = make_flat_buffer(...) # 或者 buffer = make_prioritised_flat_buffer(...) # 或者 buffer = make_item_buffer(...) # 或者 buffer = make_trajectory_queue(...) # 初始化 state = buffer.init(example_timestep) # 添加数据 state = buffer.add(state, example_data) # 采样数据 batch = buffer.sample(state, rng_key)
快速入门 🏃♂️
以下是一个使用平面缓冲区的简易示例,展示了如何使用纯函数来定义平面缓冲区的基本用法。请注意,这些纯函数与jax.pmap和jax.jit兼容,但此处为了简洁起见未使用它们:
import jax
import jax.numpy as jnp
from flashbax import make_flat_buffer
# 使用简单的配置实例化平面缓冲区。
# 返回的`buffer`只是一个容器,用于平面缓冲区所需的纯函数。
buffer = make_flat_buffer(max_length=32, min_length=2, sample_batch_size=1)
# 初始化缓冲区状态。
fake_timestep = {"obs": jnp.array([0, 0]), "reward": jnp.array(0.0)}
state = buffer.init(fake_timestep)
# 向缓冲区添加数据。
state = buffer.add(state, {"obs": jnp.array([1, 2]), "reward": jnp.array(3.0)})
print(buffer.can_sample(state)) # 输出:False,因为min_length尚未达到。
state = buffer.add(state, {"obs": jnp.array([4, 5]), "reward": jnp.array(6.0)})
print(buffer.can_sample(state)) # 输出:False,因为我们仍需2个transition(即3个时间步长)。
state = buffer.add(state, {"obs": jnp.array([7, 8]), "reward": jnp.array(9.0)})
print(buffer.can_sample(state)) # 输出:True!我们有了2个transition(3个时间步长)。
# 从缓冲区获取一个transition。
rng_key = jax.random.PRNGKey(0) # 随机数源
batch = buffer.sample(state, rng_key) # 采样
# 我们得到了一个transition!打印:obs = [[4 5]],obs' = [[7 8]]
print(
f"obs = {batch.experience.first['obs']}, obs' = {batch.experience.second['obs']}"
)
示例代码 playground 🎲
我们也提供了多个Colab笔记本,涵盖了不同缓冲区的详细教程和使用示例:
| 训练本链接 | 描述 |
|---|---|
| 平面缓冲区快速启动 | |
| 轨迹缓冲区快速启动 | |
| 优先级平面缓冲区快速启动 |
重要注意事项 ❗️
在使用Flashbax时,您需要注意以下几点以确保您的RL代理正常运行:
序列数据添加
由于Flashbax使用了轨迹缓冲区作为基础,因此数据的添加必须是有序的。这使得数据流沿着时间轴增添,确保了序列数据的正确处理。对于序列数据的保存和加载,请参阅相关示例文档以了解更多详情。
立即开始探索Flashbax的世界,让您的强化学习之旅更加得心应手!🚀
AutoGLM-Phone-9BAutoGLM-Phone-9B是基于AutoGLM构建的移动智能助手框架,依托多模态感知理解手机屏幕并执行自动化操作。Jinja00
Kimi-K2-ThinkingKimi K2 Thinking 是最新、性能最强的开源思维模型。从 Kimi K2 开始,我们将其打造为能够逐步推理并动态调用工具的思维智能体。通过显著提升多步推理深度,并在 200–300 次连续调用中保持稳定的工具使用能力,它在 Humanity's Last Exam (HLE)、BrowseComp 等基准测试中树立了新的技术标杆。同时,K2 Thinking 是原生 INT4 量化模型,具备 256k 上下文窗口,实现了推理延迟和 GPU 内存占用的无损降低。Python00
GLM-4.6V-FP8GLM-4.6V-FP8是GLM-V系列开源模型,支持128K上下文窗口,融合原生多模态函数调用能力,实现从视觉感知到执行的闭环。具备文档理解、图文生成、前端重构等功能,适用于云集群与本地部署,在同类参数规模中视觉理解性能领先。Jinja00
HunyuanOCRHunyuanOCR 是基于混元原生多模态架构打造的领先端到端 OCR 专家级视觉语言模型。它采用仅 10 亿参数的轻量化设计,在业界多项基准测试中取得了当前最佳性能。该模型不仅精通复杂多语言文档解析,还在文本检测与识别、开放域信息抽取、视频字幕提取及图片翻译等实际应用场景中表现卓越。00
GLM-ASR-Nano-2512GLM-ASR-Nano-2512 是一款稳健的开源语音识别模型,参数规模为 15 亿。该模型专为应对真实场景的复杂性而设计,在保持紧凑体量的同时,多项基准测试表现优于 OpenAI Whisper V3。Python00
GLM-TTSGLM-TTS 是一款基于大语言模型的高质量文本转语音(TTS)合成系统,支持零样本语音克隆和流式推理。该系统采用两阶段架构,结合了用于语音 token 生成的大语言模型(LLM)和用于波形合成的流匹配(Flow Matching)模型。 通过引入多奖励强化学习框架,GLM-TTS 显著提升了合成语音的表现力,相比传统 TTS 系统实现了更自然的情感控制。Python00
Spark-Formalizer-X1-7BSpark-Formalizer 是由科大讯飞团队开发的专用大型语言模型,专注于数学自动形式化任务。该模型擅长将自然语言数学问题转化为精确的 Lean4 形式化语句,在形式化语句生成方面达到了业界领先水平。Python00