动态加速强化学习的闪存缓冲库——Flashbax
项目简介 🌟
Flashbax 是一款专为强化学习(RL)设计的高效体验回放缓冲库,特别针对JAX环境进行了优化。它提供了一种简单且灵活的方式来管理和利用这些缓冲区,即使在完全编译的函数和训练循环中也不例外。
通过Flashbax,您可以轻松实现不同类型的缓冲区,包括平面缓冲区、轨迹缓冲区以及优先级版本的这两种缓冲区。无论是学术研究、工业应用还是个人项目,都能享受到这个库带来的便利性。
技术亮点 🔥
效能优化的缓冲区
所有Flashbax缓冲区都是基于轨迹缓冲区的专业变体,旨在优化内存使用和功能,适用于各种缓冲类型。
平面缓冲区
类比于DQN算法中的过渡缓冲区,平面缓冲区采用2周期(即,),用于完整考虑过渡对。
项缓冲区
项缓冲区存储独立的项,例如(观测,动作,奖励,折扣,下一个观测)元组或整个episode,非常灵活。
轨迹缓冲区
轨迹缓冲区支持多步轨迹的采样,非常适合使用递归网络如R2D2的算法。
优先级缓冲区
平面上和轨迹上的优先级缓冲区允许基于用户定义的优先级进行采样,遵循PER论文的原理。
路径/平面队列
提供了队列数据结构,适合按先进先出顺序采样数据,在特定的On-Policy算法中有其用途。
安装与起步 📦
要将Flashbax集成到您的项目中,请按照以下步骤操作:
-
安装:首先使用
pip安装Flashbax:pip install flashbax -
选择缓冲区:从各种缓冲选项中挑选,例如:
from flashbax import make_trajectory_buffer, make_prioritised_trajectory_buffer, make_flat_buffer, make_prioritised_flat_buffer, make_item_buffer, make_trajectory_queue buffer = make_trajectory_buffer(...) # 或者 buffer = make_prioritised_trajectory_buffer(...) # 或者 buffer = make_flat_buffer(...) # 或者 buffer = make_prioritised_flat_buffer(...) # 或者 buffer = make_item_buffer(...) # 或者 buffer = make_trajectory_queue(...) # 初始化 state = buffer.init(example_timestep) # 添加数据 state = buffer.add(state, example_data) # 采样数据 batch = buffer.sample(state, rng_key)
快速入门 🏃♂️
以下是一个使用平面缓冲区的简易示例,展示了如何使用纯函数来定义平面缓冲区的基本用法。请注意,这些纯函数与jax.pmap和jax.jit兼容,但此处为了简洁起见未使用它们:
import jax
import jax.numpy as jnp
from flashbax import make_flat_buffer
# 使用简单的配置实例化平面缓冲区。
# 返回的`buffer`只是一个容器,用于平面缓冲区所需的纯函数。
buffer = make_flat_buffer(max_length=32, min_length=2, sample_batch_size=1)
# 初始化缓冲区状态。
fake_timestep = {"obs": jnp.array([0, 0]), "reward": jnp.array(0.0)}
state = buffer.init(fake_timestep)
# 向缓冲区添加数据。
state = buffer.add(state, {"obs": jnp.array([1, 2]), "reward": jnp.array(3.0)})
print(buffer.can_sample(state)) # 输出:False,因为min_length尚未达到。
state = buffer.add(state, {"obs": jnp.array([4, 5]), "reward": jnp.array(6.0)})
print(buffer.can_sample(state)) # 输出:False,因为我们仍需2个transition(即3个时间步长)。
state = buffer.add(state, {"obs": jnp.array([7, 8]), "reward": jnp.array(9.0)})
print(buffer.can_sample(state)) # 输出:True!我们有了2个transition(3个时间步长)。
# 从缓冲区获取一个transition。
rng_key = jax.random.PRNGKey(0) # 随机数源
batch = buffer.sample(state, rng_key) # 采样
# 我们得到了一个transition!打印:obs = [[4 5]],obs' = [[7 8]]
print(
f"obs = {batch.experience.first['obs']}, obs' = {batch.experience.second['obs']}"
)
示例代码 playground 🎲
我们也提供了多个Colab笔记本,涵盖了不同缓冲区的详细教程和使用示例:
| 训练本链接 | 描述 |
|---|---|
| 平面缓冲区快速启动 | |
| 轨迹缓冲区快速启动 | |
| 优先级平面缓冲区快速启动 |
重要注意事项 ❗️
在使用Flashbax时,您需要注意以下几点以确保您的RL代理正常运行:
序列数据添加
由于Flashbax使用了轨迹缓冲区作为基础,因此数据的添加必须是有序的。这使得数据流沿着时间轴增添,确保了序列数据的正确处理。对于序列数据的保存和加载,请参阅相关示例文档以了解更多详情。
立即开始探索Flashbax的世界,让您的强化学习之旅更加得心应手!🚀
GLM-5智谱 AI 正式发布 GLM-5,旨在应对复杂系统工程和长时域智能体任务。Jinja00
GLM-5-w4a8GLM-5-w4a8基于混合专家架构,专为复杂系统工程与长周期智能体任务设计。支持单/多节点部署,适配Atlas 800T A3,采用w4a8量化技术,结合vLLM推理优化,高效平衡性能与精度,助力智能应用开发Jinja00
请把这个活动推给顶尖程序员😎本次活动专为懂行的顶尖程序员量身打造,聚焦AtomGit首发开源模型的实际应用与深度测评,拒绝大众化浅层体验,邀请具备扎实技术功底、开源经验或模型测评能力的顶尖开发者,深度参与模型体验、性能测评,通过发布技术帖子、提交测评报告、上传实践项目成果等形式,挖掘模型核心价值,共建AtomGit开源模型生态,彰显顶尖程序员的技术洞察力与实践能力。00
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00
MiniMax-M2.5MiniMax-M2.5开源模型,经数十万复杂环境强化训练,在代码生成、工具调用、办公自动化等经济价值任务中表现卓越。SWE-Bench Verified得分80.2%,Multi-SWE-Bench达51.3%,BrowseComp获76.3%。推理速度比M2.1快37%,与Claude Opus 4.6相当,每小时仅需0.3-1美元,成本仅为同类模型1/10-1/20,为智能应用开发提供高效经济选择。【此简介由AI生成】Python00
Qwen3.5Qwen3.5 昇腾 vLLM 部署教程。Qwen3.5 是 Qwen 系列最新的旗舰多模态模型,采用 MoE(混合专家)架构,在保持强大模型能力的同时显著降低了推理成本。00- RRing-2.5-1TRing-2.5-1T:全球首个基于混合线性注意力架构的开源万亿参数思考模型。Python00