ACT++项目中动作维度差异的技术解析
背景介绍
在机器人学习领域,ACT(Adaptive Computation Time)算法因其在时序任务中的优异表现而备受关注。ACT++项目是基于ACT算法的一个实现,专注于机器人控制任务。在实际应用中,开发者经常需要将该算法适配到不同类型的机械臂上,这就需要对算法中的动作维度有清晰的理解。
动作维度差异现象
在ACT++项目的实际应用中,开发者发现了一个值得关注的现象:通过record_sim_episodes.py脚本生成的数据集中,动作维度为14维;而在通过imitate_episode.py脚本加载数据时,动作维度却变成了16维。这种维度差异可能会影响算法的训练效果和最终性能。
技术原因分析
经过深入代码分析,发现这一差异源于EpisodicDataset类的数据处理方式。具体来说:
-
原始数据:record_sim_episodes.py记录的动作数据确实是14维的,这对应于机械臂的基本控制参数。
-
数据处理:在通过load_data和get_norm_stats()函数加载数据时,系统会自动在动作数据后添加两个零值(dummy_base_action),从而将维度扩展到16维。
-
设计意图:这种设计是为了适配移动式双手动机器人的控制需求。除了14维的手臂位置参数外,移动基座的位置控制还需要额外的2维参数。即使某些机械臂不需要基座控制,系统也保留了这两个维度以确保架构的统一性。
对算法适配的影响
对于希望将ACT++应用到其他机械臂的开发者,需要注意以下几点:
-
维度匹配:新机械臂的控制系统需要与16维的动作空间兼容。如果实际只需要14维,可以在最后两维填充零值。
-
归一化处理:由于get_norm_stats()会计算所有16维的统计量,开发者需要确保额外的维度不会影响实际控制维度的归一化效果。
-
网络架构:ACT算法的网络输出层需要设置为16维,即使部分维度可能不被使用。
最佳实践建议
-
对于固定基座的机械臂,可以保持最后两个动作维度为零,不影响实际控制。
-
如果需要完全移除基座控制维度,可以修改EpisodicDataset类,但要注意保持整个数据处理流程的一致性。
-
在训练新机械臂时,建议先检查动作维度的匹配情况,确保不会因为维度不匹配导致训练异常。
总结
ACT++项目中的这种维度设计体现了对多种机器人平台的兼容性考虑。理解这一设计原理有助于开发者更好地将算法适配到不同的机械臂系统上。在实际应用中,开发者可以根据目标机械臂的具体需求,灵活处理这些额外的动作维度,以获得最佳的控制效果。
Kimi-K2.5Kimi K2.5 是一款开源的原生多模态智能体模型,它在 Kimi-K2-Base 的基础上,通过对约 15 万亿混合视觉和文本 tokens 进行持续预训练构建而成。该模型将视觉与语言理解、高级智能体能力、即时模式与思考模式,以及对话式与智能体范式无缝融合。Python00- QQwen3-Coder-Next2026年2月4日,正式发布的Qwen3-Coder-Next,一款专为编码智能体和本地开发场景设计的开源语言模型。Python00
xw-cli实现国产算力大模型零门槛部署,一键跑通 Qwen、GLM-4.7、Minimax-2.1、DeepSeek-OCR 等模型Go06
PaddleOCR-VL-1.5PaddleOCR-VL-1.5 是 PaddleOCR-VL 的新一代进阶模型,在 OmniDocBench v1.5 上实现了 94.5% 的全新 state-of-the-art 准确率。 为了严格评估模型在真实物理畸变下的鲁棒性——包括扫描伪影、倾斜、扭曲、屏幕拍摄和光照变化——我们提出了 Real5-OmniDocBench 基准测试集。实验结果表明,该增强模型在新构建的基准测试集上达到了 SOTA 性能。此外,我们通过整合印章识别和文本检测识别(text spotting)任务扩展了模型的能力,同时保持 0.9B 的超紧凑 VLM 规模,具备高效率特性。Python00
Baichuan-M3-235BBaichuan-M3 是百川智能推出的新一代医疗增强型大型语言模型,是继 Baichuan-M2 之后的又一重要里程碑。Python00
VLOOKVLOOK™ 是优雅好用的 Typora/Markdown 主题包和增强插件。 VLOOK™ is an elegant and practical THEME PACKAGE × ENHANCEMENT PLUGIN for Typora/Markdown.Less00