首页
/ MARTI项目中的多智能体奖励机制与训练策略解析

MARTI项目中的多智能体奖励机制与训练策略解析

2025-06-07 01:55:33作者:苗圣禹Peter

引言

在人工智能领域,多智能体系统(Multi-Agent Systems, MAS)因其在复杂任务解决中的协同优势而备受关注。TsinghuaC3I/MARTI项目提出了一套完整的多智能体训练框架,本文将深入剖析其中的奖励分配机制与策略训练方法。

基于规则的奖励塑造

对于数学问题等具有可验证解的领域,MARTI采用了基于规则的奖励模型(如DeepSeek-R1)。这种方法特别适合混合智能体和多智能体辩论场景,其中每个智能体的输出可以直接与标准答案比对。

时间一致性增强策略

MARTI引入了来自MAPoRL的推理感知奖励塑造策略,通过整合历史表现信息来提升多轮交互中的时间一致性。该策略包含两个核心组件:

  1. 质量模式(Quality Mode):鼓励智能体保持与历史表现一致的正确性
  2. 边际模式(Margin Mode):直接奖励超越历史平均表现的智能体

数学表达上,设RtiR_t^i为第tt轮智能体ii的即时正确性奖励,QtiQ_t^i为其历史表现估计值:

Qti=1HtikHtiRkiQ_t^i = \frac{1}{|H_t^i|} \sum_{k \in H_t^i} R_k^i

动态塑造项Δti\Delta_t^i的计算方式为:

  • 边际模式:Δti=RtiQti\Delta_t^i = R_t^i - Q_t^i
  • 质量模式:Δti=QtiRti(1Qti)(1Rti)\Delta_t^i = Q_t^i \cdot R_t^i - (1 - Q_t^i)(1 - R_t^i)

最终奖励计算公式为:Rti=Rti+αΔtiR_t^i = R_t^i + \alpha \cdot \Delta_t^i,其中α\alpha是可调超参数。

基于树的AgentPRM方法

当最终答案不直接出现在中间智能体输出中时,MARTI采用了基于过程的奖励模型(AgentPRM),该方法源自SweetRL和PRIME的研究成果。

关键技术实现

  1. 智能体级奖励计算:对于包含L个token的智能体动作ata_t,奖励计算为:

At=1Ll=1L[logπθ(atlat1:l1,c)πref(atlat1:l1,c)]A_t = \frac{1}{L} \sum_{l=1}^L \left[ \log \frac{\pi_\theta(a_t^l | a_t^{1:l-1}, c)}{\pi_{\text{ref}} (a_t^l | a_t^{1:l-1}, c)} \right]

  1. 交叉熵损失计算:聚合所有N个智能体的奖励计算损失:

LCE=yσ(t=1NβAt)+(1y)(1σ(t=1NβAt))L_{\text{CE}} = y \cdot \sigma\left( \sum_{t=1}^N \beta \cdot A_t\right) + (1-y) \cdot \left(1 - \sigma\left(\sum_{t=1}^N \beta \cdot A_t\right)\right)

MARTI还实现了基于树的rollout策略,在每个回合为每个智能体采样多个候选响应,使用类似DPO训练的过程对进行AgentPRM训练。

生成式奖励模型

MARTI集成了大语言模型作为生成式奖励模型(GenRM),适用于可验证和开放域问题。系统支持通过本地vLLM引擎或兼容API实现GenRM,为给定问题-轨迹对分配标量奖励。

特别值得注意的是,MARTI开发了专门针对多智能体系统的GenRM变体,能够显式处理多智能体协作中的常见失败模式,显著提升了协作行为的质量。

策略模型训练

获得包含个体轨迹和对应奖励的rollout经验后,MARTI启动分布式策略模型训练,主要特点包括:

  1. 算法支持:适配OpenRLHF实现,支持REINFORCE++、GRPO、PPO等多种强化学习算法
  2. 一致性保证:所有智能体策略使用相同的RL算法训练
  3. 增强策略:整合监督微调(SFT)和直接偏好优化(DPO)等模仿学习方法
  4. 动态选择:根据应用需求(如训练稳定性、收敛速度)动态选择训练策略

总结

MARTI项目构建了一套完整的、模块化的多智能体训练框架,从基础的规则奖励到高级的生成式评估,再到多样化的训练策略,为多智能体系统的研究和应用提供了强有力的工具支持。特别是其奖励机制设计,既考虑了即时正确性,又关注长期协作表现,在多轮交互场景中展现出显著优势。

登录后查看全文
热门项目推荐

项目优选

收起
docsdocs
OpenHarmony documentation | OpenHarmony开发者文档
Dockerfile
139
1.91 K
kernelkernel
deepin linux kernel
C
22
6
nop-entropynop-entropy
Nop Platform 2.0是基于可逆计算理论实现的采用面向语言编程范式的新一代低代码开发平台,包含基于全新原理从零开始研发的GraphQL引擎、ORM引擎、工作流引擎、报表引擎、规则引擎、批处理引引擎等完整设计。nop-entropy是它的后端部分,采用java语言实现,可选择集成Spring框架或者Quarkus框架。中小企业可以免费商用
Java
8
0
ohos_react_nativeohos_react_native
React Native鸿蒙化仓库
C++
192
273
RuoYi-Vue3RuoYi-Vue3
🎉 (RuoYi)官方仓库 基于SpringBoot,Spring Security,JWT,Vue3 & Vite、Element Plus 的前后端分离权限管理系统
Vue
923
551
openHiTLSopenHiTLS
旨在打造算法先进、性能卓越、高效敏捷、安全可靠的密码套件,通过轻量级、可剪裁的软件技术架构满足各行业不同场景的多样化要求,让密码技术应用更简单,同时探索后量子等先进算法创新实践,构建密码前沿技术底座!
C
421
392
openGauss-serveropenGauss-server
openGauss kernel ~ openGauss is an open source relational database management system
C++
145
189
金融AI编程实战金融AI编程实战
为非计算机科班出身 (例如财经类高校金融学院) 同学量身定制,新手友好,让学生以亲身实践开源开发的方式,学会使用计算机自动化自己的科研/创新工作。案例以量化投资为主线,涉及 Bash、Python、SQL、BI、AI 等全技术栈,培养面向未来的数智化人才 (如数据工程师、数据分析师、数据科学家、数据决策者、量化投资人)。
Jupyter Notebook
74
64
Cangjie-ExamplesCangjie-Examples
本仓将收集和展示高质量的仓颉示例代码,欢迎大家投稿,让全世界看到您的妙趣设计,也让更多人通过您的编码理解和喜爱仓颉语言。
Cangjie
344
1.3 K
easy-eseasy-es
Elasticsearch 国内Top1 elasticsearch搜索引擎框架es ORM框架,索引全自动智能托管,如丝般顺滑,与Mybatis-plus一致的API,屏蔽语言差异,开发者只需要会MySQL语法即可完成对Es的相关操作,零额外学习成本.底层采用RestHighLevelClient,兼具低码,易用,易拓展等特性,支持es独有的高亮,权重,分词,Geo,嵌套,父子类型等功能...
Java
36
8