把RLHF带给VLA模型!通过偏好对齐来优化机器人策略,代码已开源
- 2024-12-27 11:55:00
- 刘大牛 转自文章
- 231
AIxiv专栏是人工智能站发布学术、技术内容的栏目。过去数年,人工智能站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
论文标题:GRAPE: Generalizing Robot Policy via Preference Alignment
论文链接:https://arxiv.org/abs/2411.19309
项目地址:https://grape-vla.github.io
代码地址:https://github.com/aiming-lab/GRAPE
GRAPE 在轨迹层面通过强化学习(RL)目标对 VLA 进行对齐,赋予模型全局决策能力,而不仅仅是简单的行为克隆;
GRAPE 隐式建模了成功和失败尝试中的奖励,从而提升对多样化任务的泛化能力;
GRAPE 采用可扩展的偏好合成算法。GRAPE 通过与任意目标对齐的偏好对轨迹进行排序,进而使得 VLA 模型能被对齐到设定的目标上。
发表评论
文章分类
联系我们
联系人: | 透明七彩巨人 |
---|---|
Email: | weok168@gmail.com |