暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

SimPO:比 DPO 更好的偏好优化方法

慢慢学 AIGC 2024-05-27
53

 点击下方卡片,关注“慢慢学AIGC


SimPO (简单偏好优化)是一种新的 RLHF(基于人工反馈的强化学习)方法,旨在提高离线偏好调优的简单性和训练稳定性,同时优于 DPO 或 ORPO。SimPO 与 DPO 非常相似,都是无奖励的方法,但 SimPO 使用序列的平均对数概率作为隐式奖励。SimPO 类似于 DPO,但有以下不同之处:

  • 使用序列的平均对数概率作为奖励

  • 不需要参考模型,减少了计算和内存需求

  • 采用长度归一化奖励公式,惩罚过长的响应

  • 引入目标奖励边际,鼓励选择和拒绝响应之间的较大差距

  • 目标是最大化累积奖励,即选择响应的平均对数概率与拒绝响应的平均对数概率之差,减去目标奖励边际


见解:

  • 与 DPO 相比,时间缩短约 20%,GPU 显存减少约 10%

  • 在关键基准测试(AlpacaEval 2、Arena-Hard)上优于 DPO

  • 在 AlpacaEval 2 上提高多达 6.4 分,在 Arena-Hard 上提高多达 7.5 分

  • SimPO 与 DPO 模型相比,响应长度没有显著增加

  • 强制执行更大的目标奖励边际可有效提高奖励准确性

  • 在学术基准测试(如 MMLU、GSM8k)上保持性能

  • 由@huggingface构建
    论文 https://huggingface.co/papers/2405.14734
    Github: https://github.com/princeton-nlp/SimPO
    模型:https://huggingface.co/collections/princeton-nlp/simpo-66500741a5a066eb7d445889


普林斯顿大学的团队表示祝贺,更值得赞赏的是他们不仅发布了代码,还发布了所有模型检查点

补充背景知识


基于人类反馈的强化学习(RLHF)

RLHF 是一种技术,可将大型语言模型与人类偏好和价值观相一致。典型的 RLHF 流程(来自 InstructGPT 论文)通常包括三个阶段:监督细调、奖励模型训练和策略优化RLHF 框架广泛应用于各种应用,如缓解毒性、确保安全性、增强有用性、搜索和浏览网络以及提高模型推理能力。

邻近策略优化(PPO) 是 RLHF 第三阶段广泛使用的算法,需要同时运行 Actor、Critic、RM、SFT 四个模型进行策略优化。

(图片来源:ColossalAI)

直接偏好优化(DPO)是一种广泛使用的离线偏好优化算法,它从人类反馈(RLHF)中重新参数化了强化学习中的奖励函数,以增强简单性和训练稳定性。

开发团队介绍


普林斯顿大学自然语言处理组致力于自然语言处理研究,旨在让计算机有效地理解和使用人类语言。我们开发新颖的算法、设计新的框架并探索理论基础,以解决语言理解中的挑战性问题,借助深度神经网络和强化学习等技术。我们的工作旨在推进人工智能的边界,同时也能在实际文本处理应用领域取得进展,从而对各种现实世界问题产生广泛影响。我们最新的努力集中在问答系统、对话系统、语言理解、知识表示与推理、表示学习以及弱监督学习算法等方面。


点击下方卡片,关注“慢慢学AIGC

文章转载自慢慢学 AIGC,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论