当前位置: 首页 > news >正文

【LLM系列】Deepseek-R1模型详细介绍

1. 简介

  • deepseek r1是对标openai o1模型的推理模型;
  • 本文主要介绍GRPO作为强化学习框架,使用Deepseek-V3-Base作为基座训练deepseek r1及deepseek r1 zero。deepseek r1 zero模型仅通过Deepseek-V3-Base+RL就能达到在AIME2024 benchmark上效果超过openai-o1-0912,但存在可读性差和语言混合问题。deepseek r1则是Deepseek-V3-Base通过少量数据sft,再将sft后的模型经过RL后得到的模型,不仅解决了上面的问题,效果也远超预期。

2. 方法

2.1 DeepSeek-R1-Zero Model

2.1.1 GRPO(Group Relative Policy Optimization)

  • 在强化学习中,忽略掉critic model
  • 使用group scroes预估baseline
  • 针对query q,GRPO首先会从旧policy π θ o l d \pi_{\theta old} πθold中sample一组回复{ o 1 , o 2 , . . . . , o G {o_1, o_2,...., o_G} o1,o2,....,oG},然后通过下面的objective优化 θ \theta θ
    在这里插入图片描述
  • 其中 ϵ \epsilon ϵ β \beta β表示超参, A i A_i Ai表示advantage,计算公式如下:
    在这里插入图片描述

2.1.2 Reward Modeling

  • 训练使用基于规则的奖励系统,由两部分组成:
    • Accuracy Reward:用来评估resposne是否准确,比如说在数学问题中使用结果与标准答案是否一致作为判断标准;代码问题使用编译器的结果作为判断标准。
    • Format Reward:判断回复是否符合某个格式

2.1.3 训练prompt

在这里插入图片描述

2.1.4 Performance

在这里插入图片描述
在这里插入图片描述

  • 不需要微调就可以通过RL在推理任务中达到很好的效果;
  • 使用majority voting可以进一步提升模型效果;
  • Self-evolution
    • 模型回复长度增加,模型在探索更多深度的思考回答复杂问题;
    • 通过强化学习,模型会有类似refection,reevaluate等行为
      在这里插入图片描述
  • Aha Moment of Deepseek-R1-zero
    在这里插入图片描述
  • 缺点
    • 可读性差
    • 语言混合

2.2 DeepSeek-R1 Model

  • 与DeepSeek-R1-Zero模型不同,DeepSeek-R1模型会事先准备少量的long CoT数据微调模型,然后作为RL的actor。
  • 数据构建方式:1. 直接将一些long CoT数据作为few-shot,然后让模型生成带反思和校正的回复;2. 让DeepSeek-R1-Zero生成long CoT数据
  • DeepSeek R1模型优点:
    • 可读性:通过微调之后,回复的格式可以定义,并且没有混合语言的情况。
    • 潜力:效果要好于DeepSeek R1 Zero模型
  • 在得到actor后,在RL训练过程中,为了避免回复有多语言的情况,增加语言一致性的reward model,主要方式是计算回复中目标语言的占比。在整个RL过程中,使用语言一致性reward + 任务准确性reward作为最后的reward。
  • 在推理任务中收敛后得到中间ckpt,再进行针对所有场景的强化学习:
    • 数据:
      • reasoning数据:上一步模型的训练数据仅仅是能用规则得到reward的数据,这步需要加上一些额外的数据。主要通过中间ckpt 采样生成reasoning data和一些额外数据的回复,然后使用通用reward model判断好坏 + 后处理;最终得到600K数据
      • 非reasoning数据:类似writing, factual QA, self-cognition, and translation等数据,主要是deepseek v3 pipeline以及部分V3 SFT数据,然后用deepseek v3得到CoT部分。最终得到200K数据。
      • 最后得到800K数据
    • 训练:
      • 第一步:使用800K数据微调deepseek v3 base 模型;
      • 第二步:用第一步的模型进行强化学习
        • 在reasoning任务中,参考deepseek r1 zero训练方式
        • 在general任务,参考deepseek v3 pipeline
          在这里插入图片描述

3. 实验

在这里插入图片描述

4. 小结

文章展示cold start和non cold start两种RL训练方式,总体而言,两种方法都有效。但non cold start的方式会有一些问题,比如说语言混合,可读性差。但使用cold start不仅在效果上超过non cold start的方式,在可读性及语言一致性问题上也得到解决

5. 参考文献:

  • 1) https://weibo.com/ttarticle/p/show?id=2309405125956833771966&mark_id=999_reallog_mark_ad%3A999%7CWeiboADNatural
  • 2)https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

相关文章:

  • MySQL -安装与初识
  • C++模拟实现map和set
  • 延迟扩展衰落信道、AWGN、Rayleigh、Rician信道,FMCW雷达的距离、角度、速度信息
  • 前端(vue)学习笔记(CLASS 2):进阶
  • ffmpeg av_find_input_format的作用
  • Windows下不建议使用C/C++运行库的本地化功能
  • transformer架构的语言模型保存的内容与格式详解
  • 【Maven】-- Maven Scope 详解
  • 【一文入门】shell语法进阶篇
  • 鸿蒙next 点击穿透实现
  • org.springframework.boot不存在的其中一个解决办法
  • JAVA面试_进阶部分_Linux面试题
  • Idea 中 Project Structure简介
  • java23种设计模式-中介者模式
  • vue打印页面(可分页、可打印echarts、可显示背景色)
  • Qwen 2.5 技术报告解读
  • leetcode151 反转字符串中的单词
  • Spring Boot 中 @Transactional 注解全面解析
  • MySQL中json类型数据查询
  • 线性回归(一)基于Scikit-Learn的简单线性回归
  • 湖南华容县通报“大垱湖水质受污染”,爆料者:现场已在灌清水
  • 药明康德一季度净利增长89%,在手订单增超四成至523亿元
  • 南阳市委原书记朱是西被“双开”:搞劳民伤财的“政绩工程”
  • 《深化养老服务改革发展的大湾区探索》新书将于今年6月出版
  • 东北财大“一把手”调整:方红星任校党委书记,汪旭晖任校长
  • 交警不在就闯红灯?上海公安用科技手段查处非机动车违法