当前位置: 首页 > news >正文

xVerify:推理模型评估的革新利器,重塑LLM答案验证格局?

在大语言模型(LLM)蓬勃发展的今天,推理模型不断涌现,但如何精准评估其回答的正确性却成了难题。本文提出的xVerify或许能带来转机。它是专为推理模型评估设计的高效答案验证器,表现卓越。想知道它是如何做到的吗?让我们一探究竟。

论文标题
xVerify: Efficient Answer Verifier for Reasoning Model Evaluations
来源
arXiv:2504.10481v1 [cs.CL] 14 Apr 2025
https://arxiv.org/abs/2504.10481

代码

https://github.com/IAAR-Shanghai/xVerify

文章核心

研究背景

随着思维链(CoT)提示法的出现以及OpenAI的o1模型等推理模型的兴起,LLM在复杂任务上的表现提升,但模型输出包含冗长推理过程,这给现有评估方法带来巨大挑战。

研究问题

  1. 现有评估方法难以从推理模型的冗长输出中准确提取最终答案,比如面对复杂数学推理过程中的中间结果和冗余信息时,无法精准定位最终答案。
  2. 对于LLM输出答案与参考答案的等价判断存在困难,像不同形式但语义等价的答案(“alpha”与“α” 、“1000”与“(10^3)” )难以有效识别。
  3. 目前缺乏专门针对客观问题推理评估的有效自动方法,规则基评估框架和基于LLM的判断方法都存在各自的局限性。

主要贡献

  1. 构建VAR数据集:收集19个LLM在24个评估基准上的答案样本,经过多轮GPT-4o和人工审核标注,为训练和评估推理任务的判断模型提供了高质量数据。
  2. 提出xVerify验证器:设计出xVerify这一高效答案验证器,并发布多个微调版本。它能处理复杂推理痕迹,支持多种等价检查,对格式错误有容忍性,适用于多种任务类型。
  3. 全面验证有效性:在测试集和泛化集上与多种现有评估框架和判断模型进行对比评估,充分验证了xVerify的有效性和适用性,即便最小版本xVerify-0.5B-I也表现出色。

方法论精要

1. 任务形式化定义:将评估LLM对客观问题回答正确性的任务形式化为一个4元组 ( Q , R , A r e f , E ) (Q, R, A_{ref }, E) (Q,R,Aref,E)。其中 Q Q Q是问题集合, R R R是LLM生成的响应集合, A r e f A_{ref } Aref是参考答案集合, E E E是评估函数,根据最终答案与参考答案的匹配情况返回0或1。在提取最终答案时,通过定义评分函数$ S $衡量候选答案与问题的相关性,选取得分最高的候选答案作为最终答案;在等价比较阶段,针对数学表达式自然语言答案符号表示分别定义了归一化函数和比较函数,综合判断最终答案与参考答案是否等价。

2. VAR数据集构建

  • LLM响应生成:挑选19个主流LLM和24个多语言数据集,涵盖多种难度和领域。依据问题和答案格式,将数据集分为选择题数学题简答题分类题四类。设计8种不同的提示模板,生成191,600个问答样本,确保数据集的多样性和覆盖度。
  • 数据集划分:构建训练集、测试集和泛化集。训练集和测试集从15个LLM在17个评估集生成的样本中选取,分布相似;泛化集则来自7个未用于训练和测试的评估集,由19个LLM生成,包含4个新模型,以测试模型在不同分布数据上的泛化能力。
  • 数据标注:对三个数据集进行多轮自动和手动标注。先用GPT-4o进行两轮标注,对于训练集中较难的数学问题和标注不一致的样本进行人工标注,测试集和泛化集则全部人工标注,保证标注的准确性。
  • 数据增强:针对不同题型采用不同策略。选择题进行选项索引变换和噪声注入;数学题基于参考答案和LLM响应生成等价表达式,并对最终答案语句进行多样化变换;通过这些方法,扩展了数据集的表达空间,提升了模型对不同答案格式的适应性。

3. 模型训练:利用VAR数据集的训练集,采用LLaMA-Factory框架和QLoRA技术训练14个不同参数规模和架构的模型。设置训练轮数为1,学习率为(1e - 4) 等超参数,涵盖5个不同系列的基础模型,如LLaMA 3、Qwen2.5等,以全面评估xVerify方法的泛化能力。

实验洞察

  1. 测试集评估结果:在VAR测试集上评估xVerify、多种评估框架和判断模型。评估框架方面,DeepSeek Math Verify和OpenCompass表现相对较好,但F1分数和准确率均未超80%,且部分框架不适用某些题型。判断模型中,GPT-4o和CompassJudger总体表现出色,但CompassJudger-1-32B在数学题上表现不佳,较小版本的模型性能更低。相比之下,xVerify表现卓越,xVerify-0.5B-I除了在与GPT-4o as Judge (CoT)的比较中稍逊一筹外,在总体性能上超越其他所有方法;xVerify-3B-Ib在各项评估指标上均超越其他所有方法。
  2. 泛化集评估结果:在VAR泛化集上,xVerify模型总体性能略有下降,但F1分数和准确率下降均小于1.5%,仍优于其他所有方法。评估框架的总体F1分数和准确率大多低于80%,OpenCompass的总体准确率最高,为70%以上。判断模型中,除GPT-4o外,其他模型在数学题上F1分数大多低于50%,GPT-4o在数学题上F1分数也未超90%,且使用CoT后性能未提升。xVerify-0.5B-I超越除GPT-4o外的所有评估方法,xVerify-3B-Ib超越基于CoT的GPT-4o方法,且较大参数规模的xVerify模型在泛化集上性能下降更少,泛化性能更强
  3. 综合评估:全面评估14个xVerify模型在测试集和泛化集上的性能,测试xVerify和其他判断模型的计算效率以及GPT-4o作为判断模型的评估成本。结果显示,xVerify模型在使用成本和评估效率上均优于其他判断模型,所有xVerify模型的总体平均运行时间在100秒以内,而其他判断模型大多超过100秒;xVerify模型的评估成本也显著低于GPT-4o

本文由AI辅助完成。

相关文章:

  • 《TCP/IP详解 卷1:协议》之第七、八章:Ping Traceroute
  • 【Web应用服务器_Tomcat】二、Tomcat 核心配置与集群搭建
  • 【高频考点精讲】第三方库安全审计:如何避免引入带漏洞的npm包
  • 机器学习之一:机械式学习
  • CentOS 如何使用截图工具截取命令行操作的图片?
  • 计算机网络 | 应用层(1)--应用层协议原理
  • 数据结构和算法(八)--2-3查找树
  • 【学习笔记】Stata
  • hot100—5.盛水最多的容器
  • 一些常见的资源池管理、分布式管理和负载均衡的监控工具
  • 物联网安全运营概览
  • Spring Boot 应用运行指南
  • C++武功秘籍 | 入门知识点
  • day7 python针对心脏病数据集预处理
  • 可靠传输的守护者:揭开计算机网络传输层的奥秘
  • 2024江西ICPC部分题解
  • 多线程(1)——认识线程
  • 摩尔投票法详细介绍
  • 【C】初阶数据结构12 -- 冒泡排序
  • QT跨平台软件开发要点
  • “杭州六小龙”的招聘迷局
  • 中国纪检监察报刊文:要让劳动最光荣成为社会的崇高风尚
  • 美国政府将暂时恢复部分受影响留学生的合法身份,并将制订新标准
  • 网络游戏用户规模和市场销售创新高,知识产权保护面临哪些挑战?
  • 四川一国企“80后”掌门人为报领导“知遇之恩”,盲目决策致数亿损失
  • 金正恩出席朝鲜人民军海军驱逐舰入水仪式