当前位置: 首页 > news >正文

前沿分享|处理LLM幻觉问题-CoN|笔记链:增强检索增强语言模型的鲁棒性

检索增强语言模型(RALMs)在大型语言模型的能力方面取得了重大进步,特别是在减少事实幻觉方面,这得益于外部知识来源的利用。

然而,检索到的信息的可靠性并不总是有保证。

检索到无关数据可能导致误导性回答,甚至可能导致模型忽视其固有的知识,即使它拥有足够的信息来回答查询。

此外,标准 RALMs 往往难以评估它们是否拥有足够的知识,无论是内在的还是检索到的,以提供准确的答案。

在知识缺乏的情况下,这些系统应理想地以“未知”作为回答,当答案无法获得时。针对这些挑战,我们引入了-

链式笔记(CoN)

这是一种旨在提高 RALMs 在面对噪声、无关文档以及处理未知场景的鲁棒性的新颖方法。

CoN 的核心思想是为检索到的文档生成顺序阅读笔记,以便彻底评估其与给定问题的相关性,并将这些信息整合到最终答案中。

我们使用 ChatGPT 创建 CoN 的训练数据,该数据随后在 LLaMa-2 7B 模型上进行了训练。

我们在四个开放域问答基准上的实验表明,配备 CoN 的 RALMs 在标准 RALMs 上显著优于。

值得注意的是,CoN 在完全噪声检索文档的情况下,EM 分数平均提高了+7.9,对于超出预训练知识范围的实时问题,拒绝率提高了+10.5。

Link:

[2311.09210] Chain-of-Note: Enhancing Robustness in Retrieval-Augmented Language Models

相关文章:

  • 数据中台建设系列(一):数据中台的前世今生
  • Spring AI Alibaba ChatModel使用
  • debian12 安装docker服务
  • Java 方法执行原理底层解析
  • spss statistics 在mac上安装
  • 【leetcode hot 100 131】分割回文串
  • Docker 安装 Mysql
  • Ubuntu 20.04 安装并使用Cursor
  • go语言中的strings库
  • 蓝桥杯 R格式
  • Redis常见阻塞原因总结
  • 【JavaEE进阶】Linux搭建Java部署环境
  • 用Ollama部署大语言模型
  • ABAP隐藏F8执行按钮
  • Kafka是如何实现幂等性的??
  • redis安装
  • STM32__红外避障模块的使用
  • c++进阶之------红黑树
  • [特殊字符] 树莓派声卡驱动原理全解析:从模拟耳机口到HiFi DAC
  • 《鸿蒙原生应用开发:掌控Ability生命周期的艺术》
  • “下一个高增长市场,还是中国”,龚正市长会见参加上海车展的国际企业高管
  • A股三大股指涨跌互现:黄金股再度走强,两市成交10900亿元
  • 具象的“南方”|一个海南艺术家的穷困与信爱
  • 浙江桐乡征集涉企行政执法问题线索,含乱收费、乱罚款、乱检查等
  • 沙龙 | 新书分享:中国电商崛起的制度密码
  • 特朗普亲自介入美日关税谈判:以势压人还是给对手“送助攻”