AI大模型之模型幻觉
模型幻觉(Model Hallucination)是大模型生成内容时脱离事实、虚构信息的一种现象,尤其在语言模型、图像生成模型等中较为常见。为了更深入地理解这一现象,我们可以将其分为两个维度进行分析:内在幻觉(Intrinsic Hallucination) 和 外在幻觉(Extrinsic Hallucination)。
一、引言
大规模语言模型(LLMs)在自然语言生成任务中展现出强大的能力,但同时也存在生成内容与事实不符、逻辑混乱、语义偏差等问题,统称为“幻觉”(Hallucination)。幻觉不仅影响模型的可用性和可信度,还制约其在高风险场景(如医疗、金融、法律等)中的应用。
学术界普遍将幻觉现象分为两类:内在幻觉(Intrinsic Hallucination)与外在幻觉(Extrinsic Hallucination)。这一区分有助于明确幻觉产生的根因,并指导不同的检测与缓解策略。
二、内在幻觉(Intrinsic Hallucination)
2.1 定义
内在幻觉是指模型生成的文