大模型幻觉
大约 1 分钟
1. 什么是大模型幻觉
大模型幻觉是指大型语言模型(LLMs)生成的内容与现实世界事实或用户输入不一致的现象。这种现象可以分为两大类:
- 事实性幻觉:模型生成的内容与可验证的现实世界事实不一致。
- 忠实性幻觉:模型生成的内容与用户的指令或上下文不一致。
2. 产生幻觉的原因
- 训练数据问题
- 数据质量低:数据中可能包含错误、噪声或矛盾信息,导致模型学习到不准确的模式
- 数据覆盖不足:模型可能缺乏足够的上下文或领域知识, 导致在生成内容时出现不准确或不一致的情况
- 数据时效性:模型无法回答最新事件的问题,因为训练数据可能已经过时
- 模型架构问题
- 架构缺陷:比如可能无法处理长距离的依赖关系
- 训练目标不对齐:LLM的训练过程大多数是基于
Next Token Prediction的方式进行预训练, 因此,它只能保证文本生成的流畅性,而无法辨别所遇到的信息是否真实或准确。
- 推理问题:上下文质量差、不充分
3. 解决思路
- 训练数据优化:数据清洗、数据增强、持续更新数据
- 模型改进:改进模型架构
- 推理过程优化
- 上下文增强:使用RAG、搜索等技术,增强上下文
- 提示词优化:Few-Shot、CoT、不确定声明、引导追问