机器之心专栏
机器之心编辑部
在古希腊的神话中,有一种名为塞壬 (Serin) 的海妖,她们通过美丽的歌喉制造幻像,诱导往来的船只触礁沉没。
大规模语言模型在众多下游任务中展现了惊人的能力,但它们在使用中仍然暴露了一些问题。其中,幻觉是目前影响大模型落地的重要问题之一。ChatGPT 的发布使学术界和工业界关注大模型实际落地的潜能,大量关于幻觉的工作也开始涌现。
近期,腾讯 AI Lab 联合国内外多家学术机构发布了面向大模型幻觉工作的综述,对幻觉的评估、溯源、缓解等进行了全面的探讨。
- 论文链接:https://arxiv.org/abs/2309.01219
- Github 链接:https://github.com/HillZhang1999/llm-hallucination-survey
什么是大模型幻觉问题?
根据相关工作和平时对大模型的使用体验,研究人员总结了大模型常见的三类幻觉:
- 和用户输入冲突的幻觉 (Input-Conflicting Hallucination):大模型生成的回复违背了用户输入中的任务指示或者任务输入。
- 和已生成的上下文冲突的幻觉 (Context-Conflicting Hallucination):大模型生成的回复出现了自我矛盾。
- 和事实知识冲突的幻觉 (Fact-Confilicting Hallucination):大模型生成的回复与公认的事实知识出现了冲突。