嗨热线网 > 科技 > 智能 >

AI海洋中的海妖之歌

2023-09-18 11:15

机器之心专栏

机器之心编辑部

 

在古希腊的神话中,有一种名为塞壬 (Serin) 的海妖,她们通过美丽的歌喉制造幻像,诱导往来的船只触礁沉没。

 

大规模语言模型在众多下游任务中展现了惊人的能力,但它们在使用中仍然暴露了一些问题。其中,幻觉是目前影响大模型落地的重要问题之一。ChatGPT 的发布使学术界和工业界关注大模型实际落地的潜能,大量关于幻觉的工作也开始涌现。

近期,腾讯 AI Lab 联合国内外多家学术机构发布了面向大模型幻觉工作的综述,对幻觉的评估、溯源、缓解等进行了全面的探讨。


 

 

  • 论文链接:https://arxiv.org/abs/2309.01219
  • Github 链接:https://github.com/HillZhang1999/llm-hallucination-survey

 


 

什么是大模型幻觉问题?

根据相关工作和平时对大模型的使用体验,研究人员总结了大模型常见的三类幻觉:

 

  1. 和用户输入冲突的幻觉 (Input-Conflicting Hallucination):大模型生成的回复违背了用户输入中的任务指示或者任务输入。
  2. 和已生成的上下文冲突的幻觉 (Context-Conflicting Hallucination):大模型生成的回复出现了自我矛盾。
  3. 和事实知识冲突的幻觉 (Fact-Confilicting Hallucination):大模型生成的回复与公认的事实知识出现了冲突。

郑重说明:网站资源摘自互联网,如有侵权,麻烦通知删除,谢谢!

联系方式:hiholiday12399@gmail.com