人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。
原文作者(或网站):中国科技网
标签:[]
原文网址:http://www.stdaily.com/index/kejixinwen/202406/d876b2ab80824ff48704f63b96fd018d.shtml