提高大语言模型可信度,新方法助生成式AI破除“幻觉”-中国科技网
  • 分类:
  • |
  • 时间:2024-06-22 09:26:50
  • |
  • 来源:中国科技网
人工智能(AI)在给出准确答案的同时,也会有一些“胡乱输出”令人难辨真假,这被称为“幻觉”(hallucination)。而新一期《自然》杂志发表的一项研究报道了一种新方法,能检测大语言模型(LLM)产生的“幻觉”,即该方法能测量生成回答的含义的不确定性,或能提升LLM输出答案的可靠性。

原文作者(或网站):中国科技网
标签:[]

原文网址:http://www.stdaily.com/index/kejixinwen/202406/d876b2ab80824ff48704f63b96fd018d.shtml

标签:
发表评论
0/300
全部评论0
0/300
阅读推荐
热门资讯
查看全部
关于我们
交流群
粤ICP备2021174232号-3
粤公网安备 44030502010300号
©2019-2025 OpenSNN ALL RIGHTS RESERVED