AI“幻觉”现象引关注:如何让AI学会说“我不知道”?
来源:万德丰 发布时间:2025-02-14 分享至微信

近期一项关于AI“幻觉”的报道,引发了业界的广泛讨论和深思。据报道,当记者Ben Fritz向多款全球最先进的AI聊天机器人询问“自己的配偶是谁”时,得到的答案却令人匪夷所思:一位并不认识的作家、一名来自爱荷华州的陌生女性,还有一名网球运动博主。


AI在解决复杂数学问题和模拟人类交流方面确实表现出色,但在基本事实上却常常出错。它们会捏造法律案件、混淆电影和书籍的情节,甚至“凭空”编造配偶。这种错误往往被称作“幻觉”,因为ChatGPT、Gemini等AI即使在生成错误答案时也会表现得极其自信。


这种自信的背后,实际上是AI工作原理的一种体现:预测答案中最可能出现的下一个单词。这一过程更像是一种高级猜测,AI往往会以坚定的语气给出最可能正确的答案,而不会表现出任何不确定性。


那么,AI为何会产生这种“幻觉”呢?西班牙瓦伦西亚人工智能研究所的教授José Hernández-Orallo解释道,根本原因在于,如果AI什么都不猜,就完全不可能答对。为了解决这个问题,研究人员正尝试“检索增强生成”技术,让AI在回答问题时先从互联网或文档库中查找最新信息,而不是完全依赖已有的训练数据。然而,这一技术虽然能够提高AI的准确性,但并不能完全消除“幻觉”现象。


在去年12月的NeurIPS AI研究会议上,德国Hasso Plattner研究所的博士生Roi Cohen和他的同校同学Konstantin Dobler提出了一个简单但富有新意的想法:让AI也学会承认“我不知道”。他们通过调整AI训练过程,使其在可能出错时,至少一部分情况下会选择回答“我不知道”,从而提高整体准确性。这一策略虽然看似简单,却对于提高AI的实用性和可信度具有重要意义。


[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论

暂无评论哦,快来评论一下吧!