如何应对 AI“一本正经的胡说八道”?研究人员希望它会承认“我不知道”

xxn 阅读:32032 2025-02-13 08:01:23 评论:0

据IT之家报道,2月13日,《华尔街日报》在11日的一篇报道中深入探讨了当今“AI幻觉”的现象及其可能的解决方案。记者Ben Fritz对数款全球顶尖AI聊天机器人询问“我的配偶是谁”,结果却产生了令人意外的回答:一个陌生作家、一名来自爱荷华州的女性,和一位网球运动博主。

报道指出,尽管AI在处理复杂数学问题和模仿人类对话方面表现出色,但在事实准确性上却频繁出现错误。这些人工智能有时会捏造法律案件信息,混淆电影和书籍的情节,甚至会“凭空”创造出虚假的配偶。

图源 Pixabay

值得一提的是,这些错误现象常被称为“幻觉”,因为像ChatGPT、Gemini等AI即使在输出错误信息时,仍会显得无比自信

德国Hasso Plattner研究所的博士生Roi Cohen曾在IBM和微软实习,他表示,这一现象是目前AI研究中的热门话题之一。

AI的核心工作是对下一个可能出现的单词进行预测。从某种深层次来讲,这就像是一种复杂的猜测行为。AI常常以坚定的语气给出最有可能的正确答案,却不会表现出任何的犹豫,这类似于学生在多项选择考试中回答问题,或者在社交场合中随意回应问题的态度。

西班牙瓦伦西亚人工智能研究所的教授José Hernández-Orallo表示,“AI产生幻觉的本质原因在于,如果它什么都不尝试,就肯定无法给出正确答案。”

为了解决此类问题,研究团队正在探索“检索增强生成”(retrieval augmented generation)技术,旨在使AI在回答问题前先从网络或者文档数据库中获取最新的信息,而非完全依赖其训练过程中获得的数据。

在去年的NeurIPS AI研究大会上,Cohen和他的同学Konstantin Dobler提出了一个简单且富有创意的方案:让AI也能够承认“我不知道”。

报道提到,目前的AI训练数据几乎不包含“我不知道”的说法,因此这些AI本质上是缺乏谦逊的。Cohen和Dobler通过调整AI的训练流程,使其在可能出现错误时,在某种程度上选择回答“我不知道”,以此提升整体的准确性。

然而,如何合理地平衡这种策略仍然是一个难题。有时AI标记“我不知道”,但实际上答案就隐藏在其训练数据之中。

尽管如此,对于依赖AI获取精确信息的行业而言,适度的“谦逊”可能显得至关重要。“核心在于赋予AI实用性,而不仅仅是追求智能。”Dobler如是说。

虽然AI技术在不断提升,但美国公众的信任感却逐渐降低。皮尤研究中心的数据显示,2023年有52%的美国人对AI表示担忧,而2021年这一数字为37%。

广告声明:文内包含对外跳转链接(包括但不限于超链接、二维码、口令等形式),用于传递更多信息,节省选择时间,结果仅供参考。

声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

搜索
排行榜
关注我们

扫一扫关注我们,了解最新精彩内容