AI“幻觉”的类型、原因和应对方法(1/3)-AI“幻觉”是什么?
在使用 AI 有时候,总是听人说 AI 会有幻觉无法完全相信,那么 AI 什么是幻觉?为何不可信赖?本文作者与我们分享了这一问题的答案,希望对大家有所帮助。
当你向一个 AI 问:“飞船进入火星大气层会经历什么?”你可能会得到这样一个答案:“飞船在进入火星密集大气层的过程中会经历非常高的温度和压力。发动机必须启动和减速,热保护系统还需要在飞船周围形成保护罩,以避免飞船过热和烧毁。”
这个答案怎么看,是不是很科学?您是否因此而相信? AI 的答案?
但是实际上,这个答案是错误的,你遇到了。 AI “幻觉”问题。
一、什么叫 AI "幻觉"
所谓 AI "幻觉"(Hallucination),是指 AI 会给出一个看似合理,却完全错误的答案,也就是我们通常所说的“一本正经地胡说八道”(当然,AI 自己也不知道)。AI “幻觉”是一种非常普遍的现象(至少在这篇文章中 24 年 6 月亮仍然是这样),根据国外的一份针对性。 974 根据受访者的调查报告,高达 72% 的人相信 AI 可以提供可靠和真实的信息,但是, 75% 的人至少被 AI 有一次误导。
AI “幻觉”有很多表现形式,下面是一些常见的表现形式。 AI 幻觉类别:
假定各种假设:有时,AI 在试图回答我们的问题时,有可能是基于一些随机或与事实不符的假设。在这种情况下,AI 并非有意误导我们,而是因为它不能理解真实的情况,只能通过模拟数据中的模式来尝试产生看似合理的答案。在这种情况下,AI 也许会得到一些毫无根据的猜测,就像一个没有足够数据的侦探,只能通过猜测来填补不足的信息。
过度推断事实:AI 有时候,模型可能会过度推断事实的某一部分,夸大自己的理解,然后为缺乏足够具体或深入的信息添加更多的细节。例如,如果在一个关于古罗马的问答场景中, AI 这个模型只知道古罗马是一个存在的文明。它可能会试图通过过度解读这些信息来生成更具体和不完全准确的细节,比如古罗马在特定日期的特定事件。
无缘无故的自信:或许你曾经遇到过,有时候我们会问 AI 有些问题明显超出了它的知识范围, AI 仍然会以自信的态度来回答,而非选择装聋作哑。这是因为 AI 无论问题是否超出了它的理解范围,模型总是被设计成尽可能地产生答案。但是,过多的自信往往会误导顾客,使他们误以为是 AI 处理问题是无所不知,无所不能。
无法回答需要实时信息的问题:AI 大型模型采用“预训练”的方法,即模型一旦训练完成并开始运行,就无法继续访问或理解训练数据后产生的信息或知识。例如,你可能曾经问过 AI 今日天气怎么样,或者最近有什么大新闻。虽然 AI 可以聊天或者评论新闻,但是因为模型只能访问培训数据,所以不能实时更新天气情况,也不能知道培训数据后发生的新闻事件(要实现这种能力,只能给。 AI 配备“搜索”能力)。
上述是常见的 AI “幻觉”类型,然后, AI “幻觉”,究竟是怎么产生的?下一部分,我们将讨论为什么会发生这种情况。 AI "幻觉"。(哦,对了,开头的那个。 AI 回答,问题出在“火星密集的大气层”。实际上,火星的大气层并不密集,这种说法是错误的。)讨论话题:你曾经遇到过什么让你印象深刻的事情? AI "幻觉"?在评论区也分享一下。
注意:因为本文预设读者是 AI 零基础群体,期待启发。所以作者会尽量用简单的语言来介绍,但是在简化某个概念和原理的过程中,可能会失去它的完整性。请注意这一点。
作者:产品经理崇生,微信官方账号:崇生黑板报
本文由 @产品经理崇生 每个人都是原创产品经理。未经作者许可,禁止转载。
题图来自 unsplash,基于 CC0 协议
本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。
免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com