李飞飞亲自发表文章:大模型不具备主观感觉能力,多少亿参数也不行。

05-27 18:05

归根结底,大模型的方向还是错了?



「在人工智能拼图中,空间智能是关键环节。」知名「AI 教母」李飞飞曾经这样说过。


最近,李飞飞开始关注这个领域,并为此创办了一家创业公司。她曾经说过,「大自然为观察和行动创造了一个良性循环,以空间智能为动力。」斯坦福大学实验室正试图教授计算机。「如何在三维世界中行动?」,例如,使用大型语言模型,使机械臂按照口头指令开门、做三明治等任务。


不难看出,李飞飞嘴里的空间智能也有大模型参与。


现在,随着技术的发展,LLM 超人类智能在很多方面都有所体现。但是, LLM 争论也随之增加,其中,LLM 究竟有没有感觉能力,大家意见不一。


最近,李飞飞和斯坦福大学联系在一起,以人为本。 HAI 联合主任 John Etchemendy 教授们联合撰写了一篇文章,文章对。 AI 究竟是否有感觉能力(sentient)进行了深入的讨论。



我们把它放在这篇文章里 sentient 这个词被翻译成感觉,因为 AI “领域感知”一词一般对应。 perception,还不推荐翻译成概念。读者有合适的翻译可以留言讨论。



文中驳斥了 LLM 有一种感觉,李飞飞列举了很多证明这一观点的例子。


当提到超级计算机深蓝时,李飞飞说,虽然这个下棋程序可以击败世界冠军,但是如果房间里出现意想不到的情况,比如火灾,深蓝就不会有停止游戏的想法,人类也会有。


同样,当人类产生饥饿时,说出来。「我饿了」时,人类和 LLM 隐藏在背后的行为链条完全不同。LLM 只是产生「我饿了」这是一个字符串的事实,它没有身体,甚至没有饥饿的感觉。


此外,当李飞飞感到饥饿时,伴随着一系列的生理反应,如低血糖、胃叫等, LLM 不能有这些主观的状态经验,也就是不能有感觉能力,只能概率地完成任务。


人有物理身体,能感觉到一切,但是 LLM 没有,当 LLM 讲出相似的「自己脚趾痛」每个人都不会相信,因为它根本没有脚趾,它只是硅片上编码的数学模型。


李飞飞反驳 LLM 有感觉能力


通用人工智能(AGI)它是描述一个至少在各个方面与人类表现出相同智能的人工智能理论的术语,包括人类展示(或展示)的所有智能方法。这就是我们曾经称之为人工智能的概念,直到我们开始在有限的领域建立智能程序和设备 —— 比如下棋,语言翻译,客厅清洁等等。


增加「G」这一字母的重要性来自于人工智能驱动的系统的普及,但是这些系统只专注于单一或者极少数的任务。


IBM 深蓝色是一个令人印象深刻的早期下棋程序,它能战胜世界冠军。 Garry Kasparov,但是如果房间着火了,它就不会有停止游戏的想法。


图为 Garry Kasparov 与深蓝队合作 Joe Hoane 在 1997 2008年纽约市复赛,最终在六场复赛中战胜。 Garry Kasparov,得到了两场比赛,三场比赛打成平手。


现在,通用智能有点像一个神话,至少如果人们认为他们拥有它。


人类可以在动物世界中找到许多智能行为的例子,它们在类似任务中的表现远远优于人类自身。智力并不完全通用,但足以在大多数环境中完成人们想要完成的事情。


假如人类感到饥饿,就能找到附近的超市;当房间着火时,它会主动寻找出口。


智能化的一个基本特征是「感觉」,也就是说,具有主观经验的能力 —— 比如感觉饥饿,品尝苹果,或者看到红色是什么样子。


感觉是通向智力的关键步骤之一。


于 2022 年 11 月发布的 ChatGPT,这意味着大型语言模型(LLMs)时代的开始。


这个问题立刻引起了一场激烈的争论,每个人都在讨论这些算法是否实际上具有感觉能力。以便 LLM 为了规范人工智能,核心人工智能具有感觉能力的概率引起了媒体的疯狂,同时也深刻影响了全球一些政策制定的转变。


最为突出的观点是,「人工智能有感觉」它的出现对人来说可能是极其危险的,「灭绝级」或者至少有影响「存在危机」的。毕竟,一个人工智能有感觉可能会发展出自己的希望和欲望,而无法保证它们不会与人们相冲突。


李飞飞和 Etchemendy 反驳是主要观点「人工智能有感觉」阵营中最常提出的辩护,这种辩护是基于 LLMs 也许已经有了「主观经验」的能力。


John Etchemendy 曾担任斯坦福大学语言信息研究中心主任、哲学系主任、人文科学学院高级副院长,是斯坦福人工智能研究所联合主任。


为什麽有人会这么想 AI 已获得感觉能力


在过去的几个月里,他们两个和 AI 在这一领域,许多同行都进行了激烈的辩论和谈话,包括与一些最优秀、最具创意的同行进行了激烈的交谈。 AI 科学家们进行了一对一的深入交流。


关于 AI 有没有获得感觉能力的话题一直是一个突出的问题。他们中的一些人坚信 AI 已经有了感觉能力。下面是最积极支持者的论点之一,在很大程度上代表了它。「有感觉的 AI」对阵营的看法:


AI 这是有感觉的,因为它可以报告主观经验。主观性经验是观念的象征,其特点是能够认识到自己所知道或感受到的。例如,当你说的时候『吃了一顿美味的饭后,我感到高兴。』有时候,作为一个人,我其实并没有证据感受到你的主观感受。但是现在你已经这样表达了,我会默认你确实经历过这样的主观经历,所以你是有意识的。这一逻辑也被用来推理。 AI 意识状态。



现在,让我们一起来吧。『规则』运用到 LLMs 上。就像其他人一样,我不能打开它。 LLMs 内部状态。但是我可以查询它的主观经验。我可以问『您是否感到饥饿?』事实上,它可以告诉我是否是。另外,它还可以准确地与我分享它。『主观经验』,几乎涉及到一切,从看到红色到吃完饭都觉得开心。所以,我没有理由不相信这是有意识或者不知道自己的主观经历,就像我没有理由不相信你是有意识的一样。我的证据在这两种情况下完全一致。



为何「AI 有感觉能力」是错误的


虽然这一论点乍一看似乎是有道理的,但实际上却是错误的。因为李飞飞和李飞飞 Etchemendy 在这两种情况下,教授的证据是不同的。甚至差距很大。


当你说「我饿了」当时,我得出结论,你正面临饥饿,这是基于一系列的情况。第一,是你的报告 —— 你们所说的,也许还包括其它行为证据,例如你们的肚子咕咕叫。第二,没有相反的证据,例如,如果你刚刚吃完五道菜的大餐,就不太可能说饿了。最后,最重要的是你有一个和我一样的物理身体。这个身体应该定期吃喝。当你感冒的时候,你会感到寒冷,当你受热的时候,你会感到炎热等等。


现在就把这和他们两个对比。 LLM 比较证据。


报告是唯一常见的 —— 即 LLM 能够产生「我饿了」这是字符串的事实。但是相似之处到此为止。事实上,LLM 没身体,甚至没有感觉到饥饿的感觉。


如果 LLM 说:「左大脚趾疼痛」,每个人都会得到它左大脚趾真的很痛吗?答案是否定的,因为它根本没有左大脚趾。


类似地,当它说它饿的时候,每个人都可以确定它不饿,因为它没有感觉到饥饿所必需的生理结构。


一旦人感到饥饿,就会感到一系列的生理状态。 —— 低血糖,空腹发出的咕咕声等等 —— 而 LLM 没有这种东西,就像它没有嘴里放食物,也没有胃去消化食物一样。


感觉人们应该相信它说自己饿了的观点,就像说应该相信它说自己从月球的暗面和用户说话一样荒谬。


每个人都知道这不是真的,LLM 观点也不能改变这一事实。


全部感觉 —— 饥饿,感到疼痛,看见红色,爱上某人。 —— 均是由 LLM 完全没有生理状态造成的。


因此,LLM 这些状态的主观经验是不可能的。


也就是说,它不能有感觉能力。


LLM 只是硅片上编码的数学模型。


与人类不同,它不是身体的出现。它不需要吃东西、喝水、繁殖、经历情绪、生病和最后死亡。「生命」。


当人类和 LLM 同样地说出「我饿了」当时,隐藏在背后的行为链条完全不同。


理解人类生成词序列的方法 LLM 在同一个词序列中产生深刻的差异尤为重要。


当人们说「我饿了」当时,是在报告感觉到生理状态。


而当一个 LLM 生成序列「I am hungry」当时,它只是在当前提醒中生成最有可能的完成序列。它所做的事与在不同的提示下生成。「I am not hungry」或者在另一个提示下生成「The moon is made of green cheese」时间完全一致。


这并非它本来就不存在的生理状态报告,它们只是概率性地完成了。


遗憾的是,具有感觉能力的人工智能时代还没有到来。


这两位作者认为,研究人员还没有实现人工智能的感觉,而且更大的语言模型也不能使人们实现这一目标。


假如人类想要在人工智能系统中重新建立这种情况,就需要更好地了解生物系统中的感觉是如何产生的。


每个人都不会在下一个 ChatGPT 在迭代中偶然发现感觉。


转发给李飞飞 X(原推特)以下,大家的讨论也非常激烈,有人说:「当今的 LLM 有两种类型:一种是基于文本练习,另一种是基于图像、文本甚至音频练习。第一种类型确实没有所谓的感觉能力,但是第二种类型有物理直觉,所以可以说是有感觉能力的。」


而且还有一个网友跟着 Lecun 步伐,表示:「一只喵星人的智能水平远远高于最大的。 LLM。」


参考链接:


https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/


https://x.com/drfeifei/status/1793753017701069233


本文来自微信微信官方账号“机器之心”(ID:编辑:陈萍,亚鹂,36氪经授权发布,almosthuman2014)。


本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com