Bendi新闻
>
李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行!

李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行!

5月前

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba/扩散/多模态】交流群

添加微信:CVer5555,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球可以获得最新顶会/顶刊上的论文ideaCV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

转载自:机器之心 | 编辑:陈萍、亚鹂

归根结底,大模型的方向还是走错了?

「空间智能是人工智能拼图中的关键一环。」知名「AI 教母」李飞飞曾这样表示。


近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,「大自然创造了一个以空间智能为动力的观察和行动的良性循环。」她所在的斯坦福大学实验室正在尝试教计算机「如何在三维世界中行动」,例如,使用大型语言模型让一个机械臂根据口头指令执行开门、做三明治等任务。


我们不难看出,李飞飞口中的空间智能也有大模型的参与。


如今,随着技术的发展,LLM 在多个方面表现出超人类智能。然而关于 LLM 的争议也在不断增加,其中,LLM 到底有没有感觉能力,大家意见不一而论。


近日,李飞飞连同斯坦福大学以人为本人工智能研究所 HAI 联合主任 John Etchemendy 教授联合撰写了一篇文章,文章对 AI 到底有没有感觉能力(sentient)进行了深入探讨。


本文中,我们把 sentient 一词翻译成感觉,因为 AI 领域感知一词通常对应 perception,也不适合翻译成意识。读者们有合适的翻译可以留言讨论。


文中驳斥了 LLM 有感觉的说法,李飞飞列举了大量示例来证明这一观点。


在提到超级计算机深蓝时,李飞飞表示,虽然这款下棋程序可以击败世界冠军,但如果房间突发意外情况如着火,深蓝不会有停止游戏的意识,而人类会有。


同样的,当人类产生饥饿说出「我饿了」时,人类和 LLM 背后所隐藏的行为链条是完全不同的。LLM 只是产生「我饿了」这个字符串的事实,它没有身体,甚至不可能有饥饿那种感觉。


更进一步的,李飞飞认为人类饥饿时,伴随一系列生理反应,如低血糖、肚子叫等,而 LLM 无法拥有这些状态的主观经验,即无法有感觉能力,只是在概率性地完成任务而已。


人类有物理躯体,可以感觉一切,但 LLM 没有,当 LLM 说出类似的「自己脚趾痛」时,大家都不会相信,因为它根本就没有脚趾,它只是一个编码在硅片上的数学模型。



李飞飞驳斥 LLM 具有感觉能力


通用人工智能(AGI)是用来描述一种至少与人类在各种方面表现出相同智能的人工智能体的术语,涵盖人类所展示(或能够展示)的所有智能方式。这是我们曾经称之为人工智能的概念,直到我们开始创建在有限领域表现出智能的程序和设备 —— 如下棋、语言翻译、清洁客厅等。 


增加「G」这个字母的必要性来自于由人工智能驱动的系统的普及,但这些系统只专注于单一或极少数任务。


IBM 的深蓝是一款令人印象深刻的早期下棋程序,它可以击败世界冠军 Garry Kasparov,但如果房间着火了,它却不会有停止游戏的意识。


图为 Garry Kasparov 和深蓝团队的 Joe Hoane 在 1997 年纽约市的复赛场景,最终在六局复赛中击败了 Garry Kasparov,赢得了其中的两局并有三局打成平手。


现在,通用智能有点像一个神话,至少如果人们认为自己拥有它的话。


人类可以在动物界找到许多智能行为的例子,它们在类似任务上的表现远比人类本身表现更好。智能并非完全通用,但足以在大多数环境中完成人们想要完成的事情。


如果当人类感到饥饿时,可以找到附近的超市;当房间着火时,则会自主地寻找出口。


智能的基本特征之一是「感觉」,即拥有主观经验的能力 —— 比如感受饥饿、品尝苹果或看到红色是什么样的。


感觉是通往智能的关键步骤之一。


于 2022 年 11 月发布的 ChatGPT,标志着大型语言模型(LLMs)时代的开始。


这立即引发了一场激烈的争论,所有人都在讨论这些算法是否实际上具有感觉能力。以 LLM 为基础的人工智能具有感觉能力的可能性引发了媒体狂热,也深刻影响了全球一些政策制定的转向,以规范人工智能。


最突出的观点是,「有感觉的人工智能」的出现可能对人类非常危险,可能带来「灭绝级」的影响或至少是「存在危机」的。毕竟,一个有感觉的人工智能可能会发展出自己的希望和欲望,而不能保证它们不会与人们相冲突。


李飞飞和 Etchemendy 的主要观点是反驳「有感觉的人工智能」阵营最常提出的辩护,而该辩护基于 LLMs 可能已经有了「主观经验」的能力。


John Etchemendy 曾担任斯坦福大学语言与信息研究中心的主任、哲学系主任,以及人文与科学学院的高级副院长,并且是斯坦福人工智能研究所的联合主任。


为什么有些人认为 AI 已经获得了感觉能力


在过去的几个月里,他们俩与 AI 领域的许多同行进行了激烈的辩论和交谈,包括与一些最杰出的和具有开创性的 AI 科学家进行了一对一的深入交流。


关于 AI 是否已经获得了感觉能力的话题一直是一个突出的问题。其中少数人坚信 AI 已经具有了感觉能力。以下是其中一位最为积极支持者的论点要点,相当程度上代表了「有感觉的 AI」阵营的观点:


AI 是有感觉的,因为它能报告主观经验。主观经验是意识的标志,其特征在于能够认知自我所知或所感。例如,当你说『我在吃过一顿美味的饭后感到高兴』时,我作为一个人实际上没有直接证据感觉你的主观体验。但既然你这样表达了,我会默认相信你确实经历了这种主观体验,因此你是有意识的。这种逻辑也被用来推论 AI 的意识状态。 

现在,让我们将同样的『规则』应用到 LLMs 上。就像任何人一样,我无法访问 LLMs 的内部状态。但我可以查询它的主观经验。我可以问『你感到饥饿吗?』它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的『主观经验』,几乎涉及任何事情,从看到红色到吃完饭后感到幸福。因此,我没有理由不相信它是有意识的或不知道自己的主观经验,就像我没有理由不相信你是有意识的一样。在这两种情况下,我的证据完全相同。

为什么「AI 有感觉能力」是错误的


虽然乍看之下这个论点似乎有道理,但实际上是错误的。因为李飞飞和 Etchemendy 教授的证据在这两种情况下并不完全相同。甚至差距很大。


当你说「我饿了」时,我得出你正在经历饥饿的结论是基于一系列大量的情况。首先,是你的报告 —— 你说的话,可能还包括其他行为证据,比如你的肚子咕咕叫。其次,是没有相反证据的存在,比如如果你刚吃完五道菜的大餐就不太可能会说饿。最后,也是最重要的,是你拥有一个像我一样的物理身体,这个身体需要定期进食和饮水,遇冷会感到寒冷,遇热会感到炎热,等等。 


现在将这与他们二人对 LLM 的证据进行比较。


唯一共同的是报告 —— 即 LLM 可以产生「我饿了」这个字符串的事实。但相似之处就到此为止了。事实上,LLM 没有身体,甚至不会有感到饥饿那种感觉。


如果 LLM 说:「我的左大脚趾很疼」,人们会得出它左大脚趾确实很疼的结论吗?答案是否定的,因为它根本就没有左大脚趾。


同样地,当它说它饿了时,人们实际上可以确定它并不饿,因为它没有感到饥饿所必须的生理结构。


当人类感到饥饿时,会感觉到一系列生理状态 —— 低血糖、空腹发出的咕咕声等 —— 而 LLM 根本没有这些,就像它没有嘴巴放食物进去,也没有胃去消化食物一样。


认为人们应该相信它说自己饿了的观点,就像是在说应该相信它说自己正在从月球的暗面跟使用者说话一样荒谬。


人们知道这不是真的,LLM 的主张也无法改变这个事实。


所有感觉 —— 饥饿、感到疼痛、看到红色、爱上某人 —— 都是由 LLM 根本没有的生理状态引起的。


因此,LLM 无法拥有这些状态的主观经验。


换句话说,它无法有感觉能力。


LLM 只是一个编码在硅片上的数学模型。


它不像人类那样是一个具有身体的存在。它没有需要进食、饮水、繁殖、经历情感、生病和最终死亡的「生命」。


当人类和 LLM 同样地说出「我饿了」时,背后所隐藏的行为链条是完全不同的。


理解人类生成词序列的方式与 LLM 生成相同词序列的方式之间的深刻差异至关重要。


当人们说「我饿了」时,是在报告感觉生理状态。


而当一个 LLM 生成序列「I am hungry」时,它只是生成当前提示中最可能的完成序列。它做的事情与在不同提示下生成「I am not hungry」或在另一个提示下生成「The moon is made of green cheese」时完全相同。


这些都不是它本就不存在的生理状态的报告,它们只是在概率性地完成而已。


很遗憾的是,具有感觉能力的人工智能时代还尚未到来。


两位作者认为研究者还没有实现有感觉的人工智能,而更大型的语言模型也不会使人们实现这一目标。


如果人类想在人工智能系统中重新创建这种现象,就需要更好地理解有感觉的生物系统中感觉是如何产生的。


人们不会在下一个 ChatGPT 的迭代中偶然发现感觉


在李飞飞转发的 X(原推特)下面,大家讨论的也是非常激烈,有人表示:「当今的 LLM 有两种类型:一种是完全基于文本进行训练,另一种则是基于图像、文本甚至音频进行训练。第一种类型确实不具备所谓的感觉能力,但第二种类型具有物理直觉,因此可以说它具有感觉能力。」



而另一位网友则追随 Lecun 的脚步,表示:「一只喵星人的智能程度都远高于最大型的 LLM。」


参考链接:

https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

https://x.com/drfeifei/status/1793753017701069233

何恺明在MIT授课的课件PPT下载

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集


Mamba、多模态和扩散模型交流群成立

扫描下方二维码,或者添加微信:CVer5555,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。


一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer5555,进交流群


CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集近万人!


扫码加入星球学习


▲点击上方卡片,关注CVer公众号

整理不易,请点赞和在看

微信扫码关注该文公众号作者

来源:CVer

相关新闻

李飞飞亲自撰文:大模型不存在主观感觉能力,多少亿参数都不行李飞飞:大模型不存在主观感觉能力,多少亿参数都不行|首席资讯日报李飞飞:大模型不具备知觉,参数再多也不行零一万物发布千亿参数模型 Yi-Large,李开复:中国大模型赶上美国,立志比肩 GPT-5卷疯了!最强开源大模型Llama 3发布,最大参数4000亿,小扎内心:大模型比元宇宙香多了周鸿祎向李彦宏“开炮”:有些名人胡说八道别被忽悠了;全球最强开源大模型Llama 3发布:最大模型参数将超4000亿丨AI周报国内首个开源千亿参数MoE大模型来了!性能超Grok-1,单张GPU可跑最新研究:大模型已涌现出欺骗能力!钻漏洞、偷偷篡改奖励函数,GPT-4欺骗人类高达99.16%百度文心一言用户破 2 亿,李彦宏:文心大模型已成中国最领先的 AI 基础模型[围观]吃越南粉偶遇身价千亿大佬,网友:感觉错过了一个亿!吃越南粉偶遇身价千亿大佬,网友:感觉错过了一个亿!最强开源大模型Llama 3来了!4000亿参数狙击GPT-4,训练数据达Llama 2七倍对李飞飞老师空间智能的思考!空间大模型SpatialBot来了!李飞飞:更大的语言模型也不会带来感知能力章文嵩、蒋晓伟、李飞飞、张凯巅峰对谈:大模型时代的数据智能新趋势对话李开复:这次大模型创业,我十年都不会变现微软秘密开发首个千亿大模型,竟由OpenAI对手操刀!网友:你不要奥特曼了?大模型又开“卷”!万亿参数闭源模型、四千亿开源模型来了李飞飞团队年度报告揭底大模型训练成本:Gemini Ultra是GPT-4的2.5倍大规模视觉模型新突破!70亿参数!Apple新作AIM:自回归图像模型国产AI PC处理器来了!6nm制程,45TOPS算力,能跑百亿参数大模型北京算力基建实施方案重磅发布!重点支持采购自主可控GPU,要支撑万亿参数大模型训练争算力,争数据,争用户!零一万物、月之暗面再掀国产大模型资本战:年内亿元级融资已有20起李彦宏最新判断:大模型应用,将率先在这个赛道爆发!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。