李飞飞:更大的语言模型也不会带来感知能力
通用人工智能(AGI)是一个术语,用于描述在人类展现(或可以展现)智能的所有方面都至少与人类一样聪明的人工智能体。这就是我们过去所说的人工智能,一直到我们开始创建毋庸置疑的“智能”程序和设备,但只限于有限的领域——下棋、翻译语言、打扫客厅。
之所以觉得需要添加“G”是因为 AI 驱动系统的激增,不过主要还是集中在单个或数量非常少的任务上。IBM 早先的国际象棋程序“深蓝”(Deep Blue)击败了世界冠军 Garry Kasparov,可谓令人印象深刻,但即使房间着火了,它也不会停止下棋。
现在,通用智能的概念或许是错误的,我们只是自诩拥有它。在动物世界中,我们可以找到很多智能行为的例子,它们取得的结果远远好于我们在类似任务中取得的结果。我们的智能并不完全通用,但足以在我们所处的大多数环境中完成我们想要完成的事情。如果我们饿了,我们可以去猎一头乳齿象,或者去当地的克罗格超市;房间着火时,我们会寻找出口。
通用智能的基本特征之一是“感知能力”,即拥有主观体验的能力,比如感受饥饿、品尝苹果或看到红色。感知能力是通向通用智能的关键一步。
2022 年 11 月,随着 ChatGPT 的发布,大语言模型(LLM)的时代到来了。这立即引发了一场关于这些算法是否真正具备感知能力的激烈辩论。基于 LLM 的人工智能可能具备的感知能力不仅引发了媒体的狂热,而且在全球范围内深刻地影响了一些人工智能监管政策方面的工作。
最主流的看法是,“有感知的人工智能”其出现对人类来说可能是极其危险的,可能会带来“灭绝性”或“存续性”危机。毕竟,有感知的人工智能可能会发展出自己的希望和欲望,但我们无法保证这些希望和欲望不会与人类的相冲突。
这篇短文始于 WhatsApp 群聊,旨在驳斥 LLM 可能已经具备感知能力的观点。这篇文章不会进行全面的分析。我们的主要观点是反驳“有感知能力的人工智能”阵营最常提供的辩解之词。该阵营的主要依据是 LLM 报告“主观体验”的能力。
在过去的几个月里,我们两人都与人工智能领域的许多同事进行了激烈的辩论和交流,包括与一些最杰出、最具开拓性的人工智能科学家进行深入的一对一对话。人工智能是否具有感知能力一直是一个热门的话题。他们中有一小部分人坚决地认为 AI 已经具备这种能力。
以下是其中一名直言不讳的支持者的论点主旨,这在“有感知能力的人工智能”阵营中非常有代表性:
现在,让我们把同样的“规则”应用到 LLM 上。和任何人类一样,我无法了解 LLM 的内在状态。但我可以询问它的主观体验。我可以问它,“你饿了吗?”它可以确切地告诉我是或不是。此外,它还可以明确地与我分享它的“主观体验”,从看到红色,饭后高兴,到强烈的政治观点。因此,我没有理由相信它没有意识或没有意识到自己的主观体验,就像我没有理由相信你没有意识一样。我的证据在这两种情况下是完全一样的。
乍一看,这种观点似乎是合理的,但实际上是错误的。之所以说它是错误的,因为这个证据在这两种情况下并不完全相同,甚至相差很远。
当你说“我饿了”时,我得出的结论是你正在经历饥饿,我的结论是基于大量的实际情况。首先是你的报告——你说的话——也许还有其他的一些行为证据,比如你肚子里的咕咕声。第二,没有与之相悖的证据,例如你刚刚吃完了一顿五道菜的大餐。最后,也是最重要的一点,就是你有一个和我一样的身体,需要周期性地吃喝,天冷会冷、天热会热,等等。
现在,把上述内容和我们关于 LLM 的证据比较一下。唯一一样的地方是报告,LLM 可以产生一串音节,说“我饿了”。但相似之处也就仅此而已。事实上,LLM 没有身体,所以它甚至不是那种会饿的东西。
如果 LLM 说,“我左脚的大脚趾剧痛”,我们是否会得出结论,它的左脚大脚趾剧痛?当然不是,它没有左脚大脚趾!同样,当它说它饿了时,我们可以肯定它不饿,因为它没有饥饿所需的那种生理机能。
当人类感到饥饿时,我们会感觉到一系列的生理状态——低血糖、空腹咕咕叫等——LLM 根本没有这些生理状态,就像它没有放食物的嘴和消化食物的胃一样。如果当它说它饿了时我们应该相信它的话,那么当它说它是从月球的背面和我们说话时,我们也应该相信它的话。我们知道,事实不是那样,LLM 做出的相反主张也并不能改变这一事实。
所有的感觉——饥饿、感觉疼痛、看到红色、坠入爱河——都是 LLM 所没有的生理状态所导致的结果。因此我们知道,LLM 不可能有这些状态的主观体验。换句话说,它不可能有感知能力。
LLM 是数学模型,是硅片上的程序代码。它不是像人类一样的实体。它没有需要吃、喝、繁殖、体验情感、会生病并最终死亡的“生命”。
重要的是,要理解人类生成单词序列的过程与 LLM 生成相同序列的过程之间所存在的深刻差异。
当我说“我饿了”的时候,我是在报告我感觉到的生理状态。当 LLM 生成序列“我饿了”的时候,它只是生成最适合当前提示的单词序列。它所做的事情和给它不同的提示它报告说“我不饿”是一样的,或者在另一个提示下,它说“月亮是绿色奶酪做的”,这时它所做的事情也完全一样。在所有这些情况下,它都不是在报告自己(不存在)的生理状态。所有这些都只是概率补全。
我们还没有实现有感知能力的人工智能,更大的语言模型也无法帮助我们实现这一目标。如果我们想在人工智能系统中重现感知能力,我们就需要更好地理解感知在具体的生物系统中是如何出现的。感知不是我们可以在 ChatGPT 的下一个迭代中偶然发现的。
声明:本文最初发布于 TIME,由 InfoQ 翻译,未经许可禁止转载。
原文链接:
https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient
大模型技术正在引领行业发展创新浪潮。那么,如何让大模型技术与行业深度融合?如何通过大模型技术为各行各业提供更加智能化的解决方案?在金融、法律、医疗、教育、政府等各行业的实践场景中,又有哪些大模型落地经验?「AI 前线」特别为您精选了刚刚结束的 AICon 全球人工智能开发与应用大会上的精彩演讲,并经过嘉宾授权将演讲的精彩 PPT 提供给大家。关注「AI 前线」,回复关键词「行业创新」即可免费获取。
本届 ArchSummit 会议上,重点聚焦 AI 大模型技术在各行业的落地实践, 顺丰集团、众安银行、天弘基金、鸿海科技集团、宁德核电、广发证券、微众银行介绍大模型技术的应用效果 。会议上还设置了大模型应用、架构升级、智算平台、AI 编程、成本优化等专题和话题内容。如您感兴趣,可点击「阅读原文」查看更多详情。目前会议进入 9 折购票阶段,可以联系票务经理 17310043226 , 锁定最新优惠。
禁令再升级!拜登政府已不想让中国人在美从事AI工作了,套壳大模型的公司也危险了
你也「在看」吗?👇
微信扫码关注该文公众号作者