李飞飞对话英伟达首席科学家:人类不仅是AI的创造者,也是如何使用的决策者
在最近的英伟达GTC炉边谈话中,华裔人工智能学者李飞飞讲述了她对于人类在AI时代的角色定义的思考。
导读:
在AI时代,我们不要被那些时髦的术语吓到。只要把AI当成一个工具,人类不仅是工具的创造者,我们也是如何使用工具的决策者。去拥抱它,去做那个决策者,做那个让它被正确使用,变得更好的人。
腾讯科技 | 来源
最近,人工智能学者李飞飞做客英伟达GTC炉边谈话,与英伟达首席科学家Bill Dally围绕AI的发展、人类在AI时代的角色定义、李飞飞的新书等话题展开了令人触动的对话。
在这次对谈中,李飞飞讲了个故事。当她完成自己书《我看见的世界》初版时,她的好朋友,哲学家、斯坦福以人为本AI研究院联合主任约翰·埃奇门迪看了初稿后建议她去重写。他说很多人都在写关于AI的书,但李飞飞有一段独特的历程。能代表了很多觉得自己在AI领域没有发言权或找不到认同感的人。这些人包括移民、年轻女性、各行各业的人,他们不一定是典型的硅谷AI人士。如果李飞飞能给他们一个声音,这将更有力量。
李飞飞,她的一面是斯坦福大学教授,美国工程学院院士,AI视觉领域的顶尖专家,被业内称为AI教母。她的另一面是出生在北京,长于四川,直到12岁才随双亲前往美国,还因生活拮据不得不去餐馆打工。这就是艾奇门迪提到的李飞飞的“独特的经历”。
在整场对谈,李飞飞都用一种很不同的思考AI的视角,来给这个AI时代失语的普通人一个声音。那是一种更有人文情怀的,更具社会责任的视角。
在访谈中,李飞飞关于AI的技术发展路径和未来应用这些具体的行业问题的直接回答,只占了全部讨论的不到1/4。这并非英伟达的首席科学家Bill Dally没问这些问题。他问道,Sora的发展会如何影响影视行业,李飞飞的回答是,宫崎骏动画的无可替代,以此证明“只有人能利用AI创作那些能触动他人、启发他人或服务他人的内容,而AI做不到”。他问到AI科学未来的影响,李飞飞的回答是人工智能在医疗领域的应用可能是最深远的,理由是那些在这个领域工作的女性和有色人种可以借由AI摆脱艰苦的,被忽视的照护工作;老年人可以通过技术获得更有尊严的暮年。这些回答看似中规中矩,但如果看过其新作《我看见的世界》,李飞飞的回答并不令人意外——她照护母亲多年的经历,与医学方面的合作者在医院的深入调研等,都影响着她对于AI如何发挥作用的思考。
哪怕是在那些关于技术路径的问题中,她的回答也朝向着人的细腻和独特。像辛顿,杨立昆一样,李飞飞不相信单纯依靠缩放定律就能高效的解决一切问题,她认为我们需要一个结构化的模型去引导AI。但与其他人都不同,她最终理想的模型是感知的,超越语言互动的模型,只有能掌握人类在5.4亿年的时间里形成的那些细微的,比文字更人性的感知,AI才算有了基础模型。
在其他的时间里,她都在聊公共部门在AI发展中面对的困境,聊AI的监管模式。这些看似离人们非常远的话题。但她还是站在每个人的角度思考着。公共部门意味着公共利益,意味着与每个人相关。只有公共部门得到足够的支持,才能推动科学发现创新、为公众提供客观解释、培养负责任的人才,让AI的繁荣落在每一个人头上。
在她那里,所有AI的发展都是关于人,具体的人的。
在整场对谈的最后一分钟半,Bill Dally的问题已经问完。他请李飞飞讲讲她想传递给所有人的话。
李飞飞先讲了自己的故事,一个住在美国乡镇里爱跳舞的女孩的故事——她不是计算机科学家,不是理科毕业的,甚至家里连电脑都没有,但她还是和AI产生了如此多的联系,在AI的发展中扮演了一个角色。
所以我们不要被那些时髦的术语吓到,不要迷茫于AI时代自己的角色。只要把AI当成一个工具,人类不仅是工具的创造者,我们也是如何使用工具的决策者。去拥抱它,去做那个决策者,做那个让它被正确使用,变得更好的人。我们在AI时代的未来一定会像马丁路德想的那样,让人类文明的弧线朝着正义、希望、仁爱的方向发展。
这就是我们每个人,每个普通人,而非硅谷精英应该在这个AI时代里的角色。
这也是这位“AI教母”对每个人的恳求:在AI发展中有一个角色。
以下为GTC炉边访谈的全文:
但我相信AI会带来好的未来
李飞飞:这是一个非常宏大的问题。首先,非常荣幸受邀来到GTC。AI目前对人类的影响是什么?我认为AI可能是21世纪最深刻的技术,它正在改变我们的生活、工作和未来。AI是一种智能技术。老实说,在这之前,人类的技术发明大多停留在不涉及智能的层面,无论是发明工具让我们走得更快、飞得更高,还是发明工具让我们能看到人眼看不到的东西,这些都还是机械性的。但AI的发明,如理解语言、翻译语言、做决策、发现模式等,这些都是人类的基本能力,而现在都受到了这项深刻技术的挑战。所以在我看来,AI的影响是对人类的本质、能力和定义的深刻影响。
公共部门没有GPU,
基础创新就不会再发生
Bill Dally:你一直呼吁为学术界提供资源,以推进AI研究。但迄今为止,真正掌握训练模型所需GPU和数据的,还是那些资金雄厚的大公司。你认为未来这种情况会如何发展?国家AI研究资源(NAIRR)能否实现并民主化AI,让学术界和小公司也能接触到?还是人才将继续从学术界流向大公司?
李飞飞:首先,我认为我们俩现在都在白宫的各种顾问职位。你是总统科技顾问委员会(PCAST)的成员,我是拜登总统NAIRR特别工作组的成员。对于那些不知道NAIRR是什么的人,NAIRR是国家人工智能研究资源试点项目。
几年前,斯坦福HAI倡导联邦政府考虑增加对公共部门AI的资源投入,尤其是计算资源和数据资源。这转化为一项目前仍在国会讨论的法案,名为“创建AI法案”(CREATE AI BILL)。如果这项法案获得通过和拨款,它将创建联邦基金,用以建立一个国家AI云以及供公共部门使用的数据存储库。
斯坦福HAI一直在引领这场运动。我之所以在华盛顿特区花这么多时间,是因为我相信公共部门AI和私营部门AI同样重要。但就像Bill说的,现在的平衡是如此失衡。这个国家现在没有一所大学能训练出一个GPT聊天模型。我们没有成千上万的GPU,更不用说A100、H100或B200了。
有些人可能会问,这有什么问题?反正我们有伟大的公司,伟大的大型科技公司在创造伟大的技术。我认为这是事实。私营部门在蓬勃发展。但我想让大家认识到,公共部门创造公共利益。什么是公共利益?公共利益有几个维度,对我们当下和未来都很重要。
首先,公共利益包括好奇心驱动和知识驱动的发现与创新。这太重要了。你们现在所知道的关于AI的一切,最初都始于学术界那些无人知晓的好奇心驱动的研究课题。从感知机到反向传播算法再到ImageNet,这些都来自公共部门。这种天马行空式的、好奇心驱动的研究至关重要。它是一种公共利益,对我们社会的持续创新很重要。
公共利益的第二部分是作为公众值得信赖的合作伙伴去解释、教育和评估技术。私营部门有自己的目标。那谁来作为值得信赖的合作伙伴,让我们了解这项技术有多安全?透明度指数是多少?数据是否有偏差?我们如何以公平、值得信赖的方式使用这个推论?这些都是公共部门正在做而且可以帮助公众的重要话题。
最后但同样重要的是,公共利益的一种形式是最重要的,那就是人才。这是为了明天的人才。我们肩负很大的责任,去教育出不仅能发展未来科技的劳动力,而且是能对世界负责任的劳动力。这些劳动力不仅要学习如何编写AI代码,还要学习AI的道德框架,AI的社会影响。所以这些都是公共利益,支持公共部门AI很重要。
Bill Dally:在人才这个话题下继续,如果我们要发展公共部门AI,就意味着我们需要把AI专家吸引到公共部门。鉴于目前AI人才市场的情况,那里正在上演激烈的竞价战,开出的薪酬是联邦政府工资等级所能支付的好几倍。所以你设想如何吸引真正优秀的AI人才进入公共部门?
李飞飞:这是一个很好的问题,Bill。我记得十年前你还是系主任,想把人才吸引到学术界。
首先,在这个国家,进入私营部门的学生总是会更多,所以我们不是要实现50/50的平衡。但对于那些一心想留在公共部门或去学术界的人来说,我真的希望给他们提供资源非常重要。他们不是在寻求英伟达级别的薪酬,他们想要获得的是计算资源。就我个人而言,我和我的学生们希望有这样的计算资源,这样我们就可以与斯坦福医院合作,从事可能需要几百个GPU的项目。他们想要一个不会不断流失人才的社区。他们的同学、同事以及公共部门与私营部门的合作伙伴关系,在为他们提供资源方面可以发挥很大作用。
但我也想呼吁公共部门本身的创新。我们的公共部门,我们的机构,这个国家已经有几百年的历史了,那里的结构需要创新。这是为了应对当今快速变化的行业格局和人才格局。所以我们自己应该做一些工作,但我希望双方都能努力,让情况变得更好。
Bill Dally:在公私合作的标题下,你对NAIRR试点项目有何看法?正如你所知,我们非常勤奋的国会公共代表正在推动法案,以授权和拨款NAIRR。与此同时,一个试点项目已经启动,主要是捐赠资源,英伟达提供了3000万美元,微软提供了相当数量的GPU。这会产生影响吗?你认为这将如何运作?
李飞飞:很好的问题。对于那些不知道的人,NAIRR试点项目,就像Bill说的,是总统去年11月AI行政命令拨款的一小部分计算资源。所以这是行政命令的一部分。我积极地看到私营公司走到一起,试图支持这项工作。作为一名学者,我太忙于支持NAIRR,错过了申请这些算力的截止日期。所以这一轮我不会受益,但我确实看到全国各地申请这个项目的同事有可能受益。
但我也直言不讳地说,这个项目太小了,我不知道这算不算是杯水车薪。我不是想否定它,这是一个很好的第一步,但我希望没有人对此感到满足。我希望白宫、国会、行业领袖们都不要满足于此,因为它实在是太小了。考虑到当前大模型的规模、数的规模以及公共部门可以用这些计算资源做的事情的潜力,这真的只是沧海一粟。我们还有很多工作要做。
AI就像电力,
Bill Dally:你一直在把公共部门和私立大学混为一谈。如果把它们分开,问一下你认为政府实际上会如何使用AI?它会更好地为人民服务吗?它会简化各种政府服务的途径吗?真正的公共部门应用有哪些?
李飞飞:顺便说一下,即使是私立大学也是非营利组织,所以我说的公共部门更多的是非营利组织。但你提出了一个很好的问题,关于政府使用AI这件事,因为就AI而言,政府既是服务提供者,也是监管者。我认为政府扮演着这两个角色。在斯坦福HAI,我们有顶尖的学者与美国政府合作,无论是国税局、环保局还是其他机构,我们都在利用AI实现政府服务的现代化。
老实说,我们在座的人都会受此影响。我们可能觉得许多政府部门的服务缺乏现代化,所以我认为AI真的可以像帮助企业一样,无论是呼叫中心还是个性化帮助,AI都可以大有作为。此外,在金融部门或者公共部门的金融领域,AI可以进行欺诈检测,可以帮助确定案件的优先级。上周我在华盛顿特区与退伍军人事务部部长交谈,讨论我们如何利用AI更好地服务退伍军人。所以政府确实有很多应用,只是为了实现服务的现代化,让服务更有效率、更有成效。
Bill Dally:你提到的政府在AI方面的另一个角色是监管。欧盟最近通过了一项AI监管法案。在美国,当然也有一些参议员和国会议员在谈论做类似的事情,在许多情况下,他们觉得自己在社交媒体上错过了机会。他们不想在AI上落后。你认为AI监管将走向何方?它会带来好处还是坏处?
李飞飞:这是一个非常深刻的问题。当然,就安全至上的监管而言,欧盟往往在时间上领先于美国。而美国作为一个社会引以为豪的是我们的创新环境。我绝对是个中间派,这让我很无聊。
Bill Dally:但你绝不无聊。
李飞飞:谢谢。我绝对相信监管有它的作用。就像如果你有一个房子,如果你家里有孩子,就会有一些准则,对吧?所以对每一项创新,你都要设计对应的安全带。想想安全带拯救了多少生命,临床监管努力使我们的药品更安全,尽管还不完美。AI是一项如此深远的技术。我们不能不监管它。但如何进行有效监管非常关键。
你也在PCAST任职,从政府的角度来看,我们有两种方向的力量:一种是让社会创新,利用这项技术,提升每个人和社会的繁荣。另一种是确保它安全、可信、公平、透明。我认为这就是监管和激励之间的张力。我们必须深思熟虑地去做。
举个例子,我个人确实相信垂直领域,尤其是医疗、金融、交通等这些我们已经有监管框架的垂直领域,是时候更新它了。因为确实有许多迫切的用例,现在确实是时候让他们审视AI的影响了。例如,医疗器械。我们有很多医疗器械,它们受到很宽松的FDA检查或许可。我们应该真正关注这些垂直领域,看看我们如何在产品和服务中保证AI的安全,让其在这些领域发挥作用。
更深层次的监管措施,比如它如何影响我们的民主,社交媒体。我不得不承认,这是公民社会、学术界、政府等许多部门正在进行的一场复杂的斗争。我认为在过去二十年,或者至少十五年里,我们做得并不好。我同意你的看法,Bill,让我们希望我们不要继续犯错,至少我们需要从中吸取教训,对吧?
Bill Dally:我同意关注垂直领域是正确的做法,每个垂直领域,无论是监管汽车AI的NHTSA,还是监管医药AI的FDA等等。我认为你也可以将其应用于社交媒体,它对应的监管机构是FCC。FCC监管通信,无论是广播还是互联网。有人建议,我们实际上需要一个新的机构来监管AI,独立于应用领域。这对我来说没有任何意义。你怎么看?
李飞飞:我认为AI在某种程度上类似于电力或计算机。我认为我们不能为电力或计算机设立一个机构。所以我很难想象一个独立的AI机构。AI是如此的横向。
除了缩放定律,
Bill Dally:这是一个非常令人兴奋的未来。我们已经看到模型从早期ImageNet时代的ContralNets,到用于语言的RNN,再到Transformer,它发展得非常快。接下来会是什么?这些新的状态空间模型是否有前景?或者你认为未来我们的主导网络模型会是什么?
李飞飞:目前最新的是扩散模型,但我还没有一个名字给你。如果我有,我现在就会去注册。
但我认为,首先,我继续相信数据的缩放定律。我认为我们还没有看到这方面的终点。关于我们是否已经看到了语言数据的极限有很多猜测,但我不知道答案,因为我不从事语言领域的工作。
但就世界数据、多模态数据而言,还有很多(数据可用)。人类和自然正在生产并利用这些数据。继续看好使用支持这些数据的模型架构。
Bill Dally:如果你把这种chinchilla缩放定律应用于LLMs,应用于多模态数据,那就意味着随着我们获得越来越多的世界数据进行训练,我们需要越来越大的模型。你认为事情正朝着这个方向发展吗?
李飞飞:我认为这是一个方向。我相信的另一个方向是世界的结构。我有点嫉妒我那些搞NLP的同事,因为从根本上说,语言是一个一维结构。而我从事视觉工作。它从根本上是三维的。如果加上时间,就是四维的。三维结构要丰富得多,但也复杂得多。
所以当我们用大数据进行扩展时,如果是完全盲目的扩展,那么我想英伟达会很高兴,你们会卖出更多芯片。但我想看到的是结构化建模,或着说偏向于三维感知和结构的模型与大数据相结合。我认为,要真正创造出空间智能,创造出我们今天仍然缺乏的世界模型。
Bill Dally:你是在暗示类似于许多类型科学模拟中使用的物理信息神经网络。你会扩展到利用人类对世界的先验知识,用它来使这些世界模型更有效?
李飞飞:是的,物理学就是对动力学和结构的信息输入及推导。
Bill Dally:那么你认为基础模型是会出现在世界层面上?也就是说我们可以问它任何关于世界的问题,而它会以多模态四维格式回答我们吗?
李飞飞:我确实认为基础模型会出现在世界层面。我认为你不需要只是问它问题。这是一种以语言为中心的交互方式。我认为实际上你应该可以与它互动。看看人类,或者生物体,作为一个计算机视觉人,我想提醒大家一件事,自然花了5.4亿年的时间来创造感知大脑。而创造语言大脑只花了几十万年。所以感知是非常非常深刻的。
李飞飞:这是一个很棒的问题,Bill。你应该提前告诉我你要问这个。这些问题我几天前都给你发过了(笑)。
这是一个危险的问题。自人类文明伊始,我们的祖先想象过的每一种工作基本上都是由机器协作完成的,对吧?移动、飞行、计算等等。所以我觉得工作的定义是什么?如果工作是一项任务,比如抓起某样东西或做一个煎蛋,我想它会被机器完成。但如果工作是人性的一部分,是定义我们创造力的一部分,定义我们的独特性,定义我们的意图、我们的同情心、我们与他人独特的情感联系,以及我们每个人对他人或对社会可能产生的独特贡献。我认为这些永远不会被完全取代。我们会利用机器来帮助我们更好地完成这类工作。但我没有看到一个根本性的取代。让我们再次回到医疗保健领域,我花了几十年时间在医院里照顾我年迈的外籍父母。每次我带着父母走进病房,我都会看着人类照顾人类,或者人类需要人类来照顾人类。在这种关系和互动中有一些非常深刻的东西,是任何机器人、AI、电脑、AR/VR,或者你认为的任何下一代技术都无法完全取代的。
老师和孩子、父母和孩子也是如此,我们真正珍视的服务,我们所做的旅行。在人性方面,在人与人的互动方面,有太多超越了计算、计算、机械的东西,我认为这些将是那种会保留下来并不断演变的工作。这样我们将越来越多地被机器赋予超能力,但作为人类的核心不会被取代。
Bill Dally:很明显,观众被你深深打动了。你以一种人性关怀的方式与他们建立了联系。但你是在暗示同理心、情感联系和关怀……还有创造力。创造力是人类的核心特质,但如果我们选择训练AI模型具有这些特征,我们能做到吗?我们可以建立有同情心的AI模型,让它能够在情感上与人联系吗?
李飞飞:在某种程度上可以。我再次强调一下,我从事计算机视觉工作。现在已经有了深度创造性的文本到图像以及文本到视频的生成(模型)。但我也认为,就像这里没有人能预测下一个爱因斯坦会是谁一样,这种创造力,创造力的不确定性,将永远存在于我们人类社会中。所以无论你如何训练机器,你都无法训练出那种人类智能或人类创造力。这不仅仅是爱因斯坦,还有贝多芬、莎士比亚、梵高。还有太多太多了。而且不一定非要是那么聪明的人。我自己的孩子,我不认为任何机器都能创造出那样一个甜美、聪明、幽默的小家伙。
Bill Dally:这是独一无二的人性,机器无法取代。说到创造力,生成式AI正在做一些了不起的事情。OpenAI最近推出了Sora,你可以输入一个提示,就能得到一个看起来很棒的视频。我们最终,也许当你在十年后写续集时,是否会发展到如果你想看一部电影,只需写几行提示,它就会为你生成一部两小时的电影?
李飞飞:我不认为这需要十年,Bill。所以多生产一些B200,它很快就会出现。就技术而言,我认为这即将到来:创建更长时间的生成性世界、生成性故事情节、生成性角色互动的能力指日可待。
Bill Dally:在这样一个世界里,我们有AI程序生成大部分内容,那些在好莱坞或游戏工作室等地方的人类内容创作者的角色是什么?
李飞飞:这又回到了人类的独特性。我不知道你们中有多少人是宫崎骏、吉卜力工作室的粉丝。是的,它是最棒的,我就是喜欢一遍又一遍地看他们的电影。从计算机图形学的角度来看,它相当初级。他们不做皮克斯和梦工厂那样的(复杂)图形。然而,那些独特的故事,比如《龙猫》那个故事多简单,那部电影中人性的表达那么单纯,除了宫崎骏,没有人,没有人能创造出那样的东西。我认为这仍然是人性。AI会创作电影,会创作娱乐人们的内容,但只有人能利用AI创作那些能触动他人、启发他人或服务他人的内容,而AI做不到。我确实看到了这种共生的可能性。
不管那些技术词汇多陌生,
我也希望你在AI时代中有一个角色
本文于2024年3月20日首发于微信公众号”腾讯科技“,原标题为”李飞飞对话英伟达首席科学家:AI就像电力,给它设置单独监管机构没意义“,《赛先生》获授权转载。
点击图片,扫码预订
欢迎关注我们,投稿、授权等请联系
商务合作,请添加微信SxsLive2022咨询
微信扫码关注该文公众号作者