Bendi新闻
>
张钹院士:从大语言模型到通用人工智能

张钹院士:从大语言模型到通用人工智能

10月前
如何从大语言模型走向通用人工智能,这条路线可能带来哪些影响?1月16日,中国科学院院士、清华大学人工智能研究院院长、清华大学计算机系教授张钹在“智谱AI”2024年度技术开放日上,带来了《从大语言模型到通用人工智能》的主题分享。

60s要点速读:

🌟生成式大模型具有“三强大、一缺点”四个特征:1、强大的生成能力;2、强大的迁移能力;3、强大的交互能力;4、幻觉。

🌟目前GPT-4最多只能与数字世界交互,要使通用人工智能与物理世界交互,这就需要机器人

🌟大语言模型的影响:1、提升效率和质量,对多数行业起互补作用;2、替代部分工作

🌟为什么大模型难以完全替代人类?1、质量不可控。2、生成结果有正确,有错误,不可信。3、不鲁棒,输出很依赖输入提示词。
01




院士简介



张钹院士

中国科学院院士

清华大学人工智能研究院院长

清华大学计算机系教授



张钹,清华大学计算机系教授,中科院院士。1958年毕业于清华大学自动控制系,同年留校任教至今。1980年2月-1982年2月,美国伊利诺斯大学访问学者。2011年汉堡大学授予自然科学荣誉博士。曾任校学位委员会副主任,现任微软亚洲研究院技术顾问。

他参与人工智能、人工神经网络、机器学习等理论研究,以及这些理论应用于模式识别、知识工程与机器人等技术研究。在这些领域,他已发表200多篇学术论文和5篇(或章节)专著(中英文版)。他的专著获得国家教委高等学校出版社颁发的优秀学术专著特等奖。他的科研成果分别获得ICL欧洲人工智能奖、国家自然科学三等奖、国家科技进步三等奖、国家教委科技进步一、二等奖、电子工业部科技进步一等奖以及国防科工委科技进步一等奖等奖励。此外,他参与创建智能技术与系统国家重点实验室,于1990-1996年担任该实验室主任。1987-1994年任国家“863”高技术计划智能机器人主题专家组专家。

在过去30多年中,他提出问题求解的商空间理论,在商空间数学模型的基础上,提出了多粒度空间之间相互转换、综合与推理的方法。提出问题分层求解的计算复杂性分析以及降低复杂性的方法。该理论与相应的新算法已经应用于不同领域,如统计启发式搜索、路径规划的拓扑降维法、基于关系矩阵的时间规划以及多粒度信息融合等,这些新算法均能显著降低计算复杂性。该理论现已成为粒计算的主要分支之一。在人工神经网络上,他提出基于规划和基于点集覆盖的学习算法。这些自顶向下的结构学习方法比传统的自底向上的搜索方法在许多方面具有显著优越性。

他还为中国培养了大量人工智能领域的专才,至2021年9月,已培养了90余名博士研究生。他们当中有许多都投身到了人工智能领域的创业浪潮中,其中包括生数科技的首席科学家朱军以及一流科技的CEO袁进辉。张钹教授自己也亲身参与到创业当中,担任了一流科技的首席科学家。
02




院士演讲实录




(备注:内容有调整)

大家好,这个会议主要围绕大模型,我想所有的听众呢,都是冲着大模型来的,因此我今天就讲大模型的内容。

讲三个问题。

一个我们如何从这个大语言模型走向通用人工智能,这条路应该怎么走,我们会走到什么地方

第二个,这个大模型发展下去,对我们产业,对我们职业会产生什么影响

最后,讲一点有关人工智能产业的一点思考

大家知道,我们人工神经网络是1947年开始的,当时主要作为鉴别器(分类)使用,也想把它作为生成器来生成,结果遇到很大的困难。

这个问题到2014年干出来以后,才得到一定的解决,特别是2017年Transformer转换器提出来以后,就像打开这个闸门,生成式的人工智能迅猛地发展。

我们为什么要搞生成式的人工智能,大家常常引用Richard Feynman说的一句话,“如果我们不能创造它,我们就不可能理解它。” (What I cannot create,I do not understanding.)

所以我们通过生成式的人工智能,就是要打开理解这个世界的大门。

我们怎么来理解生成式的模型?我们必须从生成式大模型具有的四个特征来分析它,这四个特征“三大一缺点”。“三大”什么大呢?

就是强大的生成能力,强大的迁移或者推广能力以及强大的交互能力,最后一个大缺点,幻觉我想从这个三点出发,我们才能够真正地认识大模型。


所谓强大的生成能力,我们现在先说语言模型,就是强大的语言生成能力,主要体现在它能够在开领域生成多样性连贯的类似人类的文本。也就是说,它能够在开放的范围内,流畅地产生出多样化且逻辑自洽的语言表达。

这一点是大大出乎大家意料之外的,大模型没有达到一定的程度,不可能出现这个现象,我们目前还把这个现象说成是涌现。

第二个是迁移能力,就是只要给它少量样本,它就能将知识迁移到不同的领域,这也大大出乎了人们的意料。为什么只给它几个样本,它就能完成新的任务呢?这种能力也只有在模型达到一定规模后才会出现。

我们想一想,利用这两种能力发展出来的ChatGPT,它是通过预训练、推理和对齐这三个步骤实现的。那么它是如何做到这一点的呢?

主要是三个原因。

第一个原因,我们用了一个巨大的人工神经网络来完成这个任务。这个巨大的神经网络,我们把它叫做转换器。这个巨大大到什么程度呢?

四个档。一个非常之深,深度达到了96层。第二个非常之宽,GPT-3宽度达到了2048个tokens。现在GPT-4Turbo,达到128000个tokens。换句话讲,300多页的文本可以同时输入,这是它的宽度。

GPT3.5的规模达到了1750亿个参数,它的硬件需要285000个CPU,1万个GPU来完成,这是我们利用的一个技术,巨大的神经网络。

第二个技术就是巨大的训练文本,我这里特别讲的用Text不用数据,美国人最早是用巨大的数据,现在美国人也改口了,把它说成是巨大的文本数据,Text Data。

请大家注意,我这里讲的text肯定不是指这个数据,因为text大量描述的是人类的知识,那么用多少呢?这个大家知道了,现在已经达到了45TB,Google已经达到50TB是吧。

第三个使用的是Next token prediction,自监督学习

靠这三项技术,我们做到了刚才讲的三大能力。怎么做到的?

实际上,它构造了一个连续向量的语义空间,这个连续向量的语义空间怎么构造呢?就是用了LLM加上AI alignment来构造,这样就使得我们用1串的10串的输入,变成token,最后变成向量,在连续向量空间进行处理,又输出了一大堆词串。

正是借助这三项技术,我们实现了前面提到的三大语言生成能力。

具体来说,是通过LLM(大语言模型)结合AI alignment构造了一个连续的语义向量空间。这样就使得我们用1串,10串的输入变成token,最后变成向量,在连续向量空间进行处理,又输出了一大堆词串。

如果大家了解LLM(大语言模型),就会知道它通过预训练生成了K和V,这是它的记忆单元。然后在推理阶段,我们将问题Q输入模型,Q与K、V进行计算,输出对下一个词的预测。这就是LLM的整个工作流程。这种过程完全改变了我们处理语言的方式,使机器能够像人类一样进行思考。

当然,还需要最后一步对齐技术。经过对齐后,可以大幅降低错误率。因为LLM本身只能生成类人语言,不能保证正确性。只有通过对齐,才能确保生成内容的正确性。

这是我们迈出的第一步,取得了两个重大突破:

  • 能够生成人类水平的文本,"说人话"。
  • 实现了人机自然语言流畅对话。在ChatGPT中,我们可以用纯自然语言与机器对话,这在过去是难以实现的,而且这种对话不受领域限制。
以前我们一点也做不到这两点,现在不仅可以在开放领域做到,而且对话不受专业领域限制。这两个突破非常重大,将推动人工智能技术获得进一步发展。

举一个简单的例子,让ChatGPT以一个小学生的身份写一篇关于会飞的房子的文章。

我们可以看到,它表现出了很强的想象力,能想象房子长出翅膀来,飞到云端,降落在各种地方,看到的也都是童话世界,面包长在树上等等。这完全是人类水准的文本生成。这一点实际上表明,人工智能向着通用人工智能迈进了一步。

以前的人工智能都受限于三个“特定”:特定领域、特定算法、完成特定任务。人工智能只能在限定的领域内工作,受限于特定算法,并完成特定的预设任务。这三个特定都使其受限于某一应用领域。

而生成式模型完全改变了这种模式。我们使用通用的转换器(Transformer)模型,在开放领域内生成各种任务,完成多种任务,不受领域限制。这表明人工智能正在向第三代人工智能发展,也证明了行为主义道路是可行的。

我们目前正在进行的第二步工作,就是在GPT-4的基础上构造一个智能体,使其能够与数字世界交互。


为此我们必须实现两点,一件事就是要使得它能够接受多模态,就是要把感知这部分加进去,这就是我们现在说的这个多模态生成。通过多模态的生成,我们可以解决了感知的问题,才能够把这个环给闭起来。

我们知道,美国研发的CLIP模型实现了图像和文本的对比学习。大语言模型解决了文本的语义处理,如果把图像和文本关联起来,机器也能处理图像内容。CLIP已经展示了非常好的效果,无论是在图像分割还是识别上,都实现了重大突破。

过去机器只能对图像进行分类,停留在感觉层面,而很难实现真正的感知。有了大语言模型把图像和文本关联后,这一问题得到很好的解决,机器现在可以真正识别物体。

然后我们还要增加交互能力。我们过去第一步走的时候,我们主要用了语言模型跟人类交互的能力,而大模型还可以与环境尤其是数字环境进行交互。通过这两点的组合,我们可以实现第二步目标。也就是说机器可以与外部工具和环境结合,发挥问题求解能力。

它不仅可以回答问题,还可以帮助解决问题,解释和执行复杂指令,制定计划来达成预定目标。

与数字环境结合后,它可以通过反馈学习,判断自己的行动正确或错误。这是ChatGPT等第一代模型无法做到的。我们期望GPT-4可以达到这个目标,类似ReAct和CogVLM也在朝这个方向发展,不仅可以推理,还可以采取行动。

这里举出了例子,说明仅具备推理能力或仅具备行动能力都无法完全解决问题,必须推理和行动能力的结合。

比如对于较复杂的推理问题,GPT-4可以很好地处理。我让GPT-4计算一个脑筋急转弯的题目:我有10只碗,为开派对向张家借5只、向李家借5只,派对后我把碗还给他们,那么我手里还剩多少碗?GPT-4起初误解为0只,后来“仔细想了想”,推理出我还剩10只自己的碗。这类复杂推理只有GPT-4能完成。针对复杂问题求解如鸡兔同笼题,它也能很好解决。

第三步发展非常重要,目前GPT-4最多只能与数字世界交互,我们最终必须使其能与物理世界交互。这就缺少了一个关键环节——机器人。要与世界沟通和采取行动,就需要机器人。因此,“具身智能”(Embodied AI)的提出很关键,它可以构建一个完整的智能体,既有感知能力,又有像人类一样的思考和行动能力。这将形成一个完整的智能体。如果实现这一步,其结果将是难以想象的。因此,现在就必须把机器人技术配合上来。


那么大家看到了美国人就做人形机器人,我觉得不一定要做人形,因为很多地方使用的,就是手就可以了,或者脚就可以了。不一定把硬件搞得非常复杂,所以我的主张就是说,你有一定的硬件作为它的基础,我们进行研究,我们要研究什么问题?研究强化学习,这是今后人工智能的方向,而且这个强化学习如果再进步,我们过去所有的机器,做的都是外部驱动的,我们如果能够走到内部驱动,那就是能够非常接近人类智能。


接下来是人工智能发展下去,会产生什么影响

这个我引用这个高盛的全球投资的一张图,这张图告诉我们说,人工智能这样发展下去,最主要的一定会推动经济的发展。

高盛的分析显示,人工智能每年可带来1.3%的全球经济增长,发达国家可能达到1.5%,中国大约0.9%。这些数字可能不够准确,但人工智能促进经济发展的趋势是确定的。因此,中国要发展经济,就必须推动人工智能技术发展。

第二句话,看它究竟对我们产业,各个行业产生什么影响?

有人担心人工智能会代替人类工作,其实这份报告分析了各行各业,得出结论是人工智能对多数行业有利。左侧深色表示不易被自动化替代的体力劳动;相反,右侧浅色表示可被部分替代的脑力劳动,但比例不会超过1/3。大部分工作将是人机互补,提高工作质量和效率。


为什么大模型难以完全替代人类?是因为当前人工智能模型存在天花板。


就是说大模型所有的工作都是外部提示的,不是它主动做的,而且它是在外部提示下,用概率的预测的办法来完成它。人类完全不是这样,所有工作基本上是在内部驱动下,内部意图的驱动下,在意图的控制下,或者意识的控制下来完成的,这就表现了大模型的三个天花板。

第一,质量不可控。大模型的质量无法人为控制,输出质量不稳定

第二,生成结果存在正确错误,因而不可信

第三,不鲁棒。输出很依赖输入提示词,相同内容不同提示词会产生不同解,给出不同回答

综上所述,当前大模型存在的三大问题(不可控、不可信、不鲁棒)是根本性的缺陷,随着模型规模的增加也难以解决

前几天我看了图灵奖得主 Joseph Sifakis 在清华做的报告,他也是这个观点一样的,他就画出来这个智能化三个层次,他认为目前来讲,机器大多数作为辅助,那么第二步走向自动化,自动化的意思是什么,把部分的监控任务交给机器。


最终它叫做自主化,把所有的控制、监控都交给机器,这个他觉得很难,最主要的原因就是刚才我们讲到不可信,机器不可信,所以总体来讲我们应该看到今后的最主要的内容,就是我们把机器作为我们最好的助手,当然相当一部分工作会被它代替,但是这个要分领域的,不是所有领域都是这样。

这个总结一下,实际上就是我们当初提出来的发展三代人工智能的思想。

第三代人工智能的最主要思想是三个,一个我们必须要建立人工智能的可解释与鲁棒(稳健)的AI理论与方法。


因为到现在为止这个理论还没有建立起来,这就是人工智能所以缓慢和曲折的原因。为什么理论建立不起来?就受到三个特定的限制。因为过去你只能在特定领域,利用特定模型去解决特定的任务,根本你就在特定情况下做的事,怎么可能建立一个通用理论呢?大模型的出现给我们建立这个理论提供了可能性,因为你不走向通用,你不可能建立通用理论,所以现在这个有可能了。

那这种情况下,我们才有可能得到安全、可控、可信、可靠和可扩展的人工智能技术。换句话讲,如果这个理论没有建立起来,我们人工智能的技术永远是难以相信。

三是推动AI的创新应用与产业化,这个我们特别强调知识的作用,这个就必须充分发挥这四个要素,这个四个要素肯定都要发挥知识、数据、算法、算力,但是我们最主张的,就必须重视知识的作用,所以我们把知识放在第一位。

人工智能发展可以分为三个阶段。第一代人工智能试图通过建立语义符号系统来模拟人类思考,包括推理、决策、诊断、设计、规划和创作等能力。这体现了符号主义和行为主义的主张,即构建一个语言和符号的理想空间,在这个空间内模拟人类思考。但是这种模型存在一个重大缺陷,即“符号接地”(thesymbol grounding problem)问题,无法与物理世界联系,系统都是人为定义的,与外部环境脱节。


第二代人工智能试图通过构建特征向量的连续空间来实现感知,可以利用大量数据进行训练。但是其最大问题是与认知层面脱节,仅能对物体进行区分,无法真正理解和认知。

为克服第一代和第二代人工智能的局限,我们在第三代人工智能中提出构建“准语义向量连续空间”,也就是大语言模型构建的空间。这打通了三种空间,才可能建立一个真正的智能体,实现思考、感知和行动的统一。大语言模型的出现使这一目标看起来可能实现。但是,仍有很多问题有待解决,需要大量工作。

总之,大语言模型为实现真正的人工通用智能提供了可能性,但距离最终目标还有一定差距。

最后,我就谈两点思考。

首先,尽管人工智能目前正处于稳步发展阶段,甚至可以说是快速发展,它对各行各业产生了巨大影响。然而,我们也面临着许多不确定性,因为人工智能的发展往往是不可预测和不可控的。例如,我们目前对某些现象的解释仍然停留在“涌现”这一概念上,这实际上意味着我们尚未完全理解其背后的机制。


我认为中小型企业不应仅局限于科研,而应将科学研究、技术创新与产业发展紧密结合。智谱AI在这方面做得相当出色,它不仅重视研究工作,还通过组织此类讨论会,展示了对科学研究的重视。这种产学研结合的模式,特别是在中国,有助于产业的健康发展。

此外,我认为现在是抓住机遇,发展人工智能产业的关键时期。过去,人工智能产业受到特定领域和任务的限制,难以实现大规模发展。但现在,我们有机会开发通用的硬件和软件。


总结起来来讲,通向通用人工智能道路还是很艰难的。但是不管怎么说,大语言模型为人工智能的发展打开一条通向通用人工智能宽广的道路


来源:头部科技微信公众号平台

版权声明:部分文章在推送时未能与原作者取得联系。若涉及版权问题,敬请原作者联系我们。联系方式:[email protected]

微信扫码关注该文公众号作者

来源:投资银行在线

相关新闻

文末送书!解构大语言模型:从线性回归到通用人工智能从专用到通用-预训练大模型和AI agent,浅谈人工智能的趋势和展望从“百模”到“千体”:大模型智能体的竞争格局、商业模式和技术挑战中国工业互联网研究院:人工智能大模型工业应用准确性测评报告OpenAI提出从AI到AGI通用人工智能的五级分类系统!中国互联网30年:站在与人工智能大模型交汇的十字路口阿里云汪军华:大模型时代的人工智能+大数据平台,加速创新涌现EmbodiedGPT一作穆尧:具身智能大模型与通用机器人系统 | GenAICon 2024银幕上的智能革命:从终结者到造物主,人工智能电影史上的11个里程碑周鸿祎:Sora意味着实现通用人工智能可能从10年缩短至1年科学匠人 | 韩东起:从理论物理到神经科学和人工智能,迈向学科交叉的新方向大模型背景下,从数据资产化到数据智能应用要分几步?如何落地AI编程和可观测智能化?怎么从 0 到 1 训练大模型?阿里多位专家出席 ArchSummit 现身说法百川智能王小川:大模型价格战是好事;智源发布全球首个低碳万亿语言模型Tele—FLM丨AIGC日报通用图大模型HiGPT:一己之力建模任何图结构关系!来自港大数据智能实验室&百度章文嵩、蒋晓伟、李飞飞、张凯巅峰对谈:大模型时代的数据智能新趋势五位清华教授团建!从复杂推理到算力瓶颈,他们眼中“通用人工智能” 该如何降临?对话联想中国区总裁刘军:全栈智能布局已有7年,联想不会做通用大模型AI早知道|Apple 发布 MM1多模态大语言模型;xAI 是市场上薪酬最高的人工智能公司腾讯混元大模型升级:部分中文能力已追平GPT-4,支持16s视频生成;索尼音乐禁止人工智能开发商使用其音乐内容丨AIGC日报警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架中国中小企业服务网正式开通 黑马天启人工智能大模型提供政策智能服务和AI数字人政策智能专家服务中移智库;2024年弈衡人工智能大模型评测平台白皮书将敏捷技术应用于人工智能:从 Amazon Fresh(亚马逊生鲜)吸取的教训
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。