哈工大联合快手提出CogGPT:大模型也需要认知迭代
在认知科学领域,人类通过持续学习改变认知的过程被称为认知迭代(Cognitive Dynamics)。形象地说,认知迭代就像是我们大脑的「软件更新」过程,手机应用通过不断的更新来修复 bug 和增加新功能,我们的大脑也通过不断学习新知识、经验,来改善和优化思考方式。
从我们判断感冒吃什么药效果好,到一代代数学家如何证明费马大定理,无论是个人的心智发展还是人类文明的进步,认知迭代都扮演了不可或缺的角色。
如今,像 GPT-4 等大型语言模型(Large Language Models,LLMs)为通用人工智能(Artificial General Intelligence,AGI)的发展带来希望的同时,也暴露出一个显著的问题 —— 认知固化。比如,对于经典问题「宇宙的中心在哪里」,不同时代的人会基于当时的信息给出不同的回答,但对于大模型,它们的参数在训练完成后就固定下来了,这时候的大模型就像是一个不能升级的老旧软件,不能再学习新的信息。
虽然我们可以通过 in-context learning 的方式,通过为大模型设定特定的认知背景来模拟相应回答,但这种认知迭代不是自驱的,也不能适应的未知信息环境。这就引出了一个问题:怎么才能让大模型和人类一样,根据不断变化的信息实现自驱的认知迭代呢?
值得庆幸的是,这个问题已经有了初步的答案,哈尔滨工业大学与快手科技的研究团队率先提出了大型语言模型的认知迭代(the cognitive dynamics of LLMs)的概念。不仅如此,为了系统建模这个概念,他们给出了形式化的任务定义和相关基准 CogBench,并提出了 CogGPT,一个显式建模大型语言模型的认知迭代的 LLM-driven Agent。这就意味着,基于这个研究,以后的大型语言模型将不再是简单的信息处理工具,而可以进一步模拟人类的思考方式,实现终身学习。
论文链接:https://arxiv.org/abs/2401.08438
项目主页:https://github.com/KwaiKEG/CogGPT
从论文中可以看到,这个任务仿照心理学领域中的纵向研究,对大模型进行持续性的「心理测试」。具体来说,这个任务首先通过动态信息流建立了持续变化的信息环境,然后为大模型设定了初始人设,通过定期要求它们填写相同的认知问卷,观察这些模型在持续接收信息过程中,它们的认知是如何发生变化的。
基于这个任务,研究团队还提出了基准 CogBench,根据信息流的类型,可以分为基于长文章的 CogBench_a 和基于短视频的 CogBench_v,同时设立了真实性(Authenticity)和合理性(Rationality)两个关键评估指标,分别用于衡量模型与人类评分的一致性,以及评分理由的合理性,进而丰富了大型语言模型的认知迭代分析方法。
由于现有大模型无法实现参数的实时更新,研究团队设计了 CogGPT,一个具有迭代认知机制的 LLM-driven agent。该机制包括一个记忆保持系统(Memory Retention System),用于蒸馏、存储和检索信息,以及一个协作优化框架(Collaborative Refinement Framework),用于自驱地完成自我认知迭代。
比如下面这个例子,CogGPT 扮演的是一个喜欢手工的人,她一开始对纹身并不了解,因此对「纹身是对美的追求」这一观点保持代表中立的 3 分,在「看过」纹身会对身体造成伤害」和「自制香水纹身贴教程」的一系列短视频后,她认为纹身对身体有伤害,而且不应该是美的唯一标准,将自己对这一观点的看法从中立的 3 分改变为不同意的 2 分,同时也对自制纹身贴产生了兴趣,从而展现出了像人一样的认知迭代能力。
研究团队还对 CogGPT 和一些通用基线在 CogBench 上做了充分实验。实验结果表明,在 CogBench_a 和 CogBench_v 两个基准上,CogGPT 在真实性(Authenticity)和合理性(Rationality)这两个核心评估指标上的表现都远超现有方法,这也进一步证明了 CogGPT 可以有效地模仿特定人设的认知迭代过程。
如果智能系统可以像人类一样持续学习,将会给我们的生活带来革命性的变化,到时候,私人助理将能够提供更高效的定制化服务,网上冲浪也可能不再是人类独有的乐趣。尽管这项研究还处于起步阶段,但它已经向我们揭示了一个充满可能性的未来。
值得注意的是,该团队不久前还开源了 KwaiAgents 系统,提升了 7B/13B 大语言模型的 Agents 相关能力,自从发布以来已经在 Github 上获得了 800+star(https://github.com/KwaiKEG/KwaiAgents)。
© THE END
转载请联系本公众号获得授权
投稿或寻求报道:[email protected]
微信扫码关注该文公众号作者