Bendi新闻
>
LLM巫师,代码预训练是魔杖!UIUC华人团队揭秘代码数据三大好处

LLM巫师,代码预训练是魔杖!UIUC华人团队揭秘代码数据三大好处

4月前



  新智元报道  

编辑:LRS
【新智元导读】如果语言模型是巫师,代码预训练就是魔杖!


大模型时代的语言模型(LLM)不仅在尺寸上变得更大了,而且训练数据也同时包含了自然语言和形式语言(代码)。


作为人类和计算机之间的媒介,代码可以将高级目标转换为可执行的中间步骤,具有语法标准、逻辑一致、抽象和模块化的特点。


最近,来自伊利诺伊大学香槟分校的研究团队发布了一篇综述报告,概述了将代码集成到LLM训练数据中的各种好处。


论文链接:https://arxiv.org/abs/2401.00812v1


具体来说,除了可以提升LLM在代码生成上的能力外,好处还包括以下三点:


1. 有助于解锁LLM的推理能力,使能够应用于一系列更复杂的自然语言任务上;


2. 引导LLM生成结构化且精确的中间步骤,之后可以通过函数调用的方式连接到外部执行终端(external execution ends);


3. 可以利用代码编译和执行环境为模型的进一步改进提供了更多样化的反馈信号。



此外,研究人员还追踪了LLM作为智能智能体(intelligent agents,IA)时,在理解指令、分解目标、规划和执行行动(execute actions)以及从反馈中提炼的能力如何在下游任务中起到关键作用。


最后,文中还提出了「使用代码增强LLM」领域中关键的挑战以及未来的研究方向。



代码预训练提升LLM性能


以OpenAI的GPT Codex 为例,对 LLM 进行代码预训练后,可以扩大LLM的任务范围,除了自然语言处理外,模型还可以为数学理论生成代码、执行通用编程任务、数据检索等。


代码生成任务具有两个特性:1)代码序列需要有效执行,所以必须具有连贯的逻辑,2)每个中间步骤都可以进行逐步逻辑验证(step-by-step logic verification)。


在预训练中利用和嵌入代码的这两种特性,可以提高LLM思维链(CoT)技术在传统自然语言下游任务中的性能,表明代码训练能够提高LLM进行复杂推理的能力。


通过从代码的结构化形式中进行隐式学习,代码 LLM 在常识结构推理任务中也表现出更优的性能,例如与markup、HTML和图表理解相关的任务。


支持功能/函数终端(function ends)


最近的研究结果表明,将LLMs连接到其他功能终端(即,使用外部工具和执行模块增强LLMs)有助于LLMs更准确可靠地执行任务。


这些功能性目的使LLMs能够获取外部知识、参与到多种模态数据中,并与环境进行有效互动。



从相关工作中,研究人员观察到一个普遍的趋势,即LLMs生成编程语言或利用预定义的函数来建立与其他功能终端的连接,即「以代码为中心」的范式。


与LLM推理机制中严格硬编码工具调用的固定实践流程相反,以代码为中心的范式允许LLM动态生成tokens,并使用可适应的参数(adaptable parameters)调用执行模块,为LLM与其他功能终端交互提供了一种简单明了的方法,增强了其应用程序的灵活性和可扩展性。



重要的是,这种范式可以让LLM与跨越不同模态和领域的众多功能终端进行交互;通过扩展可访问的功能终端的数量和种类,LLM可以处理更复杂的任务。


本文中主要研究了与LLM连接的文本和多模态工具,以及物理世界的功能端,包括机器人和自动驾驶,展现了LLM在解决各种模式和领域问题方面的多功能性。


提供自动反馈的可执行环境


LLMs表现出超出其训练参数的性能,部分原因是模型能够吸收反馈信号,特别是在非静态的现实世界应用中。


不过反馈信号的选择必须谨慎,因为嘈杂的提示可能会阻碍LLM在下游任务上的表现。


此外,由于人力成本高昂,因此在保持忠诚度(faithful)的同时自动收集反馈至关重要。



将LLMs嵌入到代码执行环境中可以实现上述条件的自动反馈。


由于代码执行在很大程度上是确定性的,LLMs从执行代码的结果中获取的反馈仍然忠实于目标任务;代码解释器还为LLMs查询内部反馈提供了一个自动路径,无需人工标注即可对LLMs生成的错误代码进行调试和优化。


此外,代码环境允许LLMs整合各种各样的外部反馈形式,包括但不限于二元正确性反馈,对结果的自然语言解释,以及奖励值排序,从而实现一个高度可定制的方法来提高性能。



当下的挑战


代码预训练与LLMs推理增强的因果关系


虽然从直觉上来看,代码数据的某些属性可能有助于LLMs的推理能力,但其对增强推理技能影响的确切程度仍然模糊不清。


在下一步的研究工作中,重要的是要研究在训练数据中加强认识:这些代码属性是否真的可以增强训练的LLMs的推理能力。


如果确实如此,对代码的特定属性进行预训练可以直接提高LLMs的推理能力,那么理解这种现象将是进一步提高当前模型复杂推理能力的关键。


不限于代码的推理能力


尽管通过代码预训练实现了对推理能力的增强,但基础模型仍然缺乏真正通用人工智能所期望的类似人类的推理能力。


除了代码之外,大量其他文本数据源也有可能增强LLM推理能力,其中代码的内在特征,如缺乏歧义、可执行性和逻辑顺序结构,为收集或创建这些数据集提供了指导原则。


但如果继续坚持在具有语言建模目标的大型语料库上训练语言模型的范式,很难有一种顺序可读的语言比形式语言更抽象:高度结构化,与符号语言密切相关,并且在数字网络环境中大量存在。


研究人员设想,探索可替代的数据模式、多样化的训练目标和新颖的架构将为进一步增强模型推理能力提供更多的机会。


以代码为中心范式在应用上的挑战


在LLMs中,使用代码连接到不同的功能终端的主要挑战是学习不同功能的正确调用方法,包括选择正确的功能(函数)终端以及在适当的时候传递正确的参数。


比如说一个简单的任务(网页导航),给定一组有限的动作原语后,如鼠标移动、点击和页面滚动,再给出一些例子(few-shot),一个强大的基础LLM往往需要LLM精确地掌握这些原语的使用。


对于数据密集型领域中更复杂的任务,如化学、生物学和天文学,这些任务涉及对特定领域python库的调用,其中包含许多不同功能的复杂函数,增强LLMs正确调用这些功能函数的学习能力是一个前瞻性的方向,可以使LLMs在细粒度领域中执行专家级任务。


从多轮互动和反馈中学习


LLMs通常需要与用户和环境进行多次交互,不断纠正自己以改善复杂任务的完成。


虽然代码执行提供了可靠和可定制的反馈,但尚未建立一种完全利用这种反馈的完美方法。


当下基于选择的方法虽然有用,但不能保证提高性能,而且效率低下;基于递归的方法严重依赖于LLM的上下文学习能力,这可能会限制其适用性;微调方法虽然做出了持续的改进,但数据收集和微调是资源密集型的,实际使用时很困难。


研究人员认为强化学习可能是一种更有效的利用反馈和改进的方法,可以提供一种动态的方式来适应反馈,通过精心设计的奖励功能,潜在地解决当前技术的局限性。


但仍然需要大量的研究来了解如何设计奖励函数,以及如何将强化学习与LLMs最佳地集成以完成复杂的任务。


参考资料:
https://twitter.com/omarsar0/status/1742215295907811613
https://browse.arxiv.org/html/2401.00812v1



微信扫码关注该文公众号作者

来源:新智元

相关新闻

LLM会写代码≠推理+规划!AAAI主席揭秘:代码数据质量太高|LeCun力赞GPT-4绝对性能暴涨74.4%!UIUC苹果华人团队提出CodeAct,用Python代码统一LLM智能体行动离散化、对齐文本还是预训练,哪个才是 LLM 处理时序数据的关键?惊掉下巴:GPT-4o现场爆改代码看图导航!OpenAI曝光LLM路线图,GPT Next年底发OpenAI官宣开源Transformer Debugger!不用写代码,人人可以破解LLM黑箱推动LLM-as-Agent进入下一步的会是代码语料吗?推动 LLM-as-Agent 进入下一步的会是代码语料吗?Llama 2打败GPT-4!Meta让大模型自我奖励自迭代,再证合成数据是LLM终局Redis 之父自曝用 AI 写代码,锐评:LLM 有望取代 99% 的程序员!GPT-4、Gemini同时被曝重大缺陷,逻辑推理大翻车!DeepMind上交校友团队发现LLM严重降智UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导拯救被「掰弯」的GPT-4!西交微软北大联合提出IN2训练治疗LLM「中间迷失」用 1000 行 C 代码手搓了一个大模型,Mac 即可运行,特斯拉前AI总监爆火科普 LLM重磅|加拿大永久居民和加籍华人可以“投资”拿中国香港身份了!还有很多隐藏好处北京内推 | ​微软亚洲研究院DKI组LLM团队招聘LLM方向研究型实习生众包新玩法!LLM竞技场诞生基准测试,严格分离学渣学霸抛弃自回归,连接一致性Diffusion和LLM!UCSD上交新作热度紧追AF 3热话 | 内地快递扎堆来港!除了提速竟还有这些好处!开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了开源模型打败GPT-4!LLM竞技场最新战报,Cohere Command R+上线全职回到办公室的潜在好处是什么? 答案是:工资上涨38%!澳洲如果取消购房印花税,居然能有这么大好处!CVPR最佳论文颁给自动驾驶大模型!LLM能突破行业技术“天花板”吗?无需人工标注!LLM加持文本嵌入学习:轻松支持100种语言,适配数十万下游任务
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。