Bendi新闻
>
没有指数级数据就没有Zero-shot!生成式AI或已到达顶峰

没有指数级数据就没有Zero-shot!生成式AI或已到达顶峰

6月前



  新智元报道  

编辑:alan
【新智元导读】近日,又一惊人结论登上Hacker News热榜:没有指数级数据,就没有Zero-shot!多模态模型被扒实际上没有什么泛化能力,生成式AI的未来面临严峻挑战。

生成式人工智能已经触及峰顶了吗?

在大模型正火的时候提这个问题,似乎不合时宜。

毕竟,随着数据和模型规模的增大、计算能力的增加,我们似乎不再怀疑拥有超强人工智能的未来。

——但是!来自University of Tübingen、剑桥和牛津大学的最新研究,用实验告诉我们:没有指数级数据,就没有Zero-shot!

论文地址:https://arxiv.org/pdf/2404.04125

换句话说,模型要想达到AGI水平,所需的训练数据量是我们无法提供的。

根据实验数据,模型未来的性能提升将越来越缓慢,最终会因为拿不到指数级的数据而触及瓶颈。

——所以,你以为大模型真的实现了zero-shot,真的在吸收和记忆的基础上,涌现了推理甚至创新,实际上都是人家见过千万次,早已倒背如流的答案。

你以为是素质教育出英才,其实人家走的是题海战术、应试教育路线。

Youtube上239万订阅的Computerphile频道,根据这篇文章的结果发表了类似的看法和担忧,立时受到广泛关注。

视频地址:https://www.youtube.com/watch?v=dDUC-LqVrPU

对数魔咒

当前,由于大模型展现出的zero-shot learning能力,人们乐观地预计大模型的性能可以相对于训练数据呈指数级增长,——这也是人们对AGI抱有期望的原因。

就算再退一步,两者呈线性关系,我们也能接受,毕竟只要多花时间、多花钱、多喂数据,到达了某个临界值之后,大模型就将无所不能。

但是,这篇论文指出,实际上训练数据(样本或概念的数量)和性能(在下游任务上对应概念的表现)呈对数关系。

也许现下的模型还能在一段时间内快速提升,但以后会越来越难,付出的代价也会越来越大,

——比如万亿token换来1%的性能,比如GPT-5,6,7的性能可能没啥差别。

文章通过大量的实验得到了类似的数据和图表,

这些曲线的走向一致,证明了在当前的情况下,无论用什么样的训练方法、什么样的数据集、执行什么样的下游任务,都难逃对数关系的魔咒。

而且,虽然这篇工作针对于多模态模型,但LLM也会有相同的问题,比如我们熟知的幻觉就是一种表现形式,面对训练数据中没有的东西,LLM就开始胡编。

另一方面,训练数据的分布往往都是不均匀的,有些种类的数据频度高,那么对应到推理结果上的表现自然就好。

这种情况被称为长尾分布(Long-Tail Distribution),指在分类任务中,训练数据的分布呈现长尾形状,少数类别拥有大量样本,而大多数类别只有很少的样本。

这种现象在现实世界中很常见,也就加剧了前面提到的指数级数据的难题。

当下模型的训练数据主要来自于互联网,咱也不知道数据是不是已经被吃得差不多了,反正这种指数级关系总会有无法满足的一天。

未来,我们可能需要「something else」,比如新的方法、新的数据表示、或者是不同于Transformer的新架构。

网友热议

除了油管上一天23万的播放量,Hacker News上也是热闹非凡。

「这感觉像是当前人工智能炒作的最坏结果」。

网友表示,我们基本上已经把整个互联网都喂给模型了,这几乎是目前能得到的最大的数据集,而且由于AI生成的垃圾数据也在不断进入互联网,以后可能也不会有更大更好的数据集了。

给大模型喂这些数据花费了数十亿美元,却只得到了有一些用处,又没有太大用处的人工智能。——如果这些人力物力财力花在别的地方,我们可能会过得更好。

对于人工智能产生垃圾数据所带来的影响,网友们表示赞同。

也有网友认为,数据还是有的,但是很多人正在利用技术手段,拒绝人工智能爬取自己的数据。

「这意味着谷歌搜索变得更糟,生成式AI变得更糟,互联网变得更糟」。

还有网友表示,相比于互联网上那点数据,现实世界要复杂几个数量级。

不过,对于Computerphile在视频中表达的略显悲观的结论,有大佬表示质疑。

前谷歌高级工程师、现任RekaAI CMO的Piotr Padlewski认为:

首先,缩放定律告诉我们,模型越大,获得相同性能所需的样本就越少。

其次,这篇论文研究的是零样本学习(zero-shot),而不是in-context learning。即使是训练数据中不常见/不存在的主题,只要在上下文中提供示例和说明,LLM也能理解。

「我认为没有人期望LLM能在zero-shot的情况下证明出P=NP,可能发生的情况是利用Agent找到所有相关文件并从中学习。」

「首先需要开发更好的算法和智能体,但我们也需要更好的基础模型。」

没有指数级数据,就没有Zero-shot

目前,人们对于AI发展的一个主要争论是,规模的扩大能带来真正的泛化能力吗?看了一辈子猫狗的大模型真的能认识大象吗?

——大模型的zero-shot似乎已经为自己正名。

Zero-shot learning (ZSL) is a fascinating machine learning scenario. In ZSL, an AI model is trained to recognize and categorize objects or concepts without having seen any examples of those categories or concepts beforehand.

不需要在训练集中出现某个分类的样本,凭借已经学到的语义信息,就可以识别从来没有见过的类别。

比如下面这个例子,模型在之前的训练中学到了马的形状、老虎的条纹和熊猫的黑白色,

这时你再告诉模型:斑马长得像马,并且有黑白相间的条纹,模型就可以在从没有见过斑马的情况下对其进行分类。

当前,CLIP模型是零样本图像识别,和图像文本检索的事实标准,而Stable Diffusion则是零样本文生图的事实标准。

CLIP:把文本decoder和图像decoder(VIT)对应到同一个嵌入空间

——不过这种zero-shot的泛化能力,究竟在多大程度上是靠谱的?或者说:这种能力的代价是什么?

实验

为了回答这个问题,研究人员决定用实验数据说话。

首先,问题涉及两个主要因素的比较分析:

(1)模型在各种下游任务中的性能

(2)测试概念在其预训练数据集中的频率

研究人员从涵盖分类、检索和图像生成的27个下游任务中,提取出4029个概念,根据这些概念来评估模型性能。

概念:定义为试图在预训练数据集中分析的特定对象或类别。

对于零样本分类任务,概念表示类名,例如ImageNet中的1000个类别(金鱼、黄貂鱼等)。

对于图像文本检索和图像生成任务,概念表示测试集标题或生成提示中出现的所有名词,比如在标题「一个男人戴着帽子」中,提取出「男人」和「帽子」作为相关概念。

实验选取了五个具有不同尺度、数据管理方法和来源的大规模预训练数据集(CC-3M、CC-12M、YFCC-15M、LAION-Aesthetics、LAION-400M),以及具有不同架构和参数大小的10个CLIP模型,和24个文生图(T2I)模型。

评估指标

对于分类任务,计算平均零样本分类精度。对于检索,使用文本到图像和图像到文本检索任务的传统指标来评估性能(Recall@1,Recall@5,Recall@10)。

而在文生图这边,评估包括图像-文本对齐和美学分数(aesthetic score)。

使用预期和最大CLIP分数来衡量图像-文本对齐,并使用预期和最大美学分数来衡量美观度。

在以上的16个图中,我们可以观察到概念频率和zero-shot性能之间,存在明显的对数关系。

实验考虑了多个不同的维度:

(i)判别模型与生成模型,

(ii)分类与检索任务,

(iii)模型架构和参数尺度,

(iv)不同方法和尺度的预训练数据集,

(v)不同的评估指标,

(vi)零样本分类的不同提示策略,

(vii)仅从图像或文本域中分离的概念频率

而结果表明,对数线性缩放趋势在所有七个实验维度上都持续存在。

因此,CLIP和Stable Diffusion等多模态模型令人印象深刻的zero-shot性能,在很大程度上归因于其庞大的预训练数据集,而并不是真正的零样本泛化。

恰恰相反,这些模型需要一个概念的数据呈指数级增长,才能以线性方式提高它们在与该概念相关的任务上的性能,——极端的样本低效率。

参考资料:
https://arxiv.org/abs/2404.04125




微信扫码关注该文公众号作者

来源:新智元

相关新闻

雕像也会很开心!就没有猫猫上不去的地方日本的槽罐车!没有对比,就没有伤害“关系户文化”卷到谷歌了?谷歌华裔员工因投诉举报管理层被炒!啥事没有就被逼供17小时,还被关进精神病院,加州男子被冤弑父2024年,没有视频号名片,就没有生意!“孕吐难受,公公直接打来10万?!”果然就没有钱解决不了的事哈哈哈“好幸运!没有一出生就排队,我把孩子送进了墨尔本最好的私校”新加坡没有“考公”,上网就能申请!没有年龄限制,外国人也可以AI并没有学习!Nature子刊最新研究解码人工智能黑盒“宅男女神”翁虹:我不后悔拍风月片,没有当年,就没有现在的我!国产AI搜索的黑马!没有广告,免费使用,科研狗:学术搜索太香了中年以后,女人有没有福气,就看这一点!快看家里有没有!美止咳糖浆召回 或导致危及生命感染文献计量分析培训及ChatGPT辅助论文撰写,还有几个名额;没有实验数据,也能表SCI论文!【免费讲座】文献计量分析:没有实验数据,也能表SCI论文!【在线讲座】没有实验数据,也能表SCI论文!没有实验数据,也能表SCI论文!文献计量分析培训及ChatGPT辅助论文撰写,还有几个名额游客入住3分钟包包就被偷!大温竟然没有摩洛哥、印度安全?!半年暴增16万!安省已超 250 万人没有家庭医生!极易错过癌症筛查没有实验数据,也能表SCI论文!--文献计量分析培训及ChatGPT辅助论文撰写,开始报名安省30岁移民妹子年收入$8万:不结婚就买不起房,生活没有希望!没有发现弹痕或类似情况!调查报告来了→文献计量分析培训及ChatGPT辅助论文撰写:没有实验数据,也能表SCI论文!紧急!开发商没有硝烟的战场已打响,消费者甘愿为此埋单...文献计量分析培训:没有实验数据,也能表SCI论文!
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。