Bendi新闻
>
ICLR 2024 | 根据压缩比率控制生成样本难度,NUS等提出首个无损数据集蒸馏方法

ICLR 2024 | 根据压缩比率控制生成样本难度,NUS等提出首个无损数据集蒸馏方法

5月前


©作者 | 郭子尧
单位 | 新加坡国立大学

数据集蒸馏旨在以生成的方式将一个大的数据集压缩成一个小的数据集。得益于生成数据的高信息密度,在压缩率较高时,数据集蒸馏的效果远超数据集剪枝等其他数据压缩方法。然而,随着压缩率的逐渐降低,现有数据集蒸馏方法的效果逐渐变差,甚至弱于从原数据集中随机选取等量数据。这导致现有数据集蒸馏方法局限于高压缩率场景,无法实现对原数据集的无损压缩。

在本文中,作者分析了生成数据的难易以及其对压缩效果的影响,发现应该根据压缩比率控制生成数据的难易。通过应用这一策略,作者提出了第一个可以在低压缩率保持有效的数据集蒸馏方法,并首次实现了无损数据集蒸馏。



论文标题:
Towards Lossless Dataset Distillation via Difficulty-Aligned Trajectory Matching

论文地址:

https://arxiv.org/abs/2310.05773

代码地址:

https://github.com/NUS-HPC-AI-Lab/DATM


动机

数据蒸馏可以看作是一个从目标数据集提取特征并将之添加到生成数据上的过程。目前,主流的数据集蒸馏方法大多通过匹配模型在目标数据集和生成数据集上的某种指标来完成特征的提取与压缩。

其中,基于匹配模型训练轨迹 [1] (Matching Training Trajectory) 的方法在多个基准下达到了最优。由于该方法通过匹配模型在生成数据集和目标数据集上的训练轨迹(匹配模型参数)来进行蒸馏,因此其效果受模型在目标数据集上的训练轨迹影响。

根据文献 [2] 可知,对于分类任务而言,模型倾向于在训练前期学习目标物体的简单特征而在后期学习难特征。因此我们推测匹配模型的前期轨迹就会倾向于在生成数据上添加更多的简单特征而匹配后期轨迹则会倾向于添加难特征。意识到这一点,我们开始探索匹配不同阶段路径对于数据集蒸馏的影响。

▲ 图1. 匹配不同阶段的轨迹的蒸馏效果
实验结果如图一所示,当 IPC 较低(即压缩率较高)时,匹配前期轨迹(即添加简单特征)是最有效的。而随着压缩率的降低,匹配后期轨迹则变成了最优选择,此时匹配前期路径甚至变得有害。基于这些实验现象,我们提出根据压缩比率控制生成特征的难易,并基于此提出了我们的方法。


方法

控制生成特征的难易对于基于轨迹匹配的方法来说较为简单,可以通过控制用于匹配的训练轨迹来实现。为了便于理解,我们用  来表示模型在目标数据集上的训练轨迹,并用  表示第  个epoch时模型的参数。为了能够灵活控制用于匹配的训练轨迹,我们为匹配范围设置了两个超参:匹配范围的下限  和上限  ,如下所示。

同时,为了使蒸馏数据集所含的信息更加丰富,我们将蒸馏数据的硬标签 (one-hot label) 替换为软标签并在蒸馏过程中不断优化它。然而这种做法面临着一些挑战,例如软标签的初始化可能会包含错误信息,以及优化软标签会让蒸馏变得不稳定。为了解决这些问题,我们提出了以下策略:

1. 用可以被预训练模型正确分类的数据初始化蒸馏数据。

2. 在蒸馏的早期阶段只生成简单特征(匹配前期轨迹),以此来提高蒸馏稳定性。

为了实现第二点,我们为匹配范围新增一个可浮动的上限  ,让它在蒸馏初期较小并随着蒸馏的进行逐渐增加直至其上限  。最终,匹配的范围可以表示为:



实验
3.1 效果比较

我们在 CIFAR10,CIFAR100 和 TinyImageNet 数据集下和多个有代表性的数据集蒸馏方法进行了对比,并进一步探索了数据集蒸馏在高 IPC 情境下的表现。主要的实验结果如下,更多的结果请参考我们的论文。

▲ 和多个蒸馏方法在不同数据集和不同IPC (image per class) 设定下的比较


▲ 在高IPC情境下数据集蒸馏和数据集剪枝的表现比较


3.2 分析
简单特征和难特征有什么特点?为什么压缩率较低时添加简单特征有害?我们对这些问题进行了探索。如下图所示,匹配前期轨迹(添加简单特征)会更大幅度的改变图片内容,将目标物体融入背景,使图片有更多关于目标物体的基本信息。这使得添加简单特征在压缩率较高时有效,因为此时蒸馏数据集太小以至于模型无法很好的学习到各个类别的基本特征。

▲ 匹配处于不同训练阶段的轨迹所得的蒸馏样本

此外,我们可以观察到添加简单特征会让图片损失关于目标物体的细节信息,而添加难特征(匹配后期轨迹)则会让目标物体具有更丰富的纹理细节。因此在压缩率较低时添加难特征的表现更好,因为此时蒸馏数据集本身就含有足够多的数据让模型学会基本的类别特征,添加更多的细节有利于模型识别离群样本。下图是蒸馏图片的可视化,更多分析请见论文。

▲ 不同IPC设定下蒸馏所得样本



▲ 匹配前期轨迹过程中图片的变化



▲ 匹配后期轨迹过程中图片的变化


总结
在这项工作中,作者发现应该根据压缩比率控制生成样本的难度。通过应用这一思想,作者提出了第一个可以在高/低压缩率皆能保持有效的数据集蒸馏算法,并首次实现了无损数据集蒸馏,将 CIFAR-10,CIFAR-100 压缩到了原数据集的 1/5 大小而不对训练 ConvNet 造成性能损失。

参考文献

[1] Dataset distillation by matching training trajectories. In CVPR, 2022.
[2] A closer look at memorization in deep networks. In ICML, 2017.



更多阅读



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧



·
·
·
·

微信扫码关注该文公众号作者

来源:PaperWeekly

相关新闻

ICLR 2024 | 图领域首个通用框架!任意数据集、分类问题都可搞定!华盛顿大学&北大&京东出品ICLR 2024 首个!Harvard FairSeg:第一个用于医学分割的公平性数据集今日arXiv最热NLP大模型论文:IBM研究院提出Genie方法,自动生成高质量数据集专治大模型说胡话,精确率100%!华科等提出首个「故障token」检测/分类方法ICLR 2024 | Adobe提出DMV3D:3D生成只需30秒!让文本、图像都动起来的新方法!ICLR 2024 Spotlight | 无惧中间步骤,MUSTARD可生成高质量数学推理数据ICLR 2024 Oral | 应对随时间变化的分布偏移,西安大略大学等提出学习时序轨迹方法ICLR 2024 | 跨领域准确进行零样本异常检测,浙大等提出AnomalyCLIP图领域首个通用框架来了!入选ICLR'24 Spotlight,任意数据集、分类问题都可搞定|来自华盛顿大学&北大&京东ICLR 2024 | 再论生成数据能否帮助模型训练?单模型斩获「蛋白质突变预测」榜一!西湖大学提出基于结构词表方法 | ICLR 2024 SpotlightICLR 2024 | 机器人领域首个开源视觉-语言操作大模型!RoboFlamingo框架激发开源VLMs更大潜能CVPR 2024 | 中大哈佛等提出全新训练方法CLoT,探究大模型幽默创新力ICLR 2024 | 微软提出全新LLM剪枝方法:参数减少25%,大幅提升计算效率首个ICLR时间检验奖出炉!3万被引论文奠定图像生成范式!DALL-E 3/SD背后都靠它首个ICLR时间检验奖出炉!3万被引论文奠定图像生成范式,DALL-E 3/SD背后都靠它CVPR 2024 中科院等提出:实时人像视频三维感知重光照方法AAAI 2024 | 清华提出DRM:无偏差的新类发现与定位新方法巧解「数据稀缺」问题!清华开源GPD:用扩散模型生成神经网络参数|ICLR 2024无位置编码 (NoPE) 也有长度泛化问题?首个针对NoPE的长度外推方法ICLR 2024 | 鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练首个通用双向Adapter多模态目标追踪方法BAT,入选AAAI 2024ICLR 2024 | 冻结住的CLIP仍可作为教师模型!港大提出全新开集动作识别模型Nature重磅:大模型的谎言如何“破”?牛津团队提出新方法,无需人工监督或特定领域知识
logo
联系我们隐私协议©2024 bendi.news
Bendi新闻
Bendi.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Bendi.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。