谷歌MIT最新研究证明:高质量数据获取不难,大模型就是归途

极市平台

共 3110字,需浏览 7分钟

 · 2024-03-20

↑ 点击 蓝字  关注极市平台 67b1fec561ab9ac56fe31bc93d23cbd8.webp来源丨新智元

极市导读

 

数据获取最新解,便是从生成模型中学习 >> 加入极市CV技术交流群,走在计算机视觉的最前沿

获取高质量数据,已经成为当前大模型训练的一大瓶颈。
前几天,OpenAI被《纽约时报》起诉,并要求索赔数十亿美元。诉状中,列举了GPT-4抄袭的多项罪证。 甚至,《纽约时报》还呼吁摧毁几乎所有的GPT等大模型。 df835599d3d0c82d842d5e0605542b72.webp一直以来,AI界多位大佬认为「合成数据」或许是解决这个问题的最优解。 deff999fddb887fdd49a6209d858a5c9.webp此前,谷歌团队还提出了用LLM代替人类标记偏好的方法RLAIF,效果甚至不输人类。 188c2c3f22707eb5b859d9a05bd80709.webp现如今,谷歌MIT的研究人员发现,从大模型中学习可以得到使用真实数据训练的最佳模型的表征。 这一最新方法称SynCLR,一种完全从合成图像和合成描述学习虚拟表征的方法,无需任何真实数据。

f3b176429eb96f443d8c670b8e7ea305.webp

论文地址:https://arxiv.org/abs/2312.17742 实验结果表明,通过SynCLR方法学习到的表征,能够与OpenAI的CLIP在ImageNet 上的传输效果一样好。 8dbf6af9d35dec21644e4efc5fefbbd5.webp

从生成模型中学习


目前表现最好的「视觉表征」学习方法依赖于大规模的实际数据集。然而,真实数据的收集却有不少的困难。 为了降低收集数据的成本,研究人员本文中提出了一个问题:
从现成的生成模型中采样的合成数据,是否是一条通往大规模策划数据集的可行之路,从而训练出最先进的视觉表征?
b7c6030e659608e0c0558372b4aa3797.webp与直接从数据中学习不同,谷歌研究人员称这种模式为「从模型中学习」。作为建立大规模训练集的数据源,模型有几个优势: - 通过其潜在变量、条件变量和超参数,为数据管理提供了新的控制方法。 - 模型也更容易共享和存储(因为模型比数据更容易压缩),并且可以产生无限数量的数据样本。 越来越多的文献研究了生成模型的这些特性和其他优点和缺点,并将其作为训练下游模型的数据源。 其中一些方法采用混合模式,即混合真实数据集和合成数据集,或需要一个真实数据集来生成另一个合成数据集。 其他方法试图从纯粹的「合成数据」中学习表征,但远远落后于表现最好的模型。 论文中,研究人员提出的最新方法,使用生成模型重新定义可视化类的粒度。 如图2所示,使用2个提示生成了四张图片「一只戴着墨镜和沙滩帽的金毛猎犬骑着自行车」和「一只可爱的金毛猎犬坐在寿司做成的房子里」。 efaeac8cb6572bf62edd4ada036663e3.webp传统的自监督方法(如Sim-CLR)会将这些图像视为不同的类,不同图像的嵌入会被分开,而不会明确考虑图像之间的共享语义。 另一个极端是,监督学习方法(即SupCE)会将所有这些图像视为单一类(如「金毛猎犬」)。这就忽略了这些图像在语义上的细微差别,例如在一对图像中狗在骑自行车,而在另一对图像中狗坐在寿司屋内。 相反,SynCLR方法将描述视为类,即每个描述一个可视化类。 这样,我们就可以按照「骑自行车」和「坐在寿司店里」这两个概念对图片进行分组。 这种粒度很难在真实数据中挖掘,因为收集由给定描述的多张图片并非易事,尤其是当描述数量增加时。 然而,文本到图像的扩散模型从根本上就具备这种能力。 只需对相同的描述设定条件,并使用不同的噪声输入,文本到图像的扩散模型就能生成与相同描述相匹配的不同图像。 具体来说,作者研究了在没有真实图像或文本数据的情况下,学习视觉编码器的问题。 最新方法依赖3个关键资源的利用:一个语言生成模型(g1),一个文本到图像的生成模型(g2),以及一个经过整理的视觉概念列表(c)。 前处理包括三个步骤: (1)使用(g1)合成一组全面的图像描述T,其中涵盖了C中的各种视觉概念; (2)对于T中的每个标题,使用(g2)生成多个图像,最终生成一个广泛的合成图像数据集X; (3)在X上进行训练,以获得视觉表示编码器f。 然后,分别使用llama-27b和Stable Diffusion 1.5作为(g1)和(g2),因为其推理速度很快。 合成描述 为了利用强大的文本到图像模型的能力,来生成大量的训练图像数据集,首先需要一个不仅精确描述图像而且展示多样性的描述集合,以包含广泛的视觉概念。 对此,作者开发了一种可扩展的方法来创建如此大量的描述集,利用大模型的上下文学习能力。 如下展示了三个合成模板的示例。 64da8cd8761a67ddd10f42ecb47ebb81.webp如下是使用Llama-2生成上下文描述,研究人员在每次推理运行中随机抽取三个上下文示例。 c100aad7adc1d12d0f300df6c28b8771.webp 合成图像 对于每个文本描述,研究人员都会用不同的随机噪声启动反向扩散过程,从而生成各种图像。 在此过程中,无分类器引导(CFG)比例是一个关键因素。 CFG标度越高,样本的质量和文本与图像之间的一致性就越好,而标度越低,样本的多样性就越大,也就越符合基于给定文本的图像原始条件分布。 098d62f89ba79bcda33c10248b658de3.webp 表征学习 论文中,表征学习的方法建立在StableRep的基础上。 作者提出的方法的关键组成部分是多正对比学习损失,它的工作原理是对齐(在嵌入空间)从同一描述生成的图像。 另外,研究中还结合了其他自监督学习方法的多种技术。

与OpenAI的CLIP相媲美


实验评估中,研究人员首先进行消融研究,以评估管道内各种设计和模块的有效性,然后继续扩大合成数据的量。 下图是不同描述合成策略的比较。 研究人员报告了9个细粒度数据集的ImageNet线性评估准确性和平均准确性。这里的每个项目包括1000万个描述和每个描述4张图片。 c995a0f9c6818df0c3de3cc6447c764f.webp下表是ImageNet线性评估与细粒度分类的比较。 尽管只使用了合成数据,但SynCLR与OpenAI的CLIP和DINO v2模型取得了不相上下的结果。 ade2fc18a1eb2144b7dbdfc7d4558349.webp下表是在相同的合成数据上比较SynCLR和CLIP,可以看出,SynCLR明显优于CLIP。 具体设置为,每个标题生成4个图像,SynCaps-150M为SynCLR和CLIP提供了更好的表示。 799fc26d1cab4a25b5ba993ee7520b09.webpPCA可视化如下。按照DINO v2,研究人员计算了同一组图像的斑块之间的PCA,并根据其前3个分量进行着色。 与DINO v2相比,SynCLR对汽车和飞机的绘制的图更为准确,而对能绘制的图则稍差一些。 caff3c71b732b1fd468c13c6c6aa1113.webp图6和图7中,分别展示了不同训练规模下的ImageNet线性准确率,以及不同训练参数规模下的精细分类。 db8f8d0d07533e5007d670938c7a5ebe.webp为什么要从生成模型中学习? 一个令人信服的原因是,生成模型可以像数百个数据集一样同时运作,能够为策划训练数据提供了一种方便有效的方法。 总而言之,最新论文研究了视觉表征学习的新范式——从生成模型中学习。 在没有使用任何实际数据的情况下,SynCLR学习到的视觉表征,与最先进的通用视觉表征学习器学习到的视觉表征不相上下。 参考资料: https://huggingface.co/papers/2312.17742

公众号后台回复“ 数据集 ”获取100+深度学习各方向资源整理

极市干货

技术专栏: 多模态大模型超详细解读专栏 搞懂Tranformer系列 ICCV2023论文解读 极市直播 极视角动态 欢迎高校师生申报极视角2023年教育部产学合作协同育人项目新视野+智慧脑,「无人机+AI」成为道路智能巡检好帮手! 技术综述: 四万字详解Neural ODE:用神经网络去刻画非离散的状态变化 transformer的细节到底是怎么样的?Transformer 连环18问!

点击阅读原文进入CV社区

收获更多技术干货

浏览 11
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报