多模态模型‌ AI大一统:阿里达摩院发布多任务、多模态统一模型OFA

默认分类6小时前发布 admin
4,485 0
星河超算AI数字人

引言:我们正处于一个“多模多任务大统一”的AI时代。

老铁们,上图是对动漫《海贼王》所选框的文字描述(Zero-shot测试),而这一“炫酷”的效果正式由达摩院最新发布的多模统一模型OFA搞定的~

曾几何时,建立一个能像人类一样同时处理多模态、多任务的通用模型一直是AI领域的1个“小目标”。

而最近阿里达摩院发布了模态、任务、结构统一的模型OFA,将多模态及单模态的理解和生成任务统一到1个简单的生成式框架中,OFA执行预训练并使用任务指令进行微调,并且没有引入额外的任务特定层进行微调。

具体地说:

正如上图所说,OFA覆盖的下游任务横跨多模态生成、多模态理解、图片分类、自然语言理解、文本生成等多个场景,在图文描述、图像生成、视觉问答、图文推理、物体定位等多个风格各异的任务上取得SOTA。

如何实现3个统一?

为了统一多模态输入,OFA将文本、图片以及其中的物体离散化到一个统一的词表中。具体做法是,将文本用BPE转化为,将图片简单切分成多个patch并使用image 转化为image code,抽取图片中的物体的标签和 box并将 box离散化为 。最后,统一词表是文本的,图片的image code和物体的 三者的并集。

为了实现统一模型,OFA继续复用了在之前的大量工作中证明能有效地兼容不同的模态的结构。同时为了加快模型收敛,本文使用了post-。

多模态模型‌ AI大一统:阿里达摩院发布多任务、多模态统一模型OFA

为了统一不同任务,OFA对不同任务人工设计了8种任务指令。其中,对多模任务设计了5种指令(如上图中蓝色矩形),对视觉任务设计了2种指令(如上图中红色矩形),对语言任务设计了1中指令(如图中黄色矩形)。以image 任务为例,模型输入为足球比赛图片和指令’Which does the text ‘Man in white shirt’ ’,希望模型能生成正确的白衣球员的正确位置信息。

主要实验结果

为了验证模型的有效性,论文分别进行了跨模态、单模态和zero-shot实验。

1、跨模态任务

从实验结果中可以看到,OFA在image 、VQA、 和 4个跨模态任务中都取得了SOTA。其中,OFA还超过了180亿参数的大模型。

另外,在image-to-text 任务中,OFA 也超过了DALLE, 和最近大火的NÜWA模型。

2、单模态任务

在文本任务上,如下表所示,OFA在文本理解数据集GLUE上大幅度超过了多模预训练模型,并且和BERT的效果媲美,同时也在摘要生成数据集上超过了大多数纯文本预训练模型。

多模态模型‌ AI大一统:阿里达摩院发布多任务、多模态统一模型OFA

在图片分类任务上,OFA不仅超过了-B7等模型,同时也超过了基于对比学习的和MoCo,并且与基于 image 训练的BEiT-L和MAE-L模型取得了相近的结果。

3、Zero-shot和任务迁移

如上图,OFA在6个GLUE的单句和句子对分类任务上进行了zero-shot实验,效果超过了同期模型Uni-,但是在句子对分类上的效果并不好,准确度低于60%。

为了验证OFA的zero-shot泛化能力,作者设计了一种 的新任务,如下图所示,对图片中的某一区域进行提问,模型也能给出满意的答案。

同时,OFA也在VQA任务中使用out-of-的图片进行了测试,发现模型也能取得一定效果。总结:

本文介绍的统一模型OFA是一个与任务无关、模态无关的综合性、大一统模型。

最后,达摩院表示:正努力构建一个可推广到复杂现实世界的全能模型解决方案!

一起交流

想和你一起学习进步!『』目前已经建立了多个不同方向交流群(机器学习 / 深度学习 / 自然语言处理 / 搜索推荐 / 图网络 / 面试交流 / 等),名额有限,赶紧添加下方微信加入一起讨论交流吧!(注意一定o要备注信息才能通过)

323AI导航网发布

© 版权声明

相关文章

星河超算AI数字人

暂无评论

暂无评论...