大模型都会标注图像了,简单对话即可!来自清华&NUS

张傲 投稿
量子位 | 公众号 QbitAI
多模态大模型集成了检测分割模块后 , 抠图变得更简单了!
只需用自然语言描述需求 , 模型就能分分钟标注出要寻找的物体,并做出文字解释 。
在其背后提供支持的,是新加坡国立大学NExT++实验室与清华刘知远团队一同打造的全新多模态大模型 。

大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
随着GPT-4v的登场,多模态领域涌现出一大批新模型,如LLaVA、BLIP-2等等 。
为了进一步扩展多模态大模型的区域理解能力,研究团队打造了一个可以同时进行对话和检测、分割的多模态模型NExT-Chat 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
NExT-Chat的最大亮点,是在多模态模型中引入位置输入和输出的能力 。
其中位置输入能力指的是根据指定的区域回答问题(下方左图);位置输出能力指的则是定位对话中提及的物体(下方右图):
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
即使是复杂的定位问题,也能迎刃而解:
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
除了物体定位,NExT-Chat还可以对图片或其中的某个部分进行描述:
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
分析完图像的内容之后,NExT-Chat可以利用得到的信息进行推理:
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
为了准确评估NExT-Chat的表现,研究团队在多个任务数据集上进行了测试 。
在多个数据集上取得SOTA
作者首先展示了NExT-Chat在指代表达式分割(RES)任务上的实验结果 。
虽然仅仅用了极少量的分割数据,NExT-Chat却展现出了良好的指代分割能力,甚至打败了一系列有监督模型(如MCN,VLT等)和用了5倍以上分割掩模标注的LISA方法 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
△RES任务上NExT-Chat结果接着,研究团队展示了NExT-Chat在REC任务上的实验结果 。
如下表所示,相比于相当一系列的有监督方法(如UNITER),NExT-Chat都可以取得更优的效果 。
一个有意思的发现是NExT-Chat比使用了类似框训练数据的Shikra效果要稍差一些 。
作者猜测,这是由于pix2emb方法中LM loss和detection loss更难以平衡 , 以及Shikra更贴近现有的纯文本大模型的预训练形式导致的 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
△REC任务上NExT-Chat结果在图像幻觉任务上 , 如表3所示 , NExT-Chat可以在Random和Popular数据集上取得最优的准确率 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
△POPE数据集上NExT-Chat结果在区域描述任务上,NExT-Chat也能取得最优的CIDEr表现,且在该指标打败了4-shot情况下的Kosmos-2 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
△RefCOCOg数据集上NExT-Chat结果那么 , NExT-Chat背后都采用了哪些方法呢?
提出图像编码新方式
传统方法的缺陷
传统的模型主要通过pix2seq的方式进行LLM相关的位置建模 。
比如Kosmos-2将图像划分成32x32的区块,用每个区块的id来代表点的坐标;Shikra将物体框的坐标转化为纯文本的形式从而使得LLM可以理解坐标 。
但使用pix2seq方法的模型输出主要局限在框和点这样的简单格式,而很难泛化到其他更密集的位置表示格式 , 比如segmentation mask 。
为了解决这个问题,本文提出了一种全新的基于embedding的位置建模方式pix2emb 。
pix2emb方法
不同于pix2seq,pix2emb所有的位置信息都通过对应的encoder和decoder进行编码和解码,而不是借助LLM本身的文字预测头 。
大模型都会标注图像了,简单对话即可!来自清华&NUS

文章插图
△pix2emb方法简单示例如上图所示,位置输入被对应的encoder编码为位置embedding,而输出的位置embedding则通过Box Decoder和Mask Decoder转化为框和掩模 。
这样做带来了两个好处:
模型的输出格式可以非常方便的扩展到更多复杂形式,比如segmentation mask 。
模型可以非常容易的定位任务中已有的实践方式 , 比如本文的detection loss采用L1 Loss和GIoU Loss (pix2seq则只能使用文本生成loss),本文的mask decoder借助了已有的SAM来做初始化 。


推荐阅读