0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DALL-E和Flamingo能相互理解吗?

CVer 来源:机器之心 2023-01-09 15:46 次阅读

本文提出了一个统一的框架,其中包括文本到图像生成模型和图像到文本生成模型,该研究不仅为改进图像和文本理解提供了见解,而且为多模态模型的融合提供了一个有前途的方向。

多模态研究的一个重要目标就是提高机器对于图像和文本的理解能力。特别是针对如何在两种模型之间实现有意义的交流,研究者们付出了巨大努力。举例来说,图像描述(image captioning)生成应当能将图像的语义内容转换输出为可被人们理解的连贯文本。相反,文本 - 图像生成模型也可利用文本描述的语义来创建逼真的图像。

这就会带来一些同语义相关的有趣问题:对于给定的图像,哪种文本描述最准确地描述了图像?同样地,对于给定的文本,最有意义的图像实现方式又是哪种?针对第一个问题,一些研究宣称最佳的图像描述应该是既自然且还能还原视觉内容的信息。而对于第二个问题,有意义的图像应该是高质量的、多样性的且忠于文本内容的。

不论怎样,在人类交流的推动下,包含文本 - 图像生成模型及图像 - 文本生成模型的交互任务可以帮助我们选择最准确的图像文本对。

如图 1 所示,在第一个任务中,图像 - 文本模型是信息发送者,文本 - 图像模型是信息接收者。发送者的目标是使用自然语言将图像的内容传达给接收者,以便其理解该语言并重建真实的视觉表征。一旦接收者可以高保真地重建原始图像信息,则表明信息已传递成功。研究者认为这样生成的文本描述即为最优的,通过其产生的图像也最近似于原始图像。

54695ade-8fdf-11ed-bfe3-dac502259ad0.png

这一规律受到人们使用语言进行交流的启发。试想如下情形:在一个紧急呼救的场景中,警察通过电话获知车祸的情况和受伤人员的状况。这本质上涉及现场目击者的图像描述过程。警方需要根据语言描述在脑海中重建环境场景,以组织恰当的救援行动。显然,最好的文本描述应该是该场景重建的最佳指南。

第二个任务涉及文本重建:文本 - 图像模型成为信息发送者,图像 - 文本模型则成为信息接收者。一旦两个模型就文本层面上信息内容达成一致,那么用于传达信息的图像媒介即为重现源文本的最优图像。

本文中,来自慕尼黑大学、西门子公司等机构的研究者提出的方法,同智能体间通信紧密相关。语言是智能体之间交换信息的主要方法。可我们如何确定第一个智能体与第二个智能体对什么是猫或什么是狗这样的问题有相同的理解呢?

549ea716-8fdf-11ed-bfe3-dac502259ad0.png

论文地址:https://arxiv.org/abs/2212.12249

本文所想要探求的想法是让第一个智能体分析图像并生成描述该图像的文本,而后第二个智能体获取该文本并据此来模拟图像。其中,后一个过程可以被认为是一个具象化体现的过程。该研究认为,如果第二个智能体模拟的图像与第一个智能体接收到的输入图像相似(见图 1),则通信成功。

在实验中,该研究使用现成的模型,特别是近期开发的大规模预训练模型。例如,Flamingo 和 BLIP 是图像描述模型,可以基于图像自动生成文本描述。同样地,基于图像 - 文本对所训练的图像生成模型可以理解文本的深层语义并合成高质量的图像,例如 DALL-E 模型和潜在扩散模型 (SD) 即为这种模型。

此外,该研究还利用 CLIP 模型来比较图像或文本。CLIP 是一种视觉语言模型,可将图像和文本对应起来表现在共享的嵌入空间(embedding space)中。该研究使用手动创建的图像文本数据集,例如 COCO 和 NoCaps 来评估生成的文本的质量。图像和文本生成模型具有允许从分布中采样的随机分量,因而可以从一系列候选的文本和图像中选择最佳的。不同的采样方法,包括核采样,均可以被用于图像描述模型,而本文采用核采样作为基础模型,以此来显示本文所使用方法的优越性。

方法概览

本文框架由三个预训练的 SOTA 神经网络组成。第一,图像 - 文本生成模型;第二,文本 - 图像生成模型;第三,由图像编码器和文本编码器组成的多模态表示模型,它可以将图像或文本分别映射到其语义嵌入中。

54aabfce-8fdf-11ed-bfe3-dac502259ad0.png

通过文本描述的图像重建

如图 2 左半部分所示,图像重建任务是使用语言作为指令重建源图像,此过程的效果实现将促使描述源场景的最佳文本生成。首先,源图像 x 被输送到 BLIP 模型以生成多个候选文本 y_k。例如,一只小熊猫在树林中吃树叶。生成的文本候选集合用 C 表示,然后文本 y_k 被发送到 SD 模型以生成图像 x’_k。这里 x’_k 是指基于小熊猫生成的图像。随后,使用 CLIP 图像编码器从源图像和生成的图像中提取语义特征:54eae806-8fdf-11ed-bfe3-dac502259ad0.png550395a4-8fdf-11ed-bfe3-dac502259ad0.png

然后计算这两个嵌入向量之间的余弦相似度,目的是找到候选的文本描述 y_s, 即

5514f268-8fdf-11ed-bfe3-dac502259ad0.png

其中 s 为最接近源图像的图像索引

该研究使用 CIDEr(图像描述度量指标)并参照人类注解来评估最佳文本。由于对生成的文本质量感兴趣,该研究将 BLIP 模型设定为输出长度大致相同的文本。这样就能保证进行相对公平的比较,因为文字的长度与可传递图像中信息量的多少呈正相关。在这项工作中,所有模型都会被冻结,不会进行任何微调。

通过图像实现文本重建

图 2 中右侧部分显示了与上一节描述过程的相反过程。BLIP 模型需要在 SD 的引导下猜测源文本,SD 可以访问文本但只能以图像的格式呈现其内容。该过程始于使用 SD 为文本 y 生成候选图像 x_k ,生成的候选图像集用 K 来表示。使用 SD 生成图像会涉及随机采样过程,其中每一次生成过程都可能会以在巨大的像素空间中得到不同的有效图像样本为终点。这种采样多样性会提供一个候选池来为筛选出最佳图像。随后,BLIP 模型为每个采样图像 x_k 生成一个文本描述 y’_k。这里 y’_k 指的是初始文本一只小熊猫在森林里爬行。然后该研究使用 CLIP 文本编码器提取源文本和生成文本的特征,分别用552ad77c-8fdf-11ed-bfe3-dac502259ad0.png553954a0-8fdf-11ed-bfe3-dac502259ad0.png表示。此任务的目的是寻找匹配文本 y 语义的最佳候选图像 x_s。为此,该研究需要比较生成文本和输入文本之间的距离,然后选择出配对文本距离最小的图像,即

555003bc-8fdf-11ed-bfe3-dac502259ad0.png 该研究认为图像 x_s 可以最好地描绘出文本描述 y,因为它可以以最小的信息损失将内容传递给接收者。此外,该研究将与文本 y 相对应的图像55665e32-8fdf-11ed-bfe3-dac502259ad0.png视为 y 的参考表示(reference presentation),并将最佳图像量化为它与参考图像的接近程度。实验结果图 3 中的左侧图表显示了两个数据集上图像重建质量和描述文本质量之间的相关性。对于每个给定图像,重建图像质量(在 x 轴中显示)越好,文本描述质量(在 y 轴中显示的)也越好。 图 3 的右侧图表揭示了恢复的文本质量和生成的图像质量之间的关系:对于每个给定的文本,重建的文本描述(显示在 x 轴上)越好,图像质量(显示在 y 轴上)就越好。

5575dda8-8fdf-11ed-bfe3-dac502259ad0.png

图 4(a)和(b)显示了图像重建质量和基于源图像的平均文本质量之间的关系。图 4(c)和(d)显示了文本距离(text distance)与重建图像质量之间的相关性。

5593723c-8fdf-11ed-bfe3-dac502259ad0.png

表 1 显示出该研究的采样方法在每个度量标准下都优于核采样,模型的相对增益可以高达 7.7%。

5662a50c-8fdf-11ed-bfe3-dac502259ad0.png

图 5 显示了两个重建任务的定性示例。

56b81780-8fdf-11ed-bfe3-dac502259ad0.png

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4656

    浏览量

    99489
  • 图像
    +关注

    关注

    2

    文章

    1072

    浏览量

    40131
  • 模型
    +关注

    关注

    1

    文章

    2887

    浏览量

    48082

原文标题:DALL-E和Flamingo能相互理解吗?三个预训练SOTA神经网络统一图像和文本

文章出处:【微信号:CVer,微信公众号:CVer】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    爱芯元智推出边端侧智能SoCAX650N,让视觉更智能

    当前大模型蓬勃发展,OpenAI的Sora、ChatGPT、CLIP、DALL-E,Google的Gemini、ViT-22B,Meta的LLaMA3、DINO v2,
    的头像 发表于 05-09 14:39 769次阅读
    爱芯元智推出边端侧智能SoCAX650N,让视觉更智能

    让交通运输更安全、更高效,人工智能可以做些什么?

    一、前言 您或许已经尝试过在ChatGPT和Dall-E等生成式人工智能服务中创建一些酷炫的图片或优美的文章。在交通运输方面,工程师们也借助AI工具构思了一些关于自行车安全气囊或其他道路安全装置
    的头像 发表于 03-25 14:17 280次阅读
    让交通运输更安全、更高效,人工智能可以做些什么?

    sora模型怎么使用 sora模型对现实的影响

    行业目前大概只有平均“4s”的视频生成长度 Sora可以根据用户的文本提示创建最长60秒的逼真视频,该模型了解这些物体在物理世界中的存在方式,可以深度模拟真实物理世界,生成具有多个角色、包含特定运动的复杂场景。继承了DALL-E 3的画质和遵循指令能力,
    的头像 发表于 02-22 16:42 827次阅读

    sora最新消息 sora是什么意思

    。 Sora可以根据用户的文本提示创建最长60秒的逼真视频,该模型了解这些物体在物理世界中的存在方式,可以深度模拟真实物理世界,生成具有多个角色、包含特定运动的复杂场景。继承了DALL-E 3的画质和遵循指令能力,
    的头像 发表于 02-21 16:38 1496次阅读

    sora系列是哪个公司的 sora视频怎么用

    )正式对外发布。 sora视频怎么用 Sora可以根据用户的文本提示创建最长60秒的逼真视频,该模型了解这些物体在物理世界中的存在方式,可以深度模拟真实物理世界,生成具有多个角色、包含特定运动的复杂场景。继承了DALL-E 3的画质和遵循指令能力,
    的头像 发表于 02-21 16:35 3663次阅读

    OpenAI发布人工智能文生视频大模型Sora

    近日,人工智能领域的领军企业OpenAI宣布推出其最新的人工智能文生视频大模型——Sora。这款模型在继承DALL-E 3卓越画质和遵循指令能力的基础上,实现了对真实物理世界的深度模拟,为视频制作领域带来了前所未有的变革。
    的头像 发表于 02-20 13:54 523次阅读

    微软封禁员工讨论OpenAI DALL-E 3模型漏洞

    琼斯去年底在进行自主研究时,发现OpenAI的图像生成模型DALL-E 3存在一个漏洞,漏洞利用者可以越过AI保护墙来制作色情内容。他将此情况报告给微软和OpenAI,并发文警示这种攻击可能给公众带来危害,要求他们暂停使用DALL-E 3模型或在修复漏洞之前先下线。
    的头像 发表于 02-02 14:38 335次阅读

    CES亮点:AI赋能与产业创新 | DALL-E 3、SD等20+图像生成模型综述

    随着科技飞速发展,CES(国际消费电子展)已然成为全球科技产业的风向标,每年的CES大会都是业界瞩目的盛事。回顾2024年CES大会,不难发现其亮点纷呈,其中以人工智能的深度赋能为最引人注目之处。AI技术的深入应用成为CES大会上的一大亮点,各大厂商纷纷展示了在AI领域的最新成果。
    的头像 发表于 01-25 10:07 693次阅读
    CES亮点:AI赋能与产业创新 | <b class='flag-5'>DALL-E</b> 3、SD等20+图像生成模型综述

    微软推出Copilot安卓应用 类似ChatGPT功能

    微软在安卓系统上的Copilot应用程序与ChatGPT非常相似,可以访问聊天机器人功能,通过DALL-E 3生成图像,并可以为电子邮件和文档起草文本。它还包括免费访问OpenAI最新的GPT-4模型,如果你使用ChatGPT,你必须付费。
    的头像 发表于 12-28 16:59 719次阅读
    微软推出Copilot安卓应用 类似ChatGPT功能

    【AI简报20231020期】出自华人之手:DALL-E 3论文公布、上线ChatGPT!超火迷你GPT-4

    1. OpenAI终于Open一回:DALL-E 3论文公布、上线ChatGPT,作者一半是华人 原文: https://mp.weixin.qq.com/s
    的头像 发表于 10-21 16:35 809次阅读
    【AI简报20231020期】出自华人之手:<b class='flag-5'>DALL-E</b> 3论文公布、上线ChatGPT!超火迷你GPT-4

    人工智能的潜力

    是 OpenAI 的 DALL-E 2 图像生成器和 ChatGPT)是如火如荼的人工智能热潮的一个重要里程碑。 特别是 ChatGPT 强大的预测能力,让人们得以一窥人工智能跨众多垂直行业(industry verticals)的变革力量,这里,各公司将面临两难的困境,就是随着人工智能模型广度和深度的增长,如何有
    的头像 发表于 10-09 16:30 266次阅读
    人工智能的潜力

    基于GD32E505的图腾PFC双向储逆变器设计

    基于GD32E505的图腾PFC双向储逆变器设计
    的头像 发表于 09-27 15:24 1492次阅读
    基于GD32<b class='flag-5'>E</b>505的图腾PFC双向储<b class='flag-5'>能</b>逆变器设计

    OpenAI发布第三版DALL-E

    DALL-E于2021年1月首次发布,先于Stability AI和Midtravel的其他文本到图像生成AI艺术平台。到2022年DALL-E 2发布时,OpenAI打开了一个等待名单,以控制谁
    的头像 发表于 09-25 16:39 582次阅读

    【AI简报20230922期】华人AI芯片挑战英伟达,深入浅出理解Transformer

    ,OpenAI 的文生图 AI 工具 DALL-E 系列迎来了最新版本 DALLE 3,而上个版本 DALLE 2 还是在去年 4 月推
    的头像 发表于 09-23 12:15 635次阅读
    【AI简报20230922期】华人AI芯片挑战英伟达,深入浅出<b class='flag-5'>理解</b>Transformer

    伯克利AI实验室开源图像编辑模型InstructPix2Pix,简化生成图像编辑并提供一致结果

    之前的 AI 图像编辑能力通常是进行风格转换,流行的文本到图像生成模型(如 DALL-E 和 Stable Diffusion)也支持图像到图像风格转换操作。然而,使用这些模型进行有针对性的编辑仍然
    的头像 发表于 08-28 15:45 618次阅读
    伯克利AI实验室开源图像编辑模型InstructPix2Pix,简化生成图像编辑并提供一致结果