0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Meta开源ImageBind新模型,超越GPT-4,对齐文本、音频等6种模态!

AI科技大本营 来源:CSDN 2023-05-12 15:47 次阅读

据外媒报道,上周四,Google、微软、OpenAI 几家公司的 CEO 受邀去白宫,共论关于人工智能发展的一些重要问题。然而,让人有些想不通的是,深耕 AI 多年的 Meta 公司(前身为 Facebook)却没有在受邀之列。

没多久,更让 Meta CEO 扎克伯格扎心的是,一位官员对此解释称,本次会议“侧重的是目前在 AI 领域,尤其是面向消费者的产品方面,处于领先地位的公司。”

显然对于这样的解释,并不能让人信服,毕竟这一次受邀名单中还有一家由 OpenAI 的前成员创立的美国人工智能初创和公益公司 Anthropic。

似乎是为了出一口“气”,也为证明自家的实力,相比 OpenAI、Google 推出闭源的 GPT-4、Bard 模型,Meta 在开源大模型的路上一骑绝尘,继两个月前开源 LLaMA大模型之后,再次于5 月 9 日开源了一个新的 AI 模型——ImageBind(https://github.com/facebookresearch/ImageBind),短短一天时间,收获了 1.6k 个 Star。

这个模型与众不同之处便是可以将多个数据流连接在一起,包括文本、图像/视频音频、视觉、IMU、热数据和深度(Depth)数据。这也是业界第一个能够整合六种类型数据的模型。

4e2e0200-ef4d-11ed-90ce-dac502259ad0.gif

4f842c2e-ef4d-11ed-90ce-dac502259ad0.png

ImageBind 用图像对齐六模态,旨在实现感官大一统

简单来看,相比 Midjourney、Stable Diffusion 和 DALL-E 2 这样将文字与图像配对的图像生成器,ImageBind 更像是广撒网,可以连接文本、图像/视频、音频、3D 测量(深度)、温度数据(热)和运动数据(来自 IMU),而且它无需先针对每一种可能性进行训练,直接预测数据之间的联系,类似于人类感知或者想象环境的方式。

4f9daeb0-ef4d-11ed-90ce-dac502259ad0.png

对此,Meta 在其官方博客中也说道,“ImageBind 可以胜过之前为一种特定模式单独训练的技术模型。但最重要的是,它能使机器更好地一起分析许多不同形式的信息,从而有助于推进人工智能。”

打个比喻,人类可以听或者阅读一些关于描述某个动物的文本,然后在现实生活中看到就能认识。

你站在繁忙的城市街道等有刺激性环境中,你的大脑会(很大程度上应该是无意识地)吸收景象、声音和其他感官体验,以此推断有关来往的汽车、行人、高楼、天气等信息。

在很多场景中,一个单一的联合嵌入空间包含许多不同种类的数据,如声音、图像、视频等等。

如今,基于 ImageBind 这样的模型可以让机器学习更接近人类学习。

在官方博客中,Meta 分享 ImageBind 是通过图像的绑定属性,只要将每个模态的嵌入与图像嵌入对齐,即图像与各种模式共存,可以作为连接这些模式的桥梁,例如利用网络数据将文本与图像连接起来,或者利用从带有 IMU 传感器的可穿戴相机中捕获的视频数据将运动与视频连接起来。

4fea7c68-ef4d-11ed-90ce-dac502259ad0.png

ImageBind 整体概览

从大规模网络数据中学到的视觉表征可以作为目标来学习不同模态的特征。这使得 ImageBind 能够对齐与图像共同出现的任何模式,自然地将这些模式相互对齐。与图像有强烈关联的模态,如热学和深度,更容易对齐。非视觉的模态,如音频和 IMU,具有较弱的关联性。

ImageBind 显示,图像配对数据足以将这六种模式绑定在一起。该模型可以更全面地解释内容,使不同的模式可以相互 "对话",并在不观察它们的情况下找到联系。

例如,ImageBind 可以在没有看到它们在一起的情况下将音频和文本联系起来。这使得其他模型能够 "理解 "新的模式,而不需要任何资源密集型的训练。

500ec8ac-ef4d-11ed-90ce-dac502259ad0.png

不过,该模型目前只是一个研究项目,没有直接的消费者和实际应用,但是它展现了生成式 AI 在未来能够生成沉浸式、多感官内容的方式,也表明了 Meta 正在以与 OpenAI、Google 等竞争对手不同的方式,趟出一条属于开源大模型的路。

50381c20-ef4d-11ed-90ce-dac502259ad0.png

ImageBind 强大的背后

与此同时,作为一种多模态的模型,ImageBind 还加入了 Meta近期开源的一系列 AI 工具,包括DINOv2计算机视觉模型,这是一种不需要微调训练高性能计算机视觉模型的新方法;以及 Segment Anything(SAM),这是一种通用分割模型,可以根据任何用户的提示,对任何图像中的任何物体进行分割。

ImageBind 是对这些模型的补充,因为它专注于多模态表示学习。它试图为多种模式学习提供一个统一的特征空间,包括但不限于图像和视频。在未来, ImageBind 可以利用 DINOv2 的强大视觉特征来进一步提高其能力。

505233da-ef4d-11ed-90ce-dac502259ad0.png

ImageBind 的性能

针对 ImageBind 性能,Meta 研究科学家还发布了一篇《IMAGEBIND: One Embedding Space To Bind Them All》(https://dl.fbaipublicfiles.com/imagebind/imagebind_final.pdf)论文,分享了技术细则。

506a7652-ef4d-11ed-90ce-dac502259ad0.png

通过分析表明,ImageBind 模型的性能实际上可以通过使用很少的训练实例来提高。这个模型有新的出现的能力,或者说是扩展行为--也就是说,在较小的模型中不存在的能力,但在较大的版本中出现。这可能包括识别哪种音频适合某张图片或从照片中预测场景的深度。

而 ImageBind 的缩放行为随着图像编码器的强度而提高。

换句话说,ImageBind 对准各种模式的能力随着视觉模型的强度和大小而增加。这表明,较大的视觉模型有利于非视觉任务,如音频分类,而且训练这种模型的好处超出了计算机视觉任务。

在实验中,研究人员使用了 ImageBind 的音频和深度编码器,并将其与之前在 zero-shot 检索以及音频和深度分类任务中的工作进行了比较。

结果显示,ImageBind 可以用于少量样本的音频和深度分类任务,并且优于之前定制的方法。

5074f2bc-ef4d-11ed-90ce-dac502259ad0.png

最终,Meta 认为ImageBind 这项技术最终会超越目前的六种“感官”,其在博客上说道,“虽然我们在当前的研究中探索了六种模式,但我们相信引入连接尽可能多的感官的新模式——如触觉、语音、嗅觉和大脑 fMRI 信号——将使更丰富的以人为中心的人工智能模型成为可能。”

508760d2-ef4d-11ed-90ce-dac502259ad0.png

ImageBind 可以用来干什么?

如果说 ChatGPT 可以充当搜索引擎、问答社区,Midjourney 可以被用来当画画工具,那么用 ImageBind 可以做什么?

根据官方发布的 Demo 显示,它可以直接用图片生成音频:

509ba04c-ef4d-11ed-90ce-dac502259ad0.png

也可以音频生成图片:

51069f46-ef4d-11ed-90ce-dac502259ad0.png

亦或者直接给一个文本,就可以检索相关的图片或者音频内容:

5112d252-ef4d-11ed-90ce-dac502259ad0.png

当然,基于 ImageBind 也可以给出一个音频+一张图,如“狗叫声”+海景图:

517f3b36-ef4d-11ed-90ce-dac502259ad0.png

可以直接得到一张“狗在看海”的图:

51ac6ec6-ef4d-11ed-90ce-dac502259ad0.png

也可以给出音频,生成相应的图像:

51cfd636-ef4d-11ed-90ce-dac502259ad0.png

正如上文所述, ImageBind 给出了未来生成式 AI 系统可以以多模态呈现的方式,同时,结合 Meta 内部的虚拟现实、混合现实和元宇宙等技术和场景结合。

可以想象一下未来的头显设备,它不仅可以生成音频和视频输入,也可以生成物理舞台上的环境和运动,即可以动态构建 3D 场景(包括声音、运动等)。

亦或者,虚拟游戏开发人员也许最终可以使用它来减少设计过程中的大量跑腿工作。

同样,内容创作者可以仅基于文本、图像或音频输入制作具有逼真的音频和动作的沉浸式视频。

也很容易想象,用 ImageBind 这样的工具会在无障碍空间打开新的大门,譬如,生成实时多媒体描述来帮助有视力或听力障碍的人更好地感知他们的直接环境。

“在典型的人工智能系统中,每个模态都有特定的嵌入(即可以表示数据及其在机器学习中的关系的数字向量),”Meta 说。“ImageBind 表明可以跨多种模态创建联合嵌入空间,而无需使用每种不同模态组合对数据进行训练。这很重要,因为研究人员无法创建包含例如来自繁忙城市街道的音频数据和热数据,或深度数据和海边文本描述的样本的数据集。”

当前,外界可以通过大约 30 行 Python 代码就能使用这个多模式嵌入 API:

51df03ea-ef4d-11ed-90ce-dac502259ad0.jpg

51fba202-ef4d-11ed-90ce-dac502259ad0.png

开源大模型是好事还是坏事?

ImageBind 一经官宣,也吸引了很多 AI 专家的关注。如卷积网络之父 Yann LeCun 也在第一时间分享了关于 ImageBind 的资料

520d8fc6-ef4d-11ed-90ce-dac502259ad0.png

NVIDIA AI 科学家 Jim Fan 在 Twitter 上表示:

自从 LLaMA 以来,Meta 就在开源领域大放异彩。

ImageBind:Meta 最新的多模态嵌入,不仅涵盖了常规数据类型(文本、图像、音频),还包括深度、热量(红外)和 IMU 信号!

OpenAI Embedding 是 AI 驱动搜索和长期记忆的基础。ImageBind 是 Meta 的 Embedding API,用于丰富的多媒体搜索、虚拟现实甚至机器人技术。元宇宙将建立在向量的基础上。

通过对齐 6 种模态,你可以实现一些仅靠文本的 GPT-4 无法实现的花式功能:

跨模态检索:将其视为多媒体谷歌搜索

嵌入空间算术:无缝地组合不同的数据格式。

生成:通过扩散将任何模态映射到其他任何模态。

当然,这种通用的多模态嵌入在性能上优于领域特定的特征。

ImageBind:将它们全部绑定到一个嵌入空间。

5227cab2-ef4d-11ed-90ce-dac502259ad0.png

也有网友评价道,「这项创新为增强搜索、沉浸式 VR 体验和高级机器人技术铺平了道路。对于 AI 爱好者和专业人士来说,激动人心的时刻即将到来!」。

5237a108-ef4d-11ed-90ce-dac502259ad0.png

不过,对于 Meta 采取开源的做法,也有人提出了质疑。

据 The Verge 报道,那些反对开源的人,如 OpenAI,表示这种做法对创作者有害,因为竞争对手可以复制他们的作品,并且可能具有潜在的危险,允许恶意行为者利用最先进的人工智能模型。

与之形成对比的是,支持开源的人则认为,像 Meta 开源 ImageBind 的做法有利于生态的快速建立与发展,也能集结全球的力量,帮助 AI 模型快速迭代和捕捉 Bug。

早些时候,Meta开源的LLaMA 模型只能用于研究用途,但是期间LLaMA 模型在 4chan 上被泄露,有匿名用户通过 BT 种子公开了 LLaMA-65B—— 有650 亿个参数的 LLaMA,容量为 220GB。

随着 LLaMA “被公开”,一大批基于这款大模型的衍生品,号称是 ChatGPT 开源替代品的工具在短时间内快速涌现,如跟着LLaMA(美洲驼)名字走的“驼类”家族包含了:斯坦福大学发布的Alpaca(羊驼,https://github.com/tatsu-lab/stanford_alpaca),伯克利、卡内基梅隆大学等高校研究人员开源的Vicuna(骆马),还有基于 LLaMA 7B 的多语言指令跟随语言模型 Guanaco(原驼,https://guanaco-model.github.io/)等等。

面对这股新兴的力量,近日,在一位谷歌内部的研究人员泄露的一份文件中显示,在大模型时代,「Google 没有护城河,OpenAI 也没有」。其主要原因就是第三股——开源大模型的力量与生态正在崛起。

所以,OpenAI 和 Google 两家在 AI 大模型上你追我赶的竞争中,谁能笑到最后,也未必就不会是 Meta,我们也将拭目以待。对此,你是否看好开源大模型的发展?

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开源
    +关注

    关注

    3

    文章

    3335

    浏览量

    42483
  • 模型
    +关注

    关注

    1

    文章

    3238

    浏览量

    48824
  • Meta
    +关注

    关注

    0

    文章

    271

    浏览量

    11386

原文标题:Meta 开源 ImageBind 新模型,超越 GPT-4,对齐文本、音频等 6 种模态!

文章出处:【微信号:AI科技大本营,微信公众号:AI科技大本营】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Meta发布多模态LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一项重要技术突破,成功推出了多模态LLAMA 3.2人工智能模型。这一创新模型不仅能够深度解析文本信息
    的头像 发表于 09-27 11:44 404次阅读

    OpenAI推出新模型CriticGPT,用GPT-4自我纠错

    基于GPT-4模型——CriticGPT,这款模型专为捕获ChatGPT代码输出中的错误而设计,其独特的作用在于,让人们能够用GPT-4来查找GP
    的头像 发表于 06-29 09:55 547次阅读

    国内直联使用ChatGPT 4.0 API Key使用和多模态GPT4o API调用开发教程!

    1. 前言 ChatGPT-4o API 是 OpenAI 提供的强大工具,可用于自然语言处理和多模态任务。在国内直联使用这些服务需要一些配置和技巧。本文将详细介绍GPT-4o模型以及
    的头像 发表于 06-08 00:33 4944次阅读
    国内直联使用ChatGPT 4.0 API Key使用和多<b class='flag-5'>模态</b><b class='flag-5'>GPT4</b>o API调用开发教程!

    OpenAI全新GPT-4o能力炸场!速度快/成本低,能读懂人类情绪

    ”的意思。GPT-4o文本、推理、编码能力达到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的两倍,但成本仅为
    的头像 发表于 05-15 00:15 7822次阅读

    阿里云发布通义千问2.5大模型,多项能力超越GPT-4

    阿里云隆重推出了通义千问 2.5 版,宣称其“技术进步,全面超越GPT-4”,尤其是在中文环境中的多种任务(如文本理解、文本生成、知识问答及生活建议、临时聊天及对话以及安全风险评估)方
    的头像 发表于 05-09 14:17 955次阅读

    讯飞星火大模型V3.5春季升级,多领域知识问答超越GPT-4 Turbo 

    刘庆峰指出,现如今,星火大模型在通用长文本处理能力方面已相当成熟,覆盖长文档信息抽取、知识问答、归纳总结、文本生成诸多领域,整体表现已达GPT-4
    的头像 发表于 04-26 14:26 1043次阅读

    商汤科技发布5.0多模态模型,综合能力全面对标GPT-4 Turbo

    商汤科技发布5.0多模态模型,综合能力全面对标GPT-4 Turbo 4月23日,商汤科技董事长兼CEO徐立在2024商汤技术交流日上发布了行业首个云、端、边全栈大
    的头像 发表于 04-24 16:49 1104次阅读

    Meta推出最强开源模型Llama 3 要挑战GPT

    公司这次开源了Llama 3 8B与70B两款不同规模的模型,开发者可以免费使用,而Meta公司还将陆续推出一系列具备多模态、多语言对话、更长上下文窗口
    的头像 发表于 04-19 17:00 835次阅读

    OpenAI设立日本办事处,研发日文版GPT-4

    此外,OpenAI 还计划推出适用于日语环境的 GPT-4 定制版模型。据悉,该模型在处理日文文本时表现更为出色,运行速度最高可提升至三倍;同时,其在翻译和总结日语
    的头像 发表于 04-15 16:04 486次阅读

    OpenAI推出Vision模型GPT-4 Turbo,融合文本与图像理解

    据悉,此模型沿用GPT-4 Turbo系列特有的12.8万token窗口规模及截至2023年12月的知识库架构,其创新亮点则是强大的视觉理解功能。
    的头像 发表于 04-10 10:49 406次阅读

    微软Copilot全面更新为OpenAI的GPT-4 Turbo模型

    起初,Copilot作为Bing Chat AI助手推出,初期采用GPT-3.5模型,随后升级至GPT-4取得显著进步,如今再次更新至性能卓越的GPT-4 Turbo
    的头像 发表于 03-13 13:42 729次阅读

    OpenAI推出ChatGPT新功能:朗读,支持37语言,兼容GPT-4GPT-3

    据悉,“朗读”功能支持37语言,且能够自主识别文本类型并对应相应的发音。值得关注的是,该功能对GPT-4以及GPT-3.5版本的ChatGPT均适用。此举彰显了OpenAI致力于“多
    的头像 发表于 03-05 15:48 920次阅读

    全球最强大模型易主,GPT-4超越

    近日,AI领域的领军企业Anthropic宣布推出全新的Claude 3系列模型,其中包括最强版Claude 3 Opus。据该公司称,Claude 3系列在推理、数学、编码、多语言理解和视觉方面全面超越了包括GPT-4在内的所
    的头像 发表于 03-05 09:58 651次阅读

    Anthropic推出Claude 3系列模型,全面超越GPT-4,树立AI新标杆

    近日,AI领域的领军企业Anthropic震撼发布了全新的Claude 3系列模型,该系列模型在多模态和语言能力关键领域展现出卓越性能,成功击败了此前被广泛认为是全球最强AI
    的头像 发表于 03-05 09:49 682次阅读

    全球最强大模型易主:GPT-4超越,Claude 3系列崭露头角

    近日,人工智能领域迎来了一场革命性的突破。Anthropic公司发布了全新的Claude 3系列模型,该系列模型在多模态和语言能力关键指标上展现出卓越性能,成功
    的头像 发表于 03-05 09:42 647次阅读