0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英特尔AI产品助力其运行Meta新一代大语言模型Meta Llama 3

英特尔中国 来源:英特尔中国 2024-04-28 11:16 次阅读

英特尔丰富的AI产品——面向数据中心的至强处理器,边缘处理器及AI PC等产品为开发者提供最新的优化,助力其运行Meta新一代大语言模型Meta Llama 3

Meta近日推出其下一代大语言模型(LLM)——Meta Llama 3。在发布的第一时间,英特尔即优化并验证了80亿和700亿参数的Llama 3模型能够在英特尔至强处理器、英特尔Gaudi加速器、英特尔酷睿Ultra处理器和英特尔锐炫显卡的AI产品组合上运行。

英特尔一直积极与AI软件生态系统的领先企业展开合作,致力于提供兼具性能与易用性的解决方案。Meta Llama 3是AI大语言模型重要迭代的新一浪潮。作为AI软硬件产品技术创新的引领者,英特尔很开心能够与Meta合作,充分挖掘诸如Llama 3等模型的潜力,助力生态伙伴开发领先的AI应用。

重要意义:秉承推动AI无处不在的愿景,英特尔持续深耕软件和AI生态,以确保其产品能够满足AI领域持续变化的创新需求。在数据中心,集成英特尔高级矩阵扩展加速引擎(IntelAMX)的英特尔至强处理器和英特尔Gaudi能够为满足客户不断变化、多元化的需求提供更多选择。

英特尔酷睿Ultra处理器和英特尔锐炫显卡不仅为开发者提供了本地开发工具,也为在数百万台设备上进行部署提供全面的软件框架和工具支持。其中,包括PyTorch和用于本地研发的英特尔PyTorch扩展包,以及用于模型开发和推理的OpenVINO工具包等。

在英特尔产品上运行Llama 3:英特尔初步测试和评估80亿和700亿参数的Llama 3模型在自身产品上的性能时,使用了包括PyTorch、DeepSpeed、英特尔Optimum Habana库和英特尔PyTorch扩展包在内的开源软件,并提供最新的软件优化。

●英特尔至强处理器能够运行严苛的端到端AI工作负载,同时为了降低延迟,英特尔也通过技术创新来优化大语言模型的推理性能。配备性能核的英特尔至强6处理器(代号Granite Rapids)在运行80亿参数的Llama 3模型推理时,延迟比第四代英特尔至强处理器表现出两倍的提升,并且能够以低于100毫秒的token延迟运行700亿参数的Llama 3模型推理。

●英特尔Gaudi 2加速器在70亿、130亿和700亿参数的Llama 2模型上具备优化的性能,现在其基于全新的Llama 3模型也有了初步性能测试。随着英特尔Gaudi软件的更新,英特尔能够轻松运行新的Llama 3模型,并为推理和微调生成结果。近期发布的英特尔Gaudi 3加速器也支持运行Llama 3。

●英特尔酷睿Ultra和英特尔锐炫显卡在运行Llama 3时亦展现出卓越的性能。在初步测试中,英特尔酷睿Ultra处理器已经展现出远高于人类通常阅读速度的输出生成性能。此外,英特尔锐炫A770 显卡具备Xe内核中的全新矩阵引擎(Xe Matrix eXtensions,XMX)AI加速和16GB显存,进一步为大语言模型工作负载提供卓越性能。

未来,Meta将增加新的能力、更多模型尺寸以及增强的性能。英特尔也将持续提升自身AI产品性能,以支持这一全新的大语言模型。



审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19259

    浏览量

    229647
  • 英特尔
    +关注

    关注

    61

    文章

    9949

    浏览量

    171687
  • 加速器
    +关注

    关注

    2

    文章

    796

    浏览量

    37838
  • 生成式AI
    +关注

    关注

    0

    文章

    502

    浏览量

    471
  • AI大模型
    +关注

    关注

    0

    文章

    315

    浏览量

    305

原文标题:英特尔至强和AI PC等产品为Meta Llama 3生成式AI工作负载提供加速

文章出处:【微信号:英特尔中国,微信公众号:英特尔中国】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Meta发布新AI模型Meta Motivo,旨在提升元宇宙体验

    Meta在人工智能领域迈出了重要步。通过这款模型Meta希望能够为用户提供更加自然、流畅的元宇宙交互体验。数字代理在元宇宙中的动作将更加逼真,从而增强用户的沉浸感和参与度。 除了
    的头像 发表于 12-16 10:34 234次阅读

    Meta发布Llama 3.2量化版模型

    近日,Meta在开源Llama 3.2的1B与3B模型后,再次为人工智能领域带来了新进展。10月24日,Meta正式推出了这两个
    的头像 发表于 10-29 11:05 372次阅读

    亚马逊云科技上线Meta Llama 3.2模型

    亚马逊云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平台上正式上线。该模型包括Meta
    的头像 发表于 10-11 18:08 444次阅读

    亚马逊云科技正式上线Meta Llama 3.2模型

    亚马逊云科技宣布,Meta新一代模型Llama 3.2,包括首款多模态模型,现已在Amazo
    的头像 发表于 10-11 09:20 504次阅读

    Meta发布全新开源大模型Llama 3.1

    科技巨头Meta近期震撼发布了最新的开源人工智能(AI模型——Llama 3.1,这举措标
    的头像 发表于 07-24 18:25 1430次阅读

    Meta即将发布超强开源AI模型Llama 3-405B

    在人工智能领域的激烈竞争中,Meta公司再次掷出重磅炸弹,宣布将于7月23日正式发布最新力作——Llama 3-405B,个拥有惊人40
    的头像 发表于 07-18 09:58 983次阅读

    Meta Llama 3基础模型现已在亚马逊云科技正式可用

    亚马逊云科技近日宣布,Meta公司最新发布的两款Llama 3基础模型——Llama 3 8B和
    的头像 发表于 05-09 10:39 394次阅读

    高通支持Meta Llama 3在骁龙终端上运行

    高通与Meta携手合作,共同推动MetaLlama 3语言模型(LLM)在骁龙驱动的各类终端
    的头像 发表于 05-09 10:37 428次阅读

    高通与Meta合作优化Meta Llama 3,实现终端侧运行

    高通技术公司高级副总裁兼技术规划和边缘解决方案业务总经理马德嘉表示:“我们对Meta开放Meta Llama 3的策略表示赞赏,高通与Meta
    的头像 发表于 04-22 09:51 459次阅读

    高通支持Meta Llama 3语言模型在骁龙旗舰平台上实现终端侧执行

    高通和Meta合作优化Meta Llama 3语言模型,支持在未来的骁龙旗舰平台上实现终端侧执
    的头像 发表于 04-20 09:13 498次阅读

    Meta推出最强开源模型Llama 3 要挑战GPT

    公司这次开源了Llama 3 8B与70B两款不同规模的模型,开发者可以免费使用,而Meta公司还将陆续推出系列具备多模态、多
    的头像 发表于 04-19 17:00 832次阅读

    Meta推出新一代语言模型LLAMA 3,性能优于GPT-3.5

    Meta决定将Llama 3的80亿参数版开源,以期让更多人能够接触到尖端的AI技术。全球范围内的开发者、研究员以及对AI充满好奇的人士均可
    的头像 发表于 04-19 10:21 857次阅读

    Meta发布开源大模型Code Llama 70B

    近日,Meta宣布推出了款新的开源大模型Code Llama 70B,这是“Code Llama
    的头像 发表于 01-31 09:24 920次阅读

    Meta推出最新版AI代码生成模型Code Llama70B

    Meta近日宣布了最新版本的AI代码生成模型Code Llama70B,并称其为“目前最大、最优秀的
    的头像 发表于 01-30 18:21 1442次阅读

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    和语法规则,将这些词汇串联起来,形成个完整的回答 关于LLaMALLaMA.cpp LLaMA全称是Large Language Model
    发表于 12-22 10:18