0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Llama 3 王者归来,Airbox 率先支持部署

算能开发者社区 2024-04-22 08:33 次阅读

前天,智算领域迎来一则令人振奋的消息:Meta 正式发布了备受期待的开源大模型——Llama 3。

ed9ee800-003f-11ef-9118-92fbcf53809c.png

Llama 3 的卓越性能

Meta 表示,Llama 3 在多个关键基准测试中展现出卓越性能,超越了业内先进的同类模型。无论是在代码生成、复杂推理,还是在遵循指令和可视化想法方面,Llama 3 都实现了全面领先。该模型在以下五个基准测试中均表现出色:

MMLU(学科知识理解)

GPQA(一般问题解答)

HumanEval(代码能力)

GSM-8K(数学能力)

MATH(高难度数学问题)

无论是 8B 规格的 Llama3 还是 70B 规格,它们都较市场上其他优秀大模型表现更佳。

edb0b3c8-003f-11ef-9118-92fbcf53809c.png

纵向对比显示,Llama 3 的性能大幅领先于前代产品 Llama 2,尤其是在 8B 规格上,远超过 Llama 2 时代的 13B 和 70B 规格;新的 70B 规格更是展现出与 GPT-4 早期版本相媲美的能力。

指令调优模型

Benchmark

Llama 3

8B

Llama 2

7B

Llama 2

13B

Llama 3

70B

Llama 2

70B

MMLU

(5-shot)

68.434.147.88252.9

GPQA

(0-shot)

34.221.722.339.521

HumanEval

(0-shot)

62.27.91481.725.6

GSM-8K

(8-shot, CoT)

79.625.777.49357.5

MATH

(4-shot, CoT)

303.86.750.411.6

瑞莎 Airbox 快速支持 Llama 3

面对 Llama 3 如此激动人心的性能,Airbox 团队积极响应,快速将 Llama 8B 移植并成功在 Airbox 上运行。以下视频展示了 Llama 8B 在 Airbox 上的运行情况:


(注:Llama 3 8B 知识更新到 2023 年 3 月)

可以看到,Llama 3 8B 在 Airbox 上的运行表现极为流畅,达到了 9.6 token/s 的处理速度,已充分展现出其实用价值。与其他应用结合使用时,更开辟了广阔的应用前景和创新可能性。Airbox 团队后续会对 Llama 3 8B 做更多测试并公布结果。

关于瑞莎 Fogwise Airbox

瑞莎智算盒子 Fogwise Airbox 是一款面向侧端生成式智算的边缘计算微型服务器,基于算能最新专为生成式智算打造的 SG2300X 处理器设计,具有开箱即用,本地离线部署,注重数据隐私,多精度支持,高能效比,高性价比,系统/文档/工具链开源等特点,是当前为数不多甚至是唯一的低成本在边缘侧部署生成式智算的方案。

瑞莎 Fogwise Airbox 现已准备就绪,即将在近期发售,敬请期待。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 基准测试
    +关注

    关注

    0

    文章

    12

    浏览量

    7552
  • 开源
    +关注

    关注

    3

    文章

    3044

    浏览量

    41829
  • 大模型
    +关注

    关注

    2

    文章

    1884

    浏览量

    1506
收藏 人收藏

    评论

    相关推荐

    【算能RADXA微服务器试用体验】+ GPT语音与视觉交互:1,LLM部署

    。环境变量的配置,未来在具体项目中我们会再次提到。 下面我们正式开始项目。项目从输入到输出分别涉及了语音识别,图像识别,LLM,TTS这几个与AI相关的模块。先从最核心的LLM开始。 由于LLAMA3
    发表于 06-25 15:02

    【AIBOX上手指南】快速部署Llama3

    Firefly开源团队推出了Llama3部署包,提供简易且完善的部署教程,过程无需联网,简单快捷完成本地化部署。点击观看Llama3快速
    的头像 发表于 06-06 08:02 164次阅读
    【AIBOX上手指南】快速<b class='flag-5'>部署</b><b class='flag-5'>Llama</b>3

    Optimum Intel三步完成Llama3在算力魔方的本地量化和部署

    Llama3 是Meta最新发布的开源大语言模型(LLM), 当前已开源8B和70B参数量的预训练模型权重,并支持指令微调。
    的头像 发表于 05-10 10:34 550次阅读
    Optimum Intel三步完成<b class='flag-5'>Llama</b>3在算力魔方的本地量化和<b class='flag-5'>部署</b>

    高通支持Meta Llama 3在骁龙终端上运行

    高通与Meta携手合作,共同推动Meta的Llama 3大语言模型(LLM)在骁龙驱动的各类终端设备上实现高效运行。此次合作致力于优化Llama 3在智能手机、个人电脑、VR/AR头显及汽车等领域的执行性能。
    的头像 发表于 05-09 10:37 209次阅读

    让生成式AI触手可及 ——AirBox 正式开放预定

    让生成式AI触手可及 ——AirBox 正式开放预定
    的头像 发表于 04-26 08:34 260次阅读
    让生成式AI触手可及 ——<b class='flag-5'>AirBox</b> 正式开放预定

    高通支持Meta Llama 3大语言模型在骁龙旗舰平台上实现终端侧执行

    高通和Meta合作优化Meta Llama 3大语言模型,支持在未来的骁龙旗舰平台上实现终端侧执行。
    的头像 发表于 04-20 09:13 251次阅读

    LLaMA 2是什么?LLaMA 2背后的研究工作

    Meta 发布的 LLaMA 2,是新的 sota 开源大型语言模型 (LLM)。LLaMA 2 代表着 LLaMA 的下一代版本,并且具有商业许可证。
    的头像 发表于 02-21 16:00 589次阅读

    大模型笔记之gem5运行模型框架LLama介绍

    LLama.cpp 支持x86,arm,gpu的编译。
    的头像 发表于 01-22 09:10 695次阅读
    大模型笔记之gem5运行模型框架<b class='flag-5'>LLama</b>介绍

    【飞腾派4G版免费试用】仙女姐姐的嵌入式实验室之五~LLaMA.cpp及3B“小模型”OpenBuddy-StableLM-3B

    ,根据LLaMA官方的介绍,要想运行该模型需要30GB左右显存的显卡支持,这是边缘终端甚至个人电脑难以做到的,后来,GitHub上的一位开发者ggerganov发布了llama.cpp项目,该项
    发表于 12-22 10:18

    如何本地部署大模型

    近期,openEuler A-Tune SIG在openEuler 23.09版本引入llama.cpp&chatglm-cpp两款应用,以支持用户在本地部署和使用免费的开源大语言模型,无需联网也能使用!
    的头像 发表于 10-18 11:48 2036次阅读
    如何本地<b class='flag-5'>部署</b>大模型

    Llama 2性能如何

    在几乎所有基准上,Llama 2 70B 的结果均与谷歌 PaLM (540B) 持平或表现更好,不过与 GPT-4 和 PaLM-2-L 的性能仍存在较大差距。
    发表于 07-23 13:00 1204次阅读
    <b class='flag-5'>Llama</b> 2性能如何

    高通携手Meta利用Llama 2赋能终端侧AI应用

    因此,高通技术公司计划支持基于llama 2的终端ai部署,以创建新的、有趣的ai应用程序。通过这种方式,客户、合作伙伴和开发者可以构建智能模拟器、生产力应用程序、内容制作工具和娱乐等的使用案例。骁龙®赋能实现的新终端ai体验,
    的头像 发表于 07-19 10:26 521次阅读
    高通携手Meta利用<b class='flag-5'>Llama</b> 2赋能终端侧AI应用

    高通携手Meta利用Llama 2赋能终端侧AI应用

    高通计划从2024年起,在旗舰智能手机和PC上支持基于Llama 2的AI部署,赋能开发者使用骁龙平台的AI能力,推出激动人心的全新生成式AI应用。
    的头像 发表于 07-19 10:00 629次阅读

    高通携手Meta利用Llama 2赋能终端侧AI应用

    要点 — •  高通 计划从2024 年起,在旗舰智能手机和PC上支持基于Llama 2的AI部署,赋能开发者使用骁龙平台的AI能力,推出激动人心的全新生成式AI应用。 •  与仅仅使用云端AI
    的头像 发表于 07-19 10:00 409次阅读
    高通携手Meta利用<b class='flag-5'>Llama</b> 2赋能终端侧AI应用

    RISC-V 跑大模型(三):LLaMA中文扩展

    这是RISC-V跑大模型系列的第三篇文章,前面我们为大家介绍了如何在RISC-V下运行LLaMA,本篇我们将会介绍如何为LLaMA提供中文支持
    的头像 发表于 07-17 17:15 624次阅读
    RISC-V 跑大模型(三):<b class='flag-5'>LLaMA</b>中文扩展