0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

iPhone都能微调大模型了嘛

深度学习自然语言处理 来源:深度学习自然语言处理 2023-06-02 15:26 次阅读

自动测试分数达到ChatGPT的99.3%,人类难以分辨两者的回答……

这是开源大模型最新成果,来自羊驼家族的又一重磅成员——华盛顿大学原驼Guanaco)。

更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的显存需求从>780GB降低到<48GB

开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。

以Meta的美洲驼LLaMA为基础,得到原驼650亿参数版只需要48GB显存单卡微调24小时,330亿参数版只需要24GB显存单卡微调12小时

24GB显存,也就是一块消费级RTX3090或RTX4090显卡足以。

不少网友在测试后也表示,更喜欢它而不是ChatGPT。

英伟达科学家Jim Fan博士对此评价为:大模型小型化的又一里程碑

先扩大规模再缩小,将成为开源AI社区的节奏。

而新的高效微调方法QLoRA迅速被开源社区接受,HuggingFace也在第一时间整合上线了相关代码。

GPT-4做裁判,原驼得分达到ChatGPT的99.3%

论文中,团队对原驼总共做了三项测试,自动评估、随机匹配和人类评估。

测试数据来自小羊驼Vicuna和Open Assistant。

自动评估由大模型天花板GPT-4当裁判,对不同模型的回答进行打分,以ChatGPT(GPT3.5)的成绩作为100%。

最终原驼650亿版得分达到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

07234144-fbd8-11ed-90ce-dac502259ad0.png

随机匹配,采用棋类专业比赛和电子竞技同款的Elo记分机制,由GPT-4和人类共同做裁判。

原驼650亿和330亿版最终得分超过ChatGPT(GPT3.5)。

0742960c-fbd8-11ed-90ce-dac502259ad0.png

人类评估,则是把原驼650亿版的回答和ChatGPT的回答匿名乱序放在一起,人类来盲选哪个最好。

论文共同一作表示,研究团队里的人都很难分辨出来,并把测试做成了一个小游戏放在Colab上,开放给大家挑战。

076a3edc-fbd8-11ed-90ce-dac502259ad0.png

这里节选其中一个问题(附中文翻译),你能分辨出哪个是ChatGPT回答的吗?

问题:How can I improve my time management skills?(如何提高时间管理技能?)

079eccc4-fbd8-11ed-90ce-dac502259ad0.png

总的来说,原驼的优势在于不容易被问题中的错误信息误导,比如能指出地球从来没有被科学界认为是平的。

以及擅长心智理论(Theory of Mind),也就是能推测理解他人的心理状态

0819a64c-fbd8-11ed-90ce-dac502259ad0.png

但原驼也并非没有弱点,团队发发现它不太擅长数学,以及容易用提示注入攻击把要求保密的信息从它嘴里套出来。

也有网友表示,虽然一个模型能在某个数据集上无限接近ChatGPT,但像ChatGPT那样通用还是很难的。

全新方法QLoRA,iPhone都能微调大模型了

原驼论文的核心贡献是提出新的微调方法QLoRA

其中Q代表量化(Quantization),用低精度数据类型去逼近神经网络中的高精度浮点数,以提高运算效率。

LoRA是微软团队在2021年提出的低秩适应(Low-Rank Adaptation)高效微调方法,LoRA后来被移植到AI绘画领域更被大众熟知,但最早其实就是用于大语言模型的。

通常来说,LoRA微调与全量微调相比效果会更差,但团队将LoRA添加到所有的线性层解决了这个问题。

具体来说,QLoRA结合了4-bit量化和LoRA,以及团队新创的三个技巧:新数据类型4-bit NormalFloat分页优化器(Paged Optimizers)和双重量化(Double Quantization)。

最终QLoRA让4-bit的原驼在所有场景和规模的测试中匹配16-bit的性能

0896aea8-fbd8-11ed-90ce-dac502259ad0.png

QLoRA的高效率,让团队在华盛顿大学的小型GPU集群上每天可以微调LLaMA 100多次……

最终使用Open Assistant数据集微调的版本性能胜出,成为原驼大模型。

Open Assistant数据集来自非盈利研究组织LAION(训练Stable Diffusion的数据集也来自这里),虽然只有9000个样本但质量很高,经过开源社区的人工仔细验证。

这9000条样本用于微调大模型,比100万条指令微调(Instruction Finetune)样本的谷歌FLAN v2效果还好。

研究团队也据此提出两个关键结论:

指令微调有利于推理,但不利于聊天

最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作Tim Dettmers估计以iPhone 12 Plus的算力每个晚上能微调300万个单词的数据量。

这意味着,很快手机上的每个App都能用上专用大模型。
责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • iPhone
    +关注

    关注

    28

    文章

    13439

    浏览量

    201293
  • 显存
    +关注

    关注

    0

    文章

    108

    浏览量

    13635
  • 模型
    +关注

    关注

    1

    文章

    3097

    浏览量

    48625

原文标题:开源「原驼」爆火,iPhone都能微调大模型了,得分逼近ChatGPT!

文章出处:【微信号:zenRRan,微信公众号:深度学习自然语言处理】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    iPhone X Plus和iPhone 9的最新消息模型机和保护壳的体验

    国外有网友带来了最新的 iPhone X Plus 和 iPhone 9 模型机和保护壳上手体验。传言称 iPhone X Plus 搭载 6.5 寸显示屏,而
    的头像 发表于 07-07 10:43 4400次阅读

    苹果新款iPhone X Plus和LCD iPhone的机器模型泄露

    手机圈内比较知名的爆料者,爆料了两款据称是苹果 2018 年新一代 iPhone 的机器模型,包括 6.5 英寸 iPhone X Plus 和 6.1 英寸LCD iPhone
    发表于 07-31 00:04 831次阅读

    文本分类任务的Bert微调trick大全

    1 前言 大家现在打比赛对预训练模型非常喜爱,基本上作为NLP比赛基线首选(图像分类也有预训练模型)。预训练模型虽然很强,可能通过简单的微调就能给我们带来很大提升,但是大家会发现比赛做
    的头像 发表于 07-18 09:49 2435次阅读

    使用NVIDIA TAO工具包和Appen实现AI模型微调

    NVIDIA TAO 工具包与 Appen 的数据平台相结合,使您能够训练、微调和优化预训练模型,以更快地启动人工智能解决方案。在不牺牲质量的情况下,将开发时间缩短十倍。在NVIDIA 和 Appen 的综合专业知识和工具的帮助下,您将满怀信心地推出人工智能。
    的头像 发表于 04-13 15:29 1297次阅读
    使用NVIDIA TAO工具包和Appen实现AI<b class='flag-5'>模型</b><b class='flag-5'>微调</b>

    VREFBUF外设应用和微调技术

    VREFBUF外设应用和微调技术
    发表于 11-21 17:07 0次下载
    VREFBUF外设应用和<b class='flag-5'>微调</b>技术

    有哪些省内存的大语言模型训练/微调/推理方法?

    首先,我们需要了解如何根据参数量估计模型大致所需的 RAM,这在实践中有很重要的参考意义。我们需要通过估算设置 batch_size,设置模型精度,选择微调方法和参数分布方法等。
    的头像 发表于 04-10 11:41 1341次阅读

    调教LLaMA类模型没那么难,LoRA将模型微调缩减到几小时

    工智能领域,以高效和有效的方式使用大型语言模型正变得越来越重要。 LoRA(Low-Rank Adaption,低秩自适应) 作为微调 LLMs 一种比较出圈的技术,其额外引入了可训练的低秩分解矩阵,同时固定住预训练权重,从而大大减少了下游任务的可训练参数数量。
    的头像 发表于 05-28 10:58 2536次阅读
    调教LLaMA类<b class='flag-5'>模型</b>没那么难,LoRA将<b class='flag-5'>模型</b><b class='flag-5'>微调</b>缩减到几小时

    中软国际参加首期百度智能云文心千帆大模型SFT微调能力实训营

    2023年7月15日,中软国际受邀在百度大厦参加了首期百度智能云文心千帆大模型SFT微调能力实训营。此次培训旨在提高合作伙伴对大模型的理解和落地能力,更好地帮助客户落地大模型和相关应用
    的头像 发表于 07-17 18:15 778次阅读
    中软国际参加首期百度智能云文心千帆大<b class='flag-5'>模型</b>SFT<b class='flag-5'>微调</b>能力实训营

    OpenAI开放大模型微调功能 GPT-3.5可以打造专属ChatGPT

    OpenAI开放大模型微调功能 GPT-3.5可以打造专属ChatGPT OpenAI开放大模型微调功能,这意味着GPT-3.5 Turbo支持自定义
    的头像 发表于 08-23 19:34 1155次阅读

    OpenAI开放大模型微调功能!

    除了提高性能之外,还能缩短提示时间,确保类似性能。另外,微调目前仅支持处理4000 tokens,这也是此前微调型号的两倍。16k tokens微调将于今年秋季推出。
    的头像 发表于 08-24 16:39 592次阅读
    OpenAI开放大<b class='flag-5'>模型</b><b class='flag-5'>微调</b>功能!

    盘古大模型3.0是什么?

    从整体上看,盘古大模型分为3个训练阶段。一是事前培训,利用庞大数据进行事前培训,获得通用基础模型;二是针对微调,下游行业的具体任务,结合行业数据进行微调。三是将大型
    的头像 发表于 09-05 09:43 2018次阅读

    一种新颖的大型语言模型知识更新微调范式

    我们使用LLAMA2-7B作为实验的基础模型。我们主要评估将旧知识更新为新知识的能力,因此模型将首先在旧知识上进行为期3个时期的微调。表1中F-Learning中设置的超参数λ分别取值为0.3、0.7、0.1和1.5。
    发表于 12-01 15:10 411次阅读
    一种新颖的大型语言<b class='flag-5'>模型</b>知识更新<b class='flag-5'>微调</b>范式

    四种微调模型的方法介绍

    微调(Full Fine-tuning):全微调是指对整个预训练模型进行微调,包括所有的模型参数。在这种方法中,预训练
    发表于 01-03 10:57 2.3w次阅读
    四种<b class='flag-5'>微调</b>大<b class='flag-5'>模型</b>的方法介绍

    基于双级优化(BLO)的消除过拟合的微调方法

    这篇论文试图解决的问题是大型预训练模型在下游任务中进行微调时出现的过拟合问题。尽管低秩适应(LoRA)及其变体通过学习低秩增量矩阵有效地减少了与完全微调方法相比的可训练参数数量。
    的头像 发表于 04-02 16:46 594次阅读
    基于双级优化(BLO)的消除过拟合的<b class='flag-5'>微调</b>方法

    模型为什么要微调?大模型微调的原理

    难以达到最佳性能。为了提升模型在特定任务上的表现,微调(Fine-tuning)成为了一个关键步骤。本文将详细探讨大模型为什么要进行微调以及微调
    的头像 发表于 07-10 10:43 3016次阅读