开源并行训练系统 ColossalAI 表示,已低成本复现了一个 ChatGPT 训练的基本流程,包括 stage 1 预训练、stage 2 的奖励模型的训练,以及最为复杂的 stage 3 强化学习训练。具体亮点包括:-
一个开源完整的基于 PyTorch 的 ChatGPT 等效实现流程,涵盖所有 3 个阶段,可以帮助你构建基于预训练模型的 ChatGPT 式服务。
-
提供了一个迷你演示训练过程供用户试玩,它只需要 1.62GB 的 GPU 显存,并且可能在单个消费级 GPU 上实现,单GPU模型容量最多提升10.3 倍。
-
与原始 PyTorch 相比,单机训练过程最高可提升7.73 倍,单 GPU 推理速度提升 1.42 倍,仅需一行代码即可调用。
-
在微调任务上,同样仅需一行代码,就可以在保持足够高的运行速度的情况下,最多提升单GPU的微调模型容量3.7 倍。
-
提供多个版本的单 GPU 规模、单节点多 GPU 规模和原始 1750 亿参数规模。还支持从 Hugging Face 导入 OPT、GPT-3、BLOOM 和许多其他预训练的大型模型到你的训练过程中。
ColossalAI 是一个具有高效并行化技术的综合大规模模型训练系统;旨在无缝整合不同的并行化技术范式,包括数据并行、管道并行、多张量并行和序列并行。其声称已通过 ZeRO、Gemini、Chunk-based 内存管理等技术,极大地降低 ChatGPT 训练的显存开销;仅需一半硬件资源即可启动 1750 亿参数模型训练(从 64 卡到 32 卡),显著降低应用成本。若使用上述相同硬件资源,Colossal-AI 则能以更短时间进行训练,节省训练成本,加速产品迭代。为了让更多开发者体验复现 ChatGPT 模型,除 1750 亿参数版本外,Colossal-AI 还提供高效的单 GPU、单机 4/8 GPU 的类 ChatGPT 版本,以降低硬件限制。博客内容还指出,在单机多 GPU 服务器上,即便使用最高端的 A100 80GB 显卡,由于 ChatGPT 的复杂性和内存碎片,PyTorch 最大仅能启动基于 GPT-L(774M)这样的小模型的 ChatGPT。用 PyTorch 原生的 DistributedDataParallel (DDP) 进行多卡并行扩展至 4 卡或 8 卡,性能提升有限。Colossal-AI 不仅在单GPU速度上训练和推理优势明显,随着并行规模扩大还可进一步提升,最高可提升单机训练速度 7.73 倍,单 GPU 推理速度 1.42 倍;并且能够继续扩展至大规模并行,显著降低 ChatGPT 复现成本。为了最大限度地降低培训成本和易用性,Colossal-AI 提供了可以在单个 GPU 上试用的 ChatGPT 培训流程。与在 14999 美元的 A100 80GB 上最多只能启动 7.8 亿个参数模型的 PyTorch 相比,Colossal-AI 将单个 GPU 的容量提升了 10.3 倍,达到 80 亿个参数。对于基于 1.2 亿参数的小模型的 ChatGPT 训练,至少需要 1.62GB 的 GPU 内存,任意单个消费级 GPU 都可以满足。此外,Colossal-AI 还在致力于降低基于预训练大型模型的微调任务的成本。以 ChatGPT 可选的开源基础模型 OPT 为例,Colossal-AI 能够在单 GPU 上将微调模型的容量提高到 PyTorch 的 3.7 倍,同时保持高速运行。Colossal-AI 为 Hugging Face 社区的 GPT、OPT 和 BLOOM 等主流预训练模型,提供了开箱即用的 ChatGPT 复现代码。以 GPT 为例,仅需一行代码,指定使用 Colossal-AI 作为系统策略即可快速使用。
from chatgpt.nn import GPTActor, GPTCritic, RewardModel
from chatgpt.trainer import PPOTrainer
from chatgpt.trainer.strategies import ColossalAIStrategy
strategy = ColossalAIStrategy(stage=3, placement_policy='cuda')
with strategy.model_init_context():
actor = GPTActor().cuda()
critic = GPTCritic().cuda()
initial_model = deepcopy(actor).cuda()
reward_model = RewardModel(deepcopy(critic.model)).cuda()
trainer = PPOTrainer(strategy, actor, critic, reward_model, initial_model,...)
trainer.fit(prompts)
审核编辑 :李倩
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
原文标题:开源方案低成本复现ChatGPT流程,仅需1.6GB显存即可体验
文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。
相关推荐
传统电子产品生产商对价格比较敏感,进口的蓝牙串口模块对厂商的成本控制有很大的压力。针对此种情况,红果电子推出了完整的低成本蓝牙串口模块解决方案,采用RG-BT10-10低成本蓝牙模块,
发表于 03-21 16:46
更积极,继Altera之后赛灵思也宣布了集成HBM 2做内存的FPGA新品,而且用了8GB容量。 HBM显存虽然首发于AMD显卡上,不过HBM 2这一代FPGA厂商比GPU厂商更积极 AMD
发表于 12-07 15:54
迭代,需要大量的数据进行训练。2020年发布的GPT-3,其训练参数量已经达到了惊人的1750亿个,“大量的数据被反复‘喂’给ChatGPT。” 而且,ChatGPT的训练成本支出巨大。据Lambda
发表于 03-03 14:28
这是一款低成本的红外线遥控器线路方案,整个遥控器仅需一个IC完成,降低了物料成本及生产成本。
发表于 12-31 17:10
•19次下载
为了迎接新年,坚果手机开启新年促销活动。目前购买坚果Pro 3可享直降最高500元的活动,购买8GB+128GB坚果Pro 3仅需2399元;购买8GB+256GB版本
发表于 01-03 16:27
•3617次阅读
笔者定位芍药居北里南门,在5G网络环境下,使用荣耀V30 PRO下载一部1.6GB大小的1080P电影。电影从10:23开始下载,10:25完成下载,耗时也仅2分钟,尽管是在室外下载的,但是就实际使用体验而言,这个下载速度已经相当快了。
发表于 01-07 15:30
•2211次阅读
近日,据网友爆料,拼多多华为Mate 20降价促销,6+128GB到手仅需2199元,比首发价便宜2300元。
发表于 03-09 11:32
•6123次阅读
介绍最新的低成本的医疗检测与监测方案。
发表于 03-16 15:38
•8次下载
电子发烧友网站提供《ESP32低成本板开源项目.zip》资料免费下载
发表于 07-18 11:20
•3次下载
电子发烧友网站提供《低成本无线火箭发射器开源分享.zip》资料免费下载
发表于 10-21 14:54
•0次下载
电子发烧友网站提供《低成本机器人消毒系统开源分享.zip》资料免费下载
发表于 11-24 09:15
•0次下载
开源防火墙的低成本使用
发表于 01-04 11:17
•1257次阅读
电子发烧友网站提供《开源低成本电力监控系统.zip》资料免费下载
发表于 02-02 15:04
•0次下载
最近ChatGPT话题简直火热,出于体验的目的,写一篇关于在国内如何注册ChatGPT的全流程注册,包教包会。 ChatGPT是什么? 维基百科-C
发表于 02-13 10:19
•6次下载
北京2024年8月23日 /美通社/ -- 近日,浪潮信息发布源2.0-M32大模型4bit和8bit量化版,性能比肩700亿参数的LLaMA3开源大模型。4bit量化版推理运行显存仅需
发表于 08-25 22:06
•255次阅读
评论