0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OpenAI开放大模型微调功能!

jf_8lIj6kO1 来源:QbitAI 2023-08-24 16:39 次阅读

现在,GPT-3.5 Turbo支持自定义微调了!

只需上传自己的数据,就可以运行专属的定制大模型。

开发者狂喜!不少人惊呼:Awesome!

早期测试表明,经过微调的GPT-3.5 Turbo版本在某些任务中甚至可以超越GPT-4。

更新之余,OpenAI还直接明示了定价计划,微调费用主要分为初始训练费用和使用费用。

一个具有10万tokens训练数据集的微调工作(3个epoch训练)成本大概在2.40美元。

此外,OpenAI还透露了GPT-4微调将于今年秋天推出。

不过也有人不吃这套,吐槽微调成本太高,其生成成本是基础模型的8倍,必须要按照他们所说“将提示大小减小90%”,才能从中获取效益。

71c75648-4214-11ee-a2ef-92fbcf53809c.png

开发者自己进行监督微调

OpenAI首先给出了指南手册,微调可以用来改进这些模型性能。

  • 可操纵性的改进,模型能够更好地遵循指令。比如输出简洁回答或始终以给定的语言响应。

  • 一致的格式化响应,开发人员可用微调将用户提示转换为高质量JSON代码片段,随后用于自己的系统。

  • 定制语气,微调可以更好磨炼模型输出的质感,比如语气,让它更适合企业品牌的声音。

除了提高性能之外,还能缩短提示时间,确保类似性能。另外,微调目前仅支持处理4000 tokens,这也是此前微调型号的两倍。16k tokens微调将于今年秋季推出。

早期测试人员通过对模型本身指令进行微调,加快了API调用还降低成本,让prompt减少了90%。

对函数调用结合和 gpt-3.5-turbo-16k的微调支持将在今年秋季晚些时候推出。

具体微调步骤,分为四步:

准备数据

{
"messages":[
{"role":"system","content":"Youareanassistantthatoccasionallymisspellswords"},
{"role":"user","content":"Tellmeastory."},
{"role":"assistant","content":"Onedayastudentwenttoschoool."}
]

上传文件

curl-https://api.openai.com/v1/files
-H"Authorization:Bearer$OPENAI_API_KEY"
-F"purpose=fine-tune"
-F"file=@path_to_your_file"

创建微调作业

curlhttps://api.openai.com/v1/fine_tuning/jobs
-H"Content-Type:application/json"
-H"Authorization:Bearer$OPENAI_API_KEY"
-d'{
"training_file":"TRAINING_FILE_ID",
"model":"gpt-3.5-turbo-0613",
}'

使用微调模型

curlhttps://api.openai.com/v1/chat/completions
-H"Content-Type:application/json"
-H"Authorization:Bearer$OPENAI_API_KEY"
-d'{
"model":"ftorg_id",
"messages":[
{
"role":"system",
"content":"Youareanassistantthatoccasionallymisspellswords"
},
{
"role":"user",
"content":"Hello!Whatisfine-tuning?"
}
]
}'

OpenAI透露,未来他们将推出微调UI,这样轻松访问正在进行中的工作。

定价方面,分为训练成本和使用成本。

  • 训练:0.008美元/1000 tokens;

  • 使用输入:0.012美元/1000 tokens;

  • 使用输出:0.016 美元/1000 tokens。

71dacb60-4214-11ee-a2ef-92fbcf53809c.png

不过可以看到的是,价格确实比基础模型高了不少。

更新了GPT-3模型

与此同时,OpenAI还在API端口更新了GPT-3模型:babbage-002 和 davinci-002。

这些模型都可以用新的API端点进行微调。

721d8dce-4214-11ee-a2ef-92fbcf53809c.png

原始基础模型 (ada, babbage, curie, 和 davinci)将于明年*(2024年)1月4日关闭。

好了,感兴趣的朋友可以开始定制自己的GPT-3.5Turbo了。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据集
    +关注

    关注

    4

    文章

    1205

    浏览量

    24648
  • OpenAI
    +关注

    关注

    9

    文章

    1045

    浏览量

    6411
  • 大模型
    +关注

    关注

    2

    文章

    2338

    浏览量

    2498

原文标题:OpenAI开放大模型微调功能!上传自己数据就可定制GPT-3.5Turbo,开发者狂喜

文章出处:【微信号:玩转VS Code,微信公众号:玩转VS Code】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    OpenAI 深夜抛出王炸 “ChatGPT- 4o”, “她” 来了

    当地时间5月13日OpenAI推出ChatGPT-4o,代表了人工智能向前迈出的一大步。在GPT-4turbo的强大基础上,这种迭代拥有显著的改进。在发布会的演示中,OpenAI展示该模型的高级
    发表于 05-27 15:43

    怎么建立开放数控系统模型

    “NC嵌入PC”的开放式数控系统结构模型,充分利用了PC机的丰富资源(内存空间大、硬盘容量大和高速运算功能的CPU),使这种结构模式成为开放数控系统的主流设计。DSP因其高速、强实时控
    发表于 08-26 07:03

    OpenAI官宣把ChatGPT API开放

        3月1号,OpenAI把ChatGPT API 正式开放;就在竞争对手越加追赶的时候,OpenAI宣布正式推出面向商业用户的ChatGPT和Whisper语音转文字API,而且把价格打得
    的头像 发表于 03-06 18:48 3290次阅读
    <b class='flag-5'>OpenAI</b>官宣把ChatGPT API<b class='flag-5'>开放</b>

    有哪些省内存的大语言模型训练/微调/推理方法?

    首先,我们需要了解如何根据参数量估计模型大致所需的 RAM,这在实践中有很重要的参考意义。我们需要通过估算设置 batch_size,设置模型精度,选择微调方法和参数分布方法等。
    的头像 发表于 04-10 11:41 1388次阅读

    iPhone都能微调模型了嘛

    一起提出的新方法 QLoRA 把微调模型的 显存需求从>780GB降低到 。 开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。   以Meta的美洲驼LLaMA为基础,得到原驼
    的头像 发表于 06-02 15:26 685次阅读
    iPhone都能<b class='flag-5'>微调</b>大<b class='flag-5'>模型</b>了嘛

    微软将向美国政府客户提供OpenAI的GPT模型

    微软增加了对大型语言模型(llm)的支持。openai推出chatgpt后,llm的使用大幅增加,微软持有openai的股份,许多类型的公司争相在llm上构建功能
    的头像 发表于 06-08 10:35 998次阅读

    最新、最强大的模型GPT-4将向美国政府机构开放

    最新、最强大的模型GPT-4将向美国政府机构开放 此前微软已向其商业客户提供了OpenAI模型,现在微软宣布将向azure government云计算客户
    的头像 发表于 06-08 20:15 1482次阅读

    OpenAI开放大模型微调功能 GPT-3.5可以打造专属ChatGPT

    OpenAI开放大模型微调功能 GPT-3.5可以打造专属ChatGPT OpenAI
    的头像 发表于 08-23 19:34 1192次阅读

    四种微调模型的方法介绍

    微调(Full Fine-tuning):全微调是指对整个预训练模型进行微调,包括所有的模型参数。在这种方法中,预训练
    发表于 01-03 10:57 2.4w次阅读
    四种<b class='flag-5'>微调</b>大<b class='flag-5'>模型</b>的方法介绍

    奥特曼发布王炸模型Sora OpenAI首个文生视频模型Sora正式亮相

    奥特曼发布王炸模型Sora OpenAI首个文生视频模型Sora正式亮相 2月16日凌晨OpenAI的首个文生视频模型Sora正式亮相。So
    的头像 发表于 02-18 17:41 944次阅读

    OpenAI文生视频模型Sora要点分析

    近日,美国人工智能公司OpenAI发布了首个视频生成模型Sora。不同于此前许多AI大模型文生图或视频时,会出现人物形象前后不一致等问题
    的头像 发表于 02-22 16:37 1011次阅读
    <b class='flag-5'>OpenAI</b>文生视频<b class='flag-5'>模型</b>Sora要点分析

    微软准备推出新的AI模型与谷歌及OpenAI竞争

    据报道,微软在向OpenAI投资超过100亿美元后,首次成功训练了一个名为“MAI-1”的内部人工智能模型。这一模型规模庞大,足以与谷歌、Anthropic和OpenAI自身的前沿
    的头像 发表于 05-08 10:45 521次阅读

    OpenAI推出全新大语言模型

    今日凌晨,科技界迎来了一次激动人心的突破。OpenAI正式发布了全新的旗舰模型GPT-4o,这一模型展现了跨视频、音频、文本进行实时推理的惊人能力。GPT-4o不仅是一个多模态模型,更
    的头像 发表于 05-14 11:53 604次阅读

    模型为什么要微调?大模型微调的原理

    难以达到最佳性能。为了提升模型在特定任务上的表现,微调(Fine-tuning)成为了一个关键步骤。本文将详细探讨大模型为什么要进行微调以及微调
    的头像 发表于 07-10 10:43 3595次阅读

    Orion模型即将面世,OpenAI采用新发布模式

    不同,Orion将不会直接面向公众开放。相反,OpenAI计划首先向与其密切合作的公司提供授权,以便这些公司能够基于Orion模型构建自己的产品和功能。这一发布模式的变化,可能意味着
    的头像 发表于 10-25 10:11 289次阅读