0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

错误使用GPT-3:成本却降低了40倍,速度提高了5倍

jf_WZTOguxH 来源:Buildt 2023-03-01 09:56 次阅读

Buildt 使用 OpenAI 基础模型已经有一段时间了。这些模型非常强大,关于这一点,互联网上已经有了大量的记录,特别是随着 ChatGPT 的出现,它的关注度超过了之前 GPT-3 的 100 倍。然而,在应用这些模型解决相应问题(代码库搜索、理解和增强)的过程中,我们发现了一个明显的障碍:延迟和成本。比较大的模型(特别是 davinci 家族)无疑能产生最高质量的输出,但运行起来也最慢、最昂贵。

要获得良好的搜索体验,显然速度就得快。你看谷歌,100 毫秒就可以索引数百万个网页,代码库搜索也是如此。我们发现,在单个搜索中,其中一个最耗时的点就是生成输出的 LLM 层(我们使用 LLM 来增强搜索,让你可以搜索代码是什么,而不是它做什么,例如“找出最慢的递归函数”)。Alex grave 是 Github Copilot 的创建者之一。据他说,每增加 10 毫秒的延迟,完成率就会下降 1%。这一逻辑也适用于搜索。所以,当务之急是从 davinci 这样的大型模型转向 ada 和 babbage 这样的小型模型。

92440896-b1cb-11ed-bfe3-dac502259ad0.png

我们的解决方案很简单,对于给定的任务,由 davinci 生成一个中等大小的语料库,并精心优化像 babbage 这样的模型来完成相同的任务。如果操作得当,你可以以低 40 倍的成本、低 4-5 倍的延迟获得几乎相同的完成率(或至少 90% 的相似性)。

如果你愿意花点时间,则还可以在循环中加一个人:我们最近就做了这样的事情来优化 babbage 模型,以便能够识别代码的特征,所以我让 ChatGPT 帮我创建了一个基本的 Web UI,让我们可以轻松地审核和改进 davinci 所的识别结果;从根本上说,你永远无法从一个更小的模型那里获得类似的性能,所以让完成率胜过你试图模仿的模型,意味着你至少在训练完成时就比较接近。

9264637a-b1cb-11ed-bfe3-dac502259ad0.jpg

关于这种技术,我想的最多的一个问题是:我需要多少样本?答案恐怕是“视情况而定”。

根据经验,如果你只是想标准化平淡无奇的输出格式,那么你可以用几百个样本;如果你是在做逻辑推理,那么你至少需要 1000 个样本;如果你在做 DSL 工作,那么你需要几千个样本。样本大小通常会是一个障碍,但有了用更大的模型来生成合成数据集的方法,那突然变得比较容易处理了,特别是当这些模型变得越来越好时。

这种方法有很多应用场景;如果你有一个提示符,它可以重复做同样的工作,那么你就可以使用这项技术来加快速度,降低成本。

有人问过我这种方法的维护问题,特别是如果想要更改输出结构时会出现什么情况。我们内部构建了一个经过精心优化的管道来自动化整个过程,其底层是 davinci-003 提示符,然后我们用它来生成 n 个合成样本,格式化后传递给 OpenAI 调优 API,它会吐出一个调优过的模型。这样,如果你想更改提示符的输出,只需一次单击就可以更新一个调优过的模型。

我总是很乐意谈论这个话题,欢迎在 Twitter 上关注我(@AlistairPullen),我上面描述的所有内容都可以在我们的代码搜索工具 Buildt 中找到。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    3032

    浏览量

    48355
  • OpenAI
    +关注

    关注

    9

    文章

    988

    浏览量

    6252

原文标题:错误使用 GPT-3:成本却降低了40 倍,速度提高了5 倍

文章出处:【微信号:AI前线,微信公众号:AI前线】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟达预测机器人领域或迎“GPT-3时刻”

    未来2-3年内,机器人基础模型的研究将迎来重大突破,这一时刻被形象地比喻为机器人领域的“GPT-3时刻”。
    的头像 发表于 09-20 17:05 334次阅读

    Jim Fan展望:机器人领域即将迎来GPT-3式突破

    英伟达科学家9月19日,科技媒体The Decoder发布了一则引人关注的报道,英伟达高级科学家Jim Fan在近期预测,机器人技术将在未来两到三年内迎来类似GPT-3在语言处理领域的革命性突破,他称之为机器人领域的“GPT-3时刻”。
    的头像 发表于 09-19 15:13 255次阅读

    Anthropic 发布Claude 3.5 Sonnet模型运行速度是Claude 3 Opus的两

    Anthropic 发布Claude 3.5 Sonnet最新模型 新模型在推理、知识和编码能力评估方面超越了以前的版本和竞争对手GPT 4o模型,同时其运行速度是Claude 3 Opus的两
    的头像 发表于 06-21 15:43 564次阅读
    Anthropic 发布Claude 3.5 Sonnet模型运行<b class='flag-5'>速度</b>是Claude <b class='flag-5'>3</b> Opus的两<b class='flag-5'>倍</b>

    激光功率测量速度提高了5

    新型 Coherent PM10K+ 激光传感器大大加快了高达 10 kW 的工业激光器的功率测量速度。 高功率激光技术在不断发展,焊接、切割和覆层应用的平均功率显著提高,从而拓展了其功能范围。在这
    的头像 发表于 06-21 06:34 205次阅读
    激光功率测量<b class='flag-5'>速度</b><b class='flag-5'>提高了</b><b class='flag-5'>5</b><b class='flag-5'>倍</b>

    开发者如何调用OpenAI的GPT-4o API以及价格详情指南

    ​目前,OpenAI新模型GPT-4o和GPT-4 Turbo的价格如下: GPT-4o 对比 GPT-4 Turbo GPT-4o 拥有与
    的头像 发表于 05-29 16:00 7702次阅读
    开发者如何调用OpenAI的<b class='flag-5'>GPT</b>-4o API以及价格详情指南

    谷歌推出Trillium AI芯片,性能提高5

    谷歌推出了其最新的人工智能数据中心芯片——Trillium。这款芯片是谷歌的第六代产品,与上一代TPU v5e相比,Trillium在每个芯片上的峰值计算性能提高了4.7,节能67%以上。
    的头像 发表于 05-16 10:39 630次阅读

    OpenAI全新GPT-4o能力炸场!速度快/成本低,能读懂人类情绪

    ”的意思。GPT-4o文本、推理、编码能力达到GPT-4 Turbo水平,速度是上一代AI大模型GPT-4 Turbo的两,但
    的头像 发表于 05-15 00:15 7681次阅读

    用万用表测试发现电机UVW的电压只有12V左右,跟母线电压比降低了4,是否有办法提高

    环境:FOC5.2.0 母线电压:48VDC 问题:用万用表测试发现电机UVW的电压只有12V左右,跟母线电压比降低了4,是否有办法提高
    发表于 04-24 08:25

    微机消谐装置提高了电网的运行效率

    装置显著提高了电网的电能质量。电网中的谐波会导致电压和电流的波形畸变,影响设备的正常运行。微机消谐装置通过精确的检测和快速的响应,能够有效地消除谐波,使电网的电压和电流波形更加稳定,从而提高电能质量。 其次,
    的头像 发表于 04-02 14:40 276次阅读

    新型散热材料金刚石纳米膜有望将电动汽车的充电速度提升五

    近日,德国弗劳恩霍夫研究所 (Fraunhofer) 的科学家们利用超薄金刚石膜成功降低了电子元件的热负荷,并有望将电动汽车的充电速度提升五
    的头像 发表于 03-07 16:33 1219次阅读
    新型散热材料金刚石纳米膜有望将电动汽车的充电<b class='flag-5'>速度</b>提升五<b class='flag-5'>倍</b>

    下一代fMRI将空间分辨率提高了10

    据悉,NexGen 7T设备记录的细节比当前研究人员使用的7T MRI多出10,比当前大多数医院使用的主流3T扫描仪多出至少50以上。更精细的尺度可能对许多研究问题有用。例如,更高分辨率的图像可以提供关于一些大脑区域的广泛功
    的头像 发表于 12-28 16:55 763次阅读

    新的宽带隙半导体技术提高了功率转换效率

    新的宽带隙半导体技术提高了功率转换效率
    的头像 发表于 11-30 18:00 376次阅读
    新的宽带隙半导体技术<b class='flag-5'>提高了</b>功率转换效率

    Google的第五代TPU,推理性能提升2.5

     Gridspace 机器学习主管Wonkyum Lee表示:“我们的速度基准测试表明,在 Google Cloud TPU v5e 上训练和运行时,AI 模型的速度提高了
    发表于 11-24 10:27 458次阅读
    Google的第五代TPU,推理性能提升2.5<b class='flag-5'>倍</b>

    英伟达发布最新AI芯片H200:性能提升2成本下降50%

    很明显,如果能在相同的功率范围之内实现 2 的性能提升,就意味着实际能耗和总体拥有成本降低了 50%。所以从理论上讲,英伟达似乎可以让 H200 GPU 的价格与 H100 持平。
    的头像 发表于 11-22 17:14 1366次阅读
    英伟达发布最新AI芯片H200:性能提升2<b class='flag-5'>倍</b>,<b class='flag-5'>成本</b>下降50%

    英睿达T500固态硬盘疾速登场

    相较于前代 Gen3 NVMe SSD 产品,T500 的性能功耗比提高了 40%1,速度提升了 2 2。Crucial 英睿达 T500
    的头像 发表于 11-01 17:07 914次阅读