0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

微软正式发布一个27亿参数的语言模型—Phi-2

AI科技大本营 来源:CSDN 2023-12-14 15:45 次阅读

先后和 OpenAI、Meta 牵手推动大模型发展的微软,也正在加快自家小模型的迭代。就在今天,微软正式发布了一个 27 亿参数的语言模型——Phi-2。这是一种文本到文本的人工智能程序,具有出色的推理和语言理解能力。

同时,微软研究院也在官方 X 平台上如是说道,“Phi-2 的性能优于其他现有的小型语言模型,但它足够小,可以在笔记本电脑或者移动设备上运行”

Phi-2 的性能真能优于大它 25 倍的模型?

对于Phi-2 的发布,微软研究院在官方公告的伊始便直言,Phi-2 的性能可与大它 25 倍的模型相匹配或优于。

这也让人有些尴尬的事,不少网友评价道,这岂不是直接把 Google 刚发的 Gemini 最小型号的版本给轻松超越了?

9143919c-9a54-11ee-8b88-92fbcf53809c.png

那具体情况到底如何?

微软通过时下一些如 Big Bench Hard (BBH)、常识推理(PIQA、WinoGrande、ARC easy 和 Challenge、SIQA)、语言理解(HellaSwag、OpenBookQA、MMLU(5-shot)、 SQuADv2、BoolQ)、数学(GSM8k)和编码(HumanEval)等基准测试,将 Phi-2 与 7B 和 13B 参数的 Mistral 和 Llama-2 进行了比较。

最终得出仅拥有 27 亿个参数的 Phi-2 ,超越了 Mistral 7B 和 Llama-2 7B 以及 13B 模型的性能。值得注意的是,与大它 25 倍的 Llama-2-70B 模型相比,Phi-2 还在多步推理任务(即编码和数学)上实现了更好的性能。

914e0758-9a54-11ee-8b88-92fbcf53809c.png

此外,如上文所提及的,微软研究人员也直接在基准测试中放上了其与Google 全新发布的 Gemini Nano 2 正面PK 的结果,不出所料,Phi-2尽管尺寸较小,但性能还是把Gemini Nano 2 超了。

91580fa0-9a54-11ee-8b88-92fbcf53809c.png

除了这些基准之外,研究人员似是在暗讽 Google 前几日在Gemini 演示视频中造假一事,因为当时 Google 称其即将推出的最大、最强大的新人工智能模型 Gemini Ultra 能够解决相当复杂的物理问题,并且甚至纠正学生的错误。

事实证明,尽管 Phi-2 的大小可能只是 Gemini Ultra 的一小部分,但它也能够正确回答问题并使用相同的提示纠正学生。

9163d164-9a54-11ee-8b88-92fbcf53809c.png

微软的改进

Phi-2 小模型之所以有如此亮眼的成绩,微软研究院在博客中解释了原因。

一是提升训练数据的质量。Phi-2 是一个基于 Transformer 的模型,其目标是预测下一个单词,它在 1.4T 个词组上进行了训练,这些词组来自 NLP 和编码的合成数据集和网络数据集,包括科学、日常活动和心理理论等用于教授模型常识和推理的内容。Phi-2 的训练是在 96 个 A100 GPU 上耗时 14 天完成的。

其次,微软使用创新技术进行扩展,将其知识嵌入到 27 亿参数 Phi-2 中。

微软指出,Phi-2 是一个基础模型,没有通过人类反馈强化学习(RLHF)进行调整,也没有经过指导性微调。尽管如此,与经过对齐的现有开源模型相比,微软观察到在毒性和偏差方面,Phi-2 有更好的表现。

917381cc-9a54-11ee-8b88-92fbcf53809c.png

写在最后

话说 Phi-2 的发布的确在小模型的性能上实现了突破,不过也有媒体发现它还存在很大的局限性。

因为根据微软研究许可证显示,其规定了 Phi -2 只能用于“非商业、非创收、研究目的”,而不是商业用途。因此,想要在其之上构建产品的企业就不走运了。






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编码器
    +关注

    关注

    45

    文章

    3640

    浏览量

    134463
  • OpenAI
    +关注

    关注

    9

    文章

    1084

    浏览量

    6498
  • 大模型
    +关注

    关注

    2

    文章

    2438

    浏览量

    2669

原文标题:只有 27 亿参数,微软发布全新 Phi-2 模型!

文章出处:【微信号:AI科技大本营,微信公众号:AI科技大本营】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    AMD发布10亿参数开源AI模型OLMo

    AMD公司近日宣布了项重大进展,推出了首个完全开放的10亿参数语言模型系列——AMD OLMo。这举措为开发者和研究人员提供了强大的AI
    的头像 发表于 11-12 18:08 438次阅读

    在英特尔酷睿Ultra7处理器上优化和部署Phi-3-min模型

    2024年4月23日,微软研究院公布Phi-3系列AI大模型,包含三版本:mini(3.8B参数)、small(7B
    的头像 发表于 08-30 16:58 597次阅读
    在英特尔酷睿Ultra7处理器上优化和部署<b class='flag-5'>Phi</b>-3-min<b class='flag-5'>模型</b>

    中国石油发布330亿参数昆仑大模型

    中国石油在近日于北京举行的成果发布会上,震撼发布了拥有330亿参数的昆仑大模型,标志着中国能源化工行业正式迈入大
    的头像 发表于 08-29 18:10 860次阅读

    谷歌发布新型大语言模型Gemma 2

    在人工智能领域,大语言模型直是研究的热点。近日,全球科技巨头谷歌宣布,面向全球研究人员和开发人员,正式发布了其最新研发的大语言
    的头像 发表于 06-29 09:48 436次阅读

    微软发布PhI-3-Vision模型,提升视觉AI效率

    Phi-3-vision 是种小型多模式语言模型(SLM),主要适用于本地人工智能场景。其模型参数
    的头像 发表于 05-28 11:35 481次阅读

    微软发布视觉型AI新模型Phi-3-vision

     据悉,Phi-3-vision 作为微软 Phi-3 家族的首款多模态模型,继承自 Phi-3-mini 的文本理解能力,兼具轻巧便携特性
    的头像 发表于 05-27 15:56 481次阅读

    英特尔优化AI产品组合,助力微软Phi-3家族模型

    近日,英特尔宣布针对微软Phi-3家族开放模型,成功验证并优化了其跨客户端、边缘及数据中心的AI产品组合。这重要举措旨在提供更为灵活和高效的AI解决方案。
    的头像 发表于 05-27 11:47 661次阅读

    英特尔与微软合作在其AI PC及边缘解决方案中支持多种Phi-3模型

    近日,英特尔针对微软的多个Phi-3家族的开放模型,验证并优化了其跨客户端、边缘和数据中心的AI产品组合。
    的头像 发表于 05-27 11:15 575次阅读

    微软自研5000亿参数模型曝光

    微软近日曝光了其内部正在秘密研发的巨型AI模型——MAl-1,这款模型拥有惊人的5000亿参数。据微软
    的头像 发表于 05-08 09:56 459次阅读

    【大语言模型:原理与工程实践】大语言模型的应用

    类任务上表现出色,甚至在零样本条件下也能取得良好效果。另类则需要逐步推理才能完成的任务,类似于人类的系统2,如数字推理等。然而,随着参数量的增加,大语言
    发表于 05-07 17:21

    【大语言模型:原理与工程实践】大语言模型的基础技术

    特定任务对模型进行微调。这种方法的成功不仅是自然语言处理发展的转折点,还为许多现实世界的应用场带来了前所未有的性能提升。从广为人知的GPT到BERT,预训练的
    发表于 05-05 12:17

    【大语言模型:原理与工程实践】揭开大语言模型的面纱

    维基百科、网页内容和书籍等,不仅掌握了语言的语法、语义和上下文信息,还能生成结构连贯、语义合理的句子和段落。大语言模型显著特点是其庞大
    发表于 05-04 23:55

    NVIDIA加速微软最新的Phi-3 Mini开源语言模型

    NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微软最新的 Phi-3 Mini 开源语言模型。TensorRT-LLM 是
    的头像 发表于 04-28 10:36 559次阅读

    微软发布phi-3AI模型,性能超越GPT-3.5

    微软称,带有38亿参数phi-3-mini经过3.3万亿token的强化学习,其基础表现已经超过Mixtral 8x7B及GPT-3.5;此外,该
    的头像 发表于 04-23 14:32 540次阅读

    优于10倍参数模型微软发布Orca 2 LLM

    微软发布 Orca 2 LLM,这是 Llama 2调优版本,性能与包含 10 倍
    的头像 发表于 12-26 14:23 627次阅读