据了解,小米此前并未“官宣”直接加入AI大模型赛道中,但是目前小米的AI大模型 MiLM-6B已经悄然现身C-Eval、CMMLU 大模型评测榜单。并且小米大模型在 C-Eval总榜单排名第 10,同参数量级排名第1。
而从GitHub 项目给出的信息得知,MiLM-6B是由小米公司开发的一个大规模预训练语言模型,参数规模达64 亿。
MiLM-6B模型在具体各科目成绩上,在STEM(科学、技术、工程和数学教育)全部20个科目中,计量师、物理、化学、生物等多个项目获得了较高的准确率。
MiLM-6B 模型目前已经在大多数文科科目中表现出了相对良好的准确度,不过在“法学、数学、编程、概率论、离散数学”等涉及“抽象思维”的科目中,还有一定进步空间wprbsubsqkd。
并且在10个“社会科学”测试科目中,除“教育学和地理”外,该模型在其他8个科目中都获得了较为理想的准确率。
不仅如此,该模型在人文科学的11个科目中的“历史与法律”基础上有着不错的准确率表现。
以上源自互联网,版权归原作所有
审核编辑 黄宇
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
87文章
27637浏览量
265233 -
小米
+关注
关注
69文章
14222浏览量
142407 -
大模型
+关注
关注
2文章
1919浏览量
1535
发布评论请先 登录
相关推荐
摩尔线程携手憨猴集团,共同探索国产AI算力的新应用场景与落地实践
摩尔线程与憨猴科技集团有限公司(简称:憨猴集团)近日宣布,基于摩尔线程的夸娥(KUAE)千卡智算集群,憨猴集团已成功完成了7B、34B、70B不同参数量级的大
小米大语言模型MiLM正式通过大模型备案
近日,小米公司官方宣布,其研发的大型语言模型MiLM已成功通过大模型备案,标志着这一技术成果正式迈入了应用阶段。MiLM的推出,无疑将为
小米大语言模型获备案,有望应用于汽车、手机等产品
早在去年8月,小米公司的MiLM大模型便首次亮相C-Eval、CMMLU两大模型测评榜单,在C-Eval总榜单中位列第十,
通义千问推出1100亿参数开源模型
通义千问近日震撼发布1100亿参数的开源模型Qwen1.5-110B,这一举措标志着通义千问在AI领域迈出了重大步伐。该
百度智能云推出全新轻量级大模型
在近日举办的百度智能云千帆产品发布会上,三款全新的轻量级大模型——ERNIE Speed、ERNIE Lite以及ERNIE Tiny,引起了业界的广泛关注。相较于传统的千亿级别参数大
苹果发布300亿参数MM1多模态大模型
近日,科技巨头苹果公司在一篇由多位专家共同撰写的论文中,正式公布了其最新的多模态大模型研究成果——MM1。这款具有高达300亿
不同参数的旋变对信号滞后的机理是什么?
,但换上原来的电机就几乎没有滞后。在侧测量了旋变后发现客户拿来的电机旋变sin和cos的电感量和内阻比我们正常使用的小一倍。想探讨下不同参数的旋变对信号滞后的机理是什么?
发表于 12-12 06:38
如何在不受电线等的影响下尽可能准确地测量如mΩ数量级的电阻值呢?
,为了尽可能准确地测量mΩ数量级的电阻,我们需要注意以下几个方面:选择合适的测量方法、消除或校正电线和接触电阻、控制温度等因素。 一、选择合适的测量方法 1. 电流平衡法:该方法通过在测量电阻两端施加一个已知的电流,然
AI圈巨震!微软论文声称ChatGPT是20B(200亿)参数量的模型?
在top-1中,CODEFUSION的性能与自回归模型相媲美,甚至在某些情况下表现更出色,尤其是在Python任务中,只有GPT-3(175
![AI圈巨震!微软论文声称ChatGPT是20<b class='flag-5'>B</b>(200<b class='flag-5'>亿</b>)<b class='flag-5'>参数量</b>的<b class='flag-5'>模型</b>?](https://file1.elecfans.com/web2/M00/AB/DB/wKgaomVCC3aAZL_XAAAWOn4WZc4413.png)
盘古大模型参数量有多少
盘古大模型参数量有多少 盘古大模型(PanGu-α)是由中国科学院计算技术研究所提供的一种语言生成预训练模型。该模型基于Transforme
商汤日日新大模型全面升级,SenseCore可支持20个千亿参数量大模型同时训练
多方位全面升级,并宣布在该体系下一系列的大模型产品更新和落地成果。 “日日新SenseNova ”全面升级及应用落地 商汤科技发布的“商量”2.0版本,是一个千亿级参数的自然语言处理模
![商汤日日新大<b class='flag-5'>模型</b>全面升级,SenseCore可支持20个千亿<b class='flag-5'>参数量</b>大<b class='flag-5'>模型</b>同时训练](https://file1.elecfans.com/web2/M00/8D/98/wKgZomS-G1qAZ_c_AARyiumMR_4523.png)
如何计算transformer模型的参数量
参数规模大,训练数据规模大。以GPT3为例,GPT3的参数量为1750亿,训练数据量达到了570GB。进而,训练大规模语言模型面临两个主要挑战:显存效率和计算效率。 现在业界的大语言
![如何计算transformer<b class='flag-5'>模型</b>的<b class='flag-5'>参数量</b>](https://file1.elecfans.com/web2/M00/8C/55/wKgZomSrW1iAWrDcAAAU69BdSjE019.jpg)
评论