据了解,Mistral AI于近期发布了名为Mixtral 8x22B的开源模型,该模型拥有1760亿个参数, Context长度高达6.5万token,可通过Torrent下载获取。
作为一家备受瞩目的新兴AI企业,Mistral AI因其“6人团队,7页PPT,8亿融资”的传奇故事而声名远扬。尤其值得一提的是,该公司曾获得微软投资,使之顺利驶入高速发展轨道。
今日,Mistral AI正式发布了Mixtral 8x22B模型,并提供了Torrent种子链接供用户下载。该模型文件大小达到了惊人的281GB,用户既可通过磁力链接直接下载,也可选择Hugging Face和Perplexity AI Labs等平台进行下载。
尽管Mixtral 8x22B模型拥有庞大的1760亿个参数以及6.5万个token的Context长度,但为了提高使用灵活性,该模型还支持仅调用部分模型(440亿参数)来完成特定任务。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
87文章
30072浏览量
268334 -
开源
+关注
关注
3文章
3243浏览量
42378 -
模型
+关注
关注
1文章
3158浏览量
48701
发布评论请先 登录
相关推荐
AMD发布10亿参数开源AI模型OLMo
AMD公司近日宣布了一项重大进展,推出了首个完全开放的10亿参数语言模型系列——AMD OLMo。这一举措为开发者和研究人员提供了强大的AI研究工具,有助于推动
Mistral AI与NVIDIA推出全新语言模型Mistral NeMo 12B
Mistral AI 和 NVIDIA 于近日共同发布了一款全新的领先语言模型Mistral NeMo 12
Meta即将发布超强开源AI模型Llama 3-405B
在人工智能领域的激烈竞争中,Meta公司再次掷出重磅炸弹,宣布将于7月23日正式发布其最新力作——Llama 3-405B,一个拥有惊人4050亿参数的
Mistral AI将达成约6亿美元融资协议
法国AI领域的佼佼者Mistral AI近日宣布,即将完成一笔高达6亿美元的融资协议。此轮融资不仅将Mistral
微软发布phi-3AI模型,性能超越GPT-3.5
微软称,带有38亿参数的phi-3-mini经过3.3万亿token的强化学习,其基础表现已经超过Mixtral 8x7B及GPT-3.5;此外,该
Mistral Large模型现已在Amazon Bedrock上正式可用
的 Mistral 7B 和 Mixtral 8x7B模型。今天,Mistral
IBM在watsonx上提供开源的Mistral AI模型
IBM 提供 Mixtral-8x7B 的优化版本,该版本可将延迟时间最多缩短 75% IBM、第三方和开源模型的目录不断增加,为客户提供更多选择和灵活性 是 watsonx 人工智能与数据平台
Mistral AI发布旗舰大模型Mistral Large及聊天机器人Le Chat
近日,欧洲人工智能领域的领军企业Mistral AI发布了其旗舰大模型Mistral Large,并同步推出了首个聊天机器人产品Le Cha
微软携手法国AI初创企业Mistral推动AI模型商业化
微软近日与法国人工智能初创企业Mistral达成合作协议,旨在推动AI模型的商业化应用。据悉,微软将提供全方位支持,帮助这家成立仅10个月的公司将其先进的AI
微软21亿美元投资法国AI公司Mistral AI
微软近日宣布向法国人工智能公司Mistral AI注资20亿欧元(约合21亿美元),以推动生成式人工智能领域的发展。此举不仅加强了微软在全球AI
Mistral发布Mistral Large旗舰模型,但没有开源
昨夜,被称为“法国版 OpenAI”的 Mistral AI 再放大招,正式发布 Mistral Large 旗舰模型,并且推出对标 Cha
最佳开源模型刷新多项SOTA,首次超越Mixtral Instruct!「开源版GPT-4」家族迎来大爆发
Mixtral 8x7B模型开源后,AI社区再次迎来一大波微调实践。来自Nous Research应用研究小组团队微调出新一代大
评论