电子发烧友网报道(文/李弯弯)日前,知乎在北京召开“2023知乎发现大会”,首次公开旗下与面壁智能共建的大模型产品“知海图AI”。官方表示,在热榜上抽取、聚合知乎用户回答的41条内容,“知海图AI”的表现基本接近ChatGPT-4。
在OpenAI推出ChatGPT之后,近几个月,国内外科技企业陆续推出自己的大模型,包括百度的文心一言,商汤科技的商量SenseChat,阿里云的通义千问,昆仑万维的“天工”3.5,以及亚马逊的Titan,还有360、腾讯、搜狐,王慧文的光年之外等都传出相关消息。
目前都发布了哪些大型语言模型
OpenAI在2022年11月30日发布的ChatGPT,在短短几个月时间风靡全球。今年3月14日,OpenAI再次发布更强大的多模态大模型GPT-4。其最大股东微软公司不仅宣布推出由ChatGPT支持的搜索引擎Bing和Edge浏览器。还宣布将GPT-4全面接入所有办公软件。
在ChatGPT的带动下,全球科技公司掀起研究大型语言模型的热潮。国内最新跟上的要数百度了,3月16日,百度正式发布新一代大语言模型、生成式AI产品文心一言。在发布会上,李彦宏还展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等使用场景中的综合能力。
除了百度,最近还有多个大型语言模型密集发布。4月10日,昆仑万维宣布,其和奇点智源合作自研、中国第一个真正实现智能涌现的国产大语言模型——“天工”3.5发布在即,并将于4月17日启动邀请测试。该公司表示,“天工”大模型已经非常接近OpenAI ChatGPT的智能水平。
4月11日,在2023阿里云峰会上,阿里云也正式发布了旗下的类ChatGPT大模型——通义千问。阿里巴巴集团董事会主席兼CEO、阿里云智能集团CEO张勇表示,阿里巴巴所有产品未来将接入“通义千问”大模型,进行全面改造,钉钉、天猫精灵已率先接入通义千问测试,并会在评估认证后正式发布新功能。
4月12日,商汤科技发布“日日新SenseNova”大模型体系,推出语言大模型“商量SenseChat”、内容生成、自动化数据标注、自定义模型训练等多种大模型及能力。据悉,作为千亿级参数的自然语言处理模型,“商量SenseChat”使用大量数据训练,并充分考虑了中文语境,能够更好地理解和处理中文文本。
4月13日,亚马逊推出一项名为“Bedrock”的云服务,允许开发者使用类似于ChatGPT聊天机器人的人工智能系统。通过Bedrock生成式人工智能服务,亚马逊旗下云服务AWS将向开发者提供自家的语言模型“Titan”,以及来自初创公司AI21和谷歌支持的Anthropic的语言模型。这其中,一个Titan模型可以为博客帖子、电子邮件或其他文档生成文本,而另一个可以帮助搜索和实现个性化。
此外,华为、腾讯也在大模型方面有所积累,华为最早于2021年便发布了华为云盘古基础大模型,包括NLP、CV和科学计算大模型。最近有消息称,华为云官网即将上线盘古系列AI大模型,分别为NLP大模型、CV等。不过华为云方面,并没有对此做出回应。
腾讯很早就已经进行AI大模型的研究——混元AI大模型覆盖NLP(自然语言处理)、CV(计算机视觉)、多模态等基础模型和众多行业/领域模型。腾讯不久前表示,近期混元AI大模型团队也推出了万亿中文NLP预训练模型HunYuan-NLP-1T,实现在中文语言理解能力上的新突破,而且得益其低成本、普惠等特点,目前HunYuan-NLP-1T大模型已成功落地于腾讯广告、搜索、对话等内部产品并通过腾讯云服务外部客户。
除了科技大厂,也有创业团队宣布加入大模型研究大军。4月10日,搜狗创始人王小川正式宣布入场大模型创业,和前搜狗COO茹立云联合创立人工智能公司——百川智能,要做的事情是打造中国版的Open AI基础大模型及颠覆性上层应用。王小川表示,有信心在年底发布国内最好的语言大模型。
另外,还有之前很受关注的创业项目,美团联合创始人王慧文设立的光年之外科技公司。以及前商汤科技副总裁、通用智能技术负责人闫俊杰创办的Minimax。
大模型的训练和运行,离不开算力支持
然而,大模型的训练和运行,需要强大的算力基础。阿里云、商汤科技、腾讯等,在研究推进大模型研究的同时,也在构建算力基础设施,供公司自身或其他公司使用。
大模型背后的算力基础,包括高性能计算硬件、分布式计算框架、高效的算法和优化技术以及大量的训练数据和存储资源。这些因素共同支撑着大模型的成功运行。
阿里云在这方面做了充足准备,张勇表示,十多年来,阿里云已经累积了从飞天云操作系统、芯片到智算平台的“AI+云计算”的全栈技术实力,并在IaaS(基础设施即服务)和PaaS(平台即服务)的基础上,建立了第三层MaaS(模型即服务)的体系。
具体而言,“飞天智算基础设施”智算IaaS服务涵盖了一系列卓越特性,包括能够支持高达十万卡GPU的单集群规模、可让多个万亿参数大模型同时在线训练的强大智算集群,以及为万卡规模AI集群提供无拥塞通讯的自主研发RDMA网络架构等;
智算PaaS服务则以机器学习平台PAI为核心,可支持万卡的单任务分布式训练规模,AI训练效率提升可达10倍,推理效率提升可达6倍,覆盖全链路AI开发工具与大数据服务,深度支持了通义大模型的研发。
智算MaaS服务包括通义大模型系列和以之为基础的企业定制大模型。
凭借这些能力,阿里云不仅可以为自家大模型“通义千问”提供支持,还能够把丰富的算力资源和大模型能力分享给更多企业和社会各界,共同推动AI技术的发展。
商汤科技在这方面也有积累,当前业界训练大模型对大算力的需求非常旺盛,并且真正好用的基础设施十分稀缺。商汤历时五年,建设了业界领先的AI大装置,大装置上总共有27000块的GPU芯片卡,可以输出5.0 exaFLOPS的总算力,是亚洲目前最大的智能计算平台之一。
基于大装置的能力,商汤目前已构建了计算机视觉、自然语言处理、AI内容生成、多模态、决策智能等多个领域的大模型,持续演进能力并广泛支持各种应用。
面向大模型训练,4月14日,腾讯云正式发布了新一代HCC(High-Performance Computing Cluster)高性能计算集群。该集群采用腾讯云星星海自研服务器,国内首发搭载英伟达最新代次H800 GPU,能够提供高性能、高带宽、低延迟的算力支撑。根据官方数据,新的HCC计算集群能够将大模型的训练时间从上一代的11天压缩至4天,可以有效节省大量时间。
全民AIGC时代要来了
从目前的情况来看,国内外科技企业巨头都已经加入到大模型的研究大军中,在过去短短几个月时间,各种大模型产品密集发布。与此同时,作为大模型训练和部署重要的支撑,算力基础设施的构建也在加速推进。
另外,日前消息,微软宣布开源了Deep Speed Chat,可以帮助用户轻松训练类ChatGPT等大语言模型,使得人人都能拥有自己的ChatGPT。也就是说,用户通过Deep Speed Chat提供的“傻瓜式”操作,能以最短的时间、最高效的成本训练类ChatGPT大语言模型,这标志着人手一个ChatGPT的时代要来了。
当然,当前ChatGPT等大模型还处于初期发展阶段,人们不免对安全隐患、数据隐私、道德问题存在担心。不过,最近多个国家已经开始着手制定AI相关的规则和政策。这意味着,大模型在经历了过去几个月的野蛮生长之后,将会逐步向规范化发展。
-
AI
+关注
关注
87文章
30728浏览量
268892 -
AIGC
+关注
关注
1文章
361浏览量
1539
发布评论请先 登录
相关推荐
评论