2022 年在 AI/ML 领域取得了许多突破性的突破。谷歌、Meta 和微软等大型科技公司在从量子计算到生成人工智能的全新创新中取得了重大进步。
接下来,让我们看看对 2023 年的一些预测。
趋势一:生成式 AI 需要可解释的 AI
文本到图像的生成是 2022 年打破排行榜的趋势。DALL-E、Stable Diffusion 和 Midjourney 等模型在想要试验 AI 生成艺术的爱好者中名列前茅。对话很快从文本到图像转移到文本到视频,再到文本到任何东西,并且创建了多个模型,这些模型也可以生成 3D 模型。
随着语言模型的扩展以及传播模型的改进,文本到任何东西的趋势预计会上升得更高。公开可用的数据集使生成式 AI 模型更具可扩展性。
这些数据集引入了有关可解释人工智能的部分,其中训练这些生成模型的每张图像的属性变得至关重要。
趋势二:FastSaaS 竞赛开始
赶上生成人工智能趋势的公司已经开始将其作为云端服务提供。随着 LLM 和 GPT-3 和 DALL-E 等生成模型的公开可用,企业越来越容易将它们作为服务提供,这催生了FastSaaS。
最近,Shutterstock计划将 DALL-E 2 集成到其平台,MicrosoftVS Code添加了 Copilot 作为扩展,TikTok宣布推出应用内文本到图像 AI 生成器,Canva推出了 AI - 在其平台上生成功能。
趋势三:依赖超级计算机
这就是构建超级计算机以依赖于生成任务以及为公司提供服务的趋势。随着这些不断增加的数据集和生成模型,对超级计算机的需求正在上升,并且预计会进一步上升。随着对 FastSaaS 的竞争,对更好和高性能计算的需求是下一件事。
NVIDIA 和微软最近合作创建了Quantum-2,一个云原生超级计算平台。10 月,特斯拉宣布其Dojo超级计算机完全使用特斯拉开发的芯片从零开始构建。很快,它看起来可以为企业客户提供访问权限。此外,Cerebras 还推出了 Andromeda,这是一台拥有 1350 万核心的 AI 超级计算机,可提供超过 1 exaflop 的 AI 计算能力。最近,Jasper 与 Cerebras 合作以实现更好的性能。
趋势四:超越 3nm 芯片
正如摩尔定律所预测的那样,处理能力随着芯片尺寸的减小而增加。因此,超级计算机要运行大型模型,就需要更小的芯片,而且我们已经看到芯片越来越小。
近年来,芯片行业一直在推动小型化,制造商不断寻找使芯片更小、更紧凑的方法。比如M2芯片和A16,苹果分别使用5nm和4nm芯片,预计2023年台积电会开发3nm芯片,这将提高AI/ML算法开发的效率和性能。
趋势五:量子与传统计算的融合
随着NVIDIA、谷歌和微软等公司向云端提供硬件服务,量子计算领域的更多创新势必会发生。这将允许小型科技公司在不需要重型硬件的情况下训练、测试和构建 AI/ML 模型。
未来几年量子计算的兴起绝对应该被开发人员纳入,因为它的使用将在许多其他领域增加,如医疗保健、金融服务等。
在最近的公告中,一台量子计算机连接到欧洲最快的超级计算机,以结合传统计算机和量子计算机以更快地解决问题。同样,Nvidia 也发布了QODA——简称Quantum-Optimised Device Architecture,这是混合量子经典计算机的首创平台。
IBM最近在其 2022 年年度量子峰会上宣布了他们的量子硬件和软件,概述了使用 433 量子位 (qubit) 处理器进行以量子为中心的超级计算的开创性愿景。在全球人工智能峰会上,IBM宣布明年他们将展示一个 1000 量子比特的系统,这将成为各个领域进一步创新的颠覆者。
审核编辑 :李倩
-
AI
+关注
关注
87文章
29055浏览量
266684 -
人工智能
+关注
关注
1787文章
46142浏览量
235663 -
生成器
+关注
关注
7文章
313浏览量
20870
原文标题:2023年人工智能发展趋势TOP5
文章出处:【微信号:信息与电子工程前沿FITEE,微信公众号:信息与电子工程前沿FITEE】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论