微软和谷歌正在通过搜索引擎将人工智能带给人们,从而推动了一场重大的计算变革,而衡量成功的标准之一可能取决于支持应用程序的硬件和数据中心基础设施。
上周,微软和谷歌宣布推出下一代人工智能搜索引擎,可以推理和预测,并为用户问题提供更全面的答案。搜索引擎将能够为复杂的查询生成完整的答案,就像 ChatGPT 提供详细答案或撰写论文的方式一样。
微软正在将 AI 置于 Bing 中以响应文本查询,Google 也计划将 AI 置于其文本、图像和视频搜索工具中。这些公告是在上周连续几天发布的。
两家公司承认,如果没有强大的硬件基础设施,人工智能就不可能进入搜索引擎。两家公司没有分享驱动人工智能计算的实际硬件的细节。
多年来,微软和谷歌一直在培育专为黄金时段公告设计的人工智能硬件,例如上周的人工智能搜索引擎。
这些公司拥有截然不同的人工智能计算基础设施,响应速度和结果准确性将成为对搜索引擎生存能力的严峻考验。
谷歌的Bard在其云服务中由其 TPU(张量处理单元)芯片提供支持,熟悉该公司计划的消息人士证实了这一点。微软表示,其在 Azure 中的人工智能超级计算机——可能在 GPU 上运行——可以以毫秒级或搜索延迟的速度提供结果。
谷歌的 TPU 与 AI 市场领导者 Nvidia 之间的 AI 计算展开了一场非常公开的战斗,Nvidia 的 GPU 在市场上占据主导地位。
“团队致力于在全球范围内为机器和数据中心提供动力和建设。我们仔细地编排和配置了一组复杂的分布式资源。我们构建了新的平台部件,旨在以前所未有的方式帮助负载平衡、优化性能和扩展,”微软 Bing 产品负责人 Dena Saunders 在发布会上说。
微软正在使用更高级版本的 OpenAI 的 ChatGPT。在微软的活动中,OpenAI 首席执行官Sam Altman估计每天有 100 亿次搜索查询。
微软通过实现让Bing拥有AI能力的道路确保其AI 超级计算机具有计算能力,该公司声称它是世界上最快的五台超级计算机之一,但该计算机未列入 Top500 排名。
“我们参考了 AI 超级计算机,但这项工作花费了数年时间,并且需要大量投资来构建我们可以在堆栈的每一层中引入的规模类型、速度类型和成本类型。微软执行副总裁兼首席财务官Amy Hood上周在与投资者的电话会议上表示,我认为……我们的运营规模非常不同。
Hood 说,随着使用规模和优化的实施,超级计算机层的 AI 计算成本将随着时间的推移而继续下降。
“当然,每次搜索交易的成本往往会随着规模的扩大而下降,我认为我们从一个非常强大的平台开始,以便能够做到这一点,”Hood 说。
随着更多 GPU 的实施,计算成本通常会上升,冷却成本和其他支持基础设施也会增加账单。但公司通常将收入与计算成本挂钩。
微软的 AI 超级计算机是与 OpenAI 合作建造的,它拥有 285,000 个 CPU 内核和 10,000 个 GPU。Nvidia 在 11 月签署了一项协议,将其数万个 A100 和 H100 GPU 放入 Azure 基础设施中。
根据Statcounter的数据,微软的 Bing 搜索份额并不接近谷歌搜索,谷歌搜索在 1 月份拥有 93% 的市场份额。
人工智能从根本上说是一种基于推理和预测能力的不同计算方式,而传统计算则围绕逻辑计算展开。AI 是在可以执行矩阵乘法的硬件上完成的,而传统计算围绕着 CPU 展开,CPU 擅长数据的串行处理。
谷歌正在采取谨慎的态度,并将其 Bard 对话式 AI 作为其 LaMDA 大型语言模型的轻量级现代版本发布。谷歌的 LaMDA 是与 OpenAI 的 GPT-3 竞争的本土版本,后者是 ChatGPT 对话式人工智能的基础。
Technalysis Research 首席分析师 Bob O'Donnell 表示,处理 AI 搜索的基础设施建设仍在进行中,微软和谷歌需要解决很多问题。
微软意识到人工智能计算正在迅速发展,并且愿意测试和使用新的人工智能硬件,O'Donnell 说,他在上周的 Bing AI 发布会上与微软的基础设施团队进行了交谈。
“他们还明确表示,‘我们正在尝试一切,因为它一直在变化。甚至我们现在正在做的事情也会随着时间的推移而改变——未来会有不同,'”O'Donnell 说。
O'Donnell 说,对于 Microsoft 而言,拥有一个更灵活的计算平台“比在一项给定任务上一定要快 5%”更为重要。
“他们承认,‘看,我们将在接下来的 30 天内学到很多东西,因为人们开始使用它,我们开始看到负载的真实情况。’ 这是一种动态的、动态的东西,”O'Donnell 说。
例如,Microsoft 可能会了解人们使用搜索请求访问服务器的高峰时间。O'Donnell 说,在低使用率期间,微软可以从输出结果的推理部分切换到需要更多 GPU 计算的训练部分。
谷歌于 2016 年推出的TPU一直是该公司人工智能战略的关键组成部分。众所周知,TPU 为 AlphaGo 提供了动力,该系统在 2016 年击败了围棋冠军李世石。该公司的 LaMDA LLM 是为在 TPU 上运行而开发的。谷歌的姊妹组织 DeepMind 也在使用 TPU 进行人工智能研究。
SemiAnalysis 创始人 Dylan Patel在一份简报中表示,谷歌的芯片“使用内部 TPUv4 pod 与 Microsoft/OpenAI 使用基于 Nvidia 的 HGX A100s 相比,在基础设施方面具有显著优势” 。
随着时间的推移,随着硬件规模和模型针对硬件的优化,成本将会降低,Patel写道。
Facebook 现在正在建设具有更多 AI 计算能力的数据中心。Facebook 集群将拥有数千个加速器,其中包括 GPU,并将在 8 至 64 兆瓦的功率范围内运行。人工智能技术被用来删除令人反感的内容,计算集群将驱动公司的元宇宙未来。该公司还在建造一台配备 16,000 个 GPU 的 AI 研究超级计算机。
Mercury Research 首席分析师迪恩·麦卡伦 (Dean McCarron) 表示,一般来说,现在正在为目标工作负载构建数据中心,这些工作负载越来越多地围绕人工智能应用,并且具有更多 GPU 和 CPU 内容。
云提供商经过漫长的评估周期来挑选最好的 CPU、GPU 和其他组件。总拥有成本是另一个考虑因素。
“这里的另一个问题是它有多灵活?因为一些购买者可能不想对特定的工作负载投入或做出太大的承诺,因为他们不知道将来是否会出现这种情况,”McCarron 说。
优先支持 AI 工作负载的数据中心将更多地采用 Intel、Nvidia 和 AMD 的 GPU 和 CPU。有些人可能会为 AI 工作负载选择备用加速器,但它们可以与 GPU 和 CPU 共存。
“你总是需要更快的 GPU。十年后,在数据中心,会有 CPU 吗?是的。会有 GPU 吗?是的,也是,”麦卡伦说。
编辑:黄飞
评论
查看更多