0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用NVIDIA CloudXR和AWS简化部署和交付管理

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-04-07 09:44 次阅读

得益于扩展现实( XR )硬件和软件的最新发展,使用高保真 3D 图形创建沉浸式应用程序变得前所未有的容易。尽管如此,开发增强现实( AR )和虚拟现实( VR )应用程序仍然面临着挑战:

必须对地方开发工作站进行大量投资。

终端用户设备的计算能力仍然有限。

将应用程序部署到分布式用户会带来管理和安全复杂性。

通过和 Amazon NICE DCV 流协议一起使用 NVIDIA CloudXR,您可以在沉浸式应用程序开发的各个方面使用按需计算资源。这包括支持端到端工作流的服务、对数据安全的严格控制,以及简化部署和交付应用程序更新的管理。

AWS 和 NVIDIA CloudXR 的优势

生产级交互式 XR 应用程序需要一系列支持技术才能成功构建、交付和消费内容。来自云基础设施的微服务的出现使得将这些组件部署到端到端解决方案变得更加容易。 Amazon Web 服务( AWS )的计算、存储和网络资源可用于开发、部署和分发 XR 应用程序。然后可以使用 NVIDIA CloudXR 通过分布式网络远程渲染和流式传输这些内容。

利用 AWS 和 NVIDIA CloudXR 具有以下优势:

首先,可靠的云网络和安全工具为您的宝贵数据提供了一致的安全边界。

其次,此解决方案使远程渲染高保真、低延迟、全局可用、图形加速实例的体验成为可能。

最后,为分布式 XR 开发团队提供按需资源使您能够以很少的操作开销扩展您的员工队伍。

pYYBAGJOQgyALpqSAAGl8VttVCc400.png

pYYBAGJOQgyALpqSAAGl8VttVCc400.png

图 1 。 AWS 架构示例 (单击以获取全尺寸)

图 1 展示了 NVIDIA CloudXR 与 AWS 服务的示例配置,用于开发、部署和分发 XR 应用程序。

CloudXR 概述

NVIDIA CloudXR 是一个 SDK ,它使您能够在远程服务器(包括云)上实现富 VR 、 AR 和 XR 应用程序的实时 GPU 渲染和流式处理。通常需要固定 HMD 的应用程序可以在低功耗 VR 设备或平板电脑上远程连接和传输,而不会降低性能。

NVIDIA CloudXR 实现了 XR 流媒体的关键组件,使 AWS 客户能够使用云进行端到端 XR 应用程序开发。这个 NVIDIA CloudXR Amazon 机器图像 与 RTX 虚拟工作站捆绑,目前支持 Amazon EC2 G4 实例。

NICE DCV 概述

Amazon NICE DCV 是一种高性能的远程显示协议。它允许您在不同的网络条件下安全地将远程桌面和应用程序流从任何云或数据中心传送到任何设备。通过将 NICE DCV 与 Amazon EC2 配合使用,您可以在 Amazon EC2 实例上远程运行图形密集型应用程序。

NICE DCV 由最新的 NVIDIA GPU 提供动力,为构建下一代沉浸式应用程序的艺术家和开发人员提供低延迟性能。然后,您可以将结果流式传输到更普通的客户机,从而无需昂贵的专用工作站。

管理云中的内容

流媒体应用程序需要内容才能发挥作用。在为云中的沉浸式应用程序创建资产管理管道时, AWS 服务(如 Amazon 简单存储服务( S3 )、 Amazon DynamoDB ( NoSQL 低延迟数据库)和 Amazon API 网关)作为核心组件。

S3 成为存储 3D 资产和应用程序构建工件的数据存储。

DynamoDB 表用于存储和访问资产元数据和应用程序服务器信息

API 网关充当 AWS 中与客户端沉浸式应用程序交互的数据的前门。

当您的应用程序已完全准备就绪时,您可以将应用程序流 Amazon 和非持久化的应用程序流 Amazon 从桌面部署到应用程序。这些实例也配置了NVIDIA CloudXR SDK 服务器,允许它们接收来自 Nvidia CloudXR 客户端的设备的请求。

总结

通过 NVIDIA CloudXR 的流式体验,数据永远不会离开数据中心。全球可用的 AWS 实例允许您在接近最终用户的情况下提供体验,但 NVIDIA CloudXR 承担了繁重的任务,以减少感知延迟,并为最终用户提供流畅的体验。将 NVIDIA CloudXR 作为开发和测试过程的一部分,意味着您可以为相同的目标平台构建应用程序进行测试和最终部署。

使用 NVIDIA CloudXR 从 AWS 云端流式传输身临其境的体验,您可以将高保真图形传送到未受约束的 AR 和 VR 设备。通过在 Amazon EC2 上运行 NICE DCV 的开发工作站,您可以从任何位置为您的团队启动图形工作站。 AWS 云用于身临其境应用程序的开发、部署和分发,是一个高度可扩展、安全且具有弹性的单一真实源,适用于所有 3D 内容。

关于作者

William Cannady 是 NVIDIA enterprise XR 团队的技术产品经理。他专注于 XR 产品的技术方面,与合作伙伴和客户密切合作。

Adam Harder 是 Amazon Web Services 的高级空间计算解决方案架构师。他热衷于构建增强现实( AR )和虚拟现实( VR )应用程序以及支持它们的 3D 数据管道。

Kellan Cartledge 是 Amazon Web 服务的空间计算解决方案架构师。他曾在建筑、娱乐和计算机图形学的交叉领域工作,对虚拟世界和物理世界的结合充满激情。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4796

    浏览量

    102468
  • Ar
    Ar
    +关注

    关注

    24

    文章

    5053

    浏览量

    168758
  • vr
    vr
    +关注

    关注

    34

    文章

    9621

    浏览量

    149457
收藏 人收藏

    评论

    相关推荐

    NVIDIA RTX AI套件简化AI驱动的应用开发

    NVIDIA 于近日发布 NVIDIA RTX AI套件,这一工具和 SDK 集合能够帮助 Windows 应用开发者定制、优化和部署适用于 Windows 应用的 AI 模型。该套件免费提供,不要求使用者具备 AI 框架和开发
    的头像 发表于 09-06 14:45 275次阅读

    借助NVIDIA NIM加速AI应用部署

    大语言模型(LLM)在企业组织中的应用日益广泛,许多企业都将其整合到 AI 应用中。虽然从基础模型着手十分高效,但需要花费一定的精力才能将它们整合到生产就绪型环境中。NVIDIA NIM简化了这一过程,使企业能够在数据中心、云、工作站和 PC 等任何位置运行 AI 模型。
    的头像 发表于 08-23 16:38 279次阅读
    借助<b class='flag-5'>NVIDIA</b> NIM加速AI应用<b class='flag-5'>部署</b>

    奥迪借助Microsoft Intune简化终端管理平台

    平台,它要有能力应对极为复杂的部署环境,并且几乎无需任何用户干预,就能同时确保信息安全和访问顺畅。”经过周详的对比考察,奥迪最终发现,Microsoft Intune(国际版)是简化终端设备管理、保障工作效率和提升用户体验的最优
    的头像 发表于 08-20 09:53 378次阅读

    用按键来发布消息,AWS订阅消息,按键能用但就是在AWS平台上看不到信息,怎么解决?

    aws_root_ca_pem_start[] asm(\"_binary_aws_root_ca_pem_start\"); extern const uint8_t
    发表于 06-20 06:06

    Supermicro推出适配NVIDIA Blackwell和NVIDIA HGX H100/H200的机柜级即插即用液冷AI SuperCluster

    生成式AI SuperCluster与NVIDIA AI Enterprise、NIM微服务整合,并通过大规模可扩展的计算单元,提供立即性投资报酬率效益和更低的AI运行成本,进而简化AI以利快速部署
    发表于 06-07 15:12 197次阅读
    Supermicro推出适配<b class='flag-5'>NVIDIA</b> Blackwell和<b class='flag-5'>NVIDIA</b> HGX H100/H200的机柜级即插即用液冷AI SuperCluster

    NVIDIA与微软扩展合作,帮助开发者更快构建和部署AI应用

    NVIDIA 在 Microsoft Build 开发者大会上展示了与 Microsoft Azure 和 Windows PC 的集成解决方案,简化了 AI 模型部署并优化了路径规划和应用性能。
    的头像 发表于 05-23 10:14 308次阅读

    Nvidia Jetson Nano + CYW55573/AWXB327MA-PUR M.2无法使用操作系统内置的网络管理管理Wi-Fi如何解决?

    我们使用的是 Nvidia Jetson Nano + CYW55573/AWXB327MA-PUR M.2 ,请参阅 Nvidia Jetson 与英飞凌 AIROC Wi-Fi 6
    发表于 05-23 06:47

    NVIDIA AI微服务现已与AWS集成,加速药物研发和数字医疗

    NVIDIA NIM 使数千家使用 AWS 的医疗和生命科学公司能够快速、轻松开发和部署生成式 AI。
    的头像 发表于 05-09 09:21 1431次阅读

    NVIDIA数字人技术加速部署生成式AI驱动的游戏角色

    NVIDIA 在 GDC 2024 大会上宣布,Inworld AI 等领先的 AI 应用程序开发者,正在使用 NVIDIA 数字人技术加速部署生成式 AI 驱动的游戏角色。
    的头像 发表于 04-09 10:08 521次阅读
    <b class='flag-5'>NVIDIA</b>数字人技术加速<b class='flag-5'>部署</b>生成式AI驱动的游戏角色

    stm32 AWS云连接怎么使用?

    stm32 AWS云连接怎么使用,官方的扩展包看不明白
    发表于 04-01 07:21

    Edge Impulse发布新工具,助 NVIDIA 模型大规模部署

    借助 Edge Impulse 和 NVIDIA TAO 工具包的协同效应,工程师得以快速构建并部署至边缘优化硬件(如上述型号)的计算机视觉模型。该平台还支持用户运用经由 GPU 优化的 NVIDIA TAO 模型(如 YOLO
    的头像 发表于 03-25 16:00 595次阅读

    AWS成为第一个提供NVIDIA GH200 Grace Hopper超级芯片的提供商

    2023年的AWS re:Invent大会上,AWSNVIDIA宣布AWS将成为第一个提供NVIDIA GH200 Grace Hoppe
    的头像 发表于 11-30 09:24 555次阅读
    <b class='flag-5'>AWS</b>成为第一个提供<b class='flag-5'>NVIDIA</b> GH200 Grace Hopper超级芯片的提供商

    NVIDIA BioNeMo 在亚马逊云科技上线,实现用于药物研发的生成式 AI

    套件即将在亚马逊云科技(AWS)上的 NVIDIA DGX 云 上提供。 制药和科技生物头部企业的研究与开发人员现在可以通过亚马逊云科技( Amazon Web Services,AWS)轻松
    的头像 发表于 11-29 21:10 503次阅读

    如何简化电源管理方案设计

    电源管理是现代电子设备中非常重要的一个环节,它涉及到电能的转换、分配和控制等方面。随着电子设备的不断发展和复杂化,电源管理方案的设计也变得越来越复杂。为了简化电源管理方案设计,本文将从
    的头像 发表于 11-24 17:08 596次阅读

    AT32基于FreeRTOS的AWS MQTT客户端

    AT32基于FreeRTOS的AWS MQTT客户端建立一个MQTT客户端与 AWS IoT Core进行通讯,用户可以基于这个范例去开发属于自己的应用。
    发表于 10-26 06:03