0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA在图形学研究领域的最新进展

NVIDIA英伟达企业解决方案 来源:NVIDIA英伟达企业解决方案 作者:NVIDIA英伟达企业解 2022-05-17 14:18 次阅读

在今年最重要的图形学大会(SIGGRAPH 2022)上, NVIDIA 的论文合著者将发表创纪录的 16 篇研究论文,推动神经渲染、3D 模拟、全息技术等领域的发展。

NVIDIA 在图形学研究领域的最新学术合作取得了丰硕的成果,包括能够顺利模拟运动动作的强化学习模型、用于虚拟现实的超薄全息眼镜以及隐藏式光源照明条件下的物体实时渲染技术。

上述学术成果及其他项目将在 8 月 8 日 至 11 日于温哥华举行的 SIGGRAPH 2022 上发表。本次大会以线上线下结合的方式举办, NVIDIA 研究人员将在此次大会上发表 16 篇技术论文,包含了与达特茅斯学院、斯坦福大学、瑞士洛桑联邦理工学院和特拉维夫大学等 14 所大学合作完成的研究。

这些论文覆盖整个图形学研究领域,将带来神经内容创建工具、显示和人类感知、计算机图形学数学基础以及神经渲染方面的进展。

可模拟多技能角色的神经工具

当使用强化学习模型开发基于物理的动画角色时, AI 通常一次只能学习一种技能,比如走路、跑步或翻跟头。但来自加州大学伯克利分校、多伦多大学和 NVIDIA 的研究人员创建了一个使 AI 能够学习一整套技能的框架。上图中便展示了一个能够挥剑、使用盾牌并在摔倒后爬起来的战士角色。

为动画角色实现这些流畅、栩栩如生的动作通常是一项乏味又费力的工作,因为开发者需要为每项新任务重新训练 AI。正如这篇论文所述,研究团队使强化学习 AI 能够重复利用已有技能来应对新场景,从而提高效率并减少额外需要的运动数据。

动画、机器人、游戏和治疗学领域的创作者都可以使用这样的工具。NVIDIA 研究人员还将在 SIGGRAPH 大会上发表多篇其他论文,介绍用于点云表面重建和交互式形状编辑的 3D 神经工具以及让 AI 能够更好理解矢量草图误差并提高延时视频视觉质量的 2D 工具。

将虚拟现实技术集成到轻型眼镜中

大多数虚拟现实用户需要佩戴笨重的头戴式显示器才能进入 3D 数字世界,但研究人员正在研究重量更轻、类似于普通眼镜的替代品。

NVIDIA 与斯坦福大学的研究人员合作,将 3D 全息图像所需的技术集成到一个只有几毫米厚的穿戴式显示器中。这种显示器的厚度仅 2.5 毫米,还不到其他被称为“饼干镜”的薄型 VR 显示器的一半,而且后者使用的是只支持 2D 图像的折叠光学技术。

研究人员将显示器的质量和尺寸作为一种计算问题,并使用 AI 算法,共同对光学器件进行设计,完成了这项难度极大的工作。

之前, VR 显示器的放大镜和显示面板之间需要隔开一段距离以创建全息影像,而新型显示器采用空间光调制器,使得不需要隔开距离就可以在用户眼前创建全息影像。瞳孔复制波导和几何相位透镜等其他部件进一步缩小了设备的体积。

除了这篇论文之外,斯坦福大学和 NVIDIA 在大会上还发表了另一篇 VR 领域的合著论文,提出了一种新的计算机生成全息技术框架,该框架能够优化带宽的使用,并提高图像的质量。此外, NVIDIA 与纽约大学和普林斯顿大学的科学家还将发表一篇显示和感知研究领域的合著论文,该论文测量了渲染质量如何影响用户对屏幕信息的反应速度。

“高光”一刻:树立复杂实时照明的新标杆

准确地实时模拟场景中的光线路径一直是图形学领域的重中之重。犹他大学计算机学院和 NVIDIA 在一篇论文中详细介绍了一种路径重采样算法,能够对包括隐藏光源在内的复杂照明场景进行实时渲染,为该领域树立了新标杆。

想象一下,一个昏暗房间中的桌子上有一个玻璃花瓶,屋外路灯的灯光照射在上面。光滑的表面形成了一条长长的光路,光线在光源和观众的眼睛之间多次反射。一般情况下,计算此类光线路径对于像游戏这样的实时应用来说过于复杂,所以大多用于电影或其他离线渲染应用。

这篇论文着重介绍了在渲染过程中使用统计重采样技术(算法在追踪这些复杂的光路时重复进行数千次计算)实时、高效地模拟这些光路。研究人员将该算法应用于计算机图形学领域具有挑战性的一个典型场景:间接照明条件下的一套金属、陶瓷和玻璃茶壶。

NVIDIA 在 SIGGRAPH 上发布的相关论文还包括:用于逆向体积渲染的新采样策略、用于 2D 形状操控的新数学表示法、为渲染和其他应用创建具有更高均匀性的采样器的软件以及将有偏渲染算法转化为更高效的无偏算法的方法。

神经渲染:NeRF 和 GAN 推动合成场景的发展

神经渲染算法可以从真实世界的数据中学习,然后创建合成图像。为了在 2D 和 3D 领域做到这一点, NVIDIA 的多个研究项目正致力于开发最先进的工具。

在 2D 领域,与特拉维夫大学合作开发的 StyleGAN-NADA 模型可以根据用户的文字提示来生成具有特定风格的图像,而且无需参考示例。例如用户可以直接生成复古的汽车图像,生成爱犬的画像,或者把大房子变成小屋。

在 3D 领域,NVIDIA 和多伦多大学的研究人员正在开发能够支持创建大型虚拟世界的工具。在 SIGGRAPH 大会上,他们将发表一篇名为《基于多分辨率哈希编码的即时神经图形基元》的论文,介绍 NVIDIA 在使用 Instant NeRF 训练模型方面实现的重大技术突破。

NeRF,即基于 2D 图像集合的 3D 场景,仅仅是神经图形基元技术的功能之一。它可以用来展示任何复杂的空间信息,目前已被应用于图像压缩、三维形状高精度展示和超高分辨率图像等领域。

这项工作与多伦多大学的一个合作项目不谋而合。就像是将 JPEG 用于压缩 2D 图像一样,该合作项目压缩 3D 神经图形基元,帮助用户在手机和机器人等小型设备之间存储和分享 3D 地图与娱乐体验。

NVIDIA 在全球有 300 多名研究人员,这些团队专注于 AI、计算机图形学、计算机视觉自动驾驶汽车和机器人技术等领域。点击“阅读原文”,进一步了解 NVIDIA Research。

原文标题:AI 在 SIGGRAPH 上大放异彩:顶尖学术研究者与 NVIDIA 合作,共同解决图形学领域的最大挑战

文章出处:【微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4981

    浏览量

    102997
  • 虚拟现实
    +关注

    关注

    15

    文章

    2287

    浏览量

    95005
  • AI
    AI
    +关注

    关注

    87

    文章

    30763

    浏览量

    268909

原文标题:AI 在 SIGGRAPH 上大放异彩:顶尖学术研究者与 NVIDIA 合作,共同解决图形学领域的最大挑战

文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    中科亿海微荣获2024年度中国图象图形学学会技术发明奖

    喜报近日,根据《中国图象图形学学会科学技术奖章程》和《中国图象图形学学会技术发明奖评选条例》相关要求,中国图象图形学学会组织完成了2024年科学技术奖励的推荐和评选工作。经过形式审查、初评公示和终
    的头像 发表于 12-11 01:02 123次阅读
    中科亿海微荣获2024年度中国图象<b class='flag-5'>图形学</b>学会技术发明奖

    NVIDIA探讨自动驾驶汽车安全问题

    行业专家齐聚华盛顿,探讨 AI 的最新进展,强调汽车安全准则和监管的必要性。
    的头像 发表于 11-19 14:42 178次阅读

    揭秘超以太网联盟(UEC)1.0 规范最新进展(2024Q4)

    近期,由博通、思科、Arista、微软、Meta等国际顶级半导体、设备和云厂商牵头成立的超以太网联盟(UEC)OCP Global Summit上对外公布其最新进展——UEC规范1.0的预览版本。让我们一睹为快吧!
    的头像 发表于 11-18 16:53 368次阅读
    揭秘超以太网联盟(UEC)1.0 规范<b class='flag-5'>最新进展</b>(2024Q4)

    Qorvo射频和电源管理领域最新进展

    了半导体行业的重大变革,还成功引领Qorvo成为射频技术的领导者。本次专访中,Philip将为大家分享Qorvo射频和电源管理领域最新进展,并探讨HPA事业部如何通过技术创新应对
    的头像 发表于 11-17 10:57 462次阅读

    芯片和封装级互连技术的最新进展

    近年来,计算领域发生了巨大变化,通信已成为系统性能的主要瓶颈,而非计算本身。这一转变使互连技术 - 即实现计算系统各组件之间数据交换的通道 - 成为计算机架构创新的焦点。本文探讨了通用、专用和量子计算系统中芯片和封装级互连的最新进展,并强调了这一快速发展
    的头像 发表于 10-28 09:50 399次阅读

    AI大模型的最新研究进展

    AI大模型的最新研究进展体现在多个方面,以下是对其最新进展的介绍: 一、技术创新与突破 生成式AI技术的爆发 : 生成式AI技术正在迅速发展,其强大的生成能力使得AI大模型多个领域
    的头像 发表于 10-23 15:19 414次阅读

    5G新通话技术取得新进展

    探讨5G新通话这一话题时,我们需首先明确其背景与重要性。自2022年4月国内运营商正式推出以来,5G新通话作为传统语音通话的升级版,迅速吸引了公众的目光,并引起了社会的广泛关注。它基于5G网络,代表了通信技术的新进展
    的头像 发表于 10-12 16:02 594次阅读

    NVIDIA视觉生成式AI的最新进展

    NVIDIA Research 发表 50 多篇论文,介绍 AI 软件创意产业、自动驾驶汽车开发、医疗和机器人领域的潜在应用。
    的头像 发表于 09-09 10:08 577次阅读

    NVIDIA NIM:打造AI领域的AI-in-a-Box,提高AI开发与部署的高效性

    据7月30日官方发布的资讯显示,全球备受瞩目的计算机图形学盛会——SIGGRAPH 2024上,NVIDIA公司对外展示了其诸如渲染、仿真及生成式AI等前沿
    的头像 发表于 07-30 16:27 666次阅读

    计算机图形学:探索虚拟世界的构建之道

    计算机图形学是计算机科学的一个分支,它专注于创建和操纵计算机生成的视觉和图形内容。这一领域涵盖了从基础的二维图形绘制到复杂的三维模型构建和渲染的广泛技术。
    的头像 发表于 05-07 08:27 402次阅读
    计算机<b class='flag-5'>图形学</b>:探索虚拟世界的构建之道

    百度首席技术官王海峰解读文心大模型的关键技术和最新进展

    4月16日,以“创造未来”为主题的Create 2024百度AI开发者大会在深圳国际会展中心成功举办。百度首席技术官王海峰以“技术筑基,星河璀璨”为题,发表演讲,解读了智能体、代码、多模型等多项文心大模型的关键技术和最新进展
    的头像 发表于 04-18 09:20 693次阅读
    百度首席技术官王海峰解读文心大模型的关键技术和<b class='flag-5'>最新进展</b>

    从原子到超级计算机:NVIDIA与合作伙伴扩展量子计算应用

    量子计算领域最新进展包括分子研究、部署巨型超级计算机,以及通过一项新的学术计划培养量子从业人员。
    的头像 发表于 03-22 10:05 420次阅读

    NVIDIA发布生成式AI微服务,推动药物研发、医疗科技和数字医疗发展

    NVIDIA 今日推出二十多项全新微服务,使全球医疗企业能够在任何地点和任何云上充分利用生成式 AI 的最新进展
    的头像 发表于 03-20 10:03 1687次阅读

    清华大学电子鼻传感器仿生嗅闻方向取得新进展

    近日,清华大学机械系电子鼻仿生嗅闻研究中取得新进展,相关研究成果以“Sniffing Like a Wine Taster: Multiple Overlapping Sniffs
    的头像 发表于 02-20 10:57 994次阅读
    清华大学<b class='flag-5'>在</b>电子鼻传感器仿生嗅闻方向取得<b class='flag-5'>新进展</b>

    两家企业有关LED项目的最新进展

    近日,乾富半导体与英创力两家企业有关LED项目传来最新进展
    的头像 发表于 01-15 13:37 681次阅读