0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用GPU加速深度学习展示如何实现全彩夜视系统

NVIDIA英伟达 来源:NVIDIA英伟达 作者:NVIDIA英伟达 2022-04-28 14:54 次阅读

科学家团队灵光一现,使用 GPU 加速深度学习展示如何实现全彩夜视系统。

在发布于《PLOS One》期刊的论文中,由 Pierre Baldi 教授和 Andrew Browne 博士领导的加州大学欧文分校研究小组描述了他们如何利用红外相机重建人脸照片的彩色图像。

研究使用人类无法察觉的近红外照明采集光线,推动了红外相机图像预测和重建技术的发展。

该研究的作者解释说,人类能够看到的“可见光谱”是波长在 400 至 700 纳米之间的光。

普通的夜视系统依靠相机来采集光谱外人们看不见的红外光。

研究人员表示,相机所采集的图像会被转换到显示器上,显示器单色显示红外相机所拍摄的内容。

加州大学欧文分校的团队开发了成像算法,该算法依靠深度学习来预测人类在红外相机捕获的光线中将看到什么。

ebb2cf60-c6a9-11ec-bce3-dac502259ad0.png

加州大学欧文分校的研究人员希望使用深度学习来预测红外光照明下的可见光谱图像

换言之,他们能够使用相机在人类完全看不见的环境中进行拍摄,并数字化渲染拍摄的图像。

为此,研究人员使用了对可见光和近红外光敏感的单色相机来获取面部打印图像的图像数据集。

这些图像是在覆盖标准可见红光、绿光、蓝光以及红外波长的多光谱照明下采集的。

研究人员优化了具有类 U-Net 架构的卷积神经网络,根据近红外图像来预测可见光谱图像。该神经网络是弗莱堡大学大学计算机科学系最初为生物医学图像分割所开发的专用卷积神经网络。

ebc3cbd0-c6a9-11ec-bce3-dac502259ad0.png

左边是由红、绿、蓝三色输入图像组成的可见光谱基准真相图像。右边是UNet-GAN、UNet和线性回归根据三幅红外输入图像预测重建的图像。

该系统使用 NVIDIA GPU 和 140 张人脸图像进行训练,其中 40 张用于验证,20 张用于测试。

最终,该团队成功重现了红外相机在黑暗房间中拍摄的彩色人像。换言之,他们创造了能够在全彩夜视系统。

可以肯定的是,这些系统目前还无法实现通用。它们需要经过训练后才能预测不同种类物体的颜色,比如花或人脸。

尽管如此,该研究未来可能会完全实现全彩夜视系统,就像我们在白天所能看到的一样。有朝一日,或许它使科学家也能够研究对可见光敏感的生物样本。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5021

    浏览量

    103250
  • 深度学习
    +关注

    关注

    73

    文章

    5507

    浏览量

    121273
  • 夜视系统
    +关注

    关注

    0

    文章

    17

    浏览量

    5102

原文标题:拥有颜色的夜晚:研究人员用深度学习实现全彩夜视系统

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    《CST Studio Suite 2024 GPU加速计算指南》

    的各个方面,包括硬件支持、操作系统支持、许可证、GPU计算的启用、NVIDIA和AMD GPU的详细信息以及相关的使用指南和故障排除等内容。 1. 硬件支持 - NVIDIA GPU
    发表于 12-16 14:25

    深度学习工作负载中GPU与LPU的主要差异

    ,一个新的竞争力量——LPU(Language Processing Unit,语言处理单元)已悄然登场,LPU专注于解决自然语言处理(NLP)任务中的顺序性问题,是构建AI应用不可或缺的一环。 本文旨在探讨深度学习工作负载中GPU
    的头像 发表于 12-09 11:01 352次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>工作负载中<b class='flag-5'>GPU</b>与LPU的主要差异

    GPU深度学习中的应用 GPUs在图形设计中的作用

    随着人工智能技术的飞速发展,深度学习作为其核心部分,已经成为推动技术进步的重要力量。GPU(图形处理单元)在深度学习中扮演着至关重要的角色,
    的头像 发表于 11-19 10:55 586次阅读

    NPU在深度学习中的应用

    设计的硬件加速器,它在深度学习中的应用日益广泛。 1. NPU的基本概念 NPU是一种专门针对深度学习算法优化的处理器,它与传统的CPU和
    的头像 发表于 11-14 15:17 691次阅读

    pcie在深度学习中的应用

    深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习的需求。因此,GPU(图形处理单元)和TPU
    的头像 发表于 11-13 10:39 438次阅读

    PyTorch GPU 加速训练模型方法

    深度学习领域,GPU加速训练模型已经成为提高训练效率和缩短训练时间的重要手段。PyTorch作为一个流行的深度
    的头像 发表于 11-05 17:43 584次阅读

    星光夜视全彩一体化机芯:野生动物观察保护的技术新篇章

    换微弱的光线信号,而光学系统则确保这些信号能够以最清晰、最准确的方式呈现在观察者的眼前。 与传统的夜视技术相比,星光夜视全彩一体化机芯不仅在清晰度上有了显著提升,更重要的是它能够呈现
    的头像 发表于 10-31 11:20 211次阅读

    Pytorch深度学习训练的方法

    掌握这 17 种方法,用最省力的方式,加速你的 Pytorch 深度学习训练。
    的头像 发表于 10-28 14:05 227次阅读
    Pytorch<b class='flag-5'>深度</b><b class='flag-5'>学习</b>训练的方法

    GPU深度学习应用案例

    GPU深度学习中的应用广泛且重要,以下是一些GPU深度学习应用案例: 一、图像识别 图像识别是
    的头像 发表于 10-27 11:13 415次阅读

    GPU加速计算平台是什么

    GPU加速计算平台,简而言之,是利用图形处理器(GPU)的强大并行计算能力来加速科学计算、数据分析、机器学习等复杂计算任务的软硬件结合
    的头像 发表于 10-25 09:23 260次阅读

    FPGA加速深度学习模型的案例

    :DE5Net_Conv_Accelerator 应用场景 :面向深度学习的开源项目,实现了AlexNet的第一层卷积运算加速。 技术特点 : 采用了Verilog语言进行编程,与P
    的头像 发表于 10-25 09:22 256次阅读

    深度学习GPU加速效果如何

    图形处理器(GPU)凭借其强大的并行计算能力,成为加速深度学习任务的理想选择。
    的头像 发表于 10-17 10:07 207次阅读

    FPGA做深度学习能走多远?

    。例如,在数据中心中,可以将 FPGA 与 CPU 或 GPU 结合使用,根据不同的任务需求进行灵活的资源分配和协同计算,提高整个系统的性能和效率。 • 算法优化和创新:随着深度学习
    发表于 09-27 20:53

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现更经济便捷的
    发表于 06-11 17:09

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公司的股价也大幅
    发表于 03-21 15:19