0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种基于去遮挡和移除的3D交互手姿态估计框架

工程师邓生 来源:商汤学术 作者:孟浩、金晟 2022-09-14 16:30 次阅读

本文主要介绍商汤智能感知终端团队,发表在 ECCV 2022 上的工作。针对3D交互双手姿态估计问题,作者采用分而治之的策略,把交互的双手姿态估计问题,解耦成两个单手姿态估计问题。

作者提出了一种基于去遮挡和移除的3D交互手姿态估计框架,补全目标手被遮挡的部分,并移除另一只有干扰的手。此外,作者还构建了一个大规模数据集Amodal InterHand Dataset (AIH),用以训练手势去遮挡和移除网络。实验结果表明,论文提出的框架在InterHand2.6M 和 Tzionas 两个主流的公开数据集上,都获得了显著的性能提升。

7bb4cbfa-305d-11ed-ba43-dac502259ad0.png      

Part 1动机和背景

7c04d99c-305d-11ed-ba43-dac502259ad0.jpg

图1 本文算法(右)与baseline(左)的对比

手,是人和世界交互的主要工具。3D交互手姿态估计,指从单目彩色图中,恢复出一个人两只互相交互的手的骨架。它是人机交互、AR/VR、手语理解等诸多现实应用的基础。 与被充分研究的单手姿态估计任务不同,交互手3D姿态估计是近两年来刚兴起的学术方向。

现存的工作会直接同时预测交互手的左右两手的姿态,而我们则另辟蹊径,将交互手姿态估计任务,解耦成左右两手分别的单手姿态估计任务。这样,我们就可以充分利用当下单手姿态估计技术的最新进展。 然而相比通常的单手姿态估计任务来说,交互手姿态估计有以下两个难点:一是左右手间可能存在的严重的遮挡,难以估计被遮挡的手的姿态;二是左右手颜色纹理相近有歧义性,预测一只手的姿态可能会因另一只手的存在而被干扰。

为了解决这两个困难,我们提出了去遮挡和移除框架,旨在预测一只手的姿态时,补全它被遮挡的部分,并移除有干扰的另一只手的部分。由图1的示例可见,在用去遮挡和移除框架后,交互手的图片会恢复右手被遮挡的部分,也会移除有干扰的左手的部分,进而转换成右手的单手姿态估计任务。

此外,我们还构建了第一个大规模的合成交互手数据集(Amodal InterHand Dataset)。该数据集具有很多应用前景,如交互式双手姿态估计、Amodal & modal的实例分割、以及手部去遮挡。

Part 2方法

7c365d00-305d-11ed-ba43-dac502259ad0.jpg

图2 本文提出的框架示意图

本文的框架包括三个部分:手部非模态分割模块(HASM)、手部去遮挡和移除模块(HDRM)、单手姿态估计模块(SHPE)。

我们首先用HASM去分割图像中左右手的模态和非模态掩码,在得到掩码后,我们可以分别定位左右两手的位置并对图片进行裁剪。

之后,我们利用HDRM恢复手被遮挡的部分并移除另一只有干扰的手。

这样,一个交互手的图片会被转换成左右两手的单个手的图片,通过SHPE后可以得到左右手分别的姿态。

2.1 手部非模态分割模块(HASM)

我们基于mmsegmentation框架,从交互手的图片中分割出四种掩码:左手可见区域、左手完整区域、右手可见区域和右手完整区域。

2.2 手部去遮挡和移除模块(HDRM)

7c4e1c60-305d-11ed-ba43-dac502259ad0.jpg

图3 HDRNet示意图 以右手为例,首先根据2.1预测的掩码,以右手完整部分掩码为中心,裁剪得到图片。

而HDRNet的输入则有以下四部分拼接而成:(1)图片右手被遮挡区域被涂黑;(2)右手可见部分掩码;(3)I图片左手多余区域被涂黑;(4)除左右两手外的背景区域的掩码。

我们借鉴经典的inpainting方法中的网络结构(UNet + Partial Convolutions),并在其中加入了一些Transformer结构,来增强图像特征、扩大感受野,以及让网络关注更重要的图像区域。

网络HDRNet最终预测出右手被遮挡区域的像素,以及左手多余区域背后背景的像素,这样最终预测结果即为单个右手的图片。

2.3 单手姿态估计模块(SHPE)

由于SHPE不是本文的重点,因此我们使用了一个简单有效的开源方法MinimalHand作为我们的baseline。

Part3AIH虚拟交互手数据集

7c741712-305d-11ed-ba43-dac502259ad0.jpg

图4 AIH数据集中的样例 为了充分训练我们提出的HDRM网络,我们基于InterHand2.6M V1.0数据集,构建了第一个大规模的虚拟合成的Amodal交互手数据集(AIH)。

AIH有大约300万样本组成,其中AIH_Syn 有220万样本,AIH_Render有70万样本。前者是将InterHand2.6M V1.0数据集的单个右手或单个左手的图片,进行复制粘贴,合成的交互手图片。

后者是将InterHand2.6M V1.0数据集的双手mesh装饰上纹理,经过随机的旋转和平移,最终渲染到随机的数据集背景上得到的图片。图4展示了AIH数据集的可视化效果。

Part 4实验结果

我们在 InterHand2.6M V1.0 和 Tzionas 两个主流的数据集上做了实验。如表1和表2所示,定量实验表明,我们提出的算法,取得了最优的精度。

而且在耗时方面,在Tesla P40机器上单个样本预测,HDRM(我们的主要贡献点)只需要0.6ms,占整个框架预测时间47.2ms中很小一部分。更多可视化效果见图5。

表1InterHand2.6M V1.0 数据集的定量结果对比

7c9c08da-305d-11ed-ba43-dac502259ad0.jpg

表2Tzionas 数据集的定量结果对比

7cbac54a-305d-11ed-ba43-dac502259ad0.jpg7cd8c9dc-305d-11ed-ba43-dac502259ad0.jpg

图5 更多可视化结果



审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1781

    文章

    45005

    浏览量

    232415
  • 智能传感器
    +关注

    关注

    14

    文章

    561

    浏览量

    55131
  • 计算机视觉
    +关注

    关注

    8

    文章

    1613

    浏览量

    45717

原文标题:ECCV 2022 | 基于去遮挡和移除的3D交互双手姿态估计

文章出处:【微信号:3D视觉工坊,微信公众号:3D视觉工坊】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    ad19中3d模型不显示?

    封装库导入3d模型不显示,但导入3d模型后的封装库生成pcb文件时显示3d模型,这是什么原因导致的。
    发表于 04-24 13:41

    头盔3D扫描逆向工程3d建模抄数测绘服务-CASAIM中科广电

    3D扫描
    中科院广州电子
    发布于 :2024年04月12日 14:03:01

    包含具有多种类型信息的3D模型

    、安全和高效的建筑系统,让居住者能够拥有可持续、弹性舒适且符合人体工程学的建筑。建筑信息模型 (BIM) 是建筑工程师在建筑物和其他结构设计中使用的一种3D建模过程。BIM软件提供了个基于模型
    发表于 03-28 17:18

    3D动画原理:电阻

    电阻3D
    深圳崧皓电子
    发布于 :2024年03月19日 06:49:19

    友思特C系列3D相机:实时3D点云图像

    3D相机
    虹科光电
    发布于 :2024年01月10日 17:39:25

    【爱芯派 Pro 开发板试用体验】人体姿态估计模型部署前期准备

    的。 2、VR游戏:大家可能用过像kinect这样的设备,用于VR体感游戏。kinect同样会识别当前用户的姿态,然后用于VR交互中。 3、活动识别。通过得到人体姿态后,再通过
    发表于 01-01 01:04

    PADS VX2.7 下载安装及3D模型导入的注意事项

    :https://www.3ds.com/下载相关3D模型*.STP等格式 2.打开PCB 3D视图; 3.选中元件,点击菜单导入3D模型;
    发表于 11-22 17:54

    基于飞控的姿态估计算法作用及原理

      姿态估计的作用? 姿态估计是飞控算法的一个基础部分,而且十分重要。为了完成飞行器平稳的姿态控制,首先需要精准的
    发表于 11-13 11:00 541次阅读
    基于飞控的<b class='flag-5'>姿态</b><b class='flag-5'>估计</b>算法作用及原理

    一种利用几何信息的自监督单目深度估计框架

    本文方法是一种自监督的单目深度估计框架,名为GasMono,专门设计用于室内场景。本方法通过应用多视图几何的方式解决了室内场景中帧间大旋转和低纹理导致自监督深度估计困难的挑战。
    发表于 11-06 11:47 223次阅读
    <b class='flag-5'>一种</b>利用几何信息的自监督单目深度<b class='flag-5'>估计</b><b class='flag-5'>框架</b>

    基于MMPose的姿态估计配置案例

    将统一的人体姿态分析框架解耦成不同的模块组件,通过组合不同的模块组件,可以便捷地构建自定义人体姿态分析模型。 本文主要对动物关键点检测模型进行微调与测试,从数据集构造开始,详细解释各模块作用。对一些新手可能会犯的错误做一些说明
    发表于 09-15 10:07 1053次阅读
    基于MMPose的<b class='flag-5'>姿态</b><b class='flag-5'>估计</b>配置案例

    光学3D表面轮廓仪可以测金属吗?

    测量金属制品的长度、宽度、高度等维度参数。 除了测量金属表面的形状和轮廓外,光学3D表面轮廓仪还可以生成三维点云数据和色彩图像,用于进步分析和展示: 1、三维点云数据可以用于进行CAD模型比对、工艺
    发表于 08-21 13:41

    3d人体姿态估计用什么实现的原理 为什么要先进行2D估计再进行3D估计

    3D姿态数据集是依靠适合室内环境的动作捕捉(MOCAP)系统构建的。MOCAP系统需要带有多个传感器和紧身衣裤的复杂装置,在室外环境使用是不切实际的
    发表于 08-03 11:40 945次阅读
    <b class='flag-5'>3d</b>人体<b class='flag-5'>姿态</b><b class='flag-5'>估计</b>用什么实现的原理 为什么要先进行2D<b class='flag-5'>估计</b>再进行<b class='flag-5'>3D</b><b class='flag-5'>估计</b>?

    基于PoseDiffusion相机姿态估计方法

    介绍 一般意义上,相机姿态估计通常依赖于如手工的特征检测匹配、RANSAC和束调整(BA)。在本文中,作者提出了PoseDiffusion,这是一种新颖的相机姿态
    的头像 发表于 07-23 15:22 939次阅读
    基于PoseDiffusion相机<b class='flag-5'>姿态</b><b class='flag-5'>估计</b>方法

    AI技术:一种联合迭代匹配和姿态估计框架

    由于噪声和退化,并非所有正确匹配都能给出良好的姿态。之前的操作仅保证具有判别性高的描述子的特征点有更高的匹配分数,并且首先被识别以参与姿态估计,但忽略了鲁棒姿态
    发表于 07-18 12:58 373次阅读
    AI技术:<b class='flag-5'>一种</b>联合迭代匹配和<b class='flag-5'>姿态</b><b class='flag-5'>估计</b><b class='flag-5'>框架</b>

    低成本3D扫描仪机械部分设计中。#3d打印 #3d扫描 #3d建模 #3d #fusion

    3D扫描仪
    学习电子知识
    发布于 :2023年07月03日 20:13:56