0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用KeyPointRCNN轻松获取人体的17个关键点

OpenCV学堂 来源:OpenCV学堂 作者:gloomyfish 2022-10-14 17:33 次阅读

前言

TorchVision支持主流姿态评估模型关键点检测模型KeyPointRCNN,通过它可以轻松获取人体的17个关键点,跟OpenPose等模型相比,KeyPointRCNN基于TorchVision框架,迁移学习训练简单,支持一键导出ONNX格式,可以部署到ONNXRUNTIME与OpenVINO,支持C++PythonSDK部署,可以说在易用性上丝毫不差!

14a3e83c-4b9d-11ed-a3b6-dac502259ad0.jpg

KeyPointRCNN模型介绍

Torchvision中KeyPointRCNN已经是基于2021年的论文中的最新版本,效果非常好,2021年论文比2019论文最大的改动在预测的编码与解码部分,提出了CIF与CAF两种新的编码方法,模型结构图示如下:

14ebe696-4b9d-11ed-a3b6-dac502259ad0.png

上述一段英文交代的比较清楚,模型输入就是一张RGB彩色图像,模型最终的输出有四个部分组成,分别是boxes、labels、scores、keypoints,它们的输出结构如下:

15bba5ca-4b9d-11ed-a3b6-dac502259ad0.png

不是还有最后一个输出层没有解释吗,最后一个输出层其实是各个关键点的得分信息,小于的基本上应该都被干掉,不可信。

另外KeyPoint部分输出是17x3,3表示x、y、v其中v表示是否可见,v为1表示该关键点可见、v为0表示该关键点不可见。 各个关节点的连接顺序与编码坐标如下(写代码有用的):

27b1581a-4b9d-11ed-a3b6-dac502259ad0.png

27dd11da-4b9d-11ed-a3b6-dac502259ad0.png

KeyPointRCNN推理演示

Torchvision官方提供了预训练的模型,直接下载之后,通过下面的脚本就可以转换为ONNX格式模型,然后通过ONNXRUNTIME就可以完成推理演示。

第一步,转ONNX格式

相关脚本如下

model=torchvision.models.detection.keypointrcnn_resnet50_fpn(weights=KeypointRCNN_ResNet50_FPN_Weights.DEFAULT)
model.eval()
x=[torch.rand(3,300,400),torch.rand(3,500,400)]
predictions=model(x)

#optionally,ifyouwanttoexportthemodeltoONNX:
torch.onnx.export(model,x,"keypoint_rcnn.onnx",opset_version=11)
如果不工作,请参考这里的转换脚本修改之: TorchVision对象检测RetinaNet推理演示

第二步:ONNRUNTIME推理演示

这部分跟之前发过一篇RetinaNet推理文章非常相似,这篇文章的连接如下,代码只是稍微改了那么一点点,增加了KeyPoint部分的可视化,推理部分的代码如下:
importonnxruntimeasort
importcv2ascv
importnumpyasnp
importtorchvision

coco_names={'0':'background','1':'person','2':'bicycle','3':'car','4':'motorcycle','5':'airplane','6':'bus',
'7':'train','8':'truck','9':'boat','10':'trafficlight','11':'firehydrant','13':'stopsign',
'14':'parkingmeter','15':'bench','16':'bird','17':'cat','18':'dog','19':'horse','20':'sheep',
'21':'cow','22':'elephant','23':'bear','24':'zebra','25':'giraffe','27':'backpack',
'28':'umbrella','31':'handbag','32':'tie','33':'suitcase','34':'frisbee','35':'skis',
'36':'snowboard','37':'sportsball','38':'kite','39':'baseballbat','40':'baseballglove',
'41':'skateboard','42':'surfboard','43':'tennisracket','44':'bottle','46':'wineglass',
'47':'cup','48':'fork','49':'knife','50':'spoon','51':'bowl','52':'banana','53':'apple',
'54':'sandwich','55':'orange','56':'broccoli','57':'carrot','58':'hotdog','59':'pizza',
'60':'donut','61':'cake','62':'chair','63':'couch','64':'pottedplant','65':'bed',
'67':'diningtable','70':'toilet','72':'tv','73':'laptop','74':'mouse','75':'remote',
'76':'keyboard','77':'cellphone','78':'microwave','79':'oven','80':'toaster','81':'sink',
'82':'refrigerator','84':'book','85':'clock','86':'vase','87':'scissors','88':'teddybear',
'89':'hairdrier','90':'toothbrush'}

transform=torchvision.transforms.Compose([torchvision.transforms.ToTensor()])

sess_options=ort.SessionOptions()
#Belowisforoptimizingperformance
sess_options.intra_op_num_threads=24
#sess_options.execution_mode=ort.ExecutionMode.ORT_PARALLEL
sess_options.graph_optimization_level=ort.GraphOptimizationLevel.ORT_ENABLE_ALL
ort_session=ort.InferenceSession("keypointrcnn_resnet50_fpn.onnx",sess_options=sess_options,
providers=['CUDAExecutionProvider'])
src=cv.imread("D:/images/messi_player.jpg")
cv.namedWindow("KeyPointRCNNDetectionDemo",cv.WINDOW_AUTOSIZE)
image=cv.cvtColor(src,cv.COLOR_BGR2RGB)
blob=transform(image)
c,h,w=blob.shape
input_x=blob.view(1,c,h,w)
defto_numpy(tensor):
returntensor.detach().cpu().numpy()iftensor.requires_gradelsetensor.cpu().numpy()

#computeONNXRuntimeoutputprediction
ort_inputs={ort_session.get_inputs()[0].name:to_numpy(input_x)}
ort_outs=ort_session.run(None,ort_inputs)
#(N,4)dimensionalarraycontainingtheabsolutebounding-box
boxes=ort_outs[0]
#labels
labels=ort_outs[1]
#scores
scores=ort_outs[2]
#key_points
multi_key_points=ort_outs[3]

print(boxes.shape,boxes.dtype,labels.shape,labels.dtype,scores.shape,scores.dtype,multi_key_points.shape)

index=0
forx1,y1,x2,y2inboxes:
ifscores[index]>0.5:
cv.rectangle(src,(np.int32(x1),np.int32(y1)),
(np.int32(x2),np.int32(y2)),(140,199,0),2,8,0)
label_id=labels[index]
label_txt=coco_names[str(label_id)]
cv.putText(src,label_txt,(np.int32(x1),np.int32(y1)),cv.FONT_HERSHEY_SIMPLEX,0.75,(0,0,255),1)
kpts=np.int32(multi_key_points[index])

#nose->left_eye->left_ear.(0,1),(1,3)
cv.line(src,(kpts[0][0],kpts[0][1]),(kpts[1][0],kpts[1][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[1][0],kpts[1][1]),(kpts[3][0],kpts[3][1]),(255,255,0),2,8,0)
#nose->right_eye->right_ear.(0,2),(2,4)
cv.line(src,(kpts[0][0],kpts[0][1]),(kpts[2][0],kpts[2][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[2][0],kpts[2][1]),(kpts[4][0],kpts[4][1]),(255,255,0),2,8,0)
#nose->left_shoulder->left_elbow->left_wrist.(0,5),(5,7),(7,9)
cv.line(src,(kpts[0][0],kpts[0][1]),(kpts[5][0],kpts[5][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[5][0],kpts[5][1]),(kpts[7][0],kpts[7][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[7][0],kpts[7][1]),(kpts[9][0],kpts[9][1]),(255,255,0),2,8,0)
#nose->right_shoulder->right_elbow->right_wrist.(0,6),(6,8),(8,10)
cv.line(src,(kpts[0][0],kpts[0][1]),(kpts[6][0],kpts[6][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[6][0],kpts[6][1]),(kpts[8][0],kpts[8][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[8][0],kpts[8][1]),(kpts[10][0],kpts[10][1]),(255,255,0),2,8,0)
#left_shoulder->left_hip->left_knee->left_ankle.(5,11),(11,13),(13,15)
cv.line(src,(kpts[5][0],kpts[5][1]),(kpts[11][0],kpts[11][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[11][0],kpts[11][1]),(kpts[13][0],kpts[13][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[13][0],kpts[13][1]),(kpts[15][0],kpts[15][1]),(255,255,0),2,8,0)
#right_shoulder->right_hip->right_knee->right_ankle.(6,12),(12,14),(14,16)
cv.line(src,(kpts[6][0],kpts[6][1]),(kpts[12][0],kpts[12][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[12][0],kpts[12][1]),(kpts[14][0],kpts[14][1]),(255,255,0),2,8,0)
cv.line(src,(kpts[14][0],kpts[14][1]),(kpts[16][0],kpts[16][1]),(255,255,0),2,8,0)
forx,y,_,inkpts:
cv.circle(src,(int(x),int(y)),3,(0,0,255),2,8,0)

index+=1
cv.imshow("KeyPointRCNNDetectionDemo",src)
cv.waitKey(0)
cv.destroyAllWindows()
测试与运行结果如下:

39f23f08-4b9d-11ed-a3b6-dac502259ad0.jpg

3a16916e-4b9d-11ed-a3b6-dac502259ad0.jpg

基于3050的卡,GPU推理,速度!没办法模型有点大,速度有点慢,需要好N卡加持才能实时检测!

3a53ac7a-4b9d-11ed-a3b6-dac502259ad0.png







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编解码
    +关注

    关注

    1

    文章

    140

    浏览量

    19652
  • python
    +关注

    关注

    56

    文章

    4807

    浏览量

    85000
  • CAF
    CAF
    +关注

    关注

    1

    文章

    19

    浏览量

    14641

原文标题:姿态评估之使用KeyPointRCNN关键点检测模型轻松搞定!

文章出处:【微信号:CVSCHOOL,微信公众号:OpenCV学堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    XenD101H | 人体生命存在感应参考设计

    传感器特征覆盖更广:广覆盖兼容挂顶挂壁的检测方式精准探测:具备静卧及睡眠状态的人体生命存在感知轻松部署:自动化生成参数配置,快速适配多样化场景量产无忧:易用的配套资源,快速导入量
    的头像 发表于 12-11 19:16 195次阅读
    XenD101H | <b class='flag-5'>人体</b>生命存在感应参考设计

    ADS1293获取人体心电信号,如何实现隔直?

    1. ADS1293获取人体心电信号,如何实现隔直?ECG信号没有隔直处理的话,基线会偏离0电压位置,并且不同的人在不同的时间,偏置的电压不尽相同。 2. ADS1293评估板手册上,波形十分
    发表于 12-10 08:25

    常见人体姿态评估显示方式的两种方式

    ,基于Deeplabv3+ 与ResNet34构建的一个人体语义分割模型。 火柴人 主要是基于关键人体姿态评估显示方式,基于YOLOv8等人体
    的头像 发表于 11-11 11:21 278次阅读
    常见<b class='flag-5'>人体</b>姿态评估显示方式的两种方式

    处理器指令的获取过程

    微处理器指令的获取是计算机执行程序过程中的关键环节,它决定了微处理器如何对数据和指令进行处理。以下将详细阐述微处理器指令的获取过程,包括指令的来源、存储位置、读取方式以及相关的硬件和软件支持。
    的头像 发表于 10-05 15:16 417次阅读

    人体体温监测传感器怎么用

    体温。人体是一天然的红外辐射源,其辐射能量主要集中在3-50微米的波长范围内,其中90%集中在8-14微米。体温监测传感器通过接收这些辐射能量,将其转换为电信号,再通过算法处理得到体温值。 2. 人体体温监测传感器的分类 2.
    的头像 发表于 09-25 10:23 1182次阅读

    超详细!晶振电路设计的7关键因素,小白也能变高手!

    关键组件中的每一。什么是晶体振荡器电路?(振荡器电路基础知识)晶体振荡器电路由放大器和反馈网络组成。反馈网络从放大器获取特定输出,并将其发送回放大器输入。拉出来
    的头像 发表于 07-13 07:20 815次阅读
    超详细!晶振电路设计的7<b class='flag-5'>个</b><b class='flag-5'>关键</b>因素,小白也能变高手!

    EVASH + 云汉芯城战略合作 购买EVASH Ultra EEPROM,解决采购难题,轻松获取高性能存储解决方案!

    EVASH + 云汉芯城战略合作 购买EVASH Ultra EEPROM,解决采购难题,轻松获取高性能存储解决方案!
    的头像 发表于 06-26 18:38 409次阅读

    时间继电器应用的三关键是什么?

    时间继电器应用的三关键:选型、安装和调试。 一、时间继电器的选型 确定时间继电器的类型 时间继电器按照工作原理可以分为电磁式、电子式和干簧式等几种类型。电磁式时间继电器具有结构简单、价格低廉、可靠性高等特点,
    的头像 发表于 06-21 10:00 903次阅读

    开发者申请Gemini 1.5 Pro API Key:轻松获取Gemini 1.5 Pro模型API Key并开发部署AI应用

    Pro 开放 API 让开发者申请使用!轻松获取Gemini 1.5 Pro API Key教程:开发者申请部署ai应用。 Gemini Pro 1.5 超过180国家或地区的Gemini API公测
    的头像 发表于 06-10 18:21 1695次阅读
    开发者申请Gemini 1.5 Pro API Key:<b class='flag-5'>轻松</b><b class='flag-5'>获取</b>Gemini 1.5 Pro模型API Key并开发部署AI应用

    英码科技EA500I基于昇腾Mind SDK实现实时人体关键点检测

    在教育、体育、安防、交通、医疗等领域中,实时人体关键点检测应用发挥着至关重要的作用,比如在体育训练时,实时人体关键点检测可以精确、实时地捕捉运动员的动作,从而进行动作分析和优化;在安防
    的头像 发表于 04-21 17:44 1055次阅读
    英码科技EA500I基于昇腾Mind SDK实现实时<b class='flag-5'>人体</b><b class='flag-5'>关键</b>点检测

    英码科技EA500I基于昇腾Mind SDK实现实时人体关键点检测

    在教育、体育、安防、交通、医疗等领域中,实时人体关键点检测应用发挥着至关重要的作用,比如在体育训练时,实时人体关键点检测可以精确、实时地捕捉运动员的动作,从而进行动作分析和优化;在安防
    的头像 发表于 04-20 08:25 610次阅读
    英码科技EA500I基于昇腾Mind SDK实现实时<b class='flag-5'>人体</b><b class='flag-5'>关键</b>点检测

    什么是人体静电

    深圳比创达电子EMC|什么是人体静电
    的头像 发表于 04-15 10:58 757次阅读

    【量子计算机重构未来 | 阅读体验】第二章关键知识

    质量的不足 作者着重讲解了目前离商用落地最近的量子计算机---量子退火计算机,此类计算机在组合最优化问题上,能高效地提供较高质量的输出结果,让人在解决组合最优化的过程中少走弯路。 量子退火最关键
    发表于 03-06 23:17

    G口大流量服务器选择的关键有哪些?

    G口大流量服务器选择的关键有哪些?
    的头像 发表于 02-06 09:57 352次阅读

    数据中心机房建设的关键及解决方案

    。本文将探讨机房系统建设的投资及运行维护的关键,并提供相应的分析和建议。 一、机房系统建设的投资 机房系统建设的投资是项目成功的关键。这部分投资主要包括机房设施建设和机房运行管理两
    的头像 发表于 02-03 10:26 1268次阅读