姿态估计_超简易demo

// 所以所谓姿态估计到底怎么实现?
// paper核心代码有点难找,所以先看个简单实现感受一下

Mediapipe

Mediapipe是主要用于构建多模式音频,视频或任何时间序列数据的框架。借助MediaPipe框架,可以构建令人印象深刻的ML管道,例如TensorFlow,TFLite等推理模型以及媒体处理功能。

pip install mediapipe 

demo

import cv2  
import mediapipe as mp  
import time

# 初始化 Mediapipe Pose 模型
mpPose = mp.solutions.pose
pose = mpPose.Pose()
mpDraw = mp.solutions.drawing_utils

# 打开视频文件
cap = cv2.VideoCapture('C:/Users/HP/Downloads/dancing.mp4')

pTime = 0  # 上一帧的时间戳

# 进入视频帧处理的循环
while True:
    # 读取视频帧
    success, img = cap.read()
    # 如果读取失败,跳出循环
    if success is False:
        break
    
    # 将 BGR 格式的图像转换为 RGB 格式
    imgRGB = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    
    # 使用 Mediapipe Pose 模型进行姿势检测
    results = pose.process(imgRGB)
    
    # 如果检测结果为空,继续下一帧处理
    if results is None:
        continue
    
    # 打印姿势关键点的位置信息
    print(results.pose_landmarks)
    
    # 如果检测到姿势关键点,绘制关键点连接线
    if results.pose_landmarks:
        mpDraw.draw_landmarks(img, results.pose_landmarks, mpPose.POSE_CONNECTIONS)
    
    # 遍历每个关键点,绘制圆圈并标记关键点索引
    for id, lm in enumerate(results.pose_landmarks.landmark):
        h, w, c = img.shape
        print(id, lm)
        cx, cy = int(lm.x * w), int(lm.y * h)
        cv2.circle(img, (cx, cy), 5, (255, 0, 0), cv2.FILLED)
    
    # 计算帧率并在图像上绘制
    cTime = time.time()
    fps = 1 / (cTime - pTime)
    pTime = cTime
    cv2.putText(img, str(int(fps)), (50, 50), cv2.FONT_HERSHEY_SIMPLEX, 1, (255, 0, 0), 3)
    
    # 显示处理后的图像
    cv2.imshow("Image", img)
    key = cv2.waitKey(1) & 0xFF  # 等待按键输入,延迟1ms

# 清理窗口和释放视频流
cv2.destroyAllWindows()
cap.release()

结果

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

_bound

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值