ONNX 模型库
返回模型

说明文档

RTMO / YOLO-NAS-Pose 使用 CUDAExecutionProvider / TensorrtExecutionProvider 推理演示

  • demo.sh:演示主程序,会首先安装 rtmlib,然后使用 rtmo-s 分析 video 文件夹中的 .mp4 文件。
  • demo_batch.sh:demo.sh 的多批次版本
  • rtmo_gpu.py:定义了 RTMO_GPU(和 RTMO_GPU_BATCH)类,对 CUDA 和 TensorRT 设置进行微调。
  • rtmo_demo.py:Python 主程序,有三个参数:
    • path:包含待分析 .mp4 文件的文件夹位置。
    • model_path:ONNX 模型的本地路径,或指向 mmpose 上发布的 RTMO 模型的 URL。
    • --yolo_nas_pose:如果使用 YOLO NAS Pose 模型而非 RTMO 模型进行推理。
  • rtmo_demo_batch.py:demo_batch.sh 的多批次版本
  • video:包含一个测试视频。

注意事项

  • 原始 ONNX 模型来自 MMPOSE/RTMO 项目页面,在 body7 数据集上训练。我们仅做了...
  • 演示推理代码修改自 rtmlib
  • TensorrtExecutionProvider 仅支持固定批量大小的模型(*_batchN.onnx),而 CUDAExecutionProvider 可以运行动态批量大小的模型。

我们做了以下工作以使其能够与 TensorRTExecutionProvider 配合使用:

  1. 形状推断
  2. 批量大小固定为 1、2、4

附注:同时也提供了 FP16 ONNX 模型。

pesi/rtmo

作者 pesi

object-detection
↓ 0 ♥ 2

创建时间: 2024-03-01 10:05:28+00:00

更新时间: 2024-09-04 05:25:17+00:00

在 Hugging Face 上查看

文件 (24)

.gitattributes
README.md
constant_folding.sh
convert_to_fp16.py
convert_to_fp16_all.py
convert_to_mixed.py
demo.sh
demo_batch.sh
onnx_to_engine-jetpack_4p6.py
onnx_to_engine-jetpack_5p1.py
rtmo-l.fp16.onnx ONNX
rtmo-l.onnx ONNX
rtmo-m.fp16.onnx ONNX
rtmo-m.onnx ONNX
rtmo-s.fp16.onnx ONNX
rtmo-s.onnx ONNX
rtmo-t.fp16.onnx ONNX
rtmo-t.onnx ONNX
rtmo_demo.py
rtmo_demo_batch.py
rtmo_gpu.py
symbolic_shape_infer.py
symbolic_shape_infer_all.sh
video/Oldest video ever - 1888 [tc-L9_4jGc4].mp4