返回模型
说明文档
RTMO / YOLO-NAS-Pose 使用 CUDAExecutionProvider / TensorrtExecutionProvider 推理演示
demo.sh:演示主程序,会首先安装 rtmlib,然后使用 rtmo-s 分析 video 文件夹中的 .mp4 文件。demo_batch.sh:demo.sh 的多批次版本rtmo_gpu.py:定义了 RTMO_GPU(和 RTMO_GPU_BATCH)类,对 CUDA 和 TensorRT 设置进行微调。rtmo_demo.py:Python 主程序,有三个参数:path:包含待分析 .mp4 文件的文件夹位置。model_path:ONNX 模型的本地路径,或指向 mmpose 上发布的 RTMO 模型的 URL。--yolo_nas_pose:如果使用 YOLO NAS Pose 模型而非 RTMO 模型进行推理。
rtmo_demo_batch.py:demo_batch.sh 的多批次版本video:包含一个测试视频。
注意事项
- 原始 ONNX 模型来自 MMPOSE/RTMO 项目页面,在 body7 数据集上训练。我们仅做了...
- 演示推理代码修改自 rtmlib
- TensorrtExecutionProvider 仅支持固定批量大小的模型(*_batchN.onnx),而 CUDAExecutionProvider 可以运行动态批量大小的模型。
我们做了以下工作以使其能够与 TensorRTExecutionProvider 配合使用:
- 形状推断
- 批量大小固定为 1、2、4
附注:同时也提供了 FP16 ONNX 模型。
pesi/rtmo
作者 pesi
object-detection
↓ 0
♥ 2
创建时间: 2024-03-01 10:05:28+00:00
更新时间: 2024-09-04 05:25:17+00:00
在 Hugging Face 上查看文件 (24)
.gitattributes
README.md
constant_folding.sh
convert_to_fp16.py
convert_to_fp16_all.py
convert_to_mixed.py
demo.sh
demo_batch.sh
onnx_to_engine-jetpack_4p6.py
onnx_to_engine-jetpack_5p1.py
rtmo-l.fp16.onnx
ONNX
rtmo-l.onnx
ONNX
rtmo-m.fp16.onnx
ONNX
rtmo-m.onnx
ONNX
rtmo-s.fp16.onnx
ONNX
rtmo-s.onnx
ONNX
rtmo-t.fp16.onnx
ONNX
rtmo-t.onnx
ONNX
rtmo_demo.py
rtmo_demo_batch.py
rtmo_gpu.py
symbolic_shape_infer.py
symbolic_shape_infer_all.sh
video/Oldest video ever - 1888 [tc-L9_4jGc4].mp4