ONNX 模型库
返回模型

说明文档

上传的模型

  • 转换者: Prince-1
  • 许可证: apache-2.0
  • 原始模型: Prince-1/orpheus_3b_0.1_ft_16bit

<img src="https://raw.githubusercontent.com/microsoft/onnxruntime/main/docs/images/ONNX_Runtime_logo_dark.png" width="200"/>

Orpheus TTS 是一个最先进的、基于 Llama 的语音大语言模型(Speech-LLM),专为高质量、富有情感的文本转语音生成而设计。该模型经过微调,可提供人类级别的语音合成,实现卓越的清晰度、表现力和实时流媒体性能。

模型详情

模型能力

  • 类人语音:自然的语调、情感和节奏,优于最先进的闭源模型
  • 零样本声音克隆:无需事先微调即可克隆声音
  • 引导式情感和语调:通过简单的标签控制语音和情感特征
  • 低延迟:实时应用约 200ms 流媒体延迟,通过输入流可降低至约 100ms

前置条件

在开始转换过程之前,请确保您的系统满足以下要求:

  • 已安装 CUDA 工具包的 NVIDIA GPU

  • 至少 16 GB 内存(推荐)

  • 已安装 Python 和 pip

模型来源

转换步骤

克隆仓库

  1. 首先,克隆官方 ONNX Runtime GenAI 仓库:
git clone https://github.com/microsoft/onnxruntime-genai

下载 Huggingface 模型

  1. 使用以下命令行指令下载 Huggingface 模型
huggingface-cli download Prince-1/orpheus_3b_0.1_ft_16bit  --local-dir main

运行模型构建器

  1. 使用模型构建器脚本将 Orpheus 3B 模型转换为 ONNX 格式:
# 设置构建器脚本路径
$script_path="onnxruntime-genai/src/python/py/models/builder.py"
# 运行转换
python $script_path -m "Prince-1/orpheus_3b_0.1_ft_16bit" -i "main" -o "onnx" -p "fp16" -e cuda

命令参数说明:

-m:模型名称/路径(HuggingFace 模型标识符)

-o:ONNX 模型的输出目录

-p:精度设置(fp16 表示半精度浮点)

-e:执行提供程序(cuda 用于 NVIDIA GPU 加速)

模型滥用

请勿在未经同意的情况下使用我们的模型进行冒充、传播虚假信息或欺骗(包括假新闻或欺诈电话),或任何非法或有害活动。使用此模型即表示您同意遵守所有适用法律和道德准则。我们对任何使用行为不承担责任。

Prince-1/OrpheusTTS-ONNX

作者 Prince-1

text-to-speech transformers
↓ 0 ♥ 4

创建时间: 2025-05-17 09:37:02+00:00

更新时间: 2025-05-17 10:04:32+00:00

在 Hugging Face 上查看

文件 (9)

.gitattributes
OrpheusOnnx.ipynb
README.md
genai_config.json
model.onnx ONNX
model.onnx.data
special_tokens_map.json
tokenizer.json
tokenizer_config.json