返回模型
说明文档
上传的模型
- 转换者: Prince-1
- 许可证: apache-2.0
- 原始模型: Prince-1/orpheus_3b_0.1_ft_16bit
Orpheus TTS 是一个最先进的、基于 Llama 的语音大语言模型(Speech-LLM),专为高质量、富有情感的文本转语音生成而设计。该模型经过微调,可提供人类级别的语音合成,实现卓越的清晰度、表现力和实时流媒体性能。
模型详情
模型能力
- 类人语音:自然的语调、情感和节奏,优于最先进的闭源模型
- 零样本声音克隆:无需事先微调即可克隆声音
- 引导式情感和语调:通过简单的标签控制语音和情感特征
- 低延迟:实时应用约 200ms 流媒体延迟,通过输入流可降低至约 100ms
前置条件
在开始转换过程之前,请确保您的系统满足以下要求:
-
已安装 CUDA 工具包的 NVIDIA GPU
-
至少 16 GB 内存(推荐)
-
已安装 Python 和 pip
模型来源
- GitHub 仓库: https://github.com/canopyai/Orpheus-TTS
- 博客文章: https://canopylabs.ai/model-releases
- Colab 推理笔记本: 笔记本链接
转换步骤
克隆仓库
- 首先,克隆官方 ONNX Runtime GenAI 仓库:
git clone https://github.com/microsoft/onnxruntime-genai
下载 Huggingface 模型
- 使用以下命令行指令下载 Huggingface 模型
huggingface-cli download Prince-1/orpheus_3b_0.1_ft_16bit --local-dir main
运行模型构建器
- 使用模型构建器脚本将 Orpheus 3B 模型转换为 ONNX 格式:
# 设置构建器脚本路径
$script_path="onnxruntime-genai/src/python/py/models/builder.py"
# 运行转换
python $script_path -m "Prince-1/orpheus_3b_0.1_ft_16bit" -i "main" -o "onnx" -p "fp16" -e cuda
命令参数说明:
-m:模型名称/路径(HuggingFace 模型标识符)
-o:ONNX 模型的输出目录
-p:精度设置(fp16 表示半精度浮点)
-e:执行提供程序(cuda 用于 NVIDIA GPU 加速)
模型滥用
请勿在未经同意的情况下使用我们的模型进行冒充、传播虚假信息或欺骗(包括假新闻或欺诈电话),或任何非法或有害活动。使用此模型即表示您同意遵守所有适用法律和道德准则。我们对任何使用行为不承担责任。
Prince-1/OrpheusTTS-ONNX
作者 Prince-1
text-to-speech
transformers
↓ 0
♥ 4
创建时间: 2025-05-17 09:37:02+00:00
更新时间: 2025-05-17 10:04:32+00:00
在 Hugging Face 上查看文件 (9)
.gitattributes
OrpheusOnnx.ipynb
README.md
genai_config.json
model.onnx
ONNX
model.onnx.data
special_tokens_map.json
tokenizer.json
tokenizer_config.json