ONNX 模型库
返回模型

说明文档

Indic Conformer 600M 量化版

本仓库包含 Indic Conformer 模型的量化版本,这是由 AI4Bharat 为印度语言创建的大规模自动语音识别 (ASR) 模型。原始模型可以在这里找到。

基准测试

这些基准测试是在 Google Colab 免费层上使用 Tesla T4 GPU 针对印地语进行的。 您可以使用 scripts 目录中的笔记本重现这些结果或计算其他语言的结果。

解码方法 FP 32 WER int8 WER FP32 CER int8 CER
CTC 0.1645 0.2985 0.0661 0.1698
RNNT 0.1508 0.2939 0.0642 0.149

模型详情

  • 模型类型: 自动语音识别 (ASR)
  • 架构: Conformer,带有 CTC (连接时序分类) 和 RNNT (循环神经网络传感器) 解码器
  • 量化: int8 量化,以减小模型大小并加快推理速度
  • 参数量: 约 6 亿个参数
  • 支持的语言: 阿萨姆语、孟加拉语、博多语、多格拉语、古吉拉特语、印地语、卡纳达语、孔卡尼语、迈蒂利语、马拉雅拉姆语、马拉地语、尼泊尔语、奥里亚语、旁遮普语、梵语、桑塔尔语、信德语、泰米尔语、泰卢固语、乌尔都语

预期用途

该模型用于将印度语言的语音转录为文本。它可用于语音助手、转录服务和无障碍工具等应用。

使用方法

使用笔记本: 在 Kaggle 中打开

安装

要使用此模型,只需安装辅助包:

pip install indic-asr-onnx

加载模型

from indic_asr_onnx import IndicTranscriber

# 初始化 (自动下载模型)
transcriber = IndicTranscriber()

推理

# 使用 CTC 头转录音频
text = transcriber.transcribe_ctc(\"audio.wav\", \"hi\")  # 印地语
print(text)

# 使用 RNNT 头转录音频
text = transcriber.transcribe_rnnt(\"audio.wav\", \"hi\")  # 印地语
print(text)

模型文件

Config 子文件夹

  • vocab.json: 支持语言的子词词汇表
  • language_masks.json: 用于处理多语言输入的语言特定掩码

ONNX 子文件夹

  • ctc_decoder_quantized_int8.onnx: 用于连接时序分类的量化 CTC 解码器
  • encoder_quantized_int8.onnx: 用于从音频中提取特征的量化 Conformer 编码器
  • joint_enc_quantized_int8.onnx: 用于 RNN-T 解码的量化联合编码器组件
  • joint_pre_net_quantized_int8.onnx: 用于 RNN-T 预处理的量化联合预网络
  • joint_pred_quantized_int8.onnx: 用于 RNN-T 解码的量化联合预测器
  • rnnt_decoder_quantized_int8.onnx: 用于循环神经网络传感器的量化 RNN-T 解码器
  • adapters/*: 每种支持语言的特定语言量化联合后网络适配器 (例如,印地语的 joint_post_net_hi_quantized_int8.onnx)

训练数据

校准数据集:https://www.kaggle.com/datasets/haposeiz/indicvoices-calibration-1408

校准数据集是从 Indic Voices 数据集 中整理的。

其他链接

GitHub: https://github.com/atharva-again/indic-asr-onnx

联系方式

如有问题或疑问,您可以在这个仓库或 GitHub 上提出问题,或者发送电子邮件至 atharva.verma18@gmail.com。

atharva-again/indic-conformer-600m-quantized

作者 atharva-again

automatic-speech-recognition
↓ 0 ♥ 6

创建时间: 2025-12-05 06:25:01+00:00

更新时间: 2025-12-07 11:40:13+00:00

在 Hugging Face 上查看

文件 (32)

.gitattributes
README.md
config/language_masks.json
config/vocab.json
onnx/adapters/joint_post_net_as_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_bn_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_brx_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_doi_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_gu_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_hi_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_kn_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_kok_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_ks_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_mai_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_ml_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_mni_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_mr_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_ne_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_or_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_pa_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_sa_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_sat_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_sd_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_ta_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_te_quantized_int8.onnx ONNX
onnx/adapters/joint_post_net_ur_quantized_int8.onnx ONNX
onnx/ctc_decoder_quantized_int8.onnx ONNX
onnx/encoder_quantized_int8.onnx ONNX
onnx/joint_enc_quantized_int8.onnx ONNX
onnx/joint_pre_net_quantized_int8.onnx ONNX
onnx/joint_pred_quantized_int8.onnx ONNX
onnx/rnnt_decoder_quantized_int8.onnx ONNX