ONNX 模型库
返回模型

说明文档

模型卡片

<!-- 提供模型的简要概述。 -->

创建模型的代码

import torch
from transformers import WhisperConfig, WhisperForConditionalGeneration, AutoProcessor

model_id = 'onnx-community/whisper-tiny.en'
config = WhisperConfig.from_pretrained(
    model_id,
    d_model=16,
    decoder_attention_heads=2,
    decoder_ffn_dim=64,
    decoder_layerdrop=0.0,
    decoder_layers=1,
    encoder_attention_heads=2,
    encoder_ffn_dim=64,
    encoder_layers=1,
    num_hidden_layers=1,
)

# Create model and randomize all weights
model = WhisperForConditionalGeneration(config)

torch.manual_seed(0) # Set for reproducibility
for name, param in model.named_parameters():
    param.data = torch.randn_like(param)

processor = AutoProcessor.from_pretrained(model_id)

模型详情

模型描述

<!-- 提供关于该模型的更详细概述。 -->

这是一个已推送到 Hub 的 🤗 transformers 模型的模型卡片。该模型卡片已自动生成。

  • 开发者: [更多信息待补充]
  • 资金来源 [可选]: [更多信息待补充]
  • 共享者 [可选]: [更多信息待补充]
  • 模型类型: [更多信息待补充]
  • 语言 (NLP): [更多信息待补充]
  • 许可证: [更多信息待补充]
  • 微调自模型 [可选]: [更多信息待补充]

模型来源 [可选]

<!-- 提供模型的基本链接。 -->

  • 仓库: [更多信息待补充]
  • 论文 [可选]: [更多信息待补充]
  • 演示 [可选]: [更多信息待补充]

用途

<!-- 说明模型的预期使用方式,包括可预见的使用者和受该模型影响的人员。 -->

直接使用

<!-- 本节介绍模型在未经微调或未接入更大生态系统/应用时的使用方式。 -->

[更多信息待补充]

下游使用 [可选]

<!-- 本节介绍模型在为某任务进行微调后,或接入更大生态系统/应用时的使用方式 -->

[更多信息待补充]

超出范围的使用

<!-- 本节说明误用、恶意使用,以及模型不适用的场景。 -->

[更多信息待补充]

偏见、风险和局限性

<!-- 本节旨在传达技术和社技术层面的局限性。 -->

[更多信息待补充]

建议

<!-- 本节旨在针对偏见、风险和技术局限性提供建议。 -->

用户(无论是直接用户还是下游用户)应当了解该模型的风险、偏见和局限性。需要更多信息以提供进一步建议。

如何开始使用该模型

使用以下代码开始使用该模型。

[更多信息待补充]

训练详情

训练数据

<!-- 这里应链接到数据集卡片,可能还需要简短介绍训练数据的内容,以及与数据预处理或额外过滤相关的文档。 -->

[更多信息待补充]

训练流程

<!-- 这与技术规格密切相关。当相关时,此处的内应链接到该部分。 -->

预处理 [可选]

[更多信息待补充]

训练超参数

  • 训练模式: [更多信息待补充] <!--fp32, fp16 mixed precision, bf16 mixed precision, bf16 non-mixed precision, fp16 non-mixed precision, fp8 mixed precision -->

速度、大小、时间 [可选]

<!-- 本节提供关于吞吐量、开始/结束时间、检查点大小(如相关)等信息。 -->

[更多信息待补充]

评估

<!-- 本节描述评估协议并提供结果。 -->

测试数据、因素和指标

测试数据

<!-- 如可能,这里应链接到数据集卡片。 -->

[更多信息待补充]

因素

<!-- 这些是评估时进行细分的项目,例如子群体或领域。 -->

[更多信息待补充]

指标

<!-- 这些是所使用的评估指标,最好说明选择原因。 -->

[更多信息待补充]

结果

[更多信息待补充]

总结

模型检查 [可选]

<!-- 此处放置与模型相关的可解释性研究 -->

[更多信息待补充]

环境影响

<!-- 总排放量(以 CO2eq 克为单位)和其他考虑因素(如电力使用)放在这里。据此编辑以下建议文本 -->

碳排放量可使用 Lacoste et al. (2019) 中提出的 机器学习影响计算器 进行估算。

  • 硬件类型: [更多信息待补充]
  • 使用时长: [更多信息待补充]
  • 云服务商: [更多信息待补充]
  • 计算区域: [更多信息待补充]
  • 碳排放量: [更多信息待补充]

技术规格 [可选]

模型架构和目标

[更多信息待补充]

计算基础设施

[更多信息待补充]

硬件

[更多信息待补充]

软件

[更多信息待补充]

引用 [可选]

<!-- 如果有介绍该模型的论文或博客文章,APA 和 BibTeX 信息应放在本节。 -->

BibTeX:

[更多信息待补充]

APA:

[更多信息待补充]

术语表 [可选]

<!-- 如相关,在此节包含可帮助读者理解模型或模型卡片的术语和计算方法。 -->

[更多信息待补充]

更多信息 [可选]

[更多信息待补充]

模型卡片作者 [可选]

[更多信息待补充]

模型卡片联系方式

[更多信息待补充]

onnx-internal-testing/tiny-random-WhisperForConditionalGeneration

作者 onnx-internal-testing

automatic-speech-recognition transformers
↓ 1 ♥ 0

创建时间: 2025-02-23 20:53:54+00:00

更新时间: 2025-03-06 12:24:19+00:00

在 Hugging Face 上查看

文件 (45)

.gitattributes
README.md
added_tokens.json
config.json
generation_config.json
merges.txt
model.safetensors
normalizer.json
onnx/decoder_model.onnx ONNX
onnx/decoder_model_bnb4.onnx ONNX
onnx/decoder_model_fp16.onnx ONNX
onnx/decoder_model_int8.onnx ONNX
onnx/decoder_model_merged.onnx ONNX
onnx/decoder_model_merged_bnb4.onnx ONNX
onnx/decoder_model_merged_fp16.onnx ONNX
onnx/decoder_model_merged_int8.onnx ONNX
onnx/decoder_model_merged_q4.onnx ONNX
onnx/decoder_model_merged_q4f16.onnx ONNX
onnx/decoder_model_merged_quantized.onnx ONNX
onnx/decoder_model_merged_uint8.onnx ONNX
onnx/decoder_model_q4.onnx ONNX
onnx/decoder_model_q4f16.onnx ONNX
onnx/decoder_model_quantized.onnx ONNX
onnx/decoder_model_uint8.onnx ONNX
onnx/decoder_with_past_model.onnx ONNX
onnx/decoder_with_past_model_bnb4.onnx ONNX
onnx/decoder_with_past_model_fp16.onnx ONNX
onnx/decoder_with_past_model_int8.onnx ONNX
onnx/decoder_with_past_model_q4.onnx ONNX
onnx/decoder_with_past_model_q4f16.onnx ONNX
onnx/decoder_with_past_model_quantized.onnx ONNX
onnx/decoder_with_past_model_uint8.onnx ONNX
onnx/encoder_model.onnx ONNX
onnx/encoder_model_bnb4.onnx ONNX
onnx/encoder_model_fp16.onnx ONNX
onnx/encoder_model_int8.onnx ONNX
onnx/encoder_model_q4.onnx ONNX
onnx/encoder_model_q4f16.onnx ONNX
onnx/encoder_model_quantized.onnx ONNX
onnx/encoder_model_uint8.onnx ONNX
preprocessor_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json