ONNX 模型库
返回模型

说明文档

onnx_rubertconv_toxic_editor 模型卡片

<!-- 提供模型是什么/做什么的快速摘要。 -->

模型详情

模型描述

<!-- 提供模型是什么的更详细摘要。 -->

  • 开发者: Я
  • 资助方 [可选]: [需要更多信息]
  • 分享者 [可选]: [需要更多信息]
  • 模型类型: [需要更多信息]
  • 语言(s) (NLP): ru
  • 许可证: [需要更多信息]
  • 微调自模型 [可选]: [需要更多信息]

模型来源 [可选]

<!-- 提供模型的基本链接。 -->

  • 仓库: [需要更多信息]
  • 论文 [可选]: [需要更多信息]
  • 演示 [可选]: [需要更多信息]

用途

<!-- 说明模型预期如何使用,包括模型的可预见用户和受模型影响的人群。 -->

直接使用

<!-- 本节用于描述无需微调或集成到更大生态系统/应用中的模型使用方式。 -->

[需要更多信息]

下游使用 [可选]

<!-- 本节用于描述经过任务微调后,或集成到更大生态系统/应用中的模型使用方式 -->

[需要更多信息]

超出范围的使用

<!-- 本节涉及误用、恶意使用,以及模型不擅长的使用场景。 -->

[需要更多信息]

偏见、风险和局限性

<!-- 本节旨在传达技术和社技术层面的局限性。 -->

[需要更多信息]

建议

<!-- 本节旨在针对偏见、风险和技术局限性提出建议。 -->

用户(包括直接用户和下游用户)应当了解模型的风险、偏见和局限性。需要更多信息以提供进一步建议。

如何开始使用该模型

使用以下代码开始使用该模型。

[需要更多信息]

训练详情

训练数据

<!-- 这里应该链接到数据集卡片,可能还需要简短介绍训练数据的内容,以及与数据预处理或额外过滤相关的文档。 -->

[需要更多信息]

训练过程

<!-- 这与技术规格密切相关。当相关时,这里的内容应链接到该部分。 -->

预处理 [可选]

[需要更多信息]

训练超参数

  • 训练模式: [需要更多信息] <!--fp32, fp16混合精度, bf16混合精度, bf16非混合精度, fp16非混合精度, fp8混合精度 -->

速度、大小、时间 [可选]

<!-- 本节提供有关吞吐量、开始/结束时间、检查点大小(如相关)等信息。 -->

[需要更多信息]

评估

<!-- 本节描述评估协议并提供结果。 -->

测试数据、因素和指标

测试数据

<!-- 如可能,这里应该链接到数据集卡片。 -->

[需要更多信息]

因素

<!-- 这些是评估所按细分的项目,例如子群体或领域。 -->

[需要更多信息]

指标

<!-- 这些是正在使用的评估指标,最好说明使用原因。 -->

[需要更多信息]

结果

[需要更多信息]

总结

模型检查 [可选]

<!-- 模型的相关可解释性工作放在这里 -->

[需要更多信息]

环境影响

<!-- 总排放量(以克为单位的CO2当量)和其他考虑因素,如电力使用,放在这里。相应地编辑下面的建议文本 -->

碳排放可以使用 Lacoste et al. (2019) 中提出的 机器学习影响计算器 进行估算。

  • 硬件类型: [需要更多信息]
  • 使用时长: [需要更多信息]
  • 云服务商: [需要更多信息]
  • 计算区域: [需要更多信息]
  • 碳排放量: [需要更多信息]

技术规格 [可选]

模型架构和目标

[需要更多信息]

计算基础设施

[需要更多信息]

硬件

[需要更多信息]

软件

[需要更多信息]

引用 [可选]

<!-- 如果有介绍该模型的论文或博客文章,APA和BibTeX信息应放在本节。 -->

BibTeX:

[需要更多信息]

APA:

[需要更多信息]

术语表 [可选]

<!-- 如相关,在此处包含有助于读者理解模型或模型卡片的术语和计算。 -->

[需要更多信息]

更多信息 [可选]

[需要更多信息]

模型卡片作者 [可选]

[需要更多信息]

模型卡片联系方式

[需要更多信息]

Oxtiz/onnx_rubertconv_toxic_editor

作者 Oxtiz

token-classification transformers
↓ 1 ♥ 0

创建时间: 2024-06-28 20:04:48+00:00

更新时间: 2024-06-28 20:05:29+00:00

在 Hugging Face 上查看

文件 (8)

.gitattributes
README.md
config.json
model.onnx ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt