ONNX 模型库
返回模型

说明文档

Xenova/distilbert-base-uncased-finetuned-sst-2-english

带有ONNX权重,可与Transformers.js兼容使用。

使用方法 (Transformers.js)

如果你还没有安装,可以从 NPM 安装 Transformers.js JavaScript 库,使用以下命令:

npm i @huggingface/transformers

然后你可以像这样使用模型来对文本进行分类:

import { pipeline } from "@huggingface/transformers";

// 创建情感分析管道
const classifier = await pipeline('sentiment-analysis', 'Xenova/distilbert-base-uncased-finetuned-sst-2-english');

// 对输入文本进行分类
const output = await classifier('I love transformers!');
console.log(output);
// [{ label: 'POSITIVE', score: 0.999788761138916 }]

// 对输入文本进行分类(并返回所有类别)
const output2 = await classifier('I love transformers!', { top_k: null });
console.log(output2);
// [
//   { label: 'POSITIVE', score: 0.999788761138916 },
//   { label: 'NEGATIVE', score: 0.00021126774663571268 }
// ]

注意:单独创建一个仓库来存放ONNX权重是一个临时解决方案,直到WebML获得更多关注。如果你希望让你的模型可以在Web上使用,我们推荐使用🤗 Optimum转换为ONNX格式,并像这样组织你的仓库(ONNX权重存放在名为onnx的子文件夹中)。

Xenova/distilbert-base-uncased-finetuned-sst-2-english

作者 Xenova

text-classification transformers.js
↓ 236.3K ♥ 12

创建时间: 2023-05-02 21:19:47+00:00

更新时间: 2025-06-30 05:13:56+00:00

在 Hugging Face 上查看

文件 (15)

.gitattributes
README.md
config.json
onnx/model.onnx ONNX
onnx/model_bnb4.onnx ONNX
onnx/model_fp16.onnx ONNX
onnx/model_int8.onnx ONNX
onnx/model_q4.onnx ONNX
onnx/model_q4f16.onnx ONNX
onnx/model_quantized.onnx ONNX
onnx/model_uint8.onnx ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt