ONNX 模型库
返回模型

说明文档

翻译如下:

模型:Xenova/all-MiniLM-L6-v2

README 内容:

https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2 配套 ONNX 权重,可与 Transformers.js 兼容使用。

使用方法 (Transformers.js)

如果还没有安装 Transformers.js JavaScript 库,可以使用以下命令从 NPM 安装:

npm i @huggingface/transformers

然后你可以使用该模型计算 embeddings,如下所示:

import { pipeline } from '@huggingface/transformers';

// Create a feature-extraction pipeline
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');

// Compute sentence embeddings
const sentences = ['This is an example sentence', 'Each sentence is converted'];
const output = await extractor(sentences, { pooling: 'mean', normalize: true });
console.log(output);
// Tensor {
//   dims: [ 2, 384 ],
//   type: 'float32',
//   data: Float32Array(768) [ 0.04592696577310562, 0.07328180968761444, ... ],
//   size: 768
// }

你可以使用 .tolist() 将此 Tensor 转换为嵌套的 JavaScript 数组:

console.log(output.tolist());
// [
//   [ 0.04592696577310562, 0.07328180968761444, 0.05400655046105385, ... ],
//   [ 0.08188057690858841, 0.10760223120450974, -0.013241755776107311, ... ]
// ]

注意:使用单独的仓库来存放 ONNX 权重是一个临时解决方案,旨在等待 WebML 获得更广泛的支持。如果你希望使你的模型能够支持 Web 环境,我们建议使用 🤗 Optimum 转换为 ONNX 格式,并像此仓库一样组织(将 ONNX 权重存放在名为 onnx 的子文件夹中)。

Xenova/all-MiniLM-L6-v2

作者 Xenova

feature-extraction transformers.js
↓ 1.5M ♥ 109

创建时间: 2023-05-02 22:46:15+00:00

更新时间: 2025-07-22 16:42:24+00:00

在 Hugging Face 上查看

文件 (15)

.gitattributes
README.md
config.json
onnx/model.onnx ONNX
onnx/model_bnb4.onnx ONNX
onnx/model_fp16.onnx ONNX
onnx/model_int8.onnx ONNX
onnx/model_q4.onnx ONNX
onnx/model_q4f16.onnx ONNX
onnx/model_quantized.onnx ONNX
onnx/model_uint8.onnx ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt