ONNX 模型库
返回模型

说明文档

https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2 的 ONNX 权重,兼容 Transformers.js。

使用方法 (Transformers.js)

如果您还没有安装,可以通过以下命令从 NPM 安装 Transformers.js JavaScript 库:

npm i @huggingface/transformers

然后您可以像这样使用该模型计算嵌入向量:

import { pipeline } from '@huggingface/transformers';

// 创建特征提取管道
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');

// 计算句子嵌入向量
const sentences = ['This is an example sentence', 'Each sentence is converted'];
const output = await extractor(sentences, { pooling: 'mean', normalize: true });
console.log(output);
// Tensor {
//   dims: [ 2, 384 ],
//   type: 'float32',
//   data: Float32Array(768) [ 0.04592696577310562, 0.07328180968761444, ... ],
//   size: 768
// }

您可以使用 .tolist() 将此 Tensor 转换为嵌套的 JavaScript 数组:

console.log(output.tolist());
// [
//   [ 0.04592696577310562, 0.07328180968761444, 0.05400655046105385, ... ],
//   [ 0.08188057690858841, 0.10760223120450974, -0.013241755776107311, ... ]
// ]

注意:为 ONNX 权重单独创建仓库是一个临时解决方案,直到 WebML 获得更多关注。如果您想让您的模型支持 Web,我们建议使用 🤗 Optimum 转换为 ONNX 格式,并按照本仓库的结构组织(将 ONNX 权重放在名为 onnx 的子文件夹中)。

IsGarrido/all-MiniLM-L6-v2

作者 IsGarrido

feature-extraction transformers.js
↓ 0 ♥ 0

创建时间: 2025-10-27 13:37:53+00:00

更新时间: 2025-10-27 13:40:40+00:00

在 Hugging Face 上查看

文件 (15)

.gitattributes
README.md
config.json
onnx/model.onnx ONNX
onnx/model_bnb4.onnx ONNX
onnx/model_fp16.onnx ONNX
onnx/model_int8.onnx ONNX
onnx/model_q4.onnx ONNX
onnx/model_q4f16.onnx ONNX
onnx/model_quantized.onnx ONNX
onnx/model_uint8.onnx ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt