返回模型
说明文档
https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2 的 ONNX 权重,兼容 Transformers.js。
使用方法 (Transformers.js)
如果您还没有安装,可以通过以下命令从 NPM 安装 Transformers.js JavaScript 库:
npm i @huggingface/transformers
然后您可以像这样使用该模型计算嵌入向量:
import { pipeline } from '@huggingface/transformers';
// 创建特征提取管道
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');
// 计算句子嵌入向量
const sentences = ['This is an example sentence', 'Each sentence is converted'];
const output = await extractor(sentences, { pooling: 'mean', normalize: true });
console.log(output);
// Tensor {
// dims: [ 2, 384 ],
// type: 'float32',
// data: Float32Array(768) [ 0.04592696577310562, 0.07328180968761444, ... ],
// size: 768
// }
您可以使用 .tolist() 将此 Tensor 转换为嵌套的 JavaScript 数组:
console.log(output.tolist());
// [
// [ 0.04592696577310562, 0.07328180968761444, 0.05400655046105385, ... ],
// [ 0.08188057690858841, 0.10760223120450974, -0.013241755776107311, ... ]
// ]
注意:为 ONNX 权重单独创建仓库是一个临时解决方案,直到 WebML 获得更多关注。如果您想让您的模型支持 Web,我们建议使用 🤗 Optimum 转换为 ONNX 格式,并按照本仓库的结构组织(将 ONNX 权重放在名为 onnx 的子文件夹中)。
IsGarrido/all-MiniLM-L6-v2
作者 IsGarrido
feature-extraction
transformers.js
↓ 0
♥ 0
创建时间: 2025-10-27 13:37:53+00:00
更新时间: 2025-10-27 13:40:40+00:00
在 Hugging Face 上查看文件 (15)
.gitattributes
README.md
config.json
onnx/model.onnx
ONNX
onnx/model_bnb4.onnx
ONNX
onnx/model_fp16.onnx
ONNX
onnx/model_int8.onnx
ONNX
onnx/model_q4.onnx
ONNX
onnx/model_q4f16.onnx
ONNX
onnx/model_quantized.onnx
ONNX
onnx/model_uint8.onnx
ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt