返回模型
说明文档
翻译如下:
模型:Xenova/all-MiniLM-L6-v2
README 内容:
https://huggingface.co/sentence-transformers/all-MiniLM-L6-v2 配套 ONNX 权重,可与 Transformers.js 兼容使用。
使用方法 (Transformers.js)
如果还没有安装 Transformers.js JavaScript 库,可以使用以下命令从 NPM 安装:
npm i @huggingface/transformers
然后你可以使用该模型计算 embeddings,如下所示:
import { pipeline } from '@huggingface/transformers';
// Create a feature-extraction pipeline
const extractor = await pipeline('feature-extraction', 'Xenova/all-MiniLM-L6-v2');
// Compute sentence embeddings
const sentences = ['This is an example sentence', 'Each sentence is converted'];
const output = await extractor(sentences, { pooling: 'mean', normalize: true });
console.log(output);
// Tensor {
// dims: [ 2, 384 ],
// type: 'float32',
// data: Float32Array(768) [ 0.04592696577310562, 0.07328180968761444, ... ],
// size: 768
// }
你可以使用 .tolist() 将此 Tensor 转换为嵌套的 JavaScript 数组:
console.log(output.tolist());
// [
// [ 0.04592696577310562, 0.07328180968761444, 0.05400655046105385, ... ],
// [ 0.08188057690858841, 0.10760223120450974, -0.013241755776107311, ... ]
// ]
注意:使用单独的仓库来存放 ONNX 权重是一个临时解决方案,旨在等待 WebML 获得更广泛的支持。如果你希望使你的模型能够支持 Web 环境,我们建议使用 🤗 Optimum 转换为 ONNX 格式,并像此仓库一样组织(将 ONNX 权重存放在名为 onnx 的子文件夹中)。
Xenova/all-MiniLM-L6-v2
作者 Xenova
feature-extraction
transformers.js
↓ 1.5M
♥ 109
创建时间: 2023-05-02 22:46:15+00:00
更新时间: 2025-07-22 16:42:24+00:00
在 Hugging Face 上查看文件 (15)
.gitattributes
README.md
config.json
onnx/model.onnx
ONNX
onnx/model_bnb4.onnx
ONNX
onnx/model_fp16.onnx
ONNX
onnx/model_int8.onnx
ONNX
onnx/model_q4.onnx
ONNX
onnx/model_q4f16.onnx
ONNX
onnx/model_quantized.onnx
ONNX
onnx/model_uint8.onnx
ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt