ONNX 模型库
返回模型

说明文档

多语言MS Marco交叉编码器

该模型基于MMARCO数据集进行训练。它是使用Google翻译的MS MARCO机器翻译版本。已被翻译成14种语言。在我们的实验中,我们观察到它在其他语言上的表现也很好。

作为基础模型,我们使用了多语言MiniLMv2模型。

该模型可用于信息检索:给定一个查询,对所有可能的段落进行编码(例如使用ElasticSearch检索)。然后按降序排列段落。请参阅SBERT.net Retrieve & Re-rank了解更多详情。训练代码可在此处获取:SBERT.net Training MS Marco

使用SentenceTransformers

安装SentenceTransformers后,使用预训练模型将变得非常简单:

from sentence_transformers import CrossEncoder
model = CrossEncoder('model_name')
scores = model.predict([('Query', 'Paragraph1'), ('Query', 'Paragraph2') , ('Query', 'Paragraph3')])

使用Transformers

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

model = AutoModelForSequenceClassification.from_pretrained('model_name')
tokenizer = AutoTokenizer.from_pretrained('model_name')

features = tokenizer(['How many people live in Berlin?', 'How many people live in Berlin?'], ['Berlin has a population of 3,520,031 registered inhabitants in an area of 891.82 square kilometers.', 'New York City is famous for the Metropolitan Museum of Art.'],  padding=True, truncation=True, return_tensors="pt")

model.eval()
with torch.no_grad():
    scores = model(**features).logits
    print(scores)

cross-encoder/mmarco-mMiniLMv2-L12-H384-v1

作者 cross-encoder

text-ranking sentence-transformers
↓ 477.1K ♥ 69

创建时间: 2022-06-01 08:27:31+00:00

更新时间: 2025-04-15 08:03:02+00:00

在 Hugging Face 上查看

文件 (23)

.gitattributes
README.md
config.json
model.safetensors
onnx/model.onnx ONNX
onnx/model_O1.onnx ONNX
onnx/model_O2.onnx ONNX
onnx/model_O3.onnx ONNX
onnx/model_O4.onnx ONNX
onnx/model_qint8_arm64.onnx ONNX
onnx/model_qint8_avx512.onnx ONNX
onnx/model_qint8_avx512_vnni.onnx ONNX
onnx/model_quint8_avx2.onnx ONNX
openvino/openvino_model.bin
openvino/openvino_model.xml
openvino/openvino_model_qint8_quantized.bin
openvino/openvino_model_qint8_quantized.xml
pytorch_model.bin
sentencepiece.bpe.model
special_tokens_map.json
tokenizer.json
tokenizer_config.json
train_script.py