说明文档
multi-qa-mpnet-base-dot-v1
这是一个 sentence-transformers 模型:它将句子和段落映射到一个 768 维的稠密向量空间,专为语义搜索而设计。它在来自多种来源的 2.15 亿个(问题,答案)对上进行了训练。有关语义搜索的介绍,请参阅:SBERT.net - 语义搜索
使用方法 (Sentence-Transformers)
安装 sentence-transformers 后,使用此模型变得非常简单:
pip install -U sentence-transformers
然后你可以像这样使用该模型:
from sentence_transformers import SentenceTransformer, util
query = "How many people live in London?"
docs = ["Around 9 Million people live in London", "London is known for its financial district"]
# 加载模型
model = SentenceTransformer('sentence-transformers/multi-qa-mpnet-base-dot-v1')
# 对查询和文档进行编码
query_emb = model.encode(query)
doc_emb = model.encode(docs)
# 计算查询与所有文档嵌入之间的点积得分
scores = util.dot_score(query_emb, doc_emb)[0].cpu().tolist()
# 将文档和得分组合
doc_score_pairs = list(zip(docs, scores))
# 按得分降序排序
doc_score_pairs = sorted(doc_score_pairs, key=lambda x: x[1], reverse=True)
# 输出段落和得分
for doc, score in doc_score_pairs:
print(score, doc)
使用方法 (HuggingFace Transformers)
如果没有安装 sentence-transformers,你可以这样使用该模型:首先,将输入通过 transformer 模型,然后在上下文化词嵌入之上应用正确的池化操作。
from transformers import AutoTokenizer, AutoModel
import torch
# CLS 池化 - 取第一个 token 的输出
def cls_pooling(model_output):
return model_output.last_hidden_state[:,0]
# 编码文本
def encode(texts):
# 对句子进行分词
encoded_input = tokenizer(texts, padding=True, truncation=True, return_tensors='pt')
# 计算词元嵌入
with torch.no_grad():
model_output = model(**encoded_input, return_dict=True)
# 执行池化
embeddings = cls_pooling(model_output)
return embeddings
# 我们想要获取句子嵌入的句子
query = "How many people live in London?"
docs = ["Around 9 Million people live in London", "London is known for its financial district"]
# 从 HuggingFace Hub 加载模型
tokenizer = AutoTokenizer.from_pretrained("sentence-transformers/multi-qa-mpnet-base-dot-v1")
model = AutoModel.from_pretrained("sentence-transformers/multi-qa-mpnet-base-dot-v1")
# 对查询和文档进行编码
query_emb = encode(query)
doc_emb = encode(docs)
# 计算查询与所有文档嵌入之间的点积得分
scores = torch.mm(query_emb, doc_emb.transpose(0, 1))[0].cpu().tolist()
# 将文档和得分组合
doc_score_pairs = list(zip(docs, scores))
# 按得分降序排序
doc_score_pairs = sorted(doc_score_pairs, key=lambda x: x[1], reverse=True)
# 输出段落和得分
for doc, score in doc_score_pairs:
print(score, doc)
技术细节
以下是使用该模型时需要注意的一些技术细节:
| 设置 | 值 |
|---|---|
| 维度 | 768 |
| 是否生成归一化嵌入 | 否 |
| 池化方法 | CLS 池化 |
| 适用的评分函数 | 点积 (例如 util.dot_score) |
背景
该项目旨在使用自监督对比学习目标在超大规模句子级数据集上训练句子嵌入模型。我们使用对比学习目标:给定一对中的一个句子,模型应该预测出在我们的数据集中实际上与它配对的句子是哪一个(从一组随机采样的其他句子中)。
我们在 Hugging Face 组织的 Community week using JAX/Flax for NLP & CV 期间开发了这个模型。我们作为 Train the Best Sentence Embedding Model Ever with 1B Training Pairs 项目的一部分开发了这个模型。我们受益于高效的硬件基础设施来运行该项目:7 个 TPU v3-8,以及 Google Flax、JAX 和 Cloud 团队成员关于高效深度学习框架的指导。
预期用途
我们的模型旨在用于语义搜索:它将查询/问题和文本段落编码到稠密向量空间中。它为给定的段落找到相关文档。
请注意,输入长度限制为 512 个词元:超过此长度的文本将被截断。另外请注意,该模型仅在最长 250 个词元的输入文本上进行训练。对于更长的文本,效果可能不佳。
训练过程
完整的训练脚本可在当前仓库中找到:train_script.py。
预训练
我们使用预训练的 mpnet-base 模型。有关预训练过程的更多详细信息,请参阅模型卡片。
训练
我们使用多个数据集的拼接来微调我们的模型。总共有约 2.15 亿个(问题,答案)对。
我们根据加权概率对每个数据集进行采样,具体配置详见 data_config.json 文件。
该模型使用 MultipleNegativesRankingLoss 进行训练,采用 CLS 池化、点积作为相似度函数,缩放比例为 1。
| 数据集 | 训练元组数量 |
|---|---|
| WikiAnswers 来自 WikiAnswers 的重复问题对 | 77,427,422 |
| PAQ 为维基百科中每个段落自动生成的(问题,段落)对 | 64,371,441 |
| Stack Exchange 来自所有 StackExchange 的(标题,正文)对 | 25,316,456 |
| Stack Exchange 来自所有 StackExchange 的(标题,回答)对 | 21,396,559 |
| MS MARCO 来自必应搜索引擎的 50 万个查询的三元组(查询,答案,难负例) | 17,579,773 |
| GOOAQ: Open Question Answering with Diverse Answer Types 300 万个 Google 查询和 Google 精选摘要的(查询,答案)对 | 3,012,496 |
| Amazon-QA 来自亚马逊产品页面的(问题,答案)对 | 2,448,839 |
| Yahoo Answers 来自 Yahoo Answers 的(标题,回答)对 | 1,198,260 |
| Yahoo Answers 来自 Yahoo Answers 的(问题,回答)对 | 681,164 |
| Yahoo Answers 来自 Yahoo Answers 的(标题,问题)对 | 659,896 |
| SearchQA 14 万个问题的(问题,答案)对,每个问题包含该问题的 Top5 Google 摘要 | 582,261 |
| ELI5 来自 Reddit ELI5 (explainlikeimfive) 的(问题,答案)对 | 325,475 |
| Stack Exchange 重复问题对(标题) | 304,525 |
| Quora Question Triplets Quora 问题对数据集的(问题,重复问题,难负例)三元组 | 103,663 |
| Natural Questions (NQ) 10 万个真实 Google 查询及其相关维基百科段落的(问题,段落)对 | 100,231 |
| SQuAD2.0 来自 SQuAD2.0 数据集的(问题,段落)对 | 87,599 |
| TriviaQA (问题,证据)对 | 73,346 |
| 总计 | 214,988,242 |
Portgas37/MNLP_M2_document_encoder
作者 Portgas37
创建时间: 2025-05-22 16:34:50+00:00
更新时间: 2025-05-27 15:35:09+00:00
在 Hugging Face 上查看