ONNX 模型库
返回模型

说明文档

gte-small-sparse

这是 gte-small 嵌入模型的稀疏 ONNX 变体,使用 DeepSparse Optimum 进行 ONNX 导出,并使用 Neural Magic 的 Sparsify 进行一次性量化 (INT8) 和非结构化剪枝 (50%)。

当前的稀疏和量化 gte ONNX 模型列表:

链接 稀疏化方法
zeroshot/gte-large-sparse 量化 (INT8) & 50% 剪枝
zeroshot/gte-large-quant 量化 (INT8)
zeroshot/gte-base-sparse 量化 (INT8) & 50% 剪枝
zeroshot/gte-base-quant 量化 (INT8)
zeroshot/gte-small-sparse 量化 (INT8) & 50% 剪枝
zeroshot/gte-small-quant 量化 (INT8)
pip install -U deepsparse-nightly[sentence_transformers]
from deepsparse.sentence_transformers import SentenceTransformer
model = SentenceTransformer('zeroshot/gte-small-sparse', export=False)

# Our sentences we like to encode
sentences = ['This framework generates embeddings for each input sentence',
    'Sentences are passed as a list of string.',
    'The quick brown fox jumps over the lazy dog.']

# Sentences are encoded by calling model.encode()
embeddings = model.encode(sentences)

# Print the embeddings
for sentence, embedding in zip(sentences, embeddings):
    print("Sentence:", sentence)
    print("Embedding:", embedding.shape)
    print("")

有关 DeepSparse 和 Sentence Transformers 集成的更多详细信息,请参阅 DeepSparse README

关于这些模型和稀疏化方法的一般问题,请通过我们的 社区 Slack 联系工程团队。

;)

zeroshot/gte-small-sparse

作者 zeroshot

feature-extraction transformers
↓ 1 ♥ 1

创建时间: 2023-10-12 18:57:35+00:00

更新时间: 2023-10-22 15:26:07+00:00

在 Hugging Face 上查看

文件 (5)

.gitattributes
README.md
config.json
model.onnx ONNX
tokenizer.json