ONNX 模型库
返回模型

说明文档

通用句子编码器多语言版 v3

https://tfhub.dev/google/universal-sentence-encoder-multilingual/3 的 ONNX 版本

该模型的原始 TFHub 版本在其他模型中被引用,例如 https://huggingface.co/vprelovac/universal-sentence-encoder-multilingual-3

概述

请参阅 https://tfhub.dev/google/universal-sentence-encoder-multilingual/3 查看概述和许可证详情。

本模型是 TFHub 原版的全精度版本,采用 ONNX 格式。

它使用 ONNXRuntime Extensions 将分词器嵌入到 ONNX 模型中,因此无需单独的分词器,文本可直接输入到 ONNX 模型中。

后处理(例如池化、归一化)也在 ONNX 模型内部实现,因此无需单独处理。

使用方法

import onnxruntime as ort
from onnxruntime_extensions import get_library_path
from os import cpu_count

sentences = ["hello world"]

def load_onnx_model(model_filepath):
  _options = ort.SessionOptions()
  _options.inter_op_num_threads, _options.intra_op_num_threads = cpu_count(), cpu_count()
  _options.register_custom_ops_library(get_library_path())
  _providers = ["CPUExecutionProvider"]  # could use ort.get_available_providers()
  return ort.InferenceSession(path_or_bytes=model_filepath, sess_options=_options, providers=_providers)

model = load_onnx_model("filepath_for_model_dot_onnx")

model_outputs = model.run(output_names=["outputs"], input_feed={"inputs": sentences})[0]
print(model_outputs)

SamLowe/universal-sentence-encoder-multilingual-3-onnx

作者 SamLowe

feature-extraction
↓ 0 ♥ 4

创建时间: 2023-09-29 00:19:06+00:00

更新时间: 2023-09-29 00:26:53+00:00

在 Hugging Face 上查看

文件 (3)

.gitattributes
README.md
model.onnx ONNX