返回模型
说明文档
通用句子编码器多语言版 v3
https://tfhub.dev/google/universal-sentence-encoder-multilingual/3 的 ONNX 版本
该模型的原始 TFHub 版本在其他模型中被引用,例如 https://huggingface.co/vprelovac/universal-sentence-encoder-multilingual-3
概述
请参阅 https://tfhub.dev/google/universal-sentence-encoder-multilingual/3 查看概述和许可证详情。
本模型是 TFHub 原版的全精度版本,采用 ONNX 格式。
它使用 ONNXRuntime Extensions 将分词器嵌入到 ONNX 模型中,因此无需单独的分词器,文本可直接输入到 ONNX 模型中。
后处理(例如池化、归一化)也在 ONNX 模型内部实现,因此无需单独处理。
使用方法
import onnxruntime as ort
from onnxruntime_extensions import get_library_path
from os import cpu_count
sentences = ["hello world"]
def load_onnx_model(model_filepath):
_options = ort.SessionOptions()
_options.inter_op_num_threads, _options.intra_op_num_threads = cpu_count(), cpu_count()
_options.register_custom_ops_library(get_library_path())
_providers = ["CPUExecutionProvider"] # could use ort.get_available_providers()
return ort.InferenceSession(path_or_bytes=model_filepath, sess_options=_options, providers=_providers)
model = load_onnx_model("filepath_for_model_dot_onnx")
model_outputs = model.run(output_names=["outputs"], input_feed={"inputs": sentences})[0]
print(model_outputs)
SamLowe/universal-sentence-encoder-multilingual-3-onnx
作者 SamLowe
feature-extraction
↓ 0
♥ 4
创建时间: 2023-09-29 00:19:06+00:00
更新时间: 2023-09-29 00:26:53+00:00
在 Hugging Face 上查看文件 (3)
.gitattributes
README.md
model.onnx
ONNX