返回模型
说明文档
Universal Sentence Encoder Large v5(通用句子编码器大版本 v5)
https://tfhub.dev/google/universal-sentence-encoder-large/5 的 ONNX 版本
该模型的原始 TFHub 版本被其他模型引用,例如 https://huggingface.co/vprelovac/universal-sentence-encoder-large-5
概述
请参阅 https://tfhub.dev/google/universal-sentence-encoder-large/5 了解概述和许可证详情。
本模型是 TFHub 原始模型的完整精度版本,采用 ONNX 格式。
它使用 ONNXRuntime Extensions 将分词器嵌入到 ONNX 模型中,因此不需要单独的分词器,文本可以直接输入到 ONNX 模型中。
后处理(例如池化、归一化)也在 ONNX 模型内部实现,因此不需要额外的处理步骤。
使用方法
import onnxruntime as ort
from onnxruntime_extensions import get_library_path
from os import cpu_count
sentences = ["hello world"]
def load_onnx_model(model_filepath):
_options = ort.SessionOptions()
_options.inter_op_num_threads, _options.intra_op_num_threads = cpu_count(), cpu_count()
_options.register_custom_ops_library(get_library_path())
_providers = ["CPUExecutionProvider"] # could use ort.get_available_providers()
return ort.InferenceSession(path_or_bytes=model_filepath, sess_options=_options, providers=_providers)
model = load_onnx_model("filepath_for_model_dot_onnx")
model_outputs = model.run(output_names=["outputs"], input_feed={"inputs": sentences})[0]
print(model_outputs)
SamLowe/universal-sentence-encoder-large-5-onnx
作者 SamLowe
feature-extraction
↓ 0
♥ 2
创建时间: 2023-09-29 00:24:36+00:00
更新时间: 2023-09-29 00:34:43+00:00
在 Hugging Face 上查看文件 (3)
.gitattributes
README.md
model.onnx
ONNX