ONNX 模型库
返回模型

说明文档

Universal Sentence Encoder Large v5(通用句子编码器大版本 v5)

https://tfhub.dev/google/universal-sentence-encoder-large/5 的 ONNX 版本

该模型的原始 TFHub 版本被其他模型引用,例如 https://huggingface.co/vprelovac/universal-sentence-encoder-large-5

概述

请参阅 https://tfhub.dev/google/universal-sentence-encoder-large/5 了解概述和许可证详情。

本模型是 TFHub 原始模型的完整精度版本,采用 ONNX 格式。

它使用 ONNXRuntime Extensions 将分词器嵌入到 ONNX 模型中,因此不需要单独的分词器,文本可以直接输入到 ONNX 模型中。

后处理(例如池化、归一化)也在 ONNX 模型内部实现,因此不需要额外的处理步骤。

使用方法

import onnxruntime as ort
from onnxruntime_extensions import get_library_path
from os import cpu_count

sentences = ["hello world"]

def load_onnx_model(model_filepath):
  _options = ort.SessionOptions()
  _options.inter_op_num_threads, _options.intra_op_num_threads = cpu_count(), cpu_count()
  _options.register_custom_ops_library(get_library_path())
  _providers = ["CPUExecutionProvider"]  # could use ort.get_available_providers()
  return ort.InferenceSession(path_or_bytes=model_filepath, sess_options=_options, providers=_providers)

model = load_onnx_model("filepath_for_model_dot_onnx")

model_outputs = model.run(output_names=["outputs"], input_feed={"inputs": sentences})[0]
print(model_outputs)

SamLowe/universal-sentence-encoder-large-5-onnx

作者 SamLowe

feature-extraction
↓ 0 ♥ 2

创建时间: 2023-09-29 00:24:36+00:00

更新时间: 2023-09-29 00:34:43+00:00

在 Hugging Face 上查看

文件 (3)

.gitattributes
README.md
model.onnx ONNX