ONNX 模型库
返回模型

说明文档

ONNX 导出:broadfield-dev/bert-mini-ner-pii-mobile

这是 broadfield-dev/bert-mini-ner-pii-training-tuned-12270113 的 ONNX 转换并优化版本。

模型详情

  • 基础模型: broadfield-dev/bert-mini-ner-pii-training-tuned-12270113
  • 任务: token-classification
  • Opset 版本: 17
  • 优化: FP32(无量化)

使用方法

安装

对于轻量级的移动端/无服务器部署,您只需要 onnxruntimetokenizers

pip install onnxruntime tokenizers

Python 示例


from tokenizers import Tokenizer
import onnxruntime as ort
import numpy as np

# 1. 加载轻量级分词器(无需 Transformers 依赖)
tokenizer = Tokenizer.from_pretrained("broadfield-dev/bert-mini-ner-pii-mobile")

# 2. 加载 ONNX 模型
session = ort.InferenceSession("model.onnx")

# 3. 预处理(简单的文本编码)
text = "在移动端运行推理!"
encoding = tokenizer.encode(text)

# 准备输入(具体名称因模型而异,通常是 input_ids + attention_mask)
inputs = {
    "input_ids": np.array([encoding.ids], dtype=np.int64),
    "attention_mask": np.array([encoding.attention_mask], dtype=np.int64)
}

# 4. 运行推理
outputs = session.run(None, inputs)
print("输出 logits 形状:", outputs[0].shape)

关于此导出

此模型使用 Optimum 导出。 它包含 FP32(无量化) 量化设置和预编译的 tokenizer.json,以实现快速加载。

broadfield-dev/bert-mini-ner-pii-mobile

作者 broadfield-dev

token-classification transformers
↓ 0 ♥ 0

创建时间: 2025-12-27 02:00:07+00:00

更新时间: 2025-12-27 05:11:58+00:00

在 Hugging Face 上查看

文件 (8)

.gitattributes
README.md
config.json
model.onnx ONNX
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt