ONNX 模型库
返回模型

说明文档

ONNX 导出:Qwen/Qwen3-0.6B

  • 原始模型: Qwen/Qwen3-0.6B
  • 任务: text-generation
  • 优化: INT8 (ARM64)
  • 算子集版本: 18

使用方法


from tokenizers import Tokenizer
import onnxruntime as ort
import numpy as np
# 1. 加载分词器
tokenizer = Tokenizer.from_pretrained(\"broadfield-dev/Qwen3-0.6B-20260105-055554-onnx\")
# 2. 加载模型
session = ort.InferenceSession(\"model.onnx\")
# 3. 推理
text = \"Hello world\"
encoding = tokenizer.encode(text)
inputs = {
    \"input_ids\": np.array([encoding.ids], dtype=np.int64),
    \"attention_mask\": np.array([encoding.attention_mask], dtype=np.int64)
}
logits = session.run(None, inputs)[0]
print(logits.shape)

broadfield-dev/Qwen3-0.6B-20260105-055554-onnx

作者 broadfield-dev

text-generation transformers
↓ 0 ♥ 0

创建时间: 2026-01-05 04:57:10+00:00

更新时间: 2026-01-05 04:57:16+00:00

在 Hugging Face 上查看

文件 (14)

.gitattributes
README.md
added_tokens.json
chat_template.jinja
config.json
generation_config.json
merges.txt
model.onnx ONNX
model_quantized.onnx.data
ort_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json