返回模型
说明文档
ONNX 导出:Qwen/Qwen3-0.6B
- 原始模型: Qwen/Qwen3-0.6B
- 任务:
text-generation - 优化:
INT8 (ARM64) - 算子集版本:
18
使用方法
from tokenizers import Tokenizer
import onnxruntime as ort
import numpy as np
# 1. 加载分词器
tokenizer = Tokenizer.from_pretrained(\"broadfield-dev/Qwen3-0.6B-20260105-055554-onnx\")
# 2. 加载模型
session = ort.InferenceSession(\"model.onnx\")
# 3. 推理
text = \"Hello world\"
encoding = tokenizer.encode(text)
inputs = {
\"input_ids\": np.array([encoding.ids], dtype=np.int64),
\"attention_mask\": np.array([encoding.attention_mask], dtype=np.int64)
}
logits = session.run(None, inputs)[0]
print(logits.shape)
broadfield-dev/Qwen3-0.6B-20260105-055554-onnx
作者 broadfield-dev
text-generation
transformers
↓ 0
♥ 0
创建时间: 2026-01-05 04:57:10+00:00
更新时间: 2026-01-05 04:57:16+00:00
在 Hugging Face 上查看文件 (14)
.gitattributes
README.md
added_tokens.json
chat_template.jinja
config.json
generation_config.json
merges.txt
model.onnx
ONNX
model_quantized.onnx.data
ort_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json