返回模型
说明文档
Ruri v3 310M — ONNX 格式
这是嵌入模型 cl-nagoya/ruri-v3-310m 的 ONNX 版本。
模型信息
- 基础模型: cl-nagoya/ruri-v3-310m
- 模型类型: ModernBERT(仅编码器)
- 任务: 特征提取 / 句子嵌入
- ONNX Opset: 17
- 优化级别: O2(中等)
文件
| 文件 | 大小 |
|---|---|
| config.json | 0.00 MB |
| model.onnx | 1200.70 MB |
| special_tokens_map.json | 0.00 MB |
| tokenizer.json | 6.41 MB |
| tokenizer.model | 1.75 MB |
| tokenizer_config.json | 0.00 MB |
使用方法
使用 Optimum(推荐)
from optimum.onnxruntime import ORTModelForFeatureExtraction
from transformers import AutoTokenizer
import torch
# 加载模型和分词器
model = ORTModelForFeatureExtraction.from_pretrained(
\"khaangnguyeen/ruri-v3-310m-onnx\",
provider=\"CPUExecutionProvider\" # 或 \"CUDAExecutionProvider\" 用于 GPU
)
tokenizer = AutoTokenizer.from_pretrained(\"khaangnguyeen/ruri-v3-310m-onnx\")
# 编码文本
texts = [\"示例句子\", \"另一个示例\"]
inputs = tokenizer(texts, padding=True, truncation=True, return_tensors=\"pt\")
# 获取嵌入
with torch.no_grad():
outputs = model(**inputs)
embeddings = outputs.last_hidden_state.mean(dim=1) # 平均池化
print(embeddings.shape) # (2, hidden_size)
直接使用 ONNX Runtime
import onnxruntime as ort
import numpy as np
from transformers import AutoTokenizer
# 加载分词器
tokenizer = AutoTokenizer.from_pretrained(\"khaangnguyeen/ruri-v3-310m-onnx\")
# 创建 ONNX Runtime 会话
session = ort.InferenceSession(\"model.onnx\")
# 准备输入
text = \"示例句子\"
inputs = tokenizer(text, return_tensors=\"np\", padding=True, truncation=True)
# 运行推理
outputs = session.run(
None,
{
\"input_ids\": inputs[\"input_ids\"],
\"attention_mask\": inputs[\"attention_mask\"]
}
)
embeddings = outputs[0].mean(axis=1)
print(embeddings.shape)
性能
ONNX Runtime 提供:
- ⚡ 比 PyTorch 更快的推理速度(通常快 1.5-3 倍)
- 💾 更小的占用空间 / 优化的计算图
- 🎯 针对生产部署进行优化
- 🔧 支持多种硬件后端(CPU、GPU、NPU)
基准测试
CPU 基准测试(示例):
- PyTorch: ~XX.XX ms/样本
- ONNX Runtime: ~XX.XX ms/样本
- 加速比: ~X.XXx
许可证
Apache-2.0(继承自基础模型)
引用
@misc{ruri-v3-onnx,
author = {khaangnguyeen},
title = {Ruri v3 310M ONNX},
year = {2025},
publisher = {Hugging Face},
howpublished = {\url{[https://huggingface.co/khaangnguyeen/ruri-v3-310m-onnx](https://huggingface.co/khaangnguyeen/ruri-v3-310m-onnx)}}
}
khaangnguyeen/ruri-v3-310m-onnx
作者 khaangnguyeen
feature-extraction
transformers
↓ 1
♥ 0
创建时间: 2025-11-19 21:24:09+00:00
更新时间: 2025-11-19 21:43:10+00:00
在 Hugging Face 上查看文件 (8)
.gitattributes
README.md
config.json
model.onnx
ONNX
special_tokens_map.json
tokenizer.json
tokenizer.model
tokenizer_config.json