ONNX 模型库
返回模型

说明文档

https://huggingface.co/openai/clip-vit-base-patch32 的 ONNX 权重版本,与 Transformers.js 兼容。

使用方法 (Transformers.js)

如果还没有安装 Transformers.js JavaScript 库,可以使用以下命令从 NPM 安装:

npm i @huggingface/transformers

示例: 使用 pipeline API 执行零样本图像分类。

import { pipeline } from '@huggingface/transformers';

const classifier = await pipeline('zero-shot-image-classification', 'Xenova/clip-vit-base-patch32');
const url = 'https://huggingface.co/datasets/Xenova/transformers.js-docs/resolve/main/tiger.jpg';
const output = await classifier(url, ['tiger', 'horse', 'dog']);
// [
//   { score: 0.9993917942047119, label: 'tiger' },
//   { score: 0.0003519294841680676, label: 'horse' },
//   { score: 0.0002562698791734874, label: 'dog' }
// ]

注意:单独设立一个仓库存放 ONNX 权重是一个临时解决方案,目的是等待 WebML 获得更广泛的支持。如果你想让模型能够直接在 Web 端使用,我们推荐使用 🤗 Optimum 将模型转换为 ONNX 格式,并参考此仓库的结构来组织你的模型仓库(将 ONNX 权重存放在名为 onnx 的子文件夹中)。

Xenova/clip-vit-base-patch32

作者 Xenova

zero-shot-image-classification transformers.js
↓ 94K ♥ 15

创建时间: 2023-05-19 11:42:28+00:00

更新时间: 2025-07-08 14:46:01+00:00

在 Hugging Face 上查看

文件 (32)

.gitattributes
README.md
config.json
merges.txt
onnx/model.onnx ONNX
onnx/model_bnb4.onnx ONNX
onnx/model_fp16.onnx ONNX
onnx/model_q4.onnx ONNX
onnx/model_q4f16.onnx ONNX
onnx/model_quantized.onnx ONNX
onnx/model_uint8.onnx ONNX
onnx/text_model.onnx ONNX
onnx/text_model_bnb4.onnx ONNX
onnx/text_model_fp16.onnx ONNX
onnx/text_model_int8.onnx ONNX
onnx/text_model_q4.onnx ONNX
onnx/text_model_q4f16.onnx ONNX
onnx/text_model_quantized.onnx ONNX
onnx/text_model_uint8.onnx ONNX
onnx/vision_model.onnx ONNX
onnx/vision_model_bnb4.onnx ONNX
onnx/vision_model_fp16.onnx ONNX
onnx/vision_model_int8.onnx ONNX
onnx/vision_model_q4.onnx ONNX
onnx/vision_model_q4f16.onnx ONNX
onnx/vision_model_quantized.onnx ONNX
onnx/vision_model_uint8.onnx ONNX
preprocessor_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.json