ONNX 模型库
返回模型

说明文档

ONNX 部署版 sentence-transformers/clip-ViT-B-32

此模型用于图像分类和相似度搜索。

使用方法

以下示例展示如何使用 FastEmbed 进行推理。

from fastembed import ImageEmbedding

images = [
    "./path/to/image1.jpg",
    "./path/to/image2.jpg",
]

model = ImageEmbedding(model_name="Qdrant/clip-ViT-B-32-vision")
embeddings = list(model.embed(images))

# [
#   array([-0.1115,  0.0097,  0.0052,  0.0195, ...], dtype=float32),
#   array([-0.1019,  0.0635, -0.0332,  0.0522, ...], dtype=float32)
# ]

Qdrant/clip-ViT-B-32-vision

作者 Qdrant

image-classification transformers
↓ 32.8K ♥ 13

创建时间: 2024-04-30 17:07:51+00:00

更新时间: 2024-10-16 09:40:57+00:00

在 Hugging Face 上查看

文件 (5)

.gitattributes
README.md
config.json
model.onnx ONNX
preprocessor_config.json