返回模型
说明文档
ONNX 部署版 sentence-transformers/clip-ViT-B-32
此模型用于图像分类和相似度搜索。
使用方法
以下示例展示如何使用 FastEmbed 进行推理。
from fastembed import ImageEmbedding
images = [
"./path/to/image1.jpg",
"./path/to/image2.jpg",
]
model = ImageEmbedding(model_name="Qdrant/clip-ViT-B-32-vision")
embeddings = list(model.embed(images))
# [
# array([-0.1115, 0.0097, 0.0052, 0.0195, ...], dtype=float32),
# array([-0.1019, 0.0635, -0.0332, 0.0522, ...], dtype=float32)
# ]
Qdrant/clip-ViT-B-32-vision
作者 Qdrant
image-classification
transformers
↓ 32.8K
♥ 13
创建时间: 2024-04-30 17:07:51+00:00
更新时间: 2024-10-16 09:40:57+00:00
在 Hugging Face 上查看文件 (5)
.gitattributes
README.md
config.json
model.onnx
ONNX
preprocessor_config.json