说明文档
BRIA 背景移除 v2.0 模型卡片
<p align="center"><img src="https://platform.bria.ai/assets/Bria-logo-5e0c53b1.svg" alt="BRIA Logo" width="200" /></p>
<!-- RMBG Card wrapper --> <div class="rmbg-card" style="position: relative; border-radius: 12px; overflow: hidden;">
<!-- FIBO Promo Banner (Top) --> <a href="https://huggingface.co/briaai/FIBO" target="_blank" rel="noopener" aria-label="Explore FIBO on Hugging Face" style=" position: absolute; top: 0; left: 0; width: 100%; display: flex; align-items: center; justify-content: center; gap: 10px; background: linear-gradient(90deg, #fff6b7 0%, #fde047 100%); color: #1f2937; text-decoration: none; font-family: Inter, system-ui, -apple-system, Segoe UI, Roboto, Arial, sans-serif; font-weight: 600; font-size: 13px; padding: 10px 0; border-bottom: 1px solid rgba(0,0,0,0.08); box-shadow: 0 2px 8px rgba(0,0,0,0.08); z-index: 10; "> <img src="https://huggingface.co/front/assets/huggingface_logo-noborder.svg" alt="Hugging Face" width="18" height="18" style="display:block" /> <span>✨ 在 Hugging Face 上探索 <strong>FIBO</strong></span> </a>
<!-- ... 你的 RMBG 内容在下方 ... --> <p align="center"> 💜 <a href="https://go.bria.ai/46gzn20"><b>Bria AI</b></a>   |   🤗 <a href="https://huggingface.co/briaai/">Hugging Face</a>    |    📑 <a href="https://blog.bria.ai/">博客</a>    <br> 🖥️ <a href="https://huggingface.co/spaces/briaai/BRIA-RMBG-2.0">演示</a>  |    <a href="https://github.com/Bria-AI/RMBG-2.0">Github</a>   </p>
RMBG v2.0 是我们全新的最先进背景移除模型,显著改进了 RMBG v1.4。该模型旨在有效分离各种类别和图像类型中的前景与背景。该模型在精心挑选的数据集上进行了训练,包括:通用素材图片、电子商务、游戏和广告内容,使其适用于支持大规模企业内容创作的商业应用场景。其准确性、效率和多功能性目前可与领先的开源模型相媲美。它非常适合对内容安全性、合法授权数据集和偏见缓解有严格要求的场景。
RMBG v2.0 由 BRIA AI 开发,作为源码可用模型供非商业使用。
获取访问权限
Bria RMBG2.0 可在您构建的任何平台上使用,无论是源代码和权重、ComfyUI 节点还是 API 端点。
更多信息,请访问我们的网站。
加入我们的 Discord 社区 获取更多信息、教程、工具,并与其他用户交流!

模型详情
模型描述
-
开发者: BRIA AI
-
模型类型: 背景移除
-
许可证: 知识共享署名-非商业性使用 (CC BY-NC 4.0)
- 该模型以 CC BY-NC 4.0 许可证发布,仅供非商业使用。
- 商业使用需与 BRIA 签订商业协议。可在此处获取
-
模型描述: BRIA RMBG-2.0 是一个专门在专业级数据集上训练的二分图像分割模型。模型输出包含单通道 8 位灰度 Alpha 蒙版,其中每个像素值表示原始图像中对应像素的不透明度级别。这种非二值输出方法为开发者提供了灵活性,可以为前景-背景分离定义自定义阈值,满足各种用例需求并增强与复杂流水线的集成。
-
BRIA: 更多信息资源:BRIA AI
训练数据
Bria-RMBG 模型使用超过 15,000 张高质量、高分辨率、手动标注(像素级精度)、完全授权的图像进行训练。 我们的基准测试包括性别平衡、种族平衡以及不同类型残障人士的图像。 为清晰起见,我们提供按不同类别划分的数据分布,展示我们模型的多功能性。
图像分布:
| 类别 | 分布 |
|---|---|
| 仅物体 | 45.11% |
| 人物与物体/动物 | 25.24% |
| 仅人物 | 17.35% |
| 人物/物体/动物带文字 | 8.52% |
| 仅文字 | 2.52% |
| 仅动物 | 1.89% |
| 类别 | 分布 |
|---|---|
| 写实风格 | 87.70% |
| 非写实风格 | 12.30% |
| 类别 | 分布 |
|---|---|
| 非纯色背景 | 52.05% |
| 纯色背景 | 47.95% |
| 类别 | 分布 |
|---|---|
| 单个主要前景物体 | 51.42% |
| 前景中有多个物体 | 48.58% |
定性评估
开源模型对比

架构
RMBG-2.0 基于 BiRefNet 架构开发,并结合了我们专有的数据集和训练方案进行了增强。该训练数据显著提高了模型在背景移除任务中的准确性和有效性。<br> 如果您在研究中使用此模型,请引用:
@article{BiRefNet,
title={Bilateral Reference for High-Resolution Dichotomous Image Segmentation},
author={Zheng, Peng and Gao, Dehong and Fan, Deng-Ping and Liu, Li and Laaksonen, Jorma and Ouyang, Wanli and Sebe, Nicu},
journal={CAAI Artificial Intelligence Research},
year={2024}
}
依赖要求
torch
torchvision
pillow
kornia
transformers
使用方法
<!-- 本节介绍无需微调或集成到更大生态系统/应用中的模型使用。 -->
from PIL import Image
import torch
from torchvision import transforms
from transformers import AutoModelForImageSegmentation
device = 'cuda' if torch.cuda.is_available() else 'cpu'
model = AutoModelForImageSegmentation.from_pretrained('briaai/RMBG-2.0', trust_remote_code=True).eval().to(device)
# 数据设置
image_size = (1024, 1024)
transform_image = transforms.Compose([
transforms.Resize(image_size),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
])
image = Image.open(input_image_path)
input_images = transform_image(image).unsqueeze(0).to(device)
# 预测
with torch.no_grad():
preds = model(input_images)[-1].sigmoid().cpu()
pred = preds[0].squeeze()
pred_pil = transforms.ToPILImage()(pred)
mask = pred_pil.resize(image.size)
image.putalpha(mask)
image.save("no_bg_image.png")
</div>
yuri1996/rmbg
作者 yuri1996
创建时间: 2025-12-31 12:55:53+00:00
更新时间: 2025-12-31 12:58:49+00:00
在 Hugging Face 上查看