ONNX 模型库
返回模型

说明文档

Tiny Bert 领域广告分类器

https://huggingface.co/ansi-code/bert-domain-advertising-classifier/blob/main/bert_domain_advertising_classifier.ipynb

概述

AdTargetingBERTClassifier 是一个小型基于 BERT 的分类器,专为广告定向分类任务设计。该模型经过训练,可以预测与领域相关的多类别标签,这些标签来自 DAC693K 数据集。

模型架构

该分类器基于 BERT(双向编码器表示)架构构建。它接受领域文本作为输入,并输出每个类别的 logits,从而实现广告定向的多类别分类。

模型训练

该模型使用监督学习方法在"AdTargetingDataset"数据集上进行训练。训练过程涉及优化分类交叉熵损失,并对与每个领域相关的特定广告定向类别进行微调。

使用方法

加载模型

要在 Python 环境中使用训练好的分类器,可以使用以下代码加载:

from transformers import BertTokenizer, BertForSequenceClassification
import torch

# Load the pre-trained model and tokenizer
model = BertForSequenceClassification.from_pretrained("ansi-code/bert-domain-advertising-classifier")
tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")

# Example inference
text = "google.com"
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits

预测

要使用加载的模型进行预测,可以使用获取的 logits。将 logits 转换为概率,并根据最高概率确定预测类别。

Copy code
probabilities = torch.nn.functional.sigmoid(logits, dim=-1)
predicted_class = torch.argmax(probabilities).item()

模型评估

可以使用标准评估指标(如准确率、精确率、召回率和 F1 分数)在单独的验证集上或通过交叉验证来评估模型的性能。

许可证

本模型采用 Apache 2.0 许可证发布。

引用

如果您在研究中使用此模型,请使用以下 BibTeX 条目进行引用:

@model{silvi_2023_bert-domain-advertising-classifier,
  title = {bert-domain-advertising-classifier},
  author = {Andrea Silvi},
  year = {2023},
}

致谢

我们要感谢 Hugging Face Transformers 库的开发者提供了 BERT 模型的实现。

ansi-code/bert-domain-advertising-classifier

作者 ansi-code

text-classification
↓ 0 ♥ 0

创建时间: 2023-12-07 14:46:04+00:00

更新时间: 2023-12-07 14:57:00+00:00

在 Hugging Face 上查看

文件 (6)

.gitattributes
README.md
bert_domain_advertising_classifier
bert_domain_advertising_classifier.ipynb
bert_domain_advertising_classifier.onnx ONNX
bert_domain_advertising_classifier.pth