ONNX 模型库
返回模型

说明文档

<!-- 此模型卡片已根据 Keras 所掌握的信息自动生成。您可能需要校对并完善它,然后删除此注释。 -->

clickbait-ml_bert

此模型是在未知数据集上基于 bert-base-german-cased 进行微调的版本。 它在评估集上取得了以下结果:

  • 训练损失: 0.6057
  • 验证损失: 0.6160
  • 训练准确率: 0.8235
  • 轮次: 3

模型描述

需要更多信息

预期用途与限制

需要更多信息

训练与评估数据

需要更多信息

训练过程

训练超参数

训练过程中使用了以下超参数:

  • optimizer: {'name': 'Adam', 'learning_rate': {'class_name': 'PolynomialDecay', 'config': {'initial_learning_rate': 2e-05, 'decay_steps': 8, 'end_learning_rate': 0.0, 'power': 1.0, 'cycle': False, 'name': None}}, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-08, 'amsgrad': False}
  • training_precision: float32

训练结果

训练损失 验证损失 训练准确率 轮次
0.7115 0.6299 0.8235 0
0.6071 0.6160 0.8235 1
0.5783 0.6160 0.8235 2
0.6057 0.6160 0.8235 3

框架版本

  • Transformers 4.30.1
  • TensorFlow 2.12.0
  • Datasets 2.12.0
  • Tokenizers 0.13.3

ml-projects/clickbait-ml_bert

作者 ml-projects

text-classification transformers
↓ 0 ♥ 0

创建时间: 2023-06-11 15:06:38+00:00

更新时间: 2023-06-13 11:38:55+00:00

在 Hugging Face 上查看

文件 (9)

.gitattributes
README.md
config.json
onnx/model_quantized.onnx ONNX
special_tokens_map.json
tf_model.h5
tokenizer.json
tokenizer_config.json
vocab.txt