返回模型
说明文档
<!-- 此模型卡片已根据 Keras 所掌握的信息自动生成。您可能需要校对并完善它,然后删除此注释。 -->
clickbait-ml_bert
此模型是在未知数据集上基于 bert-base-german-cased 进行微调的版本。 它在评估集上取得了以下结果:
- 训练损失: 0.6057
- 验证损失: 0.6160
- 训练准确率: 0.8235
- 轮次: 3
模型描述
需要更多信息
预期用途与限制
需要更多信息
训练与评估数据
需要更多信息
训练过程
训练超参数
训练过程中使用了以下超参数:
- optimizer: {'name': 'Adam', 'learning_rate': {'class_name': 'PolynomialDecay', 'config': {'initial_learning_rate': 2e-05, 'decay_steps': 8, 'end_learning_rate': 0.0, 'power': 1.0, 'cycle': False, 'name': None}}, 'decay': 0.0, 'beta_1': 0.9, 'beta_2': 0.999, 'epsilon': 1e-08, 'amsgrad': False}
- training_precision: float32
训练结果
| 训练损失 | 验证损失 | 训练准确率 | 轮次 |
|---|---|---|---|
| 0.7115 | 0.6299 | 0.8235 | 0 |
| 0.6071 | 0.6160 | 0.8235 | 1 |
| 0.5783 | 0.6160 | 0.8235 | 2 |
| 0.6057 | 0.6160 | 0.8235 | 3 |
框架版本
- Transformers 4.30.1
- TensorFlow 2.12.0
- Datasets 2.12.0
- Tokenizers 0.13.3
ml-projects/clickbait-ml_bert
作者 ml-projects
text-classification
transformers
↓ 0
♥ 0
创建时间: 2023-06-11 15:06:38+00:00
更新时间: 2023-06-13 11:38:55+00:00
在 Hugging Face 上查看文件 (9)
.gitattributes
README.md
config.json
onnx/model_quantized.onnx
ONNX
special_tokens_map.json
tf_model.h5
tokenizer.json
tokenizer_config.json
vocab.txt