返回模型
说明文档
<!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. -->
layoutlmv3-finetuned-full
该模型是基于 microsoft/layoutlmv3-large 在一个未知数据集上进行微调的版本。 它在评估集上取得了以下结果:
- 损失值 (Loss): 0.0613
- 精确率 (Precision): 0.9339
- 召回率 (Recall): 0.9517
- F1 分数: 0.9427
- 准确率 (Accuracy): 0.9888
模型描述
更多信息待补充
预期用途与限制
更多信息待补充
训练和评估数据
更多信息待补充
训练过程
训练超参数
训练过程中使用了以下超参数:
- 学习率 (learning_rate): 1e-05
- 训练批次大小 (train_batch_size): 2
- 评估批次大小 (eval_batch_size): 2
- 随机种子 (seed): 42
- 梯度累积步数 (gradient_accumulation_steps): 3
- 总训练批次大小 (total_train_batch_size): 6
- 优化器 (optimizer): 使用 OptimizerNames.ADAMW_TORCH,betas=(0.9,0.999),epsilon=1e-08,无额外优化器参数
- 学习率调度器类型 (lr_scheduler_type): linear
- 训练步数 (training_steps): 2500
- 混合精度训练: Native AMP
训练结果
| 训练损失 | Epoch | Step | 验证损失 | 精确率 | 召回率 | F1 | 准确率 |
|---|---|---|---|---|---|---|---|
| No log | 0.5201 | 250 | 0.3041 | 0.4864 | 0.5643 | 0.5225 | 0.9219 |
| 0.4848 | 1.0416 | 500 | 0.1620 | 0.7495 | 0.8031 | 0.7753 | 0.9652 |
| 0.4848 | 1.5617 | 750 | 0.1195 | 0.8386 | 0.8662 | 0.8522 | 0.9745 |
| 0.1555 | 2.0832 | 1000 | 0.0996 | 0.8764 | 0.9025 | 0.8892 | 0.9790 |
| 0.1555 | 2.6033 | 1250 | 0.0765 | 0.8984 | 0.9285 | 0.9132 | 0.9828 |
| 0.0941 | 3.1248 | 1500 | 0.0662 | 0.9207 | 0.9387 | 0.9296 | 0.9864 |
| 0.0941 | 3.6449 | 1750 | 0.0658 | 0.9361 | 0.9452 | 0.9406 | 0.9875 |
| 0.0643 | 4.1664 | 2000 | 0.0630 | 0.9317 | 0.9508 | 0.9411 | 0.9886 |
| 0.0643 | 4.6865 | 2250 | 0.0589 | 0.9338 | 0.9503 | 0.9420 | 0.9892 |
| 0.0503 | 5.2080 | 2500 | 0.0613 | 0.9339 | 0.9517 | 0.9427 | 0.9888 |
框架版本
- Transformers 4.48.3
- Pytorch 2.5.1+cu124
- Datasets 3.3.2
- Tokenizers 0.21.0
armanbb/layoutlmv3-finetuned-full
作者 armanbb
token-classification
transformers
↓ 1
♥ 0
创建时间: 2025-02-22 20:58:23+00:00
更新时间: 2025-02-27 19:37:31+00:00
在 Hugging Face 上查看文件 (12)
.gitattributes
README.md
config.json
merges.txt
model.onnx
ONNX
model.safetensors
preprocessor_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
training_args.bin
vocab.json