ONNX 模型库
返回模型

说明文档

<!-- This model card has been generated automatically according to the information the Trainer had access to. You should probably proofread and complete it, then remove this comment. -->

layoutlmv3-finetuned-full

该模型是基于 microsoft/layoutlmv3-large 在一个未知数据集上进行微调的版本。 它在评估集上取得了以下结果:

  • 损失值 (Loss): 0.0613
  • 精确率 (Precision): 0.9339
  • 召回率 (Recall): 0.9517
  • F1 分数: 0.9427
  • 准确率 (Accuracy): 0.9888

模型描述

更多信息待补充

预期用途与限制

更多信息待补充

训练和评估数据

更多信息待补充

训练过程

训练超参数

训练过程中使用了以下超参数:

  • 学习率 (learning_rate): 1e-05
  • 训练批次大小 (train_batch_size): 2
  • 评估批次大小 (eval_batch_size): 2
  • 随机种子 (seed): 42
  • 梯度累积步数 (gradient_accumulation_steps): 3
  • 总训练批次大小 (total_train_batch_size): 6
  • 优化器 (optimizer): 使用 OptimizerNames.ADAMW_TORCH,betas=(0.9,0.999),epsilon=1e-08,无额外优化器参数
  • 学习率调度器类型 (lr_scheduler_type): linear
  • 训练步数 (training_steps): 2500
  • 混合精度训练: Native AMP

训练结果

训练损失 Epoch Step 验证损失 精确率 召回率 F1 准确率
No log 0.5201 250 0.3041 0.4864 0.5643 0.5225 0.9219
0.4848 1.0416 500 0.1620 0.7495 0.8031 0.7753 0.9652
0.4848 1.5617 750 0.1195 0.8386 0.8662 0.8522 0.9745
0.1555 2.0832 1000 0.0996 0.8764 0.9025 0.8892 0.9790
0.1555 2.6033 1250 0.0765 0.8984 0.9285 0.9132 0.9828
0.0941 3.1248 1500 0.0662 0.9207 0.9387 0.9296 0.9864
0.0941 3.6449 1750 0.0658 0.9361 0.9452 0.9406 0.9875
0.0643 4.1664 2000 0.0630 0.9317 0.9508 0.9411 0.9886
0.0643 4.6865 2250 0.0589 0.9338 0.9503 0.9420 0.9892
0.0503 5.2080 2500 0.0613 0.9339 0.9517 0.9427 0.9888

框架版本

  • Transformers 4.48.3
  • Pytorch 2.5.1+cu124
  • Datasets 3.3.2
  • Tokenizers 0.21.0

armanbb/layoutlmv3-finetuned-full

作者 armanbb

token-classification transformers
↓ 1 ♥ 0

创建时间: 2025-02-22 20:58:23+00:00

更新时间: 2025-02-27 19:37:31+00:00

在 Hugging Face 上查看

文件 (12)

.gitattributes
README.md
config.json
merges.txt
model.onnx ONNX
model.safetensors
preprocessor_config.json
special_tokens_map.json
tokenizer.json
tokenizer_config.json
training_args.bin
vocab.json