ONNX 模型库
返回模型

说明文档


library_name: transformers license: mit base_model: lotusbro/x5-ner tags:

  • generated_from_trainer metrics:
  • precision
  • recall
  • f1
  • accuracy model-index:
  • name: x5-ner-weighted results: []

<!-- 此模型卡已根据训练器可访问的信息自动生成。您可能需要校对并完善它,然后删除此注释。 -->

x5-ner-weighted

此模型是在未知数据集上对 lotusbro/x5-ner 进行微调的版本。 它在评估集上取得了以下结果:

  • Loss: 0.8575
  • Precision: 0.9465
  • Recall: 0.9594
  • F1: 0.9529
  • Accuracy: 0.9505

模型描述

更多信息待补充

预期用途与限制

更多信息待补充

训练和评估数据

更多信息待补充

训练过程

训练超参数

训练过程中使用了以下超参数:

  • learning_rate: 2e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: 使用 OptimizerNames.ADAMW_TORCH,betas=(0.9,0.999),epsilon=1e-08,optimizer_args=无额外优化器参数
  • lr_scheduler_type: linear
  • num_epochs: 10

训练结果

训练损失 Epoch Step 验证损失 Precision Recall F1 Accuracy
0.1246 1.0 3066 0.8009 0.9367 0.9480 0.9423 0.9441
0.1415 2.0 6132 0.6241 0.9399 0.9521 0.9460 0.9466
0.1218 3.0 9198 0.5923 0.9426 0.9534 0.9480 0.9475
0.0877 4.0 12264 0.7352 0.9420 0.9537 0.9478 0.9478
0.0725 5.0 15330 0.6434 0.9443 0.9518 0.9480 0.9493
0.0337 6.0 18396 0.7521 0.9478 0.9562 0.9520 0.9509
0.0287 7.0 21462 0.8421 0.9403 0.9540 0.9471 0.9460
0.0125 8.0 24528 0.8045 0.9497 0.9591 0.9544 0.9501
0.0105 9.0 27594 0.8138 0.9462 0.9597 0.9529 0.9517
0.0044 10.0 30660 0.8575 0.9465 0.9594 0.9529 0.9505

框架版本

  • Transformers 4.53.3
  • Pytorch 2.7.1+cu118
  • Datasets 3.6.0
  • Tokenizers 0.21.4

lotusbro/x5-ner-weighted

作者 lotusbro

token-classification transformers
↓ 0 ♥ 0

创建时间: 2025-09-30 16:18:47+00:00

更新时间: 2025-10-01 17:23:41+00:00

在 Hugging Face 上查看

文件 (13)

.gitattributes
README.md
config.json
model.onnx ONNX
model.onnx_data
model.safetensors
runs/Sep30_19-18-45_DESKTOP-QPSPOLH/events.out.tfevents.1759249127.DESKTOP-QPSPOLH.26112.0
runs/Sep30_19-23-39_DESKTOP-QPSPOLH/events.out.tfevents.1759249421.DESKTOP-QPSPOLH.2488.0
runs/Sep30_20-03-08_DESKTOP-QPSPOLH/events.out.tfevents.1759251790.DESKTOP-QPSPOLH.14056.0
special_tokens_map.json
tokenizer.json
tokenizer_config.json
training_args.bin