返回模型
说明文档
关于
这个 BERT 模型是使用 wikimedia/wikipedia 日语数据训练的。 在单张 RTX3080 上训练大约花了一天时间。
neody/ja-bert-1
作者 neody
fill-mask
transformers
↓ 0
♥ 1
创建时间: 2024-05-14 09:16:28+00:00
更新时间: 2024-05-21 01:57:36+00:00
在 Hugging Face 上查看文件 (10)
.gitattributes
README.md
config.json
generation_config.json
hidden_model.onnx
ONNX
model.safetensors
special_tokens_map.json
tokenizer.json
tokenizer_config.json
vocab.txt