中文BERT-wwm
BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」
主要指标
概览
名称与所有者 | ymcui/Chinese-BERT-wwm |
---|---|
主编程语言 | Python |
编程语言 | Python (语言数: 1) |
平台 | Linux, Mac, Windows |
许可证 | Apache License 2.0 |
发布数 | 0 |
创建于 | 2019-06-19 22:55:01 |
推送于 | 2025-07-15 01:02:06 |
最后一次提交 | 2025-07-15 09:02:00 |
星数 | 10040 |
关注者数 | 140 |
派生数 | 1395 |
提交数 | 112 |
已启用问题? | |
问题数 | 243 |
打开的问题数 | 0 |
拉请求数 | 1 |
打开的拉请求数 | 0 |
关闭的拉请求数 | 1 |
已启用Wiki? | |
已存档? | |
是复刻? | |
已锁定? | |
是镜像? | |
是私有? |