中文BERT-wwm
BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」
主要指标
概览
| 名称与所有者 | ymcui/Chinese-BERT-wwm |
|---|---|
| 主编程语言 | Python |
| 编程语言 | Python (语言数: 1) |
| 平台 | Linux, Mac, Windows |
| 许可证 | Apache License 2.0 |
| 发布数 | 0 |
| 创建于 | 2019-06-19 22:55:01 |
| 推送于 | 2025-07-15 01:02:06 |
| 最后一次提交 | 2025-07-15 09:02:00 |
| 星数 | 10103 |
| 关注者数 | 136 |
| 派生数 | 1393 |
| 提交数 | 112 |
| 已启用问题? | |
| 问题数 | 244 |
| 打开的问题数 | 0 |
| 拉请求数 | 1 |
| 打开的拉请求数 | 0 |
| 关闭的拉请求数 | 1 |
| 已启用Wiki? | |
| 已存档? | |
| 是复刻? | |
| 已锁定? | |
| 是镜像? | |
| 是私有? |
