中文BERT-wwm

BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」

主要指标

概览

名称与所有者ymcui/Chinese-BERT-wwm
主编程语言Python
编程语言Python (语言数: 1)
平台Linux, Mac, Windows
许可证Apache License 2.0
发布数0
创建于2019-06-19 22:55:01
推送于2025-07-15 01:02:06
最后一次提交2025-07-15 09:02:00
星数10040
关注者数140
派生数1395
提交数112
已启用问题?
问题数243
打开的问题数0
拉请求数1
打开的拉请求数0
关闭的拉请求数1
已启用Wiki?
已存档?
是复刻?
已锁定?
是镜像?
是私有?
去到顶部