中文BERT-wwm

BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」

Github星跟踪图

主要指标

概览
名称与所有者ymcui/Chinese-BERT-wwm
主编程语言Python
编程语言Python (语言数: 1)
平台Linux, Mac, Windows
许可证Apache License 2.0
所有者活动
创建于2019-06-19 22:55:01
推送于2023-07-31 07:34:40
最后一次提交2023-07-31 15:34:40
发布数0
用户参与
星数10k
关注者数141
派生数1.4k
提交数110
已启用问题?
问题数242
打开的问题数0
拉请求数1
打开的拉请求数0
关闭的拉请求数1
项目设置
已启用Wiki?
已存档?
是复刻?
已锁定?
是镜像?
是私有?