中文BERT-wwm

BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」

Github星跟蹤圖

主要指標

概覽
名稱與所有者ymcui/Chinese-BERT-wwm
主編程語言Python
編程語言Python (語言數: 1)
平台Linux, Mac, Windows
許可證Apache License 2.0
所有者活动
創建於2019-06-19 22:55:01
推送於2025-07-15 01:02:06
最后一次提交2025-07-15 09:02:00
發布數0
用户参与
星數10.1k
關注者數138
派生數1.4k
提交數112
已啟用問題?
問題數244
打開的問題數0
拉請求數1
打開的拉請求數0
關閉的拉請求數1
项目设置
已啟用Wiki?
已存檔?
是復刻?
已鎖定?
是鏡像?
是私有?