中文BERT-wwm

BERT中文全词遮罩的前期训练。「Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm预训练模型)」

主要指標

概覽

名稱與所有者ymcui/Chinese-BERT-wwm
主編程語言Python
編程語言Python (語言數: 1)
平台Linux, Mac, Windows
許可證Apache License 2.0
發布數0
創建於2019-06-19 22:55:01
推送於2023-07-31 07:34:40
最后一次提交2023-07-31 15:34:40
星數10002
關注者數140
派生數1394
提交數110
已啟用問題?
問題數242
打開的問題數0
拉請求數1
打開的拉請求數0
關閉的拉請求數1
已啟用Wiki?
已存檔?
是復刻?
已鎖定?
是鏡像?
是私有?
去到頂部