1、通過anaconda建立虛擬環境
conda create -n python python=3.8
2、檢視所有的虛擬環境
conda env list
3、啟用虛擬環境python38
4、(pytorch需要在此步驟之前安裝,我的是1.5.1版本的pytorch)pip安裝預訓練bert模型
詞表檔案
8、此時可以在**裡載入這裡的模型和分詞器了。
from pytorch_pretrained_bert import berttokenizer, bertmodel
path = 'c:\\users\\dell\\.pytorch_pretrained_bert\\bert-base-uncased'
tokenizer = berttokenizer.from_pretrained(path)
model = bertmodel.from_pretrained(path)
inputs = tokenizer.tokenize("hello world!")
# inputs = ['hello', 'world', '!']
input_ids = tokenizer.convert_tokens_to_ids(inputs)
# input_ids = [7592, 2088, 999]
bert預訓練模型解讀 Bert 預訓練小結
最近正在預訓練乙個中文pytorch版本的bert,模型部分 是基於huggingface發布的版本,預訓練過程還是參考google的 值得吐槽的是huggingface之前發布的分支名叫pytorch pretrain bert,後來又加上了gpt2 xlnet一系列當紅模型,結果索性改了個名字叫...
BERT 中文預訓練模型使用
只要是從事文字處理相關工作的人應該都知道 google 最新發布的 bert 模型,該模型屬於是詞向量的預訓練模型,一經提出便橫掃各大 nlp 任務,最近 google 公司如約推出了中文詞向量的預訓練模型,不得不說這是一件非常有良心的事情,在此膜拜和感謝 google 公司。那麼如何使用 bert...
基於bert預訓練模型的比較
基於bert預訓練模型的比較 electra roberta bert wwm albert xlnet 預訓練任務替換詞檢驗 遮掩詞 與bert相同 遮掩詞 sop permutation lm pretraining model生成器 判別器的模式,生成器與判別器的網路結構均為transform...