更新時間:2023-05-26 來源:黑馬程序員 瀏覽量:
BERT是谷歌公司提出的預訓練模型,主要模擬語言模型和語句預測。由12層transformer的編碼器羅列組成,可以進行遷移學習從而滿足不同要求任務(wù),也可以用來進行詞向量生成。
Bert是一個預訓練模型,bilstm是一個模型結(jié)構(gòu)。首先兩個結(jié)構(gòu)不同,bert是基于transformer改進而來引入多頭注意力機制等,bilstm是一個時間序列的模型包含遺忘門、輸入門、輸出門、細胞狀態(tài)。
Bert中利用了attention,在谷歌論文中 attention is all you need
中提出了多頭注意力和transformer,bert是由12層transformer的編碼器羅列組成。
關(guān)于Q,K,V:Q可以理解為一段文本,K 可以理解為關(guān)鍵詞提示,V可以理解為模型學習后對文本關(guān)鍵部分的理解。在模型訓練時,K
V由編碼器給出,Q由解碼器給出,模型根據(jù)Q以及K學習理解文本的關(guān)鍵含義得到V。