最近因為武漢肺炎進行了一些奇怪的研究,見證了同事如何在短時間內建構出強大的 model 可以在論文海裡面找出一些很不錯的內容來回答一些專業的問題,決定開始抽出時間來努力嘗試駕馭這項強大的武器,BERT 問世其實已經一段時間了,自從 Google 在約莫兩年前放出這個模型之後在自然語言處理的領域造成了很大的漣漪效應,因為站在巨人肩膀上的這個基礎讓很多原本不容易做到堪用程度的自然語言處理任務一下子提升了一個檔次,主要應用在文本產生(text generation)、問題回答(question answering)以及跨語言的文意理解幾個領域,如果想要快速了解到底發生了什麼事情,非常推薦把以下李弘毅教授的兩個影片看完,可以先看第一個,如果沒有 transformer 的基礎再去看第二個補完:
經過一段時間的發展,基本上現在用 BERT 做出來的 model 都可以輕鬆的在各大自然語言處理任務的排行榜上屠殺四方,目前最成熟的套件之一當屬 Python 的 transformer,基本上把很多主流最強最猛的 model 都直接包進來了,可以非常無痛的直接上手使用,另外也包了 pipeline 可以非常快速的啟動簡單的任務,一開始看起來會覺得很龐雜,但使用起來是十分舒服的。