初探 BERT 的使用方式

更新於 2020/04/08閱讀時間約 2 分鐘
感覺把 BERT tune 到可以弄成 BB-8 或是哈囉應該會蠻不錯的
最近因為武漢肺炎進行了一些奇怪的研究,見證了同事如何在短時間內建構出強大的 model 可以在論文海裡面找出一些很不錯的內容來回答一些專業的問題,決定開始抽出時間來努力嘗試駕馭這項強大的武器,BERT 問世其實已經一段時間了,自從 Google 在約莫兩年前放出這個模型之後在自然語言處理的領域造成了很大的漣漪效應,因為站在巨人肩膀上的這個基礎讓很多原本不容易做到堪用程度的自然語言處理任務一下子提升了一個檔次,主要應用在文本產生(text generation)、問題回答(question answering)以及跨語言的文意理解幾個領域,如果想要快速了解到底發生了什麼事情,非常推薦把以下李弘毅教授的兩個影片看完,可以先看第一個,如果沒有 transformer 的基礎再去看第二個補完:
經過一段時間的發展,基本上現在用 BERT 做出來的 model 都可以輕鬆的在各大自然語言處理任務的排行榜上屠殺四方,目前最成熟的套件之一當屬 Python 的 transformer,基本上把很多主流最強最猛的 model 都直接包進來了,可以非常無痛的直接上手使用,另外也包了 pipeline 可以非常快速的啟動簡單的任務,一開始看起來會覺得很龐雜,但使用起來是十分舒服的。
今天大概花了半小時的時間看了一下原始碼裡面 pipeline 是怎麼寫的,大致上對於question answering 的運作有個初步的概念,基本上就是先把問題映射到詞彙的輸入空間,然後去計算完輸出層的值之後去找到答案的頭跟尾,然後再映射回來對應的內容,中間注意力跟權重那些怎麼運作其實都可以不用管就可以用了,下面是一個 colab 的簡單範例,只需要 6 行程式碼就可以開始玩玩可以回答你任何奇怪問題的 AI,順手隨便找了一篇關於 Zoom 的文章問問看替代品是什麼,結果答案是 Skype hmm...
為什麼會看到廣告
avatar-img
263會員
38內容數
本專題著重於探討資料分析實務,從實務經驗出發,探索學校所教導的建模以外的各項技術,包含資料前處理、營運整合與成效評估、團隊文化建構等等內容。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Ofa Hsueh的沙龍 的其他內容
閒來看了一下去年閱讀書目做的筆記,有點意外居然有十多本,比我預期的多不少,雖然有些沒有讀完,但也是獲益不少,以下收錄一些我覺得很棒有記錄下來的內容。
最近進駐在好想工作室,經常被諮詢幾個關於職涯的問題,剛好最近也在因應公司的擴張做了蠻多的調整跟學習,覺得可以整理一些經驗跟想法分享出來: 如果有機會回到20歲告訴我自己一句話,我會說「請開始學習用投資的角度來審視你的每一個抉擇」
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
近年來,拜行動網路與視訊會議軟體像是 Google Hangout 這類服務的成本下降之賜,以及在國際大城市的交通壅塞、房價與生活品質問題日益嚴重的推波助瀾之下,遠端工作漸漸成為許多人追求的生活風格。在這些選擇遠端工作的族群當中,又可分為在家工作者與數位遊牧工作者兩大類型。
MOPCON 做為高雄或是說南部最大的技術社群聚會,除了是一個大家碰面寒暄的場合,一直以來也是非常重要的人才培養皿與練兵場,前幾年從創辦人們開始回歸家庭與職場之後,就一直歷經不斷的換血與組織改造。
閒來看了一下去年閱讀書目做的筆記,有點意外居然有十多本,比我預期的多不少,雖然有些沒有讀完,但也是獲益不少,以下收錄一些我覺得很棒有記錄下來的內容。
最近進駐在好想工作室,經常被諮詢幾個關於職涯的問題,剛好最近也在因應公司的擴張做了蠻多的調整跟學習,覺得可以整理一些經驗跟想法分享出來: 如果有機會回到20歲告訴我自己一句話,我會說「請開始學習用投資的角度來審視你的每一個抉擇」
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
近年來,拜行動網路與視訊會議軟體像是 Google Hangout 這類服務的成本下降之賜,以及在國際大城市的交通壅塞、房價與生活品質問題日益嚴重的推波助瀾之下,遠端工作漸漸成為許多人追求的生活風格。在這些選擇遠端工作的族群當中,又可分為在家工作者與數位遊牧工作者兩大類型。
MOPCON 做為高雄或是說南部最大的技術社群聚會,除了是一個大家碰面寒暄的場合,一直以來也是非常重要的人才培養皿與練兵場,前幾年從創辦人們開始回歸家庭與職場之後,就一直歷經不斷的換血與組織改造。
你可能也想看
Google News 追蹤
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
自然語言處理(NLP)領域近年來發展迅速,其中最引人注目的就是Google推出的BERT(Bidirectional Encoder Representations from Transformers)模型。作為一個里程碑式的突破,BERT為我們理解和處理人類語言開闢了新的可能性。 BERT的
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Bidirectional Encoder Representations from Transformers (BERT) 只有 Encoder Layer,沒有 D
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要學習 BERT (Bidirectional Encoder Representations from Transformers) 的架構,需要先複習本書第二章的 A
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。
Thumbnail
徵的就是你 🫵 超ㄅㄧㄤˋ 獎品搭配超瞎趴的四大主題,等你踹共啦!還有機會獲得經典的「偉士牌樂高」喔!馬上來參加本次的活動吧!
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
自然語言處理(NLP)領域近年來發展迅速,其中最引人注目的就是Google推出的BERT(Bidirectional Encoder Representations from Transformers)模型。作為一個里程碑式的突破,BERT為我們理解和處理人類語言開闢了新的可能性。 BERT的
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Bidirectional Encoder Representations from Transformers (BERT) 只有 Encoder Layer,沒有 D
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要學習 BERT (Bidirectional Encoder Representations from Transformers) 的架構,需要先複習本書第二章的 A
Thumbnail
本文介紹自我監督學習的概念和訓練方式,以BERT和GPT為例,深入探討Masking Input及Fine-Tune的實際操作和可應用性。
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
大語言模型,例如OpenAI提供的ChatGPT,是過去幾年發展的深度神經網路模型,開啟自然語言處理的新紀元。
Thumbnail
ChatGPT 是 OpenAI 開發的大型語言模型,以其強大的生成能力和對話能力而聞名。 ChatGPT 的訓練過程主要分為兩個階段:預訓練和微調。 微調使用了 RLHF(Reinforcement Learning from Human Feedback)技術,可以有效地提高模型生成內容的質量。