用 transformers 的 pipeline 快速進行中文填字

更新於 發佈於 閱讀時間約 1 分鐘
今天開始啃在中文資料使用 BERT 相關的一些資料,還是要鄭重的推薦一下這篇
基本上整個走完對於 BERT 要怎麼用就會有初步的完整經驗,估計要花上三四個小時好好的了解一下這些程式碼才會夠,今天就先簡單的挑個小任務來玩:中文填字遊戲
原先在文中使用的方式比較完整的從神經網路的輸出層連接回來對應的字詞,大約需要 20 行左右的程式碼才能完成,但如果使用 transformers 的 pipeline 的話程式碼就只要三行...
原來的範例程式碼
改用 pipeline 之後
初步測試了一下要能夠處理我想弄的中藥藥方處理似乎不是一個很好的選項,對"川七七錢 枸杞2錢 三[MASK]2g"這樣的句子就得不太到東西,看起來可能需要重新思考怎麼去定義任務,單純的 tokenization 應該還是用我之前已經訓練好的 hidden markov model 來弄會比較適合。
即將進入廣告,捲動後可繼續閱讀
為什麼會看到廣告
avatar-img
263會員
38內容數
本專題著重於探討資料分析實務,從實務經驗出發,探索學校所教導的建模以外的各項技術,包含資料前處理、營運整合與成效評估、團隊文化建構等等內容。
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
Ofa Hsueh的沙龍 的其他內容
最近因為武漢肺炎進行了一些奇怪的研究,見證了同事如何在短時間內建構出強大的 model 可以在論文海裡面找出一些很不錯的內容來回答一些專業的問題,決定開始抽出時間來努力嘗試駕馭這項強大的武器
閒來看了一下去年閱讀書目做的筆記,有點意外居然有十多本,比我預期的多不少,雖然有些沒有讀完,但也是獲益不少,以下收錄一些我覺得很棒有記錄下來的內容。
最近進駐在好想工作室,經常被諮詢幾個關於職涯的問題,剛好最近也在因應公司的擴張做了蠻多的調整跟學習,覺得可以整理一些經驗跟想法分享出來: 如果有機會回到20歲告訴我自己一句話,我會說「請開始學習用投資的角度來審視你的每一個抉擇」
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
近年來,拜行動網路與視訊會議軟體像是 Google Hangout 這類服務的成本下降之賜,以及在國際大城市的交通壅塞、房價與生活品質問題日益嚴重的推波助瀾之下,遠端工作漸漸成為許多人追求的生活風格。在這些選擇遠端工作的族群當中,又可分為在家工作者與數位遊牧工作者兩大類型。
最近因為武漢肺炎進行了一些奇怪的研究,見證了同事如何在短時間內建構出強大的 model 可以在論文海裡面找出一些很不錯的內容來回答一些專業的問題,決定開始抽出時間來努力嘗試駕馭這項強大的武器
閒來看了一下去年閱讀書目做的筆記,有點意外居然有十多本,比我預期的多不少,雖然有些沒有讀完,但也是獲益不少,以下收錄一些我覺得很棒有記錄下來的內容。
最近進駐在好想工作室,經常被諮詢幾個關於職涯的問題,剛好最近也在因應公司的擴張做了蠻多的調整跟學習,覺得可以整理一些經驗跟想法分享出來: 如果有機會回到20歲告訴我自己一句話,我會說「請開始學習用投資的角度來審視你的每一個抉擇」
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
方格子無廣告簡潔的介面非常適合用關燈模式進行閱讀或創作 身為一個宅宅工程師,螢幕打開應該就是要黑黑 der 才算是稱職(?) 方格子的介面因為沒有廣告也夠簡單,因此特別適合用關燈模式進行創作或是閱讀,在 Chrome 上面有許多外掛可以使用,新版的 Chrome 也可以選擇黑暗模式
近年來,拜行動網路與視訊會議軟體像是 Google Hangout 這類服務的成本下降之賜,以及在國際大城市的交通壅塞、房價與生活品質問題日益嚴重的推波助瀾之下,遠端工作漸漸成為許多人追求的生活風格。在這些選擇遠端工作的族群當中,又可分為在家工作者與數位遊牧工作者兩大類型。
你可能也想看
Google News 追蹤
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Bidirectional Encoder Representations from Transformers (BERT) 只有 Encoder Layer,沒有 D
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要學習 BERT (Bidirectional Encoder Representations from Transformers) 的架構,需要先複習本書第二章的 A
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 原始 Transformer 架構的 Transduction Process 使用編碼器堆疊、解碼器堆疊而用所有模型參數來表示參考序列,我們將該輸出序列稱為參考。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
上篇我們簡單的了解了 TTS 想要達到的目標,但是對於訓練資料的處理、網路架構、損失函數、輸出分析等考慮到篇幅尚未解釋清楚,這篇將針對訓練資料處理中的文字部分進行詳細說明,讓我們開始吧。
在使用Meta釋出的模型,實作Chat GPT - Part 3中我們已經建立好大型語言模型遇到哪些「字串」要停止輸出的列表,現在我們將它製作成一個物件,對應程式如下: from transformers import StoppingCriteria, StoppingCriteriaList
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer
Thumbnail
隨著理財資訊的普及,越來越多台灣人不再將資產侷限於台股,而是將視野拓展到國際市場。特別是美國市場,其豐富的理財選擇,讓不少人開始思考將資金配置於海外市場的可能性。 然而,要參與美國市場並不只是盲目跟隨標的這麼簡單,而是需要策略和方式,尤其對新手而言,除了選股以外還會遇到語言、開戶流程、Ap
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Bidirectional Encoder Representations from Transformers (BERT) 只有 Encoder Layer,沒有 D
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 127 中提及: Transformer 的關鍵參數為: 原始 Transformer 模型中,左圖的 N = 6 原始 Tran
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 39 至 AI說書 - 從0開始 - 69 的第二章內容,我們拿 Encoder 出來看: 幾點注意如下: BERT 模型使用 M
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 要學習 BERT (Bidirectional Encoder Representations from Transformers) 的架構,需要先複習本書第二章的 A
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 原始 Transformer 架構的 Transduction Process 使用編碼器堆疊、解碼器堆疊而用所有模型參數來表示參考序列,我們將該輸出序列稱為參考。
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 下游任務是一個 Fine-Tuned 的 Transformer 任務,它從預先訓練的 Transformer 模型繼承模型和參數,故,下游任務是運行微調任務的預訓練模
Thumbnail
上篇我們簡單的了解了 TTS 想要達到的目標,但是對於訓練資料的處理、網路架構、損失函數、輸出分析等考慮到篇幅尚未解釋清楚,這篇將針對訓練資料處理中的文字部分進行詳細說明,讓我們開始吧。
在使用Meta釋出的模型,實作Chat GPT - Part 3中我們已經建立好大型語言模型遇到哪些「字串」要停止輸出的列表,現在我們將它製作成一個物件,對應程式如下: from transformers import StoppingCriteria, StoppingCriteriaList
在上一期「LLM 005|大語言模型是如何利用Transformer理解語言的?」我們提到,Transformer是大語言模型理解語言的關鍵。 而Transformer架構兩個主要的後代是BERT以及GPT。 BERT是bidirectional encoder representati
現代大語言模型建構於Transformer結構。 Transformer結構是源自於2017年著名論文 Attention Is All You Need的深度神經網路結構。 原始的Trasformer是為了機器翻譯發展,當初的任務是將英文翻譯成德文與法文。 Transformer