學習大語言模型 101

更新於 發佈於 閱讀時間約 2 分鐘

步驟 1: 計劃每天花點時間學習大語言模型的技術部分。


步驟 2: 選擇合適的教材。我選擇了Manning出版的《Build a Large Language Model (From Scratch)》,這本書有配套的程式碼和詳細的講解,是我信賴的學習素材。


步驟 3: 瀏覽教材中的程式碼範例。例如,今天我學習的第一段程式碼是:


```python

from importlib.metadata import version


import tiktoken

import torch


print("torch version:", version("torch"))

print("tiktoken version:", version("tiktoken"))

```


步驟 4: 理解程式碼中的新概念。對於我來說,第一個遇到的問題是`tiktoken`。


步驟 5: 探索新工具的功能。tiktoken 是OpenAI提供的快速開源的tokenizer。Tokenizer 的功能是將一組給定的「字符串 Text String」與「編碼 Encoding」,拆解成「符元表 List of Tokens」。


步驟 6: 練習使用工具並理解其輸出。舉例來說,輸入字符串"tiktoken is great!",利用編碼器"cl100k_base",tiktoken 就會回傳符元表 ["t", "ik", "token", " is", " great", "!"]。


步驟 7: 理解轉換過程及其重要性。將字符串轉換為符元表是因為大語言模型無法直接處理實際文字,需要將文字表現為「連續值向量 Continuous-Valued Vectors」,這一步轉換稱為「嵌入 Embedding」。


從小處著手。


逐步累積。

avatar-img
536會員
1.8K內容數
Outline as Content
留言0
查看全部
avatar-img
發表第一個留言支持創作者!
王啟樺的沙龍 的其他內容
機器其實不是像人類這樣一的單字對應一個單字去翻譯, 而是使用「編碼器 Encoder」與「解碼器 Decoder」來做語言之間的翻譯。 其中編碼器的任務,是「閱讀 Read」與「處理 Process」完整的文本, 而解碼器的任務,則是「產生 Produced」翻譯過後的文本。
1. 維持良好的體能: - 你的健康狀況、飲食選擇、運動習慣和睡眠品質都會影響你的體能。體能是精力管理的基礎,張遇升老師在他的課堂中強調,體能是金字塔的底層,應該被優先管理。研究所學生常常面臨繁重的學業壓力,維持良好的體能能夠幫助你更好地應對挑戰。我目前飲食選擇和睡眠品質都不錯,但運動習慣還需要加
如此,我從寫作找到了意義,而我從每天持續輸出,找到了持續學習,思考,帶來的深度體驗,而持續寫作又可以培養自己的品味,累積自己的文化資本,就不會被一些很淺薄的分享者的內容吸引注意力,而是可以用更內行的方式,判斷哪些分享者的內容是真的值得花時間的。
今天繼續聊聊由Yasin Abbasi-Yadkori [1] 於2011年發表的文章, 《Improved Algorithms for Linear Stochastic Bandits》[2]。 在15頁的順間後悔分析中, 我們在B001講到上界已經替換為 「強盜算法行
1. 設立過於模糊的目標: - 許多大學生在設定目標時,並沒有清晰具體的認識,這會導致後續行動缺乏方向。例如,一些學生可能只知道自己想在某個領域有所成就,但並不明確自己想要達到的具體成果,結果在研究過程中迷失方向。 2. 制定過於僵化的計畫: - 制定計畫是重要的,但計畫過於詳
記得那時候是高中三年級,當時也是在日本書上看到這個做法。 那時候我是徒手把書撕破, 就發現書脊那邊除了有熱融膠,還有一綑一綑的紙張。 而透過把書撕破來閱讀,的確可以把書的Scope 縮小, 更好玩的是,拆亂的書頁, 你可以怎麼用自己的邏輯再重新順成一個邏輯, 那真的是一個鍛鍊自己組織內容很好的練習。
機器其實不是像人類這樣一的單字對應一個單字去翻譯, 而是使用「編碼器 Encoder」與「解碼器 Decoder」來做語言之間的翻譯。 其中編碼器的任務,是「閱讀 Read」與「處理 Process」完整的文本, 而解碼器的任務,則是「產生 Produced」翻譯過後的文本。
1. 維持良好的體能: - 你的健康狀況、飲食選擇、運動習慣和睡眠品質都會影響你的體能。體能是精力管理的基礎,張遇升老師在他的課堂中強調,體能是金字塔的底層,應該被優先管理。研究所學生常常面臨繁重的學業壓力,維持良好的體能能夠幫助你更好地應對挑戰。我目前飲食選擇和睡眠品質都不錯,但運動習慣還需要加
如此,我從寫作找到了意義,而我從每天持續輸出,找到了持續學習,思考,帶來的深度體驗,而持續寫作又可以培養自己的品味,累積自己的文化資本,就不會被一些很淺薄的分享者的內容吸引注意力,而是可以用更內行的方式,判斷哪些分享者的內容是真的值得花時間的。
今天繼續聊聊由Yasin Abbasi-Yadkori [1] 於2011年發表的文章, 《Improved Algorithms for Linear Stochastic Bandits》[2]。 在15頁的順間後悔分析中, 我們在B001講到上界已經替換為 「強盜算法行
1. 設立過於模糊的目標: - 許多大學生在設定目標時,並沒有清晰具體的認識,這會導致後續行動缺乏方向。例如,一些學生可能只知道自己想在某個領域有所成就,但並不明確自己想要達到的具體成果,結果在研究過程中迷失方向。 2. 制定過於僵化的計畫: - 制定計畫是重要的,但計畫過於詳
記得那時候是高中三年級,當時也是在日本書上看到這個做法。 那時候我是徒手把書撕破, 就發現書脊那邊除了有熱融膠,還有一綑一綑的紙張。 而透過把書撕破來閱讀,的確可以把書的Scope 縮小, 更好玩的是,拆亂的書頁, 你可以怎麼用自己的邏輯再重新順成一個邏輯, 那真的是一個鍛鍊自己組織內容很好的練習。
你可能也想看
Google News 追蹤
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在第四章中,將會談論以下主題: 定義機器翻譯 人類轉導與翻譯 機器轉導和翻譯 評估機器翻譯 預處理 Workshop on Machine Translati
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 73 到 AI說書 - 從0開始 - 96,我們完成書籍:Transformers for Natural Language Proce
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從AI說書 - 從0開始 - 0到AI說書 - 從0開始 - 35,我們完成書籍:Transformers for Natural Language Processin
Thumbnail
嘿,大家新年快樂~ 新年大家都在做什麼呢? 跨年夜的我趕工製作某個外包設計案,在工作告一段落時趕上倒數。 然後和兩個小孩過了一個忙亂的元旦。在深夜時刻,看到朋友傳來的解籤網站,興致勃勃熬夜體驗了一下,覺得非常好玩,或許有人玩過了,但還是想寫上來分享紀錄一下~
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在某些情況下,別人提供的 Pretrained Transformer Model 效果不盡人意,可能會想要自己做 Pretrained Model,但是這會耗費大量運
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在第四章中,將會談論以下主題: 定義機器翻譯 人類轉導與翻譯 機器轉導和翻譯 評估機器翻譯 預處理 Workshop on Machine Translati
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 73 到 AI說書 - 從0開始 - 96,我們完成書籍:Transformers for Natural Language Proce
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 以下陳述任務 (Task)、模型 (Model)、微調 (Fine-Tuning)、GLUE (General Language Understanding Evalu
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 82 到 AI說書 - 從0開始 - 85 的說明,有一個很重要的結論:最適合您的模型不一定是排行榜上最好的模型,您需要學習 NLP 評
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 37 到 AI說書 - 從0開始 - 70 ,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Trainin
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從AI說書 - 從0開始 - 0到AI說書 - 從0開始 - 35,我們完成書籍:Transformers for Natural Language Processin