Andrej Karpathy 的大型語言模型實用指南(下)

更新於 發佈於 閱讀時間約 3 分鐘

Andrej Karpathy是AI領域的知名專家,曾在特斯拉和OpenAI工作,專注於深度學習和電腦視覺。影片中示範了大型語言模型(LLM)的實用應用,從基本互動到進階功能,如搜尋工具、檔案處理、自訂GPT、ChatGPT運作原理、模型選擇、工具使用(如搜尋和深度研究)、程式碼撰寫、音視頻處理、圖像生成等。影片內容非常豐富,一樣建議有興趣的讀者有空時務必觀看完整影片!

raw-image

How I use LLMs


其他結合大型語言模型 (LLM)的實際程式應用

應用程式原型開發:Claude Artifacts

Claude 的 Artifacts 功能允許使用者直接在 Claude 介面中創建和部署簡單的網頁應用程式預覽。

  • 程式碼生成: Claude 可以根據使用者的文字描述生成程式碼 (例如 React 程式碼)。
  • 即時部署: 生成的程式碼可以直接在 Claude 介面中執行,使用者可以立即看到應用程式的效果。
  • 視覺化呈現: Claude 可以生成 mermaid 語法,建立流程圖與概念圖,幫助使用者視覺化資訊。


程式碼輔助開發:Cursor

Cursor 是一款程式碼編輯器,整合了大型語言模型功能,能大幅提升開發效率。

  • Vibe Coding: 使用者只需給予大型語言模型人類的指令,大型語言模型即可自主完成程式碼的編寫與修改,使用者只需驗證結果即可。
  • 程式碼解釋: Cursor 可以解釋選定的程式碼片段,幫助開發者理解程式碼的功能。


Podcast 生成:NotebookLM

NotebookLM 是一款由 Google 開發的工具,可以根據使用者提供的文件生成客製化的 Podcast。

  • 文件上傳: 使用者可以上傳各種文件,例如PDF檔案、網頁連結、文字檔案等。
  • Podcast生成: NotebookLM會分析文件內容,並生成一個約30分鐘的Podcast。
  • 互動模式: 使用者可以在Podcast 播放過程中隨時提問,NotebookLM會即時回答問題。



大型語言模型品質與效率提升的功能

記憶功能:ChatGPT 記憶

ChatGPT 具有記憶功能,可以記錄使用者的偏好、習慣與個人資訊。

  • 長期記憶: ChatGPT 會將使用者的資訊儲存在一個長期記憶庫中。
  • 對話脈絡: 在後續的對話中,ChatGPT 會參考長期記憶庫中的資訊,提供更個人化、更相關的回應。
  • 記憶管理: 使用者可以隨時編輯、新增或刪除長期記憶庫中的資訊。

客製化指示:調整模型行為

使用者可以設定客製化指示,調整大型語言模型的行為。

  • 風格調整: 使用者可以指示大型語言模型以特定的風格回應,例如正式、幽默等。
  • 知識領域: 使用者可以指示大型語言模型專注於特定知識領域,例如科學、歷史等。
  • 個人資訊: 使用者可以提供個人資訊 (例如身份、職業、興趣),讓大型語言模型提供更個人化的服務。

3. Custom GPTs:客製化應用

使用者可以建立Custom GPTs,也就是客製化的大型語言模型應用。

  • 任務定義: 使用者可以為Custom GPTs 設定特定的任務,例如翻譯、摘要、程式碼生成等。
  • 指令設計: 使用者可以設計詳細的指令,引導Custom GPTs 完成任務。
  • 範例提供: 使用者可以提供範例輸入與輸出,協助Custom GPTs 學習如何完成任務。

我是TN科技筆記,如果喜歡這篇文章,歡迎留言或轉發給朋友給我支持鼓勵!!

Andrej Karpathy 的大型語言模型實用指南(上)

大家好,我是TN,喜歡分享科技領域相關資訊,希望各位不吝支持與交流!
留言
avatar-img
留言分享你的想法!

































































Andrej Karpathy是AI領域的知名專家,曾在特斯拉和OpenAI工作,專注於深度學習和電腦視覺。影片中示範了大型語言模型(LLM)的實用應用,從基本互動到進階功能,如搜尋工具、檔案處理、自訂GPT、模型選擇、工具使用(如搜尋和深度研究)、程式碼撰寫、音視頻處理、圖像生成等。
學習AI一開始想必會接觸到Python,而接觸到Python時,有些人可能會先碰上Pip、Pip3、Conda和Anaconda等套件管理相關名詞的小困擾(像我),這次打算把這四者的關係弄清楚一些,希望也能幫助到讀者!
學習AI一開始想必會接觸到Python,而接觸到Python時,有些人可能會先碰上Pip、Pip3、Conda和Anaconda等套件管理相關名詞的小困擾(像我),這次打算把這四者的關係弄清楚一些,希望也能幫助到讀者!
有關資料隱私與安全的重點: 資料隱私風險對企業的影響、企業應對資料隱私風險的策略、資料安全議題、AI 導入時的資安注意事項
Andrej Karpathy是AI領域的知名專家,曾在特斯拉和OpenAI工作,專注於深度學習和電腦視覺。影片中示範了大型語言模型(LLM)的實用應用,從基本互動到進階功能,如搜尋工具、檔案處理、自訂GPT、模型選擇、工具使用(如搜尋和深度研究)、程式碼撰寫、音視頻處理、圖像生成等。
學習AI一開始想必會接觸到Python,而接觸到Python時,有些人可能會先碰上Pip、Pip3、Conda和Anaconda等套件管理相關名詞的小困擾(像我),這次打算把這四者的關係弄清楚一些,希望也能幫助到讀者!
學習AI一開始想必會接觸到Python,而接觸到Python時,有些人可能會先碰上Pip、Pip3、Conda和Anaconda等套件管理相關名詞的小困擾(像我),這次打算把這四者的關係弄清楚一些,希望也能幫助到讀者!
有關資料隱私與安全的重點: 資料隱私風險對企業的影響、企業應對資料隱私風險的策略、資料安全議題、AI 導入時的資安注意事項
本篇參與的主題活動
我的得力助手T小姐在短時間內經歷了2次流產。 第一次流產後沒幾個月又急著要懷上,其實我還蠻不能理解的,身體都還沒復原、還沒查清楚流產的原因又急著懷孕真的風險太大。第二次也是在6周左右又流產了,這次終於好好的去醫院檢查原因,然後讓身體休息了近一年才又懷孕。 但是我聽了他上次流產的原因,是染色體異常
她每天醒來就已經上班,睡著了也在待命。 這是一份無法請假、無法辭職、無法下班的工作。沒有週末,沒有年假,沒有病假。當孩子發高燒時,沒有其他同事可以替班;當她自己病倒時,工作依然等待著她。 我的太太說道:「今天是我成為母親的第205天,也是我第205天沒有完整睡過一個晚上。」 全職媽媽,是世界上
定期存款(簡稱定存)是許多人喜愛的理財方式之一,但圍繞它的細節問題卻不少。以下整理了十個常見疑問,並附上詳細解答,幫全面了解定存的運作方式。
5個絕對要看的理由+觀後感 ⚠️以下內容涉及部分劇情 尚未看過請自行斟酌 📌動物生態圖鑑 電影充分展現出各動物的鮮明特色,宛如翻閱一本動物百科般,從「貓」的高冷傲嬌、「狗」的活潑調皮,到「水豚」的慵懶從容、「狐猴」喜歡蒐集小物的個性,甚至呈現出「蛇鷲」群體意識高的習性,更將牠塑造成母親般,
這篇文章分析了一副寶可夢卡牌遊戲的控制型牌組,詳述其核心概念、戰術配置、運作策略、優勢和弱點,並提出改善建議。牌組以時拉比EX和夢幻EX為核心,透過控制卡幹擾對手,並利用夢幻EX的複製能力提供多樣化攻擊。文章也點出牌組在能量依賴和前期較慢的缺點,並建議增加能量加速卡和基礎寶可夢。
我的得力助手T小姐在短時間內經歷了2次流產。 第一次流產後沒幾個月又急著要懷上,其實我還蠻不能理解的,身體都還沒復原、還沒查清楚流產的原因又急著懷孕真的風險太大。第二次也是在6周左右又流產了,這次終於好好的去醫院檢查原因,然後讓身體休息了近一年才又懷孕。 但是我聽了他上次流產的原因,是染色體異常
她每天醒來就已經上班,睡著了也在待命。 這是一份無法請假、無法辭職、無法下班的工作。沒有週末,沒有年假,沒有病假。當孩子發高燒時,沒有其他同事可以替班;當她自己病倒時,工作依然等待著她。 我的太太說道:「今天是我成為母親的第205天,也是我第205天沒有完整睡過一個晚上。」 全職媽媽,是世界上
定期存款(簡稱定存)是許多人喜愛的理財方式之一,但圍繞它的細節問題卻不少。以下整理了十個常見疑問,並附上詳細解答,幫全面了解定存的運作方式。
5個絕對要看的理由+觀後感 ⚠️以下內容涉及部分劇情 尚未看過請自行斟酌 📌動物生態圖鑑 電影充分展現出各動物的鮮明特色,宛如翻閱一本動物百科般,從「貓」的高冷傲嬌、「狗」的活潑調皮,到「水豚」的慵懶從容、「狐猴」喜歡蒐集小物的個性,甚至呈現出「蛇鷲」群體意識高的習性,更將牠塑造成母親般,
這篇文章分析了一副寶可夢卡牌遊戲的控制型牌組,詳述其核心概念、戰術配置、運作策略、優勢和弱點,並提出改善建議。牌組以時拉比EX和夢幻EX為核心,透過控制卡幹擾對手,並利用夢幻EX的複製能力提供多樣化攻擊。文章也點出牌組在能量依賴和前期較慢的缺點,並建議增加能量加速卡和基礎寶可夢。
你可能也想看
Google News 追蹤
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在AI說書 - 從0開始 - 28中闡述了一些AI專業者的未來發展方向,現在我們更細分: 人工智慧專家在人工智慧某一領域擁有專業知識或技能,包含微調模型、維護和支
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 20中,闡述GPT模型的Supervised and Unsupervised觀點,接著一樣引述書籍:Transformers f
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 回顧 AI說書 - 從0開始 - 129 中說,Bidirectional Encoder Representations from Transformers (BER
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從 AI說書 - 從0開始 - 99 到 AI說書 - 從0開始 - 121,我們完成書籍:Transformers for Natural Language Proc
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Vaswani 等人 2017 年解決了設計 Transformer 時最困難的 NLP 問題之一,對於我們人機智慧設計師來說,機器翻譯的人類基準似乎遙不可及,然而,這
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 Transformers for Natural Language Processing and Computer Vision, 2024 這本書中講 Attenti
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們在AI說書 - 從0開始 - 28中闡述了一些AI專業者的未來發展方向,現在我們更細分: 人工智慧專家在人工智慧某一領域擁有專業知識或技能,包含微調模型、維護和支
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 20中,闡述GPT模型的Supervised and Unsupervised觀點,接著一樣引述書籍:Transformers f
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 我們已經在AI說書 - 從0開始 - 17中,介紹了大型語言模型 (LLM)世界裡面常用到的Token,現在我們來談談OpenAI的GPT模型如何利用Inference
Thumbnail
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 已經在AI說書 - 從0開始 - 12以及AI說書 - 從0開始 - 13中見識到TPU的威力了,現在我們把參數放大到真實大型語言模型的規模,看看運算時間的等級。
Thumbnail
大型語言模型(Large Language Model,LLM)是一項人工智慧技術,其目的在於理解和生成人類語言,可將其想像成一種高階的「文字預測機器」,然而,它們並非真正理解語言。除了在上篇介紹的技巧可以協助我們在使用 LLM 時給予指示之外,今天我們會介紹使用 LLM 的框架。