LearnAI
223
位追蹤者
追蹤
不定時分享各種AI資訊,也包含AI書籍的閱讀筆記,讓我們一起在未來的AI世界擁抱AI技術,不BI
Learn AI 不 BI
143
會員
335
內容數
加入
前往沙龍
這裡將提供: AI、Machine Learning、Deep Learning、Reinforcement Learning、Probabilistic Graphical Model的讀書筆記與演算法介紹,一起在未來AI的世界擁抱AI技術,不BI。
加入
前往沙龍
發佈內容
我的成就
全部內容
由新到舊
Learn AI 不 BI
2024/10/05
AI說書 - 從0開始 - 202 | OpenAI GPT 設計動機
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 OpenAI 正在實現訓練模型並直接運行下游任務的目標,而無需進一步微調,這驚人的進步可以分為四個階段: Fine-Tuning 的意思是我們在前面的章節中探討過的,
#
AI
#
ai
#
PromptEngineering
21
留言
Learn AI 不 BI
2024/10/04
AI說書 - 從0開始 - 201 | OpenAI GPT 理念說明
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 從一開始,OpenAI 的研究團隊就由 Radford 等人領導,2018 年想要將 Transformer 從先前訓練的模型轉換為 GPT 模型,目標是根據未標記的資
#
AI
#
ai
#
PromptEngineering
15
留言
Learn AI 不 BI
2024/10/03
AI說書 - Prompt Engineering - 110 | Reverse Interaction 範例
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - Prompt Engineering - 109 | Reverse Interac
#
AI
#
ai
#
PromptEngineering
14
留言
Learn AI 不 BI
2024/10/03
AI說書 - 從0開始 - 200 | OpenAI GPT 之參數量級變化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 ChatGPT 是涵蓋 GPT-3.5-turbo、GPT-4、GPT-4V 和未來可能的改進的總稱,架構的規模同時演進: 模型的層數從原始 Transformer
#
AI
#
ai
#
PromptEngineering
11
留言
Learn AI 不 BI
2024/10/03
AI說書 - Prompt Engineering - 109 | Reverse Interaction 範例
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 假設使用者想要創建個人化學習計畫的場景。簡介可能是這樣的。 使用者: 我希望您提出問題來幫助我制
#
AI
#
ai
#
PromptEngineering
16
2
禾氣好財
1
和ChatGPT對話的技術 —來自LearnAI發佈於Learn AI 不 BI https://vocus.cc/article/66fb92d7fd897800017db117 以後大家要適應跟機器人溝通 哈哈哈
Learn AI 不 BI
2024/10/02
AI說書 - 從0開始 - 199 | OpenAI GPT 之參數量級變化
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 光從 2017 年到 2020 年,參數數量就從原始 Transformer 模型中的 65M 個參數增加到 GPT-3 模型中的 175B 個參數,統計如下表所示:
#
AI
#
ai
#
PromptEngineering
12
留言
Learn AI 不 BI
2024/10/01
AI說書 - Prompt Engineering - 108 | Reverse Interaction 範例
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 延續 AI說書 - Prompt Engineering - 107 | Reverse Interac
#
AI
#
ai
#
PromptEngineering
14
留言
Learn AI 不 BI
2024/10/01
AI說書 - 從0開始 - 198 | OpenAI GPT 之架構引言
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 2020 年 Brown 等人描述了 OpenAI GPT-3 模型的訓練,該模型包含 1750 億個參數,該模型是在巨大的資料集上訓練的,例如從 Common Cra
#
AI
#
ai
#
PromptEngineering
14
留言
Learn AI 不 BI
2024/09/30
AI說書 - Prompt Engineering - 107 | Reverse Interaction 範例
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 想像一下,您是一位企業主,試圖決定是否將業務擴展到新地點,您可以使用 Reverse Interacti
#
AI
#
ai
#
PromptEngineering
9
留言
Learn AI 不 BI
2024/09/30
AI說書 - 從0開始 - 197 | 第七章總覽
我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 在 AI說書 - 從0開始 - 194 | 第七章總覽 中提到會用「改進」和「擴散」兩個面向來探討 OpenAI 模型,而在 AI說書 - 從0開始 - 195 | 第
#
AI
#
ai
#
PromptEngineering
9
留言
vocus 勳章
NFT
了解
如何蒐集勳章