我想要一天分享一點「LLM從底層堆疊的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。
在 AI說書 - 從0開始 - 194 | 第七章總覽 中提到會用「改進」和「擴散」兩個面向來探討 OpenAI 模型,而在 AI說書 - 從0開始 - 195 | 第七章總覽 中,我們已經介紹了「改進」的部分,且在 AI說書 - 從0開始 - 196 | 第七章總覽 中探討「擴散」的一部分,接著繼續。
- 普遍性:不要低估普遍性,無所不在將創新從幕後推向日常生活,一項發明只有對社會產生影響力才能成為創新,然後,在需求和競爭的壓力下,它往往以不可避免的指數速度蔓延到許多領域,就 Transformer 而言,早期採用者是早在 2017 年 11 月 Transformer 出現時就開始研究 Transformer 的人,那些透過模仿(媒體、社群媒體、主流資源)接受科技進步的人是新的採用者,新採用者的大爆炸始於 2022 年 11 月,當時 OpenAI 向主流最終用戶和人工智慧專業人士提供了 ChatGPT,新採用者的數量透過通用技術的經典模仿效應而增加,如果我們根據模仿效應細分新採用者的數量,我們會得到以下結果:
- 新採用者只是有足夠的好奇心來說服其他人加入這一趨勢
- 使用生成式人工智慧的新採用者是為了享受其中的樂趣並跟上技術的步伐
- 新採用者開始創建 Prompt,產生可提高生產力的內容
- 新採用者對機器學習一無所知,但正在創建與人工智慧專業人士競爭的功能和應用程式
- 人工智慧專業人士的新採用者透過大型語言模型提高了他們的生產力