Let's learn AI.
當你在生成式 AI(如 ChatGPT 或 Gemini)的輸入框下指令時,不論是教它解答問題還是生成圖片,除了驚訝於它的效率外,不知道你有沒有想過:「眼前這台有問必答、看起來特別聰明的機器,是真的像人類一樣有思考能力?還是它只是一套極其複雜的演算法?」
對於大多數人來說,生成式 AI 就像是一個黑盒子,充滿了神祕感。曾經我也以為,要像以前學習程式設計一樣,得了解一堆語法、API、讀遍文件細節才有辦法驅動 AI。但後來我發現:如果你是作為一名使用者,目標是提升生產力,你根本不需要成為鑽研模型的數據科學家。相反地,「說清楚需求」以及「理解運作邏輯與定義」,才是最關鍵的功課。一、 人工智慧的目標、手段與技術
在學習一門知識前,我建議先從 What(名詞定義)開始。我們必須釐清幾個常被混淆的名詞,這就像一組「俄羅斯娃娃」,一層套著一層,每一層都有其特定的角色:
- 人工智慧(AI)是「目標」
這是所有技術的總稱。核心目標是「讓機器展現出像人類一樣的智慧,具備解決問題的能力」。不論是自動分類郵件的小工具,還是能下圍棋的 AlphaGo,只要能解決問題,都屬於 AI 的範疇。 - 機器學習(Machine Learning)是「手段」
這是達成 AI 目標的主流方法。核心概念是:不直接告訴機器規則,而是讓機器自動從資料中找到規律。
從數學角度來看,機器學習其實就是在數據中找關聯性,嘗試尋找一個函式
y = f(x) = ax + b
來描述規律。其中 a 與 b 就是我們常說的「參數」。雖然實際運算複雜得多,但邏輯是相通的。例如「貓狗分類器」,給機器看一萬張照片,它透過算法找出複雜的參數組合(a, b, c, d ... ),學會判斷「若特徵包含尖耳朵與鬍鬚,則視為貓」。這個尋找參數的過程,就是「訓練」。
- 深度學習(Deep Learning)是「表達方式」
這是機器學習中更進階的技術,模仿人類大腦的「類神經網路」。當參數數量達到數百萬甚至上億個時,傳統數學方法已無法負荷,這時就利用類神經網路結構來求解(類似數值分析的數值解)。目前主流的生成式 AI 幾乎都是以此為核心。
二、 生成式 AI 的原理:為什麼它能「無中生有」?
為什麼它跟以前的 Google 翻譯或工具不太一樣?
- 從「分類」到「生成」:過去的 AI 擅長做是非題或選擇題(如:這是不是貓?)。但生成式 AI 的目標是「將有限元素排列組合,產生有結構的物件」,如文章、圖片或語音。
- 核心原理:極致的「文字接龍」:這在數學上極其困難,隨機組合的機率趨近於零。所以像 GPT 這樣的模型採用了聰明的策略:將無窮的可能轉化為「機率預測」。它不一次產出整篇文章,而是根據你給的起始文字,預測下一個字出現機率最高的是誰,不斷迭代,直到拼湊出看起來「合理」的作品。
三、 與「工具人」共處:面對 AI 幻覺與隨機性
很多人會納悶:「為什麼同樣的 Prompt,結果每次都不一樣?有時還會亂講話(幻覺)?」對寫程式的人來說,這很像 Bug,但實際上這是 AI 的「特性」。
- AI 幻覺是必然的:因為它本質上是「機率預測機」,不是檢索資料庫。它不是在翻字典找答案,而是在不斷計算下一個字,只要機率不是零,它就有可能「腦補」。
- 隨機性源於選擇:在文字接龍時,系統會從高機率的幾個字中隨機挑選。我們無法改變模型參數,但可以改變輸入的 x。這就是 Prompt Engineering(提示工程):透過調整前提與案例,引導它產出穩定結果。
- 小撇步:既然犯錯不可避免,就要求它「自我檢查」。例如下令:「請檢查上述資訊是否正確,並列出錯誤」,反覆驗證直到結果穩定。
四、 進階協作:問題拆解與多模型「合作」
從「工具」轉向「工具人」思維:別問它能做什麼,要問「我想要它幫我做什麼」。
- Step-by-Step:複雜問題流水線:將解決過程「拆解」工序。例如寫提案,先列大綱(Step 1),再編細節(Step 2),後調排版(Step 3),最後校對(Step 4)。分段處理遠比給一個長指令更精準。
- 多模型協作:你的虛擬團隊:你可以讓多個 AI(如 ChatGPT 與 Gemini)互相討論。讓 A 扮演提案者,B 扮演挑戰者,C 當裁判。這種「組建虛擬團隊」的邏輯,能讓你從使用者晉升為「管理者」。
結論:會用才是重點
我們真的需要懂模型架構嗎?對於一般大眾,答案是否定的。我們只需了解 AI 是一場精密的機率接龍。與其擔心被取代,不如學會當一個稱職的「管理者」。只要能專注於問題解決、將任務拆解,並在 Prompt 中描述清楚需求,你就已經掌握了未來的關鍵生產力。
現在,試著把你手邊最困擾的一個大問題,拆解成三個步驟交給 AI 試試看吧!











