「人工智慧 +1」自學 Day5:演算法的發展歷程
❖第一階段:顯式演算法的時代 (1950s - 1980s)**
(**註:亦可稱「規則式/Rule-based」演算法時代)
這個時代的演算法典範是「人告訴電腦如何做」。
▹核心思維
演算法就是一套由程式設計師明確定義、一步步執行的指令。人類必須完全理解問題的解法,並將其邏輯用程式碼完整地寫出來。
▹底層技術
(a)年代/
1940s–1960s:數值演算法 → 資料結構與排序搜尋
1970s–1980s:理論演算法(NP、隨機化、可計算性)
(b)特色:演算法本身和資料結構是「核心基礎」,計算效率(時間複雜度與空間複雜度)是主要評價指標。後來延伸為不只是「怎麼算」,還涉及「是否可能算得出來」、「效率界線在哪裡」。
▹局限性
無法應對人類難以用明確規則描述的複雜問題,例如判斷一張圖片裡是否有貓**。
(**註:其實在那時期,這問題曾試圖透過「專家系統/Expert Systems」方式,也就是「規則庫 if-else 來模擬人類推理」方式處理,不過成果十分有限。)
❖第二階段:機器學習的時代 (1980s - 2010s)
這是第一個巨大的典範轉移,思維從「告訴電腦怎麼做」轉變為「讓電腦自己學」。
▹核心思維
演算法不再是固定的步驟。人類提供大量數據和學習目標,讓演算法自己從數據中尋找模式和規律,並建立模型來解決問題。
▹底層技術
(a)年代/1990s–2000s:分散式與大規模資料處理(PageRank, MapReduce),以及大量統計學與傳統 ML 演算法的崛起(ex決策樹、SVM、KNN、隨機森林...etc.)。
(b)特色:處理「規模」成為主題,追求能在分散式系統上有效運行。
▹局限性
儘管已經可以學習,但仍需要人類專家進行關鍵步驟——「特徵工程」:人類必須手動從原始數據中提取有意義的特徵,才能讓演算法學習。尤其不同專業領域就需要不同領域的專家知識,才能提取出專屬該領域的特徵、完成該領域的特徵工程。這是關鍵痛點。
❖第三階段:深度學習的時代 (2010s - 2020s)
這是機器學習內部的一次重大典範轉移,它讓演算法從「學習」進化到「深度學習」。
▹核心思維
這個階段解決了特徵工程的問題。透過多層神經網路(DNN),演算法能夠自動從最原始的數據中學習、並提取最抽象、最高階的特徵。意即,電腦已經開始有能力自行判斷「哪些數據是重要的」。
▹底層技術
(a)年代/2010s–2020s:機器學習(ML)與深度學習(DL)
(b)特色:不再只是「明確規則 + 決定性輸出」,而是「自我調整規則、從資料學習」。以深度學習來說,自動學習抽象特徵/表徵學習(Representation Learning),就可說是最關鍵的突破口。
▹革命性:
這個階段讓 AI 第一次在圖像辨識、語音處理和自然語言理解等領域超越了人類的表現。
❖總結
上述三個階段代表了演算法從「遵循規則」到「從數據中學習」,再到「自動從數據中學習特徵」的根本性演變。
(還沒完...)
❖第四階段:生成式 AI / 大模型時代(2020s-)
不是只分類或預測,不只是更深的神經網路,而是開始使模型具備跨任務、跨領域的能力,例如「生成」新的內容(語言/影像/音樂),透過Transformer 架構+海量參數+大規模語言模型(LLM),都已應用在現實生活中。
未來,方興未艾。