在數位時代,我們習慣了軟體更新會帶來更強的功能,但對於大型語言模型(LLM)而言,「智力」的演變卻比想像中更為複雜。許多使用者會發現,同一個 AI 在幾個月前還能犀利地解決問題,現在卻可能變得遲鈍或過於守舊。這種現象並非錯覺,而是由多重技術與管理機制共同造成的結果。
核心能力的穩定與動態微調
從技術底層來看,一個已經完成訓練並發布的 AI 模型,其核心權重(Weights)是固定的。這意味著它的基礎邏輯能力在特定版本中不會自發性地改變。然而,AI 並非在真空環境中運作,開發者會透過以下方式持續干預:- 安全對齊(Alignment): 這是模型「變動感」最大的來源。開發者為了防止 AI 產生偏見、暴力或錯誤資訊,會持續進行微調。有時為了讓 AI 更「安全」,可能會導致它變得過於保守,甚至拒絕回答一些原本具備邏輯性的中性問題。
- 指令遵循的優化: 透過「人類回饋強化學習(RLHF)」,模型會學習更符合人類偏好的說話方式。這可能讓它看起來更有禮貌,但在處理需要極高創造力或非傳統思考的任務時,表現反而會縮水。
令人困惑的「模型漂移」現象
科學研究證實了「模型漂移」(Model Drift)的存在。當開發者試圖強化模型在 A 領域(例如寫程式)的表現時,可能會無意中干擾到 B 領域(例如數學推理)的效能。
這就像是一架精密的天平,增加了一邊的砝碼,另一邊就會發生位移。這解釋了為什麼使用者有時會覺得 AI 的「智商」出現了倒退,因為模型內部的神經元關聯在持續的微調中發生了重組。
記憶功能與「表現智力」的提升
儘管核心邏輯可能波動,但對於長期使用者而言,AI 的表現智力通常是呈上升趨勢的。這主要歸功於:
- 長期記憶系統: 現代 AI 能夠記住使用者的專業背景、偏好與過往對話。這種「默契」大幅減少了溝通成本,讓 AI 能在特定情境下給出比通用模型更精準的答案。
- 檢索增強生成(RAG): AI 透過連接外部資料庫或搜尋引擎,獲得了即時更新的「外部腦」。即便模型本身的知識截止日期已過,它也能透過搜尋最新資訊來展現「與時俱進」的聰明。
結語:流動的數位生命力
AI 的智商並非一個靜止的點,而是一股受開發策略、安全需求與使用者互動共同推動的動態水流。它會因為版本的迭代而躍升,也會因為安全限制的增加而顯得束手束腳。
當我們感覺 AI 變了,那通常是因為它正在適應更複雜的人類社會規則。理解這種「智力的潮汐」,能幫助我們更有效地調整與 AI 協作的方式,在不同的演化階段發揮它最大的潛力。














