
文:宋皇志
圖:Gemini Pro
《人工智慧基本法》第3條規定:「本法所稱人工智慧,指具自主運行能力之系統,該系統透過輸入或感測,經由機器學習及演算法,可為明確或隱含之目標實現預測、內容、建議或決策等影響實體或虛擬環境之產出。」立法者試圖以一段兼具技術感與中立性的文字,界定「人工智慧」的法律範圍。乍看之下,該條文涵蓋了自主運行、輸入或感測、預測與決策等當代人工智慧系統的核心特徵,似乎頗為周延。然而,若細究其語言結構,仍可發現一個值得特別關注、且可能影響後續法制運作的定義瑕疵。
問題關鍵,出現在條文將人工智慧描述為系統在透過輸入或感測後,「經由機器學習及演算法」而產生各類輸出的這一安排。
從技術層面而言,這樣的描述並不精確。演算法固然是人工智慧系統的基礎,其運算邏輯貫穿整個系統生命週期;但「機器學習」本身,則主要是一種用以訓練模型、調整參數的學習方法,而非系統在每一次實際運作或使用時,都必然發生的即時行為。對多數已完成訓練並進入部署階段的人工智慧系統而言,使用者輸入資料後所觸發的,通常是推論(inference)或生成程序,而非重新進行機器學習。
正因如此,第3條的句法結構,在法律語義上產生了一種微妙但重要的錯位:它彷彿將「機器學習」描述為人工智慧在使用階段、面對輸入資料時所進行的動作,從而在概念上模糊了「訓練階段」與「運作階段」之間原本應加以區分的技術角色。
這種錯位,乍看只是技術描述不夠精細,卻可能在法制上產生實質影響。舉例而言,若法律定義隱含地將人工智慧視為一種在使用過程中持續「學習」的系統,則在風險評估、責任歸屬或高風險應用判斷時,便容易高估系統的即時自主性,進而淡化訓練者、設計者或部署者在前階段所應承擔的制度責任。反之,對於確實採用持續學習或線上學習機制的系統,這樣的定義又未必能清楚區分其技術特性與一般靜態模型之差異,導致法律適用上的不確定性。
《人工智慧基本法》第3條真正值得關注的,不是它是否提及或誤解了「機器學習」,而是它在法律語言上,將一個主要屬於訓練階段的技術方法,嵌入了對人工智慧運作行為的描述之中。這個看似細微的安排,正好提醒我們:在人工智慧法制中,定義不是中性的,它會悄悄預先塑造我們如何理解風險、判斷責任之分擔與權利之行使。正因《人工智慧基本法》定位為後續立法與治理的基礎框架,這種概念層次的模糊,便有必要被清楚點出進而釐清,作為未來立法、行政規則或解釋指引時加以修正與補充的前提。
完成日期:2026年1月21日
有著作權,請勿侵權,惟歡迎註明出處引用
email: sung.hc@gmail.com
https://vocus.cc/article/696f3b72fd89780001f04745














