
文:宋皇志
圖:Gemini Pro
在討論《人工智慧基本法》的具體規範之前,有一個經常被忽略、卻極為關鍵的問題必須先被釐清:這部法律究竟是基於什麼樣的立法目的、由誰來負責推動、又是如何在法律上界定「人工智慧」這個核心概念?其第1-3條與第6條,正是回答這些問題的制度起點。若沒有先把這一組「總則性條文」讀清楚,後續所有關於風險、責任、資料、透明或高風險應用的討論,都很容易流於空談。
一、第1條:一部「目的密集且多樣」的基本法
從第1條的立法目的可看出,《人工智慧基本法》並非單一政策導向的法律,而是一部高度目的密集且多樣的基本法。申言之條文同時列舉了:建設智慧國家、以人為本、產業發展、安全應用、數位平權、基本權利保障、社會福祉、永續發展、文化價值、國際競爭力,以及技術應用符合社會倫理等多重目標。此立法目的表面上看似包山包海,實際上卻具有非常明確的法制意涵:立法者不願讓人工智慧治理被簡化為「產業政策」或「科技管制」之單一目的。
此外,本條最後一句「本法未規定者,適用其他法律之規定」,更清楚宣告了本法的定位──它不是取代既有法制,而是與現行法律並存、串接、協調的一部「框架法」。有此點亦可理解,本法為何刻意不處理侵權構成或責任細節。
二、第2條:主管機關設計的「雙軌結構」
第2條明定,中央主管機關為國家科學及技術委員會,地方主管機關則為直轄市與縣(市)政府,同時又補充指出,涉及各目的事業主管機關職掌者,仍由各該機關辦理。此規定形成了一種「水平協調+垂直分權」的雙軌治理架構:國科會在此並非傳統意義下的單一監理機關,而是扮演中央層級之整合、協調與政策推動的核心節點;具體管制與執行,仍必須回到各目的事業主管機關;至於應由地方政府負責規劃與執行的項目,則由直轄市與縣(市)政府負責。
如此設計一方面避免了 AI 治理過度集中於單一機關,另一方面也反映立法者對人工智慧跨領域特性的清楚認識。但其代價是:未來的制度成效,高度仰賴跨部會協作是否真的能運作,而非僅止於條文上的分工宣示。
三、第三條:人工智慧定義的野心與瑕疵
尤其值得進一步檢視的,是第3條對「人工智慧」之定義方式。條文將人工智慧描述為系統在透過輸入或感測後,「經由機器學習及演算法」而產出預測、內容或決策。此一用語安排,雖有意反映當代人工智慧技術的核心特徵,卻在語義上產生值得商榷的混淆。
從技術層面而言,演算法係人工智慧系統運作的結構性基石,而機器學習則屬於模型訓練階段用以建立或調整參數的學習方法。多數人工智慧系統在完成訓練並進入實際運作階段後,並不會於每一次資料輸入時重新進行機器學習。
然而,第3條的句法結構,卻似乎將「經由機器學習及演算法」定位為系統在使用者輸入資料後即時發生的動作,,不但在技術描述上不夠正確,亦在法律定義層次上模糊了人工智慧「訓練階段」與「運作階段」之間原本應加以區別的責任界線。此一錯誤定義,在未來涉及風險評估、責任配置或高風險應用判斷時,極可能因誤解技術內容而形成錯誤的法律規範,不可不慎。
四、第6條:國家人工智慧戰略特別委員會的政治意涵
第6條要求行政院成立國家人工智慧戰略特別委員會,由院長親自召集,成員橫跨學者、民間團體、產業、政務委員、中央與地方政府。
這一設計傳達的訊息非常清楚:人工智慧不只是部會層級的政策,而是國家整體治理議題。透過每年至少一次的定期會議與必要時的臨時會議,法律試圖將 AI 治理提升至行政院層級的政治責任。然而,正如所有「特別委員會」制度一樣,其實質影響力,仍將取決於是否具有具體政策工具與跨部會拘束力,而不僅是諮詢或象徵性協調平台。
五、小結:制度地基已立,問題才正要浮現
綜合以上四條可以看出,《人工智慧基本法》在總則層級,已完成三件重要工作:確立高度價值導向的立法目的、建構跨層級治理架構、以及嘗試界定人工智慧的法律範圍。
但同時,我們也已經看到:定義的模糊、權責的分散,以及制度運作高度依賴後續設計,將是這部法律無法迴避的現實考驗。接下來真正困難的問題,是當人工智慧進入具體應用場域、造成實際影響甚至損害時,這套架構能否承載責任與救濟的期待。這,也正是後續文章將要正面面對的議題。
作者:宋皇志,政治大學科技管理與智慧財產研究所教授,中華無形資產曁企業評價協會理事長
完成日期:2026年1月21日
有著作權,請勿侵權,惟歡迎註明出處引用
email: sung.hc@gmail.com
https://vocus.cc/article/696f3b72fd89780001f04745













