
文:宋皇志
圖:ChatGPT
歷經多年的討論、諮詢與折衝,我國終於在2025年底通過《人工智慧基本法》,並於2026年1月8日公告實施。其對社會大眾而言或許只是一則「心遠地自偏」的新聞,惟對科技法律與政策研究者而言卻是一個極為關鍵的里程碑——蓋其標誌著台灣首次嘗試,以一部憲章型法律回應人工智慧對人類、社會、經濟與權利結構所帶來的根本衝擊。正因這部法律被命名為「基本法」,它的價值與爭議往往不在於它「說了什麼」,而在於它「刻意沒說什麼」。這也是我決定撰寫這一系列文章的直接原因。
一、這部法律如何走到今天?
從立法過程來看,《人工智慧基本法》並不是一部匆促因應技術浪潮而誕生的法律。相反地,它長期處於一種尷尬卻真實的張力之中:一方面,社會期待法律能夠回應 AI 帶來的風險、偏誤與權利侵害,並為產業界指引開發與營業的明確道路;另一方面,立法者也清楚知道,過度技術化與細節化的規範極可能在短時間內就會過時,甚至可能阻礙創新。
因此,我們看到的是一種相對克制的立法選擇——不急著定義每一種 AI 技術、不輕易宣告哪些行為當然合法或非法,而是先確立一組治理原則:風險治理導向、透明與可解釋、義務與權利、責任與問責等。這樣的立法策略,與歐盟人工智慧法的高密度規制模式不同,也與美國選擇不立法而仰賴事後司法判斷的政策有所區隔。台灣選擇的是第三條路:先建立治理框架與修法原則,再要求國家各機關負責把問題想清楚,並於兩年內依據《人工智慧基本法》的精神完成修法。
二、為什麼還需要寫這一系列文章?
正因《人工智慧基本法》是一部高度原則化與框架化的法律,它特別容易出現兩種極端反應。一種是過度失望,認為這部法律「什麼都沒管、什麼都沒解決」,產業還是不知怎麼辦;另一種是過度樂觀,認為「既然法律沒有明文禁止,產業可以放手發展AI」。在我看來,這兩種理解都過於簡化,也忽略了基本法在法律體系中的真正功能。
作為一名長期從事科技法、智慧財產與治理研究的法律學者,我關心的不是這部法律是否完整且完善,而是:它如何重塑我們未來討論 AI 治理的方式?它把哪些價值拉進法律框架?又把哪些困難或有爭議的問題,有意識地不處利或留給下一階段?
這一系列文章,一方面希望以相對可讀的方式向讀者說明這部法律真正的法制意涵;另一方面,也是在為後續更深入的學術研究鋪路。我希望這系列文章,未來可以被引用、被反駁、被修正,而不只是被快速滑過。
當然,寫作也是一種反思。我並不打算假裝自己是「中立的旁觀者」。在每一篇文章中,我都會清楚標示哪些地方是條文解釋,哪些地方是制度評析,又哪些地方,則是我個人的價值判斷。
三、這一系列文章會怎麼寫?
接下來,我將以數篇短文的形式,逐一拆解《人工智慧基本法》的核心問題,每一篇聚焦一個主題,彼此之間相互連結,但又可以單獨閱讀。整體架構大致如下:
- 從這部法律在整體法制中的定位談起,說明它究竟是一部怎樣的法律。
- 接著,討論立法思維的轉向:為何不僅以侵權與責任作為核心,而改以風險治理與問責原則為基礎。
- 隨後,將深入分析幾個最具爭議性的議題,例如 AI 造成損害時責任是否會被稀釋、AI 訓練與智慧財產權之間的緊張關係、以及法律刻意保持沉默的制度意義。
- 此外,我也會討論黑箱問題、透明性、可解釋性、弱勢族群與文化多樣性等議題。這些往往被視為簡單地歸類為AI的「倫理議題」,然其本質上實屬法律與權力配置的問題。
- 最後,透過比較歐盟、日本與台灣的法制選擇,回到一個更大的問題:台灣希望一個怎樣的 AI 治理模式?
總言之,《人工智慧基本法》的通過,並不代表答案已經出現;相反地,它宣告了:真正重要的問題,現在才開始被允許正式討論。這正是我希望透過這一系列文章,與讀者共同討論的初衷。這並不是一個「替法律背書」的系列,而是一個邀請思考、也容許批判的討論起點。
作者:宋皇志,政治大學科技管理與智慧財產研究所教授,中華無形資產曁企業評價協會理事長
完成日期:2026年1月20日
有著作權,請勿侵權,惟歡迎註明出處引用
email: sung.hc@gmail.com
https://vocus.cc/article/696f3b72fd89780001f04745










