今天是 2025 年 12 月 26 日,星期五。前兩天是耶誕節,當大家都在討論要幫家裡小朋友準備什麼耶誕節禮物的時候,你大概沒注意到,其實立法院也給了所有台灣人民一個耶誕節禮物了喔,那就是台灣的《人工智慧基本法》終於在 12 月 23 日通過三讀了,接下來,就是要等總統公告實施。
說到這部《人工智慧基本法》其實是一部讓很多台灣人「等很久」的法案喔。從生成式 AI 開始大量進入我們的生活,跟工作場景的時候開始,不只是政府在想該怎麼管,人民其實也一直在問説:我的資料會不會被拿去餵給AI亂用?影響我升遷、去留、貸款、保險的決定,到底是人做的,還是機器算出來的?
產業界呢?他們關心的則是另一個現實的問題:到底有沒有一條清楚、穩定的規則,讓我們公司知道,什麼可以做、什麼不能做,而不是每天在那邊猜政策的風向吹什麼風、擔心今天合法、明天卻又踩線。時間拉回到 2023 年的 10 月 3 日,行政院當時就先推出「行政院及所屬機關(構)使用生成式 AI 參考指引」,作為公部門與相關單位暫時可依循的方向。然後,隨著 AI 一步一步走進人事、金融、行銷、客服和決策輔助,這些高風險的場景每天都在發生。台灣的社會,很快就發現了,光只有指引,其實是超級不夠的。
所以在去年中旬,也就是 2024 年 7 月,國科會首度提出《人工智慧基本法》草案,外界一度期待台灣能搶先在國際的腳步之前,把規則立起來,卻沒想到法案在行政體系內反覆調整來調整去,好像一顆皮球被踢過來踢過去的。
大家知道嗎?這部法案最早在數位發展部第一任部長唐鳳的任內,就開始研議了,之後改由國科會主責,然後又在 2025 年 2 月轉回數發部,歷經一年多的來回,沒有什麼實質的進度,一直到 2025 年 8 月 28 日,行政院才正式對外公布通過草案。行政院長卓榮泰在記者會上宣示,要打造「AI 人工智慧島」,讓台灣躋升全球 AI 發展的關鍵推動地位,但在這段時間裡,產業其實一直在等更明確的方向,人民也一直在等一個說得出口的保障。
等到草案終於定案,我們隔壁的國家日本已在 2025 年 5 月 28 日通過《AI 促進法》,再往北看到韓國,他們更早在 2024 年 12 月完成《AI 基本法》,台灣本來是從從容容、不慌不忙的,可以領先在各國的前面,後來變成被韓國跟日本超車,楊老師也實在是看不過去,每一次在上課的時候都會忍不住碎念一下,真的是像某立法委員說的「實在是慢到脫褲子了」。終於,在 2025 年 12 月 23號,立法院完成了法案的三讀,才真正塵埃落定,也象徵台灣終於補上了一塊遲來但必要的制度拼圖。
那我想,今天想進一步跟大家分享這部基本法所確立的哪些原則,我們應該注意些什麼。這是關心AI發展的你我都要花一點時間來了解的喔。簡單來說,AI基本法有七個原則,它不是在談AI的技術細節跟發展,而是要回答一個更根本的問題:當 AI 介入我們社會運作的時候,什麼事情是不可以被犧牲的。
首先,他談到「永續發展與福祉」,講的並不是ESG跟環保喔,而是提醒大家,AI 不能只被拿來壓低成本、裁減人力,卻沒有任何轉型或再培訓的配套,否則效率的成果只會集中在少數人身上,造成社會的斷裂,卻由更多人承擔這顧不好的結果,那就是不對。
然後,有一個重要的原則是「人類自主」,他回應了許多人心中的不安。AI 可以輔助判斷,但不能變成唯一的裁決者,無論是績效評分、信貸的審核、保險的核保或其他重大決定,都不能讓人只能照單全收。這很重要,對吧,AI只是輔助我們,還是需要人類做判斷,才能下決定。
還有一個「隱私保護與資料治理」原則。這就是直接指向企業最容易忽略的灰色地帶,把客戶或員工資料直接丟進 AI 工具分析或訓練,卻沒有好好釐清資料來源、使用目的與合法性,這些做法短期也許方便,長期卻埋下巨大風險。
接著是「資安與安全」原則。許多企業在導入外部 AI 的 API 時,往往只看到他的功能強不強、速度夠不夠快,卻忽略了更重要而基本的資安評估、權限控管,還有持續的異常監測,這個有重要知道嗎?一旦,資料不小心外洩,或是系統被濫用,影響的不只是單一部門,而是整個組織的信任基礎。
再來一個「透明與可解釋」原則。談的也不是高深的技術名詞,而是一個很實際的問題:被影響的人,知不知道自己正在被 AI 評分、推薦或排序?如果完全不知道,就很難談信任,更不用說申訴與救濟。
「公平與不歧視」原則呢?是在提醒我們企業老闆,演算法並不是保證公平或絕對中立的,如果訓練資料本身就帶有性別、年齡或族群的偏見,系統就只會把這些問題放大、加速。那會有一些人無形當中受到歧視跟不公平的對待,那是不對的,AI發展是要給大家幸福的捏,不是變成某些人獨大的武器!
最後一個原則,是「問責」,說穿了,他就是一條紅線。當AI 出問題時,不能大家互踢皮球,IT 說是工具、業務說是系統,最後卻沒有人負責。
講完台灣AI基本法的七大原則之後,聰明的你有沒有看出一些端倪呢?這個法令跟我們每一個人,每一家企業都是息息相關啊!他不是那種很抽象的價值宣言捏,而是每天都在發生的管理情境,只是過去沒有被系統性地點名。有看出來嗎?楊老師在幫你從頭梳理一次喔,請大家聽清楚。
以「永續發展與福祉」為例,很多企業導入 AI 的第一步,就是自動化流程、壓縮人力、提高效率,短期數字看起來很好,但如果只是用 AI 取代人,卻沒有同步思考轉型、再培訓或職能調整,最後往往變成組織士氣下降、外界質疑企業只顧省成本、不顧社會責任。基本法把這一點寫進原則裡,其實是在提醒企業:AI 帶來的效率,不能只算在財報上,也要算在「組織與社會是否承受得住」。
再來是「人類自主」。現在很多企業已經開始用 AI 做信貸審核、保險風險評估、績效評分,甚至是人資的升遷或淘汰建議。如果決策流程變成「系統算完,主管照章核准」,一旦員工或客戶質疑結果不合理,企業往往說不清楚到底是誰做的決定。基本法要求保留人類自主,其實就是在提醒企業:AI 可以給建議,但最後拍板的一定要是人,否則責任永遠會說不清楚。
那麼「隱私保護與資料治理」呢?這一點更是企業最常踩線的地方啊。許多公司在導入生成式 AI 或分析工具時,習慣直接把過去累積的客戶資料、員工資料丟進去用,卻沒有仔細檢查這些資料當初是不是為了這個目的蒐集的,也沒有重新告知或取得適當授權。短期看起來效率很高,但一旦發生爭議,企業很容易被追問:你憑什麼這樣用資料?基本法的意義,不是禁止資料運用,而是逼企業正視「資料從哪裡來、為什麼用、能不能這樣用」。
接著是「資安與安全」。現在不少企業直接串接外部 AI API,用來做客服、自動摘要或內部分析,但往往忽略資安評估、權限控管與異常監測。當資料透過 API 流出公司邊界時,一旦出現外洩或被濫用,企業才發現自己其實不知道資料去了哪裡、誰能存取、出了事要怎麼回溯。基本法把資安與安全列為原則,其實是在提醒企業:AI 不只是功能問題,而是整個資安治理的一部分。
「透明與可解釋」則直接影響信任。很多企業已經在不知不覺中,讓 AI 參與客戶分級、推薦排序或員工評價,但相關對象卻完全不知道自己正在被 AI 影響。當結果不利時,企業如果無法清楚說明「這是什麼系統、什麼邏輯、哪些因素影響結果」,信任往往一次就垮掉。基本法並不是要求企業公開所有演算法,而是至少要讓被影響的人知道:AI 介入了哪些地方。
至於「公平與不歧視」,在企業場景中最常出現在招募、升遷與行銷分眾。若訓練資料本身就反映過去的偏見,例如特定年齡、性別或背景被系統性忽略,AI 只會把這些問題自動化、放大化。企業若只是說「這是系統算的」,反而會讓風險更集中在自己身上。
最後是「問責」。這也是所有原則的收尾關鍵。當 AI 出現錯誤時,企業內部最常見的狀況是互踢皮球:IT 說只是工具、業務說只是使用者、主管說相信系統。基本法點出問責原則,其實就是在告訴企業:AI 沒有責任能力,責任永遠在組織裡的人身上。能不能在事前就定義清楚誰負責、怎麼處理,將決定企業能不能承受未來的風險。
把這七個原則放在一起看,就會發現台灣的 AI 基本法,並不是要企業踩煞車,而是要求企業不要再用「反正大家都這樣做」來面對 AI。能夠及早把這些原則轉化為制度、流程與決策習慣的企業,未來不只比較不容易踩雷,也更容易在客戶、員工與社會眼中,被視為「用得起 AI,也扛得住責任」的那一群。














