
近年來關於AI法律的討論焦點正從「是否該監管」轉向「如何有效監管」。就此,賓州大學 (University of Pennsylvania)凱里法學院 (Penn Carey Law) 的 Cary Coglianese 教授,最近的重點研究就是 "Leashes, Not Guardrails" (牽繩,而非護欄)。他在 2025 年 6 月發表於 《Risk Analysis》 期刊的論文中提出這個重要概念。論文標題:「牽繩,而非護欄:一種基於管理的 AI 風險監管方法」(Leashes, Not Guardrails: A Management-Based Approach to Artificial Intelligence Risk Regulation)。
一、Coglianese教授的核心觀點:
許多人主張為 AI 設立嚴格的「護欄」(guardrails)以防止危害。但 Coglianese 教授認為,AI 技術變化太快,固定的「護欄」很快就會過時。他主張採用「牽繩」(leashes)的方式,即要求企業建立強大的內部治理和風險管理系統。監管機構不該去審查 AI 的程式碼,而是該審查企業的「管理系統」是否健全。這篇論文為 AI 監管提供新的實務框架。這確實是近期 AI 監管領域中一個非常重要且具有高度實務性的理論。它直接回應「AI 變化太快,法律如何監管」的核心難題。
二、Coglianese 教授所謂「護欄」的定義:
指的是傳統的「規範性規則」(prescriptive rules),就像高速公路的護欄一樣,這是一種固定、僵化、一體適用的限制。例如,立法規定「AI 不得產生歧視性言論」或「AI 必須在特定參數下運行」。Coglianese教授接著說明現今AI「護欄」的法律困境:
- AI 的異質性 (Heterogeneous): AI 的應用千差萬別(從自動駕駛到醫療診斷,再到詩歌寫作),試圖用一套固定的規則來規範所有 AI,是不切實際的。
- AI 的動態性 (Dynamic): AI 模型(特別是生成式 AI)會不斷學習、演化和改變其行為。今天有效的「護欄」,明天可能就會因為模型的自我更新而失效。
- 扼殺創新: 僵化的護欄會限制 AI 探索新路徑的潛力,阻礙技術的正面發展。
三、Coglianese 教授提出的「牽繩」(Leashes) 理論:
其本質是一種「基於管理的監管」(Management-Based Regulation)。這個監管模式的核心思想是:監管者不直接監管 AI 技術本身,而是監管「使用和開發 AI 的組織」。他生動比喻:監管 AI 就像「遛狗」,而不是「開車」。
- 汽車(護欄): 汽車是機械的,其行為可預測。你可以為它設定固定的道路護欄,它就會在軌道內行駛。
- 狗(牽繩): 狗 (AI) 是有學習能力和一定自主性的。你無法為牠設定固定的軌道。你該做的是繫上「牽繩」,允許牠在一定範圍內自由探索(創新),但主人(組織)必須時刻保持警惕,並在牠(AI)即將衝向危險(產生危害)時,立即拉緊牽繩(介入管理)。
四、Coglianese 教授「牽繩」理論的運作機制:
「基於管理的監管」要求企業必須建立一套內部的 AI 風險治理系統。監管機構的任務,就是去審查這套「系統」是否健全有效,而不是去審查 AI 的程式碼。
這套系統(即「牽繩」)通常包含以下幾個關鍵組成部分:
1.風險評估 (Risk Assessment):
要求組織在部署 AI 系統之前,必須主動識別其潛在風險。例如:在自動駕駛中,風險是碰撞;在社群媒體中,風險是誘導成癮或自殺;在 AI 生成內容中,風險是偏見和歧視。
2.內部流程與控制 (Internal Processes):
組織必須制定具體的內部政策、程序和培訓,以管理和減輕已識別的風險。
3.持續監控 (Monitoring):
組織必須在 AI 部署後對其進行持續監控,以偵測非預期的行為或新出現的危害。
4.文件與紀錄 (Documentation):
必須保留所有風險評估、決策過程、測試結果和監控數據的完整文件,以便在發生問題時供監管機構審查(問責)。
5.人類監督 (Human Oversight):
在關鍵決策點保留有效的人類介入機制。
五、「牽繩」的彈性:動態調整監管強度
此理論的關鍵優勢在於其彈性。監管機構可以根據風險等級,要求不同強度的「牽繩」:
1.鬆牽繩 (低風險): 對於風險較低的 AI 應用(例如,用於內部庫存管理的 AI),監管機構可能只要求其提交基本的風險評估報告。
2.緊牽繩 (高風險): 對於高風險應用(如醫療、金融、關鍵基礎設施),監管機構可以要求:
(1)更頻繁的監控報告。
(2)更嚴格的第三方審計。
(3)在部署前必須獲得監管機構對其「風險管理計劃」的批准。
3.基於表現的調整: 如果一個 AI 系統(或某家公司)過去曾出現過問題(例如,洩露敏感數據),監管機構就可以要求對其繫上「更短、更強的牽繩」。
六、總結與評論
Coglianese 教授的「牽繩」理論,是將已在環境法規、食品安全等領域被證實有效的「管理為本」監管策略,巧妙地引入到高度動態的 AI 領域。它避開了為技術本身立法的難題,轉而強化企業的內部治理責任與法律遵循義務 (Compliance),為監管者提供了一個更靈活、更具適應性,也更切實可行的監管框架。融合法律、資安與經濟等考量因素。其理論也大致符合現今歐美AI監理法規的主流架構與內容,但詮釋的方法很生動有趣!這也讓我聯想到「劍橋分析事件」首位吹哨者—克里斯多福.懷利,以及資訊安全大師布魯斯.施奈爾。
「劍橋分析公司」共同創辦人、「劍橋分析事件」首位吹哨者—克里斯多福.懷利,在其「心智操控」一書的最後提出四大監理原則,也是當作給立法者的一封信,希望能建構「數位監理」的環境,讓網路生態系更加安全。他認為「法律跟不上科技發展」只是美國矽谷規避監理的藉口,若在醫藥、土木、食品、能源、航空、交通等方面都能夠審查或監理,為何科技公司不需要經過審查就能推出新的數位系統?政府沒有理由不能加以管制。
資訊安全大師布魯斯.施奈爾在其「物聯網生存指南」一書中提倡法律在科技方面的重要性。我們都能夠了解,技術往往是先發展出來,而後就產生管理問題,最後透過政策考量而制定法律規範;但不當的政策或法律,也可能造成管理問題,甚至扼殺技術發展。
在面對技術變遷,我們雖能推想出新技術可立刻派上用場的用途,但無法掌握新技術在未來會以何種樣貌出現在社會裡。例如當大家知道可利用網路來保持聯絡,卻沒人預料到會出現Facebook臉書或其類似且迭代的這些東西;一次又一次地,在個人數位助理、機器人、比特幣、人工智慧或無人車,都是相同情況。換言之,我們容易落入「技術決定論」的陷阱,當我們以為現在制定的政策與法律可以有效規範(做好資安管理與防禦)時,但早已落後科技發展(科技帶來的風險與攻擊),甚至根本不能預測未來三年、五年或十年科技在根本層面上會出現哪些突破性的進展。於是乎,往往大家都用一句話帶過:「法律跟不上科技」。
大家要如何一起想像出未來的情境,以便超前部署,應負現在或未來的風險?而法律真的跟不上科技嗎?讓科技人員與政策制定者能齊聚一堂,合力找出解決方案,才是正確方向,才可達到規畫和協調推動的權責合一。科技與政策法規必須並行,也不要陷入法律跟不上科技的迷思。根據「原則」而非技術,去決定如何監理,才不會被過時的技術或商業模式嵌入監理或法律規範。
——————
Gemini搜尋的資料來源。以下是圍繞 Cary Coglianese 教授「牽繩」(Leashes) 理論的關鍵論文、機構和教授本人的連結。
📄 關鍵論文與摘要
* 論文全文 (PDF):
* 說明: 這是 "Leashes, Not Guardrails: A Management-Based Approach to Artificial Intelligence Risk Regulation" 論文的完整 PDF 檔案。您可以直接閱讀原文的詳細論述。
* 賓州大學法學院官方報導:
* 連結: https://www.law.upenn.edu/live/news/17791-the-future-of-ai-regulation
* 說明: 這是賓州大學凱里法學院 (Penn Carey Law) 在 2025 年 6 月發布的官方新聞稿,標題為「AI 監管的未來」(The Future of AI Regulation)。它用更簡潔的方式總結了這篇論文的核心觀點和重要性。
🏛️ 相關機構與教授
* Cary Coglianese 教授的官方教職頁面:
* 連結: https://www.law.upenn.edu/live/profiles/2302-cary-coglianese
* 說明: 這是 Coglianese 教授在賓州大學法學院的官方介紹,列出了他的學術職位(Edward B. Shils 法學教授)以及他擔任「賓州監管計畫」主任的職務。
* 賓州監管計畫 (Penn Program on Regulation, PPR):
* 連結: https://www.law.upenn.edu/institutes/ppr/ (官方介紹頁)
* 連結: https://pennreg.org/ (計畫主網站)
* 說明: 這是 Coglianese 教授所領導的主要研究中心。第二個連結 (pennreg.org) 展示了他們最新的研究成果和活動,例如近期關於「金融中的人工智慧」和「評估監管績效」的論文。
* 《監管評論》(The Regulatory Review):
* 連結: https://www.theregreview.org/
* 說明: 這是由 Coglianese 教授創辦、PPR 附屬的線上出版物,每日提供關於監管政策的分析和新聞。您可以在這裡找到大量由該中心學者撰寫的、關於 AI 監管的最新短評和分析(例如,2025 年 11 月 10 日有關於 AI 與美國憲法第一修正案的討論)。
















