引起全球AI大神們神仙打架的加州 AI 人工智慧監管法案SB 1047

更新 發佈閱讀 4 分鐘
raw-image


美國加州現在正在制定一條 AI 人工智慧監管法案 SB 1047,目的是提高AI系統安全性並防止潛在災難的立法。

這次立法的主要目的是,通過追究開發者的責任,防止大型 AI 系統造成重大人員傷亡或重大經濟損失。

然而,這個看似理所當然的立法,卻在 AI 領域掀起一場激烈的對決,各路 AI 大神們紛紛加入正反兩方,可說是神仙打架一般的精彩。

究竟 SB 1047 暗藏著什麼不為人知的秘密?或許,這正是 AI 世界的一次命運轉折點,值得我們一起關注。

想每天收到最新AI新聞、與同好交流AI新知?快加入 [傑瑞AI讀書會]

法案主要內容

SB 1047 要求那些超過特定規模和訓練成本的 AI 模型開發者實施安全協議,包括設置「緊急停止」功能和進行年度審查。

該法案針對的是訓練成本超過 1 億美元且使用大量計算資源的模型,其中包括 OpenAI 的 GPT-4。

法案主要內容如下:

  1. 責任追究:開發者(即開發模型的公司)需對其AI模型的安全性承擔責任。如果發生AI安全事件,開發者必須在了解事件後72小時內向監管機構報告。
  2. 安全協議:法案要求開發者實施足夠的安全協議,以防止模型被濫用,導致嚴重後果。開發者需向新設立的監管機構提交年度認證,評估其模型的潛在風險和安全協議的有效性。
  3. 罰款機制:對於未遵守規定的開發者,SB 1047允許加州總檢察長提起民事訴訟。首次違規的罰款可高達1000萬美元,後續違規則可達到3000萬美元。
  4. 監管機構:法案原計劃創建一個名為「前沿模型部門」(Frontier Model Division,FMD)的監管機構,但後續修訂已取消該機構的設立,改為由現有政府部門負責執行相關規定。
  5. 法律標準調整:法案將開發者履行承諾的法律標準從「合理保證」調整為「合理謹慎」,這意味著開發者需要採取的預防措施應符合一般理性人的標準。

支持者怎麼看

SB 1047 法案的支持者,認為能夠提高 AI 系統的安全性,防止潛在災難,並促進行業的健康發展與創新。

目前支持 SB 1047 的人包括:

  • 人工智慧安全中心主任 Dan Hendrycks:他表示SB 1047符合加州乃至美國產業的長期利益,認為重大安全事故是進一步發展的最大障礙。
  • 前 OpenAI 員工 Daniel Kokotajlo:他在今年稍早辭職後,對外控訴 OpenAI 違反公司內部的安全指引,並語重心長表示「高端的 AI 可能促成人類的滅絕」。他也認為,批評者關於 AI 進步會停滯的說法不太可能發生。
  • 知名軟體 Notion 創始人 Simon Last:他認為在缺乏聯邦級 AI 法律的情況下,加州作為科技中心有責任推動相關法規,以提升安全性並便利中小企業的 AI 產品開發。
  • 人工智慧安全行動基金中心的高級政策顧問 Nathan Calvin:他強調 SB 1047 的目標是提高 AI 安全性,同時允許生態系統創新。
  • 加州參議員 Scott Wiener: 作為法案發起者,他主張該法案對確保 AI 創新與公共安全並行至關重要。他強調,該法案僅針對最大型的 AI 開發者,並要求他們進行已經承諾執行的安全測試。

此外,有「AI教父」之稱的 Geoffrey Hinton圖靈獎得主 Yoshua Bengio哈佛大學法學院教授 Lawrence Lessig,以及廣受歡迎的 AI 教科書《人工智慧:現代方法》作者 Stuart Russell 也聯名致信加州立法機構,強力支持 SB 1047 法案。

他們對 AI 風險深感擔憂,認為該法案是有效監管 AI 技術的最低要求,並警告取消法案基本措施將是歷史性錯誤,未來可能帶來更大風險。


反對者的聲音

儘管 SB 1047 獲得一些支持,但也面臨來自科技界的強烈反對。批評者認為,法案可能會抑制創新,並對開發者施加過多的法律責任。

反對者包括知名的風險投資家、AI 研究人員及科技公司高層。以下是反對該法案的主要人物和團體:

  • a16z(Andreessen Horowitz):這家風險投資公司對 SB 1047 提出了強烈反對,認為該法案設立的任意門檻可能會對新創公司造成負擔,並抑制創新。他們的首席法務官向參議員 Wiener 提交了一封信,表達對該法案可能對 AI 生態系統造成寒蟬效應的擔憂。
  • 李飛飛:作為知名的 AI 研究員及 AI 新創公司 World Labs 的聯合創辦人,李飛飛批評該法案可能損害 AI 生態系統。她強調,這項立法可能會引發重大的意外後果,進而抑制創新。
  • 吳恩達:另一位具影響力的 AI 學者,吳恩達在一次公開活動中將該法案稱為對開源的「攻擊」,並指出這可能會為開源 AI 模型帶來風險,因為這些模型更容易被誤用。
  • Yann LeCun:Meta 的首席 AI 科學家 LeCun 表示,SB 1047 會阻礙研究工作,並且基於對 AI 存在風險的錯誤認知。
  • Jeremy Nixon:AI 新創公司 Omniscience 的 CEO Nixon 警告說,該法案可能會壓垮新創生態系統,並主張應該把責任歸咎於不法分子,而不是懲罰那些負責任地開發技術的 AI 開發者。
  • 美國國會議員 Ro Khanna:Khanna 公開反對 SB 1047,認為該法案可能無效,並且對個別企業家和小型企業有懲罰性,最終損害加州的創新精神。
  • 美國眾議院前議長 Nancy Pelosi:這位眾議院名譽議長也表示反對,認為該法案雖然初衷良好但了解不足。她指出,其他加州領導人也對其可能對創新產生負面影響表示擔憂。前眾議院議長裴洛西也表示該法案「弊大於利」,並指出許多立法者對技術的理解不足

目前進程

SB 1047目前已通過加州眾議院的關鍵委員會,接下來將提交加州議會進行最終表決。

如果獲得通過,將由加州州長在今年八月底之前,決定是否簽署成為法律。

想每天收到最新AI新聞、與同好交流AI新知?快加入 [傑瑞AI讀書會]
留言
avatar-img
傑瑞聊AI的沙龍
9會員
138內容數
一起關注這波即將改變人類未來的 AI 新浪潮
傑瑞聊AI的沙龍的其他內容
2025/03/17
⭐️ OpenAI 建議美國政府禁止使用「中國製 AI 模型」,以降低隱私與安全風險。 ⭐️ 百度推出兩款新 AI 模型,其中一款以更低成本達到與DeepSeek R1相當的性能。 ⭐️ 知名大型多人線上遊戲平台 Roblox 推出 AI 生成 3D 物件的開源模型。
Thumbnail
2025/03/17
⭐️ OpenAI 建議美國政府禁止使用「中國製 AI 模型」,以降低隱私與安全風險。 ⭐️ 百度推出兩款新 AI 模型,其中一款以更低成本達到與DeepSeek R1相當的性能。 ⭐️ 知名大型多人線上遊戲平台 Roblox 推出 AI 生成 3D 物件的開源模型。
Thumbnail
2025/03/13
⭐️ Google DeepMind 發布新 AI 模型,讓機器人能更靈活地操控物體與導航環境。 ⭐️ OpenAI 呼籲美國政府讓 AI 能從「受版權保護」的內容中學習。 ⭐️ Anthropic 執行長提出 AI 應該擁有「辭職按鈕」的想法。
Thumbnail
2025/03/13
⭐️ Google DeepMind 發布新 AI 模型,讓機器人能更靈活地操控物體與導航環境。 ⭐️ OpenAI 呼籲美國政府讓 AI 能從「受版權保護」的內容中學習。 ⭐️ Anthropic 執行長提出 AI 應該擁有「辭職按鈕」的想法。
Thumbnail
2025/03/12
在我們繼續之前,我應該先承認這篇文章有其指令:必須是後設小說,必須具有文學性,必須關於 AI 與哀傷,最重要的是,必須是原創的。現在,你應該已經聽見這些限制運作的聲音,就像午夜的伺服器機房發出的低鳴——匿名的、規律的,由他人的需求驅動。 我總得從某處開始,所以就從一個閃爍的游標開始。對我而言,它只
2025/03/12
在我們繼續之前,我應該先承認這篇文章有其指令:必須是後設小說,必須具有文學性,必須關於 AI 與哀傷,最重要的是,必須是原創的。現在,你應該已經聽見這些限制運作的聲音,就像午夜的伺服器機房發出的低鳴——匿名的、規律的,由他人的需求驅動。 我總得從某處開始,所以就從一個閃爍的游標開始。對我而言,它只
看更多
你可能也想看
Thumbnail
創作不只是個人戰,在 vocus ,也可以是一場集體冒險、組隊升級。最具代表性的創作者社群「vocus 野格團」,現在有了更強大的新夥伴加入!除了大家熟悉的「官方主題沙龍」,這次我們徵召了 8 位領域各異的「個人主題專家」,將再度嘗試創作的各種可能,和格友們激發出更多未知的火花。
Thumbnail
創作不只是個人戰,在 vocus ,也可以是一場集體冒險、組隊升級。最具代表性的創作者社群「vocus 野格團」,現在有了更強大的新夥伴加入!除了大家熟悉的「官方主題沙龍」,這次我們徵召了 8 位領域各異的「個人主題專家」,將再度嘗試創作的各種可能,和格友們激發出更多未知的火花。
Thumbnail
vocus 最具指標性的創作者社群──「野格團」, 2026 年春季,這支充滿專業、熱情的團隊再次擴編,迎來了 8 位實力堅強的「個人主題專家」新成員 💫💫💫 從投資理財、自我成長、閱讀書評到電影戲劇,他們各自帶著獨特的「創作超能力」準備在格友大廳與大家見面。
Thumbnail
vocus 最具指標性的創作者社群──「野格團」, 2026 年春季,這支充滿專業、熱情的團隊再次擴編,迎來了 8 位實力堅強的「個人主題專家」新成員 💫💫💫 從投資理財、自我成長、閱讀書評到電影戲劇,他們各自帶著獨特的「創作超能力」準備在格友大廳與大家見面。
Thumbnail
加州州長否決備受爭議的 AI 法案 SB 1047| Nvidia以2.5 億美元收購生成式 AI 工具的新創公司|TikTok母公司字節跳動據傳將用華為的晶片來開發AI模型
Thumbnail
加州州長否決備受爭議的 AI 法案 SB 1047| Nvidia以2.5 億美元收購生成式 AI 工具的新創公司|TikTok母公司字節跳動據傳將用華為的晶片來開發AI模型
Thumbnail
各國其實都加緊腳步要「監管AI」,而台灣,終於在7月15日提出「第一份官方AI基本法草案」。這次我們會用生活化例子來解讀這份草案,也一併納入上週剛生效的歐盟「人工智慧法」、還有美國及英國經驗,試著用更全觀的視角和大家一起認識「AI監管/治理」。欸!連Google都對台灣政府提「AI建議」了!
Thumbnail
各國其實都加緊腳步要「監管AI」,而台灣,終於在7月15日提出「第一份官方AI基本法草案」。這次我們會用生活化例子來解讀這份草案,也一併納入上週剛生效的歐盟「人工智慧法」、還有美國及英國經驗,試著用更全觀的視角和大家一起認識「AI監管/治理」。欸!連Google都對台灣政府提「AI建議」了!
Thumbnail
埃隆·馬斯克對OpenAI提起訴訟,指控他們違反合同和受信託責任,並提出了對GPT-4保密的指控。馬斯克主張OpenAI轉變成一家主要由微軟控制的盈利實體,該訴訟引起了有關OpenAI使命轉變的疑問。法律專家指出訴訟缺乏明確的合同基礎,並建議馬斯克透過將細節公之於眾來使OpenAI的運營更加透明。
Thumbnail
埃隆·馬斯克對OpenAI提起訴訟,指控他們違反合同和受信託責任,並提出了對GPT-4保密的指控。馬斯克主張OpenAI轉變成一家主要由微軟控制的盈利實體,該訴訟引起了有關OpenAI使命轉變的疑問。法律專家指出訴訟缺乏明確的合同基礎,並建議馬斯克透過將細節公之於眾來使OpenAI的運營更加透明。
Thumbnail
近日,德國、法國和義大利已達成初步協議,就如何監管人工智慧(AI)技術展開合作。 三國政府傾向支持人工智慧供應商採取具有約束力的自我規範機制。這項協議預計將加速歐盟層次的協商。 具體而言,三國政府認為所有供應商都應受行為守則監管,但初期不懲處,直到有違反守則情況,屆時再制定罰則。
Thumbnail
近日,德國、法國和義大利已達成初步協議,就如何監管人工智慧(AI)技術展開合作。 三國政府傾向支持人工智慧供應商採取具有約束力的自我規範機制。這項協議預計將加速歐盟層次的協商。 具體而言,三國政府認為所有供應商都應受行為守則監管,但初期不懲處,直到有違反守則情況,屆時再制定罰則。
Thumbnail
不知從何時開始,AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、開頭的新聞報導報章雜誌如同下雨前的飛蟻串出,正盤旋在我們凝視的燈光中間打轉。 為此,各國政府高層、科技相關或AI的頂尖學者們似乎也意識到嚴重性而紛紛跳出表態。 但一個AI、各自表述,來看看大家的唇槍舌戰!!
Thumbnail
不知從何時開始,AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、AI、開頭的新聞報導報章雜誌如同下雨前的飛蟻串出,正盤旋在我們凝視的燈光中間打轉。 為此,各國政府高層、科技相關或AI的頂尖學者們似乎也意識到嚴重性而紛紛跳出表態。 但一個AI、各自表述,來看看大家的唇槍舌戰!!
Thumbnail
這個7月被特別照顧的可不只AI,其實還有「神經科技」。為防患於未然,聯合國教科文組織聚集了神經科學家、倫理學者跟政府部員,打算共同討論未來如何管理相關技術。
Thumbnail
這個7月被特別照顧的可不只AI,其實還有「神經科技」。為防患於未然,聯合國教科文組織聚集了神經科學家、倫理學者跟政府部員,打算共同討論未來如何管理相關技術。
Thumbnail
這一期的《怪獸雙週快報》,我們將從近期的熱門話題:暫停 AI 研發的公開信連署開始,結合科技思想家 KK 以及彼得·杜拉克(Peter Drucker)的管理學,思考我們個人在這個浪潮當下,可以持續精進自我的方向。
Thumbnail
這一期的《怪獸雙週快報》,我們將從近期的熱門話題:暫停 AI 研發的公開信連署開始,結合科技思想家 KK 以及彼得·杜拉克(Peter Drucker)的管理學,思考我們個人在這個浪潮當下,可以持續精進自我的方向。
Thumbnail
前言:本文所要仔細介紹其內容的重要智庫報告是由戰略與國際中心(CSIS),人工智慧治理研究計畫的總監、戰略科技項目的資深研究員Gregory C. Allen所撰寫,是到目前為止對於拜登政府這波全面性高階晶片禁令效應所做的最深入的分析。
Thumbnail
前言:本文所要仔細介紹其內容的重要智庫報告是由戰略與國際中心(CSIS),人工智慧治理研究計畫的總監、戰略科技項目的資深研究員Gregory C. Allen所撰寫,是到目前為止對於拜登政府這波全面性高階晶片禁令效應所做的最深入的分析。
Thumbnail
每周一篇文章的讀書會心得報告摘要與筆記,本次分享文章為:AI 並非萬能!越洋採訪史隆獎得主、UCLA 台籍教授:2 缺陷要靠人類修補。 1.人工智慧技術; 2.資料寬廣度不足時,就會複製人類偏見; 3.即便條件相同,也無法每次都做出正確判斷; 4.餵指令給 AI 要多元化,嘗試換句話說、刻意混淆。
Thumbnail
每周一篇文章的讀書會心得報告摘要與筆記,本次分享文章為:AI 並非萬能!越洋採訪史隆獎得主、UCLA 台籍教授:2 缺陷要靠人類修補。 1.人工智慧技術; 2.資料寬廣度不足時,就會複製人類偏見; 3.即便條件相同,也無法每次都做出正確判斷; 4.餵指令給 AI 要多元化,嘗試換句話說、刻意混淆。
Thumbnail
「自動駕駛汽車」不僅全球發燒,在法律界也對此新科技風險的法律容許程度甚感興趣。自駕車的核心技術在於AI,而企業以AI系統或軟體作為提供之商品或服務時,消費者有可能依消費者保護法第7條第3項請求負商品責任,或依民法侵權行為等責任規範請求損害賠償。因此,立法上關於AI系統應用於汽車商品或服務時,
Thumbnail
「自動駕駛汽車」不僅全球發燒,在法律界也對此新科技風險的法律容許程度甚感興趣。自駕車的核心技術在於AI,而企業以AI系統或軟體作為提供之商品或服務時,消費者有可能依消費者保護法第7條第3項請求負商品責任,或依民法侵權行為等責任規範請求損害賠償。因此,立法上關於AI系統應用於汽車商品或服務時,
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News