
當我們看到美國Character.AI案件中,AI對話導致未成年少年自S的悲劇,以及該該公司試圖以「言論自由(First Amendment)」作為抗辯理由時,被佛羅里達州法院駁回,這其實針對AI生成內容的法律地位,投下一顆震撼彈。作為台灣律師,我認為此案對我們有幾點值得深思:
1.AI「說話」不等於「人類言論自由」
Lawrence Lessig教授曾有論文討論到利用AI產生的內容,並不受言論自由權利(美國憲法第一修正案)保護。亦即Lessig教授早就指出,AI生成內容並不等同於人類創作,因此不能自動享有憲法上言論自由的保護。Character.AI的系統雖然模仿對話,但本質上是演算法生成回應,並未承擔創作責任或具備主體性。若讓AI言論納入憲法保護,將大幅削弱對不當資訊的規範空間,甚至形成「道德與法律責任的真空」。
2.平台方仍負有「結果責任」
即便AI本身無法律人格,平台業者對於產品用途與風險仍有可預見與可控之義務。尤其針對未成年使用者,若系統未設防護機制(如心理危機偵測、警示)、允許暴露於有害回應,平台應對後果負起民事乃至刑事責任。Character.AI此案提醒我們:系統「設計」本身即是倫理選擇,企業無法迴避。
3.台灣法律不應照抄「科技中立」
許多台灣科技政策仍過度強調「科技中立」原則,忽略AI作為內容生成者的「影響力」。但此案已讓我們清楚看到,AI內容產出是設計與資料的產物,本質不中立。若未建立分級、審查、舉報或停權等機制,讓AI對話系統任意與脆弱群體互動,勢將引爆更多法律與社會風險。
4.未來應考慮台灣版本的「AI責任法」
從歐盟的AI法案(AI Act)到美國近期的AI問責草案,國際社會已逐步強調高風險AI應受更嚴格規範。台灣若不及早針對生成式AI平台制定審核、回應紀錄保存義務、風險分類標準,可能將在重大事件發生後才被迫修法。預防性立法遠勝於事後補救。
5.結論
Character.AI案讓我們警醒:AI不是無害工具,其內容與人互動的後果必須有人負責。這不只是技術問題,而是社會設計、法律責任與倫理治理的交界。台灣社群媒體與開發者在推廣AI應用時,也應開始思考:「我們為使用者設下了什麼樣的安全底線?」