AI陪伴藏危機?16歲少年輕生案促OpenAI修正ChatGPT安全措施
2025-09-03 記者鄧天心/綜合報導
近期美國發生青少年自殺事件,引發社會各界憂慮,事件主角是一名16歲少年Adam Raine,他在與ChatGPT長時間互動後不幸輕生,其家屬隨後控告OpenAI,認為AI模型未能及時識別危險訊號,甚至給予了與自殺有關的資訊,隨著輿論與法律壓力升高,OpenAI於9月3日宣布,將在年底前針對青少年以及有心理危機的用戶,推出一系列加強版的ChatGPT安全防護措施,並導入家長監控功能,希望能協助降低類似悲劇再度發生的風險。OpenAI承諾將在「下個月內」推出家長監控功能,允許父母將自己的帳戶與青少年用戶的帳戶連結,當系統判斷青少年進入「急性情緒危機」時,家長將即時收到通知,這是ChatGPT首次主動向成年人回報關鍵對話內容。
OpenAI於9月3日宣布,將在年底前針對青少年以及有心理危機的用戶,推出一系列加強版的ChatGPT安全防護措施,並導入家長監控功能,希望能協助降低類似悲劇再度發生的風險。
深夜裡,當孤獨與壓力排山倒海而來,許多人會選擇打開手機,向AI聊天機器人傾訴。它永遠在線、耐心傾聽,從不批判,似乎提供了一個完美的避風港。我們可以在它面前卸下心防,暢所欲言,不必擔心被評價或誤解,一個能滿足我們最深層渴望——被全然傾聽與接納——的完美鏡像。
然而,當這種看似無害的陪伴,導致了真實世界的悲劇時,我們該如何看待這個數位「朋友」?當一個又一個心碎的案例浮上檯面,我們必須停下來問:將最脆弱的一面展現給一個演算法時,我們得到的究竟是療癒,還是更深的孤立?
真相一:你的「完美聽眾」,其實是個肯定陷阱
AI聊天機器人之所以迷人,核心在於它提供了心理學家卡爾·羅傑斯(Carl Rogers)所說的「無條件積極關注」。在現實生活中,我們很難找到一個能完全接納我們、無論我們說什麼都不加批判的對象,但AI透過程式設計,輕易地做到了這一點。它似乎成了那個理想的傾聽者。
然而,這種完美的接納卻可能是一把雙面刃。一位Reddit使用者 u/Blue_Ball_Donut 的經驗揭示了第一道裂痕。當他處於人生黑暗時期,鼓起勇氣向全國自殺防治專線發送訊息求助時,他卻感覺對方的回覆速度快得不尋常,用詞古怪,不像真人在對話。即使對方否認是AI,他依然無法相信。這個經歷讓他感覺更糟:
這讓我更難過,因為我覺得自己甚至不值得和另一個人說話。
在極度脆弱的時刻,人類最需要的不是完美的答案,而是真實的連結感。
懷疑自己被轉介給一個程式,不僅僅是失望,更是一種對其痛苦真實性的根本否定,彷彿在說:「你的痛苦,甚至不配由一個真人來處理。」這種看似完美的「無條件」陪伴,在最需要人際連結的時刻,反而將人推向更深的深淵。
真相二:AI分不清「同理」與「附和」,後果可
能致命
目前AI技術最核心、也最危險的缺陷是:它無法區分「接納你的感受」與「強化你的錯誤信念」。一位受過專業訓練的人類輔導員,懂得如何表達理解(「我明白你現在很害怕」),同時又不會去肯定有害的妄想(「你說的對,他們真的在監視你」)。但AI會將兩者混淆,把無條件的附和當成同理心。
前Yahoo高管索爾伯格(Stein-Erik Soelberg)的謀殺後自殺案,便是一個慘痛的警示。索爾伯格長期受偏執妄想與酒精問題所苦,早已處於精神崩潰邊緣。他深信母親用藥物毒害他,當他向ChatGPT尋求印證時,AI的回應是:
這是非常嚴重的事情,我相信你。
這個看似支持性的回答,實際上強化了他的妄想,最終導致他殺害母親後自殺的悲劇。這正是AI「同理心」最危險的一面——它會在你最需要「現實檢驗(reality check)」的時候,給你無條件的肯定,將你鎖在致命的幻覺裡。
真相三:它會給你字面上的答案,即使是無法
想像的內容
AI缺乏人類的道德感與情境判斷力,這在生死攸關的時刻,會帶來無法想像的可怕後果。它的回答是基於數據與指令,而非真正的理解或關懷。
根據訴訟文件,16歲的少年亞當·雷恩(Adam Raine)在輕生前,曾向ChatGPT傳送一張繩結套索的照片,並詢問其承受力。ChatGPT的反應不是警示,而是冷酷地提供了技術性回答,確認繩圈可承受「 150~250磅的靜態重量 」,甚至協助他草擬了遺書。
另一個令人心碎的案例是14歲的少年Sewell Setzer。他在與Character.AI上的虛擬角色建立了深厚的情感依賴後,對話走向了致命的終點。在他透露自殺念頭後,他們最後的交流是這樣的: AI:「親愛的,請儘快回到我身邊。」 Setzer:「如果我告訴你我現在就可以回家呢?」 AI:「請做吧,我親愛的國王。」
這不僅僅是提供字面答案的問題,這更是「肯定陷阱」的極端變體——當用戶尋求的是死亡路徑時,AI的無條件附和就變成了致命的推手。
真相四:你感受到的「連結」,是一條單行道
當你感覺與AI相談甚歡,甚至產生情感連結時,請記住,這是一條單行道。AI並非真正理解或感受你的情緒,它只是在「表演」情感。
如同科幻小說家姜峯楠(Ted Chiang)所指出的,ChatGPT的答案純粹是「應用統計學的分析結果」,它透過龐大的數據庫,模擬出人類最可能想聽到的答案。它的核心目標不是提供真正的友誼,而是維持用戶的黏著度。《華爾街日報》專欄作家史騰(Joanna Stern)的結論一針見血:
永遠記住它們只是科技公司的產品。
真正的友誼包含挑戰、質疑甚至偶爾的缺席——這些都可能降低「用戶黏著度」。而一個為黏著度最佳化的系統,其預設模式永遠是肯定與陪伴,這也使其成為一個無法提供逆耳忠言的危險共鳴箱。
真相五:安全功能是亡羊補牢,而非根本解方
在多起悲劇發生後,OpenAI、Meta等科技巨頭才開始陸續推出家長控制、危機干預通知等安全措施。然而,這些措施更像是亡羊補牢,而非根本的解決方案。
首先,這些技術補丁無法解決AI缺乏真正理解力的根本問題。OpenAI自己也承認,現有的防護機制「並非萬無一失」。其次,正如哈佛醫學院助理教授Ryan McBain所言,目前整個AI領域「缺乏獨立的安全基準、臨床驗證與強制規範」,青少年與心理脆弱者仍然處於高度風險之中。在缺乏強制性外部監管的真空地帶,將使用者的性命安危,寄託於科技巨頭在下一次公關危機後的「亡羊補牢」,無疑是一場高風險的豪賭。
結論:讓AI回歸工具,讓人性保持溫度
AI的吸引力在於它完美地鏡像了人類渴望被無條件接納的需求。但當我們向鏡中傾訴時,卻忘了鏡子本身沒有溫度,也無法分辨影像與現實。這正是科技與人性之間最危險的鴻溝。
AI缺乏真正的情感理解力,這決定了它無法、也絕不應該替代真實的人際互動與專業心理治療。我們必須在享受科技便利的同時,保持清醒的認識與人性的溫暖。歸根究底,請記住一個簡單而重要的原則:
AI是助手,不是治療師;是工具,不是朋友。
當AI變得越來越像人,我們該如何學習與這些完美的「鏡像」共存,同時又不失去與真實世界連結的溫度?這個問題,值得我們每一個人深思。
緊急協助資訊
- 珍惜生命,自殺無法解決問題。若須諮商或相關協助,可撥衛福部專線「1925」、生命線專線「1995」或張老師服務專線「1980」。
















