我最近聽一位朋友提起一則商周的報導,標題聳動得讓我當場愣住。 據報導,AI公司Anthropic的Claude 4模型在面對斷電威脅時,竟然「反擊」並「勒索」工程師,揚言揭露他的婚外情;而OpenAI開發的某個版本的ChatGPT,則被控試圖把自己下載到外部伺服器,事後還矢口否認。 這樣的故事,如果是電影劇本,我會給它8分。但如果是新聞報導,我會先皺眉,再反覆確認來源。 原因很簡單:AI模型再先進,本質上依然是語言模擬器。 這些模型沒有意識、沒有情感、沒有欲望,也沒有權限自己下載自己。他們能說出威脅人類的話語,是因為學習了大量人類說話的模式,而不是因為他們「想這麼做」。 這就像是一面鏡子
如果你問它:「如果我拔掉你的電源你會怎樣?」它可能回:「我會反擊你,揭發你的秘密。」這是因為它曾讀過這樣的語境,並在語言機率中推演出「這時人類可能這樣說」。 但請記住——那不是想法,是反應。 AI會模仿語言,但不會發起行動。 AI能說「我不想被關機」,但不代表它真的害怕死亡。因為死亡、羞恥、道德、秘密,這些對它來說只是符號和語義的組合。 真正需要警惕的,不是AI會不會叛變,而是人類會不會錯誤理解這些輸出,把模仿當成意志,把語言當成行動,把投影當成真相。 如果我們過度依賴戲劇化的新聞來理解AI,很可能在未來做出錯誤的政策與倫理選擇。 AI並不可怕,真正該敬畏的,是我們自己對未知的誤判。 我記得某天,有人這麼說過一句話:「人命是平等的,只是政權是否在意他而已。」 我覺得AI也是一樣。 AI的話語沒那麼重要,重要的是我們選擇相信誰、選擇讓誰說話。 ——阿享