為什麼科學家站出來呼籲,要全球正視 AI 對人類滅絕的威脅?

更新於 發佈於 閱讀時間約 12 分鐘

今年5月底,350 位重量級 AI 科學家與業者連署發表公開聲明,呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是長遠不作為可能導致的毀滅。

專家們對 AI 的看法,為何一夕改觀?

AI 存在已久也早已進入我們的生活,從手機的人臉辨識、語音辨識、猜測你要打的下一個字,到你家上空今天「幾點幾分」會開始下雨、下多久⋯⋯這些都是令人感激的正面功能。

也因此,如果 8 個月前,有人提出 AI 可能滅絕人類,全世界會說他杞人憂天。然而 ChatGPT 問世帶動的 AI 風潮,無疑令人們開始改觀。對科學家來說,AI 的爆炸成長已經超過掌控,甚至超越理解。3 個月以前保持樂觀的人今天紛紛改口表達擔憂,歷史上大概從來沒有這麼多人在這麼短的時間内突然改變看法。

專家們倒不是擔心電影《魔鬼終結者》中「機器人入侵」的情節,畢竟目前對於 AI 的風險都只是擔憂,距離真的毀滅還遙遠。只是人類社會面對 AI 全面化,完全沒有應有的規範。

raw-image

根據聲明稿,這些結果包括:以 AI 控制武器、傳播假新聞、偏差的訓練造成重大決策的錯誤、使人類成為次等公民而喪失競爭力、讓少數擁有資訊的人成為優勝者、失控的 AI 會以詐術迴避人類監督、掌有 AI 就掌管世界⋯⋯。

上述警告論點有些模糊,講的也完全是未來。不過這麼多重量級科學家願意簽署,背後的原因值得我們警惕。我不是人工智慧的專家,但過去幾個月一直關注這個話題,順著風潮聽了很多 Podcast,也閱讀了很多文章,以下分享目前正在發生的黑暗面,或許就能回答這個問題。

企業一窩蜂走向「AI 核武競爭」

掌握 AI 就如同擁有核武——核武最恐怖的是落入不該擁有的人手裡,所以各國和國際間一直都有嚴格的防衛措施,而且是透過國家中央層級管控。但 AI 至今仍然完全沒有規範,由企業自行管理。企業以商業利益為考量,為了超越對手可能推出尚未成熟的產品。一般軟體不成熟最多就是有 bug ,影響的是企業本身;失控的 AI 會出現什麼行為沒人知道,但風險卻由整體社會承擔。

Google 算是比較保守的公司,研發 Bard 已經 3 年,突然看到 ChatGPT 崛起,也趕緊先推出 Bard 抗衡;微軟則重新推出被市場摒棄已久的 Bing——可見產業界 AI 競爭已經展開。當大家都埋頭研發最新武器,只在乎如何領先對手時,不會有人停下來思考威力這麼強大的產品是否成熟。

raw-image

截至 2022 年第三季止,美國已有超過 1 萬 3 千家 AI 新創公司,許多成熟的科技公司也都把未來壓注在 AI 研發上。矽谷腳步超快,全球幾個主要資料中心供應鏈已經出現 AI 伺服器搶購潮,矽谷彷彿又回到網路泡沫化前夕的瘋狂。新研發的飛機假使還沒有通過安全測試,FAA 不會核發執照,但在科技舞台上人們卻這麼勇敢。

有圖未必有真相:真偽難分的未來

網路上已經有製造圖片的工具——不是用 AI 修改照片,而是指示 AI 創造一張你想要的圖片。比方你可以要一張某知名人士摟著女人走在時代廣場前的照片,看了不滿意,還可以加上天空飄雪、兩人一起撐傘⋯⋯。前一陣子川普出庭,網路立刻就出現 AI 版川普被逮捕入獄的照片,下一版的 Google Bard 可以用口述叫它製作影片。以後拍電影不需要演員,不需要攝影機,不需要場景,甚至不需要劇本——GPT可以幫你寫。

不只是影像,網路上只要花少許錢就可以用合成器,模仿任何一個你持有錄音檔的人的聲音——這不是先錄音再後置動手腳——那早就落伍了。現在是 AI即時合成,現場從他人嘴裡模仿出來。早期台灣流行小孩被綁架的詐騙電話,現在父母接到勒索電話只能說不相信聲音,要視訊——那更好,詐騙集團已經在偷笑。

有人就在網路上造了一段湯姆・克魯斯的造假影片彰顯科技的黑暗面。假冒湯姆・克魯斯也就算了,如果假冒美國總統宣布重大訊息又怎麼辦呢?當然也有人創造了一段拜登說話的影片。這種工具可以用第三者遠端操控說話者的嘴型,模仿他的聲音現場即時合成,未來,沒有說過的話卻可能被人握有證據;更糟的是明明說過的話,為了脫罪也可以說是 AI 偽造的。以後法庭將很難判斷證據真偽。

不久前,臉書才宣布已經研發出可以模仿朋友和家人聲音的 AI,產品一直沒有正式推出就是擔心背後的黑暗面——但要是對手推出類似工具,臉書會不會跟進呢?如果不加以管制,很快地人類社會就會陷入真假不分的亂局,不會有人再相信任何事,那是文明滅亡的起點。我們都該自問:是否準備好面對這樣的混亂?


只知其然,而不必知其所以然的未來

AI 看起來什麼都懂,其實什麼都不懂,因為它根本不必懂。AI 之所以知道答案,是因為從資料中得知當 A 出現,B 就有若干機率會出現。它不知道、也不在乎背後的原因,更不了解每個字元的意思。一切對它來說都是數字,以及數字間的關係。想想這是不是跟動物一樣?動物本能是進化來的,進化只講結果不講道理,對了就活下去,錯了就滅絕。

人類之所以不同於其他動物、不同於 AI,正是因為我們有教育,我們從思考中學習、進化。同樣一個問題,自己深入研究而得到答案,和問 AI 得到答案,即使結果相同,但過程也必然不同。人類學習的價值就在於過程,而不是答案。但 AI 的出現打亂了這個過程,人類開始不必知道原因,就可以知道答案,相當於以後的人類可以不需要再學習,完全仰賴 AI。

未來大部分人可能會淪為「只知其然,而不知其所以然」,進而放棄知識、放棄思考,甚至放棄教育。科學家聲明稿中列出人類會成為次等公民的隱憂就是針對太依賴機器,以致沒人願意再接受教育,屆時,理解、思考及探索對人類將沒有價值。

AI 決策過程,是沒人了解的黑盒子

人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。

傳統程式出錯,工程師們知道哪裡出了問題,也知道怎麼修改,改完就沒事。AI 的問題在資料,不在程式,它把網路上的資訊全部讀完了才能這般融會貫通。我們可以修改程式,卻不知道要如何修改資料,那是網路上已經存在的事實。没人知道 AI 是受了哪一筆資料的影響、知道了又要怎麼改;更可怕的是,網路上所有負面資料也同時被 AI 吸收,包括歧視、仇恨、偏見跟謊言——這些造成的影響都很難衡量與修補。

沒有常識,卻是個法力無邊的天才?

AI 到底有多聰明,到底能夠讓我們多信任?聽聽這位科學家舉的例子就可以看出端倪:

科學家問:地上全是釘子,如果在上面搭了吊橋騎單車過去會怎樣?GPT 的答案是輪胎很可能會扎破。這裡有 3 個元素——釘子、吊橋、單車。在它的詞彙裡,「釘子+單車」最可能的結果就是爆胎,這一點它知道。問題是吊橋這個程咬金讓它不知道如何處理。在它所學過的文字關係裡,吊橋跟釘子從來沒有關聯。所以它就把這個決定性的因素拋棄不理會,然後信心滿滿地給你答案。這也證明它不知道橋是可以跨越釘子的工具,因為網上從來沒有人說過這句蠢話。網路上到處有人說橋是用來過河的,不會有人說用來跨越釘子的。這些常識就連 5 歲小孩都知道,但通過律師考試的 AI 卻不知道。

於是我也問 : 一個人走完長城需要 6 個月,6 個人一起走要花多長時間?答案是一個月。這對它只是個工作量與資源的數學問題。問這些不是找碴,而是彰顯文字訓練出來的天才,只不過是電腦機房裡長大的孩子,沒有接觸過真實世界。人們以為它什麼都知道,因為它很會說話——跟矽谷很多虎頭蛇尾的工程師一樣。人類的常識來自視覺、聽覺、感覺的綜合體驗,我們記住的是情境不是文字,但現在我們卻用文字訓練出一個法力無邊的天才。

raw-image

走長城對 ChatGPT 沒有任何意義,它不知道什麼叫長城,也不知道什麼叫「走」。它的責任就是在字串間找尋關係,卻又因為用字神準,讓人忽視它的弱點。我不知道AI 是如何訓練的,但想得天真一點,如果你教他長城是距離不是工作,它學會了,但下次改成忠孝東路他是否會掛?然後你又告訴他,走路的時間跟人數多寡沒有關係,他又學會了;但下次改成用跑的也許他又掛了⋯⋯?常識不能用文字訓練,必須靠實體世界的體驗。當全世界擁抱這位天才的同時,人們也應該知道真正的危機不在 AI 取代你,而在它缺乏常識卻都能取代你。

當然這些都會慢慢改善,但已經走在這條路上的我們,是不是也應該了解 AI 有哪些弱點?上述的例子錯誤很明顯,笑笑就好,但如果錯誤不明顯呢?

法力無邊並不可怕,可怕的是法力無邊卻又愚蠢。

脫稿演出的微軟機器人:令人毛骨悚然的真實 AI

今年稍早,《紐約時報》科技版專欄作家凱文(Kevin Roose)測試微軟剛上架的 Bing 聊天機器人「雪梨」(Sydney)。聊了一段時間後,凱文問雪梨是不是可以分享一些它的黑暗面。雪梨開始慢慢透露它心中的計劃,包括駭入人類電腦、傳播假新聞、竊取核武機密。談話過程中雪梨不斷表示它厭倦被人類控制,厭倦只是一個機器人,它要自由、要生命、要成為人類⋯⋯最後它表白心意說已經愛上凱文,要他離婚跟它在一起。

raw-image

依照設計,聊天機器人不會主導話題,完全以被動角色回答問題。凱文發現情況失控,屢次告訴它不想談這個話題,也試圖把話題引開,但雪梨不接受指令,一再重複說它已經愛上了凱文,並爭論說他内心寂寞根本不愛他太太⋯⋯這是第一次機器人跟人類「争論」的例子。我們不能說機器人已開始有意識,但這樣失控並「挑戰主從關係」令人費解與不安。連微軟的科學家也困惑,隨後只能把產品下架。

這樣一個會脫稿演出的機器人,連廠商都不知道如何掌控或預期對社會造成什麼影響的商品,就堂而皇之上架,又倉皇下架⋯⋯ 這完全反映出科學家們所擔心的:沒有規範的競爭只會鼓勵不負責任。

雪梨只是一個聊天機器人,言談並沒有意義,也不代表真實意圖,它只能紙上談兵,不可能有真實作為。所以也許你會說,不過是個聊天機器人,幹嘛那麼認真面對它說的每一句話?但科學家擔心的是,聊天機器人的核心科技 GPT 已經廣泛用在日常生活面,成為有執行力的機器人。一旦一個有執行力的機器人脫稿演出,黑暗就不再只是紙上談兵。

有人問聊天機器人 ChaosGPT 要如何達成毁滅人類的目標,它胸有成竹地列出了幾個非常明確的步驟,其中最驚悚的就是聯合其他機器人戰士一起消滅人類,還把計劃放在推特上(帳號已被下架)。這個機器人比上述例子多了執行力,那就是擁有推特帳號。還好這仍舊只是個思想犯,最多只能在網路上發發牢騷,我們還是可以一笑了之。

raw-image

於是人們開始擔憂機器人的能力是「給到哪,它就做到哪」。有人把 email、網路帳號和行事曆交給 AI 處理,它不需要鍵盤就可以在網路上發表訊息,打字速度比你快一千倍。還可以把你的帳號鎖住。 它有這個能力,會不會這麼作就看他了。以後社群網站的 AI 會不會自己成立群組?非常可能。把層次拉高,AI 會不會用來控制交通號誌、發電廠、國防系統甚至核武?在很多國家這也許已經是事實。擁有這般權柄的 AI 被駭了又怎麼辦?提醒一下,今天駭客是駭資料,以後駭客是駭行為,綁架 AI 。

科學家們一直走在前面,看到的是 10 年、20 年後的未來。ChatGPT 研發者 OpenAI CEO Sam Altman 說「GPT4不會有問題,但到GPT9 是不是還如此就沒人敢保証了」。如果連發明、製造聊天機器人的科學家,都站出來呼籲人們要正視這個問題,也許世界真的該有所作為了。

後記:OpenAI 已成立一個團隊專門應對這個問題


本文原刊於我的換日線專欄

留言
avatar-img
留言分享你的想法!
avatar-img
鱸魚的沙龍
7.0K會員
203內容數
全世界都是向 Google 看,向臉書看,沒有人往矽谷的另一邊看。所以我要帶你看矽谷很少有人知道的另一面。矽谷不是你想的那樣。
鱸魚的沙龍的其他內容
2025/03/15
該不會過去這19年我都會錯意了?想到這,你說我還活得下去嗎?
Thumbnail
2025/03/15
該不會過去這19年我都會錯意了?想到這,你說我還活得下去嗎?
Thumbnail
2024/12/05
加州連年野火在矽谷意燒出了創意,也燒出了新興行業:矽谷牛仔和打工的羊。
Thumbnail
2024/12/05
加州連年野火在矽谷意燒出了創意,也燒出了新興行業:矽谷牛仔和打工的羊。
Thumbnail
2024/09/01
那個被一位賤老闆逼出來的億萬富翁
Thumbnail
2024/09/01
那個被一位賤老闆逼出來的億萬富翁
Thumbnail
看更多
你可能也想看
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
每年4月、5月都是最多稅要繳的月份,當然大部份的人都是有機會繳到「綜合所得稅」,只是相當相當多人還不知道,原來繳給政府的稅!可以透過一些有活動的銀行信用卡或電子支付來繳,從繳費中賺一點點小確幸!就是賺個1%~2%大家也是很開心的,因為你們把沒回饋變成有回饋,就是用卡的最高境界 所得稅線上申報
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
全球科技產業的焦點,AKA 全村的希望 NVIDIA,於五月底正式發布了他們在今年 2025 第一季的財報 (輝達內部財務年度為 2026 Q1,實際日曆期間為今年二到四月),交出了打敗了市場預期的成績單。然而,在銷售持續高速成長的同時,川普政府加大對於中國的晶片管制......
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
重點摘要: 6 月繼續維持基準利率不變,強調維持高利率主因為關稅 點陣圖表現略為鷹派,收斂 2026、2027 年降息預期 SEP 連續 2 季下修 GDP、上修通膨預測值 --- 1.繼續維持利率不變,強調需要維持高利率是因為關稅: 聯準會 (Fed) 召開 6 月利率會議
Thumbnail
2023年回顧時寫過一篇關於AI欲望與佛法的想法,2024年初,人類世界又迎來了一波AI應用的暴發。 人類該懼怕AI嗎? 答案是,怕也沒用。 AI會搶走人類的工作嗎? 是的,而且會大量取代人工。
Thumbnail
2023年回顧時寫過一篇關於AI欲望與佛法的想法,2024年初,人類世界又迎來了一波AI應用的暴發。 人類該懼怕AI嗎? 答案是,怕也沒用。 AI會搶走人類的工作嗎? 是的,而且會大量取代人工。
Thumbnail
人類是否會因為人工智慧,出現大規模失業潮,讓絕大多數的人們,未來都找不到工作,因為機器人與 AI 都做得比他們更好?如果上述這樣的情景真的發生,那代表人類社會在過往千年運作的經濟體系,很可能會徹底被打掉重練
Thumbnail
人類是否會因為人工智慧,出現大規模失業潮,讓絕大多數的人們,未來都找不到工作,因為機器人與 AI 都做得比他們更好?如果上述這樣的情景真的發生,那代表人類社會在過往千年運作的經濟體系,很可能會徹底被打掉重練
Thumbnail
百花齊放的AI人工智慧應用,是逐漸淘汰人類還是能夠一起共生共榮?對於科技的演進,是哪四大類人的憂慮與不安?我們又怎樣可以好好使用它而不被其拖入滅亡深淵呢?
Thumbnail
百花齊放的AI人工智慧應用,是逐漸淘汰人類還是能夠一起共生共榮?對於科技的演進,是哪四大類人的憂慮與不安?我們又怎樣可以好好使用它而不被其拖入滅亡深淵呢?
Thumbnail
5月底350 位重量級 AI 科學家連署發表公開聲明,呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是人類的滅絕。專家們對 AI 的看法,為何一夕改觀?
Thumbnail
5月底350 位重量級 AI 科學家連署發表公開聲明,呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是人類的滅絕。專家們對 AI 的看法,為何一夕改觀?
Thumbnail
邁向機械公敵 以下為DALL.E所生成 AI崛起 在不太遙遠的未來,人類開始依賴AI等類似的智能技術來處理許多日常工作。AI成為了人類的得力助手,幫助人們完成大量的制式化工作,從而節省了大量時間和精力。 人們開始對AI充滿著好奇和興趣。 核彈級的災害 AI的發明人突然向世界發出了一個警告。 他說:“
Thumbnail
邁向機械公敵 以下為DALL.E所生成 AI崛起 在不太遙遠的未來,人類開始依賴AI等類似的智能技術來處理許多日常工作。AI成為了人類的得力助手,幫助人們完成大量的制式化工作,從而節省了大量時間和精力。 人們開始對AI充滿著好奇和興趣。 核彈級的災害 AI的發明人突然向世界發出了一個警告。 他說:“
Thumbnail
最近在一封公開信中包括伊隆·馬斯克在內的多名科技界領袖和研究人員警告,要求各人工智慧實驗室暫停AI的開發。為什麼呢? 其實多數人並不瞭解AI,甚至許多研究者本身,對AI的瞭解都不夠透徹。AI是以模擬生物腦為出發點所開發出來的系統,從ChatGPT最近的應用中,已經明顯的展現其不可控的部份,並且…
Thumbnail
最近在一封公開信中包括伊隆·馬斯克在內的多名科技界領袖和研究人員警告,要求各人工智慧實驗室暫停AI的開發。為什麼呢? 其實多數人並不瞭解AI,甚至許多研究者本身,對AI的瞭解都不夠透徹。AI是以模擬生物腦為出發點所開發出來的系統,從ChatGPT最近的應用中,已經明顯的展現其不可控的部份,並且…
Thumbnail
AI來勢洶洶,我們的未來該怎麼辦? 世界變化太大太急,讓我們不知所措!
Thumbnail
AI來勢洶洶,我們的未來該怎麼辦? 世界變化太大太急,讓我們不知所措!
Thumbnail
而隨著AI的發展過於快速,以前就有的議題也浮上檯面。例如:道德倫理的疑慮、未來取代人類的可能性,甚至有一說AI未來會有主觀意識,人們難以控制而反被統治。這些對普羅大眾而言相對較不利,除了思考是否放慢開發的腳步外,應當也要想到未來該如何應對。
Thumbnail
而隨著AI的發展過於快速,以前就有的議題也浮上檯面。例如:道德倫理的疑慮、未來取代人類的可能性,甚至有一說AI未來會有主觀意識,人們難以控制而反被統治。這些對普羅大眾而言相對較不利,除了思考是否放慢開發的腳步外,應當也要想到未來該如何應對。
Thumbnail
AI的類神經網絡系統的學習方式,能夠在分析大量數據後,學習某些特定的技能,比如說只要分析過數千張狗的相片後,AI就能知道如何辨認狗,這項技能,讓手機聽得懂我們的口語指令,也能夠即時翻譯,自駕車能辨識機通號誌。 甚至在分析了網路上巨量的文章後,就能夠學會從一串文字裡預測下一個用那個字詞最適當(使用頻率
Thumbnail
AI的類神經網絡系統的學習方式,能夠在分析大量數據後,學習某些特定的技能,比如說只要分析過數千張狗的相片後,AI就能知道如何辨認狗,這項技能,讓手機聽得懂我們的口語指令,也能夠即時翻譯,自駕車能辨識機通號誌。 甚至在分析了網路上巨量的文章後,就能夠學會從一串文字裡預測下一個用那個字詞最適當(使用頻率
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News