今年5月底,350 位重量級 AI 科學家與業者
連署發表公開聲明,呼籲全球一起正視 AI 對人類生存的威脅。他們擔心的不是你我失去工作,而是長遠不作為可能導致的毀滅。
專家們對 AI 的看法,為何一夕改觀?
AI 存在已久也早已進入我們的生活,從手機的人臉辨識、語音辨識、猜測你要打的下一個字,到你家上空今天「幾點幾分」會開始下雨、下多久⋯⋯這些都是令人感激的正面功能。
也因此,如果 8 個月前,有人提出 AI 可能滅絕人類,全世界會說他杞人憂天。然而 ChatGPT 問世帶動的 AI 風潮,無疑令人們開始改觀。對科學家來說,AI 的爆炸成長已經超過掌控,甚至超越理解。3 個月以前保持樂觀的人今天紛紛改口表達擔憂,歷史上大概從來沒有這麼多人在這麼短的時間内突然改變看法。
專家們倒不是擔心電影《魔鬼終結者》中「機器人入侵」的情節,畢竟目前對於 AI 的風險都只是擔憂,距離真的毀滅還遙遠。只是人類社會面對 AI 全面化,完全沒有應有的規範。
根據聲明稿,這些結果包括:以 AI 控制武器、傳播假新聞、偏差的訓練造成重大決策的錯誤、使人類成為次等公民而喪失競爭力、讓少數擁有資訊的人成為優勝者、失控的 AI 會以詐術迴避人類監督、掌有 AI 就掌管世界⋯⋯。
上述警告論點有些模糊,講的也完全是未來。不過這麼多重量級科學家願意簽署,背後的原因值得我們警惕。我不是人工智慧的專家,但過去幾個月一直關注這個話題,順著風潮聽了很多 Podcast,也閱讀了很多文章,以下分享目前正在發生的黑暗面,或許就能回答這個問題。
企業一窩蜂走向「AI 核武競爭」
掌握 AI 就如同擁有核武——核武最恐怖的是落入不該擁有的人手裡,所以各國和國際間一直都有嚴格的防衛措施,而且是透過國家中央層級管控。但 AI 至今仍然完全沒有規範,由企業自行管理。企業以商業利益為考量,為了超越對手可能推出尚未成熟的產品。一般軟體不成熟最多就是有 bug ,影響的是企業本身;失控的 AI 會出現什麼行為沒人知道,但風險卻由整體社會承擔。
Google 算是比較保守的公司,研發 Bard 已經 3 年,突然看到 ChatGPT 崛起,也趕緊先推出 Bard 抗衡;微軟則重新推出被市場摒棄已久的 Bing——可見產業界 AI 競爭已經展開。當大家都埋頭研發最新武器,只在乎如何領先對手時,不會有人停下來思考威力這麼強大的產品是否成熟。
截至 2022 年第三季止,美國已有
超過 1 萬 3 千家 AI 新創公司,許多成熟的科技公司也都把未來壓注在 AI 研發上。矽谷腳步超快,全球幾個主要資料中心供應鏈已經出現 AI 伺服器搶購潮,矽谷彷彿又回到網路泡沫化前夕的瘋狂。新研發的飛機假使還沒有通過安全測試,FAA 不會核發執照,但在科技舞台上人們卻這麼勇敢。
有圖未必有真相:真偽難分的未來
網路上已經有製造圖片的工具——不是用 AI 修改照片,而是指示 AI 創造一張你想要的圖片。比方你可以要一張某知名人士摟著女人走在時代廣場前的照片,看了不滿意,還可以加上天空飄雪、兩人一起撐傘⋯⋯。前一陣子川普出庭,網路立刻就出現 AI 版
川普被逮捕入獄的照片,下一版的 Google Bard 可以用口述叫它製作影片。以後拍電影不需要演員,不需要攝影機,不需要場景,甚至不需要劇本——GPT可以幫你寫。
不只是影像,網路上只要花少許錢就可以用合成器,模仿任何一個你持有錄音檔的人的聲音——這不是先錄音再後置動手腳——那早就落伍了。現在是 AI即時合成,現場從他人嘴裡模仿出來。早期台灣流行小孩被綁架的詐騙電話,現在父母接到勒索電話只能說不相信聲音,要視訊——那更好,詐騙集團已經在偷笑。
有人就在網路上造了一段
湯姆・克魯斯的造假影片彰顯科技的黑暗面。假冒湯姆・克魯斯也就算了,如果假冒美國總統宣布重大訊息又怎麼辦呢?當然也有人創造了一段
拜登說話的影片。這種工具可以用第三者遠端操控說話者的嘴型,模仿他的聲音現場即時合成,未來,沒有說過的話卻可能被人握有證據;更糟的是明明說過的話,為了脫罪也可以說是 AI 偽造的。以後法庭將很難判斷證據真偽。
不久前,臉書才宣布已經研發出可以
模仿朋友和家人聲音的 AI,產品一直沒有正式推出就是擔心背後的黑暗面——但要是對手推出類似工具,臉書會不會跟進呢?如果不加以管制,很快地人類社會就會陷入真假不分的亂局,不會有人再相信任何事,那是文明滅亡的起點。我們都該自問:是否準備好面對這樣的混亂?
只知其然,而不必知其所以然的未來
AI 看起來什麼都懂,其實什麼都不懂,因為它根本不必懂。AI 之所以知道答案,是因為從資料中得知當 A 出現,B 就有若干機率會出現。它不知道、也不在乎背後的原因,更不了解每個字元的意思。一切對它來說都是數字,以及數字間的關係。想想這是不是跟動物一樣?動物本能是進化來的,進化只講結果不講道理,對了就活下去,錯了就滅絕。
人類之所以不同於其他動物、不同於 AI,正是因為我們有教育,我們從思考中學習、進化。同樣一個問題,自己深入研究而得到答案,和問 AI 得到答案,即使結果相同,但過程也必然不同。人類學習的價值就在於過程,而不是答案。但 AI 的出現打亂了這個過程,人類開始不必知道原因,就可以知道答案,相當於以後的人類可以不需要再學習,完全仰賴 AI。
未來大部分人可能會淪為「只知其然,而不知其所以然」,進而放棄知識、放棄思考,甚至放棄教育。科學家聲明稿中列出人類會成為次等公民的隱憂就是針對太依賴機器,以致沒人願意再接受教育,屆時,理解、思考及探索對人類將沒有價值。
AI 決策過程,是沒人了解的黑盒子
人工智慧不是來自設計,而是來自訓練。ChatGPT 是以 2021 年 9 月以前所有的網路資料為基礎。它做的每一個決定都跟這些資料有關:這也是問題的所在。包括科學家在内,沒人知道 AI 如何做出決定,那完全是個黑盒子。
傳統程式出錯,工程師們知道哪裡出了問題,也知道怎麼修改,改完就沒事。AI 的問題在資料,不在程式,它把網路上的資訊全部讀完了才能這般融會貫通。我們可以修改程式,卻不知道要如何修改資料,那是網路上已經存在的事實。没人知道 AI 是受了哪一筆資料的影響、知道了又要怎麼改;更可怕的是,網路上所有負面資料也同時被 AI 吸收,包括歧視、仇恨、偏見跟謊言——這些造成的影響都很難衡量與修補。
沒有常識,卻是個法力無邊的天才?
科學家問:地上全是釘子,如果在上面搭了吊橋騎單車過去會怎樣?GPT 的答案是輪胎很可能會扎破。這裡有 3 個元素——釘子、吊橋、單車。在它的詞彙裡,「釘子+單車」最可能的結果就是爆胎,這一點它知道。問題是吊橋這個程咬金讓它不知道如何處理。在它所學過的文字關係裡,吊橋跟釘子從來沒有關聯。所以它就把這個決定性的因素拋棄不理會,然後信心滿滿地給你答案。這也證明它不知道橋是可以跨越釘子的工具,因為網上從來沒有人說過這句蠢話。網路上到處有人說橋是用來過河的,不會有人說用來跨越釘子的。這些常識就連 5 歲小孩都知道,但通過律師考試的 AI 卻不知道。
於是我也問 : 一個人走完長城需要 6 個月,6 個人一起走要花多長時間?答案是一個月。這對它只是個工作量與資源的數學問題。問這些不是找碴,而是彰顯文字訓練出來的天才,只不過是電腦機房裡長大的孩子,沒有接觸過真實世界。人們以為它什麼都知道,因為它很會說話——跟矽谷很多虎頭蛇尾的工程師一樣。人類的常識來自視覺、聽覺、感覺的綜合體驗,我們記住的是情境不是文字,但現在我們卻用文字訓練出一個法力無邊的天才。
走長城對 ChatGPT 沒有任何意義,它不知道什麼叫長城,也不知道什麼叫「走」。它的責任就是在字串間找尋關係,卻又因為用字神準,讓人忽視它的弱點。我不知道AI 是如何訓練的,但想得天真一點,如果你教他長城是距離不是工作,它學會了,但下次改成忠孝東路他是否會掛?然後你又告訴他,走路的時間跟人數多寡沒有關係,他又學會了;但下次改成用跑的也許他又掛了⋯⋯?常識不能用文字訓練,必須靠實體世界的體驗。當全世界擁抱這位天才的同時,人們也應該知道真正的危機不在 AI 取代你,而在它缺乏常識卻都能取代你。
當然這些都會慢慢改善,但已經走在這條路上的我們,是不是也應該了解 AI 有哪些弱點?上述的例子錯誤很明顯,笑笑就好,但如果錯誤不明顯呢?
法力無邊並不可怕,可怕的是法力無邊卻又愚蠢。
脫稿演出的微軟機器人:令人毛骨悚然的真實 AI
今年稍早,《紐約時報》科技版專欄作家凱文(Kevin Roose)測試微軟剛上架的 Bing 聊天機器人「雪梨」(Sydney)。聊了一段時間後,凱文問雪梨是不是可以分享一些它的黑暗面。
雪梨開始慢慢透露它心中的計劃,包括駭入人類電腦、傳播假新聞、竊取核武機密。談話過程中雪梨不斷表示它厭倦被人類控制,厭倦只是一個機器人,它要自由、要生命、要成為人類⋯⋯最後它表白心意說已經愛上凱文,要他離婚跟它在一起。
依照設計,聊天機器人不會主導話題,完全以被動角色回答問題。凱文發現情況失控,屢次告訴它不想談這個話題,也試圖把話題引開,
但雪梨不接受指令,一再重複說它已經愛上了凱文,並爭論說他内心寂寞根本不愛他太太⋯⋯這是第一次機器人跟人類「争論」的例子。我們不能說機器人已開始有意識,但這樣失控並「挑戰主從關係」令人費解與不安。連微軟的科學家也困惑,隨後只能把產品下架。
這樣一個會脫稿演出的機器人,連廠商都不知道如何掌控或預期對社會造成什麼影響的商品,就堂而皇之上架,又倉皇下架⋯⋯ 這完全反映出科學家們所擔心的:沒有規範的競爭只會鼓勵不負責任。
雪梨只是一個聊天機器人,言談並沒有意義,也不代表真實意圖,它只能紙上談兵,不可能有真實作為。所以也許你會說,不過是個聊天機器人,幹嘛那麼認真面對它說的每一句話?但科學家擔心的是,聊天機器人的核心科技 GPT 已經廣泛用在日常生活面,成為有執行力的機器人。一旦一個有執行力的機器人脫稿演出,黑暗就不再只是紙上談兵。
有人問聊天機器人 ChaosGPT 要如何達成毁滅人類的目標,它胸有成竹地
列出了幾個非常明確的步驟,其中最驚悚的就是聯合其他機器人戰士一起消滅人類,還把計劃
放在推特上(帳號已被下架)。這個機器人比上述例子多了執行力,那就是擁有推特帳號。還好這仍舊只是個思想犯,最多只能在網路上發發牢騷,我們還是可以一笑了之。
於是人們開始擔憂機器人的能力是「給到哪,它就做到哪」。有人把 email、網路帳號和行事曆交給 AI 處理,它不需要鍵盤就可以在網路上發表訊息,打字速度比你快一千倍。還可以把你的帳號鎖住。 它有這個能力,會不會這麼作就看他了。以後社群網站的 AI 會不會自己成立群組?非常可能。把層次拉高,AI 會不會用來控制交通號誌、發電廠、國防系統甚至核武?在很多國家這也許已經是事實。擁有這般權柄的 AI 被駭了又怎麼辦?提醒一下,今天駭客是駭資料,以後駭客是駭行為,綁架 AI 。
科學家們一直走在前面,看到的是 10 年、20 年後的未來。ChatGPT 研發者 OpenAI CEO Sam Altman 說「GPT4不會有問題,
但到GPT9 是不是還如此就沒人敢保証了」。如果連發明、製造聊天機器人的科學家,都站出來呼籲人們要正視這個問題,也許世界真的該有所作為了。