更新於 2024/09/03閱讀時間約 9 分鐘

《AI製造商沒說的祕密》:一場幾近成功的追尋,是否會走向失控?

自AlphaGo在 2016 打敗棋王李世乭以來,人工智慧、深度學習等字眼相信大家早已不陌生。面對這個 AI 急速發展的時代,你對這「智慧」了解有多少呢?推薦這本《AI製造商沒說的祕密》,帶你一探AI的崛起之路,思索「它」的可能與危險。
作者凱德.梅茲是《紐約時報》科技記者,長期深耕人工智慧、自動駕駛、機器人等領域。書中他從「人」的角度出發,為讀者帶來一場精彩的AI演進簡史。取材嚴謹,敘事流暢,讀來暢快又引人深思。
我的構想不是寫此一科技,而是研發此一科技的人。

【AI的起源】

1958 年, 29 歲的康乃爾教授法蘭克.羅森布拉特與他的海軍同伴展示了一個名為「感知器」的機器。羅森布拉特將兩種卡片塞入機器,一張左邊有方形記號,一張在右邊。起先機器無法辨別差異,但在 50 張卡片後,它開始能分辨卡片上的記號,左邊、右邊、右邊……,作答精確無誤。
羅森布拉特表示,這是套模仿「人類大腦」的數學系統。在未來,「它」將可以學會辨識手寫字體、口語指令,甚至是人臉。據《紐約時報》報導,海軍官員對於是否要將其稱為「機器」有些拿捏不定,因為它太像「人類」,只差沒有生命。
海軍設計出能夠思考的科學怪人
感知器是最早的「神經網路」之一,可說是AI(人工智慧)的起源。羅森布拉特預言現在看來精準的駭人,而他也被稱作是深度學習之父。不過他在43歲時意外過世,繼續推動AI走到今天的,是一群神經網路狂熱者……
馬克一號,最早使用感知器的機器系統(引用自維基

【AI黑手黨】

羅森布拉特的目標是打造能像人腦般「自我學習」的機器。科學家稱這樣的概念為「連結主義」,因為它需要大量「神經網路」連結運算。與之相對的是「符號主義」,其步標是打造能根據人類指示,在不同狀況下做出不同反應的機器。
現在神經網路已然是人工智慧顯學,但這領域一度面臨寒冬。過去很長的一段時間,神經網路發展極度遲緩,不但被政府大刪預算,大多數科學家也都轉向符號主義的懷抱。那段時間,研究人員為讓論文被接受,甚至故意用像「函式近似」或「非線性回歸」等名詞取代「神經網路」。
即便憋屈,但仍有一搓人對神經網路的充滿信仰。這領域的關鍵人物有三人:辛頓、楊立昆與班吉歐。整本書內容幾乎都環繞在這「三巨頭」身上。而他們也在 2019 年獲得電腦界諾貝爾獎的「圖靈獎」。
當然神經網路的成功,絕非只靠這三人,還有太多太多人的共同努力。光書中提到的就有數十人。在閱讀的過程中,我感受到這群人對「夢想」的狂熱。如同《失控的轟炸》中那群相信精準轟炸的轟炸機黑手黨般,這些人同樣抱著宗派式的狂熱,對神經網路一往情深。開放人工智慧實驗室領導人阿爾特曼形容得傳神:
自信是一股非常強大的力量,我所認識最成功的人士都相信自己,堅信不移,甚至已到幻想的地步。
隨著神經網路、深度學習的概念被認可,這些狂熱終於轉成真金白銀。各大科技公司都捧著高薪求才。書中提到,即便是剛出校門的菜鳥博士,年薪都高達 50 萬鎂。看得我不免感嘆入錯行(笑)。敝司在美國給新人博的價碼連 20 萬鎂都不到,根本雲泥之別……
書中描述各種瘋狂搶才大戰,鬥智鬥力可說相當精彩。最後谷歌搶到了辛頓,而臉書則擁有楊立昆,而他們的徒子徒孫們也都進入各大公司,一展長才。
人工智慧引發眾科技公司的搶才大戰

AI的強大可能】

話說回來,大家常聽到的「深度學習」到底是什麼?它是一種「多層」神經網路。不像感知器只有單層,這方式可以藉由將訊息傳輸給下一層,學習更複雜的事物。
比如給系統看一張狗的照片,第一層會分析像素顏色(黑、白、棕……);接著將結果傳給第二層,第二層進一步分析像素模式(直線、弧線……);第三層會繼續檢視這些像素的其他模式,以此類推……最終就能辨識出一隻狗的形象。
當然要實現這想法並沒那麼簡單,光辨識出一隻狗,就花了科學家大把時間。不過在這群狂熱者的奮戰下,深度學習開始在各領域攻略城池。現在的深度學習系統已能精準判讀語音;穩定辨識手寫字體;順利在不同語言間轉譯;甚至還能作曲作畫。而最廣為人知的例子,或許是AlphaGo擊敗前世界圍棋棋王李世乭。
書中有個例子讓我印象很深。辛頓的學生喬治.達爾參加由默克藥廠發起一項競賽。這競賽想探討的是一種稱作「定量構效關係」的藥物研發技術。但達爾壓根不曉得這是什麼,卻依然用深度學習系統獲得優勝。如辛頓說的:「喬治橫掃整個領域,卻還不知它叫什麼。」
這讓我想到《反脆弱》。深度學習系統似乎就實踐其中提到,不用了解「理論」,而是藉由反覆試誤、調整找到更佳解的模式。人工智慧用強大的自我學習能力,找到人類不能企及的新可能。谷歌前執行長史密特說得巧:
在科學與生物學中,存在許多人類看不到的模式,而在辨識出來後,可以幫助我們開發出更好的藥物與解決方案。
看起來很美好,但這一切並不是沒有隱憂……
AI似乎前不不可限量

AI的問題?】

從眾人看衰,到攻無不克,AI的未來看似一切光明。但隨著人工智慧逐漸強大,許多問題也浮上檯面。

〔隱私疑慮〕
辛頓的學生蘇茨克曾說,神經網路的優勢是你只要餵它資料,它就可以自我學習行為。
但問題是你要先有「資料」。
深度心智的創辦人蘇萊曼曾打算透過進行一項計畫,透過讓 AI 分析病患醫療紀錄(血檢、生命跡象、過去醫療史等),預測「急性腎損傷」。急性腎損傷發生率高(每 5 個住院病人就有 1 人),甚至可能會喪命,但只要及早發現就能治癒。
原本深度心智已經與皇家醫院國民保健基金會信託金簽約,獲取 160 萬名病患的資料。但在《新科學人》雜誌揭露此合作案後,馬上就引發眾人對隱私權遭侵犯的恐懼。最終這項合作被英國主管當局判定違法。
不管你希望深度學習攻克哪個領域,都要有大量的資料供它自我訓練。但當其牽扯到個人隱私時,狀況就變得相當棘手。
資料應用與隱私的權衡永遠是難題

〔訓練偏誤〕
另一個問題是,深度學習的訓練可能會產生「偏差」。
書中有個駭人的例子。谷歌所提供的智能辨識系統竟誤將非裔美國人識別為「大猩猩」。因為當初在建立辨識系統時,工程師多為白人男性,而他們挑選的資料也幾乎都是白人,這導致系統對有色人種判斷力不足。
除了餵養的資料可能會有偏差,還有一個更難解的問題:訓練標準
隨著社群發展,假新聞與仇恨言論得到前所未有的放大。臉書創辦人祖克柏就聲稱能透過人工智慧,撤除這些「有問題」的資訊。問題是連人類都很難對什麼是假新聞,什麼是仇恨言論達成共識,又要怎麼訓練機器去判讀呢?
不若圍棋或星海等遊戲是封閉環境,有清楚規則與判定勝利的標準,現實世界沒有人會打分數。如電腦科學家喬艾.布蘭維尼說的:
我們該以由誰的決定進步的意義?有該以何種標準決定進步?
我想,這問題恐怕永遠都難有解答。
如果連人類都不知道方向,那要怎麼訓練系統呢?

〔誤用危機〕
更糟的是 AI 被用到壞的地方。如三巨頭之一的班吉歐說的:
我們的工具可以使之為善,也可以使之為惡。
對於能將AI應用在哪些領域一直都存在爭議。如 Deepfake 強大的換臉功能,就成了許多女性的惡夢。《紐約時報》也曾報導中國政府利用人臉識別,追蹤與控制維吾爾人。如作者所言:
深度學習創造出一種力量,即便當初的開發者也無法完全控制。
無怪伊隆·馬斯克會說人工智慧可能毀了人類……而解方或許如深度心智創辦人之一的蘇萊曼所說的:
我們在建立科技之前,必須審慎思考此一科技會如何遭到誤用的問題,還有如何將其至於監管之下的問題。
像當初深度心智在出售公司給谷歌的合約中,就訂下兩個條件:
  1. 禁止將深度心智的任何科技應用在軍事目的。
  2. 成立獨立倫理委員監督人工智慧科技使用情況。
事實上他們當初決定將公司賣給谷歌而非臉書,原因就在於祖克柏並不認同他們對人工智慧可能造成的道德疑慮,拒絕成立監督委員會。
另外,更多元的參與或許也會是解方。如美國計算機科學家蒂姆尼特.蓋布魯說的:
如果許多人被排除在創造人工智慧的過程之外,此一科技僅會讓少數人獲利,卻會對無數人造成傷害。
要如何確保人工智慧不會被用在錯誤的地方呢?

【後記:圍棋的那點小事】

身為業餘圍棋愛好者,我永遠無法忘記當初追直播時,看到李世乭投子認輸的震撼。
書中提到的神奇37手,以圍棋術語來說叫5路肩衝。傳統認為4路是極限,但 AlphaGo 卻硬上5路。事實證明那是步好棋。
第二局第37手(截自DeepMind
我更無法忘懷的,是看到李世乭在第四局使出渾身解數打出 78 的鬼手,成功爆破中央,幫人類短暫守住最後堡壘時的感動。
第四局第78手(截自DeepMind
現在圍棋使用AI輔助已非常普遍。棋手都會用AI訓練,甚至直播時也會放上AI勝率圖供觀眾參考。
第五屆吳清源杯世界女子圍棋賽16強:黑嘉嘉七段 vs.於之瑩七段,盧鈺樺四段 vs.李赫五段(截自海峰棋院
對於現在不時有AI取代人類的說法,我覺得圍棋的模式或可作為參考。如上頭說的,現在棋手都會用AI訓練,用電腦的推薦選點作為行棋參考。
但這並不意謂著AI取代人類。事實上,有些選點根本超越人類理解,就算照著下也無法掌握之後的變化。當今圍棋第一人申真諝在專訪中就提到,希望AI增加參考選點,讓棋士能有更多選擇。
或許這就是人類與AI能共榮的模式吧?藉由人工智慧協助,對人類遭遇的各種問題提供更多可能解方。而最終還是要靠人類自己選擇,找到最適合我們的出路。
我想,不管面對隱私、誤用等問題,最終還是要回歸到「人」,思考這些應用是否能為人們,甚至是整個世界的其他生物帶來更好的環境。納入更多元的角度才不會走偏鋒,而能利用 AI 開拓出更嶄新的道路吧!

↓↓也歡迎大家來追蹤〈姆斯的閱讀空間〉的臉書和哀居↓↓
姆斯的閱讀空間 FB 姆斯的閱讀空間 IG
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.