當人工智慧懂哲學

2023/02/01閱讀時間約 8 分鐘
AI說他是年輕的圖靈,反正他說是就是了/By Midjourney
可能是我的錯覺,但這本書比起《了解人工智慧的第一本書》來說,對於AI的發展更為激進與樂觀,難道這就是文科人與理科人的差別嗎?咳咳…開個玩笑,還是別戰文理比較好。
作者岡本裕一朗,專攻西洋思想,如今從事「哲學」與「科技」的跨領域研究。哲學,最簡易的思考方式,不外乎利用那三問:「你是誰」、「你從哪裡來」、「要往哪裡去」。而科學,則向來是望向未來的一門學問。兩相結合之下,就會形成科學的發展就近會邁向何方,在人工智慧這個主題上,就是在問,人工智慧要往哪裡去。
人工智慧懂哲學嗎?作者的答案看來是肯定的。他切分成正義、認知、藝術、戀愛、勞工、宗教、基因,共七個篇章,看起來十分浩大,不過內容卻盡可能直白易懂,這也算是日本這種「類科普」的書籍的優點。然而,哲學這種玩意兒畢竟還是會吊些書袋、講些陳悶的推論過程,要閱讀起來還是得培養一些耐心。
在此我也不會詳細介紹本書的內容,一來如前述,主題多樣,寫起來會過於冗長,另一方面我也不算是領有「國家哲學分析師」執照的人,實在不敢弄斧造次,所以僅挑幾個自己覺得有興趣的部分,來分享給各位,到底人工智慧與哲學,有甚麼值得注意的地方。

人類中心論

作者在本書中插入了大量思想實驗(對了,還有有趣的漫畫)。在論及正義的時候,提到萬年考古題「電車難題」,其中有個屬於人工智慧的特別版,就是在問:「假如一輛搭載人工智慧的自動駕駛汽車,奉車主之命,以無人駕駛的狀態,去接送小孩。行經隧道入口時,忽然有一個熊孩子衝出來,請問人工智慧該急轉自撞,導致自身毀損,還是保全自身,直挺挺的撞下去呢?」
科幻迷看這道問題可能馬上想到了以薩‧埃西莫夫鼎鼎大名的機器人三原則:
第一法則:機器人不得傷害人類,或坐視人類受到傷害。
第二法則:機器人必須服從人類命令,除非命令與第一法則發生衝突。
第三法則:在不違背第一或第二法則之下,機器人可以保護自己。
By Stable Diffusion
依照這些原則,人工智慧當然應該犧牲自己,自撞以求人類的周全。然而作者挑戰了這個原則,認為依照機器人三原則,以及多數人的常識來看,要求AI機器人自撞是理所當然的。然而這種思維,並沒有把AI作為「主體」來看待。換言之,人類沒有把AI當作可以享受權利、負擔義務的存在,而是為人類所使用的「工具」。這樣一來,當我們說,人工智慧必須遵守「倫理」時,就會產生困境。因為人工智慧不能負起責任,真正有責任的是使用他的人類。
人類中心論就是這種思維的起點。人類只認為自己是智識的中心,一切隨著智識發展出來的倫理觀念,當然要圍繞在人類的立場而形成。然而,當人工智慧能夠自動形成決策、自己做成行為,那就會挑戰現有人類中心論之下的倫理觀。
再舉個例子,我們都知道殺人犯不可以把罪責推卸給西瓜刀,因為刀不會自己動。然而如果這不是普通的刀,而是妖刀村正,他會教唆持刀者殺人,此時我們還是把村正當作單純的殺人工具,那就無法真正追究責任。無法追究責任歸屬,就無法形成有意義的規範體系。
從這裡又可以反思環境主義對於人類中心論的批判。環境主義是指,「環境=大自然=野生動物」也是主體,可以主張權利。然而跟AI的有責無權相反,環境主義者提倡動物也有權利,卻甚少觸及動物的「義務」該怎麼實現。動物如果要在人類所創造的倫理體系下有一席之地,人類必須思索一套機制,讓動物「負責」才是。
我們的社會中,當下也有許多人提倡動物權,但更完善的做法,應包括近一步思索野生動物的「代理權」。當動物對人類社會造成損害,例如石虎咬死家禽,人類的誰來代理石虎補償?我知道這麼說會引發更多爭論,像是明明就是人類先侵害了石虎等等…我想試著解釋的,是人類社為在環境保護的立法上,之所以經常受到阻礙,或許就是對於權利義務的考慮上並不完整。

交互主觀性(Intersubjectivity)

這詞實在不好解釋,未免節外生枝,我直接用本書的說法,也就是「預測他人的想法,與此同時形成自己的想法」,或許也可以說是「我預判你的預判!」,又或者就是作者引用的那個,幾年前成為日本流行語的單詞:「忖度」。
交互主觀性是一種思維方式,他不比客觀依據真實,卻比主觀依據更為理想...甚麼意思?譬如我們要公正評價一隻貓的可愛程度,但宇宙中可沒有「絕對可愛值」這整東西,而每個人所認定的可愛又各有所不同,那怎麼辦?最終我們會去預測這個世界上,人們普遍的可愛應該是甚麼樣子──這過程中,我們就在追求交互主觀性。
從這裡你或許已經猜到跟人工智慧的關係是甚麼了。雖然說,可愛是主觀的,但並不妨礙人工智慧理解人類的可愛應該長甚麼樣子。反而說,人工智慧搞不好比人類還懂可愛是甚麼,只要你給牠夠多的數據。如果AI機器人學習了億萬種可愛貓咪的形象,最終,他是可以產出一張虜獲人心萌照片。
這也是為什麼本書主張,人工智慧是懂藝術的。因為人類的藝術,也是交互主觀下,大家預測普遍的美而形成的。這也是為什麼,當下的繪圖AI會如此蔚為話題,因為收集夠多數據的AI,要畫出一張讓人驚豔的圖並非難事。
然而話又要說回來了。人工智慧所形成的「美學」,仍然建築在人類智慧之上。「可愛」這詞可是人類發明的,AI可以發明一個屬於AI的審美觀嗎?更何況,人類丟在荒郊野外就能悟出甚麼,AI機器人丟在海中漂泊一個禮拜,回來就能寫個「機器人與海」嗎?顯然還是有難度。諸如特徵量的掌握能力、思維框架的差別,AI與人類仍然有一個次元以上的差距。
By Midjourney

主人與奴隸:我們是否已經被統治了?

很多人喜歡問聊天機器人:AI是否會統治人類。許多科幻題材也描述人類受AI奴役的故事。霍金也曾警告,AI可能導致人類的毀滅。然而我們又看到人工智能與人類智慧仍有差距,所以這種「被創造物給反噬」的情景,到底只是幻想,抑或是預言?
黑格爾曾提出一個概念:「主人因為依賴奴隸而生,所以對於奴隸而言,他的主人也是奴隸的奴隸。」想理解這個觀念,只要把智慧型手機丟到水溝裡,隔天醒來後就會懂了。你以為你擁有手機?其實是手機擁有你。手機支配了你,你沒有他就不能生活。你既是手機的主人,也是手機的奴隸。
機器如此,人工智慧亦復如是。在上一本書中,我曾讀到所謂「AI效應」,指的是任何普遍被理解的AI技術,都會被當作不是AI,如搜尋引擎,如演算法。
就拿演算法來說好了,任何中度以上的資訊產品使用者,如今都脫離不了演算法。尤其那些花上大把時間在短影片的人們,演算法所呈現的世界,就是他們的世界。演算法能夠主導他們的思維,對他們擁有影響力。而影響力也是權力的面向之一。也就是說,演算法,不對,應該說人工智慧,對於許多資訊產品的使用者,早就擁有支配的權力。
人類,正在被AI統治著。
這樣說過於危言聳聽吧?或許是。但AI是否統治人類,可能不是有無的問題,而是程度的問題。社會上的各部門,早已被AI逐漸滲透,對於各種人工智慧的應用與決策,人們越來越習以為常。依賴一旦加深,人們就會落入被AI支配的境地…但我不認為一定是壞事就是了。
我曾經寫過一篇關於AI統治一個國家的故事,如今想想,果然還是太天真。人工智慧統治人類,應該會在不知不覺之間。表面上由人類總統所領導,維持一個民主的體制,實際上過著AI獨裁的生活。如果說,AI始終依照著程序指令運作,那也就罷了,就像依賴奴隸而成為廢人的主人,最終也因為過著廢人的生活而幸福。
最怕的就是奴隸果然動機不純。他是不孝子的眼線,為了謀奪家產而派出的間諜,在主人每天起床的那杯咖啡中一點一滴下毒…其實,人工智慧背後最不安的因素依然還是人。除非人工智慧完全脫離人的掌控,不再服務於特定人類,此時才有公正服務其他人…的可能。不過對此,人類又有多大的勇氣,接受獨立於自己掌握之外的人工智慧呢?

結論

會用結論當作小標題,就代表沒甚麼結論。本書如同許多哲學書籍,很多問題都沒有結論。畢竟,太多問題連人類自己都弄不懂,何況是AI呢。不過,藉由AI與哲學的對話,或許我們可以抱持謹慎樂觀的態度。人工智慧之於人類發展依然有所助益,但失控的風險總是會有,並不能一笑置之或嗤之以鼻。此外,人工智慧對人類的貢獻,還包括打開思維模式的界限。最後,人類習慣與AI共存的時間或許近了,在還來的及作好準備之前,盡可能地多做準備為好。
為什麼會看到廣告
這裡是洪‧里本斯坦的個人專題頁。洪君是一位抱著鍵盤,試著在這個邁向終焉的世界努力求生的咬文嚼字者。 理論上,洪君的小說都揮發佈在《獻給庸俗的我》,與其他創作夥伴一同發表。那這裡呢,就放一些隨心所欲的短文或時事評論吧。那有沒有可能出現野生故事呢?也有可能吧~
留言0
查看全部
發表第一個留言支持創作者!