人類和機械最大的差異就在感性的部分,對於人類的浪漫性格,規則與理性並不是我們至高的推崇,我們人類崇尚感性的生物,當遇上理性與感性相互碰撞的情況下,往往感性更能在人類社會裡略勝一籌,因此我們只將規則、或說法條訂為道德的最低線,設定出群眾必要達到的最低額度,至於更高的要求則依靠社會的共識與氛圍來互相砥礪,來達到最大公約數的滿意社會。
然而這份『最大公約數』卻讓機器感到困擾,究竟滿足社會風氣的道德二字該如何書寫,若機器可以發表意見,我想它一定對人類的模糊性與複雜性感到苦惱不已。
機械之於規則
規則可以說是所有機械的基礎,在一定的情況下維持一定的工作與決策方式可謂是機械追求的至高,穩定、高效兩張標籤貼在機器前方,就像在諷刺我們身為人的猶疑與混沌,但不論機械如何抗議人類,人造物終究還是要為了服務人類而努力,並且機器有必須了解人類的責任。史蒂芬·霍金(Stephen Hawking)曾經對時下AI技術發表過看法,『一旦人類開發出完整的AI,它將自行起飛並以越來越高的速度重新設計自己』,此話便是在警示人類社會,必須要知道人工智能將很有可能將是機械的突破點,而突破『人造物』的機械若無法擁有道德與倫理的意識,這將會對人類文明產生根基上的風險。
因此現在該是讓機械暸解我們的時候了。
從規則到道德的路上
從規則到道德的路上可不是一蹴可幾,人類推動這巨大的道德滾輪千百萬年,在社會發展、環境變遷、歷史背景等等的過程中不斷調整、建造,如今已成為只能用『道德倫理』四字來說明的巨大滾輪,在人類的推動下也在幫助人類運作著社會。因此了解人類追尋多年的道德倫理可不是一件容易的事情,這些共識不但難以書寫歸納成冊,這些共識又是如何在我們社會中良好運作的,一切的問題我們都無法精確的描述出來,更別提說找出解釋了。
而當機械想要加入這巨大社會滾輪,勢必會有許多問題必須要克服,像是社會價值觀的了解、人類內心的推測,都是機械必須了解的人類情懷,但這樣訴說問題實在過於模糊,別說很難於向機器傳授『道德』了,連工程師和大眾在面對問題時能不能對於道德倫理有精確的解釋都是一個未知數。
為此,麻省理工學院媒體實驗室開始了一個長期追蹤,一個為了解『道德』而開始的實驗。
『無人駕駛汽車的道德困境』
歡迎來到“道德機器”(Moral Machine)。道德機器是一個致力於收集人類針對未來人工智能(如自動車)可能會遇見的各種道德難題的意見的平台。在此遊戲中,我們將會呈現給您一個自動車必須在兩難情況下做出選擇的道德衝突判斷(例如選擇犧牲車內的乘客或撞死路上的五名行人)。
作為一個旁觀者,你需要『判斷』其中一個其中是更可以接受的事實。分析完成指定的問題後,我們可以提供您與其他人的想法的分析結果。
我滿建議大家花一點時間來嘗試這款遊戲,我在文尾端會放上該遊戲連結,該遊戲不但可以體會人類在現實情況下的掙扎,也可以知道自己與社會『平均』道德觀的差異。並且當我們完成之後也等同於在推動該計畫得成長,這是一個長期的追蹤,不但是有助於了解社會大眾對於道德的想法,也是在觀察當社會在被推動向前的時候,道德會如何應聲改變。
就個人而言,我想機械在通往全面完整人工智能與人工智能了解道德倫理上都還有不小的距離,我們還有時間去思考在這複雜的人類協作社會中,我們該如何針對機械進行推動,並且更深層的去了解我們對於社會的看法。