圖片來源:https://www.youtube.com/watch?v=Fi4eEsSM7A0
嘲諷AI的笑話
我們先來說一個你可能聽過的笑話,自動駕駛已經成為一個趨勢,我個人是非常樂觀,將來有一天一定會有無人車出現在車道上,不過即便就是AI在自動駕駛,但是AI會不會出車禍呢?
答案當然是會,並不是說AI很容易出錯,有很多研究實驗可以證實,AI的判斷準確性跟反應意外的即時性都比人好得多,但是AI自駕車還是得去訓練,在行車特殊狀況上,比如說不得不撞上人的時候,該如何撞才能對損傷最小,有一天訓練模型出來了,具體它會怎麼選擇呢?
AI假設在一條路上,不得不撞上前方的情況中,會選擇了戴上安全帽的摩托車手,而不是沒戴安全帽的摩托車手,你沒聽錯!這不搞笑嗎?戴安全帽的人,就是愛惜生命,但是AI做這樣的判斷,那是呼籲人們是戴好,還是不戴的好?
其實人們對AI不寬容
其實剛剛說的那個笑話,我相信是真的可能被寫納入,AI機器學習裡的情境,但是大家可不要這樣就隨之起舞,因為大家還要考慮機率的問題,就好像大家都知道中樂透的獎金很豐厚,但是機率卻不大,就有如AI當犯錯,或故障時,它可能會有一些違反人們道德或感情的判斷,但是需要它會這樣執行的機率很低。
但是人們是很難接受,試想想,你需要求償,或是提告的不是人,而是AI。所以人們對AI很不寬容,即便他們的出錯率低到是人的千分之一,你還是無法接受,尤其當你知道對你做出不利審判的不是一個具體的人,而是AI,這種要死請你也給我一個明白死的情感,造成的社會環境,會讓AI的發展會有一些負面的阻礙。
但是AI確實能夠比人們準的判斷
曾經有專家說明,AI對於社會的一些準則判定,非常適合應用,舉例判斷一囚犯,他假釋出獄後,是否會再犯罪的準確度,AI就比法官準確不少。因為法官也是人,只要是人都有喜好,他們的判斷就會帶上個人的價值判斷。比如說該法官曾經錯放過一位黑人,這位黑人出獄後,還犯了一個殺人罪,導致另一個家庭的悲劇。因此這法管以後他對黑人假釋出獄的標準,就比其他膚色的人更嚴格,而眾所皆知這並不公平!
所以已經有很多文獻呼籲,可以使用AI應用在很多社會案件上,因為AI本身不會有個人的價值判斷或情感喜好,導致其實它更公平,但是跟上面的問題一樣,就是當你想知道你假釋沒通過的原因時,你得到的回答是,沒有人知道,因為這是AI算的,你一定不能接受吧!
社會道德與是否需要人的感情
最後判斷社會道德是否需要人的感情,雖然站在經濟學的角度上,我認為答案應該是偏否定的,但是人畢竟是有豐富的情感的,這樣是哈拉瑞,在人類大歷史上說,能夠溝通講故事,使用情感溝通,才是我們人類的祖先,現代智人能夠在諸多人種中,脫穎而出的主要原因,所以要人們放棄掉幾萬年演化中,存在我們基因上的感情,並不容易,所以我認為AI短期內,還是沒有辦法取代人類的情感,因為我們需要感情。