今天很囉嗦,慎入,慎讀。
如題。是這樣的,先從前言說起。
有一個道德推論的發展階段理論,心理學家柯爾伯格Kohlberg提出的,
這種心理學的東西,我本來也不知道,
是因為牽涉到女性倫理學的爭論,
所以才在倫理學的書上看到的。
意思大概是這樣:
假設,某人的太太生了重病,先生沒有錢買很貴的藥,
那麼他是不是應該去偷藥呢?
就是類似這種道德衝突的問題。
科爾伯格的實驗結果認為,
人的道德發展有6階段,只有到了第6階段的人,
才會發展出康德式的道德觀、能根據自己的普遍規則,
勇於打破世俗規範。
然後女性倫理學的學者們就反對了,
簡言之,他們認為這是性別偏見。
因為女生不一樣,用同樣的例子去問她們,
她們的答案傾向於亞里士多德的德性倫理,
而不是康德式這種規則主義。
以上前言,說得太長了。
重點是,
最近看《人工智能哲學15講》同一系列的《心理學15講》,
(熟悉的理由,因為2本有打折),
我看到這個實驗的介紹。
非常意外地看到作者說,
只有少數人,能夠發展到第6階段,形成自己的倫理觀,
大部分人終其一生,
都不能從世俗權威的規範中脫離出來。
這讓我大吃一驚:
難怪!
從前上課講到道德衝突的解決方式,
譬如說,孔子說,
啊,「父為子隱,子為父隱,直在其中矣」,
小朋友們都不太有反應。
原來是因為,大多數人不太能發現,原來這是個問題!
害我只能用「我和你媽媽同時掉進水裡你要救誰」這種問題,
來當成例子。
只有用這種例子,小朋友才會「喔~~~」恍然大悟,
露出邪惡的微笑。
原來是這個原因啊。
而像我這種「視人間律法為無物」(幹,我不是柯文哲)的人,
當然很能理解這種問題的意義啦。
××××××
於是回頭想起同系列的人工智慧那本書。
不好意思,
對岸說人工智能,我還是習慣說人工智慧。
之前不是也看了幾本人工智慧哲學的閒書嗎?像是《超智慧》之類。
我發現,
關於道德推論,AI領域的專家們,
基本上根本放棄規則主義了,也就是康德不考慮,
也放棄結果主義了,也就是效益主義也不考慮。
為什麼呢?
因為,舉例來說,前者沒辦法用形式邏輯來表達,
而後者沒辦法定義結果的範圍,也就是會遇到「框架問題」。
那怎麼辦呢?
專家們的想法還蠻一致的,就是乾脆讓AI自己學習什麼是道德。
也就是,給他人類行為的資料,讓它自己學,
就像給他職業棋士棋譜,讓alphago自己學圍棋一樣。
但是這也有問題,
因為人類的行為常常很邪惡,說不定這樣一鬧,
會把AI教成大魔王。
所以,《人工智能哲學15講》的作者想了一個辦法:
把儒家的書和廿四史中的道德典範,輸入資料庫,
讓AI去學習。
天啊,讀到這裡,我真的是毛骨悚然!
要是真的出現這種道德AI機器人,
人類的生活,會不會比背《弟子規》還慘呢!
××××××
好了抱歉,其實以上都是前言。
我想問的是,
「落水困境」,這個東西,讓AI學習之後,
它會怎麼處理呢!
不知道耶!
因為就算是儒家經典、廿四史,
也沒有直接寫「我和你媽媽同時掉進水裡你要救誰」的例子。
說不定有,但是我不知道。
所以他會怎麼做呢!說不定會很恐怖!
所以迄今,還沒聽說有人幹這種無聊的研究。
然後,雖然剛才說,基於規則主義的AI已經被放棄了。
但是,最近買了艾西莫夫《基地》的我,
還是會忍不住想起他的「機器人三原則」。
我也說過,
在我小時候,讀到大山書店的盜版科普書,
一定都會提到這個機器人三原則。
啊,真是懷念!
1:機器人不得傷害人類,或坐視人類受到傷害;
2:除非違背第一法則,機器人必須服從人類的命令;
3:在不違背第一及第二法則下,機器人必須保護自己。
假設真的遇到「落水困境」,可以想見,
AI機器人就會卡在那裡,一直想、直到燒壞CPU,也不知道怎麼辦!
因為:
媽媽說:「先救我!」
根據1,不能坐視人類受到傷害,所以機器人準備聽媽媽的命令了,
但是,這樣做,就會坐視老婆受到傷害,
所以根據2,就不能聽媽媽的命令。
然後老婆也說:「先救我!」
同樣地,
根據1,不能坐視人類受到傷害,所以機器人準備聽老婆的命令了,
但是,這樣做,就會坐視媽媽受到傷害,
所以根據2,又不能聽老婆的命令了。
所以機器人就會卡在那邊,當機了。
天啊,艾西莫夫據說構想了很多巧妙的例子,
來打破自己的機器人三原則。
殊不知,「落水困境」就這麼簡單、一瞬間讓機器人燒壞了!
所以,各位女同學!
你們不要再問「我和你媽媽同時掉進水裡你要救誰」了!
這個問題,
連AI都解不出來!太殘忍了!
還是釣魚人的解答簡單多了!