道德,一直伴隨著人類社會的發展,但它本質究竟為何?它來自我們內心的情感,還是理性中的規律?休謨認為道德源於情感:我們譴責暴力,因同情心被觸動;我們讚揚正義,因公平感被激發。相對的,康德主張道德是理性的普遍規律,獨立於情感。這種感性與理性的交織,構成道德的雙重性。我嘗試從哲學、歷史與數位時代出發,思考道德的根源與演變。
休謨認為,道德判斷的根源是情感,當我們看到一個行為,大腦會判斷出「贊同」或「不贊同」。我們之所以看到虐待動物會反感,是因為觸動了我們的憐憫。之所以會讚賞懲奸除惡是因為激發我們的正義感。
常有人說:「站在道德制高點。」,反映出道德的無限擴張性,它缺乏邊界,是極具感性的東西。正因如此,道德有時會被濫用,變成綁架的工具,借感性的力量令他人屈服。它可以不靠法律、邏輯或權力,只靠「應該」與「不應該」來壓迫異己。
基督教崛起之初是少數人的信仰,他們創造了以「謙卑、憐憫、饒恕」為核心的道德,反對羅馬帝國的暴力與權力,強者的強大被定義成「罪」,壓抑了生命的創造性。
然而這種以「謙卑、憐憫、饒恕」為核心的道德觀,雖在歷史上為弱者爭取了位置,卻也可能壓抑了人的主體性與創造性。尼采正是批判這種「奴隸道德」。因此,他宣告「上帝已死」來闡述傳統道德的崩解與價值真空。道德是分發給弱者的武器,它不致死,但能使人痛不欲生。
儘管尼采批判奴隸道德,但不可否認基督教的「平等」為後世種下平權的種子。
法律是由道德的最低點制定,應當是理性且客觀的,它不能處理「你是否善良」的感性問題,但必須處理「你是否傷害他人」這個理性問題。
康德認為,道德是先天存在於人的理性之中,這是一個規律也是義務,出自於完全客觀的必然性且不存在目的,是DNA刻寫在人類理性中的普遍法則。
若休謨主張道德是「來自情感的即刻反應」,那麼康德則主張道德是「理性的普遍規律」。一者強調經驗與共鳴,一者強調義務與形式。二者看似對立,實則揭示道德的雙重性:感性賦予道德驅動力,理性為其構築普遍性框架。
歷史上有很多道德觀,在今日看來是難以接受的。商周時期的祭祀活動中允許人祭,這在我們看來是毫無道德的,是茹毛飲血的怪物。但這並非邪惡之舉,而是合乎禮制的信仰。
在古希臘時期推崇「少年愛」,也就是年長的男性有義務追求年輕的男孩,這段關係不只師生情誼,更是會發展成愛情。這些行為如今被視為違反人倫,但當時卻構成了道德的一部分。
這些例子揭示出道德並非恆定不變,也受時代、文化與權力結構影響。
「我們」用「外人」祭祀,或是「城邦」只接受「公民」才有義務。在理性的介入下,我們從部落到城邦,再到現代社會。我們意識到不同出身、膚色、性別的區別對待是缺乏邏輯的。這種理性的認知,使我們清楚人類都應當享有基本權利。
亞里斯多德對道德或是說「善」認為其具有目的性,追求實踐。他認為善具備均衡、秩序或比例,而為求達到需要幾個步驟:1. 慾望,為行為的開端。 2. 慎思,分析所有手段。 3. 覺知,找出最可能達成的手段。 4. 抉擇。 5. 行動。些步驟表明道德是人為的一種抉擇,是自由意識的行為,是後天養成的習慣。
他將幸福的來源分為三種:營養的心靈、知覺的心靈、理性的心靈。而理性的心靈只有人類具備,追求理性的過程便會產生幸福感。而當理性的心靈過於若小時,人便會做出壞事。
道德,是來自內心的情感共鳴,還是理性中永恆不變的律法?
道德感性,也理性。感性賦予溫度,理性劃定邊界。兩者交織,彷彿一條看不見的繩,將人類綑綁於共同體之中。
從人類歷史走向數據時代,不僅是人與人的約束,也延伸到虛擬世界與機器的關係,人類的道德也面臨轉型。
在網路上相對匿名的方式使人難以感受到對方的感性。當我們相見,彼此的感性會交疊、互相覆蓋,如同呼吸在空氣中交融。而這能將我們的感性限制住,讓理性能夠制衡。
但當無法限制時,這將會演變成無限擴張的感性,壓制理性,產生不遵道德的言論。
且像是網路上的智慧財產權及隱私權等道德問題也難以得到解決。在UNESCO提出了通訊原則與參與原則兩大網際空間法院議題原則以解決網路道德及犯罪問題,事實上由於網路的身份轉換、匿名、自我形象塑造等因素讓人認為遁入虛擬,而不受法律道德規範,這些因素導致鮮有人認真對待。
但網路空間並不會因其的虛擬而跳脫世界,不會也不該是道德的無政府狀態。
當人工智能逐漸參與道德判斷,我們是否該將「他」視為有道德主體性的存在?若道德為感性主導,是否「他」就永遠無法參與道德?若道德是理性規律,是否可以將其程序化?
這些網路倫理學我認為是理性的,雖說是依靠人工智能來判斷是非,但缺少了感性的對壘,我們無法要求其產生屬於自己的道德,甚至也不會讓他這麼做,所以就目前而言,我認為人工智能不具備道德,他缺乏道德的多面性,頂多稱作準道德。
2019年歐盟公布《可信賴人工智慧倫理準則》,要求其行善、不作惡、保護人類、公平、透明公開等倫理原則,這些固然是保護人類的一項措施,但也讓人思考,這是人工智能的法律還是能夠讓他們接受的道德?這並沒有經過個人到社會的道德轉換,而是被強制「應該」及「不該」做什麼,儘管人工智能有自主學習模型,但依舊是可操控的。
第一次出現「人工智能」是在1956年的達特茅斯會議中,是以「讓機器有模擬人類智慧的能力」,即「使機器能夠使用語言、形成抽象概念和觀念,並期望能解決各種目前只有人類能解決的問題,並能自我改進」這樣的想法,作為人工智慧的發展方向。然而雖然收穫了許多,如:LISP等,但核心的「常識推理」與「非單調邏輯」卻無法實現。前者指個體需要與世界的事實與自己連接,從而自主形成達成目標的指示,而後者則是因世界充滿意外,先前的推論不再成立,需要將其考慮進去。
而人類獲取嘗試的關鍵在於我們具備肉身經驗。因為我們會感到痛,所以不能傷害他人;因為惡言會讓人難過,所以不能隨意罵人。但人工智能並未具備經驗的累積,如何能理解道德的涵義。
希爾勒曾經在一個封閉房間中安排一位英文使用者,並放入一本手冊門外的中文使用者會對門內提出要求,而英語使用者則根據手冊做出回應。這時應與使用者並沒有學會中文,而門外的人也無從得知他是否學會中文。
這個實驗表明人工智能並沒有學會事物,而是根據手冊(即資料)做出回答。相對的,在道德上人工智能也只是根據資料上的記載而做出具備道德的回應。
這個實驗讓我們無從得知人工智能是否真正具備知識與道德,他在我們之前的表現是根據意識的操控還是資料的蒐集,我們就像實驗民外的中文使用者,只能惶恐的猜測。
道德原先是在個體,接著才是群體的普遍性,這種做法固然讓人工智能擁有現在的道德(或是說那間公司的道德),但並未經歷成長,這就像一隻甲蟲突然接受人類道德一樣奇怪。
道德是推進人類的鳴笛聲,卻也是偏離個體的鎖鏈,我們被困在同一條船上,被迫的向鍋爐鏟入煤礦,但只有如此,才不會成為下一個燃料。
在目前的時代,感性因網路而逐漸放大,我們該試著追求理性的平衡,產稱共識的網路倫理。而人工智能的定義應更嚴謹的討論,作為工具目前已近成功,但作為智慧卻有待商榷。