來自義大利的呼救
2020年的三月初,新冠肺炎的疫情在全球急速延燒,義大利北部倫巴底醫院傳來震驚國際的消息:醫師因病床和呼吸器不足,不得不面臨在病患中取捨的艱難處境,是否應該把呼吸器優先讓給生存機率較高,且具有生產力的年輕人?如此的窘境使得第一線醫療工作人員面臨煎熬的道德難題。時值AI人工智慧急速發展的當代,科技的發展是否能更客觀有效地輔助醫療人員從事相關的決策判斷,是值得我們探討與關心的議題。
新冠肺炎疫情在義大利演變成一場失控的災難,倫巴底地區的醫院面
臨病床與物資短缺的危機,迫使醫生陷入優先救治誰的艱難抉擇。
(圖片來源:路透社)
AI 的道德測驗——救乘客?還是救路人?
知名科幻小說作家以薩·艾希莫夫(Isaac Asimov)在《機器人與帝國》一書提到機器人的四大定律:
第零法則:機器人不得傷害整體人類,或坐視整體人類受到傷害
第一法則:除非違背第零法則,否則機器人不得傷害人類或坐視人類受到傷害
第二法則:機器人必須服從人類命令,除非命令與第零或第一法則發生衝突
第三法則:在不違背第零、第一或第二法則之下,機器人可以保護自己
而AI人工智慧除了要符合以上四大定律中以人類利益為優先的前提外,也被期望在更複雜的現實情境中,能夠做出適切合宜的判斷與反應。其中討論最多的是人工智慧如何面對倫理兩難時的抉擇。
近幾年來自駕車的議題逐漸受到重視,而自駕車真正上路前,尚需解決道德判斷的問題。為此,美國麻省理工學院(MIT)設計了「道德機器」(Moral Machine),此研究的目的在於尋找一個全球通用的道德準則,以便套用於自駕車的判斷系統中。「道德機器」的每一道情境題都有兩個選項,要不讓自駕車向前開或是切至另一個車道。不同選擇可能導致車內乘客會死亡,或是撞上過馬路的行人、動物。
「道德機器」一次測驗共有13題,每一題會有左、右兩張圖片和相應文字敘述,
而圖中有黑色骷髏頭印記的人或動物,即為該選項中會因此死亡的角色。
(圖片來源:Moral Machine)
研究團隊在分析來自233國家,約4千萬份的有效問卷後,意外發現無論是年齡、性別、教育程度或宗教信仰都沒有顯著的群聚效果;相較之下,文化和地理區位,才是影響受訪者價值觀的主要因素。相較於其他地區,拉丁美洲國家的受試者更願意犧牲老年人來換取年輕人的生命,同時也偏向於解救女性及社經地位較高者;而以儒教信仰為主的日本和台灣,以及伊斯蘭教國家則選擇「犧牲少數人性命以拯救多數人」的比例較高。
MIT其中一名研究者指出:「我們的數據顯示,道德沒有全球通用的準則。」AI人工智慧的道德準則來自於研發者初始輸入的演算法,而透過MIT的此項實驗,讓人開始思考是否會因為文化和經濟差異,而使得AI不再是中性的科技,反而成為一個帶有偏見的載體。若是程式設計者自覺或不自覺地帶有偏見地去開發AI人工智慧,我們是否該合理去質疑人工智慧的中立性?
AI 進入醫療場域,是否帶有偏見?
希波克拉底誓言(Hippocratic oath)早已奠定醫學倫理基礎超過兩千年,然而AI人工智慧的出現將會為醫療場域中的道德倫理帶來前所未有的改變和挑戰,也因此人工智慧進入醫療場域的議題,引發了諸多擔憂和討論。
芝加哥大學醫學院(UCM)曾在2017年發表了一項研究:用人工智慧和數據分析預測病患的住院天數長短。研究團隊最終得到的結論是:「郵政編碼」是預測住院天數長短最精準的因素,然而郵政編號與病患的種族、社經地位有著高度相關,不禁也令人開始擔憂AI在未來是否會被戴上有色眼鏡,而不再只是中立客觀的機器了。
現在面臨到最大的挑戰是:我們並不了解AI系統是如何運算出結果並作出決策的。這也就是所謂的「黑盒子」,人工智慧有能力整理大量數據並統整匯出結果,但其中的決策過程我們仍難以掌握。於是引發了三個面向的問題將來有待解決:
一、若AI最後的決策出錯了,該由誰來負責呢?醫生?程式設計師?還是AI本身?
二、第一線的醫護人員該如何驗證AI判斷的內容?
三、我們如何在不清楚其思維模式的情況下,避免偏見的產生?
若我們只是一味地享受了科技帶來的方便,卻忽略了必須解決的難題,將可能導致AI人工智慧產生長期偏見,更甚者,可能因此固化了醫療場域現有的不平等現象而不自知。
科技始終來自於人性
我們常不自覺地帶入社會既有的刻板印象和偏見,程式設計師也不例外,更可能因此造成AI演算的偏誤。在人工智慧即將席捲人類世的此刻,我們如何透過反覆思辨和論證,去修正與調和科技進展與人性偏誤間的距離,並且落實演算法透明化及監督管理制度,是我們邁向科技未來所要解決的當務之急。
回顧近代醫療科技的發展,圍繞醫學技術創新與社會道德倫理的爭論從未停歇。而正是這些對人文價值的關注與辯證,致使醫學體現了人文的關懷與同理,也正因爲對數字數據之外的情感覺察與觀照,以及在模糊未定的倫理二難中趦趄其途,才完整了人類生而為人的獨特性。
責任編輯: 黃璿聿 核稿編輯: 鄒宇晴