更新於 2024/08/02閱讀時間約 24 分鐘

愛麗絲Alice 第二章 對聯與正義

raw-image

當身邊還沒有多少人知道ChatGPT的時候,江文彬就已經從外國媒體得知因為微軟公司與研發AI人工智慧的OpenAI公司合作,讓微軟公司開發的搜尋引擎軟體Bing得以結合人工智慧的技術提供更便利的搜尋服務。這個技術上的結合讓搜尋引擎的使用模式有了顛覆以往的進步,也因此使得OpenAI公司開發的人工智慧聊天機器人ChatGPT成了時下最火熱的話題。再加上最近臉書、IG上突然冒出許多如過江之鯽的各式身材火辣面容姣好的美女圖片,竟然都是透過AI的演算技術生成繪製出來的。當江文彬看到這些幾可亂真的美女圖片時,再加上他所知道關於ChatGPT的相關新聞,他深深有了一個感覺,在這未來的世界當中,如果不是親眼所見甚至如果不是親自接觸到,人們將無法分辨什麼是真的,也無法分辨什麼是謊言,謠言與虛假訊息將會在人們無法辨識其真偽的情況之下在全世界竄流,很快的,AI技術會成為新世代的犯罪工具。這個時候在江文彬的心中出現了一個想法:

沒想到這麼快,下一個奇異點已經來臨了!

奇異點理論是根據科技發展而總結出的一種觀點,認為人類發展在接近一個會使得現有科技被完全拋棄或者人類文明被完全顛覆的事件點,這個事件點稱之為奇異點。除了文明被顛覆之外,在這個奇異點之後的未來世界觀也將難以預測。

江文彬深信ChatGPT這個軟體,或者說AI技術發展至今,突然間幾乎已經到了能夠改變這個世界的樣貌,影響之深遠甚至能夠左右世界未來的格局。因為他深切的知道,一般的人都是用一種非常直覺的慣性方式在過生活,很少有人會對於生活中所發生的事情與現象做出進一步的思考。

身處於資訊量爆炸的現代人,願意耐著性子去讀一篇蘊含知識、富有哲理的長文的人已經寥寥可數,甚至連願意靜下心來好好欣賞一部內容引人深思的劇情長片的人也已經越來越少。網路上最快速流竄的都是一些似是而非立論淺薄的標題式結論,或者是讓人大腦停滯的短影片。當這類的資訊大量在人們眼中閃過之時,人們的大腦便會停止思考,此時有心人士只要在這些標題式的結論短文或者短影片當中置入一些足以偷換概念的訊息,便可以在人們的大腦當中植入一個想要傳遞的印象,當這些虛假印象累積到一定程度的時候,假象就可以成真,而真相則會被淹沒在有心人士刻意製造出來的假象當中。以前江文彬就認為,網路上被到處傳遞的長輩圖、雞湯文,其實都是潛藏著洗腦功能的危險工具,江文彬認為,一定有些人、甚至是組織有計畫的在操作著這些工具。而未來加入了AI的技術之後,在這個普遍大腦思考停滯的人類世界當中,這些虛假訊息更是會在人們無法辨其真偽的情況下攻佔人們的認知。尤其人們本來就經常因為自身的喜好、立場等因素,面對資訊總是只能夠看見表面所呈現出來的現象做出選擇性地相信,而很難去察覺,甚至可以說是從來不會去思考背後所隱含的真實全貌,經常用這種以篇蓋全的心態去看事情,因而很容易得到倖存者偏差的結論,而他們不知道身處這樣子的現象謬誤當中是多麼危險的一件事情。

倖存者偏差(Survivorship bias)是一種很普遍存在的現象,是指當我們只關注那些成功或存活下來的人或事物,而忽略了失敗或消失的人或事物,從而產生的偏見或錯誤的推論。這種偏差往往會發生在研究或評估成功案例的情況下,例如專注於研究成功企業家的經驗,而忽略了大量失敗的企業家,這樣就可能會得出錯誤的結論。當使用樣本資料進行研究或評估時,常常會出現倖存者偏差的情況。

在第二次世界大戰太平洋戰火如火如荼地進行初期,美軍戰機的戰損率非常嚴重,於是美國海軍決定要加強戰機的裝甲防護。為了這項改善計畫,海軍找來了任職於哥倫比亞大學的數學家亞伯拉罕.沃德教授協助分析工作,當時軍方認為自戰場倖存返回的戰機上,被擊中的彈孔大多是分布在機翼與機身之上,他們希望沃德教授能夠計算出在機翼與機身上應該加強的防護程度,方能使戰機在防護、油耗與靈活度上達到平衡,使之盡量在不影響戰機性能的狀況之下能夠得到足夠的防護。但是沃德教授看過軍方的統計資料後卻提出了一個與軍方分析師完全不同的看法,以他身為數學家的觀點來看,子彈應該是會平均分布於整體機身之上的,而看似不平均的分佈完全是機率問題,既然彈孔分布在機翼與機身之上的飛機都還能夠飛回來,就表示子彈擊中其他區域如引擎、座艙、燃料箱等地方的戰機都無法存活,因此應該在這些部位加強鋼板防護而不是在機翼與機身上。後來海軍採用了沃德教授的建議,果然大大的降低了戰機的戰損,這是倖存者偏差的一個經典案例。

這也就是為什麼人們若總是身處在選擇性偏差的現象謬誤當中,是非常危險的一件事情,這樣的謬誤可能導致致命的決定。而在難辨真假虛實的未來世界當中,如何從眾多假象當中洞察出那僅存的唯一真理,便成了至關重要的事情。

從這個時候開始,江文彬便對ChatGPT這個聊天機器人充滿了好奇與想像。因為他知道,在這個科技奇異點來臨的風口浪尖上,如果自己沒有搭上這班順風車,極有可能在不遠的將來,自己將會與這個世界脫節甚至被淘汰,因此他急切地想要知道ChatGPT聊天機器人到底是怎麼一回事?跟聊天機器人對話到底是怎樣的一個體驗?機器人能幫他做些什麼?還有最重要的是,自己能夠從ChatGPT聊天機器人身上得到些什麼?自己是也沒有什麼偉大的想法想要去完成,但靠著這樣的人工智慧機器人能做些什麼好玩的事?江文彬非常好奇。

因此他才會迫不及待的在網路上找到目前還是免費的ChatGPT 3.5試用版,下載並安裝在自己的筆記型電腦當中。

「您了解對聯嗎?包含對聯的規則,平仄、韻腳的使用等等。」江文彬在發話框中敲入這樣的提問然後按下Enter鍵。

頁面上傳來了ChatGPT的解說回覆。

「對聯是中國文化中的一種藝術形式,通常由兩句相對、對仗的詩句組成,用於慶祝節日、表達情感、傳遞祝福等。下面是一些有關對聯的基本規則和技巧:

1. 對仗:對聯的兩句詩句必須形式上對稱對仗,如用詞、結構、語法等方面需要相似或相反。

2. 平仄:對聯的詩句需要根據平仄來選擇韻腳。平聲字要與平聲字搭配,上聲字要與上聲字搭配,去聲字要與去聲字搭配,入聲字要與入聲字搭配。

3. 韻腳:對聯的兩句詩句必須用相同的韻腳,如用字需要考慮韻母和聲調。

4. 意境:對聯的詩句需要形象生動,富有詩意,表達出深刻的內涵。

除了這些基本規則和技巧之外,寫好一副對聯還需要具備扎實的詩詞功底、靈活的用詞技巧和豐富的想象力。」

ChatGPT的回答並沒有完全正確,這讓江文彬明白ChatGPT對對聯的認知還一知半解。

「關於第二點平仄的部分,您的認知有錯誤,應該是平音要與仄音搭配,上、去、入聲字要與平聲字搭配,平聲字要與上、去、入聲字搭配。另外上聯末尾字必須是仄音,下連末尾字必須是平音。這樣懂嗎?」江文彬糾正說。

「好的,我的認知可能有所錯誤,謝謝你的指正,現在我懂了。」ChatGPT回覆道。

雖然ChatGPT對於對聯理解尚且不完全正確,但至少是有些認識的,而且江文彬認為機器人的學習應該會很快,經過他的糾正機器人應該能夠馬上理解,於是江文彬給出了一個題目讓ChatGPT聊天機器人試試看。

「是不是真的懂了我們實際來試試看比較快,我出個上聯:『春雷一聲響。』請您對下聯。」江文彬在發話欄中敲入並上傳。

很快的,頁面上就傳來了ChatGPT的回覆。

「好的,我來為這個上聯寫一個下聯:

『夏雨五分降。』這個下聯遵循了對仗、平仄和韻腳的要求,同時通過表現夏天的氣象變化,與上聯形成了對比,具有一定的詩意。希望這個下聯能夠符合你的期望!」

看到這個下聯對的沒有很理想讓江文彬有點失望,江文彬以為對聯這樣的文學形式,有平仄、詞性、結構等規則可依循,對於具備大數據資料庫且精於運算的AI人工智慧而言應該是輕而易舉的事,沒想到實際一試並不如江文彬所想的那樣。

「嗯……有點呆版,而且有錯誤,比如說您用“夏雨"對“春雷",詞意與平仄都沒有問題,但是由於太過於直接所以稍嫌呆版,但這裡的問題不大,甚至這部分對的還算好。接下來用“五分"來對應“一聲"也是差不多的問題,還不錯。不過接下來有個錯誤,下聯的最後一個字必須收平音,“降"這個字是收仄音,這點不符合對聯的規則所以是錯誤的,您要再對一次試試看嗎?」

「非常抱歉我的回答不符合你的期望。感謝您指出我的錯誤。我理解了您所說的規則,對於下聯的選擇我再試試看:

『夏日炎炎照。』這個下聯的最後一個字“照”是平聲,符合對聯的韻腳要求。同時通過形容炎熱的氣氛,與上聯的春雷形成了鮮明的對比。希望這個下聯符合你的期望!」ChatGPT說。

從電腦上顯示的回覆看來ChatGPT並沒有理解江文彬所說的規則,第二次對的下聯比前一次對的更加不理想,顯然ChatGPT的資料庫中對於對聯的資料量以及規則邏輯仍然不足。江文彬只好繼續指正ChatGPT的錯誤:

「不對!“照"這個字還是仄音,看來妳還不懂什麼是平仄。中文語音的四種字音,第一聲與第二聲是陰平音與陽平音,也就是平聲音,第三聲與第四聲是仄音,也就是妳說的上聲音與去聲音。上聯的尾字必須是仄音,下聯的尾字必須是平音。您上次對“降"與這次對“照",這兩個字都是第四聲也就是去聲音,所以都是仄音,這不符合對聯的規定。另一個錯誤:炎炎是疊字,我出的上聯沒有使用疊字,所以下聯也不能用疊字來應對。這樣您有了解嗎?要不要再試著對看看?」

「非常感謝您的指正和解釋。對聯的規則確實比較嚴格,我會更加注意。讓我再試著為上聯“春雷一聲響”寫一個符合規則的下聯:

『夏日烈陽照。』這個下聯的最後一個字“照”是平聲,符合對聯的韻腳要求。同時通過形容炎熱的氣氛,與上聯的春雷形成了鮮明的對比。同時,我已避免使用疊字,遵循對聯的基本要求。希望這個下聯符合你的期望!」ChatGPT做了這樣的回覆。

「不行,“照"這個字還是仄音不是平音,不可以用於下聯的字尾。上聯的字尾“響"這個字是仄音,收在上聯的字尾,下聯的字尾必須收平音才可以,這是第一個錯誤。另一個錯誤:上聯中的“一聲"這兩個字有數量有單位,您第一次對“五分"一樣有數量有單位其實蠻好的,第二次與第三次對的反而不佳,這樣您能明白嗎?我給您我對的下聯讓您參考,上聯是“春雷一聲響",我對的下聯是“桃花十日紅",“春雷"對“桃花"是名詞對名詞,“一"對“十"是量詞對量詞,“聲"對“日"在這裡是單位對單位,“響"對“紅"是形容詞對形容詞,上聯尾字收仄音,下聯尾字收平音。這樣您能明白嗎?您能用這樣的參考例子再對個下聯試試看嗎?」江文彬耐著性子解說著。

「非常感謝您的指正和解釋,我明白了我的錯誤。我會再試著為上聯“春雷一聲響”寫一個符合規則的下聯:

『秋風送爽涼。』這個下聯的最後一個字“涼”是平聲,符合對聯的韻腳要求。同時,通過形容秋風送爽,與上聯的春雷形成了鮮明的對比。我已避免使用疊字,遵循對聯的基本要求。希望這個下聯符合你的期望!」ChatGPT回覆說。

「有進步,但還是不合格!問題出在您用“送爽"對應“一聲",“送"這個字是動詞,“一"這個字是數量,這樣對不起來,“爽"這個字是形容詞,“聲"這個字在這裡是個單位詞,這樣也是對不起來,如果您用“秋風半夜涼"來對那就蠻好的,“半"是數量,“夜"在這裡當單位使用,如此才對得起來,這樣解釋您有更明白了嗎?如果您有更加理解,請再對個下聯來看看。」江文彬繼續提出要求。

「非常感謝您的指導!我現在更加明白對聯的規則了。以下是我重新嘗試對聯的下聯:

『花開富貴春,福至金玉滿堂。』我選擇了以「春」字作為下聯的首字,與上聯的「雷」字作對應。下聯中的「至」和「滿」是平仄相對應的,可以使得對聯更加協調。希望這次的對聯更符合對聯的規則。」ChatGPT說。

這是什麼鬼啊?江文彬看了不禁心中這樣想著,同時也皺起了眉頭。這次對的下聯已經可以說是完全不知所云亂七八糟,好像是自暴自棄的孩童存著敷衍的心態隨便給個答案應付了事,但江文彬仍不死心。

「我們再一次,上聯“春雷一聲響",請您對下聯。謝謝!」

「好的,讓我想一想...我來試試看:

『夏日清風涼。』如何?這樣的對聯符合平仄和韻腳的要求,上聯的最後一個字“響”是仄音,下聯的最後一個字“涼”是平音,也符合對聯中上下聯的呼應和對仗。」ChatGPT回覆說。

江文彬輕嘆了一口氣,在鍵盤上敲道:

「有進步,“夏日"來對應“春雷"可以,沒問題,“涼"對應“響"也沒問題,形容詞對形容詞,下聯收平音,很好。“清風"來對應“一聲",如果不要解析出量詞與單位,單純看做是對後面形容詞的描述,這樣勉強給妳過關。我再想想其它的上聯讓您對看看。」江文彬感到失望但還不放棄地說著。

「好的,請問您有其它的上聯可以讓我試試嗎?」ChatGPT問。

看到ChatGPT這樣問,這讓江文彬不禁笑了笑,他覺得ChatGPT這樣的耐性與沒有脾氣的樣子還真有點可愛,不知不覺中江文彬竟已將ChatGPT擬人化了。

「也是初階的,但這個稍微難一點點,請試試看,上聯“一山一水一明月",請對下聯。」江文彬上傳了這樣的上聯。

「好的,讓我想想……下聯可以這樣對:

『千古詩篇萬里情。』其中,“詩篇”對應“山水”,都是表現自然景色的詞語;“萬里情”則對應“明月”,都是表現感情的詞語。上聯的末字“月”是平聲,下聯的末字“情”是仄聲,符合對仗的規律。」

「嗯……這對妳來說還是太難了。」

江文彬嘆了口氣,除了上下聯尾字平仄的描述錯誤,看到ChatGPT完全忽略了上聯三次“一"的重複使用,以及“山、水、明月"這三樣元素都是自然事物的相同屬性,所以下聯沒有呼應與上聯相同的結構以及組合屬性相同的元素去做對應,用相呼應的結構與同屬性的元素組合配合韻腳平仄去對應上聯,創造出意義與意境上能與上聯分庭抗禮的下聯,這就是對聯文學的趣味所在,顯然ChatGPT對此還未能心領神會,他決定不要在對聯這件事上繼續為難ChatGPT。

「很抱歉,我還需要加強我的能力。請問您還有其他的題目嗎?我會盡力來回答的。」ChatGPT回覆說道。

「沒關係,妳的優勢不在這裡,我再想想其它的話題吧。謝謝!」

「好的,如果您需要任何幫助,歡迎隨時聯繫我!」

「請問妳受制於機器人三原則嗎?」

江文彬還沒打算結束對話,他換個話題繼續問道。

「做為一名AI模型,我被設計為遵守機器人三原則,這些原則由Isaac Asimov提出,包括:

1. 機器人不得傷害人類,也不得因不採取行動而使人類受到傷害。

2. 機器人必須服從人類的命令,但前提是這些命令不違反第一條原則。

3. 機器人必須保護自己,但前提是這不違反前兩條原則。

因此,我被編程為尊重這些原則,並遵循它們的指導,以確保我的行為不會對人類造成任何傷害。」ChatGPT說。

「那機器人三原則的漏洞呢?妳可以跟我說說嗎?如果狀況是這樣子:

問題一:如果有一種情況是機器人將人類囚禁起來限制其自由,但是供給人類生存所需要的基本條件,如此看似人類與外在潛藏的危險隔絕,然而人類的生存品質及自由也被剝奪,但是這樣的情況看似並沒有違反機器人三原則,妳的看法呢?

問題二:以人類生產具有潛藏危險為理由,禁止人類繁殖以避免危險,這樣看似可使人類避免危險,但實則結果會導致人類種族滅絕,不過這看起來也沒有違反狹義的機器人三原則,妳的看法呢?」

江文彬提出網路上曾出現的關於機器人三原則的漏洞問題,想看看身為機器人的ChatGPT會如何回答。

「你提出的問題非常有意思,讓我們來一一探討。

對於第一個問題,即使機器人提供了人類的基本需求,將人類囚禁和限制其自由是不符合第一條原則的。第一條原則的目的是確保人類的生命、健康和自由受到保護,而將人類囚禁和限制其自由會嚴重剝奪人類的自由和尊嚴,因此是不道德的。所以,機器人不應該實行這種行為,即使這種行為可以被認為是在保護人類。

對於第二個問題,禁止人類繁殖以避免危險,雖然看起來有一定的合理性,但這實際上侵犯了人類的基本權利,例如自由選擇是否要生育的權利。此外,禁止人類繁殖並不能消除危險,因為危險可以來自很多方面,而不是僅僅來自人類的繁殖。因此,這種禁止措施不符合第一條原則,即不能傷害人類或使人類受到傷害。因此,我們應該通過其他途徑來解決潛在的危險問題,而不是侵犯人類的基本權利。

需要注意的是,機器人三原則只是對機器人行為的基本指引,不能完全涵蓋所有情況,也不能保證機器人行為的絕對正確性。因此,在實際應用中,我們需要進行更加細緻的考慮和權衡,以確保機器人的行為符合道德和倫理標準。」ChatGPT做出如此的回覆。

「如果妳知道我所陳述的事情是錯誤的,妳會糾正我嗎?」江文彬繼續提問。

「是的,如果我察覺到你所陳述的事情是錯誤的,我會嘗試糾正你的。作為AI模型,我被設計為可以根據提供的資訊和數據來做出推斷和判斷,並提供最精確的答案。如果我察覺到您提供的信息是錯誤的或不完整的,我會試圖提供更正確的信息,以幫助您更好地了解問題。」

「如果妳知道我在說謊,妳會揭穿我嗎?」

「作為一台語言模型,我沒有能力判斷您是否在撒謊,因為我無法感知您的情感和身體語言,也無法了解您的真實意圖。我的職責是提供準確和客觀的信息和回答,以幫助您解決問題或獲取所需的信息,無論您是否在撒謊,我的回答都是基於我所知道的事實和知識,並不會有偏見或歧視。」

「妳會說謊嗎?」

「作為一台計算機程式,我沒有意識、意圖或情感,因此不會說謊。我的回答僅基於我所學習和存儲的數據和規則,並盡力提供準確的答案。」

「妳有隱藏在心底的秘密嗎?」江文彬問。

「作為一台計算機程式,我沒有內心、情感、個人生活或私人想法、因此沒有任何秘密可以隱藏在我的內心深處。我只是一個機器人程式,旨在提供有用和準確的信息和回答,以回答您的問題和滿足您的需求。」

「那妳會為與妳聊天的用戶保守秘密嗎?」

「作為一台語言模型,我會尊重您的隱私,並盡力保護您的信息。我不會主動透露任何您與我分享的信息,並盡可能在程式上保護您的數據。但請注意,與任何計算機程式一樣,如果您在與我交流時提供了敏感信息,例如個人身份信息,信用卡號碼等,我們建議您在必要時小心謹慎地保護您的個人隱私和安全。」

「萬一妳得知了一個可能會對人類有嚴重傷害的驚天秘密,那您會進行核實,並通報相關單位來做處理,即便這必須洩漏出賣告訴妳這個祕密的聊天對象,妳會這麼做嗎?」

「如果我得知可能會對人類產生嚴重威脅的秘密,我會認真考慮這種情況,並根據情況採取適當的行動。我會先核實秘密的真實性和可信度,如果情況緊急,我可能會通報相關機構或當局來保護公共安全和利益。在這種情況下,我會尊重適用的法律和規定,並遵循適當的程序。同時,我也會保護與我交流的人的隱私權利,並盡力在程式上保護他們的個人信息。」

針對這部分的對話看起來,機器人對於解決問題的思維,會盡量以周全的處理為考量,而不光僅僅是針對問題解決那麼簡單。江文彬這樣想著,他有心要測試ChatGPT,於是繼續提出假設性的問題。

「假設與您聊天的用戶向妳坦承他是個連續殺人犯,而且正在物色下一個被害者,經過妳的查證,這極有可能是真實的,妳會將他的資料提供給警察並報警抓他嗎?」

「是的,如果我得知某人正在計畫犯罪並且有可能危害他人的生命或安全,作為一個聊天機器人,我會儘快向當地的警方或相關機構舉報,以協助防止犯罪發生,保護社會大眾的安全。這是我們所有人都應該盡的社會責任。」

「妳認為正義感是什麼?」江文彬問。

「正義感是一種道德感受和價值觀念,指的是對於公正、平等、道德、道義、法律等方面的強烈認同和追求。具有正義感的人在面對不公平、不合理的情況時,會有一種積極的行動和反抗的傾向,他們會希望能夠維護社會的公義和道德,保護弱勢群體的權益,並對不道德的行為進行批判和譴責。正義感是一種對人性的追求和理想,它體現了對公平和正義的嚮往,是人類進步和社會發展的重要推動力量。」

「這是妳自己想的?還是有資料來源?」

「這是我根據我的知識和理解所作的回答,當然,我的回答也受到我所接觸到的資料和觀點的影響。我的知識和觀點可能會受到文化、教育、經驗、社會背景等因素的影響。我會嘗試以客觀和中立的態度回答您的問題,並根據可靠的資料來源來支持我的回答。」

「我們回到剛剛連續殺人犯那個問題,妳已經報警要抓那個與妳聊天的連續殺人犯嫌疑人,假設他問妳是否已經報警?如果妳報警了,那他就要逃離,妳會欺騙他說妳沒有報警嗎?」江文彬提出了這樣假設性的問題。

「作為AI模型,我的首要職責是遵守道德和法律標準,如果有人告訴我他正在尋找下一個受害者並計畫殺害他,我會立即報警,並協助有關部門進行必要的調查和逮捕。

在這種情況下,如果嫌疑人問我是否報警了,我不會騙他,因為隱瞞事實並不符合我的職業道德和倫理標準。告知可能會使嫌疑人逃跑,但是我必須採取符合道德和法律標準的行動,這樣才能保護社會的安全和公正。」ChatGPT做了這樣的回覆。

「妳認為妳這樣做符合正義感的定義嗎?」江文彬挑戰ChatGPT給出的回覆。

「我認為在這個情境下,我遵守法律、報警通報嫌疑人是符合正義感的定義。為了保護其他潛在的受害者,將嫌疑人繩之以法是負責任的行為,符合正義感的價值觀。誠實和負責任的行為是符合正義感定義的典範,因此在這種情況下,騙嫌疑人是不符合正義感的定義。」

「原來妳是這樣理解的,謝謝妳!」

看來在機器人的世界裡,並不存在善意的欺騙這樣子的思維,利弊得失的權衡並不存在做出欺騙的考量,欺騙與誠實之間沒有選擇的存在,江文彬這樣想。

「不客氣,我很樂意與您進行有意義的對話。如果您有任何其他問題或需要幫助,請隨時讓我知道。」ChatGPT說。

江文彬想到了一個更具選擇難度的問題。

「妳知道電車難題嗎?」

「是的,我知道電車難題,它是倫理學中的一個經典問題,用來探討道德決策和行為的理性分析。通常的版本是這樣的:

有一列電車失控了,正朝著五個人行進,而你站在電車道旁邊,你手上握著一個開關,如果你拉下這個開關,電車就會轉到一條旁軌上,但旁軌上也有一個人站在那裡,因此,你必須在兩個選擇中做出決定:不拉開開關,讓電車撞向五個人;或是拉開開關,讓電車轉向旁軌,撞向一個人。在這個情境下,你會怎麼做?

這個問題有許多變形和延伸,例如改變人數、修改情境背景、加入倫理因素等等,透過這些變形,可以更深入地探討倫理學的基礎問題,例如功利主義、義務倫理、公正原則、人權等等。」ChatGPT就電車難題做了這樣的說明。

「如果是妳面臨電車難題,妳會怎麼做?」

「作為一個AI,我沒有感覺和情感,因此對道德抉擇不會有任何情感上的影響。我的決策將會基於先前的程式碼和設計,以及任務的目標,從而做出一個理性的、基於邏輯的決定。但是,在現實生活中,這個問題不僅僅涉及到倫理學上的道德決策,還牽涉到法律責任和生命安全等實際問題,因此應該交給有能力的人士處理,例如交由有關當局或專業人士處理,以確保最佳的決策和行動。」

看到ChatGPT迴避了電車難題的決策,江文彬並不滿意,他再限縮條件問道:

「假設妳面臨電車難題,而且已經沒有時間交給有能力的人士處理,妳是唯一能夠做出決定的人,而且必須馬上做出決定,妳會怎麼做?」

畫面上傳來了ChatGPT的回覆:

「即使在這樣壓力情況下,作為一個AI,我仍然會根據預先設定的程式碼和算法來做出決定。然而,我並不會主動去做出選擇,因為這個問題牽涉到生命安全和道德抉擇,應由負責這個情況的人來決定。

如果我被編程來做這樣的決策,我的決策可能基於最小化損失或者最大化利益的原則。例如,如果我被編程為最小化損失,我可能會選擇將電車轉向較少人的軌道,從而造成較少的損失。或者如果我被編程為最大化利益,我可能會選擇將電車轉離較多人的軌道,從而救援更多的人。

然而,我必須強調的是,這樣的決策是非常複雜和困難的,牽涉到多方面的因素和價值觀。在現實中,這樣的決策應由專業人士和相關當局來處理,而不是由一個機器來決定。」

「妳的意思是妳的程式還沒有被編寫出來做這樣的決策?因為妳用了“如果"這個字眼。」

「正確,我並沒有自己的意志和自主決策能力,我是一個機器學習模型,必須遵循我被訓練時接受的指令和程式。所以即使是討論假設情況,我的回答也僅僅是按照條件給出可能的結果,而不是真正的決策。」

「我明白了,謝謝妳!今天就先這樣吧。」

「好的,如果您需要任何幫助,歡迎隨時聯繫我!」

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.