2023年大專盃辯論比賽評析:〈AI法官對人類發展利大於弊〉

2023/11/23閱讀時間約 34 分鐘


2023年大專辯論賽準決賽

日期:2023年8月7日

比賽場地:香港浸會大學

辯題:AI法官對人類發展利大於弊(1)

正方:香港城市大學

反方:香港浸會大學

 

前文〈2023年 我們如此辯論(大專盃)〉曾誇下海口,要為此辯題獨立成篇,另撰一文評析。曾經猶豫該不該寫,擔心一發不可收拾,寫得冗長累贅。出於巧合,AI是一個我感興趣的題目,言必滔滔,難以簡潔。只是拜讀去年朱安在iDebate的過萬字賽評:《莊敬自強 - 2022大專辯論賽決賽賽評》(2)後,深受啟迪,就試一試吧。

話說在前頭,筆者對這類AI課題有立場有取態,一點也不中立,期望讀一篇不偏不倚評論的讀者,恐怕要移玉步往別館。然而若想看筆者如何「扮中立」,應可令你大開眼界。

至於我的立場取態是甚麼?我反對使用這辯題;即使勉強使用,我傾向反方,因為:

  • 是次辯題涉及範圍太廣、題材甚艱深、正反雙方均勢失衡、課題太多難以聚焦,根本不宜成為辯論比賽題目;
  • AI法官根本未出現,連討論基礎也欠奉,遑論利弊;
  • AI技術有其難以考量的遠大前景,但基於技術仍未可視為成熟,現階段不宜/不能盲目樂觀、肆意追捧,要實際地就每個個案及範疇討論。

題目有多艱深?主因有4座大山:

  1. 法庭內的人工智能
  2. 法官
  3. 演算法(Algorithm)及其成本
  4. 人類發展

這篇賽評,可以粗糙分成兩大部份,但所謂兩部份,很難;我也不打算嚴格區分:

  • 評論辯題及雙方如何解題、「輕輕」討論相關課題(那4座大山)。文章末段,會建議如何修訂辯題,使之適合在比賽中使用;
  • 對雙方現場攻略的評價(Come on!即是死老鬼的指指點點!);
  • 其他夾雜在上述兩部份的瑣碎議論(說好的兩部份呢?)。

若果不想理會解題,希望直接閱讀現場攻略評價,可以跳到段落「一問一答見天地」開始,只是我對雙方論點的評價拆解,其實零星散佈在解題部份,混雜得很。


抓材料

AI作為一門顯學,一般非業界平民、比賽雙方,如何入門打好底子?我建議由超級電腦Deep Blue於1997年擊敗國際象棋大師Garry Kasparov開始,爾後DeepMind開發圍棋軟件AlphaGo,擊敗一眾職業圍棋棋士,再發展出AlphaGo Zero(同一公司開發的AlphaFold及AlphaStar可選擇略過),再跳躍至近期甚囂塵上的ChatGPT。圍繞這段歷史,搜尋一些報導及專文讀一讀。相關科普文章太多太多,大家自行Google吧。文章未尾,除了註釋,有幾篇延伸閱讀,那些短科普,勝在有點趣味,可以吸引大家繼續進深下去。當然,這是一己之見,若果你打算從圖像語音辨識入手;甚至極權政府如何運用它維穩等等認識人工智能,一樣可以。

筆者優先強調「科普」,因為瀏覽上述AI發展歷史,必定觸及一些艱澀的技術概念,諸如暴力搜尋(Brute-force search)、深度學習(Deep learning)、蒙地卡羅樹搜尋(Monte Carlo tree search)、近端策略優化(Proximal policy optimization)、人工智能幻覺(Artificial hallucination)等等。眼前是有時限的辯論比賽,而非埋首撰寫畢業論文,加上辯論員及評判不一定有資訊科技或編寫電腦程式等訓練,比賽中不可能;也不需要太學究/學術地闡釋鋪陳有關概念。中間落墨,參考科普文章如何深入淺出談論AI,實在是「利多於弊」。

弊?弊在何處?若果要解答中學生們的數學難題,按照常理,擁有大學數學程度的人,會感到遊刃有餘。若只有中學數學程度,就容易出現知其然,不知其所以然,甚或吃力、或者變了悶蛋講師照本宣科。同樣,對有關課題了解深一點、有少許學術背景,現場反應及剖析往往會更快更到位。只是熟習課題需要時間心力,若果本來不熟悉AI,就唯有科普一下了。

還是老生常談:書到用時方恨少。故此,註解中也包括一些大塊文章,大家應該對自己有一點要求。

審辯題 AI何物

綜觀整場比賽,正反雙方明顯對AI課題認識淺薄,說得苛刻一點,連科普水平也未達到。正方不知自己引喻失義,反方也不了解正方是否踩了地雷,可否回馬一擊。

舉一個例子。正方主辯發言,提及北京法院使用「睿法官」這個已運作了好幾年的人工智能研判系統。正方本該以此為證,大書特書,但發言時只輕輕帶過,實在莫名其妙。反方呢?似乎「聽不見」,沒有回應。

回應甚麼?《法制日報》一篇談及「睿法官」的文章〈法律該賦予人工智慧什麼地位?實現與人的智慧疊拼〉,內有一段文字:

“……人工智慧是法官裁判的輔助,而在可見的將來,甚至永遠都不可能成為法官裁判的依賴……在大資料時代,法官固然可以通過人工智慧獲得全樣本、全資訊的裁判資料,但現有的演算法能否保證人工智慧能夠充分利用這些全樣本、全資訊的資料以及能否對它們作出最恰當的分析,仍然是可疑的;另一方面,將充滿豐富的人的經歷、感情的訴訟,交給人工智慧,在法律上和倫理上,也很難得到支持。特別是,越是有可資利用的大資料和人工智慧,法官的敬業與職業倫理也更應該得到強化……” (原稿同日刊登於《法制日報》及《中國日報》)(3)

反方的策略,有上述文字的影子,遣詞用字卻沒有其精練。是反方未有好好消化這類評語,還是根本不知道關於「睿法官」的評價?正方呢?正方撰寫主辯稿前,是否知悉上述文字?「睿法官」是否正方可以放心引用的好例子?是否準備好駁斥國內學者對「睿法官」的評價?

更甚者,「睿法官」根本不是法官!只是一種「智慧研判系統,為北京市高級人民法院法官提供辦案規範和量刑分析等精准資訊,以大資料推進法律適用和裁判尺度統一」(撮要自3)。在其他法院的類似系統,則「體現在輔助文書處理、轉換庭審筆錄、輔助案件審理、輔助司法服務4方面」(撮要自4),充其量是「AI法庭文書/司法助理」。現階段「睿法官」不可以脫離人類法官自立,獨當一面做宣判。正方把「睿法官」視為真法官,好一個馮京作馬涼。

相同狀況在正方一副發言時再次出現,今回涉及另一個正在美國使用的風險評估系統COMPAS,同樣馮京作馬涼,然後直到反方的第一次台下發問(!!)才正確指出不可視COMPAS為AI法官,算得上是一次「遲來的正面交鋒」。這裡還顯露了反方其他嚴重問題,留待第二部份「現場攻略評價」再細說。

總括而言,正反雙方對相關AI課題都不甚了了。

審辯題 法官何人

正方曾在比賽中提及:「GPT-4在律師資格考試可以擊敗90%的考生」,進一步推論「引人AI判案能提高法治水平」。不必太多鑽研,都聽得清楚是律師資格考試,不是法官選拔面試!可以如此張冠李戴嗎?令我驚訝的是:反方對此竟然全無反詰!

難道雙方辯論員連律師法官也分不清?我有理由懷疑:正反雙方不止對AI課題認識淺薄,對另一座大山 - 法官職能 - 亦如是,功課做得不足。

首先,服膺普通法/衡平法系的AI法官,按道理需要同步研發如何令AI掌握正義、良知、公平等抽象理念,使AI法官能察覺何時「普通法」有所不足,需要透過「衡平法」(5)補充。另一方面,由於陪審團制度十分重要,自然要同步開發「AI法官引導陪審團」的技術,配合審訊。

以此對照雙方發言,會發現雙方花了不少時間,糾纏於法官的裁決功能。正方偏重AI法官就是好,勝在鐵面無私、冷酷不帶感情,至於AI法官是否應該懂得(或現存的睿法官COMPAS等等系統是否已經懂得)與陪審團及控辯雙方律師進行人性互動(懂得鑑貌辨色引導人,也曉得接納或拒絕申訴抗議,即是法庭劇中常見的Objection),正方隻字不提,反方沒有發問。這種AI法官,稱得上功能齊全嗎?

至於反方則經常強調人類法官強項在於以人性介入冷酷的法律條文,但其申辯過程的遣詞用字,左支右絀,十分累贅。其實只需祭出「衡平法」3個字,並參考(借用)一些早已千錘百鍊的法律課本解說,就可以舌燦蓮花,並把AI法官如何實踐「衡平法」/行駛「酌情權」這類疑問,拋給對手。

這種針鋒相對,只由筆者腦補,沒有在現實發生。

題外話:有普通法/衡平法系的AI法官,那麼大陸法系的AI法官呢?大陸法系的法官,會調查案件(例如法國的預審法官 Investigating Judge)(6)、盤問證人與當事人,故此開發大陸法系AI法官,要同時開發AI偵查、AI盤問等領域。有點離題,但辯題確實把歧義/意義甚豐的字眼炒成一碟。

然後,要再次申述立場。為何我斷言:「AI法官根本未出現,連討論基礎也欠奉」?因為AI法官需要自己的Algorithm。AlphaGo及ChatGPT的演算法如何厲害,與AI法官閣下無關,不能借用。

而正方辯論員不知從那裡獲得驚人自信,好像AI法官的Algorithm早已面世,只需加一塊太陽能板就可維持運作。

審辯題 演算何價

先回顧一下近年AI發展歷史。懂得下圍棋的AlphaGo是否直接脫胎自擅長國際象棋的Deep Blue?或許你也知道,AlphaGo及Deep Blue應用的演算法大有分別,需要另行開發。現時的AI技術還未進步至自行創造/發展/內化一套全新Algorithm,或者小修小補就能轉變用途,仍需要開發團隊為某一特定目標,夙夜憂勤建立之優化之。學術一點,就是Weak/Narrow,下棋的只能專注下棋,未能Strong至懂得自行解答其他題目(7):

“……Weak AI, also known as narrow AI, focuses on performing a specific task, such as answering questions based on user input or playing chess. It can perform one type of task, but not both……”
“……While there are no clear examples of strong artificial intelligence……However, Super AI is still purely speculative as we have yet to achieve examples of Strong AI……”

在我有限的搜索中,沒有AI法官這種Algorithm正在運作,充其量只是一個空空的願景。AlphaGo Zero、ChatGPT以致甚麼AI新寵兒再厲害再進步,並不表示AI法官可以直接承繼其威勢,然後一下子跑出了會進行公正審判的演算法。另一方面,每一項獨立任務,都可能要獨立開發一套新Algorithm。前述例子,當初代AI法官懂得找出最佳裁決,這種演算法與引導陪審團相干嗎?若不相干,就是新任務,要另行開發「AI法官引導陪審團」外掛部件,另行開發當然要「另行組隊另行付款」。至於AI偵查、AI盤問,那是大陸法系AI法官要面對的問題,不相干。

故此,反方可以就技術上是否可行、法官模組件(module components)是否齊全、現行有甚麼模型在測試中等細節問題,不斷質詢正方。

辯論老手都明白,只能質詢,難以一下子擊倒,因為「今天技術上未能做到,為甚麼友方不把希望帶進明天?」、「何解友方拒絕對人類科技的璀璨未來、投下信心一票?」、「將來AI必定會懂得開發AI產品,自己reproduce自己」等等話頭,太動人太有觀眾緣。步步為營、眼見為實的保守取態,臺面上不夠光彩。也許贏了點數,然後輸掉最佳辯論員。

返回主題。「有朝一日」,AI法官出現了,它會為當地司法帶來曙光嗎?當然可以,只要它的開發及保養維修團隊薪高糧準、不存惡意。AI法官有多昂貴?只要一次建立了,然後接上太陽能板,就可以置之不理,讓它7天24小時不停免費服務人民?

有多昂貴,看看Google曾在人工智能領域投放多少億美元及時間,或可略知一二,反正只有發達經濟體才有可能長期負擔。比賽中多次提及的法官不足地區,能否負擔固然是疑問,有沒有足夠資訊科技人員協助開發及保養維修,也許是法官不足之後的下一個問題。請注意,那一組可以「檢查」AI法官硬件、「修改」AI法官演算法、「熄掉」AI法官伺服器的團隊成員,其操守其權責其監督,絕對不亞於傳統法官或司法機關成員。甚至,是否需要一批同時具備法律專業及人工智能系統雙重訓練的員工,才能勝任?否則,IT狗向司法機構上司報告:上回你們發現的bug修正了,請放心使用。司法機構首長不太明白當中原理,他可以拒絕收貨嗎?

這類雙重訓練的員工「時薪」多少?

再談「虛」一點。按照人工智能的基本原理,AI法官需要輸入大量人間案例判決,讓它進行深度學習。法官不足、案件積壓的地區,符合本國國情的案例,足夠訓練自己的AI法官嗎?若果因此引入大批外來案例,訓練出來的AI法官會否不夠「接地氣」?會否「學壞師」,變得很美帝歐陸?仰賴AI解決本地法官不足,豈非緣木求魚?

這些論述,不少是反方可以用作搔擾正方的瑣碎論點,未必有助於勝負,但過癮,簡單易用,懂一點科普就可上手。

只是,今場比賽,就是沒有人在此下功夫。

審辯題 發展何方

前文〈2023年 我們如此辯論(大專盃)〉提及:辯題敗筆,在於「人類發展」。發展甚麼?文化經濟心靈探索外太空?加上另外3座大山,涉及的題材比太平洋還要寬,不合埋地把過多的定義舉證責任壓在正方身上,是一條徹底失去平衡的題目。

我本來不太願意多談「人類發展」,皆因虛得緲無邊際。幸好在比賽後,評判蔡鈺玲(理工大學中國語文教學中心導師)對AI法官及人類發展兩組字眼,評析得頗為透徹,對我有點啟迪,大家可以透過錄影重溫。

為求扮作曾經參與評析,我會基於上述評語,加上《端傳媒》近期一篇文章:〈ChatGPT與荷里活編劇大罷工:他們真的在害怕AI嗎?〉(8)其中一小段內容,作為引子,再補充自己的觀點。由於是收費文章,未必人人可以讀到我引述的內容。

“……「AI不是淘汰某個職位,而是在淘汰一整個時代的編劇。」她指出,表面上AI可能只淘汰低級編劇,而保留有實力的編劇。但實際上,高級編劇之能夠成為高級編劇,都是由低做起,逐步晉升。以AI取代初級編劇的話,經驗不足的編劇只會越來越難找到工作,變相是在阻斷年輕編劇上游的機會……”

筆者認為,基於同樣原理,即使AI法官出現了,資深的人類法官也不可能被取代,AI法官充其量是協助審理一些比較不重要的零碎案件。但久而久之,資深人類法官相繼逝去,新一代人類法官愈來愈倚賴AI法官做初級判決,再發展下去,會否出現上文「淘汰一整個時代的編劇」那種狀況?百年以後,資深人類法官也許仍存,但一整代菜鳥法官被淘汰了或成長不起來,初等審理判決會否大部份;甚至全數交付人工智能?誰人有足夠閱歷成為資深法官?新的人類法官案例愈來愈少,AI法官的深度學習會否停滯,落後於時代?到時會是一個怎麼樣的世界?此時此刻,終於觸及人類發展及前途了。

有點科幻,我要「投降」了,因為想不通如何在辯論比賽中處理這些宏大課題。

大專盃籌委竟然膽敢拋這條艱澀辯題出來,果然對大家信心十足。

還有大量課題,如山高如海深,例如AI倫理。法理上AI若錯判,是否該負罪責(熄機一小時作為刑罰)等等,筆者不敢碰,就此罷了。要開始另一部份,評正反雙方的現場攻略。

一問一答見天地

過往寫賽評,曾經嘗試一個模式:比賽錄音/錄影,只聽/看一至兩次,下筆就寫。不怕遺漏記錯混淆嗎?我不管!現場觀戰,尊貴如評判,也不過憑一次印象就下定奪評分數,寫錯了就寫錯吧,有甚麼大不了?只是近年記憶力不如前,連讓我錯評的整場比賽框框也存不入腦,惟有投降,把比賽錄影反覆重看。細緻了,但很煩人。而且我偏見很嚴重,我不喜歡自由辯論的聲浪氣氛,只看了一次。

另外,筆者曾經考慮逐位辯論員/逐個位置評論,但感覺有點瑣碎。最後把心一橫,根據一些比賽中的印象作出評論。

甚麼印象?評論之始,建議大家細看比賽其中一個段落:反方第一次台下發問及正方回答(42:30-45:34)(1),管中窺豹,堪稱整場比賽的縮影,有助揭開當中種種問題。

何出此言?那一刻,反方3位辯論員均無法對正方作出有效反擊,除非橫生枝節,否則可謂敗象已呈。然而反方首次台下發問,竟然一刀見血,直指正方一副發言提及的COMPAS,只是一個協助司法人員的評估工具,不可視為AI法官。

筆者頓生多個疑問:

  1. 為甚麼前兩位副辯(正方一副才首次提及COMPAS)沒有對COMPAS作出質詢?
  2. 有關COMPAS的資訊,反方全隊是否早已知悉,抑或只是留給台下發問團隊作備用?
  3. 基於甚麼原因,反方結辯在其後發言中,竟然沒有接力攻擊COMPAS這個漏洞?

總括而言:反方不是早應循此方向反擊嗎?

接下來看正方如何回答這個棘手問題,4字概括:強詞奪理!當然,那位回答問題的同學是盡責的辯論員,難道站出來示弱認錯嗎?然而正方豈止在這一段才「強詞奪理」?由主辯把睿法官當作真法官開始,已經貫穿整場比賽。正方似乎全心相信AI法官早已穩坐江山,因此表現得信心爆棚,毫無懸念,一點也不覺「尷尬」。

一問一答見天地,正方錯解辯題,反方備戰失誤,這就是我對雙方的印象。

評策略 觀比賽 正方有信心

若果要總括正方的主線,筆者會粗略簡化為:

AI法官技術已臻成熟,可放心引進,解決目前法官嚴重短缺問題,同時令司法質素提高,有利人類發展。

如前述,正方在比賽期間,展現出驚人的自信,如此信心從何而來?正方的信心並非全無基礎,他們對不同國家,例如印度司法人員嚴重不足這回事(9),明顯下過一點功夫,故此往後在質詢反方時,有關資料倒背如流,語氣慷慨激昂,不易應付。但觀其如何引用睿法官及COMPAS立論,筆者冒犯地講一句……他們這方面的自信建基於錯誤理解或認識不足,「接近」沒有基礎,只比盲撐好一點而已。至於如何錯誤如何不足,第一部份解題中多次詳述,不贅。

令人費解的是,正方為何犯上如斯錯誤?其閱讀材料資訊的能力,真的如斯下駟?舉一個例子。國內有一篇談及睿法官的文章:〈司法實踐中的人工智慧〉(4),明明羅列出睿法官的各種助理功能,卻又在文章開首,用上「AI虛擬法官」、「AI法官能引導當事人……」等誤導語句。除非正方如斯不幸,總是遇上這種材料,兼且只讀前一兩段,立即頭頂發熱,以為證據在手,遂不問後理,才可能犯上這些馮京作馬涼的錯誤!

筆者固然詬病正方錯解辯題,但我想同時指出:反方接近沒有在這一點向正方施壓,我甚至懷疑……反方在首次台下發問之前,可曾懷疑過正方口中的AI法官是否存在?正方的立論沒有經歷太大考驗,順利「過骨」,甚至可謂躺著過關。

接下來,要談一談應該如何質疑、反擊正方立論。正方攻勢其實不弱。首先,他們先拋出法官嚴重不足這個較堅實的論述,話鋒一轉到法治水平因此下降、國民對法治信任程度因此倒退等等,改善之途唯靠引進技術已臻成熟的AI法官,否則就對不起天下蒼生了。

反擊雖不易,仍可為。首先,國家司法人員嚴重不足,原因何在?按常識推斷,主因不外乎:

  1. 法官培訓需時,急不得;
  2. 資源不足;
  3. 國家機器出現問題,例如動亂、戰爭、腐敗。

第一部份審題,已經初步指出AI法官根本未曾出現,並有種種(大量)技術關卡要跨越。今天存在的,只是AI法官「助理」。難道正方真心想說服大家:把「助理」稱為「法官」就會出現稱職的法官?正方回答反方首次台下發問,就是這種想法。

正方脫口而出的「法律面前,人人呆等」,頗為貼地鏗鏘,值得加分。但我們真的可以全心託付不用呆等的AI法官「助理」嗎?註釋及延伸閱讀中有多篇探討AI出錯、學會偏見,甚至出現「幻覺」的短文,可供反方一用,與正方堅定相信的「AI法官『助理』=百分百理性零錯失」來一次針鋒相對。

反方其實曾在一副辯嘗試如此反擊,可惜曇花一現,既沒有翻閱更多文章,令詞彙更豐富更具殺傷力,也沒有把反擊內容納入成為主線一部份。

即使將來技術成熟,成本修護其實十分昂貴(參閱「演算何價」一段)。部份地區或許能夠負擔,正方提及的地區,都可以輕鬆負擔嗎?比之於遵循舊路培育多幾位法官,更輕鬆更容易嗎?如何比較量度?

至於法治水平下降、國民失去對法治信任等說法,正方有混淆視聽之嫌疑。正方提及的部份地區,司法人員嚴重不足,法治水平不堪入目,與國家政局難道完全沒有關係?人民對國家機器若有懷疑、不滿甚至彼此有敵意,有「足夠」法官又如何?

誠然,上述質詢不能立竿見影,令正方應聲倒下。不單因為正方可以空談正能量盼望,過往歷史告訴我們:新技術往往能減少人手投入,降低成本。如何論證AI法官與蒸汽機不可等量齊觀,再進一步指出“……人工智慧是法官裁判的輔助,而在可見的將來,甚至永遠都不可能成為法官裁判的依賴……"(3),反方需要多下功夫。

總括而言,正方不斷強調AI法官非常能幹,既掌握大數據技術,能處理海量資料,又能不偏不倚的理解法例做判決,真的非常動聽。若果不從基礎開始層層打擊,正方總能夠敗部復活,負隅頑抗,很難扳倒。

評策略 觀比賽 反方餘空槍

我作為你們的老鬼,批評你們備戰失誤、空槍上陣,我不感到高興過癮。

反方部份辯論員,其發言有點文青風:先有Quotation、打招呼、發言,不落俗套。可惜清新的風格,救不了比賽。

若果要總括反方的主線,筆者會粗略簡化為:

AI法官有其局限,未能準確進行價值判斷及通曉道德議題,故此不應以AI法官執行或取代人類法官任務。

立論很單薄。我嘗試了解為何如此舖排主線。今場辯題之不堪,在於正方肩負太多課題的舉證責任。傳統攻略,反方只要拋出大量可行性技術性問題,責成正方回答,正方一時不慎,就會跌入泥沼,疲於奔命回答問題,比賽卻可能因此變得瑣碎,格局不夠宏大。

筆者曾經遇上相似境況,結果該場比賽決意走「大格局」,不和對手糾纏於一堆可行性技術性爭議,選擇爭論誰的核心價值最合理最有意義。結果筆者一方落敗,學會一點教訓。

是次反方是否選擇走「大格局」,捨棄糾纏游擊?可能吧。走大格局有其好處,若果正方十分強勢,為AI法官的科技層面作出強力而全面的辯護,反方還可以透過「人類法官無可取代」作為辯護理由,指出技術可行又如何?AI法官就是有其局限!

只不過,這個大格局依然要透過申述技術概念,方可突顯AI法官的局限,不能空談價值道德。況且正方不一定很強勢,其立論有機會出現錯漏,甚至支離破碎。此刻作為反方,難道視而不見,輕輕放過?故此備戰時,應該要有兩手準備,大小格局兼顧,隨時在申述及反駁上作出調整。

我不清楚反方如何備戰,大概總會先Google有關主題,逐步累積篩選資料。這篇〈AI 當法官,會是正義女神的化身嗎?專訪李建良〉(10),幾可肯定出現在搜索結果前端。反方首條台下發問,無論有關COMPAS或「愛沙尼亞AI法官傳聞」,應該都參考自這一篇吧?這一篇文章正好是大小格局兼顧的典範,既談一點科技,也申論AI法官的優劣,更關注價值選擇等課題。反方若以此(或類似科普文章)為框架,再從其他材料擷取論點,尤其吸納衡平法(參閱「法官何人」一段)論述,主線就能肌理豐富,格局齊全。

但觀乎反方現場表現,就是欠了好幾塊。沒有吸收衡平法這件重要武器,連正方錯解辯題也不察覺;或察覺卻沒有部署反擊。

直到台下發問。

今場比賽真的出了一點亂子,誰會料到正方竟然會如此錯解辯題卻依然信心爆棚?反方也許真的不知「睿法官」為何物,導致反方主辯一時未及反應,或許可以理解。但正方一副發言之後,尤其出現COMPAS這個漏洞,反方兩位副辯來不及調整主線,就突顯問題了。中途插話轉方向,本來就是副辯的基本功。作為反方,AI如何「學壞」、如何內化人類偏見、編造虛假案例、維修人員薪金監督直迫法官等等,理應放在口袋,需要時倒背如流。插不了話,明顯準備不足。既然準備不足,反方結辯沒有作出最後反擊,那就不難理解。

故此,我會如此定論:反方沒有足夠準備;甚至動機,在「AI也會從人類身上學會偏見(11)」(反方一副的反擊內容)這類課題上再走前走深一點,唯有繼續支撐其單薄主線。欠缺不足,是為空槍上陣;未有先行部署,是為備戰失誤。

題外話:正方Google有關主題,應該會讀到同一篇文章,為何會如此錯解辯題?難道正方偏偏就沒有選讀這篇文字?

先前說反方主辯一時未及反應,「或許」可以理解。為求進步,容許我再苛刻一點,不容「或許」嗎?反方主辯若不立即攻擊正方錯解辯題,等同默認正方錯誤立場。留待反方一副發言才加以糾正,雖未至於為時已晚,但已錯失先機,兼且留下壞印象。

個人認為,現行賽制下,反方主辯是最難駕馭的一個位置。既要開宗明義,舖陳立場論據,卻同時受制於剛才正方主辯說了甚麼,不能照稿讀;又不能脫稿臨場爆肚。要「好像」即時反擊正方主辯,又不能只反擊不宣示立論,對臨場應變及稿件組合兩種能力,都有極嚴苛要求。

補充一句廢話:那個位置不嚴苛很輕鬆?

最後,一點基本功。正方曾煞有介事提出類似質問:各種司法問題存在多年,法官短缺情況沒有得到改善,不引入AI法官,你告訴我怎麼辦!?

說得很響亮。愈響亮,愈值得一棍子敲下去,更響亮!首先,法官短缺問題原因是甚麼?參閱前幾段。正路應如何解決?找一個AI法官出來,甚至吹捧作大救星,會否太魯莽,況且AI法官根本就甚麼甚麼如此這般,故此不是對症下藥的方案,反而是藥石亂投!反方從來不會反對引入人工智能,協助法官提高效率,改善司法質素。情況好比早年記錄法庭審訊過程,由靠筆桿靠打字,進展至錄音錄影自動文字生成。正方一時衝動,把能幹的AI法庭助理推上法官座椅,害人害「它」,於事無補,更會引發問題甲乙丙丁及更多

有足夠準備,正方那些響亮點子,就會成為反方舖陳論據的踏腳石。

創新辯題 革新賽制

以下是頭盔:我沒有好題目可以提供,只有一些不太惡劣的建議。還是老調重彈:好題目應有焦點、求均勢。

討論之前,大家要了解自己的心願喜好。我鍾情AI這個課題,即使如何艱澀,都極想保留,怎麼辦?

誰說辯題一定要簡單易明,老少咸宜?題目艱難不是缺點,有足夠時間準備比賽就可以。兩個月足夠嗎?開玩笑吧,準決賽後豈非要等兩個月才舉行決賽?

或許可以參考2022年臺大亦恩盃:3月公報兩條題目(12),總共16間大專院校參賽,透過Zoom舉行,7月份四天內完成所有比賽(13),包括初賽及決賽。只有兩條辯題,反覆在比賽中使用,我覺得太少,有點不習慣,卻不得不承認是上佳設計。參賽院校(按道理)有足夠時間深入鑽研兩條(重點是少量)題目,甚至正反/甲乙雙方論點都一併準備,在幾天賽程中不需再花時間掌握新辯題。考慮香港實況,一個星期內完成所有實體賽事,不太過分吧?

再激進一點,圍繞一個硬議題(例如AI),設計兩三條都是涉及AI的辯題,比賽發言也許很學究很趕客,不過大專辯論不是應該有大學程度嗎?若果成事,不妨詢問一些人工智能開發商(假如香港存在這種業務),有沒有興趣成為比賽Sponsor。

這裡涉及整個賽制的革新。正如今次比賽正方總結所言:作出改變,當然充滿擔憂,卻是必經階段。筆者不強求大改革,建議大家懶惰一點,索性「抄襲」。香港也有大專院校參加是次臺大亦恩盃,可以聯絡他們了解多一點。「抄襲」前,做好禮節拜會,也許還可促成友誼交流。

這麼多前言,為要總結出兩點:

  1. 辯題應重質不重量,日後每一屆好好設計兩三條辯題,勝於拋出一堆不堪入眼的題目
  2. 好辯題應該不避艱澀,首重深度及視野,不宜瑣碎及陳腔濫調

然後,第一組建議辯題如下:

雙辯題

(甲)廣泛應用人工智能,有助緩解貧富懸殊(或有助緩解勞工短缺)

(乙)廣泛應用人工智能,毋助緩解貧富懸殊(或毋助緩解勞工短缺)

單辯題

  • 廣泛應用人工智能,將會令貧富懸殊漸催惡化;或
  • 廣泛應用人工智能,將會令低技術工人失業情況漸催惡化

第二組建議辯題:

雙辯題

(甲)人工智能研發,主要應由政府撥出公帑資助

(乙)人工智能研發,主要應由私人資本資助

單辯題

  • 人工智能研發,應全數由私人資本資助;或
  • 人工智能研發全數由私人資本資助利多於弊

上述的辯題好嗎?當然很差,稍勝於不堪入眼吧。課題既觸及AI,同時指向另一個社會/經濟議題,需要做一點功課,不能侃侃而談交行貨。

話雖如此,仍需要整理修訂一下,例如:

  • 本土一點(加上香港等字眼),還是任由它適用於全球?
  • 「貧富懸殊」會否太空泛?
  • 同樣,「主要應由」太空泛,應該用甚麼字眼取代?
  • 「全數」有點不利正方,可以用甚麼字眼替代?本意是政府/國家不應插手。

原來我開始妥協,用上「利多於弊」。

老鬼評論了,過足癮了,暫時收筆,休息一下。

最後補充:整篇文字人手寫作,沒有動用ChatGPT或其他人工智能文字生成工具。

 

 

註:

(1) 《大專辯論賽2023(第一場準決賽)》 https: /youtu.be/h_z7fkpHSFI

(2) 《莊敬自強——2022大專辯論賽決賽賽評》 (朱安)  (17/8/2022) https://www.facebook.com/idebate.hk/posts/5879583722055214

(3) 《法律該賦予人工智慧什麼地位?實現與人的智慧疊拼》 (中國日報,23/1/2018) http://qiye.chinadaily.com.cn/2018-01/23/content_35561996.htm

(4) 《司法實踐中的人工智慧》 (中央網路安全和資訊化委員會辦公室,8/8/2019) http://www.cac.gov.cn/2019-08/08/c_1124851874.htm

(5) 《Equity (law)》 (Wikipedia) https://en.wikipedia.org/wiki/Equity_(law)

(6) 《法國司法制度介紹》 (黃睦涵導師/法務部司法官學院) (公務出國報告資訊網)

(7) 《What is strong AI?》 (IBM) https://www.ibm.com/topics/strong-ai#What+is%C2%A0strong+AI%3F

(8) 《ChatGPT與荷里活編劇大罷工:他們真的在害怕AI嗎?》 (端傳媒,12/8/2023) https://theinitium.com/article/20230812-the-techsmith-are-hollywood-writers-afraid-of-ai

(9) 《印度法官人數不足 積壓案件堆積如山》 (BBC中文,24/4/2016) https://www.bbc.com/zhongwen/trad/world/2016/04/160424_india_jugdes_number_warning

(10) 《AI 當法官,會是正義女神的化身嗎?專訪李建良》 (泛科學,19/9/2020) https://pansci.asia/archives/191633

(11) 《AI 學習人類偏見,出乎開發者意料》 (科技新報,13/11/2019) https://technews.tw/2019/11/13/artificial-intelligence-to-learn-human-prejudice/

(12) 《2022亦恩盃 辯題公布》 (臺大亦恩盃,17/3/2022) https://www.facebook.com/yiendebate/posts/2325472564417940

(13) 《2022亦恩盃 賽程表公布》 (臺大亦恩盃,12/6/2022) https://www.facebook.com/yiendebate/posts/2378121815819681

 

 

延伸閱讀:

《香港的法律制度》 (律政司/香港特別行政區) https://www.doj.gov.hk/tc/our_legal_system/the_common_law.html

《AlphaGo成為「棋靈王」是有多厲害?人工智慧未來又要怎麼走?》 (泛科學,14/3/2016) https://pansci.asia/archives/95263

《不靠人類!最強AlphaGo Zero誕生 「自學3天」100:0秒殺AlphaGo》 (ETtoday新聞雲,19/10/2017) https://www.ettoday.net/news/20171019/1034471.htm

《從無知到無敵:AlphaGo Zero 是怎麼辦到的?》 (泛科學,13/11/2017) https://pansci.asia/archives/129920

《AlphaGo Zero Is Not A Sign of Imminent Human-Level AI》 (Skynet Today,30/3/2018) https://www.skynettoday.com/editorials/is-alphago-zero-overrated

《人工智慧於司法實務之可能運用與挑戰》 (龍建宇、莊弘鈺) 《中正大學法學集刊》 62期 (2019 / 01) p43-108

《打敗棋王後虧損破千億!AlphaGo開發商Deepmind今年終於賺錢,怎麼辦到的?》 (數位時代,12/10/2021) https://www.bnext.com.tw/article/65494/loss-25000-million-within-4-years?

《人臉識別到底是甚麼?演算法是不是無所不能?》 (端傳媒,6/9/2022) https://theinitium.com/article/20220906-international-is-facial-recognition-invincible

《美律師使用 ChatGPT 寫摘要,被法院揭穿內容全是假》 (3C新報,29/5/2023) https://ccc.technews.tw/2023/05/29/lawyer-use-ai-to-write-document-proved-fake/

《ChatGPT到底有多少碳足跡?》 (端傳媒,1/6/2023) https://theinitium.com/article/20230602-dataphile-carbon-footprint-of-chatgpt

《「人工智能會讓人類滅絕」 - 圍繞這個問題的最新討論都說了什麼?》 (端傳媒,19/6/2023) https://theinitium.com/article/20230619-opinion-ai-threats

《ChatGPT 有 3% 答案是編造!研究證實:AI 的確有幻覺,真相大出意外》 (科技新報,18/11/2023) https://technews.tw/2023/11/18/ai-hallucination


28會員
130內容數
留言0
查看全部
發表第一個留言支持創作者!