撰文期間,見IG貼出第二屆「香港大專粵語辯論聯賽」已經截止報名……筆者撰寫賽評之龜速、落後,堪稱一絕。
2024/25《香港大專粵語辯論聯賽》決賽(1)
日期:2025年6月29日比賽場地:香港樹仁大學
辯題: 甲:面對人工智能發展,我們應該感到樂觀
乙:面對人工智能發展,我們應該感到悲觀
甲方:香港中文大學新亞書院
乙方:香港浸會大學
應否撰文談論這場決賽?我心裡忐忑,因為,要給人劣評。
兩年前的大專辯論賽準決賽,題目是〈AI法官對人類發展利大於弊〉(2),同樣涉及AI,乙方都是浸會大學,當時我對乙方的評語是「備戰失誤、空槍上陣」,今回,我對乙方以至整場比賽的評語,雖云不同,失望依舊。
現場觀戰期間,我透過Whatsapp與辯友「報告/談論」賽情兼吹水,例如八卦當日其中一位評判劉慧卿女士,本來在6月28日的至善盃辯論比賽中擔任評判,比賽卻「被延期」(3)。當乙方完成一副發言後,我在Whatsapp對乙方其中一句評語是:「幾乎冇做功課」。
要承認,當時有點失望情緒,上述評語實屬用詞不當,十分抱歉。但此情此景,難以稱譽。爾後當宣佈乙方勝出比賽,我甚至有點皺眉。
乙方的天然優勢
皺眉的原因是:賽前個人判斷,辯題對乙方稍為有利,但有利並不表示可以躺下來奪標,而且功課不易做。最後,功課交不齊卻能奪標,能不皺眉?
乙方的天然優勢何在?筆者在〈AI法官對人類發展利大於弊〉中,曾引述《端傳媒》一篇付費文章:〈ChatGPT與荷里活編劇大罷工:他們真的在害怕AI嗎?〉(4),指出未來一些我們不能忽略的大趨勢,例如一整代的初級編劇(或引申至相似的技藝創作者、工匠及文職人員)將會被AI淘汰,亦間接淘汰有潛質成為資深編劇(或如上引申)的菜鳥。另一方面,其中兩位評判提及:因AI發展會引發的無條件基本收入UBI(Universal Basic Income)(2:15:04)(5),並AI正在可能開展的軍事用途(1:12:25-1:13:10),上述三個課題(甚至更多,例如人工智能會否促成digital proletariat及technological unemployment出現(6))都是如斯巨大,已經到達範式轉移(Paradigm Shift)的地步,對日後全球經濟民生、文化發展、法律規範等等,都有極深遠影響。
但社會對這類課題已經有充分討論及準備嗎?例如UBI的錢從何來。AI各方面的發展勢如破竹,無法逆轉,然而若政策、管理、法規大大落後於發展勢頭,各種問題接踵而至不在話下,甚至為日後社會種下禍根。甲方所羅列的所謂樂觀因素及趨勢,不過是人工智能解決了一些科技問題,對於近在眼前的範式轉移,有何應對?乙方只要陳述分析相關議題,並據此引起的長遠(不能在短期內緩解)疑慮,那種反烏托邦的氣氛會籠罩整場比賽,可以把甲方的樂觀陳述比下去。
但比賽實況卻令我難以理解……筆者嘗試總結一下乙方的主線舖陳:若果讓所謂「強人工智能」不受制約地發展下去,其中的不確定及憂慮(對AI的過度依賴及人工智能的反噬)會帶來種種危機。基於這種潛在的恐懼,對人工智能的發展理應保持悲觀,繼而審慎,甚至「寧願原地踏步,唔好行差踏錯」(48:12)。
若果乙方不欲由UBI或一整代技藝創作者被淘汰作為論述起點,轉用另一個切入點吧。不談範式轉移而訴諸恐懼不安,悉隨尊便,但具體細節與理論框架呢?AI超越了人類之後如何威脅我們?是未來戰士(The Terminator)的SkyNet;或歸咎於人類誤用、濫用科技?不能說乙方沒有準備,但乙方開辯的陳述單薄得難以置信,明顯沒有深入探討過相關課題。筆者所謂的單薄,就是缺乏對主線框架的細緻陳述解說,連坊間的科普材料也欠奉,反而那些老生常談的樂觀/悲觀定義,其實可以濃縮一點,根本不用佔據那麼多時間。例如乙方開辯陳述失去主動思考(23:40開始)的段落,有點意思,但為何不多講一點,例如會引致集體平庸或千篇一律式的優秀,並下一步為人類社會帶來的壞影響等等。
一點疑惑與補充。有評判認為(2:10:55-2:11:28),乙方的單薄(評判用「窄」形容之),是策略,是有意為之。或許……可否戲稱為「戰略模糊」?我曾有相似感覺,但疑惑更多……若真的是比賽策略,只能說,這是兵行險著,真的如斯藝高人膽大?加上未有途徑實證,故此,餘下文字仍然假設:功課不足,所以單薄。這種模糊策略不是我那杯茶,故此我不懂辨識。大專程度的辯論,我偏愛實牙實鑿,明刀明鎗,多一點資料陳述與理論框架。
沿用同一假設,繼續寫下去。
主線單薄,如何撐下去?留意乙方第二副辯的發言(44:30-48:16),用「回天乏術」形容這3分46秒,實不為過。二副本來就是一個可以順著辯題侃侃而談的位置,但筆者察覺到乙方二副竟然未能展示口若懸河的信心,給甲方一大堆功課(雖然有些功課內容不太靠得住)比了下去。
還是老調重彈,大專辯論發言內容雖然不必動用寫論文的刺繡功夫,但也不一定要老少咸宜。比賽中呈現艱澀一點的論述框架與專門詞彙,並不為過。另一方面,做足功課,對人工智能帶來的衝擊有較深入的了解,就知道不用/不能單講AI會超越人類不受控那麼「科幻」。對,也是我的個人取態,論點太科幻,就容易變得空泛離地。
再加插幾句馬後炮/題外話。有些不錯的科普文章,例如這一篇《AI 2027作者:一旦無需偽裝 AI將消滅人類》(7),於賽後不足一個月(2025/7/15)刊登,內文引介「智慧詛咒」(intelligence curse)、「對齊問題」(alignment problem)等乙方可資利用的概念素材。若果上述文字早一兩個月刊登,未知會否為比賽帶來新驚喜?但即使退而求其次,上網略為科普一下,也可令乙方主線不會如此單薄!
是否筆者一箱情願,以為乙方真的有甚麼天然優勢?其實筆者何止一箱情願,從甲方發言中,我發現自己賽前未有留意的盲點。不過,甲方似乎未有充分掌握自己的天然優勢。
直到自由辯論,筆者最缺乏興趣的環節,我才驚覺其潛在優勢。
抽述甲方的天然優勢之前,花點篇幅處理兩組重要概念:「人工智能」與「悲觀/樂觀」。
不通顯學 無以為辯
筆者斗膽預判:人工智能及有關課題,未來一段日子仍然是辯題大戶,各辯論隊成員都要在這個課題上下點死功夫。不通曉AI這門顯學,爾後如何與辯友闖蕩江湖?可惜,未知甚麼原因,今場比賽雙方似乎仍未掌握這門顯學,這個詫異在兩年前評〈AI法官對人類發展利大於弊〉中也提及。
當甲乙雙方交鋒,爭辯「強人工智能」、AI如何影響我們等等,總是露出馬腳。例如評判發問時段,詢問AI如何協助議員辦事(58:30),甲方回答時(1:00:50-1:01:53),那種「輕輕鬆鬆把任務丟給AI,就可以給你匯集整理正確的民意趨勢」……這種「AI就是很棒」的言論,是眼前實況,還是都市傳說?
首先談一談與AI無關那部份。甲方那裡來的自信?竟認定「準確/正確的民意」,不用專題調查,也不用田野挖掘,都現成地四散於網絡存放,暫時無人問津而已。輕鬆地吩咐人工智能在雲端採摘回來,整理一下,加上醒目排版就竣工了,有一種CEO命令職員下班前交研究報告的爽快感。
甲方明顯混淆了「民意調查」與「資料搜集」,況且,目前AI輔助的資料搜集,還是靠肉眼抽查一下,比較放心。
至於AI是否已經懂得(獨立自主地)自己設計及審核問卷,並懂得透過各種網絡方式聯繫目標社群,了解、查問、辨別、複核(AI複核人工智能)、綜合、分析,然後撰寫報告等等……我不敢說地球上不存在這麼美好的安排,我只是懷疑……這真的是人工智能的現況?進步得(似乎)連議員助理都可以省下來,好厲害!那裡有得下載或出售?
甲方可以與大家一起追夢,述說人工智能下一步的鴻圖遠志。說得太誇張,就容易變成信口開河了。
至於乙方最擔心的「強人工智能」(8),或AGI(Artificial General Intelligence)(9),它如何作惡?何時出現(甲方曾如此質問,乙方引述的「誕生日期」,仍存極大爭議)?我多次強調失望,因為乙方在這個/類環節上,總是著力於把這個可怕的未來轉向科幻、推到極致,具體的技術細節卻就是欠奉。即使到了評判提問環節(1:05:16-1:06:18),我仍然懷疑乙方是否清楚如何界定Weak/Strong AI,亦只能繼續空泛地說強人工智能日後「未必/可能不」受控……是誰/如何不受控?是擁有自我意識的AGI凌駕了我們?還是大財閥透過他們開發的AGI肆意操弄我們?或者由於人類過份倚賴AI,有一天人工智能因幻覺(Artificial hallucination)作出錯誤決定,人類卻已經沒有能力察覺及糾錯?AGI不受控,關掉其電源就可以奪回控制權,不是嗎?乙方有沒有準備答案去回答這種質詢(或在自由辯論環節;或透過自問自答,突顯對課題的了解)?筆者嘗試提供一個答覆,大家參詳一下:
問: 若AGI不受控,關掉其電源就可以奪回控制權,不是嗎?
答: 日後的AGI不一定是一個單一系統,可以是由一組互相照應的伺服器組成的大系統,供電來源亦可能不止一個,未必可以用單一行動關機、截斷電源。另一方面,將來若果AGI已經進入日常生活每一細節,例如協助管理核電廠及供水設施,關掉電源恐怕會弄巧反拙,造成麻煩甚至災難。故此,因悲觀而審慎,日後所有重要民生設施,若果有利用人工智能協助管理,必須同時設置由人組成的後備管理團隊,與AI管理並存。然而事態發展總是令人難以樂觀,因為只要出現資源緊拙,由人組成的後備管理團隊必然被首先裁撤,轉向更多倚賴不用薪金的人工智能。故此,AGI若不受控,我們不一定可以奪回控制權。
這是筆者心目中「不太單薄」的論述方式,「不應」在總結辯詞才出現的論述方式。
AI發展這個課題,乙方究竟是知之甚詳,故此悲觀;還是根本不了解AGI不受控是何許事,於是訴諸無知、總是害怕、乾悲觀(1:36:17-1:36:25)?甲方不懂作出這類追問試探,乙方也明顯無心部署主線準備攻守,由此觀之,雙方很大機會仍未掌握這門顯學。
再進一步,掌握AI這門顯學,不單是熟讀多篇科普及留意人工智能發展趨勢,背後的學術爭議也要涉獵,例如人工智能發展與18世紀的工業革命1.0在那方面能彼此參照?那方面不能互相比較?AI在淘汰舊工種/創造新職位這個環節,與工業革命有何異同?大議題或旁枝都要懂一點,有助拆解辯題及撰寫肌理厚重(=不單薄)一點的辯詞。
遠景大不同 押注看未來
來到比賽最混亂的地方:悲觀/樂觀之爭,其中一位評判也曾表達這種亂的觀感(1:51:02)。
如何/為何亂?筆者概括之,似乎雙方賽前都不太著力於推演這條戰線,直到比賽博奕期間,賽前較鬆散的推演開始引發有趣的現象。乙方多次反譏甲方:既然對人工智能發展感到樂觀,還需要討論監管及做好應變準備嗎?我認為這種反譏等同「送死」,贈送表演機會于甲方,但筆者更不明白……甲方為何沒有乘勢迎頭痛擊!甲方也曾多次質詢悲觀的乙方對發展人工智能的立場,乙方不敢冒大不韙反對發展AI,卻又祭不出一個說法,調和既憂心又要繼續發展這股張力……大膽反擊不是沒有,出自乙方二副:「寧願原地踏步,唔好行差踏錯」,只是甲方照樣聽不出這句話多麼送死。
這種需要辯護又未準備好辯護的怪異境況,令有心聆聽雙方如何論述悲觀/樂觀的評判,感到茫茫然,只見一埋碎片,主線呢?
或悲觀或樂觀,可以有比較堅固全面(對比於鬆散)的推演嗎?我嘗試建構一下。這個建構的源起,來自其中一位評判的建議(1:49:20-1:56:20)。
首先,日常生活中,我們訴說自己或樂觀或悲觀,往往連繫於一點順暢或一點阻滯,但不應止於眼前的順風順水或挫折重重,總要帶點對將來的展望、預測,期盼及規劃;用功利一點的詞彙,涉及我會如何對未來押注?以投資為例,悲觀的投資者一樣會規劃會押注,不一定倘平等運到,例如出售資產轉變成手上的大量現金,拒絕投資某類表面熱火朝天的業務。樂觀的投資者也會靜觀其變,策略保守,例如相信某個行業長遠而言一定會復甦,於是長期投資該行業,慢慢累積回報。
由此觀之,或悲觀或樂觀,背後都有遠景,有預測,並連結一連串押注於未來的具體行動。既有行動,下一步,就是弄清楚為何行動、有何分別。
與當日比賽相比,這個建構把具體行動納入為悲觀/樂觀一部份,然後雙方基於自己一方對將來的預判,為自己所作所為辯護。
至於那個遠景/預測/未來是何許事?以甲方為例,今場比賽,甲方拋出一大堆「好消息」,例如透過AI技術成功研發改善了甚麼甚麼,顯得很樂觀。但前景是否真的值得樂觀?其中一位評判的意見很值得細味(2:09:16-2:10:48),指出甲方要多走一步,因為眼前的好消息,與日後AI發展的大勢,或許背道而馳,焉知非禍?如此類推,乙方也不能停留在訴諸恐懼,要告訴大家讓AI持續發展下去,局面為甚麼必然會愈變愈壞?甲乙雙方都要告訴大家自己一方對未來的研判,然後辯護。
筆者嘗試做一些綜合或總結。乙方認為:即使人工智能是個好東西(參考評語1:50:20),我就是因為悲觀,了解事情日後的發展,並不如你們所說那麼美好,人工智能潛在的問題與威脅,遲早都會發生,甚至有災難性後果。借用所謂Murphy's Law(10)切入:
AI that can go wrong, will go wrong
故此有一連串的具體行動,這樣準備那樣修改,讓可能「被淘汰」的行業能未雨綢繆,為日後出現的問題做好部署,甚至提早發出警告,希望減低損失及趨吉避凶,防止某些強人工智能造成的惡果肆虐。這是一種可行的悲觀表述。至於What/How will AI go wrong?筆者認為這正是乙方本來有優勢,卻未有交足的功課。
至於甲方,由於知道人工智能是個好東西(同一評語1:50:20),所以有一連串的具體行動,千方百計做好法規,完善監督,去蕪存菁,倡議監察AI發展的機制,並保障現有工種妥善轉型,讓AI最終達成使命,造福人類。借用坊間所謂Yhprum's Law(把Murphy's Law英文字母倒轉過來)(11),就是:
AI that can work, will work
這是一種可行的樂觀表述。我就是因為樂觀,知道難題雖會出現,卻會一個接一個地解決,事情總是向著好那邊走,所以這樣準備那樣修改,盼望樂觀其成。至於What/How will AI work?甲方一樣可以科普一下未來的樂觀趨勢。
悲觀/樂觀表述既成,就會引出另一條戰線:那一個表述,更具說服力?這個爭論當日沒有出現,大家可自行腦補。
基於這個建構,乙方就不可隨便拋出前述「送死」反譏,因為甲方可以在對未來樂觀研判的大框架下,實踐各種積極或看似消極的行動,諸如第三者保險監察機構等預防性措施,都是為了將來修成正果。
由此觀之,大家是否開始察覺到甲方的天然優勢?自由辯論期間,甲方問了一條問題,乙方明顯無法回應,那條問題是:乙方到何時不用悲觀?(1:24:56)可以問得更精密一點,例如:對人工智能發展的種種疑慮及悲觀態度,乙方維持到何時?當問題有一天終於解決了,還要悲觀下去嗎?
這是封喉尖刀。回頭審視甲方之強,「或許」超乎想像。乙方還要多走一兩步,方可以堵截甲方可能用上的最強主線。
悲觀到何時? 樂觀何時有?
若果甲方在更早時段提出上述問題,並刻意經營,勝負之數可能改寫。
首先,除非乙方找到AI未來發展的一兩個難解死局(本段結尾會提出「建議」),否則甲方都可以用樂觀的態度,指出問題天天都多,但都不過困擾我們一年半載。乙方到何時不用悲觀?有一天,透過技術進步或法規架構完善,問題终於解決,到時就不用再悲觀了。
故此,甲方認定,對AI未來發展保持樂觀,還是我們合理、應然的選擇。
筆者感到奇怪,是甲方部署失誤,太遲亮劍?還是甲方糊糊塗塗,不知自己優勢何在?
至於甲方要努力準備的,是估計乙方提出的種種困境,可以如何解決,如何「樂觀應對」。今天應對不了,就花時間慢慢處理。
甲方甚至可以指出,Strong AI還未面世,大家已經察覺到相關問題並研究解決之道,正是樂觀的因由。如前述,乙方不能質疑甲方為將來的危機做準備,甚至……甲方可以說:大家看看!連悲觀的乙方也和我們一起謀求應對之策!雖然不夠積極樂觀,但一樣有功效(除非乙方認為自己的努力終究徒勞無功)。若果乙方訴諸無知,甲方亦能優雅地反擊:請問如何應對未曾知道未可掌握的人工智能危機?雖然沒有人知道這個「危機」是甚麼、是否存在,然而只要乙方提出甚麼應對,甲方都會一起行動!
我承認,若甲方把這種策略推向如斯極致,會變得有點軟皮蛇,甚至有點「無賴」。
胡思亂想時段:若果乙方的窄/單薄真的是一種策略,再巧合遇上甲方採取軟皮蛇策略,整場比賽會呈現甚麼狀況?滑不溜手的泥鰍惡鬥軟皮蛇,好模糊的一場比賽。
最後,面對超強甲方,乙方有反撲機會嗎?筆者嘗試枚舉4個遠景,4個彼此有點環環相扣的遠景,大家想想是否有助建構主線。列出來的,未必是不可解的死局,卻是可見將來,甚至近在咫尺的大難題。
- 貧富懸殊與財富分配
人工智能的發展與普及,究竟會舒緩或加劇貧富懸殊?網絡上有關討論俯拾皆是,甲乙雙方都可以找到對自己有利的遠景論述。眼前一個嚴重的問題是:人工智能是燃燒大量金錢及能源的遊戲,現時只有少數大財閥或個別政府有能力主導人工智能發展,人工智能發展的紅利,很大機會將會由少數人瓜分,惡性循環之下,貧富懸殊只會加劇。而且,AI導致的貧富懸殊背後,還蘊涵了數據掌握、演算法操控等差距,愈貧困,愈身不由己。
甲方豈會坐以待斃?應該會倡議透過財富分配(二次/三次)去撥亂反正,亦會著墨人工智能的普及會強化個體的生產力,增加社會階層向上流動的機會等等,當中涉及的可辯論議題非常多。
- 國家差距
其中一個論述是:AI加劇的,不單是國家內部的貧富懸殊,也波及發達經濟體與較落後經濟體之間的差距(12)。這些差距可能引發的國際政治問題,乙方當然要盡量「小事化大」。
- 被犧牲的一代
進入軟皮蛇狀態的甲方,可以把解決上述問題的責任交給時間,也交給AI。乙方需要強調,即使甲方那個未來願景終會實現,中間那一代,甚至兩代人呢?除非可以短期內解決上述困難,否則受人工智能負面影響的一代,例如因整個行業被淘汰的而跌入相對貧困的人,短期內未必可以享受人工智能發展的紅利。
當甲方問:乙方到何時不用悲觀?乙方也可以反問:甲方的樂觀何時兌現?甲方是否在「安慰」受人工智能負面影響的一代,甘心犧牲自己,欣然成全後世?要知道,那不是犧牲一點點,AI時代,落後一丁點,差距會火速拉遠,並且差距有機會向下一代累積。犧牲自己,後世不一定得益。
現時人工智能發展主要方向包括搶佔市場佔有率、集資盈利、取代昂貴人力,絕非單純的為全人類謀求壽比南山(13)或移民火星,一般平民是否受益,在於他們是否那群有能力付款的消費者。故此乙方的反詰,並非無的放矢。
甲方應該會倡議一些補償方案,然後就進入下一環節。
- UBI無條件基本收入(Universal Basic Income)
要留意,坊間談論UBI,不單是用作補償個別被AI淘汰的工種,更是日後AI取締了大部份勞動力後的一種社會新面貌。甲方不一定存心魚目混珠,但基本原理沒有弄清楚,雙方就會各自表述,雞同鴨講。
另外,人工智能發展的紅利,有多少可以落入UBI的口袋?UBI=公平?你的UBI數額比我的UBI數額高出多少美元?這些都與前述的貧富懸殊與財富分配拉上關係。UBI的錢從何來已經是令人頭大如斗的難題,背後還帶出一些更抽象的議題:當大多數人都不用工作仍可存活,人如何界定自己的身份與價值?
- 人性!(說好的4個遠景呢?)
乙方總結時段,本來乏善足陳,只餘謝幕。忽然總結辯員談論人性(1:36:36),談人的惰性與墜落。討論上述悲觀遠景,背後有機會觸及人性及社會的陰暗面,例如貪婪、在利益分配上目光短淺等等。舊事重提,要成為一個稱職的辯論員,大議題與旁枝都要涉獵一點,人性陰暗面這類哲理性質課題,間中有機會連繫到社會與政策性質題目。
只要是人,就一定會犯錯,不容我們盲目樂觀。具象化一點,可以用叮噹+大雄作引子(總結辯員用《鋼之煉金術師》作引子)。叮噹口袋裡的工具,是好東西,只是落入大雄手中,十之八九會出大事。AI即使是沒有缺點的好東西,但使用的人總會因自己的貪婪、愚昧、野心等,誤用濫用,結果攪出個大頭佛。
補充一點,「人性」這個用詞,其實出自甲方總結。甲方總結談論人性的辯詞很冗長,根本沒有必要講足三個故事,只需指出「水能載舟,亦能覆舟,視乎我們如何引導」,然後大談遠景,已經完勝乙方。
若果問我:甲方勝出,我會否同樣皺眉?會。然而個別表現,例如回答floor,甲方答得不錯。
飽飽滯滯的台下發問
不能不提本次決賽的台下發問,參賽雙方+評判發問,前後共12題(同一題目問甲乙雙方視為兩題)!問答歷時超過30分鐘!接近甲方開辯到乙方二副環節所花的時間!用飽飽滯滯形容之,實不為過。對參賽雙方,簡直是一次考驗/考牌之作。
見過世面的眾老鬼們,有誰經歷過這等級別的熬煉?
筆者尤其欣賞有關人工智能可能應用於軍事用途這條目與甲方的回應(1:12:25-1:13:10及1:14:21-1:15:24),回答雖有砂石,但直接清楚對題,看辯論比賽,就是想看見這種對峙。
至於日後台下發問的數目或時間,是否需要有點限制,以免比賽時間過長,留待來屆籌委斟酌吧。
擱筆前,還是與之前一樣,補充一句:整篇文字人手寫作,沒有動用ChatGPT或其他人工智能文字生成工具。可是本篇在Google階段,見AI已經參與其中,或把搜尋的資料做個撮要,或回答我的簡單提問。AI不寫,卻在支援,時代變遷之急速,始料不及。下回再就類似辯題撰寫評析,不知是何光景了。
https://medium.com/@jianwen
https://vocus.cc/user/@jianwen
https://www.instagram.com/kwanjianwen
註:
(1) 〈2024-2025 第一屆《香港大專粵語辯論聯賽》決賽〉 https://youtu.be/2L4h0JcMLBE
(2) 2023年大專盃辯論比賽評析:〈AI法官對人類發展利大於弊〉
https://vocus.cc/article/655f45f4fd89780001a7d0df
https://medium.com/間聞寫誌/debateai-8b3fd55de873
(3) 《中學生辯論比賽被荃新天地取消借場 急向中大借場獲批後再收回許可》 (獨立媒體,28/6/2025) https://www.inmediahk.net/node/政經/中學生辯論比賽被荃新天地取消借場-急向中大借場獲批後再收回許可
(4) 《ChatGPT與荷里活編劇大罷工:他們真的在害怕AI嗎?》 (端傳媒,12/8/2023) https://theinitium.com/article/20230812-the-techsmith-are-hollywood-writers-afraid-of-ai
(5) 《AI取代人力的貧窮危機是「無條件全民基本收入制」的轉機》 (財團法人法律扶助基金會,14/4/2023) https://www.laf.org.tw/edu-detail/58
(6) 《Artificial Intelligence and the Rise of a New Social Class》 (Berkeley Economic Review,11/4/2018) https://econreview.studentorg.berkeley.edu/artificial-intelligence-and-the-rise-of-a-new-social-class/
(7) 《AI 2027作者:一旦無需偽裝 AI將消滅人類》 (中央通訊社,15/7/2025) https://www.cna.com.tw/news/aopl/202507150018.aspx
(8) 《What is strong AI?》 (IBM) https://www.ibm.com/think/topics/strong-ai
《Weak vs. strong AI – a definition》 (Technical University of Applied Sciences, Würzburg-Schweinfurt) https://ki.thws.de/en/about/strong-vs-weak-ai-a-definition/
(9) 《Getting ready for artificial general intelligence with examples》 (IBM) https://www.ibm.com/think/topics/artificial-general-intelligence-examples
(10) 《Murphy's law》 (Wikipedia) https://en.wikipedia.org/wiki/Murphy's_law
(11) 《Yhprum's law》 (Wikipedia) https://en.wikipedia.org/wiki/Yhprum's_law
(12) 《聯合國報告:AI影響可能加劇全球貧富差距》 (自由時報,2/12/2025) https://news.ltn.com.tw/news/world/breakingnews/5265025
《Artificial Intelligence, Development, and Stratification Economics》 https://www.researchgate.net/publication/388449295_Artificial_Intelligence_Development_and_Stratification_Economics
(13) 《科學家:2032年後AI可讓人停止老化 延年益壽至500歲》 (自由時報,6/1/2025) https://www.cna.com.tw/news/ait/202501060339.aspx
延伸閱讀:
《How Google TPU & Gemini 3 Impact Taiwan (ft. Lee-Feng Chien》 https://youtu.be/lie9zRW2P6A
《大裁員潮 AI取代人類工作的名單曝光 下一個會是你嗎?》 https://youtu.be/O7MZGGN2RBg
《GDPval : Evaluating AI Model Performance on Real-World Economically Valuable Tasks》 https://cdn.openai.com/pdf/d5eb7428-c4e9-4a33-bd86-86dd4bcf12ce/GDPval.pdf
《Elon Musk makes shocking future predictions at U.S.-Saudi Arabia Forum alongside Jensen Huang》https://youtu.be/4bUmso_277Y












