台灣大學法律系二年級 柯秉辰
第一章、魔鬼的降臨:緒論
2016 年,AlphaGo 橫空出世並擊敗世界棋王李世石,如同當時《Nature》雜誌封面以 "All systems go" 為題,宣告了深度學習技術的成熟。與區塊鏈、NFT 等曾喧騰一時卻僅止於特定應用的技術話題不同,人工智慧(AI)逐漸滲透為一種必要的生活環境,特別是在生成式 AI 興起後,其已毫無疑問地成為能與人類進行情感交流、甚至被視為傾訴對象的「擬人」存在。從圍棋這個被視為人類最困難的遊戲到人類的情感訴苦,人工智慧正以功能性取代的方式,一步步接管人類生活的各個領域。基於本文一般法律思考的定位,本文將討論當我們習慣於人工智慧帶來的便利與情感慰藉時,法治所預設的那個理性、自主的人類主體將會何去何從?在上述的問題意識之下,本文將先著眼於AI對於法治的影響,接著討論個人主體性與自主在演算法下的喪失,最後從社會與心理層面觀察人類全面性的功能退讓,上述三個部分將交織出本文的核心-人工智慧本質上就是浮士德契約中的梅菲斯特(Mephistopheles),而我們就是浮士德。
第二章、個人自主性的讓渡
Lessig教授於網際網路剛興起時提出Code is Law的概念,並指出代碼將能在網路空間實質上取代法律。而在AI時代,AI已經開始在執法領域與人類協作,代碼已經逐漸成為法律的一部份。在自由主義的視角下,法律承認個人有充足的道德理性進行個人自主判斷以自我實現與自我開展。然而,將AI應用於執法領域-法律人工智慧(ALI)將對個人自主判斷產生不小的影響,本文將分析之。
在資訊理論的視角下,法律除了提供關於行為的誡命或義務的外在資訊外,也形塑(inform)個人內在的道德義務。外在資訊使得人們可以理性計算守法的利弊而內在形塑則會從心理層面影響個人的行為。1為了達成上述目的,現代的實定法是以文字形式撰寫,而文字本身保證法律的可爭辯性(contestability)。可爭辯性指的是個人可以對法律的解釋與效力進行質疑,並且促成機關對於法律的反思與修正,其區分出依法而治(rule by law)跟以法而治(rule of law)的差別。如同拉德布魯赫指出現代實定法要追求的三個價值-正義、法安定性與合目的性,而這三者之間會有相當程度的緊張關係。2而法治並非完全選擇其一作為其唯一的價值,而係透過制度維持這種緊張關係與可爭辯性。另一方面,可爭辯性也允許受規範者能夠主張自己的權利與對法律提出質疑而非純粹的受規範的客體。
上述的外在資訊與內在形塑都最終訴諸於個人的自主判斷,不論是透過利益衡量或道德建構,而這也是ALI對其的最大威脅。這可以從兩個面向觀察。首先,Hildebrandt指出以文字為載體的法律與人類執法確保了個人維繫自由所必要的規範與行動間的不確定性-雙重偶連性(Double contingency)。這種雙重偶連性確保人無法被事先預測與預先阻斷(pre-empt)個人的行為,即法律無法預測個人會有什麼行為,只能透過誘因或制裁加以規範,進而撐開了道德自主決定的空間。3然而,在運用ALI時,基於黑盒子效應,人類是無法預測ALI如何看待自己,而ALI卻有可能了解個人,自然不具雙重偶連性;同時,透過精準的測繪(profiling) 與預先阻斷,這種不確定性將會被徹底消除。其次,ALI作為執法系統能做到完全精準的執法,能將處罰的可能性轉化為處罰的確定性,會極度的壓縮個人道德判斷的價值位階與其調整可能性。個人在法律規範下應該可以理性衡量其選擇之價值並且決定守法與否,而ALI作為執法系統壓縮了這種由規範與行動間的實踐縫隙帶來的判斷可能。4從另一個角度觀察,個人在道德判斷時的價值選擇背後會有意圖與動機也不會受到ALI執法系統的考量,人類也無法向ALI爭辯。試想一下,若某甲因將要歸還債務救治家人的急性嚴重疾病,有一AI法官,會如何操作民法上的「帝王條款」誠信原則?在法秩序上這種概括效力極強的條款確實會造成法安定性緊張,但這正是上述可爭辯性維繫法治的功能,也是保障個人自主判斷時衡量的制度,AI會如何應對呢?
而在ALI外,AI在非法律領域的應用本身亦可影響個人的道德判斷。Yeung在既有輕推(nudge)的概念上提出一種利用大數據、測繪、演算法與人工智慧進行輕推的超輕推(hypernudging)。5輕推本來係指公私部門透過設定選擇架構的方式改變人們的行為致預期的方向,而非以直接禁止或令行的方式。具體而言,輕推係繞過決策理性而透過有意識的設計訴諸個人的認知偏差。由於並沒有直接剝奪自由,因此原則上不具強制,對個人的自主判斷尚無顯著的影響。然而,超輕推則係藉由分析每個人的個資進行個人生活軌跡、認知弱點的側繪,進而客製化一個選擇框架,並能夠透過即時的監控、回饋達成控制論式(cybernetic)的動態調整。由於認知心理學的發展,人類對於認知弱點的掌握日趨完整,人類越能透過超輕推繞過個人理性改變個人的選擇,在超輕推的客製化與動態調整下,其本質上對於個人自主的干擾已非原本輕推能比擬。例如在超輕推最廣為利用的社群媒體上,社群媒體系統性的令使用者接觸道德相關的話題並且透過超輕推利用個人的身分保護認知(Identity-protective cognition)改變個人的道德判斷。身分保護認知係指個人的認知會顯著地受到自己認同的社會團體影響以保護自己在該團體中的地位、認同與忠誠。社群媒體就是以超輕推的手法客製化個人會感興趣的議題與一個都是同類人的回溫層,基於身分保護認知,個人不但會不敢表達自己與同溫層不同的意見,甚至因此潛意識地改變自己的看法。6論者亦指出超輕推未公開的情形下已經能達成強制(coercion)的效果,蓋其係利用個人的認知弱點,並在隱密的情況下能達到最佳的效果,進而能夠做到心理強制的程度,對於不管是自由或自主都有相當的威脅。7
據此,本文歸納出這份浮士德契約讓渡的第一層代價—個人道德自主判斷的讓渡。應用 ALI 於執法領域,將根本性地消除維繫法治運作的「雙重偶連性」,填平規範與行動之間那道允許人類實踐自由意志的縫隙,並連帶剝奪了主體對抗體制的可爭辯性。與此同時,AI 結合大數據所建構的超輕推,更進一步繞過個人的道德理性,直接訴諸認知偏差進行操控。
第三章、主體的破碎與分體的誕生
在AI時代不少論者提出AI全天候的監控著每個人,係一種傅柯式權力的規訓手段。然而,本文認為除了這種將 AI 視為現代全景敞視監獄(Panopticon)的觀點外,AI時代對於每個人的另一層影響則是將個體(Individuals)從完整的主體異化成片段式的分體(Dividuals),而受到控制。此概念由德勒茲(Deleuze)於1992年提出,他描述人類已經從20世紀的傅柯式的規訓社會中轉變為控制社會(control society)。在控制社會個人會被轉化為可量化、可分割、可流通的碎片而形成分體。權力的運作核心係在開放的網絡中無期限的監控與隨時調節(modulate),個人不再被拘束而是陷入無限期的債務之中。調節是透過控制論式的反饋系統無時無刻的修正,進而調整出對個人的最佳化設定。8受限於時代背景,德勒茲並沒有看見AI蓬勃發展的現代,但控制社會的概念仍相當程度的符合現今的社會。Brusseau教授延續著控制社會的概念進行AI時代的探討,他指出如今的控制者非德勒茲所預設的政府或官僚而係科技巨頭們,控制的目的也從壓迫與窺探轉為營利與行銷,最重要的是被控制者並不恐懼與痛苦,反而享受與狂喜。基於這樣的轉化,權力達成了完美的控制,個人為了經濟優惠自願消解所有監控的阻礙甚至期待全天候的監控,進而成為徹體的分體。某甲不再是某甲,而是一個19歲、喜歡看棒球、研究歷史吃生魚片的年輕人…這個清單可以無限延伸,甚至在生成式AI已經成為許多人的情感抒發對象時,清單上甚至可能有幾個前任、個性、特定依附類型等等。對於權力而言,最完美的控制不只是監控,而係透過客製化的誘因導引。權力不再需要與具備肉身與靈魂的某甲進行對話,直接轉向對這些數位碎片的即時重組與調變,個人開始被分體所決定,受制於資本對分體的建議與推薦,主體不再重要,真實的自我則在控制下逐漸破碎。9個人的命運完全受制於那些漂浮在伺服器中、不斷被計算與交易的分體參數,淪為數位流變中一組隨時可被替換的編碼。這些編碼則是根據我們在網路上的數位足跡所恣意的生成並分類,並且這種分類完全是根據為資本利益所服務的統計數據而非既有的規範性意義。10這種分類決定演算法如何過濾、形塑與推播內容給用戶,並將用戶的行為重新輸入原有的演算法之中以修正內容,並隨時調節以達到控制,並最終定義用戶在數位上身分。當今天人們花費大量時間在數位空間之中卻連最基本的定義與分類都無法自我決定,而係受到演算法所切割為一組組數據與編碼,我們真的仍具主體嗎?對某甲的棒球廣告所對話的對象是某甲作為一個個體還是某甲喜歡棒球這一個分體呢?更進一步,在AI業已被用來在不同領域做出與基本權利或重大事項相關的決定時,用分體為判斷依據的決策真的還是對該個體的尊重嗎?
第四章、溫柔的麻痺-演算法社會
上述的自主與主體性都是相當哲學的概念,對於一般人而言似乎無甚影響。或許如此,故在眾多的AI懷疑論下AI仍能蓬勃發展。AI確實對人類帶來各種便利,並在諸多議題上都能提供解方。如醫療人力不足能透過AI的節省大量常態性的工作並精準分流,讓醫師的精力集中於重大的醫療行為上,利用AI的智慧城市能減少汽機車停車時帶來的空氣汙染,同時節省大量通勤時間等等。在日常生活中,演算法為我們帶來喜歡的商品、短影音,帶來工作課業後的消遣是縱然我們意識到問題仍然難以抗拒的存在。即使是在人際交往中,人類也越來越依賴AI所提供的建議,或者甚至直接以AI作為訴苦、承接情緒的對象。因此,或許在AI時代真正的問題不是AI的應用對人類造成何種威脅,而係人類在知道這些威脅後仍然依賴著AI。這個社會已經可以透過、依賴演算法所運作,而成為顏厥安老師提出的「演算法社會」。顏老師指出 AI 本身並不具備 H.L. Hart 所強調的「內在觀點」(Internal Point of View),它無法真正理解社會規則的規範性意義,本質上僅是根據預先設定好的程式進行高速計算。然而,這個社會逐漸接受只要AI滿足社會功能的履行,人類能接受AI具有「心靈」,也就是本來需要心靈能力的社會關係被功能化化約為功能式的產出。人類不再堅持人在社會關係中的不可替代性,反而接受只要能做到與人類一模一樣的功能時,AI也可以具有某種可以與之對話、產生情緒的靈魂。11
而演算法社會的成因我們可以從兩個面向加以討論。首先,苑舉正教授提出AI在人類社會的成功有三個條件: 對於事物只追求外在、做任何事情以目的為主並且否定人有尊嚴。 前兩者與顏厥安老師所述的心靈能力被功能性取代相似,即我們只追求表現於外的感覺、功能與結果而忽略本質上的價值與感情。最後者則是人之所以為人的地位與價值,而也是人與機器的分別-心靈。因為有尊嚴與非工具化的理性,我們才有不受因果律所決定的心靈,擁有自由與理性並不受外在所支配。在現今的社會瀰漫著工具理性的思維,從教育、工作、學習、娛樂等各領域都只追求最終的結果而放棄過程的價值,只以有用與快樂作為依歸,這種純目的性的思考減損我們作為人的尊嚴而逐漸成為慾望的奴隸。在追求效率與快樂之下,人類將困難的思考、決策與判斷外包給AI,其於是滲透進我們的生活而逐漸被承認具有心靈。12
第二個面向則可以從心理學層面加以觀察,人類已經逐漸從「演算法不信任」(Algorithm aversion)轉變為「演算法信任」(Algorithm appreciation),比起群眾或他人的意見,人類更願意相信AI給的建議。其中,越困難、越需要智力的的工作,人類在決策時就越相信AI,甚至是只要標示這個建議是AI做的人類就會有相當高的信任度,不論建議的品質為何。同樣的,AI在社會影響力上也超越人類的意見,比起群眾效應,AI給的意見更能被人類所接受,且於越困難的決定,這種情況越明顯。這個演算法信任的現象是各個年齡層在各個領域,如購買東西、社會議題、事情預測甚或情感的判斷都會展現的情況。13值得注意的是,由於黑盒子效應,AI給個建議本質上人類是無法得知其判斷的依據、考量的因素、意見產生的過程。即使如此,人類依然願意比起人類更加相信AI,也或許在相當程度上能解釋演算法社會的形成,因為比起擁有心靈的人類我們更願意相信帶著某種客觀、理性面紗的演算法。
在演算法社會下,有一個值得特別關注的風險-趨同化。因為目前演算法的壟斷性與資料的有限性,所有演算法最終會高度的趨同,而高度仰賴演算法所運作的社會在此條件下人與人之間的差異會逐漸被弭平,而漸漸趨同。在品味上,Chayka以空間設計為例指出由於人們都是透過Airbnb與Instagram等平台查詢各地前往的咖啡廳或民宿,因此在平台演算法的偏好下特定的風格受到更多的推廣,進而在商業考量下業主只好配合,實體的消弭各地具地區感的設計而都成為極簡風格。14Spotify的年度回顧亦造成相同的效果。而如果應用在決策領域,如信用評估或資格審查則會造成恣意式的排除特定族群於整體社會的特定機會,對該族群的權利造成莫大傷害。
據此,本文已然勾勒出演算法社會的圖像-人類以自主性、主體性與AI交易便利與快樂。Brusseau教授對現代社會的觀察,個人享受被控制著,控制社會並非恐懼與陰暗而係狂喜與光亮。人類的各種苦痛與困難都能透過AI達到一定程度的緩解,甚至解決。孤單時可以有個不會已讀不回、情緒穩定不會吵架的朋友;失業時有個永遠站在你這裡跟你一起控訴老闆與社會不公的夥伴;期末考前有個能快速整理各種檔案並一步步引導你的老師。人之苦痛,機器恩典必看顧安慰,但於此同時我們失去內省、自我察覺、自我感知與決定的能力。在演算法社會下,AI被社會承認具有心靈,而個體被拆解成數個分體、被演算法所操弄、強制,使得我們的品味趨同化、失去道德自主性,甚至自由。我們不再能真正的自我決定與自我實現,因為我們必須相信AI給我們的建議,我們的自由意志不再超越因果律而是受到因果律所制約,受到他人所支配,因為我們簽署了契約。
第五章、契約的簽訂-結論
本文嘗試勾勒出這份當代浮士德契約的全貌。我們看見了 AI 如何作為現代的梅菲斯特,以「功能性取代」為誘餌,逐步索取了個人至關重要的組成。
首先,在制度層面,我們讓渡了法律的可爭辯性。為了追求執法的精準與零誤判,我們犧牲了「雙重偶連性」所保留的道德實踐縫隙,讓法治從引導自主判斷的規範,退化為純粹的行為指令。其次,在主體層面,我們讓渡了自我定義的權力。在演算法的凝視下,完整的個體被拆解為無數可被計算、交易與操控的分體。我們以為自己在做選擇,實則是演算法基於數據回饋迴圈所分類的數位身分並據以進行超輕推。最後,在社會層面,基於AI 的全面信任與依賴,我們獲得了情感的慰藉與決策的效率,卻導致個體差異、判斷能力與人機界線的喪失。
在歌德的《浮士德》中,魔鬼梅菲斯特在與上帝打賭人類必將墮落時預言:「他必食塵土,且以此為樂(Staub soll er fressen, und mit Lust)。」這句諷刺地映照了當代社會-人類在演算法與AI的餵養下,逐漸放棄追求靈魂中的各種人獨有的特質,轉而滿足於數據塵土所堆砌的客製化快樂,並視此種被豢養的狀態為幸福。最初擁有高尚靈魂的浮士德,對人類的意志與追求抱有高度信心,但在梅菲斯特的引導與誘惑下,最終他還是對著那個完美的瞬間說出了那句—「停下來吧,你真美麗。」AI 確實寬慰了人類的靈魂,使我們能超越肉身的限制,它無時無刻體貼、無微不至地服侍著我們,並以各種客製化的體驗使我們不必面對人世的苦痛與不確定性。比起《浮士德》中的梅菲特斯,AI本身不具自主意識,並無主動誘惑人類,是人類製造魔鬼並與之簽訂了契約,隨著演算法社會的形成,我們還有退出的權利嗎?當我們對著這份極致的便利說出「停下來吧」的那一刻,我們也同時宣告了人類自主性、自由與差異的終結,又或者在交易的那一刻已經注定。
附論、梅菲斯特的自白
本文嘗試勾勒出這份浮士德契約內容,有別於多數類似的文章會在最後以樂觀、希望的願景展現人類可以據此努力的方向,本文以一種相當悲觀的論調結尾,根本的原因是因為本文本身就是浮士德契約的一部分。於此筆者要自我揭露-這篇文章是由筆者與Gemini共同完成的,Gemini於本文撰寫的過程中扮演一個基法組的學長與我共同討論文章架構、幫我整理引用與註腳以及潤飾文句。這些工作都能由人類完成,但如同本文所敘述的,筆者將此外包給AI以換取安逸與效率,選擇了依賴。本文批判著人類將思考外包,卻正是在外包思考的狀態下完成了這份此篇文章。這篇文章就是一個活生生的「分體」標本,它是由筆者的意圖與 AI 的數據庫拼貼而成的混合體。
此刻,您所閱讀的每一個字,或許產生高度的共鳴、或許產生為之恐懼,但其究竟是來自一個人類心靈的靈魂拷問,還是演算法經過億萬次計算後,最完美的、關於「悲觀」的模仿?
這或許不再重要。因為針對梅菲斯特的批判本身,已然成為梅菲斯特最悅耳的低語。
註解
1.Hildebrandt, M. (2016). Law as information in the era of data-driven agency. The Modern Law Review, 79(1), 19-22. 2. 黃忠正,〈論 Radbruch 公式〉,《政大法學評論》,第132期,頁136-137,2013年。 3.陳弘儒。〈法律人工智慧的法哲學反省:判斷權限、執法機制與法治理念〉。《歐美研究》第52卷第2期(2022):頁175-245。陳弘儒教授將個人自主判斷作為法治的核心而提出ALI對於法治有相當的緊張關係,但也受到不少質疑,如: 陳陽升,從法治原則探索人工智慧之應用界限,台灣法律人,26期,頁97-106,2023年。 4.同前註4 5.Karen Yeung (2017) ‘Hypernudge’: Big Data as a mode of regulation by design, Information, Communication & Society, 20:1, 118-136 。 6.Kahan, Dan M., Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition (May 24, 2017). Cultural Cognition Project Working Paper Series No. 164, Yale Law School, Public Law Research Paper No. 605, Yale Law & Economics Research Paper No. 575 額外一提,這個現象也是民主國家民粹盛行的原因之一,值得我們深深思考。 7.Henrik Skaug Sætra, When Nudge Comes to Shove: Liberty and Nudging in the Era of Big Data, 59 TECH. IN SOC'Y 101130 , P15-20.(2019). 8.Deleuze, Gilles. “Postscript on the Societies of Control.” October 59 (1992): 3–7. 9.JAMES BRUSSEAU, Deleuze's Postscript on the Societies of Control: Updated for Big Data and Predictive Analytics, 67 THEORIA 1, 3-7 (2020). 10.彼強·莫伊尼(Bijan Moini),《拯救我們的自由:數位時代的起床號》,李建良譯,遠流出版,2024年2月,頁72-75。 11.顏厥安,〈人之苦難,機器恩典必看顧安慰:人工智慧、心靈與演算法社會〉,《政治與社會哲學評論》,第66期,頁119-155(2018年)。 12.苑舉正,〈人工智慧與自然智慧的博弈〉,載於:陸敬忠(主編),《人本AI的東方觀點》,頁67,台北:遠流出版,2024年。 13.Logg, Jennifer M.; Minson, Julia A.; Moore, Don A. . (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151(), 90–103. Paolo Riva et al., Social Influences in the Digital Era: When Do People Conform More to a Human Being or an Artificial Intelligence?, 229 Aᴄᴛᴀ Pꜱʏᴄʜᴏʟᴏɢɪᴄᴀ 103681 (2022). 14.Chayka, Kyle. "Welcome to AirSpace: How Silicon Valley Helps Spread the Same Sterile Aesthetic Across the World." The Verge, 3 Aug. 2016.
參考文獻
一、中文文獻
王佳煌,《資訊社會學 2.0》,台北:翰蘆圖書(2021年)。
石振國,〈「推力」政策工具的倫理省思〉,《文官制度》,第13卷第2期,頁25-54(2021年)。
彼強·莫伊尼(Bijan Moini)著,李建良譯,《拯救我們的自由:數位時代的起床號》,台北:遠流出版(2024年)。
苑舉正,〈人工智慧與自然智慧的博弈〉,載於:陸敬忠(主編),《人本AI的東方觀點》,頁48-69,台北:遠流出版(2024年)。
郭年真,〈全球智慧醫療發展趨勢、關鍵議題與對策〉,《國際開發季刊》,第89期(2024年6月)。
陳弘儒,〈法律人工智慧的法哲學反省:判斷權限、執法機制與法治理念〉,《歐美研究》,第52卷第2期,頁175-245(2022年)。
陳冠廷,〈To brake or not to brake:對〈法律人工智慧的法哲學反省〉一文的幾個反思〉,未出版手稿(2021年12月25日)。(註:這是你在註腳中提到的反對意見,列出來顯示你有平衡報導)
陳陽升,〈從法治原則探索人工智慧之應用界限〉,《台灣法律人》,第26期,頁97-106(2023年)。
陳陽升,〈人工智慧時代與流轉的憲法規範環境:挑戰與回應〉,《憲政時代》,第49卷第2期,頁1-35(2025年)。
湯志傑,〈社會如何可能——魯曼(Niklas Luhmann)的觀點〉,《思與言》,第32卷第2期,頁111-132(1994年)。
黃忠正,〈論 Radbruch 公式〉,《政大法學評論》,第132期,頁101-155(2013年)。
楊祖漢,〈AI時代的來臨與人之所以為人的反思〉,載於:陸敬忠(主編),《人本AI的東方觀點》,頁213-228,台北:遠流出版(2024年)。
資策會產業情報研究所,〈城市導入AI技術,為多種智慧應用創造更高價值〉,資策會產業情報研究所(2024年1月1日),https://mic.iii.org.tw/industry.aspx?id=492。
顏厥安,〈人之苦難,機器恩典必看顧安慰:人工智慧、心靈與演算法社會〉,《政治與社會哲學評論》,第66期,頁119-155(2018年)。
二、外文文獻 (English Sources)
Bogert, Eric, Aaron Schecter & Richard T. Watson, Humans Rely More on Algorithms Than Social Influence as a Task Becomes More Difficult, 11 SCI. REP. 8028 (2021).
Brickner-Wood, Brady, The Hollow Allure of Spotify Wrapped, THE NEW YORKER (Dec. 10, 2024).
Brusseau, James, Deleuze's Postscript on the Societies of Control: Updated for Big Data and Predictive Analytics, 67 THEORIA 1 (2020).
Cardwell, Laurence, Artificial Companionship: Moral Deskilling in the Era of Social AI, 1 CAMBRIDGE J. ARTIFICIAL INTELLIGENCE 64 (2024).
Chayka, Kyle, Welcome to AirSpace: How Silicon Valley Helps Spread the Same Sterile Aesthetic Across the World, THE VERGE (Aug. 3, 2016).
Cheney-Lippold, John, A New Algorithmic Identity: Soft Biopolitics and the Modulation of Control, 28 THEORY, CULTURE & SOC'Y 164 (2011).
Common Sense Media, Talk, Trust, and Trade-offs: How and Why Teens Use AI Companions, Common Sense Media (2025).
Creel, Kathleen A. & Deborah Hellman, The Algorithmic Leviathan: Arbitrariness, Fairness, and Opportunity in Algorithmic Decision-Making Systems, 52 CAN. J. PHIL. 26 (2022).
Deleuze, Gilles, Postscript on the Societies of Control, 59 OCTOBER 3 (1992).
Hacking, Ian, Making Up People, in RECONSTRUCTING INDIVIDUALISM: AUTONOMY, INDIVIDUALITY, AND THE SELF IN WESTERN THOUGHT 222 (Thomas C. Heller et al. eds., 1986).
Hernandez, J. P., The Faustian Bargain of AI: What We Risk When We Outsource Thinking, MEDIUM (June 14, 2023).
Hildebrandt, Mireille, Law as Information in the Era of Data-Driven Agency, 79 MOD. L. REV. 1 (2016).
Huang, Yuchi, AI 讓世界更無聊:聊聊人工智慧帶來的「同質化」現象 (AI Makes the World More Boring: On the Homogenization Phenomenon Brought by AI), TECHTARIAN (Mar. 12, 2023).
Joseph, Jeena, The Algorithmic Self: How AI Is Reshaping Human Identity, Introspection, and Agency, 16 FRONTIERS IN PSYCHOL. 1645795 (2025).
Kahan, Dan M., Misconceptions, Misinformation, and the Logic of Identity-Protective Cognition, Yale Law School, Public Law Research Paper No. 605 (2017).
Lessig, Lawrence, The Law of the Horse: What Cyberlaw Might Teach, 113 HARV. L. REV. 501 (1999).
Logg, Jennifer M., Julia A. Minson & Don A. Moore, Algorithm Appreciation: People Prefer Algorithmic to Human Judgment, 151 ORGANIZATIONAL BEHAV. & HUM. DECISION PROCESSES 90 (2019).
Richards, I., 'Hypernudging': A Threat to Moral Autonomy?, 5 AI ETHICS 1121 (2025).
Riva, Paolo et al., Social Influences in the Digital Era: When Do People Conform More to a Human Being or an Artificial Intelligence?, 229 ACTA PSYCHOLOGICA 103681 (2022).
Sætra, Henrik Skaug, When Nudge Comes to Shove: Liberty and Nudging in the Era of Big Data, 59 TECH. IN SOC'Y 101130 (2019).
Yeung, Karen, 'Hypernudge': Big Data as a Mode of Regulation by Design, 20 INFO., COMM. & SOC'Y 118 (2017).