
一、認知延伸:一個被低估的哲學框架
在人類歷史上,曾多次出現所謂「大腦外包」或「智力延展」的關鍵時刻——腦力被系統性放大的節點。在認知科學與哲學領域,這一現象擁有堅實的學術基礎,稱為「認知延伸」(extended cognition)或「延伸心智」(extended mind)。
這個概念並非泛泛之談。哲學家 Andy Clark 與 David Chalmers 在其 1998 年發表於《Analysis》期刊的經典論文〈The Extended Mind〉中,提出了「主動外在主義」(active externalism)的核心主張:認知過程並非全部發生在大腦之內,環境、工具與物件在特定條件下,可以構成思維系統的一部分(Clark & Chalmers, 1998)。他們以「奧托與英嘉」(Otto and Inga)的思想實驗說明:患有記憶障礙的奧托依靠筆記本來記錄方向,其認知功能與英嘉依靠大腦內部記憶在本質上並無二致——筆記本,成了奧托心智的延伸。
Clark 在其 2008 年著作《Supersizing the Mind》中進一步指出,思考並不只發生在頭顱之內,而是在大腦、身體與世界之間形成回饋迴圈,彼此交纏、相互驅動(Clark, 2008)。理查‧費曼(Richard Feynman)的例子最為人津津樂道:當歷史學家將費曼的研究筆記視為「工作紀錄」時,費曼本人卻堅持那些筆記不只是記錄,而是「思考本身」。這個洞察,正是延伸心智論的精髓所在。
更早之前,媒介理論學者沃爾特‧翁(Walter J. Ong)在《口語文化與書寫文化》(Orality and Literacy, 1982)中,已從媒介史的角度論證了書寫如何從根本上重構人類意識。翁的論點相當直接:書寫是一項「將思維技術化」的革命性發明,它不只儲存資訊,更從根本上改變了人們思考、記憶與分析的方式。
這些來自哲學、認知科學與媒介理論的學術成果,為本文的核心命題提供了不可迴避的理論基礎:AI,是人類認知延伸史上迄今最強大的一個節點,而非某種突如其來的異類。
二、四個認知延伸的時代節點
若以延伸心智論為框架回望歷史,人類的知識生產能力經歷了四次結構性躍升,每一次都對應著一種新型認知外部載體的出現與普及。
第一節點:書寫系統的誕生
書寫使思想得以脫離個體的身體與當下時刻,成為可以跨越空間與時間傳遞的符號載體。翁(1982)指出,文字將思維外化為視覺符號,使人類首度能夠脫離「場域依賴」(situational dependence),產生抽象的、分析性的思維模式。這不只是儲存技術的革命,而是認知架構的重組。
第二節點:通訊電子化與即時傳播
電話、廣播與電視的出現,讓認知延伸從靜態的文字轉化為動態的即時聲音與影像,使思想的傳播速度進入「即時」層級。訊息的流動從單向書本式的傳遞,演變為雙向互動的即時溝通,以及單向的大眾廣播。這個時代建立了全球資訊網絡的雛形,也大幅擴展了個體可接觸的知識邊界。
第三節點:網際網絡時代
網際網絡將「被動接收」升級為「主動查詢」。個體從資訊的被動消費者,轉變為主動的搜索與篩選者。資訊的可及性與精準度均大幅提升,知識的民主化進程也在這一時代加速展開。
第四節點:AI 時代
AI 的出現,是前三個節點的綜合性躍升:它不只儲存、傳播或查詢,更能主動整合、篩選、結構化資訊,並依據使用者的問題與脈絡,產出對話式的知識輸出。這種能力的質變,在認知延伸的意義上,已非線性增長,而是更接近指數型的擴張。
三、AI 作為分水嶺:質變而非量變
嚴格而言,人工智慧概念本身的誕生遠早於近年的 GPT 系列模型。然而,對於大多數非技術背景的使用者而言,AI 從「遙遠的實驗室技術」到「日常使用的認知工具」,存在一個清晰的感知分水嶺。
這個分水嶺的關鍵,並非計算能力的進步,而是交互模式的質變。早期的 AI 系統,包括搜索引擎的演算法推薦、語音助理的指令回應,均屬於「工具使用」層次:使用者輸入明確指令,系統執行明確任務。然而,大型語言模型(LLM)所帶來的改變是:AI 開始能夠理解不完整的、模糊的、脈絡化的輸入,並產出具有推論性、整合性的回應。
這一質變的意義在於:它讓 AI 從「查詢工具」升級為「思考夥伴」。過去,你必須知道自己要找什麼,才能使用工具找到它;現在,你只需要有一個尚未成型的想法,AI 能夠幫助你將它具象化、結構化、甚至質疑它。這種關係,才是真正符合延伸心智論所描述的「認知耦合系統」(coupled cognitive system)的型態(Clark & Chalmers, 1998)。
值得注意的是,研究者對於 AI 在知識生產中的角色已有廣泛討論。Perkins 等人(2024)指出,生成式 AI 已達到一種程度,使得無論是學術人員或技術工具,均難以確定性地判斷文本的作者歸屬,這將倫理判斷的重心從「是否使用 AI」轉移至「是否透明揭露 AI 的使用」(如引自 Frontiers in Education, 2025)。這個轉向,正是本文所要呼應的核心觀點。
四、知識從來不是孤立完成的:反對「純粹原創」迷思
在討論 AI 輔助創作的倫理問題之前,有必要先解構一個根深蒂固的迷思:「真正的知識產出,必須是完全由個體獨立完成的原創行為。」
這個迷思在學術與知識生產的傳統敘事中長期存在,但它在知識社會學的角度下幾乎站不住腳。任何一篇學術論文,都必須建立在已有的研究成果之上;任何一本書,都不可避免地吸收、轉化、回應了他人的思想。引用、借鑑、在既有知識上進行新的建構,不是知識生產的污點,而是它的基本結構。
從延伸心智論的視角而言,書寫本身就是一種認知延伸工具。在書寫文化誕生之前,人類只能依賴記憶與口耳相傳保存知識;書寫的出現,使思想得以「卸載」至外部媒介,再被後人「讀取」與「重組」。這個過程,本質上就是認知在時間向度上的延伸。
因此,AI 輔助創作在本質上並未破壞「知識生產的道德基礎」——它只是讓這個本來就高度社會性與工具性的過程,以一種更快速、更整合的形式呈現。問題從來都不是「他者是否介入了創作過程」,而是「介入者的角色是工具,還是代替了創作者本身」。
五、正視反對意見:AI 帶來的真實挑戰
誠然,對於 AI 輔助創作的疑慮,並非全然無據。這些疑慮值得被嚴肅對待,而非一筆帶過。以下列出幾個最常見、也最具說服力的反對論點,並嘗試給予正面的回應。
反對一:AI 可能取代批判性思考的訓練
這是最具實質性的反對意見之一,尤其在學術場域中。若學生在尚未具備獨立分析能力之前便大量依賴 AI,確實有可能阻礙認知能力的正常發展。這個擔憂有其認知科學的基礎:某些能力必須通過反覆練習才能內化,而將這些過程外包給工具,可能使能力停留於表層。
然而,這個論點的問題在於它的適用範圍:這是針對「學習者」的擔憂,而非針對「已具備判斷力的知識工作者」。一個已通過多年訓練建立起分析框架的記者、研究者或專業人士,使用 AI 整合資訊,與一個尚在學習過程中的學生依賴 AI 代勞,在認知結構上是截然不同的情境。前者是工具使用,後者才是能力替代。
反對二:AI 生成的內容可能包含錯誤或「幻覺」(hallucination)
這是一個相當實際且有充分依據的技術性問題。大型語言模型確實可能生成看似合理但實際錯誤的資訊,尤其在引用特定數據或文獻時。研究顯示,ChatGPT 在協助文獻查詢時提供的參考文獻,有時存在不準確甚至虛構的情形(Artificial Intelligence Tools for Research Writing, cited in ERIC, 2024)。
這個問題的解答,不是放棄 AI,而是確立使用者的查核責任。如同任何強大的工具——一把手術刀可以救人也可以傷人,電子試算表可以計算也可以算錯——AI 的輸出需要使用者以其領域專業進行驗證。這個驗證責任,正是知識工作者使用 AI 的核心倫理義務。
反對三:AI 使用可能加劇知識不平等
Williamson(2024)提醒我們,AI 的引入必須被視為一種社會嵌入的工具,而非中立的技術賦予(如引自 Frontiers in Education, 2024)。能夠有效使用 AI 的人,往往是那些已具備知識框架、提問能力與批判性篩選能力的人;而缺乏這些基礎的人,可能更容易被 AI 輸出所誤導。這種不平等,是真實存在的社會議題。
然而,這個問題指向的解方是「提升 AI 使用素養的教育投入」,而非「禁止具備能力者使用 AI」。將 AI 排除於知識工作之外,並不能解決不平等,只是推遲了面對它的時刻。
六、AI 時代的知識倫理框架:責任在使用者
在充分正視反對意見之後,本文提出一個具體且可操作的倫理框架,用以判斷 AI 輔助創作的合理性邊界。這個框架的核心,不在於 AI 是否介入,而在於使用者是否在以下四個關鍵環節中承擔了應有的責任:
一、問題的設定與提問的品質
你向 AI 提出了什麼問題?問題的品質,直接決定了 AI 輸出的方向與深度。能夠提出精準、具有辨別力的問題,本身就是一種不可替代的人類能力,需要領域知識、批判思維與脈絡理解作為基礎。這個環節,AI 無法代勞。
二、選擇的判斷與取捨
當 AI 產出多種可能的方向、論點或表述時,使用者是否進行了選擇?選擇什麼、捨棄什麼,反映了創作者的判斷力與立場。這個過程,正是作者性(authorship)的核心所在。
三、關鍵分歧的裁決
在 AI 提供的多種可能之間,面對矛盾或爭議的地方,使用者是否介入裁決?尤其是在事實性問題上,是否進行了獨立查核?這一環節,決定了作品的可靠性與知識誠信的底線。
四、對最終成果的完全責任
無論使用了多少 AI 輔助,使用者是否願意對最終發表的內容承擔完全責任?包括其中的事實、論點、立場,以及可能存在的錯誤?這種責任感,是 AI 時代知識工作者的最終倫理基礎。
只要使用者在上述四個環節中均有實質介入,其所產出的內容,在知識倫理的意義上,與過去任何時代的知識工作者的創作過程,並無本質上的差異。
七、情境分殊:學術誠信與職業寫作的不同標準
必須明確指出,上述框架並非主張在所有場域中 AI 的使用均應被無條件接受。情境的分殊,是這個討論不可或缺的一部分。
在學術場域——尤其是要求學習者展現獨立能力的考試、論文與課堂評量——對 AI 使用設定嚴格限制,有其充分的教育學理由。這些場域的核心目的,是評估學習者是否具備了自主的理解、分析與判斷能力;若允許 AI 全程代勞,則評量的信效度將受到根本性的破壞。關於這一點,學術界的討論已有相當豐富的文獻基礎(Perkins & Roe, 2023; Bin-Nashwan et al., 2023; 等多項研究)。
然而,當對象轉換為已具備豐富領域知識與判斷能力的知識工作者——記者、顧問、研究員、部落客、政策分析師——時,以同一套標準要求他們必須逐字手工生產每一篇文章,不僅不切實際,更忽略了知識工作的本質:知識工作者的核心價值,在於其判斷力、洞察力與責任感,而非其純手工的文字輸出速度。
如同一位每小時創造數百美元價值的外科醫師,不應被要求親手消毒手術器具;一位具備深厚領域知識的分析師,也不應被要求在時間成本最高的環節放棄最有效率的工具。這不是對品質的妥協,而是對效率的尊重,也是對知識工作者時間價值的合理認定。
八、一名知識生產者的自我實踐
作為一名知識產出者,本文的寫作本身,就是前述框架的一次自我實踐,也是一個刻意選擇的後設示範。
在最初開始使用 AI 的階段,我傾向於將其作為對話與辯論的對象:通過討論與思辨,推進自己對某個議題的理解,但刻意不將 AI 生成的文字直接納入創作之中。這個謹慎的態度,源於對「AI 取代作者性」的隱憂。
然而,隨著使用經驗的積累,我逐漸意識到,AI 在知識生產流程中的最佳角色,更接近於一個「高度智慧化的錄音轉譯與組織工具」:我提供核心觀點、確立論述主軸,AI 協助搜尋支撐性文獻、結構化論述、優化表達方式,使思想更易於被讀者接收。
在這個流程中,原創性的觀點依然來自於我;批判性的選擇與篩選,依然由我進行;事實的查核與最終的責任,依然落在我身上。AI 所扮演的,是 Clark 與 Chalmers 所描述的「認知耦合系統」的一部分——它延伸了我的能力,但並未取代我的判斷。
我的目的,從來不是在作文比賽中勝出,也不是在追求書寫形式的純粹。作為一個知識工作者,我的核心使命是讓原創的思想被更廣泛地傳播、被更清晰地理解。若 AI 能夠在不妥協知識誠信的前提下提升這個目標的達成效率,拒絕使用它,才是真正的浪費。
九、結語:工具的本質,使用者的責任
本文試圖論證的,不是 AI 使用的無限制合理性,而是以下幾個核心命題:第一,從書寫到網際網路,人類的知識生產始終依賴認知延伸工具,AI 是這個連續歷史的最新節點,而非例外;第二,「純粹原創」的迷思在知識社會學與延伸心智論的框架下難以成立;第三,AI 輔助創作的倫理判斷,應以使用者的介入深度與責任承擔為核心,而非以工具的使用本身為罪;第四,不同場域有不同的合理標準,學術誠信的特殊要求不應被無差別外推至所有知識工作的情境。
最後,回到一個更根本的問題:AI 偵測工具的興起,以及以 AI 使用為由對知識工作者的無差別指責,究竟保護了什麼?若其保護的是一種已然不復存在的「純手工知識生產」的神話,那麼這種保護,只是一種對技術現實的拒絕,而非對知識倫理的捍衛。
AI 不是神器,也不是禁忌。它是一把性能卓越的鋤頭,讓有準備、有判斷力的農夫,能夠在更廣闊的土地上耕耘更豐碩的收成。土地的主人,始終是那個拿著鋤頭、決定種什麼、如何種、對收成負責的人。
這,才是 AI 時代中知識工作者應有的基本態度——清醒、負責,且勇於擁抱工具所帶來的可能性。
#AI倫理 #知識工作者 #人工智慧 #認知科學 #數位轉型
參考文獻
Bin-Nashwan, S. A., Sadallah, M., & Bouteraa, M. (2023). Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society, 75, Article 102370. https://doi.org/10.1016/j.techsoc.2023.102370
Clark, A. (2008). Supersizing the mind: Embodiment, action, and cognitive extension. Oxford University Press.
Clark, A., & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7–19. https://doi.org/10.1093/analys/58.1.7
Frontiers in Education. (2024). Artificial intelligence in education: Implications for academic integrity and the shift toward holistic assessment. Frontiers in Education, 9, Article 1470979. https://doi.org/10.3389/feduc.2024.1470979
Frontiers in Education. (2025). The impact of generative AI on academic reading and writing: A synthesis of recent evidence (2023–2025). Frontiers in Education, 10, Article 1711718. https://doi.org/10.3389/feduc.2025.1711718
Khalifa, M., & Albadawy, M. (2024). Using artificial intelligence in academic writing and research: An essential productivity tool. Computer Methods and Programs in Biomedicine Update, 5, Article 100145.
Menary, R. (Ed.). (2010). The extended mind. MIT Press.
Ong, W. J. (1982). Orality and literacy: The technologizing of the word. Methuen.
Perkins, M., & Roe, J. (2023). Linking artificial intelligence facilitated academic misconduct to existing prevention frameworks. International Journal for Educational Integrity, 19, Article 20. https://doi.org/10.1007/s40979-023-00131-6
ScienceDirect. (2025). Reassessing academic integrity in the age of AI: A systematic literature review on AI and academic integrity. Computers and Education Open, 8, Article 100210. https://doi.org/10.1016/j.caeo.2025.100210



















