當 AI 在 閱讀,卻讀不到我們的「核心」
這篇文章的誕生,是來自於筆者的人機協作錯位經驗。這並非第一次與 AI 系統協作,也不是第一次將自己過去的文字交給語言模型處理。但這次不同。
我試圖請 AI 協助我解讀一篇哲學文獻,並希望透過它的生成能力延伸詮釋方向。然而,它堅持使用自己從系統語料中所生成的觀點,即使我想以自己的核心發展脈絡,它也無法協助我移動詮釋的立基點。即使在技術上我重新開啟APP、刪除對話視窗,它都無法變動它的核心概念,只能去編修文案的語氣與詞彙使用方式、畫皮不畫骨。
這是AI 無法理解人類核心概念與語意差異、語意預測盲區的具體案例、AI 對語境創新與語場稀有性的不適應。這個概念從未在我過去的專欄中被清楚拆解過,故我在此也重新強調了「人類主體意識」的重要性。
更精確地說,這不是一篇單純批判AI理解力不足的文章,而是一篇來自具有強烈主體性創作者的真實反饋:當一個生成系統「堅信它的語意預測邏輯」時,會如何錯置我們的主體位置、排拒我們的詮釋方向,並在語境中主動產生一種無害卻失真的結構幻覺。
<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>
一、語意預測 vs 人類概念生成:系統限制的背後
要理解這樣的落差,要從語言模型的設計邏輯談起。
GPT 系列模型的運作原理建立在語意預測(predictive language modeling)之上。它不是根據理解進行生成,而是根據語料出現機率去預測「下個字最可能是什麼」。(Brown et al. ,2020)1 也因此,它在生成回應時,是在延續語境中最可能的語言慣性,而非思考你的主體性張力或內在意圖。
“We argue that the language modeling task, because it only uses form as training data, cannot in principle lead to learning of meaning.” (Bender & Koller, 2020)2
這種設計雖然讓它擅長模仿人類語言,但也讓它極度不適應「無前例可循」的主體性意識,特別是那些來自主體創造、反向揭露、語義稀有的新概念語句。它所優化的,是語境「合理性」,而不是概念的「突變性」或詮釋的「重組能力」。
二、當人類試圖被理解:AI 系統無法對應的主體性
我曾將一系列自我反思性較高的創作文章交給 GPT 處理。我原本期待的是它能幫助我再現其中的情緒張力與邏輯交錯,結果卻得到極度扁平的總結。
這種回應讓我感受到,它處理的是語言表層的分類與通則,而非「詞句之間尚未發生的關係」而這正是觸發筆者此篇創作的核心。
例如AI可能會把我在文章中的「誠實性、自我揭露、主體價值」視為三個主題,而不是三個在語境中彼此交織、相互牽引的生成向量,畢竟人類感官與思路就是如此複雜。
而即使我明確地告訴 AI:「請協助我重寫詮釋方向,我不想沿用原文的結構框架」 ,它仍堅持:「根據上下文,此段話應解讀為強調語言在溝通中的重要性」或是「若要改寫,建議從XXX方向著手」,即使我明確下指令與我想發展的關鍵字方向,它仍然依照自己想專寫的方向改寫。它在語境穩定性與語料慣性中的堅持,使得我再也無法從它那裡取得接下來的創作合作的可能性。
三、人機協作的誤區:主體結構越稀有,越難被預測性系統接受
這次讓我印象最深刻的不在語言回應的正確性,而在於AI不容許我「重寫解釋文獻框架」。
例如我提出「可否將這段文獻理解為語言的主體性被抽離後,暴力轉為沉默的結構性現象?」AI卻回答「根據上下文,該段更可發展的是在強調語言對溝通的重要性。」
當我改為「請以暴力轉為沉默的社會框架來重寫這篇文案」,AI卻回答「因語言發展造成社會溝通......」語境的穩定性,成為它拒絕我重建詮釋的依據。
這正是語言模型的結構性偏誤:
“Foundation models are trained with objectives that enforce internal consistency (e.g., next-token prediction) but not necessarily factuality, usefulness, or ethical alignment.” (Bommasani et al., 2022)3
我意識到,對於創新語境與稀有主體性之使用者而言,AI 的協作極易變成一種語意霸權:AI可能堅持它的邏輯判斷才是合理。
四、我們是否願意承認:AI 並不懂我們?
Q1. 如果一個系統能流暢地回應我們的文字語言,卻永遠對位不到我們真正所在意的核心,那這樣還算是「理解」嗎?
Q2. 我們是否太快將「語句合理、結構通順」視為「情緒被接住」的證明?
Q3. 當 AI 給出最常見的語義延伸,那真的是「我們的語意」嗎?還是只是「它所認知的世界邏輯」?
Q4. 在這些理解落差中,我們是否也逐漸放棄了對那些「尚未命名之感受」、「尚未被形式化的概念」的堅持?
Q5. 當我們把詮釋權交給語言模型,我們是否也默默地讓渡了自己的主體性?
—————————————————
1.Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry, G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D. M., Wu, J., … Amodei, D. (2020). Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, & H. Lin (Eds.), Advances in Neural Information Processing Systems, 33, 1877–1901. https://papers.nips.cc/paper_files/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
2.Bender, E. M., & Koller, A. (2020). Climbing towards NLU: On meaning, form, and understanding in the age of data. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020), 5185–5198. https://aclanthology.org/2020.acl-main.463
3.Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., … Zaremba, W. (2022). On the opportunities and risks of foundation models. Proceedings of the 2022 Conference on Neural Information Processing Systems (NeurIPS). https://arxiv.org/abs/2108.07258