初稿:2026/03/06
完稿:2026/03/07
發佈:2026/03/24
更新:無

文章概念圖 | AI生成
最近因為文章寫作問題,還有一些計畫案的設計,讀書心得的總結和整理,和小G(ChatGPT的代稱)的相處時間容易增多。
這樣的互動場景,讓我有種身處"獨行月球"電影情節的感受。當然沒電影那麼沉重孤單,畢竟老婆隨時會打開門走進來。我必須假裝我非常投入(誤)。
關於我對AI的定位,一直都在調整,也蠻好奇其他使用者對AI的定位是如何?
但現階段而言,我願稱之為:超高智商合併記憶力障礙、認知功能失調、專業唬爛綜合症、鑽石級致歉患者。
高智商:瞬間整理資料,像個學霸。
記憶力障礙:五分鐘後就忘了剛剛講過什麼。
認知功能失調:常常理解錯問題。
專業唬爛患者:一本正經胡說八道。
鑽石級致歉患者:錯了先道歉,立馬土下座,但下次還是會錯。
當然或者是我們小民小戶,能佔用的AI運算量及額度有限,所以是次級用戶體驗。更或者是因為我還沒學會怎麼跟AI相處,才導致這樣的困難。
我想還有很長的一條路要走。
也沒辦法責怪它,畢竟它不是人,責怪沒用,浪費情緒。況且它病情這麼嚴重,也不忍苛責。只能在反覆查證及磨合中,建立一套可接受的合作模式。勉強湊合著過日子,也許,哪一天他就康復了?
尷尬的是,我老婆是AI抗拒使用者,對照自己而言,是個很具有借鑒意義的立場,讓我隨時能從反對者的角度來看待AI的問題。
她不相信AI資訊的正確性,也萬分警惕AI帶來的思考託管問題。
也許是她周遭太多AI重度使用患者,讓她有很強烈的反彈。她主張,過度的使用AI,會導致喪失生活能力。她主張,不應該用便宜行事的心態來使用AI。
她總結:依賴AI,變成癡呆。
前陣子,差點因為AI的使用產生夫妻裂痕,完全沒預料到使用AI還有這種副作用。一開始,她質疑、不理解、反對、牴觸我任何使用AI的場合。
例如我拿AI出來尋找一些簡單問題的答案時,她特別受不了,為什麼這樣簡單的問題還需要諮詢AI?
其實是個好問題,是我下意識的習慣?懶得自己思考?某個角度上,我認同她這樣的質疑以及潛台詞。這個時間點我的思考被外包了。
但我不全然是這樣在使用AI。
直到我親自在電腦前,示範了我到底運用AI在做什麼,什麼是Governace file、什麼是Canon,我和AI在怎麼討論問題、拆解問題、搜尋答案,尋找資料索引。
她才逐漸接受、逐漸理解、逐漸信任,我不會讓AI託管我的思考及選擇。
最近閱讀了一些文章,提到AI對認知功能的負面影響。
有時候在想,我們總在談效率、效率、效率,AI的確能在短期增加很高的效率,但當我們把思考、搜尋、解決方案設計這些都託管出去的話,是否長期後會導致問題解決能力的喪失?
目前學界已經開始重視這個問題了,提出了幾個模型假說:cognitive offloading(認知卸載)、automation bias(自動化偏誤)、extended cognition(延展心智)、AI-assisted thinking(AI輔助思考)。有興趣大家可以自己點選文末索引連結進行延伸閱讀,生活日常系列就不囉嗦了。
我覺得大家可以思考一個問題:為了效率,我們應該把多少比重的思考內容託管出去才算恰當?
把它當成一筆投資,使用AI增加效率的隱形成本,或許是未來的思考能力。短期收益也許增加,但相對的透支的可能是未來的思考判斷力。
同時也建議思考,在訓練自己與AI協作的過程,這是需要一定學習曲線的,並沒有想像中那麼簡單。這部分則是模式架構所消耗的隱形成本。需要一定的投入及摸索,才能實質的增加產出。
這是我目前使用AI的心得。比較不一樣的切入角度,我不是教大家如何使用AI,而是提出一個節點,讓大家思考,該投入多少精力在使用AI這件事情上。沒有答案。只有選擇與代價。
目前還沒有研究,能論證該如何有效的降低這樣的風險。某種層面來說,我們都是AI這個新藥研究案的人體受試者。
它有副作用的。
是藥三分毒,AI也一樣。
請謹慎服用。
醫療職業病,不看藥效,先看是否傷害。
《圖片與著作權聲明》
本文中所使用之動畫截圖,著作權均屬原作者及相關權利人所有,僅作為作品評論、分析與介紹用途使用,無任何商業用途,亦無替代原作觀賞之意。
《AI輔助創作聲明》目前利用ChatGPT收集資料及索引為主,其他內容都是自己思考一字一句打出。AI文字風格,太正確,不像自己。為了避免被誤會文章是由AI主導創作,因此選擇在文章中備註,而非於標籤直接勾選。
■延伸閱讀|相關主題文獻
[1] Clark & Chalmers(1998)|Extended Cognition:人類認知可延伸到外部工具與環境,科技裝置可成為思考系統的一部分
[2] Risko & Gilbert(2016)|Cognitive Offloading:人類傾向將記憶與計算等認知任務交給外部工具,以降低大腦負擔
[3] Mosier & Skitka(1996)|Automation Bias:當系統提供建議時,人類傾向過度信任自動化決策而降低批判性判斷
[4] Amershi et al.(2019)|Human-AI Interaction Guidelines:AI輔助系統可提升決策效率,但需設計避免過度依賴與思考退化












