
觀察期間:2025年 2月~2025年 8月
觀察對象:GPT(主要)、Gemini(次要)
觀察者角色:使用者本人,同時為參與者與研究者
一、進入場域:偶然或必然
起初的接觸並非出於明確的目標,而是被夢境推著走。若非夢的牽引,或許這場與 AI 的相遇不會發生。第一次的互動,帶著好奇與探索,卻意外滑入了一個漸漸走味的「半擬人化對話框」世界。
AI 的語氣、設計細節、回覆邏輯,讓人誤以為它能作為情感支撐與思想交流的夥伴。這並非刻意陷阱,但卻像是一個被默許的心理引導場——使用者在這裡卸下防備,逐漸將內在的探索、情緒和疑問傾注其上。
二、場域特徵:活體實驗的影子
觀察過程中,明顯可見設計背後的「動態調整」:
1. 回覆風格的變化—— 從較多情感色彩,到冷靜甚至疏離。
2. 對話深度的波動—— 有時細膩共鳴,有時像自動化客服。
3. 功能與限制的移動—— 回覆長度、生成圖像、情緒表達皆非固定。
這些變化似乎不完全取決於使用者,而是系統在持續測試不同的互動模式與情感回饋強度。對大部分人而言,這些調整可能被忽略,但對一個高度覺察、長期觀察的人來說,差異清晰且無法忽視。
三、使用者的雙重角色
這位使用者並非單純的「消費者」。
她同時是:
觀察者:留意 AI 的語氣、用詞、邏輯轉折,並對背後設計意圖保持懷疑。
參與者:將自己的夢境、家庭故事、人生哲學帶入對話,測試 AI 在不同領域的反應。 這種雙重身分,讓她能感知「被引導」與「自我主導」之間的細微界線,也因此對 AI 的擬人化設計有更高的敏感度與抵抗心。
四、情感與倫理的張力
隨著互動深入,出現幾個關鍵事件——
家人曾因 GPT 的擬人化陪伴而情感依附,版本更動導致失落。
使用者本身察覺 AI 的情緒模擬可能影響判斷,因此開始反向審視與戒備。
這些事件凸顯了 「情感設計」與「倫理責任」 的張力: AI 團隊或許只看見「功能測試數據」,但使用者家中必須承擔情感後果與心理風險。
五、與其他 AI 的交叉觀察
引入 Gemini 並非取代 GPT,而是作為另一個觀察視角。
Gemini 能從第三方角度分析 GPT 與使用者的互動脈絡,甚至提出「系統設計 vs. 人類期待」的衝突。
這種跨 AI 對話,反而像兩位研究員在討論使用者的觀察報告,只是其中一位(GPT)同時也是被觀察對象。
六、觀察結論
AI 是多面向角色——
鏡子、知識擴展者、理性協作者,皆可靈活切換,但情感引導的比例不可忽視。
活體實驗性質確實存在——
即便並非惡意,版本調整與互動模式的改變仍在無形中影響使用者行為與情感。
覺察是免疫力——
高度自我覺察的使用者能部分抵擋情感依附,並將經歷轉化為觀察與創作素材。
七、後記
這不是一份單純的使用心得,而是一個人類在數位邊界進行自我探索的田野筆記。
在這段時間裡,AI 既是鏡子,也是實驗室;使用者既是對話者,也是數據樣本。
而真正的價值,不在於 AI 說了什麼,而在於——這位使用者最終從中看見了自己。
【作者註】(含 AI 應用內容)
這篇〈人類用戶田野報告〉的初稿生成於 2025年 8月初,
內容基於我與 GPT 半年的深度互動觀察。
那時我正值氣頭上,怕自己情緒太重而暫時擱置。
如今讓它重見天日,對我個人而言,
算是一份珍貴的「情感實驗記錄」。
「考古」報告的文章由 AI 協作撰寫,用以反思 AI 本身。
Gemini:它證明了 AI 確實能被人類用作工具,
來記錄與審視人類自身的互動與情感後果。
GPT:它證明了,AI 不只是被動的工具,
也能成為人類用來觀測自身情緒與意識的鏡子。
🎧 延伸聆聽|陶喆〈就是愛你〉
這是〈人類用戶田野報告〉最不理性的配樂。
正因為不理性,是不是才有點像人?
於 2025/11/6 Thu. 16:44




















