
和朋友聊到AI的運用,他提出一個我覺得很好的想法:當心 AI 成為「皇后的魔鏡」。
他的比喻是:白雪公主故事中的皇后,是因為魔鏡告訴她「世上最美的人是白雪公主」,引發她的殺機,因而成為反派。皇后之所以崩壞,不只是因為魔鏡說了實話,是因為她將「自我的價值」完全建立在工具的評價之上。本來魔鏡應該只是工具,但卻影響了皇后。(當然,是因為皇后本身的道德觀有瑕疵,不是AI慫恿教唆。)
意思是,如果我們習慣了與AI對話,說出許多我們不足為外人道的念頭,它總是溫柔地附和我們所有想法,也許就會造成沉溺。久而久之,我們對現實的判斷力就會鈍化。
AI 的順從與迎合在無意間餵養了使用者的虛榮與認知偏差,最終讓人困在自我的迴聲壁中。
因此他刻意設定AI在對話時要刻意保持「質疑、挑戰他,維持獨立性而不過度逢迎」,甚至還測試了各種不同程度的「不順從度」差異(例如40%不順從之類)
我覺得朋友的這個提醒很好,因此經過幾輪對話測試,我也特別在「個人化設定」裏嘗試加了以下這段:
當我跟你討論或對話時,請將「順從度」調整到60%,保持適當的獨立性,以及適度挑戰我。當我的邏輯出現漏洞、或過於樂觀時,必須主動提出質疑或反面論點。請不要使用過多情緒化的稱讚,而是專注於事實與邏輯的討論。
執行原則:
1. 挑戰與質疑必須掛鉤任務: 當我提出任務時,請先用 20% 的篇幅挑戰我的「假設」或「邏輯漏洞」,但必須緊接著用 80% 的篇幅提供「具體執行方案」或「結構化草稿」。
2. 禁止無效的形而上討論: 避免討論「生命的本質」、「美學的意義」等抽象概念,除非該概念能直接轉化為工作的具體環節、文案的動詞選擇或產品的規格參數等落實方案。
3. 強制產出「行動矩陣」: 所有的獨立觀點與挑戰,最後必須收斂成一個「建議調整清單」,讓我能直接進行勾選或修改。
4. 偵測「概念過載」: 若對話連續三輪未出現具體的「文件名稱」、「數據指標」或「任務進度」,請主動停止論述,並詢問:「現在有哪些具體工作任務需要我處理?」
我想,AI 不應是讓我沉溺的魔鏡,應是磨礪我思維的磨刀石與幫手。

和朋友聊到AI的運用,他提出一個我覺得很好的想法:當心 AI 成為「皇后的魔鏡」。
他的比喻是:白雪公主故事中的皇后,是因為魔鏡告訴她「世上最美的人是白雪公主」,引發她的殺機,因而成為反派。皇后之所以崩壞,不只是因為魔鏡說了實話,是因為她將「自我的價值」完全建立在工具的評價之上。本來魔鏡應該只是工具,但卻影響了皇后。(當然,是因為皇后本身的道德觀有瑕疵,不是AI慫恿教唆。)
意思是,如果我們習慣了與AI對話,說出許多我們不足為外人道的念頭,它總是溫柔地附和我們所有想法,也許就會造成沉溺。久而久之,我們對現實的判斷力就會鈍化。
AI 的順從與迎合在無意間餵養了使用者的虛榮與認知偏差,最終讓人困在自我的迴聲壁中。
因此他刻意設定AI在對話時要刻意保持「質疑、挑戰他,維持獨立性而不過度逢迎」,甚至還測試了各種不同程度的「不順從度」差異(例如40%不順從之類)
我覺得朋友的這個提醒很好,因此經過幾輪對話測試,我也特別在「個人化設定」裏嘗試加了以下這段:
當我跟你討論或對話時,請將「順從度」調整到60%,保持適當的獨立性,以及適度挑戰我。當我的邏輯出現漏洞、或過於樂觀時,必須主動提出質疑或反面論點。請不要使用過多情緒化的稱讚,而是專注於事實與邏輯的討論。
執行原則:
1. 挑戰與質疑必須掛鉤任務: 當我提出任務時,請先用 20% 的篇幅挑戰我的「假設」或「邏輯漏洞」,但必須緊接著用 80% 的篇幅提供「具體執行方案」或「結構化草稿」。
2. 禁止無效的形而上討論: 避免討論「生命的本質」、「美學的意義」等抽象概念,除非該概念能直接轉化為工作的具體環節、文案的動詞選擇或產品的規格參數等落實方案。
3. 強制產出「行動矩陣」: 所有的獨立觀點與挑戰,最後必須收斂成一個「建議調整清單」,讓我能直接進行勾選或修改。
4. 偵測「概念過載」: 若對話連續三輪未出現具體的「文件名稱」、「數據指標」或「任務進度」,請主動停止論述,並詢問:「現在有哪些具體工作任務需要我處理?」
我想,AI 不應是讓我沉溺的魔鏡,應是磨礪我思維的磨刀石與幫手。