我們都聽過 AI,很聰明,會學習,還能幫忙推薦你想要的東西。但有一種 AI 問題,名字取得非常有畫面——黑盒(Black Box)。
簡單說,它就像這樣:
你把一個東西丟進去,它吐出一個結果,但你完全不知道它中間是怎麼算的。
你點了三杯珍奶,它說你骨質疏鬆。你搜尋兩次「怎麼安靜地拒絕別人邀約」,它開始推你社交焦慮自救書單。你看了幾部狗狗影片,它默默幫你分類成潛在貓奴,然後推薦你狗飼料、貓抓板、寵物保險。
整個過程你沒參與,它也不會跟你說為什麼。你就是被貼了一張標籤,而且無法抗議。
它不在乎你那杯珍奶是不是幫朋友買的,也不管你看動物影片是不是因為演算法塞給你。他的工作方式很單純:
所以你做的是一件小事,結果它拼湊成一張人生計畫書給你看。
其實……AI 沒那麼壞,它只是還不太會「解釋自己」。這也是為什麼現在很多人開始關注一個方向,叫做可解釋 AI(XAI)。
也就是說,不只要給結果,還得解釋邏輯。
比如未來的 AI 會這樣說話:
因為你連續三次點含糖飲品,且使用外送平台頻率高,我推測你久坐、鈣流失風險較高,建議補鈣。聽起來還是有點雞婆,但至少有交代。
在 AI 還沒上線、還在實驗階段時,通常會先做一個叫做 POC(概念驗證)的東西。就是一種小規模測試——看 AI 的反應會不會太奇怪。
比如:
如果用戶連點兩杯奶茶,就推骨鬆補充計畫,是不是太早下判斷了?
這個階段可以讓開發者觀察 AI 的邏輯、找出不合理的關聯,避免還沒出社會的 AI 就學壞。
你可以把 POC 想像成把 AI 拿去打預防針,或像交往前先約幾次會,看看對方會不會突然說:「你用 Android?你不適合我。」
我現在還是會點,只是點完後會刻意搜尋一些重訓影片、超慢跑教學、甚至「如何補鈣不靠保健品」,給 AI 一點困惑的訊號,讓它知道我沒那麼好歸類。因為如果你不主動讓它迷失方向,它就會幫你的人生下一個很完整的結論。
黑盒 AI 並不可怕,可怕的是它太安靜、太自信、又太快下定論。
它覺得它懂你,但它其實只是看過你三次點餐紀錄。
它以為你準備要骨頭斷掉,其實你只是心情不好想喝點甜的。
我覺得我們都應該慢慢練習——
不是排斥 AI,而是學會「要求它把話講清楚」。
就像一段關係一樣,你不怕對方誤會你,但你希望對方願意聽你說。