【導讀:我不是反對數據,我是反對隱身】
在進入正題前,必須先澄清立場:這不是一篇反對「數據驅動」(Data-driven)的抒情文。相反地,在複雜的現代組織中,數據是協作的唯一共同語言。
我們反對的是另一件事:將數據當作避責的擋箭牌。 當會議室裡的對話從「我們該創造什麼價值」退化成「數據顯示我們只能這樣做」時,決策的主體就從「人」讓渡給了「指標」。這種主權的喪失,往往讓組織在極其精準的測量中,集體滑向平庸。
一、 效率的陰影:當測量本身變成了目標
系統工程領域有一句名言:「會被衡量的事情,才會被完成。」(What gets measured, gets done.)這句話通常被視為管理的金科玉律,但它隱藏了危險的後半句:
「即使是不該做的事,只要被衡量了,也會被完成。」
這就是社會學家韋伯(Max Weber)所說的「形式理性」壓倒了「實質理性」。 在算法化的會議室裡,這種現象表現為:
- 提問的門檻不對稱: 你提出質疑,必須準備 20 頁的數據報告;但你選擇同意現狀,只需要點頭。
- 數據漂白: 為了讓決策看起來「科學」,我們刻意忽略那些無法被 Excel 捕捉的變量,如品牌尊嚴或長期信任。我們正在用一份精確的地圖,去導航一個錯誤的疆域。
二、 案例反思:Thin Data 擅長描述,但不能解釋
我們常聽到的樂高(LEGO)重生故事,重點不在於他們運氣好找對了顧問,而在於他們看穿了**「數據的維度限制」**。
當時樂高的數據(Thin Data)精準描述了行為:孩子們在數位時代變得沒耐心。這數據是對的,但結論錯了。因為數據只能告訴你「發生了什麼」(What),卻無法告訴你「為什麼」(Why)。 最終,樂高透過人類學式的觀察補足了「厚數據」(Thick Data),發現孩子追求的是掌握難題後的成就感。這個案例提醒我們:數據是證據,但詮釋權屬於人。 失去詮釋權的領導者,只是一個高薪的算法執行單元。
三、 奪回主權:一套可操作的「去盲從」工具箱
要防止責任在數據中蒸發,組織需要制度化的「摩擦力」:
- 恢復決策的「作者性」(Authorship): 廢除無主名的會議紀錄。任何重大行動方案,除了數據支持外,必須要求決策者寫下:「我基於 Y 假設選擇了 X 路徑,我願意承擔其後果。」讓選擇有人署名,而不只是系統產出。
- 設置「護欄指標」(Guardrail Metrics): 不要單一最佳化。當你在優化「轉化率」時,必須強制配對一個護欄指標(如「客訴率」或「長期品牌溢價」)。這在組織治理中稱為「權力制衡」,防止單一指標掠奪了整個組織的未來。
- 制度化的反證機制(Devil's Advocate): 在結論達成前,固定留出 10 分鐘進行「反證回合」:如果數據完全誤導了我們,最可能的盲點在哪裡?
四、 AI 協作中的主權保衛戰:保留「價值判斷權」
進入生成式 AI 時代,這種「主權讓渡」變得更加誘人,因為 AI 給出的方案太過平滑、無摩擦。當 AI 的建議看起來比你的直覺更專業時,你如何維持主權?
- 主權不在於運算,而在於定義: AI 可以優化路徑,但唯有人類能定義「目的地」。
- 保留「例外處理權」: 真正的決策主權,體現在**「有權推翻算法建議」**的時刻。這不是反理性,而是主動承擔算法無法計算的風險與價值取捨。
- 解釋性責任(Explanatory Accountability): 領導者的價值不再是「產出結論」,而是「解釋邏輯」。如果你無法用人類語言解釋為何採納 AI 的方案,你就在實質上失去了主權。
【結語:主權是關於「我們想成為誰」】
一個失去決策主權的組織,最終會變成一台精密的自動導航儀,在撞向冰山前,儀表板上的數據可能都還顯示著「效率極佳」。
數據與 AI 都是地圖,但決定探險靈魂的始終是人。真正的 Data-driven,是讓數據逼自己誠實,而不是讓數據幫自己逃避。當你敢在數據面前抬起頭,重新審視那些數字無法言說的部分,你才真正擁有這個組織的主權。
























