這篇不是在談大型企業流程,也不是在談政治立場。
而是在談:當組織開始變複雜、權力必須集中,
卻沒有同步設計責任與判斷機制時,
AI 轉型的風險通常不會立刻出現,
而是延後成為更昂貴的補救成本。
這正是許多中小企業在轉型初期最容易低估的地方。
為什麼 AI 組織轉型真正需要的不是「政治」,而是一直缺席的那個人文位置
當我們談 AI 進入企業與組織,常見的討論幾乎都集中在技術能力、工具選擇與效率提升上。
而一旦開始談到「價值」、「正當性」或「誰該負責」,這類討論往往很快就被貼上標籤
就會被問是不是在搞政治?
<轉引本文/改編本文請標註作者(Hsiao-Hsuan Chang, 2025)以及附上本文連結>

不是政治,而是缺席的那個人文
這樣的誤讀,其實不是理解錯誤,
而是反映了傳統組織一個長期存在、卻很少被正面處理的結構性問題。
在多數公司裡,「價值」早就被外包給權力了
在高度階層化(權力集中)的公司文化中,存在一條不成文的界線:
• 非決策者,只能談執行
• 談流程、效率、KPI,是安全的
• 一旦開始問「應不應該」、「為什麼是這樣而不是那樣」,就容易被視為越界
因此,在這樣的環境裡:
• 價值判斷被理解為立場
• 立場被理解為站隊
• 站隊自然就被理解為政治
但這不是因為價值本身是政治,而是因為組織從未建立過「非政治的價值角色」。
AI 轉型,讓這個長期缺席的位置第一次被迫浮上檯面
過去,許多關於決策與責任的問題可以被模糊處理:
• 誰其實在做決策?
• 哪些人默默承擔了代價?
• 組織口中的理念,是否真的影響「選擇」?
但當 AI 開始參與評估、排序、推薦與淘汰,這些模糊空間迅速消失。
組織被迫面對的,並不是抽象的倫理辯論,而是非常具體的問題:
• AI 的判斷是建議,還是裁決?
• 「人」是否只是替系統背書?
• 出錯時,責任該如何歸屬?
• 當制度引發不信任時,「成本」會在哪裡爆炸?
在多數 AI 導入案例中,真正被低估的,並不是技術難度,而是轉型失敗的後期成本。
當決策權、責任歸屬與價值邏輯沒有在前期被說清楚,問題往往不會立刻爆發,而是逐步累積成組織內部的不信任、消極配合與制度繞行。
這些狀況短期內看似只是效率下降,但在後期常會轉化為更高昂的補救代價。包括人才流失、內部重整、聲譽風險,甚至整個轉型計畫被迫中止。
為什麼很多「看起來像人文的專業」,其實避開了這些問題?
這裡有一個經常被忽略的盲區。
以組織心理學、人力資源、組織行為等領域為例,其中相當多的實務與研究早已高度技術化、工具化。它們關心的是:
• 如何預測行為
• 如何降低抗拒
• 如何提高服從與穩定度
這類專業在轉型中確實有其功能,但它們處理的是「如何讓制度跑得動」,而不是「這個制度是否合理、是否值得被採用、是否符合轉型發展的一致性」。
因此,即使掛在「人文或社會科學」的名目之下,也可能完全不涉及價值衝突、權力結構、倫理界線與正當性問題。
AI 時代真正稀缺的,並不是分析能力,而是是否有人願意承擔判斷責任。
當責任沒有被設計,補救成本一定在後面等著
AI 轉型中最危險的情況,往往不是決策本身錯誤,而是責任沒有被設計清楚。
當錯誤發生時,組織才開始追問「誰該負責」,這通常意味著補救成本已經成倍增加。
無論是重新調整制度、重新對內說服,或是對外回應質疑,這些事後修補的代價,幾乎都遠高於在轉型初期就界定清楚責任與判斷邏輯。
這並不是價值辯論,而是風險管理的基本功。
為什麼這些問題總被誤解成「政治」?
對許多企業而言,價值與治理問題之所以被視為政治,往往是因為它們沒有被制度化。
當價值無法被公開討論、無法被設計成制度選項,就只能在私下以權力角力的方式存在
這類問題並不會因為被迴避而消失,只會在後期以更高風險與更大成本的形式出現。
AI 轉型真正考驗的,並不是組織是否有立場,而是是否有能力在風險仍可控時,就先把這些問題放到檯面上處理。
人文在 AI 組織轉型中的真正位置:不是立場,而是風險承接
如果換一個更貼近企業現實的說法,人文在轉型中的功能其實是:
• 辨識哪些模糊地帶,未來一定會變成風險
• 把隱性的價值衝突,轉成可討論、可選擇的制度方案
• 讓決策不只「做得出來」,也「說得出口」
• 讓責任不是事後找人背,而是在事前被設計好
這些工作不屬於公關,也不是權力鬥爭,而是讓組織避免在轉型後期付出更高代價的結構性角色。
差別只在於,帳單什麼時候付
從投資與經營的角度來看,這些看似抽象的治理問題,其實都是可預期的風險來源。
差別只在於,組織選擇在前期用判斷力處理,
還是在後期用更高的失敗成本與補救代價承擔。
AI 正在逼迫組織面對這個長期被忽略的缺口。
人文在這裡的意義,不是提供立場,而是讓價值、責任與取捨能被制度承接。
這不是理想主義,而是 AI 組織轉型能否真正走得下去的現實問題。
———————
THINKING 留給你的思考
- 如果 AI 的建議跟主管直覺衝突時,最後會由誰定奪?依據是什麼?
- 你們目前最可能被低估的成本,是技術費用,還是內部不信任造成的隱性損耗?
- 如果今天要你用一句話對外說明:「我們為什麼選擇這樣用 AI」,你說得出口嗎?
給中小企業主的自我盤點
你的組織看起來扁平,但關鍵決策是否其實高度集中?那集中後的責任與風險設計有跟上嗎?
當你必須快速決策時,你最需要的不是更多工具,而是什麼類型的「判斷支撐」?























