去年,我協助一家企業做了一場生成式 AI(GenAI)工作坊。為了保密,我不談公司背景、不談產業,也不描述任何能回推組織身分的內部細節。我只談那場工作坊之後,一個對台灣企業更重要、也更難被看見的現象:當公司在文化上支持同仁使用 AI 來提升效率並探索最佳實務(Best Practices)時,AI 不再只是「工具採購」或「一次性訓練」,而會開始在日常協調裡像酵母一樣發酵——把流程的缺口、治理的邊界、以及人的價值重新推到台面上。
那場工作坊的分工很清楚。我參與約三分之一時間,主要負責教學員使用現有的 ChatGPT 或 Gemini 內建功能,把工作從「一問一答」推進到「半自動化」:例如把高頻任務做成可重複模板、或用平台內建的 GPTs / Gems 等機制來固化輸入輸出。其餘約三分之二時間,則由另一位老師帶大家用 Make.com 做更進一步的流程串接,並針對學員自己發想的題目進行實作,讓想法變成可運行的工作流(workflow)。(我們的研究草案也明確把這個訓練情境界定為:從 Chat UI 應用到 Make.com 流程自動化的三天訓練設計。)
訓練結束後,真正有趣的不是「大家學會了多少」,而是「大家開始把 AI 放進哪些問題裡」。我們後續做了兩件事:第一,針對跨單位訪談資料做主題分析(共 6 組訪談者,涵蓋業務管理到倉儲等不同單位);第二,依照先前問卷設計的構念邏輯做初探量化分析(目前樣本 n=28、共 67 欄位,先以構面分群與描述/相關/交叉策略建立可檢驗架構)。這篇文章想用商業人士能讀懂、但不流於口號的方式,回答我們研究中的兩個關鍵議題:
第一,機器信賴關係如何建立?使用者如何從「把 AI 當一問一答工具」,走到「把 AI 嵌進流程」、甚至「主動架構系統」?
第二,人的價值會不會因為 AI 而降低?在使用 AI 的過程中,使用者發現的能力缺口、創意產生與角色重塑,究竟發生了什麼?
一、你以為你在導入 AI,其實你在重新定義「協調」
多數企業談 AI,第一時間談的是省時間:寫信更快、做簡報更快、整理更快。這些當然重要,但它通常只停在「個人生產力」。
我們之所以決定把它做成研究,是因為從訪談裡我們反覆看到同一個訊號:在某些單位,AI 被期待解決的,不是單點效率,而是「協作如何被維持」。
有同仁描述,現場存在大量的聊天群組(例如 LINE 群組),訊息被 tag、跨群組追問、再回覆、再補充,最後常常不知道哪些已處理、哪些尚未處理,也容易漏訊。於是 AI 被想像成「萃取+追蹤」的補救工具——幫你把訊息整理出來、把待辦抓出來、把後續進度追起來。
但我們在主題分析裡也刻意把問題往深處推:這不只是「訊息量太大」,而是「工作協作被迫運行在聊天室邏輯上」,導致任務狀態、責任歸屬與後續進度缺乏可追溯機制。
換句話說,AI 不是第一個要被導入的東西;可追蹤性(traceability)才是。
更尖銳的版本是:如果平台選擇與流程設計本來就錯了,用 AI 去修補,只會讓錯的平台看起來「還能用」,反而掩蓋真正的問題。訪談中也出現類似判準:像 ticket/開單、報表輸入這類本來就該在系統中記錄的工作,不該靠群組對話解決;聊天工具該回到溝通,流程該回到系統。
這一段其實直接連到協調理論的基本觀點:協調不是「大家多溝通」,而是「在依賴關係中有效管理任務、資源與責任」。當依賴關係變複雜,協調機制必須進化(Malone & Crowston, 1994)。
二、文化支持會帶來「正向擴散」,也會帶來「治理負債」
我們特別在分析中加入一個視角:組織文化。
因為這家公司明確在文化上支持同仁使用 AI。這件事的影響比多數人想像得大:它讓 AI 使用變成「可被談論、可被分享、可被觀摩」的正向行為,而不是私下偷偷用的個人技巧。
訪談中出現一個很典型、也很正向的情境:有同仁不是資訊背景,但因為開始使用 GenAI 而主動探索各種可能性;甚至有人做出小工具後,還會主動分享給其他同仁使用。這代表 AI 不只提升效率,也在塑造一種「探索型專業認同」:員工開始用「我能不能設計更好的做法」來定義成就,而不只是「我做得快不快」。
但文化支持也會把另一件事推到台面上:治理邊界。
我們在主題分析裡把它命名為「邊界模糊與治理空白」:公司 AI vs 私人 AI 的界線是什麼?政策方向粗略、鼓勵探索的同時,資安風險怎麼控?當大家混用不同工具、不同帳號,組織會快速累積一種隱形成本——治理負債(governance debt)。
這也會直接影響信任:不是「信不信模型很準」,而是「我敢不敢把它放進責任鏈」。
三、信任不是抽象態度,而是一組可以被設計的「安全感」
我們的問卷設計中,明確把信任自動化(trust in automation)、算法厭惡與算法欣賞、透明度/風險知覺、控制感與可修正性等構念納入(Jian et al., 1998;Dietvorst et al., 2014;Logg et al., 2019)。
原因很實務:在企業現場,使用者對 AI 的態度常常不是「信任或不信任」二選一,而是混合狀態——低風險任務敢用,高風險任務不敢交付;覺得有幫助,但又擔心出錯。
研究上有兩個很關鍵的洞見,對企業設計訓練與制度都很有用。
第一,算法厭惡是真實存在的:人們在看到算法犯錯後,可能比看到人犯錯更快失去信心(Dietvorst et al., 2014)。這意味著,你不該用「模型很強」來說服人,而該用「流程可覆核」來讓人敢用。
第二,允許使用者做一點點微幅修改,採用意願會顯著上升。Dietvorst 等人指出,即使只能做非常有限的調整,人也更願意使用不完美的算法,因為那提供了控制感(Dietvorst et al., 2018)。
把這兩點翻譯成企業可操作的設計,就是三種安全感:
- 覆核權:在高風險任務上,AI 只能輔助、不能定稿;責任邊界必須清楚。
- 可回溯性:輸入、版本、輸出與交付狀態要可追蹤;否則自動化只是把風險放大得更快。
- 可調整性:不要求人人都會寫 prompt,但要讓人人能做 10% 的微調,讓使用者感覺「我仍握有方向盤」。
四、人的價值會不會降低?我們更關心的是:人的價值會往哪裡移動
「AI 會不會讓人的價值降低?」這題很容易被立場化。但我們更願意用機制回答。
在研究設計中,我們把工作價值與身分感(例如意義感、專業價值展現、角色反思)納入核心構念,並連結到工作再塑(job crafting)的理論脈絡:員工不是被動接受工作,而是會主動調整任務、關係與認知框架,來重塑工作的意義(Wrzesniewski & Dutton, 2001)。
當 AI 能生成內容時,人的價值不一定被稀釋,而更可能被迫遷移:
- 從「我產出多少」遷移到「我改善了什麼」。
- 從「我把事情做完」遷移到「我把問題定義清楚、把流程設計可交接」。
- 從「我會不會用工具」遷移到「我能不能讓工具在團隊裡被重複使用」。
這也呼應近年多個實證研究對 GenAI 的觀察:GenAI 會改變工作內容的比例結構,把更多比重推向構思、編輯、判斷與整合,而非純粹的粗稿產出(Noy & Zhang, 2023)。在某些服務情境,GenAI 也被觀察到能提升生產力與品質、並影響工作者的自我效能與感受(Brynjolfsson et al., 2023)。
因此,「人的價值」不是消失,而是被重新定義;而組織能不能接住這個轉變,取決於你是否提供相應的流程、治理與訓練路徑。
五、什麼是 Best Practice:不是「做得更快」,而是「做得可交接、可擴散、可治理」
在這個研究脈絡下,Best Practice 至少有三個層級。你會發現:越往上,越不像個人技巧,越像組織能力。
第一層:個人可重複(Reusable by self)
把高頻任務做成固定流程:固定輸入欄位、固定輸出格式、固定檢核清單。這正是我在工作坊前段著力的重點:先在平台內建能力的範圍內,把「半自動化」做出來,因為它風險最低、成本也最低。
第二層:團隊可共享(Shareable by team)
把隱性最佳實務變成可採用資產:共享模板庫、命名規則、版本控管、範例與反例、以及明確的任務邊界(哪些可以交給 AI、哪些必須人工底稿)。沒有這些,擴散就只能靠口耳相傳,最後會變成「高手很忙、新手靠運氣」。
第三層:跨部門可協調(Coordinated across functions)
當你開始用 Make.com 串接流程,你其實正在重新定義交付方式:狀態可不可見?責任怎麼切?例外怎麼回到正軌?這一層才是企業級報酬的來源——也就是我們研究中所謂的「協調價值」。
六、企業可以怎麼判斷:你現在在哪個階段?
以下是一個可以拿去做內部對話的「採用成熟度」指引(不是評分表,而是行為線索)。它也對應我們在量化分析策略中所使用的構面分群:採用深度/工作流成熟度、工作流程重組、協調價值、效益感知、AI 態度與工作價值。
Stage 1:Chat 作為即問即答
你看到的是「個人效率提升」,但流程仍不可追蹤。組織常出現算法厭惡:看見 AI 出錯就不想用。此時最重要的不是自動化,而是建立覆核權與任務邊界。
Stage 2:工具化/模板化(半自動化)
你開始把常用任務固化為可重複模板,組織內開始出現「隱性最佳實務」並透過分享擴散,但尚未制度化。此時管理者該做的是:把分享變成資產(模板庫、版本、範例/反例),並允許 10% 微調,降低厭惡、提高採用深度(Dietvorst et al., 2018)。
Stage 3:流程串接(工作流)
你開始把 AI 放進交接點與狀態管理。此時最大的風險不再是「AI 會不會寫錯」,而是「流程狀態可不可見、責任怎麼切」。如果協作仍被困在聊天室邏輯,AI 只是在幫錯的平台打補丁。
Stage 4:共享工作流+治理
AI 不只是工具,而成為組織協調機制的一部分:可追溯、可治理、可擴散。此時訓練也不再是教工具,而是建能力:流程設計、風險控管、資料邊界、以及跨部門協調。
七、為什麼這些結果對「下一套進階課程」很關鍵
如果你把 AI 訓練當成一次性的技能課,常見結局是:課後很興奮,兩週後回到舊方法。真正留下來的,通常只有兩種人:自帶動機、會自己長出工具的人;或被流程痛點逼到不得不改的人。
而我們希望透過訓練、訪談與問卷分析,讓企業能看見一條更可複製的路徑:
在 AI 友善文化中,學員先掌握基礎語言與概念;接著開始探索並導出需求、釐清問題;再透過訪談把需求聚焦、把治理邊界與流程缺口顯影;最後由講師與企業共同設計進階訓練,讓 AI 真正融入日常工作的協調之中——同時看清基礎建設需求,也掌握風險管理與公司治理的注意事項。
AI 的價值不是「讓某個人更快」,而是「讓整個組織更接得上」。
參考文獻
Brynjolfsson, E., Li, D., & Raymond, L. R. (2023). Generative AI at work (NBER Working Paper No. 31161). National Bureau of Economic Research.
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2014). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 143(6). https://doi.org/10.1037/xge0000033
Dietvorst, B. J., Simmons, J. P., & Massey, C. (2018). Overcoming algorithm aversion: People will use imperfect algorithms if they can (even slightly) modify them. Management Science, 64(3), 1155–1170. https://doi.org/10.1287/mnsc.2016.2643
Jian, J.-Y., Bisantz, A. M., & Drury, C. G. (1998). Foundations for an empirically determined scale of trust in automated systems (Interim report, February 1998). U.S. Air Force Research Laboratory.
Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90–103.
Malone, T. W., & Crowston, K. (1994). The interdisciplinary study of coordination. ACM Computing Surveys, 26(1). https://doi.org/10.1145/174666.174668
Noy, S., & Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence (Working paper).
Wrzesniewski, A., & Dutton, J. E. (2001). Crafting a job: Revisioning employees as active crafters of their work. Academy of Management Review, 26(2), 179–201.












