開宗明義,這篇不是要唱衰生成式AI。無論是在大學課堂,或是在不同產業的企業內訓,從精密製造到金融服務,我都看到了一個共通的現象:當我們大力擁抱生成式AI作為提升生產力的解方時,「工作廢品」(Workslop)這樣的副產品,可能侵蝕團隊的效率、信任與專業標準。
這個現象的核心,是利用AI,將思考的責任「外包」給了您的同事、您的主管,以及您的客戶。這不僅是時間的浪費,更是對組織專業精神的腐蝕。
史丹佛大學揭示的「工作廢品」(Workslop)現象為了理解問題的全貌,我們必須先深入了解「工作廢品」的定義與其破壞性。這個概念由人力資源分析公司BetterUp Labs與史丹佛社群媒體實驗室(Stanford Social Media Lab)合作提出,可以在HBR找到《AI-Generated “Workslop” Is Destroying Productivity》這一篇研究報告。
研究團隊將「工作廢品」定義為:「一種由AI生成,偽裝成優質產出,卻缺乏實質內容以推進任務的工作成果」(AI-generated work content that masquerades as good work, but lacks the substance to meaningfully advance a given task) 。
AI讓產出「看起來很專業」的門檻大幅降低。然而,當使用者僅僅是草率地複製貼上,缺乏自身的背景知識、批判性思考與情境判斷時,這些產出就成了「工作廢品」。
那又如何?他們提出「工作廢品」最陰險之處在於,它看似完成了任務,實則巧妙地將真正的認知負擔,從「產出者」轉移到了「接收者」身上。當您收到一份由AI生成的、缺乏關鍵背景、未經思考的報告時,您不得不花費更多時間去解讀、修正,甚至重做。
史丹佛的研究透過數據,量化了「工作廢品」的隱性成本:
- 時間與金錢成本:研究顯示,員工平均需要花費1小時56分鐘來處理每一次收到的「工作廢品」 。對於一個萬人規模的組織而言,這相當於每年超過900萬美元的生產力損失。
- 情緒與人際成本:收到「工作廢品」的員工,有53%感到惱火,38%感到困惑,22%甚至覺得被冒犯。
- 協作信任的侵蝕:這或許是最高的代價。數據顯示,收到「工作廢品」後,近半數的員工認為寄件同事的創造力(54%)、能力(50%)與可靠性(49%)下降了。更有三分之一的接收者表示未來更不願意與這位同事合作。
這份研究清晰地指出,「工作廢品」並非無傷大雅的瑕疵,而是一種具備高度傳染性的組織毒素,正從根本上破壞企業的核心生產力。
從個人到團隊:辨識並根除「工作廢品」的DNA
史丹佛社群媒體實驗室這篇研究將AI使用者分為兩類:「乘客」與「飛行員」 。乘客傾向於用AI來「避免」工作,而飛行員則有目的地使用AI來「增強」自身的能力與創造力 。當團隊中「乘客」多於「飛行員」時,「工作廢品」的產出便會大規模增加。
這跟我過去一段期間的觀察一致,如果管理者不是「飛行員」而是「乘客」時,將會造成整體的無效率。我認為,要解決這個問題,必須從個人工作者與管理者兩個層面,建立新的作業紀律與協調機制。
個人工作者:建立「穩定」與「正確」的自我要求
「工作廢品」的本質,是一種對品質的不負責。作為一個專業工作者,我們必須自我檢視,確保產出符合兩個基本原則:「穩定」與「正確」。
▶ 「穩定」的追求:穩定產出水準一致、格式統一的內容。AI是達成此目標的絕佳工具,但前提是我們必須先建立標準。這需要管理者投入心力,拆解工作流程,建立並管理部門的Prompt指令庫與專屬知識庫,這是確保「穩定」的基石。 ▶ 「正確」的堅持:基於可信的資料來源與正確的分析框架。我在工作坊中一再強調,Human in the Loop不是口號,而是必須執行的驗證流程。
- 警語一:賦予私有資訊為種子。例如,在執行Deep Research時,為何要先給予我們自己的資料?因為這是在為AI的搜尋與分析設定「錨點」 。一份專業領域的術語清單或基本要求文件,能極佳地校正AI的搜尋方向,避免其產出過於泛化的結果。
- 警語二:交替驗證以校正AI的「研究計畫」。 我會要求學員同時使用不同模型進行研究。再以Deep Research為何,例如,Gemini擅長在初期提供一個結構化的「研究計畫」,列出它預計搜尋的面向與關鍵字;而ChatGPT則擅長透過反問來釐清用戶的真實意圖。透過交叉比對兩者的策略與產出,我們能更客觀地校正研究方向,避免單一模型的偏見。
- 警語三:匯出對話,記錄步驟。 我要求學員匯出整個對話歷程,因為這不僅是成果,更是「過程的證據」 。使用如
Chrome Web Store
上免費的Gemini Exporter
、ChatGPT Exporter
等工具,可以完整保存你的提問邏輯、AI的回應,以及你如何修正、引導的軌跡。這才是 Human in the Loop 最寶貴的紀錄。 - 警語四:親自驗證每一行程式碼。 即便是AI呼叫Python進行統計分析,也必須親自跑過一次程式碼。AI連寫簡單的網頁都可能出錯,更何況是需要精確定義的統計模型?就像我會建議的,將程式碼複製出來,在自己的Python環境中實際運行一次,確保其可用性與正確性,這才是最保險的作法。
管理者:從「啦啦隊」轉變為「飛行員」,並開始「管理」AI
在《Reshuffle》一書中,作者Sangeet Paul Choudary指出,AI的真實衝擊並非取代任務,而是重構了整個工作系統。它帶來了全新的協調挑戰。當獲取專業知識的門檻大幅降低,管理的重心就必須從「知識的分配」轉向「風險的控制」與「新流程的建立」。管理者若僅扮演導入工具的「啦啦隊」,卻未能成為引導團隊的「飛行員」,組織將陷入混亂。
我常在課堂展示AI的各種「花式」應用,從生成圖像、文章、網頁到應用程式。這不是為了炫技,而是要讓管理者理解,這一切都源於AI強大的「模式辨識與生成」能力。如果主管自己從未下場操作,僅停留在概念理解,就極易被那些看似新奇、有趣的AI產出所迷惑,最終才發現收到的多是「工作廢品」。
我認為主管可以做的事:
▶ 主管的「降維打擊」:建立團隊的品質標竿 在最近一次的工作坊上,一位高階主管的課堂分享,完美詮釋了「飛行員」的角色。他不只完成了作業,更清晰地向團隊闡述他是「如何判斷」AI產出內容的好壞、他保留了什麼、修正了什麼,以及他最終決策的「理由」。這個動作的意義極為深遠:他親自示範了公司要求的品質標準,為團隊設立了清晰的依循準則。這正是所稱的「飛行員心態」(Pilot Mindset):有目的地使用AI來增強自身的能力與創造力,而非「乘客心態」(Passenger Mindset)般地用AI來避免工作 。
▶ 將AI Agent視為需要管理的「數位員工」 當AI Agent已成為工作流程的「一份子」時,他的行為表現就必須被「考核」。目前多數企業是透過API或企業版使用外部模型。當這些AI公司推出新模型或微調舊模型時,您團隊中的「AI員工」表現可能不再如從前。過去穩定的產出,可能突然變得不穩定;過去正確的分析,可能出現新的偏差。對AI Agent的持續性績效評估,是確保流程「穩定」與「正確」的延伸,也是管理者的新職責。
▶ 持續追蹤新發展,而非僅為擺譜 管理者必須持續追蹤如混合式神經-符號人工智慧(Neuro-symbolic AI)、脈絡工程(Context Engineering)這些關乎AI Agent表現的新技術。這不是為了在聊天時擺譜,而是因為這些發展,正是決定生成式AI到底是帶來生產力提升,還是製造更多工作廢品的關鍵。
▨ 從組織層面:建構AI時代的協調機制與文化
僅有個人的自覺與管理者的投入還不夠,組織必須從文化與策略層面採取行動。
▶ 給資深同仁的真心話:別假裝AI不存在 組織內總有一些對新技術冷漠的資深同仁。然而,我必須一再強調,當所有人都已身處浪潮之中,您不能假裝這些工具不存在。真正的資深價值,在於利用AI活化自己的思維,將繁瑣的資料整理工作交給它,然後藉由省下的時間與心力,去展現那些AI無法取代的、人類獨有的判斷力、整合力與創造力。這是在新時代中,鞏固自身價值最重要的方式。
▶ 給領導階層的建議:如何正確地導入外部專業 當您尋求外部AI講師時,請不要只停留在「學習AI知識」。一個高效的合作始於管理者對內部流程的深刻理解。
- 盤點流程,定義問題:首先,公司內部必須梳理出工作流程中那些「高摩擦力與高價值」,以及「高摩擦力與低價值」的任務。
- 帶著問題尋求解答:與外部講師溝通時,清晰地提出這些痛點,探討AI與自動化流程能在其中扮演什麼角色。
- 展現管理品質:這種事前對焦,本身就是一種管理品質的展現。它將導入AI從一場「技術講座」,轉變為一次「策略性生產力優化」。
而我們這些來自學界的教師,最大的價值便在於此:從管理思維與經營邏輯,來帶領AI的應用,而不只是談論Prompting的技巧。在AI帶來的新約束條件下,協助企業發現協調的關鍵點,妥善應用工具,這才是驅動生產力躍升的核心。
結論:看見人的價值,讓AI成為真正的放大器
「工作廢品」的出現,反映了一個核心問題:我們太急於讓AI「替代」我們的工作,卻忽略了它作為「放大器」的真正潛力。
作為管理者,您的挑戰不僅是導入一項新技術,更是引領一場工作思維、管理機制與組織文化的變革。您必須親身成為AI的「飛行員」,為團隊設定航向與標準。唯有透過嚴謹的自我要求、清晰的管理機制,以及對「人」的判斷與洞察價值的絕對堅持,我們才能確保AI真正為組織賦能,而不是讓我們淹沒在更多、更精美的「廢品」之中。