這幾年教課,我發現一個愈來愈明顯的現象。
我給學生一個商業個案,比如這週的 Insta360 或雅朵酒店,然後提出幾個核心問題(Q1 到 Q5)。過去,學生們會焦頭爛額地去爬梳資料,試圖拼湊出答案;現在,他們很快就能交出一份看起來很漂亮的報告。
AI 寫的。但當我追問下去,會發現一個根本問題:他們答得出 Q5,卻說不出這家公司的基本盤;他們能引用「體驗經濟」,卻不知道這家公司創辦人是誰。
他們在做「單點突破」。在 AI 的幫助下,他們更快速地針對「問題」找到了「答案」,卻完美地繞過了「理解」這個過程。
這就是我說的「AI 生產力陷阱」。AI 讓你寫報告的效率變高了,但你對問題的洞察可能反而變淺了。你只是成了一個更高效的「答案搬運工」。
在今天的課堂上,我花了近兩小時,帶領學生進行一場「深度研究」的實戰演練。我的目的只有一個:把學生從「AI 使用者」的角色,拉升到「AI 指揮官」的位置。
你的第一個錯誤:把 AI 當作「知道答案」的專家
我們犯的第一個錯誤,就是高估了 AI 的「意圖」。
你必須記住:AI 是「沒有問題意識」的資訊整合者。
這是什麼意思?意思是 AI 的核心目標是「滿足你的提問」,而不是「追求事實的真相」。這兩者有天壤之別。
我在課堂上做了一個示範。我請 Google Gemini 針對「運動攝影機市場」進行深度研究。它很快產出了一份報告,洋洋灑灑。但我們仔細一看,問題就來了:
- 數據衝突: 報告中引用了四家市調機構的數據,對於 2024 年的市場規模,一家估 40 億美元,另一家估 70 億美元。相差近一倍。AI 怎麼處理?它只是把它們並列出來。它不在乎。因為 40 億或 70 億美元,對於「完成報告」這個任務來說,沒有區別。但對於身為決策者的你呢?這可能是一個「成熟市場」和一個「高增長市場」的天壤之別,你的所有策略都會因此改變。
- 來源混淆: 我帶學生去看 AI 的「思考過程」。我指著其中一個來源問:「這是一個 Reddit 討論串。AI 把它抓進來了。請問,這應該被當作『消費者觀點』的佐證,還是『權威事實』的依據?」AI 顯然是混用的。它看到「Insta360 Review」就抓了,它無法判斷這份資料在你的研究架構中,應該被放在哪一層。
- 權威誤判: AI 引用了一支 YouTube 影片。我點開一看,一個訂閱數不到一萬的「小咖」評論者。我問學生:「他的觀點是錯的嗎?不一定。但他是否具備權威性?他的觀點是否能代表市場?」AI 無法回答這個問題。對 AI 來說,WSJ(華爾街日報)的影片連結,和這個「小咖」的連結,都只是 URL。
當 AI 把它找到的 10 個來源——包含 2 個權威報告、3 個付費牆殘篇、1 個 Reddit 帖、1 支小咖影片、和 3 個內容農場——全部「捏」在一起,用漂亮的文筆寫成一份報告時,一份精美的「大雜燴」就誕生了。
你,作為「使用者」,拿到了這份報告,然後把它貼到你的作業裡。
你錯得更離譜了。
你的第二個錯誤:餵 AI 吃「垃圾」,卻期待它產出「黃金」
我們常說 GIGO(Garbage In, Garbage Out)。這個問題在 AI 時代被放大了 100 倍。
當你使用 AI 的預設 Deep Research 功能時,你是在命令它去「公共網路」這個大垃圾場裡找東西。它會遇到什麼?
- 它會撞上付費牆: 就像你我一樣,AI 讀不到 ABI/INFORM 裡面的深度報告。它只能看到標題和摘要,然後用這些零碎的資訊去「猜」。
- 它會被演算法綁架: 它找到的資料,是 Google 搜尋演算法「餵」給它的。這不代表「真相」,只代表「高相關性」或「高排名」。
- 它有區域局限性: 課堂上,我們用同樣的指令去問 Gemini 和 ChatGPT。我發現 Gemini完全遺漏了一個研究中國企業至關重要的來源:「36 氪」。而 ChatGPT 卻找到了。這意味著什麼?如果你只用單一 AI,你看到的世界版圖從一開始就是殘缺的。
你讓 AI 在一個充滿偏見、錯誤、付費牆和內容農場的環境裡去「自由發揮」,然後期待它給你一份客觀、權威、全面的報告。
這不叫使用 AI,這叫「偷懶」,還順便「自我欺騙」。
真正的心法:成為「指揮官」
那麼,怎麼辦?答案是,你必須從「使用者」退後一步,成為「指揮官」。
指揮官不負責開槍,指揮官負責定義戰場、分派任務、驗收成果。我在課堂上演示了「指揮官三部曲」:
第一部:編輯「研究計畫」,注入你的「意圖」
當 AI(特別是 Gemini)產出第一份「研究計畫」時,就是你作為指揮官介入的第一個黃金時機。
千萬不要直接按下「開始研究」。
你必須去「編輯」它。我當場示範了如何修改指令,我告訴學生:
「我不要質化描述,我需要量化數據。」 「你說要找權威機構,很好,找 3-4 家就好,但你必須在報告裡告訴我你為什麼選擇這 4 家。」 「我需要長期(Long-term)的數據趨勢,不是只有今年。」 「最重要的一條:如果你遇到付費牆,或者你對某個數據沒有信心,你必須明確地告訴我。」
你看,我做的不是「提問」,而是「設定規範」。我強迫 AI 從一個「什麼都說好」的「yes-man」,轉變成一個「必須回報困難」的「研究助理」。這就是注入你的「問題意識」。
第二部:建立「私有資料庫」,餵養高品質的「種子」
這是整堂課最關鍵的技巧:「播種-錨定」(Seeding-Anchoring)。
與其讓 AI 去公共垃圾場裡大海撈針,不如由你——人類專家——先去「策展」一個高品質的「私有資料庫」(Private Database)。
我帶著學生做了三件事:
- 去圖書館資料庫: 我們登入 ProQuest (ABI/INFORM),這全是「付費牆」後面的高品質內容。我找到一篇關於 GoPro 的深度報告,下載 PDF。
- 去找一手財報: 我們去了 GoPro 的投資者關係網站,下載了它最新的 10-K 年報 PDF。這是絕對的第一手資料。
- 去找關鍵訪談: 我們搜尋了「Insta360 創辦人」,找到一篇深度訪談的「逐字稿」。
然後,我開啟一個全新的 AI 對話。我把這兩個 PDF 和一個 Google-Doc(放逐字稿)「上傳」給 Gemini。
我的指令變成了:
「這是我認為最關鍵的三份『種子』資料。請你優先且徹底地研讀這三份檔案,並以此為基礎,幫我重新建立一份關於『運動攝影機市場』的研究報告。」
這就是指揮官的戰略。我定義了戰場。AI 的研究不再是天馬行空,而是被我提供的這三份高品質資料牢牢地「錨定」(Anchor)住了。它產出的報告,其品質的「下限」將會非常高。
第三部:啟動「AI 互搏」,進行交叉驗證
你以為這樣就結束了?不。指揮官的最後一項任務是「品管」(QC)。
你沒有時間去逐字核對 AI 產出的 5000 字報告。但你有另一個 AI。
我把 ChatGPT 產出的報告(它找到了 36 氪,這點很有價值)存成 .docx,然後「上傳」給 Gemini。
我的指令是:
「請你擔任事實查核官(Fact-Checker)。幫我檢查:1. 裡面是否有時間序列的錯誤? 2. 它的引用來源是否真的能支持它的內文觀點?」
幾秒鐘後,Gemini 產出了查核報告。它明確指出了 ChatGPT 報告中的幾個錯誤,例如:「報告中提到 A 事件在 B 之後,但根據資料,A 在 B 之前」(時間序列錯誤)。
這就是指揮官的品管。利用 AI 去制衡 AI。
先建「文本」,再做「分析」
我為什麼要花這麼大力氣,教學生做這件事?
因為我們這門課的目標,不是培養「很會回答問題」的學生,而是培養「能提出好問題並系統性解答」的未來專家。
你必須強迫自己區分「個案文本」(Case Text)和「個案分析」(Case Analysis)。
- 文本: 是「是什麼」。是你在 AI 輔助下,用「指揮官心法」建立起來的「客觀事實基礎」。它包含了(經過驗證的)市場規模、主要玩家(GoPro, Insta360, DJI...)、創辦人的真實想法、消費者的(已被歸類的)評價。
- 分析: 是「為什麼」。是你用「體驗經濟」、「能力套利」這些理論框架,去解讀你那份紮實的「文本」後,得出的你自己的觀點。
我的學生最常犯的錯,就是在「文本」一片模糊的情況下,直接跳到「分析」。那不是分析,那是「猜測」。
AI 時代,知識的「稀缺性」消失了。但「深度」與「洞察」的稀缺性,卻變得前所未有的昂貴。
這堂課,我教的不是 AI 技巧。我教的是如何在一個「答案」唾手可得的時代,保持對「真相」的渴求與紀律。
停止再當 AI 的「使用者」。從今天起,請你成為「指揮官」。














