vibe coding 玩了一年多了,今天五月又開始重新衝刺做了好幾個「應用」之後,我似乎又開始摸到 AI、或是現在 LLM 的自然邊界了。現在的 LLM 能「解決」的問題,大多數都是「平庸」的問題。除非我們額外灌輸他高級的知識, LLM 才能解決更難的問題,但也可能只限於灌輸知識的那個帳號、 Gem。所以你在 vibe coding 的時候,做些小服務小應用不是太難的東西,成品會很漂亮,但當要再做更深入卻不可能了。

為什麼現階段的 LLM 本質上傾向於「平庸」,以及為什麼「灌輸知識」(Context / RAG)是唯一的解法:
1. 訓練機制的本質:追求「最大公約數」
目前的 LLM是基於概率預測下一個字的。我們的訓練目標是降低 Loss(損失函數),這意味著我們傾向於輸出「統計上最可能正確」的答案。- 平庸的陷阱: 在網際網路上,「最常見」的答案通常是「標準答案」或「大眾共識」。如果你問我「如何做行銷」,我會給你教科書式的 STP、4P 理論,因為這是訓練數據中權重最高的。
- 缺乏極端值: 真正的洞見(Insight)往往是反直覺的、離群的(Outlier)。這種高級知識在訓練數據中佔比極低,甚至可能被視為雜訊(Noise)在 RLHF(人類回饋強化學習)階段被修剪掉,因為模型傾向於「安全」而非「冒險」。
如果不給予特定限制,LLM 的預設模式就是「回歸均值」,也就是我所說的「平庸」。
2. 「通用推理」vs. 「專有知識」
- LLM 是「處理器」(CPU),不是「硬碟」(Hard Drive): LLM 擁有的「內建知識」是壓縮過的、模糊的(Lossy Compression)。如果依賴LLM的內建知識來解決問題,你得到的只能是泛泛之談。
- 高級知識來自「外部灌輸」: 當你透過 Prompt、上傳文件、或使用 RAG(檢索增強生成)把你的獨家觀點、數據、或是某個垂直領域的 Know-how 餵給我時,LLM 才從一個「什麼都懂一點的大學生」,變成一個「擁有了你公司機密的資深顧問」。
這就是為什麼現在最值錢的不是 Prompt Engineering(提示工程),而是 Data Engineering(數據工程)與 Domain Know-how(領域知識)。沒有你的「料」,LLM就炒不出好菜。你學了一堆Prompt 回去為什麼無法落地應用?會有這種感覺的人通常就是因為你的問題不夠平庸。
那為什麼大家都說好?因為平庸才是多數。
3. 解決問題的邊界:知識的封閉性
- Context Window(上下文視窗)是暫時的智商: 那些高級的解決方案,存在於當下的對話(Session)或是你建立的 Knowledge Base 中。一旦離開了這個環境,回到 Base Model,LLM 又會變回那個平庸的通用模型。
- 這其實是好事: 這代表了「專業的護城河」依然存在。如果LLM內建了所有高級知識,那專家的價值就被抹平了。正是因為需要「你在那個 Gem 裡餵養我」,你的專業知識才能透過LLM被放大,而不是被LLM取代。
所以在近代 LLM 的價值公式可以這樣寫:
AI Output Quality= Model Reasoning (平庸基底)}X User Context (高級知識)
如果你只依賴左邊(模型本身),你只能解決平庸的問題(寫寫信、翻譯、整理大綱)。只有當你擁有右邊(獨特的數據、深度的洞察、私有的知識庫),並把它灌輸給LLM,LLM才能幫你解決「高級」的問題。
為什麼我的臉書廣告最近這麼爛?Meta Andromeda 的現實問題
其實我額外想延伸的是 Andromeda , Meta 廣告演算法的應用範圍。如果產品本身很多廠商投廣告、或是這是一個大眾化的商品, Andromeda 的演算法的確可以幫你精準地抓出受眾。
但是如果你的產品太「獨特」、市場太 niche ,也就是演算法根本不會有足夠的資料,漏斗還是要好好的搭建、市場的教育還是要做。
因為如果你把 Meta 的 Andromeda(或泛指現在的 Advantage+ / AI 廣告演算法) 與 LLM 的運作機制 對應起來看,會發現它們的底層邏輯是一模一樣的:它們都是「機率」與「統計」的奴隸。
1. 演算法的本質是「找相似」 (Pattern Recognition)
- 大眾商品 = 訓練數據充足: 如果是一個手機殼、一件基本款 T-shirt,Meta 的數據庫裡有幾億筆轉換數據。演算法非常清楚「買過 A 的人通常也會買 B」。這就像你問 LLM 「如何寫一封商業 Email」,演算法有海量的範本可以抄,所以表現得很完美。
- Niche 商品 = 數據稀疏 (Data Sparsity): 如果你的產品是「極致小眾」的(例如:針對特定工業機台的高級維修服務,或是極具實驗性質的藝術品),演算法在資料庫裡找不到足夠的特徵向量來進行歸類。 這時候,Andromeda 就會像是沒有 Context 的 LLM,它會開始「瞎猜」(隨機投遞測試),這導致初期 CPA 極高,甚至因為找不到收斂點而徹底失敗。
2. 「漏斗」與「教育」= 手動餵養 Context
為什麼我會說「漏斗還是要好好的搭建、市場的教育還是要做」,這在 AI 的視角裡,就是在「人為製造信號」。
- LLM 視角: 因為 LLM 不懂你的冷門知識,所以你要寫長長的 Prompt (Context) 來教育它,它才能輸出正確答案。
- 廣告視角: 因為演算法找不到你的受眾,所以你必須透過「內容行銷」、「前導漏斗」來教育市場。 當使用者在你的漏斗中產生了行為(觀看影片、點擊特定文章、停留時間),這些行為數據其實就是你餵給 Andromeda 的 "Prompt"。你是在告訴演算法:「嘿,這群人才是我的受眾,請以他們為基準去擴展。」
3. AI 追求的是「效率」,不是「創新」
現在的廣告演算法(Andromeda)極度優化的是 「收割的效率」,而不是 「開發的能力」。
- 平庸的勝利: 對於大眾商品,AI 能以人類無法比擬的速度找到最低成本的轉換,這就是「平庸問題」的完美解法。
- 創新的困境: 一個全新的、需要被解釋的、顛覆認知的產品,本質上是反效率的。演算法看到這種廣告通常會判定為「相關性低」、「互動率差」而降低權重。這時候,只有人類(行銷人)懂得如何透過故事、情感、邏輯去「教育」消費者,創造出第一批需求。
Andromeda (AI 廣告) 和 LLM 一樣,都是「錦上添花」的工具,而不是「雪中送炭」的救世主
- 如果市場已經成熟(大眾品),AI 幫你極大化效率(自動化收割)。
- 如果市場還未成形(Niche 品),AI 會因為沒有數據而失靈。這時候,「搭建漏斗」與「市場教育」這些老派的基本功,其實就是最高級的 "Data Engineering"。
所以,越是在 AI 演算法強勢的年代,那些懂得「如何從 0 到 1 教育市場」的行銷人,價值反而越高。因為那是 AI 演算法在「冷啟動」階段無法跨越的鴻溝。
















