「模型崩壞」的未來:當AI生成內容沒提升創造者效率,而是開始複製平庸

更新 發佈閱讀 3 分鐘

據說冬颱要來,週末還是趕工準備了下週二要到花蓮授課的AI行銷課。

今年是AI大爆發的一年,各種AI模型進步、AI代理應用,如雨後春筍般冒出。在公關、行銷、文案領域,很直接地感受就是「AI直出」的文字數量激增,愈來愈少人自己寫第一版草稿。

這次工作坊的對象主要是數位原生世代的大學生。我相信對他們來說,要用AI產生文案、下不同風格的prompt實在太容易了,他們學習數位工作的速度也絕對比我快。在這樣的前提之下,我到底還能跟大家分享什麼?

最後決定返璞歸真,從古典的新聞學5W1H開始,講文案寫作的原則,帶大家看一些AI出現之前,出自人類之手,那些天才心靈寫出來的絕妙文案。

2024年,《Nature》刊登了一篇論文,標題很直白告訴大家:

AI models collapse when trained on recursively generated data(當AI開始用AI生成的內容學習時,模型就崩潰了)

論文大意是,以往訓練 AI 的資料都是人類創造的,現在卻有很多內容是AI生成的。研究人員用小型語言模型做實驗,先用真實的 Wikipedia 文字訓練,讓AI自己寫文章,再拿這批文章繼續訓練下一代AI。

如此重複幾次。剛開始幾代,AI寫的內容還能理解。幾代之後,AI就開始亂講、重複詞句、沒邏輯,愈學愈糟。

研究者提到,AI一代不如一代的原因包括:

  1. 取樣誤差:AI 生成的資料並非十全十美,總會有細節、少數案例被漏掉。
  2. 表達限制:AI 模型不是全能的,它不能完全模仿人類世界的複雜度。
  3. 學習偏誤:訓練過程本身有偏差(像梯度下降算法),會放大錯誤。

這些小錯誤一代一代累積下來,AI模型就會開始崩潰。

我自己感覺,AI生成的內容是人類過往資料的「平均值」。剛開始用AI寫作,會覺得他寫出來的文字大致上都有70、80分,先不管內容如何,至少文字通順、能看懂。但當AI產出的文字開始在網路世界氾濫時,可以想像下一代的AI就是去學這些70、80分的文字,然後不斷承襲上一代的缺點(我現在非常厭惡看到「不只是⋯更是⋯」和滿滿破折號、表情符號的文字),然後愈寫愈糟,變得只有60分,甚至不及格。

當這樣的未來發生時,就是人類的創造力再次成為稀缺資源的時刻了。

留言
avatar-img
留言分享你的想法!
avatar-img
Money Talks
26會員
83內容數
會算塔羅牌,也會算資產報酬率,沒有人規定不能兩樣都會。科技冷冷的,可是筆下的AI卻會在凌晨陪人說話。對錢不貪,卻總想搞懂它的規則;對人不多話,卻能寫出一段又一段別人不敢說的心事。 (以上簡介由AI生成) 有事來信:gracechronicle@gmail.com
Money Talks的其他內容
2025/11/02
分享產品 Landing Page 改版實作經驗。運用Vibe Coding工具,快速迭代 38版,從訊息重塑到技術 SEO 優化的重點。
Thumbnail
2025/11/02
分享產品 Landing Page 改版實作經驗。運用Vibe Coding工具,快速迭代 38版,從訊息重塑到技術 SEO 優化的重點。
Thumbnail
2025/09/27
客服毫無疑問是個重複性高、產值低又沒credit,非常值得被AI取代的工作。總之,為了讓這個不得不做的爛工作有點意義,我決定嘗試用 No Code 工具 Zapier 搭配 ChatGPT,來建立一個簡單的 Agent Flow,嘗試讓客服流程自動化。
Thumbnail
2025/09/27
客服毫無疑問是個重複性高、產值低又沒credit,非常值得被AI取代的工作。總之,為了讓這個不得不做的爛工作有點意義,我決定嘗試用 No Code 工具 Zapier 搭配 ChatGPT,來建立一個簡單的 Agent Flow,嘗試讓客服流程自動化。
Thumbnail
2025/09/06
前陣子洗碗時,突然福至心靈般的有個念頭:今年9月,我就要35歲了。這輩子活到過1/3,我曾經探索過很多興趣與技能,哪些支柱會撐起我過去、現在和往後的人生?套用一萬小時理論,我這一生還能專精多少事?
2025/09/06
前陣子洗碗時,突然福至心靈般的有個念頭:今年9月,我就要35歲了。這輩子活到過1/3,我曾經探索過很多興趣與技能,哪些支柱會撐起我過去、現在和往後的人生?套用一萬小時理論,我這一生還能專精多少事?
看更多