據說冬颱要來,週末還是趕工準備了下週二要到花蓮授課的AI行銷課。
今年是AI大爆發的一年,各種AI模型進步、AI代理應用,如雨後春筍般冒出。在公關、行銷、文案領域,很直接地感受就是「AI直出」的文字數量激增,愈來愈少人自己寫第一版草稿。
這次工作坊的對象主要是數位原生世代的大學生。我相信對他們來說,要用AI產生文案、下不同風格的prompt實在太容易了,他們學習數位工作的速度也絕對比我快。在這樣的前提之下,我到底還能跟大家分享什麼?最後決定返璞歸真,從古典的新聞學5W1H開始,講文案寫作的原則,帶大家看一些AI出現之前,出自人類之手,那些天才心靈寫出來的絕妙文案。
2024年,《Nature》刊登了一篇論文,標題很直白告訴大家:
AI models collapse when trained on recursively generated data(當AI開始用AI生成的內容學習時,模型就崩潰了)
論文大意是,以往訓練 AI 的資料都是人類創造的,現在卻有很多內容是AI生成的。研究人員用小型語言模型做實驗,先用真實的 Wikipedia 文字訓練,讓AI自己寫文章,再拿這批文章繼續訓練下一代AI。
如此重複幾次。剛開始幾代,AI寫的內容還能理解。幾代之後,AI就開始亂講、重複詞句、沒邏輯,愈學愈糟。
研究者提到,AI一代不如一代的原因包括:
- 取樣誤差:AI 生成的資料並非十全十美,總會有細節、少數案例被漏掉。
- 表達限制:AI 模型不是全能的,它不能完全模仿人類世界的複雜度。
- 學習偏誤:訓練過程本身有偏差(像梯度下降算法),會放大錯誤。
這些小錯誤一代一代累積下來,AI模型就會開始崩潰。
我自己感覺,AI生成的內容是人類過往資料的「平均值」。剛開始用AI寫作,會覺得他寫出來的文字大致上都有70、80分,先不管內容如何,至少文字通順、能看懂。但當AI產出的文字開始在網路世界氾濫時,可以想像下一代的AI就是去學這些70、80分的文字,然後不斷承襲上一代的缺點(我現在非常厭惡看到「不只是⋯更是⋯」和滿滿破折號、表情符號的文字),然後愈寫愈糟,變得只有60分,甚至不及格。
當這樣的未來發生時,就是人類的創造力再次成為稀缺資源的時刻了。





