顏志丞 這個問題很有趣,也有學生問過我類似的問題,它的本質是:AI是否可能自我生成、自我改進?而這個答案也不難回答:目前這狀況已經在發生了,但這是一個充滿挑戰的過程。
我們可以將這個過程想像成一個「AI 老師」教「AI 學生」的場景。(例如之前有提過類似「蒸餾」的技術操作),這個「AI 老師」就是一個大型語言模型,它已經學會了如何撰寫好的指令。當你給它一個任務,例如「幫我生成訓練 AI 寫詩的指令」,它會根據它學到的模式,產生一連串的指令,例如:
「請寫一首關於秋天的五言絕句,要求意境深遠。」
「請模仿李白的風格,創作一首七言律詩。」
「請寫一首現代詩,主題是城市中的孤獨感。」
這些由「AI 老師」生成的指令,就可以直接用來訓練另一個「AI 學生」,讓這個「學生」學會如何創作不同風格的詩歌。
但畢竟是在系統內生成,目前還有一些限制,例如:
一、品質參差不齊:AI 生成的指令品質可能不穩定。有些指令會非常精準有效,但有些可能語意不清、過於簡單或充滿邏輯錯誤。如果用這些低品質的指令來訓練新的 AI,結果可能會不如預期。
二、缺乏獨創性:AI 生成的指令往往基於它已經學習過的數據。這會導致一個潛在問題:它可能只會生成舊有的、缺乏新意的指令,而難以創造出真正獨特或創新的訓練內容。如果我們只讓 AI 互相訓練,它們可能會陷入一個「循環」,無法產生突破性的進步。
三、偏見的放大效應:如果「AI 老師」的訓練數據本身就包含偏見(例如性別、文化或政治偏見),它所生成的訓練指令也會繼承並放大這些偏見。這會導致「AI 學生」在學習後,表現出更嚴重的偏見,形成一個惡性循環。
以目前來說,這種AI訓練AI的模式是正在發生也可以節省不少時間,但仍然需要人類的監督與介入,來確保這些生成的指令是高品質、多樣化且公平,才能真正讓 AI 系統不斷發展與進步。
以上說明,歡迎有空再多來聊聊XD