人類最擔心的事情還是發生了。
隨意在網上看幾篇新聞,卻分不清是出自AI,還是人類之手;忙裡偷閒時打把遊戲,也分不清隊友是AI人機還是真人。直播間裡,明星數字人自顧自地吮雞爪,與賣力吆喝的真人助播形成割裂的場景......
這不是科幻小說的開頭,而是我們正在經歷的現實。AI生成內容正以驚人的速度滲透到互聯網的每個角落,污染著我們賴以生存的數字環境。
周鴻禕一針見血地指出:"如果未來AI產生的內容無法和人產生內容區分,這個世界真是我們想要的世界嗎?"這個問題值得每個人深思。
AI內容泛濫的後果是顯而易見的。
首當其衝的是語言研究領域。
Wordfreq項目創始人羅賓·斯皮爾悲觀地表示:"生成式AI污染了數據,我認為沒有人掌握關於2021年後人類使用語言的可靠信息。"這個原本用於追蹤多種語言詞彙使用頻率的項目,如今因為無法分辨AI生成的內容而被迫終止。
學術界也未能倖免。斯坦福大學的一項研究顯示,在計算機科學領域,幾乎每六篇摘要、每七篇引言中,就有一篇出自ChatGPT之手。AI正悄然改變著學術寫作的風格和內容。
更令人擔憂的是,AI內容的泛濫可能導致整個互聯網生態的惡性循環。
AI模型訓練所需的高質量數據越來越少,被迫轉向使用AI生成的合成數據。
牛津劍橋的研究人員警告,這可能導致模型質量逐漸下降,最終崩潰。
正如研究負責人Ilia Shumailov所比喻的:"如果你拍了一張照片,掃描、打印出來並再對其拍照,然後不斷重複這個過程,隨著時間的推移,基本上整個過程都會被'噪聲'淹沒。"
面對這種情況,一些平台已經開始採取行動。Stack Overflow臨時禁用了ChatGPT生成的內容,理由是"從ChatGPT獲得正確答案的平均比例太低了"。但這種應對方式顯然治標不治本。
周鴻禕提出了一個可能的解決方案:AIGC廠商應該在自己創造的內容上加上顯性或者隱性的水印,把AI的內容標示出來。
這不僅有利於社會,對AI本身的發展也有好處。
他強調:"把產生的內容做標識,對工具本身並不產生任何傷害。"
這種方法能否真正解決問題還有待觀察。在利益驅動下,總有人會試圖繞過這些標識。更重要的是,我們需要重新思考AI在內容創作中的角色。AI應該是輔助工具,而不是替代人類創造力的工具。
面對AI內容的泛濫,我們每個人都負有責任。
作為內容消費者,我們需要培養更強的辨識能力;作為內容創作者,我們需要堅持原創,保持人類獨特的創造力;作為技術開發者,我們需要在追求技術進步的也要考慮技術應用的倫理和社會影響。
互聯網已經被AI污染得差不多了,但這並不意味著我們應該坐視不管。
這正是我們重新思考、重塑數字世界的機會。
我們需要在AI和人類之間找到平衡,確保技術發展不會以犧牲人類創造力和獨特性為代價。
否則,我們可能會發現自己生活在一個由AI主導的世界裡,而這個世界,或許並不是我們真正想要的。