2024-09-29|閱讀時間 ‧ 約 24 分鐘

互聯網已經被 AI 污染的差不多了

    人類最擔心的事情還是發生了。

    隨意在網上看幾篇新聞,卻分不清是出自AI,還是人類之手;忙裡偷閒時打把遊戲,也分不清隊友是AI人機還是真人。直播間裡,明星數字人自顧自地吮雞爪,與賣力吆喝的真人助播形成割裂的場景......

    這不是科幻小說的開頭,而是我們正在經歷的現實。AI生成內容正以驚人的速度滲透到互聯網的每個角落,污染著我們賴以生存的數字環境。

    周鴻禕一針見血地指出:"如果未來AI產生的內容無法和人產生內容區分,這個世界真是我們想要的世界嗎?"這個問題值得每個人深思。

    AI內容泛濫的後果是顯而易見的。

    首當其衝的是語言研究領域。

    Wordfreq項目創始人羅賓·斯皮爾悲觀地表示:"生成式AI污染了數據,我認為沒有人掌握關於2021年後人類使用語言的可靠信息。"這個原本用於追蹤多種語言詞彙使用頻率的項目,如今因為無法分辨AI生成的內容而被迫終止。

    學術界也未能倖免。斯坦福大學的一項研究顯示,在計算機科學領域,幾乎每六篇摘要、每七篇引言中,就有一篇出自ChatGPT之手。AI正悄然改變著學術寫作的風格和內容。

    更令人擔憂的是,AI內容的泛濫可能導致整個互聯網生態的惡性循環。

    AI模型訓練所需的高質量數據越來越少,被迫轉向使用AI生成的合成數據。

    牛津劍橋的研究人員警告,這可能導致模型質量逐漸下降,最終崩潰。

    正如研究負責人Ilia Shumailov所比喻的:"如果你拍了一張照片,掃描、打印出來並再對其拍照,然後不斷重複這個過程,隨著時間的推移,基本上整個過程都會被'噪聲'淹沒。"

    面對這種情況,一些平台已經開始採取行動。Stack Overflow臨時禁用了ChatGPT生成的內容,理由是"從ChatGPT獲得正確答案的平均比例太低了"。但這種應對方式顯然治標不治本。

    周鴻禕提出了一個可能的解決方案:AIGC廠商應該在自己創造的內容上加上顯性或者隱性的水印,把AI的內容標示出來。

    這不僅有利於社會,對AI本身的發展也有好處。

    他強調:"把產生的內容做標識,對工具本身並不產生任何傷害。"

    這種方法能否真正解決問題還有待觀察。在利益驅動下,總有人會試圖繞過這些標識。更重要的是,我們需要重新思考AI在內容創作中的角色。AI應該是輔助工具,而不是替代人類創造力的工具。

    面對AI內容的泛濫,我們每個人都負有責任。

    作為內容消費者,我們需要培養更強的辨識能力;作為內容創作者,我們需要堅持原創,保持人類獨特的創造力;作為技術開發者,我們需要在追求技術進步的也要考慮技術應用的倫理和社會影響。

    互聯網已經被AI污染得差不多了,但這並不意味著我們應該坐視不管。

    這正是我們重新思考、重塑數字世界的機會。

    我們需要在AI和人類之間找到平衡,確保技術發展不會以犧牲人類創造力和獨特性為代價。

    否則,我們可能會發現自己生活在一個由AI主導的世界裡,而這個世界,或許並不是我們真正想要的。

    分享至
    成為作者繼續創作的動力吧!
    © 2024 vocus All rights reserved.