當我在書店看到《AI造假》時,毫不猶豫就買了。如今讀完,說不上非常喜歡,這類書常有一個特徵,例子太多,論述太少。其中一些具有啟發性的觀點,隨意記錄如下:
1.本書的目標是去揭露AI人工性背後的現實,提醒我們AI產業充滿了假冒和欺騙。AI在此的定義是:把人類必須靠智慧來做的差事交給電腦去做,即感知、推論、行動、學習的四部曲。靠智慧來感知世界的狀態,對感知進行推論,根據感知和推論來行動,然後又從感知、推論、行動的循環中學習。
2.人工智慧的核心本就包含著欺騙。這要回到1950年圖靈的論文〈計算機與智慧〉,其開篇問,機器能不能思考?有鑒於「機器」和「思考」等詞定義不清,他拒絕回答,改為探討較為實務的層面,即所謂的「模仿遊戲」,如今稱為「圖靈測試」。透過一對電腦終端機執行開放式問答曆程,看電腦能否假冒成人類。而在他舉的例子中,電腦回答問題時會停頓和算錯,這是完全不必要的。3.也就是說,從此時起,AI就有了個隱約的可能,不是把AI變成人類,而是看AI能否假冒人類,無論是從外觀上,說話的語氣上,還是各種應對上,都要變得越來越像人。但為何要如此呢?這的確是我未曾思考過的問題。
4.AI產業看似光鮮亮麗,卻掩蓋著許多骯髒的秘密,其中之一就是他們僱用大量低薪人員進行資料分組和標示。正如本書提到:「為了改善ChatGPT的輸出,OpenAI付給肯亞的勞工每小時不到兩美元,來指認冒犯與惡意的內容。這固然是高於肯亞的最低工資,卻遠低於OpenAI總部所在加州的最低時薪十五塊半美元。而且這些勞工觀看這一切有害內容的代價,根本就沒有被列入考量。」這讓我想起一本名為《被消失的貼文》的小說。
5.網路環境也正面臨著深偽的威脅,無論是被移花接木的色情影片,還是層出不窮的造假影片,都實實在在地傷害著每一個人。
6.AI的危險還出現在視覺系統的差異上。人類視覺當然會遭到錯覺欺騙,看見不存在的事物。但AI同樣也因其構造不同,而造成誤判,如在速限標誌上塗鴉,人類能夠察覺,AI則會誤判。類似問題可能會造成自動駕駛領域的「對抗式攻擊」,導致人員傷亡。
7.智慧本身就不是單一面向的。心理學家區分了智識、情緒和社交三種智慧,而人工智慧多半聚焦於第一項,並假冒它具有第二項。
8.如今,在發展上,AI產業也面臨著它的限制,如摩爾定律已經走到了盡頭,模型的大小限制,生態永續性問題,缺乏特定領域的大型資料集,AI的僵化性容易出錯,以及語義理解能力的缺乏(類似ChatGPT的大型語言模型根本不知道自己在說什麼,不僅屢屢犯下低級錯誤,甚且捏造事實)。
9.許多科技公司誇下海口,欺騙和損害投資人的錢財,甚至連盈利模式也無法提出,就能募集一大筆資金揮霍。「科技公司屢屢是做假到成功為止。而其中一些從來都沒等到成功。」
10.面對社會大眾與法律究責,不少企業也開始了倫理洗白:高調展現倫理原則,但到頭來卻沒能把這些原則化為實務。
11.為了應對AI的虛假欺騙的性質,作者提了五點建議。
12.第一點,AI領域工作者應停止把科技擬人化,使大眾產生錯誤期待與投射。
13.第二點,開發者對於宣稱自己做到了什麼,要更加審慎和仔細,而不是加入這股炒作浪潮。人們不應過度信賴AI這種「白癡學者」,在少數的差事上它是超人,但往往缺乏廣義智慧和常識,提供錯誤資訊,或做出糟糕的判斷。
14.第三點,研究者應聚焦於困難的問題。在人類做起來毫不費力的事情上(如上述提到的視覺系統,或是拿起一顆棋子而不折斷對手的手臂),AI卻無法做到。
15.第四點,警覺並提防反饋迴路,尤其是結合人類與AI系統的那些反饋迴路。如社群媒體的演算法,其通往的多是假新聞、陰謀論和兩極化內容。只藉助量化標準(讚、轉發、回應)來運作,無法判斷內容的「價值」。
16.第五點,導入適合的法規,以應對深偽、智慧財產和數位壟斷等問題。
寫於2024.09.04