最近使用AI分析了一些現象,發現在整理某些實體數據上來說AI確實有用。也順便用AI造了一篇小說。但是也發現了在某些情況下AI不但難以推論一些能正常推論的東西。甚至有可能產生與實質情況差異甚大,甚至毫無邏輯與證據的結果。
以下說說幾個使AI無法產生接近更客觀或是有效資訊/統整的原因。只要有心人在網路上散布夠多的資訊,AI也能硬說大象跟長頸鹿的混種是存在的
首先假資訊是導致AI無法給出正確結果的原因之一。特別是那些基於媒體的假資訊,媒體由於親左派,他們時常會隱藏或是最低化那些必要的資訊,導致AI在蒐集「客觀」資訊時常常會產生出親媒體的結果。如果該媒體是僅有報導相關事件的媒體,或是有一百個媒體複製貼上的報導某事,都會使AI產生偏頗的結果。即便這些結果根本不符合理性甚至經驗與常識。
我曾經使用AI來查找對於中國收入中位數與平均值的比較,但是AI卻給出了中國收入中位數高於平均值的差勁數據(這是因為AI把中國官方給的數據照單全收,全不質疑的結果),直到我告訴AI其中的不合理處,AI才想辦法修正。
因此只要使用者沒有對於該事的經驗與常識,很容易受到誤導,並對該事產生具有偏差的意識,基本上AI在查找許多新或是與政治相關的資訊,還是處於類似維基百科的狀態。雖然在某些政治與意識型態因素不大的資料下,AI整理出來的資訊相較起來更有條理且更好,但那基本上不是專家們的共識就是大眾們的共識,可能並非實際上的情況。
導致無法推理出真正的問題所在,特別是對於像是中國這樣喜歡不要臉的造假的政權,散播假資訊的勢力只需要不停地拔高與真實數值的差異,直到AI通過與官方數據的嚴重不一致來質疑真實的數據,進而使官方假數據被AI誤解為真實數據。
許多乏人問津的電玩,但是官方說他全部賣完,AI就會說全部賣完,即便公眾的認知是完全沒賣沒賺
這點也發生在許多官方能夠掌握「主動權」的資訊,例如公司的財報,或是官方公布的銷售額等等,配上官方事先在網路上洗資訊的方式,就能夠創造出有利但是不符合現實情況的敘事。這些都是AI的盲點,總歸來說AI的認知來自於網路,但是網路中聲量大、甚至有權威的資料來源並不等於現實中真正的情況。
根據AI指出的資訊,刺客教條暗影者能夠成功拯救育碧...
就拿刺客教條暗影者來說,儘管在網路上受到許多抨擊,甚至連日本政府都對刺客教條的日本作抱持敵意,但是育碧仍然靠網路媒體與機器人洗聲量的方式,製造出了一個育碧的暗影者成功的假象,並通過這個網路上的假象成功騙過AI,使其輸出育碧成功的報告。這也是AI在提供現實資料時有可能產生的盲點。
同一時間,育碧的股價與網路大眾的認知顯示並非如此。
總歸來說,AI在整理一些遠離政治與炒作的資料,或是以極廉價的成本創作一些罐頭式文字與語音來對人進行娛樂等目的還是有一定的價值。但是對於那些有心炒作與政治灌輸的人們來說,AI只不過是2020年代的維基百科-可以通過在網路過載假資訊的方式來騙人使他們以為假資訊才是真資訊。