2023-07-27|閱讀時間 ‧ 約 2 分鐘

千萬別相信ChatGPT說的話! AI自修課(四)查證式思維


大家好!這裡是機器人來了,一個專注於人工智能領域的創作者。

今天我要分享一個大秘密,一個目前沒有人注意到的大秘密:千萬不要AI說的話。

這是怎麼回事呢?其實呀,目前幾乎所有的人工智能,都有一個通病,就是假消息,在他們的訓練內容裡面,有非常多似是而非的內容,而他們卻無法好好的搞清楚其中的真實性,更糟糕的是,他們會隨意拼接,瞎掰出一個假消息來欺騙用戶!

甚至,你嘗試轉換答案,還會得到一大堆不同的內容,根本不符合事實邏輯。

這可不是我在亂說呀,以下提供幾個案例來證明:


一 . 歷史紀錄關係混亂,反覆混淆


漢武帝這位超級知名的中國歷史人物,而ChatGPT 的錯誤回答:

漢武帝成劉邦之子

漢武帝在他的資料裡面居然還成為了劉邦之子


反覆更換,又持續錯誤

天吶,文景之治這麼基礎的東西都不知道?,


在這條刷新的回答,他不但更換了之前的說法,還把漢武帝的父親漢景帝,漢武帝的爺爺漢文帝的關係都給搞錯了。



運動項目


Claude 2的錯誤答案


正確答案:

真實數據與回答有很明顯的差距

(Claude 2 自稱數據有蒐集到2023年,但是這些細節都是錯誤的)



查證思維


看到這裡,你應該明白目前AI的局限性與錯誤的吧!


以後,如果你真的想要問AI問題,請一定要有查證思維,絕對不可以全盤接受他說的內容哦!



結語


希望人工智能可以儘速克服這個問題,不要再誤人子弟,也希望更多人能看到這個文章,在使用過程培養查證思維,不要被錯誤的假消息誤導。


分享至
成為作者繼續創作的動力吧!
一個新的時代來臨了,人工智能的時代,如何在這個機器人來了的2023年,不落後於別人,關注我,帶你了解人工智能的最新資訊與詳細操作!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

發表回應

成為會員 後即可發表留言