大家好!這裡是機器人來了,一個專注於人工智能領域的創作者。
今天我要分享一個大秘密,一個目前沒有人注意到的大秘密:千萬不要AI說的話。
這是怎麼回事呢?其實呀,目前幾乎所有的人工智能,都有一個通病,就是假消息,在他們的訓練內容裡面,有非常多似是而非的內容,而他們卻無法好好的搞清楚其中的真實性,更糟糕的是,他們會隨意拼接,瞎掰出一個假消息來欺騙用戶!
甚至,你嘗試轉換答案,還會得到一大堆不同的內容,根本不符合事實邏輯。
這可不是我在亂說呀,以下提供幾個案例來證明:
漢武帝這位超級知名的中國歷史人物,而ChatGPT 的錯誤回答:
漢武帝成劉邦之子
反覆更換,又持續錯誤
在這條刷新的回答,他不但更換了之前的說法,還把漢武帝的父親漢景帝,漢武帝的爺爺漢文帝的關係都給搞錯了。
正確答案:
(Claude 2 自稱數據有蒐集到2023年,但是這些細節都是錯誤的)
看到這裡,你應該明白目前AI的局限性與錯誤的吧!
以後,如果你真的想要問AI問題,請一定要有查證思維,絕對不可以全盤接受他說的內容哦!
希望人工智能可以儘速克服這個問題,不要再誤人子弟,也希望更多人能看到這個文章,在使用過程培養查證思維,不要被錯誤的假消息誤導。