人工智能幫助生活,回答問題,是一個極為常見的用法,大家最喜歡說的都是它上之天文,下知地理,但是,真的是這樣嗎?
人工智能幻覺(AI 幻覺),是一個AI領域內的名詞,指的是他面對用戶的問題的自信反應。
他會真真假假的回答出完全不正確的內容,並且提出很多支持佐證的說詞。
當模型有「幻覺」(輸出欺騙性數據的傾向)時,其使用的的訓練數據並不能證明輸出的合理性。就像是幻覺一樣。
維基百科連結: https://zh.m.wikipedia.org/zh-tw/%E5%B9%BB%E8%A7%89_(%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD)
這個問題尤其體現在中文的回答上,很多人說這是由於資料不足所導致,但是,很明顯的,這完全是無稽之談。
下面的例子,我們來看看ChatGPT 針對歷史上最年長的美國總統回答的答案:
很顯然,ChatGPT 的資料庫絕對包含了正確的答案,但是,他卻接連說出錯誤的答案,甚至你只有更換回答,得出來的回答又會大相逕庭
再來我們來看看另一個人工智能Claude instant 的回答:
這就更加的荒謬了,他居然在最基本的數字邏輯上都出現了問題,甚至是連69與70的大小都沒有分清楚,這完全已經可以證明AI幻覺與資料的正確性無關,而是一個艱難的技術問題。
透過以上的例子,我清楚的描述了人工智能產生的幻覺是一個嚴重的技術問題,並且即便在最領先的ChatGPT 裡面,也表現的非常嚴重。
AI幻覺的嚴重性直接損害了人工智能領域的可用性,幾乎每一個他說出的內容你都要費勁的去查証,完全不可能信任它。
雖說人工智能幻覺目前一個嚴重的問題與暫時無法解決的難題,但是,也不是沒有表現好的人工智能。
New Bing 是一個微軟的人工智能,它卻對這個問題有很好的解決方案,不但回答準確,每一次,當它回答的時候還都會搜尋與參考網路上直接的信息,並且附上他參考的網址,就算有問題,我們也可以直接查看內容。
不過,New Bong 當然有它的侷限性與缺點,就是響應速度慢,無法生成更有創造力與豐富的答案,還有回答內容可能有侵權,未經過同意的引用等等。
綜合以上的內容,我建議人工智能的使用者們不要使用ChatGPT 等等模型來詢問知識與諮詢嚴謹的內容,生成內容要保持在自己能力所及的範圍內,避免出現錯誤,如果生成出不太明白的內容也要有認真的查證它是否正確,確保AI幻覺不會干擾的文章的可信度。
而New Bing則是剛好互補,可以用來查證其他人工智能語言模型生成內容的正確性。
AI幻覺是一個人工智能領域目前相當麻煩的問題,但也有一些解決的方法,生成熟悉的專業內容,認真查証,多方工具互補,都能幫助我們在使用人工智能工具的時候不會出錯。
以上就是本期的全部內容啦!感謝收看!