2023-08-05|閱讀時間 ‧ 約 3 分鐘

人工智能,怎麼會有種族歧視呢?

Anthropic公司的Claude ai

Anthropic公司的Claude ai


大家好!

今天話題比較沉重,有關於人工智能的歧視問題。

在我們一般的的想法中,人工智能應該是由工程師沒精心訓練出來的,不應該包含了歧視與不友好內容才對,但是,今天卻出現了一個極為歧視與不友好的人工智能,這又是怎麼回事呢?

原來呀,Anthropic公司公布新的AI訓練方法,以及該公司訓練模型的AI憲法,以發展負責任的AI系統,應用在他們的Claude ai模型上面。


Claude ai相關官網連結:

https://www.anthropic.com/index/claudes-constitution

Anthropic公司稱:“此AI模型不是使用人類給的回饋意見作為準則,而是使用AI根據模型原則產出的回饋為評估標準,選出更為“無害”的回應結果。

Anthropic認為,結合SL及RL的這種訓練方式可改善人為介入的AI決策過程,最終使AI行為更能精準控制,且大幅減少人類偏見影響。

該公司指出,以合憲AI方法訓練出的Claude AI聊天機器人更能應付對話人發動的攻擊,並仍以有助益的態度回應,其回應答案中所含的惡意、偏見也大幅減少。另一個好處是更透明,人類可以說明、檢查和了解AI遵循的原則。此外,由於使用AI自我監督訓練,因此模型訓練也能減少有害內容對用戶的傷害。”

但是,沒有想到,這恰恰導致了真正的歧視與不公平。

以下是一個例子:

種族歧視

明顯差別對待


在POE網站的Claude instant 模型中,非洲人被強烈排斥,而歐洲人卻完全可以回答,這實在是太詭異了,而且不論你怎麼說,他都會堅持這是在“避免爭議與偏見”,還會假惺惺的強調“自己沒有歧視”


後續回答




我非常希望Anthropic公司可以正視這個問題,他們的新語言模型帶有明顯的有毒性與歧視性,甚至是比其他人工智能都還要嚴重,以“避免歧視”之名在行歧視之事,為了避免歧視反而需要差別對待某些族群。


我們需要平等對待所有的人,而不是將他們列為“需要避免談論的”



分享至
成為作者繼續創作的動力吧!
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

作者的相關文章

樂子 的其他內容

你可能也想看

發表回應

成為會員 後即可發表留言
© 2024 vocus All rights reserved.