2024-03-12|閱讀時間 ‧ 約 0 分鐘

AI也會跟人類學壞:ChatGPT也有「種族歧視」

今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。

raw-image
分享至
成為作者繼續創作的動力吧!
【陳豐偉編譯社】的內容會幫助你瞭解自己、瞭解你的伴侶、家人、親友、同事,讓你更能分析為什麼某些人就是會有這樣的行為模式。無論是人際關係、職場用人或危機處理,以及給予你的親友好的建議,從這裡得到的知識,或許有一天會派上用場。
從 Google News 追蹤更多 vocus 的最新精選內容從 Google News 追蹤更多 vocus 的最新精選內容

發表回應

成為會員 後即可發表留言