自動化偏誤
含有「自動化偏誤」共 1 篇內容
全部內容
發佈日期由新至舊
付費限定
陳豐偉的沙龍
2024/03/12
AI也會跟人類學壞:ChatGPT也有「種族歧視」
今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。
#
精選專題
#
自動化偏誤
6
留言