付費限定

AI也會跟人類學壞:ChatGPT也有「種族歧視」

更新 發佈閱讀 2 分鐘

今天說的是一種稱為「自動化偏誤」(automation bias)的認知偏誤。人們常會不加思索地認為由自動化決策系統,例如現在常用的ChatGPT,會有程式語言賦予的理性與客觀,比較能避免人類常見的各種偏見。

raw-image
以行動支持創作者!付費即可解鎖
本篇內容共 750 字、0 則留言,僅發佈於陳豐偉編譯社你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
留言
avatar-img
陳豐偉的沙龍
1.6K會員
623內容數
【陳豐偉編譯社】的內容會幫助你瞭解自己、瞭解你的伴侶、家人、親友、同事,讓你更能分析為什麼某些人就是會有這樣的行為模式。無論是人際關係、職場用人或危機處理,以及給予你的親友好的建議,從這裡得到的知識,或許有一天會派上用場。
陳豐偉的沙龍的其他內容
2025/04/30
韓國、英國、澳洲、紐西蘭的報導,清楚呈現來自學生與家長的霸凌,讓老師承受龐大的心理壓力。應對方式之一是「放棄專業」,隨他們去了,應對方式之二就是選擇離職,不做最大。
Thumbnail
2025/04/30
韓國、英國、澳洲、紐西蘭的報導,清楚呈現來自學生與家長的霸凌,讓老師承受龐大的心理壓力。應對方式之一是「放棄專業」,隨他們去了,應對方式之二就是選擇離職,不做最大。
Thumbnail
2025/04/26
你的部門、公司、參加的團體裡的領導者,是否有高度自戀的人呢?對這樣的人,或許你一開始會有些喜歡或佩服,但最後可能會有點討厭或想要避開。企業領導者與政治人物,又有多少是高度自戀的人?
Thumbnail
2025/04/26
你的部門、公司、參加的團體裡的領導者,是否有高度自戀的人呢?對這樣的人,或許你一開始會有些喜歡或佩服,但最後可能會有點討厭或想要避開。企業領導者與政治人物,又有多少是高度自戀的人?
Thumbnail
2025/04/24
正規的答案,當然是「不可以」。不過,當專業的薪資越來越難負擔「中產生活」,也就不斷會有人挑戰專業倫理。然後現在有一種聲音出現,認為護理人員並不是「有公眾形象、常對社會大眾發言」的人,如果匿名拍攝OnlyFans,沒有理由接受公眾檢視。
Thumbnail
2025/04/24
正規的答案,當然是「不可以」。不過,當專業的薪資越來越難負擔「中產生活」,也就不斷會有人挑戰專業倫理。然後現在有一種聲音出現,認為護理人員並不是「有公眾形象、常對社會大眾發言」的人,如果匿名拍攝OnlyFans,沒有理由接受公眾檢視。
Thumbnail
看更多
你可能也想看
Thumbnail
身為一個精打細算,又熱愛旅遊美食的家庭主婦,皮包裡有好幾張信用卡,每次都想著哪張卡要搭配哪個通路比較划算,著實讓人燒腦,這次玉山Unicard彷彿聽到我的心聲,百大消費通路全都給你優惠,讓你無腦消費,帶一張卡就可以輕鬆省錢,FUN心玩透透!
Thumbnail
身為一個精打細算,又熱愛旅遊美食的家庭主婦,皮包裡有好幾張信用卡,每次都想著哪張卡要搭配哪個通路比較划算,著實讓人燒腦,這次玉山Unicard彷彿聽到我的心聲,百大消費通路全都給你優惠,讓你無腦消費,帶一張卡就可以輕鬆省錢,FUN心玩透透!
Thumbnail
話說身為短線交易者,每天要作的事情就是從盤勢觀察、到籌碼流向,再到經過多維度資料數據交叉比對,盤中盯著分K、江波圖和五檔報價,算計著每一分K線的轉折,雖能換來即時驗證判斷的快感與成就,但長期下來,卻也衍生眼睛與肩頸卻成了抹不去的職業病。
Thumbnail
話說身為短線交易者,每天要作的事情就是從盤勢觀察、到籌碼流向,再到經過多維度資料數據交叉比對,盤中盯著分K、江波圖和五檔報價,算計著每一分K線的轉折,雖能換來即時驗證判斷的快感與成就,但長期下來,卻也衍生眼睛與肩頸卻成了抹不去的職業病。
Thumbnail
每天都在花錢,但你知道這些錢都能省下一筆嗎?玉山 Unicard 期間限定活動,結合日常高頻消費通路,提供最高 7.5% 的超有感回饋。文章將分享真實使用情境,教你如何聰明運用,讓每筆開銷都化為小確幸。
Thumbnail
每天都在花錢,但你知道這些錢都能省下一筆嗎?玉山 Unicard 期間限定活動,結合日常高頻消費通路,提供最高 7.5% 的超有感回饋。文章將分享真實使用情境,教你如何聰明運用,讓每筆開銷都化為小確幸。
Thumbnail
文/楊宏文(Hubert) 曾經協助Google打造搜尋及人工智慧業務團隊的約翰.詹南德雷亞 (John Giannandrea) 表示:與其擔心AI淘汰人類,不如先擔心有偏見的AI帶來的社會隱憂。 那麼,什麼是有偏見的AI呢? 請你先打開ChatGPT, Gemini, Copilot或Cl
Thumbnail
文/楊宏文(Hubert) 曾經協助Google打造搜尋及人工智慧業務團隊的約翰.詹南德雷亞 (John Giannandrea) 表示:與其擔心AI淘汰人類,不如先擔心有偏見的AI帶來的社會隱憂。 那麼,什麼是有偏見的AI呢? 請你先打開ChatGPT, Gemini, Copilot或Cl
Thumbnail
因為網路上充斥著 是是而非的資訊,公說公有理 婆說婆有理,我發現我的價值觀開始有點混淆,心中有許多問題 不知道真正的答案是甚麼?突然 想到最近的AI新科技-ChatGPT 或許可以解答我內心的困惑。所以我試著與ChatGPT進行對話,沒想到ChatGPT 的回覆 完全可以解答我心中的疑惑。
Thumbnail
因為網路上充斥著 是是而非的資訊,公說公有理 婆說婆有理,我發現我的價值觀開始有點混淆,心中有許多問題 不知道真正的答案是甚麼?突然 想到最近的AI新科技-ChatGPT 或許可以解答我內心的困惑。所以我試著與ChatGPT進行對話,沒想到ChatGPT 的回覆 完全可以解答我心中的疑惑。
Thumbnail
遇到故障申告或客服問題時,經常需要與語音系統對話,但這樣的狀況只會越來越多。這篇文章描述了作者與AI語音系統的故障申告對話過程,以及對未來科技與人性關係的思考。作者透過個人經驗探討了人與機器的互動,以及可能面臨的情感抽離和機械化。透過文章,探討了AI是否在訓練和影響人類,最終進化人類的人性。
Thumbnail
遇到故障申告或客服問題時,經常需要與語音系統對話,但這樣的狀況只會越來越多。這篇文章描述了作者與AI語音系統的故障申告對話過程,以及對未來科技與人性關係的思考。作者透過個人經驗探討了人與機器的互動,以及可能面臨的情感抽離和機械化。透過文章,探討了AI是否在訓練和影響人類,最終進化人類的人性。
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 人工智慧的未來是以使用者為中心,個人在與人工智慧系統的互動中扮演著越來越重要的角色。預計這種趨勢將催生被
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 人工智慧的未來是以使用者為中心,個人在與人工智慧系統的互動中扮演著越來越重要的角色。預計這種趨勢將催生被
Thumbnail
自從AI浪潮席捲全世界以後,大家都想知道AI的極限可以到那裡?而隨著AI開始人性化,大家比較擔心的是它的善惡觀是否和人類一致? 因為就人類自身來看,每個人、每個種族、每個國家都有一種自以為是的正義感,總認為自己所做的都是對的,這樣的對錯在AI的量子電腦運算中,到底會呈現什麼樣的結果? 其實最好的
Thumbnail
自從AI浪潮席捲全世界以後,大家都想知道AI的極限可以到那裡?而隨著AI開始人性化,大家比較擔心的是它的善惡觀是否和人類一致? 因為就人類自身來看,每個人、每個種族、每個國家都有一種自以為是的正義感,總認為自己所做的都是對的,這樣的對錯在AI的量子電腦運算中,到底會呈現什麼樣的結果? 其實最好的
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
Thumbnail
我們人類和ChatGPT的對話技巧也是需要學習的,有鑑於此,我想要一天分享一點「和ChatGPT對話的技術」,並且每篇文章長度控制在三分鐘以內,讓大家不會壓力太大,但是又能夠每天成長一點。 針對Generative AI、Foundation Model、Large Language Mode
Thumbnail
AI與人類分工:預測與判斷的智慧結合
Thumbnail
AI與人類分工:預測與判斷的智慧結合
Thumbnail
本文探討使用人工智能寫作中文教材時可能遇到的語言錯誤。透過例子指出常見的語病,包括誤解詞語、詞類誤用、前文後理不通和累贅表述。建議使用者在檢查由AI生成的教材時,應特別注意可能出現的語言錯誤,以確保教材的品質和邏輯連貫性。
Thumbnail
本文探討使用人工智能寫作中文教材時可能遇到的語言錯誤。透過例子指出常見的語病,包括誤解詞語、詞類誤用、前文後理不通和累贅表述。建議使用者在檢查由AI生成的教材時,應特別注意可能出現的語言錯誤,以確保教材的品質和邏輯連貫性。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
Thumbnail
這陣子使用AI模型,還有參考國內外一些喜歡玩語言模型的同好發文,一個很有趣的結論就是,有時候把大型語言模型(尤其ChatGPT)當作一個人來溝通,會得到比較好的結果,這的確是非常反直覺的,也就是說很多時候ChatGPT耍懶不肯工作的時候,你用加油打氣,或是情緒勒索的方法,確實是可以得到比較好的結果。
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News