最近在研究 AI 面試,發現國外已經有好幾家公司已經率先導入AI篩選履歷與面試。
然而隨著大語言模型(LLM)的迅速發展,AI 面試已經跨越技術導入的困難,遭遇信任重建與價值判斷的階段。這些爭議與倫理議題,給企業與HR 一個非常重要提醒:HR 不能把決定權讓給演算法,卻放下對人與制度的信任與責任。非常值得 HRAI 前沿的朋友一起關注。
AI 正在重塑招募流程。從履歷篩選、自動排程到 AI 面試,我們看見許多企業縮短了招募週期、減輕了人力負擔,也提升了轉換效率。但這場變革背後,其實浮現了更多根本性的問題。身為 HR,我們必須問自己:- 「AI 決定錄不錄用求職者,真的能做到公平嗎?」
- 「求職者知道他們在面試中被怎麼評分嗎?」
- 「這些系統如果出錯,是誰負責?」
1. 黑箱算法:從歷史數據延續偏見
某美國科技公司曾測試使用AI系統來自動篩選履歷,卻在訓練過程中發現演算法學會了「男性偏好」,自動將出現「女性社團」「女子學校」等字眼的履歷列為低分。
某歐洲社群平台也曾因演算法將高薪職缺偏向推薦給男性而遭質疑,因為它根據「使用者互動歷史」進行預測,間接複製既有職場性別落差。
這些案例提醒我們,AI 不是沒有偏見,而是「它會學你的偏見」。若HR看不到這些偏見,也無從介入與糾正,黑箱就會變成招募決策的主宰者。
2. 合規壓力:AI 再聰明,也不能凌駕制度
在紐約,使用 AI 招募工具的企業每年都必須進行偏見審計,並公開相關報告。歐盟的 AI 法案更將「招募與員工管理的 AI 工具」列為高風險系統,必須:
- 提前告知求職者
- 留有人為覆核機制
- 進行資料保護影響評估(DPIA)
這些規範背後真正的意涵是:AI可以協助,但不能代替決策責任。企業若無視這些合規要求,不只可能違法,更可能在一場公關危機中失去雇主品牌信任。
3. AI 面試的隱性歧視與倫理風險
這是我認為目前最被低估、但最需要正視的一塊。
很多企業已導入 AI 面試工具,讓候選人在鏡頭前自錄問答,由系統評估語速、語調、情緒與眼神,甚至進行情緒識別與人格分析。
你可能會問:這些分析真的公平嗎? 我曾經在測試階段遇過求職者被面試系統的評斷與主管的評斷有很大的落差,但廠商也無法做出解釋。
以下是幾個令人擔憂的場景:
- 對於特質多樣性或文化背景不同者,系統是否能正確判讀其非語言行為?
- 這些評分機制的依據是什麼?訓練資料從哪來?是否曾進行偏見測試?
- 求職者是否被清楚告知他們的影像與語音將如何被分析與保存?
以某美國餐飲連鎖企業為例,有候選人反映在使用 AI 面試工具排程面試後,到現場卻發現根本沒人知道這場面試存在。他們從頭到尾都沒有與真人對話,也沒有申訴的窗口。
AI面試在加速效率的同時,正在冷卻我們原本應該給予候選人的尊重與關懷。
HR可以怎麼做?在評估進行AI面試前的建議:
- 選擇可解釋AI:確保系統能說明為什麼篩選某些人,而不是單純打分數。
- 建立AI監督制度:偏見審計、人為覆核、紀錄留存,納入治理流程。
- 保障候選人知情權:明確告知AI用途、分析方式與資料用途。
- 提供替代流程:提供人工流程選項讓求職者得以自行選擇
- 以用戶體驗為中心優化流程:設定真人接手點,設計尊重而溫暖的面試體驗。
結論:HR不只是AI的操作員,亦是倫理與制度的設計者
在AI進入招募流程的今天,HR的角色也必須升級:我們不只是流程的管理者,更是這場技術變革的平衡者、監督者與倡議者。
讓AI提升效率,也讓HR守住公平與信任。若你也正在思考或是曾經導入AI招募,歡迎一起交流你的觀察與經驗。