從一支網路攝影機開始的革命
故事要從一個最不起眼的東西講起:一支網路鏡頭。
2004 年,那時候的「遠距面試」還被視為非常不靠譜的選項。網速慢、畫面糊、延遲嚴重。當時的多數用人主管多半堅信:「面試就該實際看到人,怎麼可以隔著螢幕就下判斷?」
但 HireVue 的創辦人 Mark Newman 卻堅持認為:「科技會讓HR節省時間,也能讓更多求職者被看見。」最早的 HireVue 其實非常「簡單」,也非常「笨拙」。它只是一個能讓求職者自己錄好影片、讓HR與用人主管隨時觀看的系統平台。沒有 AI,沒有分析,沒有數據報表,只有一個能按「播放」的鍵。
但 2008 年金融海嘯開始後,這套系統卻一夕走紅。因為企業開始大量裁員,同時也想降低旅費開支。HireVue 的「非同步面試」模式:(求職者先錄,主管/人資後看)突然成為救命解方。
那是一個很單純的時代:科技的重點只是幫人省時間。但誰都沒料到,十年後,這個鏡頭會變成「AI 面試的起點」。

AI進場,從錄影變成評分
應該在 2014 年以後,全世界開始都鑽進了 AI 演算法的世界。Google、Amazon、IBM 都在談「深度學習」,而 HireVue 也不再想只是一個錄影軟體。
他們開始在影片上加『演算法』。讓演算法能「聽」候選人的語音、分析語速、辨識用字結構;甚至能「看」候選人的臉部表情,從微笑、眼神、眉毛弧度,來推測一個人的「積極度」與「領導潛力」。這時候的 HireVue,有點像一場最前沿的人資科技實驗室,因為他們堅信:「如果演算法能幫企業找出最有潛力的人,那 HR 就能去做更重要的事。」
一開始,企業其實很買單。Unilever(聯合利華)、Goldman Sachs(高盛)、Delta Air Lines(達美航空) 都導入了這套系統。這些公司甚至宣稱:這個服務不僅幫助公司縮短招募流程 75%,還能提升錄用人員的表現穩定度。
從此之後,面試成了一場『數據遊戲』。許多求職者也許並不知道:他們的每一次眼神閃爍、嘴角抽動、停頓時間,都在被系統記錄著。
演算法的魔力與陰影
這套「AI 面試」一開始很像一套魔法:HR 不用再花大量時間看影片,AI 會幫忙打分數;用人主管也只要看報表,就能知道誰比較「有潛力」。
但慢慢地,有求職者開始質疑:「我到底是被"誰"拒絕了?」
美國公民團體 EPIC(Electronic Privacy Information Center) 接到大量投訴:有人覺得自己是被「膚色」影響,有人懷疑是因為「口音」讓他被刷掉。
EPIC 對 美國聯邦貿易委員會(FTC) 提出正式控訴,指 HireVue 的評分系統「缺乏透明度與科學依據」,甚至可能違反「公平就業準則(Equal Employment Opportunity Guidelines)」。他們說:「這套系統假裝公平,實際上只是把 偏見自動化。」
HireVue 當然否認指控,強調 AI 演算模型經過嚴謹訓練,並不存在偏見。但當時的社會輿論的壓力越來越大。因為沒有人願意被「演算法審判」。
一場看臉革命的終結
2021 年 1 月,HireVue 做了一個重大決定—正式移除臉部分析(facial analysis)功能。
公司在官網上公開聲明:「我們聽到了社會對隱私與公平的疑慮。為了降低風險,我們已停止使用臉部特徵進行評分,並委託外部稽核公司 ORCAA 進行審查。」
同一天,《WIRED》雜誌頭條也報導:「AI 面試平台停止使用臉部分析」。HireVue 成為第一家「自砍演算法」的科技公司。
從現在往回看,我們可以發現:這不只是一個技術發展的轉向,而是一個企業重大的商業決策,甚至是一場具有文化與社會涵義的企業抉擇。HireVue 公司的執行長 Kevin Parker 在當時的訪問中說了一句被引用無數次的話:「我們寧願少一點預測力,也不想再冒那個風險。」
為什麼看臉容易出事?
因為在學術界「表情=情緒」這條等號早已被推翻。
美國知名 心理學家 Lisa Feldman Barrett 指出:情緒是文化建構出來的,不同文化有不同的表達規則。她舉例:美國人笑是開心;歐洲人笑是禮貌;東亞人笑可能是一種尷尬。
但演算法是看不懂這些語境的。它看到「皺眉」就標註「焦慮」;它看到「低頭」就當成「缺乏自信」。這樣以來最後會演變成什麼結果呢?扼要來說:這套演算法,會讓「不會表演」的求職者,非常容易被淘汰。
這個 HireVue 的服務危機,其實也是整個 AI 世代的縮影:科技進步得太快,合理性卻還沒追上。
監管壓力下,AI面試被迫改弦更張
2020 年後,美國多個州開始立法監管 AI 招募與面試,例如:
~伊利諾州(Illinois) 通過《AI Video Interview Act》法案:公司必須事前告知候選人使用 AI,並取得同意;錄影不得保存超過 30 天。
~馬里蘭州(Maryland) 通過 HB1202 法案:未經書面同意,不得使用臉部辨識技術。
~紐約市(New York City) 則通過 Local Law 144:所有自動化招募工具必須進行年度『偏見稽核』,並公開稽核摘要。
起碼在美國 AI 面試 正式進入嚴格「監管期」,而 HireVue 自然成了第一個被嚴密檢視的對象。
大手術 : HireVue 的AI減法哲學
所以 從 2021 年開始,HireVue 開始用力「瘦身」自己的 AI服務:
1.砍掉影像特徵:不再分析臉部表情、眼神或動作。
2.降低語音權重:口音、音高、語速都可能藏偏見,逐步削弱影響力。
3.專注語言內容:用自然語言處理(NLP)分析回答的邏輯與完整性。
4.引入人類監督:AI 只是初步排序,最終決策交回 HR。
上述這套變革的邏輯 被 HireVue 稱為「AI 減法哲學 Subtractive AI Philosophy 」。簡單的說,就是從「能算的都要算」,變成「能說明的才算」。
HireVue 還公開「AI Explainability Statement」這份白皮書:詳細列出演算法使用哪些特徵、如何稽核偏見、候選人如何要求人工覆核。
從這時候開始,HireVue 這家公司已經從「AI 演算法的熱情擁護者」之一,搖身一變 成了「AI 透明化的倡議者」。
結構化面試 : 讓每個人都在同一張考卷上
HireVue 服務核心的第二個大轉向是:將對求職者的審核焦點從「自由發揮」,變為「結構化+錨點」。
他們推出的 Interview Builder 服務:在 HR 選定職缺後,系統就會自動生成一套面試腳本,而每個題目都會綁定「工作職能」與「行為錨點(BARS)」,讓面試官能夠依同一標準打分。
據 HireVue 說,這樣做的效果是:
- 讓每個候選人被問到的問題相同。
- 讓每個評分都有行為依據。
- 讓所有紀錄都能追蹤、稽核、留檔。
- 讓結構化讓主觀減少,也讓面試變得「可被審查」。
任務化評量崛起 : 讓候選人證明自己
而在 2023 年,HireVue 又併購 Modern Hire 這家公司。這次合併,把整個公司服務核心又增加了另一個方向:「從看人說話,變成看人做事。」
Virtual Job Tryout® 功能,讓候選人可以進入「模擬工作」情境。客服職缺要回覆客訴、工程職缺要排程、行銷職缺要做企劃選擇題。AI 評分的重點變成是『行為輸出』,而不是『臉部表情』。
而 Coding Assessments 服務,則是讓求職的 工程師可以直接線上寫程式。系統則會自動測試程式運行結果與可讀性與有效性。
上述這些改變,讓「AI 面試」變得更像是一場「職務演練」。用人單位不再只是看求職者「講得好不好」,而是看求職者「能不能做」與「做的好不好」。
外部稽核 : 透明是一種新競爭力
HireVue 現在每年都會主動進行第三方稽核。2023、2024 年由 DCI Consulting Group 依 NYC Local Law 144 制定稽核報告,並公開在網站。
不過,著名的 Brookings Institution 布魯金斯學會 對此評價保守:「這些稽核大多為文件與流程審閱,未重算模型,因此透明度有限。」。而 HireVue 的回應卻相當務實:「我們知道這還不完美,但總得從可被審查開始。」
也許在一個充滿 AI 黑箱的世界,「願意打開一點點」反而成為可被信任的基礎。有位行銷專家甚至說:這是新時代的品牌策略:被質疑,也是一種資產。
AI的反省期 : 偏見不會死,只是換了一張面孔
雖然 HireVue 停止看臉,改用審文字,但並不代表偏見就會消失。因為語言模型可能偏好教育程度高、句構完整、英語流利的回答。對移民、口音重或語言能力弱的群體,仍有潛在的不公平。
而這就是所謂的「代理偏見(Proxy Bias)」:演算法雖然不看種族,卻能夠透過用字、句長、語法間接識別出族群。
HireVue 對此表示:「我們知道這不是終點。」,因此還相對應的推出「低信心樣本人工覆核制度」,也就是說:只要求職者對模型信心值低於一定門檻,系統就會強制進入人工審查。
這有點像是從「讓 AI 決定」,轉為「AI 與人共治」的設計。也許公平不會是一夜完成,但至少開始有路可走了。
新HireVue的哲學 : 透明比神準更重要
鏡頭回到 2025年的 HireVue,這家公司已經不再追求「AI 取代 HR」。它追求的是「AI 幫 HR 變成可以有效審核、有效說明、有效辯護」的協力者。
他們不再誇口聲稱「演算法有多厲害」,反而強調「演算法怎麼被稽核」。這是從「科技自信」轉向「科技謙卑」的轉折。他們內部有個新口號: “We don’t predict people. We support decisions.”(我們不預測人,我們支援決策。)
這句話很「不矽谷」,但卻是對未來最務實的風險管理。
HireVue的下一步:AI + 人類問責
而下一個階段,HireVue 已經開始和監管機構合作。在歐盟 AI Act(人工智慧法) 通過後,「招聘與就業」被列為高風險 AI 系統。而HireVue 成為了少數受邀參與合規試點的公司。
因此,他們的服務產品現在都內建「模型卡(Model Card)」、「資料來源說明」、「版本歷史」、「候選人退出選項」。甚至求職者可以要求查看「AI 評分依據摘要」。
這些措施,看似繁瑣,但卻讓企業能在監管壓力下繼續合規的安心使用。正如一位法遵顧問說的:「AI 不應該害怕被審查,而是應該要怕自己講不清楚。」
HireVue的演進,其實是整個人資科技發展的縮影
從非AI時代的錄影工具,到 AI 面試的的全面推出,再到自砍臉部分析、擁抱結構化與透明化:HireVue 的故事,像是 20 年來「人資科技」的濃縮縮影。
它顯然代表的不是技術的勝利,而是科技與人性的對話歷程。正如許多有識之士疾呼的:演算法不該被視為魔法,而應該是"放大鏡" ~ 它的重點應該是讓偏見顯影,也逼企業學會提問:「我們這樣做,真的公平嗎?」
網路鏡頭的燈仍在閃爍,只是那道光不再那麼刺眼。因為它映照出的,不只是求職者的臉,還有整個人資科技產業在反省中的表情。
HireVue 用 20 年走過了一條曲線~從「錄影平台」變「透明平台」~從「AI 評分」變「AI 問責」。也許這才是真正的科技進步。
#人資科技報導系列
#外電報導彙整編譯