2020-02-14|閱讀時間 ‧ 約 7 分鐘

我們能信任人工智慧了嗎?/Bastiane Huang

為什麼人類必須留在自動化的迴圈中?我們該如何妥善運用「以人為本的」人工智慧演算法、甚至建立人與機器的結盟,創造合作更緊密的人機關係,為人類創造更好的未來?
Bastiane Huang Bastiane Huang目前在舊金山的AI/Robotics新創公司擔任產品經理,擁有近10年產品行銷及市場開發管理經驗;曾在美國《機器人商業評論》及《哈佛商業評論》發表文章及個案研究。如果你也對Robotics 2.0(AI-Enabled Robotics)、產品管理、Future of Work有興趣,歡迎追蹤她的最新訊息
Humans are inscrutable. Infinitely unpredictable. This is what makes them dangerous. 人類是難以捉摸、而且完全不可預測的:這正是他們的危險之處。 — Daniel H. Wilson
在先前的〈你準備好跟AI機器成為同事了嗎?〉一文中,我談到AI(人工智慧)帶來人機關係的改變,並且提出了以下的問題:
誰應該為自動駕駛車做出最終決定?演算法、安全駕駛、或是乘客?人類應該總是能夠推翻機器人的決定嗎?如果你只有一瞬間的反應時間呢?如果你的親人在車裡,答案會改變嗎?
換個場景,如果你明天要上法庭被審判,你會選擇不帶情感判斷、但卻公正不倚的演算法,還是一個可能帶有偏見或錯誤的人類法官,來決定你得到的判決結果?
即使知道人類法官可能會犯更多的錯誤,罪犯仍然更喜歡人,而不是演算法;決策心理學教授曼迪普.達米說,他們想要這種人情味。
人們對於機器的不信任,還有更多的例子:例如,雖然研究結果表示,自動駕駛汽車更為安全,但近一半的美國人寧願不使用自動駕駛汽車
科學家正在積極尋找方法,來解決AI的透明度和公平性問題;但其實:
人類大腦甚至比AI演算法更缺乏透明度和可預測性。
然而,卻很少有人關心這個事實。為什麼?

我們為什麼不信任機器?
華頓商學院教授卡蒂克.霍薩納加爾認為,優越感偏差(better than average effect)是原因之一:我們雖然或許知道,自動駕駛汽車會比一般人駕駛更安全,但我們同時也認為,自己比一般人更善於駕駛。
在一項研究中,當要求參與者在自己、其他人、以及演算法之間做出選擇時,研究人員發現,人類確實更信任演算法,甚至勝過信任其他人。而我們似乎也對自己的錯誤更寬容;當風險很高時,我們不太可能讓機器為我們做決定。
機器確實會犯錯,而且可能永遠不會完美無瑕;無論自動駕駛汽車行駛了多少里程、累積了多少資料,總會有例外情況發生。但是,我們是不是問錯問題了?
為什麼我們必須在人和機器之間做選擇?
機器會犯錯,我們也會犯錯。為什麼我們不能共同努力,讓集體決策更準確,讓偏見更少?我們是否能幫忙發現演算法的弱點,也讓機器幫忙找到我們的盲點?
人和演算法機器的混合團隊能否帶來更多樣化、更理想的解決方案,讓世界變得更美好?

更好的機器教學:以人為本的AI演算法設計
以使用者為中心的設計(user-centered design),可以提高產品的可用性;同樣的,如果我們要確保AI讓我們的生活更好,而不是更糟,在設計演算法時就應該把人放在第一位。
將人類融入ML(機器學習)產品的開發過程中。這種方法被稱為「以人為中心的人工智慧」(Human-Centered Artificial Intelligence);換言之,與其開發科學家所能想到的最酷技術,還不如關注真正有利於人類的可用性。
最簡單的可用性判斷原則是:評估AI是否可用於自動化,以代替人類執行枯燥或危險的任務、或幫助人類將其他有趣的工作執行得更好。
麻省理工學院的科學家萊克斯.弗瑞德曼建議,可以將人類深度融入ML的模型訓練和實際操作中。透過引進人工監督,我們可以更確保AI的安全、公平、以及可解釋性。
加州大學伯克利分校電腦科學教授斯圖爾特.羅素則認為,我們應該「讓機器具有目標」;他指出,現在的機器學習模型對目標還沒有完善的認識。
這就帶出了我的下一點:我們需要更審慎定義機器的目標函數(objective function),甚至重新檢視整體人類社會的目標函數。

機器與社會更好的目標函數
ML模型是由獎勵函數(也稱為「目標函數」、或是「損失函數」)來決定的。目標函數能定義問題、也是決定ML模型預測是否正確的數學公式。
換句話說,目標函數定義了奬勵機制、成功或失敗。我們使用目標函數,來強化我們想要達成的行為;例如成功走出迷宮、或是盡可能地減少錯誤。
但是,定義目標函數並不是一項簡單而簡單的任務。正如我在〈給產品經理的AI開發指南#1〉一文提到的:模型的準確性通常並不是最好的衡量標準,還必須考慮精確性和召回權衡(recall trade-off)。
此外,我們還要確定除了主要顧客之外,所有使用者對演算法都有正面的體驗。
以Uber優步等共乘軟體公司為例,雖然乘客滿意度很重要,但駕駛員對於平台的發展也一樣重要。要為所有使用者都創造出良好體驗,會是一項艱困挑戰,尤其在使用者之間存在利益衝突時更加重要。
然而,目標函數也可能意外對其他人產生影響。我們如何考慮ML模型的潛在負面影響、並盡量減輕副作用?我們如何預見、追蹤目標函數隨著時間推移所帶來的影響?
更根本的問題是,我們如何確保企業在設計ML產品時,一直能維持從使用者、利益相關者、以及整個社會的利益出發?在目前資本市場的獎勵機制下,企業是否能夠不只考量獲利,而設計出對人類有益的AI或ML產品?
舉例來說,如果留住使用者可以增加公司的利潤,公司是否會關心他們花太多時間上網造成的負面影響?在自動化的過程中,他們是否會分配足夠的資源,來幫助勞工成功轉換到下一個角色?
如果公司的唯一目標是將股東價值最大化,他們是否會嘗試減輕ML演算法對員工和社會的潛在負面影響?

結語
輸給IBM的「深藍」(Deep Blue)超級電腦,並沒有讓棋手Garry Kasparov陷入絕望。相反的,他開始接受「進階西洋棋「的概念,讓人與機器組隊來進行對戰與練習,反而讓西洋棋的水準比以往只有「人與人練習」更高。
同時,UC Berkley大學教授Ken Goldberg也以頂尖圍棋選手與Deepmind的AlphaGo電腦比賽為例,宣導由機器與人類結成聯盟。
我們不應該將人機關係視為「互相取代的零和遊戲」,而應該轉變我們的心態,思考如何與機器合作、將餅做大。現在正是個好機會,讓我們深入思考人類究竟擅長什麼、真正想做什麼,並在將來善用機器演算法,為每個人創造更好的未來。

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.