為什麼人類必須留在自動化的迴圈中?我們該如何妥善運用「以人為本的」人工智慧演算法、甚至建立人與機器的結盟,創造合作更緊密的人機關係,為人類創造更好的未來? Bastiane Huang
Bastiane Huang目前在舊金山的AI/Robotics新創公司擔任產品經理,擁有近10年產品行銷及市場開發管理經驗;曾在美國《機器人商業評論》及《哈佛商業評論》發表文章及個案研究。如果你也對Robotics 2.0(AI-Enabled Robotics)、產品管理、Future of Work有興趣,歡迎追蹤她的最新訊息。
Humans are inscrutable. Infinitely unpredictable. This is what makes them dangerous. 人類是難以捉摸、而且完全不可預測的:這正是他們的危險之處。
— Daniel H. Wilson
誰應該為自動駕駛車做出最終決定?演算法、安全駕駛、或是乘客?人類應該總是能夠推翻機器人的決定嗎?如果你只有一瞬間的反應時間呢?如果你的親人在車裡,答案會改變嗎?
換個場景,如果你明天要上法庭被審判,你會選擇不帶情感判斷、但卻公正不倚的演算法,還是一個可能帶有偏見或錯誤的人類法官,來決定你得到的判決結果?
即使知道人類法官可能會犯更多的錯誤,罪犯仍然更喜歡人,而不是演算法;決策心理學教授曼迪普.達米說,他們想要這種人情味。
科學家正在積極尋找方法,來解決AI的透明度和公平性問題;但其實:
人類大腦甚至比AI演算法更缺乏透明度和可預測性。
然而,卻很少有人關心這個事實。為什麼?
我們為什麼不信任機器?
華頓商學院教授卡蒂克.霍薩納加爾認為,優越感偏差(better than average effect)是原因之一:我們雖然或許知道,自動駕駛汽車會比一般人駕駛更安全,但我們同時也認為,自己比一般人更善於駕駛。
在一項研究中,當要求參與者在自己、其他人、以及演算法之間做出選擇時,研究人員發現,人類確實更信任演算法,甚至勝過信任其他人。而我們似乎也對自己的錯誤更寬容;當風險很高時,我們不太可能讓機器為我們做決定。
機器確實會犯錯,而且可能永遠不會完美無瑕;無論自動駕駛汽車行駛了多少里程、累積了多少資料,總會有例外情況發生。但是,我們是不是問錯問題了?
為什麼我們必須在人和機器之間做選擇?
機器會犯錯,我們也會犯錯。為什麼我們不能共同努力,讓集體決策更準確,讓偏見更少?我們是否能幫忙發現演算法的弱點,也讓機器幫忙找到我們的盲點?
人和演算法機器的混合團隊能否帶來更多樣化、更理想的解決方案,讓世界變得更美好?
更好的機器教學:以人為本的AI演算法設計
以使用者為中心的設計(user-centered design),可以提高產品的可用性;同樣的,如果我們要確保AI讓我們的生活更好,而不是更糟,在設計演算法時就應該把人放在第一位。
將人類融入ML(機器學習)產品的開發過程中。這種方法被稱為「以人為中心的人工智慧」(Human-Centered Artificial Intelligence);換言之,與其開發科學家所能想到的最酷技術,還不如關注真正有利於人類的可用性。
最簡單的可用性判斷原則是:評估AI是否可用於自動化,以代替人類執行枯燥或危險的任務、或幫助人類將其他有趣的工作執行得更好。
麻省理工學院的科學家萊克斯.弗瑞德曼建議,可以將人類深度融入ML的模型訓練和實際操作中。透過引進人工監督,我們可以更確保AI的安全、公平、以及可解釋性。
加州大學伯克利分校電腦科學教授斯圖爾特.羅素則認為,我們應該「讓機器具有目標」;他指出,現在的機器學習模型對目標還沒有完善的認識。
這就帶出了我的下一點:我們需要更審慎定義機器的
目標函數(objective function),甚至重新檢視整體人類社會的目標函數。