更新於 2020/01/20閱讀時間約 5 分鐘

你準備好跟AI機器成為同事了嗎?/Bastiane Huang

人工智慧賦予機器更多自主判斷能力,也造成人和機器互動關係的巨大變化,我們該如何面對人機共事的新時代?有一天,我們或許要聽從AI演算法的指示來完成人力工作;其實,這看似科幻小說的場景,已經是正在發生的進行式。
Bastiane Huang Bastiane Huang目前在舊金山的AI/Robotics新創公司擔任產品經理,擁有近10年產品行銷及市場開發管理經驗;曾在美國《機器人商業評論》及《哈佛商業評論》發表文章及個案研究。如果你也對Robotics 2.0(AI-Enabled Robotics)、產品管理、Future of Work有興趣,歡迎追蹤她的最新訊息
機器彷彿是我們最忠實的員工,一年365天從不抱怨;只要按下一個按鍵,工作就會自動完成。但你是否曾經想過:
有一天,你可能會為機器工作?
想像有一天,我們聽從AI演算法或機器的指示,來完成人力工作;而這看似科幻小說的場景,其實已經在世界上的許多角落開始發生了。

場景1 : 用演算法管理員工
越來越多的公司開始使用演算法來管理員工(Algorithmic Management)。像是Uber或Lyft這樣的分享經濟公司,已經率先開發出許多自動工具,來管理遠端工作人員;包括使用者評分系統,以及自動向駕駛提醒或建議下一步動作的系統等等。
在物流業中,UPS和Amazon等公司正在使用自動化系統來追蹤員工、並且優化貨物處理量;這些演算法收集工作人原的資料,並做出(半)自動化的決策來提供即時激勵,以達到更高的產出。
有一些新創公司,也開始提供監視員工、或是管理駕駛行為的AI解決方案。與人工監督相比,這些自動化技術更容易擴展到更多運營據點,因此也被越來越多的公司採用。

場景2:為AI演算法工作的藍領勞工
之前我談到過機器學習(ML)主要有三種類型,包括:
  • 監督學習(Supervised Learning);
  • 無監督學習(Unsupervised Learning);
  • 強化學習(Reinforcement Learning)。
直到今天,仍有超過90%使用中的ML演算法是以「監督學習」為基礎。
換句話說,多數AI演算法需要從標記好的訓練資料中學習。為了提供標記過的訓練資料,有一個高成長的行業應運而生:由人工標記影像或聲音資料,以便機器能夠消化和學習。
Scale AI」是眾多與標籤工作者合作,對資料進行分類,以用於訓練AI模型的新創公司之一;該公司成立僅有三年,卻在最近融資獲得高達1億美元的資金。
Scale與大約三萬名散布世界各地(大多在工資較低的國家)的契約工作者合作,為自動駕駛汽車和其他AI公司(包括WaymoAirbnbLyft等)提供標記訓練資料的服務。

場景3: 遠端控制和模仿學習
Source: Cobalt Robotics
在使用大量資料進行訓練時,深度學習的效果優於傳統機器學習;然而,獲取高品質的訓練資料通常很困難、而且成本相當高昂。
解決資料效率問題的方法之一,是使用模仿學習(Imitation Learning),也就是「讓機器從專家的示範中學習」。
FortressIQ是應用模仿學習技術,為顧客自動化公司流程的美國新創企業之一;他們的系統可以分析人類和軟體的互動,以便之後將這些流程自動化。
另一方面,美國新創公司Cobalt提供利用機器學習來執行巡邏工作的保全機器人(上圖)。這種機器人可以識別異常情況,也能讓工作人員遠端監控、並在必要時接管控制權。
AI讓機器變得越來越聰明,不再需要人類的一個口令一個動作;在某些領域中,甚至能夠自動下指令給人類,而這些新型態的人機互動,正在真實上演之中。
但是,我們也開始看到這些新形態人機互動所帶來的副作用:

演算法缺乏透明度和同理心
研究者Lior Zalmanson和Robert W. Gregory在最近的一項研究中發現,Uber出租車司機都認為,演算法非常瞭解他們,但他們對演算法的原理和決策依據卻知之甚少。
此外,司機們也感覺到演算法的決策有些不人性的地方;他們質疑這個系統的公平性,尤其在他們沒有得到明確解釋、卻遭到處罰的情況下特別明顯。
有許多其他勞工也覺得自己被演算法監視。他們不知道這些監控資料會用在什麼地方,也不知道工作分配、評分或報酬是否公平;如果不公平,他們也不知道有沒有什麼途徑可以提出抱怨。
「缺乏透明度」一直是AI的主要問題之一。用這些自動化工具來管理員工,或許確實更有效率及擴充性;但生產力不應該是唯一的目標,必須也考慮到資訊的透明、以及對員工的同理心。

人與機器的角色責任分配不明確
以保全機器人為例,在機器人無法處理的情況下,人類的介入可能會有關鍵作用;但隨著機器人變得越來越聰明,機器可能會得出與人類不同的結論。
人類永遠能夠做出比機器人更好的決定嗎?誰有最終決定權?
另一個備受關注的例子:無人駕駛車。誰應該在自主的無人車中做決定?是車子本身、備用安全駕駛員、遠端監控的工作人員、還是乘客本身?
在什麼情況下、什麼時候介入?如果你只有一瞬間的反應時間,答案會有所不同嗎?誰應該對任何後果負責?科技公司?安全駕駛?還是設計演算法的工程師?

結語
雖然研究人員正在研究轉移學習(Transfer Learning)和元學習(Meta Learning),以設計能夠「學習如何學習」的AI模型;但老實說,我們離完全自主的人工智慧還很遠。
在可預見的將來,我們仍然需要標記資料,讓機器變得更加自主。我們需要調整自己,與時俱進,我們需要學習與AI機器一起共存的最佳方式。我們準備好迎接如此劇烈的社會變革了嗎?我們可以做些什麼來創造我們想要的未來?
在下一篇文章中,筆者對這一點將會進行更多討論。

參考閱讀

分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.