編輯嚴選
2吋長的黑膠帶就能讓特斯拉「起乩」:你準備好當AI 的人肉教材了嗎?

2020/03/07閱讀時間約 11 分鐘
圖片來源 : 免費圖庫 Unsplash by Moritz Kindler
無人駕駛的汽車早在1930年就有人開始幻想。當時他們就說20年後汽車就不需要人駕駛。這個「20年」一共說了90年。到了2020年,那個20年終於變成5年──最樂觀的預測是到了2025年,街頭就會慢慢開始出現「完全無人駕駛」的汽車,而且這次顯然是玩真的。不管準備好了沒有,這件事也許很快就要發生了。

已經滿街趴趴走的自駕車

包括舊金山在內的三個矽谷城市,早已成為自駕車的測試城市。在矽谷三不五時都可能碰上測試中或收集資料的自駕車。舊金山由於特殊的地形與街道,成為自駕車最受歡迎的城市。自駕車在舊金山測試一分鐘所學習到的,超過在其他城市測試一小時的成果。
過去十年自駕科技會這麼快速發展,主要是因為機器學習的重大突破。也因為這項科技,汽車工業的主軸已經悄悄從底特律移到了矽谷。
汽車將從交通工具變成科技產品。
矽谷三不五時都可能碰上測試中的自駕車 圖片來源:鱸魚

自駕三階段

汽車自駕發展可以分三個階段──輔助駕駛,自動駕駛,無人駕駛。輔助駕駛並不稀奇,可能你的車子都有這種功能。自動駕駛只是把角色對換,由人擔任輔助的角色作為汽車的耳目,而且手不離方向盤,就像一個大人必須隨時盯著一個三歲的幼童一樣。無人駕駛顧名思義,則完全不需要人類參與。
現在全球的主要競爭者,如Uber、特斯拉,都只能達到第二階段,只有從 Google 分立出來的Waymo 算是剛剛進入無人駕駛的第三階段。當然基於法律限制,Waymo 駕駛座上仍必須要有人。但就技術而言,在特定區域內他們已經可以做到根本不需要駕駛。

自駕貨櫃車已經開始跨州送貨

2019年 12月10日是汽車自動駕駛里程碑上一個重要的日子。一輛由矽谷一家AI 科技公司研發的自駕貨櫃車,花了3天行駛了4千5百公里,把4 萬磅奶油從加州送到東岸的賓州。這不是測試,而是真正執行史上第一次橫跨美國大陸的自駕送貨任務。
現行法律規定貨櫃車自駕只限於高速公路,而且必須要有輔助駕駛及技師監控。自駕貨櫃車沒有工作時數限制。如果不是因為隨行人員依法必須休息,這輛貨櫃車除了加油之外,可以做到來回不停地穿梭美國大陸,橫跨一趟只需48小時。
最快到2025年,法律就有可能鬆綁,准許貨櫃車在高速公路上無人駕駛。到時只要上高速公路前,和下高速公路後有人接應,這麼一個龐然巨物就可以心有成竹地奔馳在美國的州際高速公路上,不需要人類的參與。這是一個何等的夢想與突破?
《自駕貨櫃車跨州送貨的里程碑》:
自駕車最終極的目標是連方向盤都沒有。這一天就要來臨了,而我們準備好了嗎 ? 要回答這個問題,就要先了解汽車為何能夠自駕。

汽車為何能夠自駕?

自駕涵蓋了三個最重要的科技:1. 偵測 2. 辨識 3. 決策。偵測需要先進的感應科技,辨識需要大量資料長期訓練,決策需要周全的演算法。這三個步驟唇齒相依,任何一個環節出了差錯,都會造成不可收拾的悲劇。
現在的偵測科技已經非常成熟,但是辨識和決策仍舊只能「照劇本演出」。如果劇本出錯,決策就必然錯誤。這個劇本依靠的完全是機器學習。

AI 不需要駕照卻可以上路

電腦教過的就會,沒教過的就一定不會
電腦很聰明也很笨,只要教過的一定會; 沒有教過的就一定不會。它不會自行判斷,也不懂舉一反三。沒錯,電腦反應比我們快很多,但問題不在於反應快慢,而是在如何反應,或是知不知道該反應。電腦缺乏的是「認知」的能力。認知沒有公式可以規範,它完全來自於生活上的經驗。所以電腦辨識的成熟度,完全取決於機器學習的成熟度。
那麼⋯⋯電腦要習學到什麼程度才應該讓它上馬路?
沒有人能夠回答這個問題,但全世界每一個國家對於持有駕照,都有最基本的年紀要求。我們不會讓一個6歲的孩子去考駕照,因為他的判斷與認知能力都不夠成熟。但是我們對自駕車的成熟度卻完全沒有任何規範。

2 吋的黑膠帶 +「起乩」的特斯拉

不久前有人用一截2吋長的黑膠帶,誘騙了特斯拉做出嚴重錯誤的決策。他們把測試場限速35英哩 (56公里) 的告示牌,用一小截黑膠帶,將 3 中間那一橫,向左延長了2吋,以至於那個「3」看起來有一點像「8 」。(如下圖)
示意圖 圖案來源 : 鱸魚
測試的特斯拉隨即自動加速到85英哩 (136公里)。他們一連測試了兩部特斯拉,都得到了同樣的反應。那只是一個看起來有點怪異的35,在任何人類的眼睛裡,都不應該被誤認為是85。更嚴重的問題是,即使真的是85,哪怕是個 6歲的孩子也該知道,馬路上不應該出現這樣瘋狂的速限⋯⋯可是電腦只有專業知識,沒有普通常識。
電腦只知道死心塌地依照劇本行事,而不知道什麼叫做「違反常理」。這就是機器學習下最恐怖的結果。
所以,電腦的普通常識也許不如一個 6 歲的孩子

三條貼紙 +衝往對向車道的特斯拉

去年4月有人用三條貼紙,把一輛特斯拉輕易地騙到對向車道上。他們用貼紙在馬路上畫了三小段類似分隔車道的虛線,連接到對向車道。測試的特斯拉誤以為車道突然偏左,毫不猶豫地衝往對向車道。(參考下圖)
它不會奇怪馬路明明是直的,車道分線為什麼會突然向左,也不會聯想到轉過去會有什麼後果。它只知道遵循設計好的法則,不會挑戰不合理。這全是出於電腦善良的本性。
幸好這只是在測試場上,如果是在真實的街道上,對於那些調皮搗蛋的青少年,這會是多令人嚮往的橋段,也是多誘人的一場死亡遊戲?特斯拉最引以自豪的,就是自駕系統能夠自動跟隨車道轉向。可是那麼精確的攝影辨識,卻無法區分什麼是惡作劇。 AI 課程裡從來沒有教過這一課。
示意圖 圖案來源 : 鱸魚

只會「照劇本演出」

人類的眼睛可以捕捉、並立即了解周遭景物最細微的變化,所以我們可以判斷什麼叫「潛在的不正常」。如果路口站了一個看起來精神不正常的人等紅燈,我們會下意識提高警覺,準備面對他突然闖紅燈。但是電腦只知道有人在等紅燈,而自己是綠燈,有先行權。它看不出什麼叫潛在的不正常,也無法猜測別人的意圖。
人類的眼睛只要花0.2秒就可以從任何一張臉判斷出年紀、情緒、和意圖。我們看到的是「表情」,電腦看到的只是「臉」── 說得更機械一點,那只不過是一張「幾何圖形」,用一張面具也可以騙過它。辨識表情需要認知的能力。這種能力目前只有生物才有。
你我的安全繋乎劇本的成熟度
2018 年 Uber自駕車在亞利桑那州撞死行人 ──那個人在不是路口的地方推著單車穿越馬路,系統偵測到「有東西」穿越,卻沒有採取任何措施。辨識系統也許知道什麼是行人,什麼是單車,以及哪裡有路口可能會有行人穿越。可是行人「推著」單車,在不是路口的地方穿越,系統就不知所措。
2019年特斯拉也發生高速公路上突然有貨櫃車橫越 (某些高速公路設有合法的迴轉道),造成決策系統錯亂,而直接撞上去的意外。嘲諷的是那位車主是特斯拉鐵粉,經常在YouTube上 post自駕的神奇畫面。其中一段2016年在高速公路上自動閃躱近距離突然插隊的卡車的畫面,甚至被特斯拉CEO 馬斯克拿來大做宣傳,證明他們產品的成功⋯⋯三而年後,那輛神奇的特斯拉因為「缺乏普通常識」,帶著鐵粉一頭撞上那輛橫越的貨櫃車。
《 特斯拉自動閃躲突然插隊的卡車 》 :
人們總會被科技一時的成功冲昏頭,而忘記後面還有多少我們所不知道的問題,正在耐心等候適當的時機爆發。這就是一個最典型的例子。
2018年蘋果一位台灣工程師的特斯拉以高速撞上矽谷兩條高速公路中間分岔的分隔島。在悲劇發生之前,他就發現經過一次軟體更新後,自駕系統就會偶爾自己偏向。車子送回檢修後,特斯拉也無法找出問題。
不要忘了,自駕車已經不再是交通工具,而是一部非常複雜的電腦。是電腦就有軟體,有軟體就一定有 bug。工程師修復程式,必須要先能夠複製問題。軟體內部都有非常複雜的參數和邏輯,那些都是肉眼看不出,用儀器也測不出來的──這不是傳統汽車,某些問題可能只有在特定的地點,及特殊的偶發條件下才會發生。
所以我合理地懷疑這是軟體的 bug 所引發的意外。

軟體的 bug : 未來汽車的額外風險

所以在辨識和決策系統可能缺乏普通常識之外,現在我們還得面對另外一項風險,那就是電腦軟體的 bug。我們已經沒有選擇的餘地,而把自身安全與深不可測的軟體功能緊緊綁在一起。
上禮拜美國交通安全委員會對這個意外的調查報告也剛好出爐──沒錯,撞車前駕駛正在玩手機。可是他所犯的錯誤不足以平衡特斯拉的安全缺陷。我們應該要追究為什麼車子會在完全沒有反應的狀況下,以115 公里的時速直接撞上分隔島。
分隔島前面的防撞緩衝裝置因爲先前的另一次車禍損毀而暫時拆除,所以會不會 AI 看到的分隔島跟訓練的資料不同,所以根本不知道前面是水泥障礙?這就好像危險換一個模樣你就不認得了。如果你僱用的駕駛這麼不知變通,你敢坐他的車嗎 ?
當然或許還有更恐怖的可能性⋯⋯那就是,連特斯拉也不知道為什麼。
這是多麼重要的答案,我們不能各打50大板就草率結案。這不是個案的對與錯,也不是保險理賠比例的問題。這涉及我們對科技的根本信任,全世界都應該知道答案。把責任推給一個玩手機而賠上自己性命的駕駛,絕對不是我們要的解釋。
當一個新的科技產品意氣風發在市場成功製造風潮之後,人們總傾向於一窩蜂去嘗試。如果後來發現有缺陷,彷彿為了鼓勵創新,大家也大方包容。但自駕車不是iPhone,有缺陷的創新不能鼓勵,也不能摸摸鼻子就算了。這個世界對於自駕車的缺陷不能採用同樣的容忍標準。

你準備好要成為AI的「人肉教材」了嗎 ?

當然,自駕科技完全成熟後可以避免80%的意外。問題是那個「完全成熟」要等到什麼時候 ? 在那之前,我們會不會淪為AI的「人肉教材」? 走在馬路上的我們,會不會不知情地成為自駕車的免費測試物?這些車商用你我做為測試目標之前,有沒有徴得我們的同意 ?我們願意花多大的代價去訓練AI的普通常識?
甚至,你願不願意成為機器學習的代價之一?
我們對那一套決定生死的劇本,又敢付出多大的信任?我們真的準備好,要把性命交給一部普通常識也許不如6歲孩子,而一切都只會「照劇本演出」的機器碼 ? 如果一截2吋長的黑膠帶就可以讓自駕車起乩;如果3段冒充車道分割線的貼紙就能把自駕車騙到對向車道,還有多少我們從來沒有想到的危機正在滿街趴趴走 ?
如果航空器材這麼不成熟,FAA會有可能核發飛行執照嗎?可是為什麼對汽車我們就這麼寬宏大量?

無人駕駛的確是偉大的夢想,但是⋯⋯

美國人每天平均使用汽車的時間只有5%,但汽車佔據的空間卻是30%。這是一種荒誕的浪費。住在公交不發達的大城市居民的確需要汽車,但不應該擁有汽車。汽車無人駕駛之後可以完全工具化,減少80%沒有必要的車輛,更減少居住空間的浪費。
矽谷一家知名高科技公司的鳥瞰圖:30%的空間都浪費在停車場。無人駕駛的時代就不再需要停車場。
未來每一輛汽車都是隨叫隨到無人駕駛的個人化公車。汽車純粹只是從 A 點到 B 點的臨時性工具,而不再是一個龐大又昂貴的資產,每天22個鐘頭放著不用,卻佔掉一大片空間,而且出了門就得扛著重大的安全責任。
所以 Uber 和 Lyft的夢想都很偉大,我也絕對贊成汽車自駕的研發。我只是擔心我們只把它當一般的科技產品來看待,而對一時的成功過度歡欣鼓舞,甚至忘記我們也許還沒準備好。矽谷對於大膽創新很在行,但是風險評估在DNA裡的份量一直不高。
自駕車的發展就好像嬰兒的成長一樣──迅速、令人振奮,卻也跌跌撞撞。對一個才剛學會走路的幼兒,我們不敢讓他跑,更不會讓他跑上馬路。可是現在那個幼兒卻跑在我們前面,讓我們想盯著看都來不及,想追也追不上。
我們是不是真的準備好,要讓一個跌跌撞撞的幼兒在馬路上到處跑 ?
為什麼會看到廣告
illustration
贊助支持創作者,成為他繼續創作的動力吧!
6.8K會員
187內容數
全世界都是向 Google 看,向臉書看,沒有人往矽谷的另一邊看。所以我要帶你看矽谷很少有人知道的另一面。矽谷不是你想的那樣。
留言0
查看全部
發表第一個留言支持創作者!
從 Google News 追蹤更多 vocus 的最新精選內容