更新於 2021/03/29閱讀時間約 4 分鐘

第239話:爆發吧小宇宙!讓視障者行動自如的 AI 背包

左:人稱「最接近神的男人」,最強的黃金聖鬥士沙迦,老是閉著眼睛(ⓒ車田正美/集英社);右:進行原力特訓中的天行者(ⓒGeorge Lukas/Lucasfilm/Disney)
左:人稱「最接近神的男人」,最強的黃金聖鬥士沙迦,老是閉著眼睛(ⓒ車田正美/集英社);右:進行原力特訓中的天行者(ⓒGeorge Lukas/Lucasfilm/Disney)
有了這個背包,讓你擁有原力,小宇宙爆發!
2021年3月24日,INTEL發佈了一個「AI輔助視障者背包」的概念設計。這個設計的推手是喬治亞大學的電腦視覺與人工智慧專家Jagadish K. Mahendran。他回憶當初開始構思這個產品的起點:2013年當他還在碩士班時,論文題目是應用在機器人的電腦視覺研究,有一天他跟一位朋友碰面—這位朋友是個視障者—聊天時,他突然想到:「我整天想要讓機器人『看得到』,但是世界上還有這麼多人類因為看不到而過著極為不便的生活,這不是本末倒置嗎?」於是就開始了給人類的「視覺輔助系統」的研究。
這幾年由於人工智慧技術的急速發展,讓這項工作也得到了突破。這套系統說起來也很簡單,包括了三個部分:一個背包、一個腰包以及一件背心。
這個行人視覺輔助系統使用的樣子,圖中示範的即為開發者Jagadish K. Mahendran(來源:INTEL)
背包:內有中控電腦(可以是筆電或是樹莓派)以及GPS定位系統,還可以再塞一些電池。
背心:搭載OAK-D視覺套件,OAK是「OpenCV AI Kit」(使用OpenCV 的人工智慧套件),配備有解析度4K的攝影機,而且能判別物體在影像中的深度(也就是物體到攝影機的距離),OAK-D的D指的就是深度 depth。這是一個所謂的「邊緣AI」裝置,不是裝了會讓你變邊緣人,而是有別於以前感測器(如相機)取得的資料(如影像)要傳送回電腦主機進行集中處理,做出判斷並且發出指令做出反應,但是這麼做的缺點是資料傳輸需要時間,而且可能同時很多個感測器都傳資料回來叫中央處理器算的話就需要排隊,如此一來可能造成反應延遲。隨著晶片功能越來越強大,直接在感測器上面搭載適合的處理器,這個處理器不必像電腦的CPU一樣什麼東西都能算,只要專門處理那個感測器的資料就行了,例如OAK-D上面的處理器就叫做VPU(visual processing unit,視覺處理單元),其他用不到的功能通通拿掉。將影像訊號直接在OAK-D上處理完後,直接把分析完畢的資料(而非整個影像資料,所以資料量小很多)傳回中控電腦。
腰包:放電池,也可以再放一套OAK-D。
核心元件OAK-D視覺感應套件(來源:. Luxonis)
最重要的部分當然是讓整個系統「學會」行人走在路上可能碰到的各種狀況:路面高低差、障礙物、其他移動物如車輛、其他行人、動物等等,說穿了其實跟訓練自駕車的基本邏輯差不多,只是汽車跟行人會碰到的情境不太一樣,而且對行人來說,還有「室內」與「戶外」之分。事實上,在「戶外」的部分,這個系統其實也借用了不少自駕車的訓練資料,調整後給行人使用。
讀者看到這裡,可能會覺得「阿這不就自駕車系統的劣化版」,行人走得那麼慢,一定很簡單啦!
其實不然,這個系統和自駕車不同之處,可能也是最大的困難是:自駕車感測器從收到訊號到分析、判斷、反應,一路上都是機器,但是對這個行人系統來說,訊號分析完是送給「人類」使用者,然後由使用者判斷後用自己的身體做出反應。因此,這個系統的「資訊流」必須受到嚴格控管,依據其重要性與緊急程度以人類可以處理的速度,用語音的方式傳送給使用者,否則使用者可能被「資訊的洪水」所淹沒而手忙腳亂。所以如何在極為有限的資訊流量限制之下,讓使用者能安全、正確的達到目的地,是一大挑戰。
INTEL這套系統可以做到讓視障者:
  1. 安全的在人行道上行走
  2. 避開各種障礙,包括從地上的物體、垂下來的樹枝、其他行人
  3. 所有路上的交通標誌的訊息
  4. 正確辨識路口、以停止等候及穿越馬路
  5. 正確辨識路面的高低差
  6. 像路克天行者班閉上眼睛也能使用光劍戰鬥
  7. 使阿賴耶識覺醒,小宇宙爆發,跟處女座的沙迦一樣
啊 6, 7 的功能現在的版本還沒有啦,希望 2.0 版就能開發出來…
  • 超中二物理宅雜記
  • 等我征服世界就把電腦視覺列為全人類必修(糟糕偏離物理軌道了)
  • 生命宇宙與萬事萬物什麼都馬跟物理有關
  • 話都給我講就好 其之239
分享至
成為作者繼續創作的動力吧!
© 2024 vocus All rights reserved.