AI的涵蓋範圍比深度學習大,但現在講AI大多是指深度學習。深度學習並不是一個新的技術,它發展的很早但曾經沉寂一段時間,當中一個主要因素是當時的硬體運算能力跟不上演算法的需要。隨著硬體運算能力的提升與成本的降低,讓深度學習重新回到舞台,成為AI應用的主流技術。
資料是AI時代的石油,沒有資料就無法訓練AI模型,一些大企業或政府單位過去曾經累積下不少資料,這些資料現在都成為AI應用的主要資料來源,從這些資料也的確做出很多亮眼的應用,但是目前也面對不少的限制,這裡面有兩個主要問題:
1.目前可得的資料大多不是為了AI應用的目的而收集的,所以從中能開發出的AI應用是相對有限,而那些我們最想要開發的AI應用目前卻沒有適合的資料可以使用。
2.這些資料大多是私有的,而且未來也不太可能公開。畢竟資料就是AI時代的石油,而誰會把石油平白送人?
因此,雖然近期AI方興未艾,但當這些手頭上的easy data所能開發的AI應用開發完之後,AI發展很快會遇到第一個瓶頸 - 沒有適合資料的瓶頸。而這也必然帶動收集資料的需求,資料收集不能靠人去收集,必須靠各式各樣的聯網裝置,自動化的去收集資料,這表示會有一波IoT設備的部署需求。
這一波IoT設備的部署需求會與以往稍有不同,過去IoT設備的部署主要是為了管理上與使用上的便利性,重點在於聯網,因此部署上幾乎沒有考慮到資安方面的需求,而這使得IoT設備成為資安上的漏洞並造成許多具體的危害案例。新的一波IoT部署是基於AI的應用需要,它的目標會更為具體,範圍更為全面,而且因為AI時代,資料的價值已不可同日而語,因此對於資安的要求會更為提高(就像在內燃機發明以前,石油只是劣質的油燈燃料,內燃機發明以後,石油成為黑金)。雖然無法預測多快,但我認為趨勢應該會照這個方向發展: AI應用先引起產業關注,但這階段大多是侷限性的應用,接下來商機會首先大量出現在IoT設備與IoT network security,而後才是大量的AI應用。 這個順序即是:
先有資料才有AI。
先有IoT才有資料。
先有Security才有IoT。
面對AI與IoT security的需求,有一些專精於IPC的廠商會過度執著於HPC(high-performance computing),這可視為一種”重艦巨砲”的迷思。基本邏輯是當要執行某種應用,先給你一顆Atom,如果Atom不夠力,那就給你一顆Xeon,如果一顆Xeon還是不夠力,就給你兩顆Xeon,以此類推。
這樣的邏輯表面上聽起來合情合理,但如果換成另一個比喻: 「法拉利跑車既拉風又快速,不過若今天的任務是搬家,一台法拉利的空間太小了,於是廠商建議您應該買兩台法拉利,如果空間還不夠~ 那就買三台」 ,這樣的邏輯並不太合理,因為很明顯地法拉利並不適合搬家這個任務。
x86 CPU的運算特性在某些層面也不太適合AI與IoT security的運算特性。Intel在面對這個大趨勢,體認到光是靠CPU的運算能力是不夠的,因此也整合進了各種不同的技術,像是VPU, FPGA,Switch…等等。其實可以這樣講,在新的AIoT的應用裡,CPU更多是處於配角的角色,其主要任務是在處理資料流向。若過度執著於HPC,很容易會忽略了x86 CPU其實並不那麼適合AI與IoT的運算特性。除了軟體,AIoT也會帶動許多硬體設備的需求,但這樣硬體必須要從應用特性為出發點,以更多元的方式去思考相關的產品,需要整合進那些對應的新技術才適用於這樣的新應用,而不僅僅是我們會做什麼。