從去年底開始,人類的科技文明,正式進入了生成式 AI 年代。而即使是相對後知後覺的人,到了今年初 ChatGPT 大紅大紫的爆發時刻,也都被逼著開始面對人工智慧可能對人類科技與文明帶來的震撼與影響。而在這一個巨浪之中,有家公司扮演著非常重要的角色,甚至可以說是整個 AI 時代的核心基礎也不為過 – 這家公司就是 NVIDIA。雖然不是完全沒有競爭者,但基本上,在資料中心端的AI 運算處理器中,NVIDIA 可以說是在市場上佔據壟斷性的地位。也就是說,如果未來幾年,科技產業的重點是各家巨頭與新創獨角獸之間的 AI 大戰的話,那 NVIDIA 就是這場戰爭背後,最大的軍火供應商。
所以,當上週 NVIDIA 舉辦今年的 GTC (GPU Technology Conference),這個對他們來說最重要的技術大會的時候,外界比起以往投注了更高度的關注 – 到底這個 AI 科技的軍火商,能夠端出哪些新的東西?而這其中最受矚目的,當然就是 CEO 黃仁勳的主題演講。所以,本期科技巨頭解碼,就來幫大家整理 Miula 認為的本次 GTC23 黃仁勳主題演講中的重點以及背後的商業意涵,希望幫助科技巨頭解碼的讀者們,能夠更深的了解本次 GTC 的重點。
人工智慧的 iPhone 時刻
在開始討論本次重點前,我想先聊一下 NVIDIA CEO 黃仁勳主題演講的開場。在黃仁勳的本次演講開場中,最受外界廣傳的,就是這句「人工智慧的iPhone 時刻已經來臨」。這句話很精準地抓住了媒體的眼光,快速的傳播了出去。我想,黃仁勳的意思是,就像 iPhone 開啟了智慧手機時代,全面了改變了人們的生活與企業運作的方式,而從現在開始,AI 也會同樣的全面去改變人類的生活與企業的運作。事實上,就我個人看法而言,我認為人工智慧對於人類的影響,可能會比智慧型手機的影響更大。
而在黃仁勳的眼中,所有的企業,現在都該全力去擁抱人工智慧,在他的說法是「企業要成為軟體驅動的科技公司,要成為顛覆者而不是被顛覆者。」我想,這會是未來三到五年,我們每個人都會親眼見證的一場科技變革。當所有的軟體與服務,都全面導入 AI 應用時,原本我們的習慣,很可能會被大幅顛覆。而我們眼前其實已經看到了第一場戰爭,就是 ChatGPT 對於 Google 搜尋所造成的顛覆與威脅。相信在接下來的日子,同樣激烈與精彩的戰爭,會在很多不同產業與領域全面展開。
當然,黃仁勳點出這點,用意在告訴大家 -「你們每個人都需要 NVIDIA!」
本次 GTC 主題演講的第一個重點 – NVIDIA 雲服務
如果要我總結一下本次黃仁勳的主題演講,我認為基本上有三個大重點。第一個大重點,在於NVIDIA AI 的雲服務的推出。第二個重點,則是在於 NVIDIA AI 運算解決方案如何持續維持領先,壓制其他的競爭對手。而第三個重點,則是NVIDIA 試圖成為自訂化專屬模型的主要平台。
先來講雲服務的部分 – 本次 NVIDIA GTC 的一大重點,就是正式對外公布,NVIDIA 與Oracle 的雲服務,聯手推出了 DGX Cloud 的雲端服務。簡單來說,這就是把原本實體銷售的NVIDIA DGX 伺服器,改成像 AWS / Azure 這樣的雲服務,以運算虛擬伺服器 Instance 的方式來銷售。
NVIDIA DGX H100 是 NVIDIA 新一代的 AI 運算伺服器,一台機器由八個 H100 GPU 構成,售價高達千萬台幣的水準,很顯然不是一個便宜的投資。而如果需要多台DGX 串聯起來,構成更強大的運算能力,這當然就得花上更高的預算。而很顯然的,這樣的機器,對於很多想要投入 AI 運算的企業來說,是個相當高的入門門檻。
而當 DGX 伺服器以雲服務 DGX Cloud的方式推出,就大幅降低了企業入手的門檻 - 在一開始的時候,當企業還在嘗試摸索如何應用 AI 的階段,企業可以只投入小筆的預算,租用一個月的DGX Cloud 服務,來進行人工智慧的應用嘗試,而不需要直接花大錢購買 DGX 伺服器。這樣的成本,很可能只需要原本預算的十分之一甚至百分之一,這將能夠讓很多原本因為門檻太高而遲疑的企業,加速進入 AI 的領域。
另一方面,DGX Cloud 也擁有雲服務的另一個關鍵優勢,就是提供了企業更大的使用彈性。如果你是一個 AI 新創公司,你即將推出一個新的 AI 應用,這個時候你會遇到一個很大的營運問題,到底你該建置多少的 AI 運算能力來應付使用者的需求?如果建置服務量太小,當使用者數量超過預期,可能就會遇到系統過載或者是限制使用量的問題。但另一方面,如果建置服務量太大,卻遇到使用狀況不如預期,那花大錢購買的高階機器,全部都在資料中心發呆沒事做,造成資本的巨大浪費。相對的,使用彈性很大的雲服務,無論要增加用量或減少用量都是很容易的事,這對於企業營運來說,絕對是很重要的彈性。
所以,NVIDIA 此次將其硬體銷售業務,跨足到雲服務的形式,絕對是其業務推展上的一個重大進展。基本上這就是複製傳統以CPU運算為主的伺服器,從自建硬體轉移到大型公有雲平台的概念,只是轉移到 GPU 運算的範疇。而從過往傳統CPU 伺服器的歷史來看,這樣的改變絕對是正確的,NVIDIA 的 DGX Cloud 絕對可以替NVIDIA 創造額外的成長動能,長線來看其規模甚至有可能超越硬體銷售的業務。
第二個重點 – 四種推論平台以及大量的加速函式庫
一般外界在討論到 NVIDIA 在 AI 運算方面的市場競爭時,主要會提到的潛在競爭對手,包括了原本在晶片業務方面就是敵人的 AMD 與Intel,以及大型雲服務業者可能以 ASIC (Application Specific Integrated Circuit 特殊用途晶片) 來取代通用型的 GPU 運算兩方面。由於 NVIDIA 的 GPU 價格昂貴,使得公有雲業者營運 AI 運算的成本也會相當的高,這讓公有雲業者有動機,自行開發 AI 的運算晶片 ASIC 來取代 GPU 的用途。
但 NVIDIA 本次 GTC,透過推出四種不同定位的推論平台,以及大量的加速函式庫,拉高了競爭對手的競爭門檻,讓無論是 AMD & Intel,還是 ASIC,都更加難以與 NVIDIA 的GPU 競爭。
NVIDIA 本次推出的四個推論平台,其中包括了專門處理影音的 L4、處理神經網路圖形生成的 L40、大型語言模型巨大運算需求的 H100 NVL,以及用來處理推薦系統的 Grace Hopper。基本上,這四個推論產品,可以說是以 NVIDIA 的核心技術,組建出四種不同的規格,讓在處理特定的需求上,會有更好的效能。這基本上是目前 AI 運算方面,最完整的產品組合,無論是 AMD 或者是 Intel,其產品線與NVIDIA 相比都有很大的落差。
另一方面,透過不同的推論平台與大量不同應用的加速函式庫,NVIDIA GPU 的效能,將會更接近ASIC,卻同時保留了其一定程度的通用性。通用系統與專用系統原本的差別,在於通用系統能處理多種不同的任務,同時還有合理的速度,而專用系統可能只能處理特定的一兩種任務,但處理這些任務的速度卻遠高於通用系統。但 NVIDIA 在此,透過四種不同定位的平台,加上加速函式庫,讓其通用運算的 GPU,在處理特定任務時,效能與 ASIC 之間拉近。而當兩者的效能落差減少時,NVIDIA 的通用性就會勝出。畢竟,ASIC 在需求出現變化時,很可能就會武功全廢,成為一塊無用途的晶片。對比之下,可以應付其他運算需求的 GPU,就更有優勢。在未來,或許如同 Meta 這樣有大量內部運算需求的公司,會試著把一部分的工作量轉到 ASIC 晶片上,但這樣的公司一來是少數,另一方面,即使是 Meta 也會希望自己內部的運算資源有一定程度的通用性與互相備援的能力,今天用於推薦系統的機器,明天在生成式 AI 資源吃緊的時候能夠調過去支援。只要通用性運算的效能不要跟 ASIC 差距過大,基本上通用性運算很難輸掉這場仗。
或許我們可以這樣說,NVIDIA 等於正式跟競爭對手宣告,想要追上我,沒有那麼容易。
第三個重點 – 自訂 AI 人工智慧模型的平台 NVIDIA AI Foundation
在本次 GTC23,黃仁勳主題演講的第三個重點,則是拋出了能夠協助企業自訂專屬 AI 模型的三個平台 – 自訂大型語言模型平台 NeMo,自訂圖形生成模型平台 Picasso,以及藥物生化模型平台 BioNeMo。這三個平台的推出,大幅降低了任何企業、組織或個人,想要打造一個為自己需求最佳化的人工智慧模型。
以自訂大型語言模型平台 NeMo 為例,使用者可以選擇一個 NVIDIA 平台上的預訓練模型做基礎,然後透過 NeMo 平台,加入自己專屬的版權資料做進一步的調校,設立一些專屬規則,最後再直接透過增強式學習,由人員來回應模型的產出,進一步優化模型產出的內容,讓其更加符合使用者的需求。透過上述的步驟,使用者可以得到一個遠比原先的基礎模型,對於自己更好用的版本。
讓我們試想以下的例子 –
假設有一家大型法律事務所,想要讓 ChatGPT 類型的大型語言模型,成為內部的法律專門助手,幫助律師處理各式各樣的法律文件,判斷案件的辯護方向,甚至幫忙寫辯護時所需的內容等。但這時他們會遇到一個問題,ChatGPT 背後的模型,並沒有辦法那麼精準的處理法律相關的需求,導致於產出的結果令人不甚滿意。這時這家事務所,其實就可以考慮自訂一個專屬的大型語言模型,針對法律相關的需求做最佳化,來達成他們內部的應用需求。
在 NeMo 上,他們可以怎麼做呢?
首先,他們可以先在平台上,部屬一個基礎的大型語言模型,如一個 43 億個參數的 GPT 模型。接下來,他們可以整理出幾十萬份他們事務所內部過去歷年的法律文件,以及所有法院的判決文件,把這些文件丟入 NeMo 平台上的這個 GPT-43 模型中,讓模型針對這些專屬資料做進一步的訓練。
在這之後,他們還可以設定一些特定的邏輯規則,確保那些答案違規不會被產出。而在上述工作完成之後呢,他們可以讓事務所的每個律師與法律助理,開始針對於模型給出來的答案評分,給予回饋讓模型進一步的優化,進行強化式學習的後續訓練。
以上的過程,最終的產物,就是一個專屬於該法律事務所的法律大型語言模型。而上述這一切,都奠基在 NVIDIA 的 NeMo 平台之上。對於這間法律事務所來說,原本這個自訂模型的工作,對他們的難度高到完全不可能自己完成,但在 NVIDIA 把整個平台與開發環境都準備好的狀況下,這個自訂模型的難度大幅降低,讓這件事從不可能變為可能。
如果說,人工智慧應用是一台汽車,那背後運作的模型,可以說就是汽車的引擎了。而 NVIDIA 所提供的自訂模型平台 NVIDIA AI Foundation,就像是一個讓所有沒有能力自行研發引擎的小型車廠,能夠對一些基礎的引擎設計做出微調優化,並且生產出來的工具。如果說,AI 是下個世代企業最主要的競爭力的話,那各家企業就不可能都只用通用型的模型,因為這樣無法佔到任何優勢。企業的合理思維會是,我要有比其他競爭對手更厲害的模型,而誰能夠提供這個服務呢?NVIDIA 看似就是目前最好的解答。
NVIDIA AI Foundation 對於 NVIDIA 的戰略意義,在於透過大幅降低自訂模型的門檻,讓更多企業深入的被綁定在 NVIDIA 平台上。如果說,AI 是下個世代的程式的話,NVIDIA 除了掌握運算硬體以外,現在連整個開發環境,也要掌握在手上。在 PC CPU 運算時代,開發環境的霸權主要的掌握者是微軟,而這讓微軟即使經歷數十年的科技霸權大戰,仍然維持重要的地位。NVIDIA 透過 NVIDIA AI Foundation 平台,是有可能成為 GPU 與 AI 運算的微軟的。
NVIDIA 的商業戰略
從本次 GTC23 黃仁勳的主題演講重點中,我們可以看到,在即將爆發的 AI 大時代中,NVIDIA 是有非常明確的商業戰略的。NVIDIA 的第一個主要戰略,就是以降低 AI 的入門門檻,來加強 NVIDIA AI 生態系的主導地位。無論是透過 DGX Cloud 雲服務的推出,或者是 NVIDIA AI Foundation 的自訂模型平台,都會大幅降低企業引進 AI 運算的門檻。而透過降低入門門檻,讓更多的企業湧入 NVIDIA 的產品、服務與平台之上時,這會讓 NVIDIA 的 AI 生態系更加強大,產生網路效應,形成一個競爭對手難以攻入的護城河。
NVIDIA 的第二個戰略,則是持續投資在 AI 運算的基礎建設上,讓 NVIDIA 持續累積其他競爭對手難以企及的資產。這其中包括了十多年前就開始啟動的 CUDA,以及這次 GTC 特別強調的大量針對於不同應用的加速函式庫。某個程度來說,這些投資,都是很難在短期內看到對於業績提升的效果的。但當 NVIDIA 願意持續長期投資在這些基礎建設,而且規模與速度都高於競爭對手時,其累積的成果讓 NVIDIA 能持續在 AI 這個賽道保持領先,也就不令人意外了。當大家覺得太麻煩以及不確定性太高而不想做的苦功,NVIDIA 卻持續下去做的時候,最終優勢都會累積回這間公司身上。
結論
整體而言,NVIDIA CEO 黃仁勳這次 GTC 的主題演講,並沒有帶來太多讓人意外的東西 – NVIDIA 之前早就說過會將 AI 運算雲服務化,所以 DGX Cloud 這個方向大致上是可以預期的。而 NVIDIA NeMo 與 BioNeMo 等服務,其實在之前也都發表過。然而,透過整合在一起呈現,再加上今年初的生成式 AI 狂潮,NVIDIA 的確讓全世界都看到了他們在 AI 運算領域的領先與獨霸地位。在非常明確的技術領先,以及非常清晰的策略引導之下,未來數年,NVIDIA 在人工智慧計算這領域,絕對還會迎來新的高峰。
本期科技巨頭解碼的商業思考
一個值得後續觀察的點是,未來 NVIDIA 與各大公有雲業者的競合關係,將會如何發展。雖然在本次 GTC,包括了 Oracle、微軟與谷歌三個大型公有雲業者都在不同項目發表跟 NVIDIA 的合作,但第一名的亞馬遜 AWS,卻是相對的比較安靜,沒有在本次 GTC 宣布跟 NVIDIA 有什麼新的大型合作。事實上,對於各大公有雲業者來說,NVIDIA 一方面是掌握了未來成長最關鍵的資源的供應商,一方面也是隨時有可能出來搶生意的潛在敵人。即使現在 NVIDIA 貌似要以與各大業者合作的方式推出雲服務,但這也很難擔保幾年之後 NVIDIA 會不會想要端走更多。
在這種狀況下,各大雲服務業者,會想要找出 NVIDIA 的替代品,是非常合理的策略選擇。然而,就像我們前面提到關於 ASIC 的部分一樣,要能在硬體方面追上 NVIDIA 的難度是非常高的,即使是亞馬遜、微軟與谷歌也都是一樣。各大公有雲現有的最大優勢,其實是已經把系統建置在其上的客戶群,以及 AI 運算與其他傳統運算需求的協作與整合。類似 Open AI 這種以 API 的方式提供運算服務的做法,能夠切到比 NVIDIA 更接近客戶端,我個人認為會是一個很不錯的區隔與競爭方式。