馬斯克指出,最新超級電腦將使用最多100,000顆輝達(Nvidia Corp.)「H100」繪圖處理器(GPU),為現有最大GPU叢集的至少四倍大。
今(2024)年稍早,馬斯克曾說,訓練「Grok 2」模型需要約20,000顆H100 GPU,而「Grok 3」及之後世代的模型將需要100,000顆H100 GPU。
馬斯克傳將為 xAI 建超級電腦,採最多 10 萬顆 H100
2024 年全球 PC 的總出貨量預估約 2.5 億台,年成長 3.5%,其中 AI PC 出貨量預估 5,450 萬台,占整體 PC 的 22%,未來 AI PC 能否成為全球電腦市場的成長動能仍要觀察,但市場普遍認為,AI 應用場景需要時間醞釀,目前會先從商用需求發展,再來才是消費性機種。
整個 AI 產業包括製造組成伺服器的晶片和關鍵零組件的上游、伺服器代工廠的中游,以及軟體服務公司的下游,全都受到資金市場的追捧,而 AI PC 的代表廠商中,GPU 有輝達(NVIDIA)、超微(AMD)、英特爾(Intel),而 DRAM 有三星、SK 海力士、美光(Micron)。
台廠供應鏈中,先進製程晶圓代工有台積電;矽智財(IP)有世芯-KY、創意、M31;封測有日月光;高速傳輸 IC 有譜瑞-KY;電源供應器有台達電、光寶科;散熱有奇鋐、雙鴻;PCB 有欣興、景碩、南電;組裝廠有鴻海、廣達、緯穎、仁寶;品牌廠有宏碁、華碩、微星。
微軟 Copilot+PC 來了!NPU 扮演關鍵角色「盤點 AI PC 概念股一次看」
先前外媒也透露蘋果可能會在 WWDC 2024 期間宣布與 OpenAI 合作,透過 ChatGPT 技術加強 iOS 18 作業系統應用功能,Gurman 指出,這可能會為 Safari 搜尋、Siri、修圖和語音備忘錄轉錄等功能提供人工智慧支援,可能為通知、網頁等引入智慧回顧功能。
提供更多客製化,預測 iOS 18 還可以用 AI 製作專屬符號
半導體領域的記憶體是不受寵製程,是最出名的景氣循環股。但本季有個支線成為關注焦點,就是 AI 時代新寵兒:HBM,高頻寬記憶體。
從產品布局觀察,一顆GPU配備多顆HBM,如輝達一顆H100超級晶片組,搭配五顆HBM,容量可達80GB。3月輝達發表B100和B200晶片組,用到八個HBM,容量上修至192GB,可見愈來愈多HBM是將來趨勢。
輝達主要競爭對手超微(AMD)MI300系列更試圖以記憶體容量領先,超微2015年起就採HBM設計方案,幾乎是HBM應用鼻祖,更熱烈擁抱,技術選擇從堆疊八層,往上進攻到堆疊12層;自製AI晶片的Google,TPU系列每代都用倍數HBM。
市場強烈需求拉抬HBM大爆發,市調機構Gartner預估,2023年全球HBM銷售規模為20.05億美元,2025年將翻倍到49.76億美元。
SemiAnalysis數據顯示,HBM現況約為SK海力士73%、三星22%、美光5%,暫時領先的海力士也是三雄布局最快最積極。
在最新公開的開發者文件中,xAI 更提供了 Python 腳本範例,展示了開發者如何使用 xAI 的軟體開發工具包(SDK)庫來生成基於文字和圖像的回應。該腳本可以讀取圖像,設定文字提示,並利用 xAI SDK 產生回應。Grok-1.5V 到底在實際應用上能否業界頂級標準仍然有待觀察,不過相信不用等很久就可以知道了。
xAI 將升級 Grok 為多模態 AI 模型,可處理圖像輸入擴充應用範疇
2024 COMPUTEX 台北國際電腦展將於6月4日至7日登場,黃仁勳將在6月2日赴台大主題演講,分享人工智慧時代如何帶動全球新產業革命的發展;其餘行程則傳出將私下拜會台積電、鴻海與廣達高層等合作夥伴。