讀者們久日不見了,時隔三個月再次發布新文章,感謝大家這段時間的耐心等候和支持!筆者在歐洲的生活也陸續步上軌道,重新透過文章和大家相見。
距離上次更新群聯營運狀況已是 2023 年八月底(可參考<資金回籠記憶體族群,產業下半年狀況該如何解讀?>內容),其中重要觀點即是認為:「記憶體報價下跌空間已有限,模組廠 2023H2 獲利狀況有望有所改善」。
群聯於上週(3/8)召開 2023 全年度法說會,除了繳出優於市場預期的 Q4 獲利成績單,2023 全年表現亦大幅超過筆者於 Q2 法說會後之財測結果。以下將針對群聯 2023Q4 整體營運狀況,以及 2024 年展望和近期備受矚目的 aiDAPTIV+(讀音同 Adaptive)業務進行分析討論。
群聯 2023Q4 營收為 157.5 億元新台幣(以下同),QoQ+27.1%、YoY+28.1%;毛利率 36.0%,QoQ+3.8ppts、YoY+7.9ppts,創單季歷史新高,主因 NAND Flash 價格回升帶動 ASP 成長和存貨跌價損失回轉貢獻 1.4%,以及本季多項 Design-win 專案已開始出貨;EPS 為 10.39 元,QoQ+6.07 元、YoY+9.25 元。
2023 全年營收為 482.2 億元,YoY-24.4%;毛利率 33.4%,YoY+4.6ppts;EPS 為 18.48 元,YoY-9.23 元。其中過去數季持續導致營業外損失的權益法投資中國子公司宏芯宇已在 Q4 停止虧損,且全年度損益亦轉為正數。
攤開筆者於 2023 年八月底的財測結果與公司實際營運狀況進行對比後可發現,在營收、毛利和費用三大項數字均出現較大 beat 和差異,其中原因研判分別為:
在 2023 年八月底之文章中曾提到,筆者認為模組廠 2023H2 獲利狀況將有所改善,主因來自模組 ASP 提升,以及存貨之評價回沖帶動毛利率成長。兩者背後的主要推手即是 NAND Flash 報價的回升,並預期因下游訂單能見度不高,2023H2 報價僅將回升 low to mid-teen %。
然實際狀況並非如此,參考 Morgan Stanley 的報告,NAND Flash 不論是晶圓現貨或模組之報價自 2023 年年中過後之低點,均已回彈近 60% 以上,顯示在原廠減產效果和下游需求優於預期的綜合作用下,報價回升速度遠超預期,為導致營運狀況大幅擊敗筆者財測之主要原因。
隨著 NAND Flash 報價已重回現金成本之上,多數原廠已開始考慮陸續縮小減產幅度並轉向拉升稼動率。
從供需的角度來看,原廠若不開始緩步釋出產能,隨著報價持續飆升,下游模組廠在低價庫存用完之後,進貨成本將開始堆高,屆時採購量可能會因此縮減以面對漲價,對於整體產業鏈的供需健康狀況而言都不是一件好事(從公司營運角度來看,穩定且可預期的獲利、現金流狀況更能夠規避倒閉或成長停滯的風險),因此原廠適當增加供給量將能讓模組廠、IC 廠都保持合理的利潤空間,並降低整體產業因循環產生之波動。
群聯潘董在本次法說會中也提到其認為原廠將在 2024 年重啟產線擴建計畫,否則 2025 年 NAND Flash 將陷入嚴重短缺情況。
參考相關供應鏈看法,產線開機重新調整到產量顯著開始增加之間的延遲約三至四個月,因此筆者認為,就算原廠已在近期逐步重啟產線,供給要能顯著提升也需要等到 2024 下半年才會比較有感;參考 TrendForce 預估,NAND Flash 價格將在 2024Q1 續漲 20~25%,並在 2024Q4 縮減至低個位數。
對於群聯而言,目前庫存仍處在高水位,存貨周轉天數高達 255 天,考量後續之漲價仍將產生存貨回升利益,研判低價庫存優勢至少可延續至 2024Q2,毛利率也因此有望在上半年維持高檔。
隨 Embedded 模組(如 PC/NB、智慧型手機等)、Gaming 等消費性市場庫存去化進入尾聲,受惠於 2023 年之低基期,群聯相關業務預期將在 2024 年顯著回溫;過去幾年持續佈局的企業級 SSD 和高速傳輸介面晶片(Redriver、Retimer)則因 2023 年營收絕對數字較小,預期將可出現較大幅度的成長。
管理層在這次法說會當中特別將目前群聯之 Controller、模組產品在各終端應用的市占率拆開進行說明,其中可特別看到在 SSD 產業中 TAM 最大的企業級應用(2025 年將高達 250 億美元),群聯產品之市占率遠低於 1%。但隨著公司已成功與 Teir-1 SSD 供應商、Server ODM 等業者完成 Design-in 並進入量產,公司預期 2024 年企業級產品營收占比將提升至雙位數(目前僅 3%)。
群聯於 2023 年發布了 AI 應用服務 aiDAPTIV+,強調透過整合 SSD 於 AI 訓練機台中,與 GPU 與 DRAM 協同運行,以降低 fine-tuning 大型 LLM 的機台成本(越大的語言模型就需要越多的 DRAM 容量進行訓練,但建置大量的 GPU 需投入高額成本)。
加上部分領域的 AI 訓練是無法上傳雲端處理的(考量資安、隱私,例如醫療機構、公家機關等),因此 in-house 解方(即建置於本地端不連接外網)對於這些機構和組織而言是導入 AI 模型的必要之舉。群聯的 aiDAPTIV+ 服務便是希望掐準這個市場機會,提供較低成本之 in-house 解方,試圖解決應用 AI 模型高成本和資安防護的痛點。
經營層表示 aiDAPTIV+ 預期將在 2024H2 開始貢獻營收。目前實際案例包含 Kingston 與華泰的於其 SMT 產線導入 aiDAPTIV+ AOI (自動光學檢測)系統,用於降低人力檢測所導致的良率不穩定性。