AI SSD測試計畫第一階段深入研究報告

更新於 發佈於 閱讀時間約 18 分鐘

1. AI SSD市場定義和分類研究

1.1 計算儲存設備的核心概念

AI SSD主要以計算儲存設備(Computational Storage Drive, CSD)的形式出現,這是一種在傳統SSD基礎上整合處理能力的新型儲存設備。根據Samsung SmartSSD第二代的技術實現,這類設備使用AMD Xilinx Versal Adaptive SoCs,相比第一代產品在處理功能上有大幅升級。

計算儲存的核心理念是將相對簡單的資料處理(使用高度重複和簡單的過濾、壓縮或格式轉換操作)直接在配備本地處理器的SSD上執行。這種架構設計可以減輕主機系統的時間和能源負擔,避免了從SSD讀取資料、傳輸到主機系統記憶體、由主機CPU或GPU處理,然後將結果寫回驅動器的繁瑣過程。

在實際應用中,Samsung SmartSSD第二代在掃描密集型資料庫查詢處理中展現出顯著優勢:處理時間減少超過50%,主機系統能耗降低高達70%,CPU使用率降低高達97%。這些數據充分證明了計算儲存技術在AI工作負載中的巨大潛力。

1.2 市場規模和成長趨勢

根據多個權威市場研究機構的最新報告,計算儲存市場正經歷快速成長期。2024年市場價值約為25.7-29億美元,預計到2033年將達到159.4-193億美元,年複合成長率超過24%。更廣泛的AI驅動儲存市場規模更大,2024年已達305.7億美元,預計到2030年將以25.9%的年複合成長率持續成長。

這種快速成長主要由以下因素驅動:AI和ML技術的快速發展、資料集規模的持續增長、模型複雜度的提升、即時AI應用的增加,以及企業數位轉型需求、邊緣AI應用的普及、5G/6G技術的推動和成本效益的追求等商業驅動因素。

1.3 技術標準化進程

SNIA(儲存網路工業協會)和NVM Express組織正在與Samsung等主要廠商合作,推動計算儲存介面技術的標準化。這種標準化努力對於確保不同廠商產品之間的相容性和互操作性至關重要,將促進整個市場的健康發展。

2. AI工作負載特性深度分析

2.1 AI資料管道的四階段特性

根據Solidigm和VAST Data專家的深入分析,AI工作負載可以分為四個主要階段,每個階段都有獨特的I/O特性和儲存需求。

資料攝取階段表現為完全寫入導向的特性,主要從外部來源(雲端資源、內部來源)獲取資料,產生大量入站寫入,本質上是順序的,類似傳統ETL過程。這個階段需要高順序寫入效能、大容量儲存需求和高可靠性要求。

資料準備階段則是讀取主導,但包含一些寫入操作,讀取的資料量遠大於寫入的資料量,處理過程相對順序,屬於CPU密集型而非I/O密集型。這個階段涉及資料清理和正規化、複雜的處理管道,類似HPC叢集的協作工作,雖然有大量讀取和寫入,但通常受CPU限制。

訓練階段具有最獨特的I/O特性,必須採用隨機I/O模式來隨機化資料呈現給模型的方式,防止模型記憶資料順序。這個階段是大量讀取密集型的,被形象地描述為「資料進入GPU的巨大吸入聲」,同時也是GPU密集型的,因為模型大且需要分散到多個GPU。檢查點寫入是另一個重要特性,涉及大型順序寫入,每個GPU一個執行緒,檢查點可能涉及數TB的模型狀態資料,恢復時讀寫比例約8:1。

推理階段則表現為I/O密集型特性,GPU等待儲存,而非儲存等待GPU。這個階段幾乎100%是讀取操作,需要高吞吐量讀取,只有前向傳播,無反向傳播。推理的效能特性是超快速、超簡單,可以持續提供資料直到飽和CPU和GPU,特別適合大型影像處理。

2.2 ML訓練的新瓶頸分析

根據SIGARCH的深度分析,現代ML訓練面臨前所未有的儲存挑戰。最重要的發現是瓶頸轉移現象:訓練瓶頸已從學習階段轉移到資料攝取階段。這種轉移的原因是GPU計算速度以前所未有的速度增長(如NVIDIA A100比前一代提升20倍),同時資料集規模爆炸性增長(從ImageNet-1K的140GB到YouTube-8M的1.53TB,再到Google OpenImages的18TB)。

Google對數百萬ML訓練工作負載的研究顯示,平均30%的訓練時間花在輸入資料管道上,昂貴的加速器設備因等待資料而停滯,某些DNN可能花費高達70%的epoch訓練時間在阻塞I/O上。

典型ML輸入管道包括四個步驟:從遠端或本地儲存獲取原始壓縮訓練資料、在CPU上即時解碼和預處理、將預處理批次資料複製到GPU記憶體進行學習,以及與GPU計算並行執行,多次遍歷資料集。

主要瓶頸類型包括I/O瓶頸(儲存頻寬限制、低效的快取機制、ML訓練資料集遠超伺服器DRAM容量)、預處理瓶頸(資料預處理佔epoch時間的65%、CPU與GPU比例不足)和檢查點瓶頸(大型模型狀態的頻繁檢查點效率低下、重複儲存寫入和頻寬浪費)。

2.3 AI工作負載的獨特存取模式

AI工作負載的存取模式與傳統應用截然不同。訓練工作負載必須隨機化資料呈現順序以防止模型記憶資料順序,這與傳統應用的順序存取模式形成鮮明對比。同時,多GPU分散式訓練需要複雜的並行存取特性,包括模型並行和資料並行,以及複雜的記憶體拓撲和資料分發。檢查點模式則需要大型順序寫入(數TB)、週期性執行和高頻寬需求。

推理工作負載的存取模式則強調即時性需求,需要亞毫秒級回應時間、高並發存取和應對不可預測的I/O模式。同時,推理是讀取密集型的,幾乎100%讀取操作,需要高吞吐量和連續資料流。推理工作負載還具有快取友好性,模型參數會重複存取,提供智慧預取機會和記憶體階層優化空間。

3. 主要AI平台需求調查

3.1 NVIDIA AI平台分析

NVIDIA RTX A6000專業工作站代表了高階AI工作站的典型配置。該平台配備48GB GDDR6 with ECC GPU記憶體,記憶體頻寬達768 GB/sec,採用384-bit記憶體介面和PCI Express 4.0 x16系統介面,最大功耗300W。在AI工作負載支援方面,RTX A6000整合了84個第二代RT核心、336個第三代Tensor核心和10,752個CUDA核心,能夠支援大型資料集和複雜計算,適合AI訓練和推理工作負載。

對於儲存需求,RTX A6000需要高速NVMe SSD支援大型資料集載入,建議配置4TB M.2固定儲存,支援雙向頻寬高達112 GB/s(雙卡配置),組合圖形記憶體可達96GB。

NVIDIA DGX Spark AI超級電腦則代表了最新一代的桌面AI超級電腦。該平台採用NVIDIA GB10 Grace Blackwell Superchip,配備20核心Arm CPU(10個Cortex-X925 + 10個Cortex-A725),128GB LPDDR5x統一系統記憶體,記憶體頻寬273 GB/s,採用256-bit記憶體介面。

在AI效能方面,DGX Spark提供1 PFLOP FP4 AI效能,整合第五代Tensor核心和第四代RT核心,支援高達200億參數的AI模型。儲存配置包括1TB或4TB NVMe M.2自加密儲存,支援本地AI模型開發和測試,採用緊湊型桌面外形尺寸(150mm x 150mm x 50.5mm)。

DGX Spark的AI工作負載支援涵蓋原型開發(開發、測試和驗證AI模型)、微調(支援高達70億參數模型的微調)、推理(測試和驗證高達200億參數模型)、資料科學(端到端資料科學工作流程)和邊緣應用(機器人、智慧城市、電腦視覺解決方案)。

3.2 Intel和AMD AI平台分析

Intel AI平台的基本系統需求包括Linux、Windows、macOS作業系統,最低8GB記憶體(建議16GB以上),最低20GB可用儲存空間,以及Intel Core或Xeon系列處理器。AI PC配置建議採用Intel Core Ultra處理器(內建NPU)、16-32GB DDR5記憶體、512GB-2TB NVMe SSD和專用神經處理單元。企業級AI工作站則配備雙路Intel Xeon Silver 4108處理器、128GB DDR4 ECC記憶體、多TB NVMe儲存陣列和專業級GPU加速卡。

AMD AI平台的Ryzen AI 300系列處理器提供比Ryzen 7040系列快3倍的NPU效能,整合AI加速功能,支援PyTorch和TensorFlow,獲得Copilot+ PC認證。AMD Instinct MI300X作為生成式AI加速器,配備192GB HBM3記憶體,支援大規模AI模型訓練和企業級AI推理。AMD AI Engine技術則基於Versal適應性SoC產品組合,專注於數位訊號處理和AI應用,提供可程式化AI加速。

3.3 企業級AI儲存需求分析

企業AI工作負載對儲存系統有八個關鍵需求:可擴展性(支援PB級資料儲存、隨容量增加而線性提升效能、支援分散式儲存架構)、成本效益(分層儲存、壓縮和去重、混合雲儲存策略)、軟體定義儲存(虛擬化、自動化、API整合)、混合架構(多層儲存、快取優化、資料分層)、並行架構(多路存取、分散式檔案系統、物件儲存)、資料持久性(冗餘保護、備份策略、災難恢復)、資料本地性(邊緣快取、就近存取、預取策略)和安全性(加密、存取控制、稽核追蹤)。

不同AI工作負載的儲存需求呈現明顯差異。訓練工作負載需要高隨機讀取效能、大容量支援(TB-PB級)和低延遲存取,以應對隨機讀取密集、大檔案順序寫入(檢查點)和高IOPS需求的I/O特性。推理工作負載則需要極低延遲、高快取命中率和穩定的效能,以滿足小檔案隨機讀取、模型參數重複存取和即時回應需求的I/O特性。資料準備工作負載需要高順序讀取頻寬、大容量支援和成本效益,以處理大量順序讀取、ETL處理和批次作業的I/O特性。

4. AI SSD與傳統SSD差異比較

4.1 技術架構的根本性差異

傳統SSD採用相對簡單的架構,控制器主要負責基本的儲存管理功能,包括快閃記憶體轉換層(FTL)、垃圾回收(GC)、磨損平衡(Wear Leveling)和錯誤修正碼(ECC)。資料路徑相對直接,主機系統透過PCIe介面發送I/O命令,SSD控制器接收命令後進行地址轉換、快取管理,最終將資料寫入或從NAND快閃記憶體中讀取。整個過程中,SSD僅作為被動的儲存設備,不參與任何計算處理。

AI SSD則代表了計算儲存技術的最新發展,其架構相較於傳統SSD有根本性的改變。AI SSD採用更強大的控制器,通常整合了專用的AI加速器,如NPU(神經處理單元)、DSP(數位訊號處理器)或FPGA(現場可程式閘陣列)。核心創新在於將計算能力直接整合到儲存設備中,允許在資料所在位置直接進行處理,大幅減少資料移動的需求。

4.2 效能特性的顯著提升

在延遲特性方面,傳統SSD的延遲主要來自於NAND快閃記憶體的物理特性和控制器處理時間,典型的NVMe SSD隨機讀取延遲約為100-200微秒。AI SSD透過本地計算能力,可以顯著降低某些AI工作負載的整體延遲,當AI模型和資料都位於SSD內部時,推理延遲可以降低到數十微秒級別。

在頻寬利用率方面,傳統SSD的頻寬主要受限於PCIe介面和NAND快閃記憶體的存取速度,即使是最新的PCIe 5.0 NVMe SSD,其理論頻寬也僅約為14GB/s。AI SSD透過本地處理減少了對外部頻寬的需求,在資料預處理、特徵提取或模型推理等任務中,可以在內部完成大部分計算,只需要傳輸最終結果。

4.3 功能特性的全面擴展

傳統SSD僅提供基本的儲存功能,所有的資料處理和計算任務都必須在主機端完成。AI SSD則提供豐富的資料處理功能,包括即時資料預處理(影像縮放、正規化、格式轉換)、特徵提取(從原始資料中提取AI模型所需的特徵)、模型推理(直接在SSD內執行輕量級AI模型)、資料壓縮和去重(智慧資料壓縮演算法)以及加密和安全(硬體級加密和安全功能)。

在程式設計介面方面,傳統SSD主要透過標準的儲存介面(如NVMe)與主機通訊,提供基本的讀寫命令集。AI SSD則提供更豐富的程式設計介面,包括計算API(允許應用程式直接在SSD上執行計算任務)、AI框架整合(與TensorFlow、PyTorch等AI框架的原生整合)、串流處理介面(支援即時資料串流處理)和自定義函數(允許使用者部署自定義的處理函數)。

4.4 成本效益和技術成熟度分析

雖然AI SSD由於整合了額外的計算單元,硬體成本通常比傳統SSD高20-50%,但在AI應用中,其總體擁有成本可能更低。這主要體現在減少主機CPU需求(降低伺服器成本)、降低記憶體需求(減少DRAM投資)、提升能源效率(降低營運成本)和簡化系統架構(減少維護複雜度)等方面。

在技術成熟度方面,傳統SSD技術已經高度標準化,NVMe協議提供了統一的介面標準,確保了不同廠商產品之間的相容性。AI SSD作為新興技術,標準化程度相對較低,SNIA和NVM Express組織正在推動計算儲存介面技術(CSx)的標準化,但完整的標準體系仍在發展中。

5. 結論與建議

5.1 主要研究結論

通過對AI SSD測試計畫第一階段的深入研究,我們得出以下關鍵結論:

市場機遇巨大:計算儲存市場正經歷快速成長期,年複合成長率超過24%,到2033年市場規模將達到150-190億美元。AI驅動儲存市場規模更大,為AI SSD產品提供了廣闊的市場空間。

技術差異化明顯:AI SSD與傳統SSD的核心差異在於整合了本地計算能力,實現了從「資料移動到計算」向「計算移動到資料」的範式轉變。這種轉變不僅提升了效能,更重要的是降低了系統整體能耗和延遲。

工作負載需求獨特:AI工作負載具有與傳統應用截然不同的I/O模式,特別是訓練階段的隨機I/O需求和推理階段的極低延遲需求。這些獨特需求為AI SSD的差異化設計提供了明確方向。

平台需求多樣化:從NVIDIA DGX Spark的1 PFLOP AI效能到Intel AI工具的基本需求,不同AI平台對儲存的需求差異巨大,需要分層的產品策略和測試方法。

生態系統正在形成:雖然AI SSD技術仍在發展初期,但Samsung、Intel、AMD等主要廠商都在積極投入,標準化組織也在推動相關標準制定,整個生態系統正在快速成熟。

5.2 測試計畫設計建議

基於研究發現,我們建議AI SSD測試計畫採用以下設計原則:

分層測試策略:建議採用高階、中階、入門三層測試策略,分別針對不同效能需求的AI平台進行驗證。高階測試針對NVIDIA DGX Spark等超級電腦平台,重點驗證極致效能和大模型支援能力;中階測試針對專業工作站,平衡效能和成本;入門測試針對AI PC和邊緣設備,重點驗證基本AI功能和能耗效率。

工作負載導向設計:測試計畫應重點關注AI特有的工作負載特性,包括隨機I/O模式測試(模擬訓練階段的資料隨機化需求)、檢查點寫入測試(驗證大檔案順序寫入能力)、即時推理測試(驗證極低延遲需求)和混合工作負載測試(模擬實際AI應用的複雜場景)。

計算儲存功能驗證:重點測試AI SSD的計算能力,包括資料預處理功能(影像縮放、正規化、格式轉換)、特徵提取能力、輕量級模型推理、智慧快取和預取功能,以及與AI框架的整合能力。

生態系統整合測試:重視與主流AI框架(TensorFlow、PyTorch)和平台(NVIDIA、Intel、AMD)的整合測試,確保AI SSD能夠在實際AI開發環境中發揮最大價值。

5.3 技術發展方向建議

標準化參與:積極參與SNIA和NVM Express組織的計算儲存標準制定,確保產品符合未來標準,提升市場接受度和相容性。

軟體生態建設:投資開發完整的軟體堆疊,包括驅動程式、開發工具、AI框架整合套件和應用範例,降低開發者的使用門檻。

差異化創新:在滿足基本AI工作負載需求的基礎上,探索獨特的差異化功能,如智慧資料管理、自適應效能調優、安全增強等。

成本優化:在保證效能的前提下,持續優化成本結構,使AI SSD在更廣泛的市場中具有競爭力。

5.4 市場策略建議

目標市場定位:初期重點關注AI研發機構、大型科技公司和專業AI服務提供商等早期採用者,逐步擴展到中小企業和個人開發者市場。

合作夥伴策略:與主要AI平台廠商(NVIDIA、Intel、AMD)建立戰略合作關係,與AI軟體廠商進行深度技術整合,與系統整合商合作推廣完整解決方案。

技術支援體系:建立完善的技術支援體系,包括詳細的技術文件、開發者社群、培訓課程和技術支援服務,幫助客戶充分發揮AI SSD的價值。

通過這份深入的研究報告,我們為AI SSD測試計畫的後續階段提供了堅實的理論基礎和實踐指導。這些發現和建議將有助於制定更加精準和有效的測試策略,確保AI SSD產品能夠滿足快速發展的AI市場需求。

留言
avatar-img
留言分享你的想法!
avatar-img
SSD驗證工程師的告白
10會員
45內容數
針對平時SSD驗證上的感想
2025/08/31
本文深入探討AI訓練、推論及雲端儲存等不同場景下對SSD的需求,分析延遲、頻寬、功耗、耐久度等關鍵指標,並綜述主要SSD廠商的AI優化方案與市場趨勢。
Thumbnail
2025/08/31
本文深入探討AI訓練、推論及雲端儲存等不同場景下對SSD的需求,分析延遲、頻寬、功耗、耐久度等關鍵指標,並綜述主要SSD廠商的AI優化方案與市場趨勢。
Thumbnail
2025/08/23
很多新手工程師常問我: 「NVMe SSD 的測試流程是不是就是跑幾組 FIO?」我的答案是——不只如此,而且差得遠。 真正完整的 NVMe SSD 測試流程,涵蓋了從命令功能正確性、相容性平台測試、效能穩定性,到壽命與可靠度驗證,每一個測項都是在為產品做風險排雷。 這篇文章,我會用一個系統化的
Thumbnail
2025/08/23
很多新手工程師常問我: 「NVMe SSD 的測試流程是不是就是跑幾組 FIO?」我的答案是——不只如此,而且差得遠。 真正完整的 NVMe SSD 測試流程,涵蓋了從命令功能正確性、相容性平台測試、效能穩定性,到壽命與可靠度驗證,每一個測項都是在為產品做風險排雷。 這篇文章,我會用一個系統化的
Thumbnail
2025/08/15
SSD(固態硬碟)作為現代數據中心和個人電腦的核心儲存介質,其可靠性和壽命是使用者 和企業最關心的議題之一。然而,如何有效地進行SSD壽命測試,確保其在預期使用壽命內 穩定運行,卻是一個充滿挑戰的課題。許多人可能認為壽命測試就是簡單地讓SSD跑滿寫入量,但事實遠非如此。 本文將深入探討SSD壽命測
2025/08/15
SSD(固態硬碟)作為現代數據中心和個人電腦的核心儲存介質,其可靠性和壽命是使用者 和企業最關心的議題之一。然而,如何有效地進行SSD壽命測試,確保其在預期使用壽命內 穩定運行,卻是一個充滿挑戰的課題。許多人可能認為壽命測試就是簡單地讓SSD跑滿寫入量,但事實遠非如此。 本文將深入探討SSD壽命測
看更多
你可能也想看
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
嗨!歡迎來到 vocus vocus 方格子是台灣最大的內容創作與知識變現平台,並且計畫持續拓展東南亞等等國際市場。我們致力於打造讓創作者能夠自由發表、累積影響力並獲得實質收益的創作生態圈!「創作至上」是我們的核心價值,我們致力於透過平台功能與服務,賦予創作者更多的可能。 vocus 平台匯聚了
Thumbnail
AMD財報與上調財測,以AI、PC與伺服器晶片帶動收入表現落後補漲、財測維持增速,微軟整體部門包括雲端與AI業務保持正增長,與Google表現差距不大,整體AI題材已失去先行者優勢,競爭者後來居上,三星受益於AI對記憶體需求激勵財報表現。昨日市場維持相對強勢、產業分歧,關注財報後是否出現產業輪動。
Thumbnail
AMD財報與上調財測,以AI、PC與伺服器晶片帶動收入表現落後補漲、財測維持增速,微軟整體部門包括雲端與AI業務保持正增長,與Google表現差距不大,整體AI題材已失去先行者優勢,競爭者後來居上,三星受益於AI對記憶體需求激勵財報表現。昨日市場維持相對強勢、產業分歧,關注財報後是否出現產業輪動。
Thumbnail
隨著近年來的AI浪潮,讓大家普遍對於AI後續的發展充滿了期待。今年所舉辦的台北電腦展 (Computex),讓這樣的相關的討論更加熱烈。有在投資的讀者們或多或少都會看到相關產業鏈的梳理,像是AI伺服器需要什麼奈米的晶圓製程、需要那些先進封裝測試技術、需要什麼樣的水冷技術、哪些的OEM廠 (O
Thumbnail
隨著近年來的AI浪潮,讓大家普遍對於AI後續的發展充滿了期待。今年所舉辦的台北電腦展 (Computex),讓這樣的相關的討論更加熱烈。有在投資的讀者們或多或少都會看到相關產業鏈的梳理,像是AI伺服器需要什麼奈米的晶圓製程、需要那些先進封裝測試技術、需要什麼樣的水冷技術、哪些的OEM廠 (O
Thumbnail
今天是美西時間6/18, 主要搜集第一天的主要對搭載高通新處理器( Snapdragon X Elite) 的AI PC 測試報告外以及市場對AI PC的反應, 並著眼於相關AI PC概念股, 高通與ARM的股價未來反應與展望。
Thumbnail
今天是美西時間6/18, 主要搜集第一天的主要對搭載高通新處理器( Snapdragon X Elite) 的AI PC 測試報告外以及市場對AI PC的反應, 並著眼於相關AI PC概念股, 高通與ARM的股價未來反應與展望。
Thumbnail
本文章介紹了什麼是AI PC,以及AI PC的好處和應用。此外,文章也提到了AI PC的硬體要求和相關產品。最後,結論部分總結了AI PC市場的競爭現狀和投資機會。
Thumbnail
本文章介紹了什麼是AI PC,以及AI PC的好處和應用。此外,文章也提到了AI PC的硬體要求和相關產品。最後,結論部分總結了AI PC市場的競爭現狀和投資機會。
Thumbnail
AI PC 硬體 + AI OS + AI PC 摘要
Thumbnail
AI PC 硬體 + AI OS + AI PC 摘要
Thumbnail
筆記-股癌-群聯、AMD、蘋果-24.05.04 *群聯的aiDAPTIV+,把AI模型做切割,放到不同的GPU去跑, 會用到大量的存取,所以硬體設備也要加強,要提高SSD的耐用性,群聯宣稱可以做到5年內每日寫入次數達100次。 *aiDAPTIV可以讓中小企業,以較低成本使用AI模型,因為N
Thumbnail
筆記-股癌-群聯、AMD、蘋果-24.05.04 *群聯的aiDAPTIV+,把AI模型做切割,放到不同的GPU去跑, 會用到大量的存取,所以硬體設備也要加強,要提高SSD的耐用性,群聯宣稱可以做到5年內每日寫入次數達100次。 *aiDAPTIV可以讓中小企業,以較低成本使用AI模型,因為N
追蹤感興趣的內容從 Google News 追蹤更多 vocus 的最新精選內容追蹤 Google News