GPU

含有「GPU」共 1082 篇內容
全部內容
發佈日期由新至舊
真正工程級手算一次: 目標: 👉 用 NVIDIA GeForce RTX 4090(24GB VRAM) 👉 看「能訓練多大模型」 一、先確定 4090 的條件 VRAM:24GB 訓練通常用:FP16 / BF16 Optimizer:AdamW(最常見)
Thumbnail
以下是針對RTX 4090、 RTX 5090、H200這三張卡的支援程度詳細對比: 硬體支援度規格表 🚀詳細分析 1. NVIDIA H200:AI 算力的天花板 H200 是專為數據中心設計的「怪獸」,它是第一款大規模推廣 FP8 訓練 的硬體。 優勢:擁有極大的 HBM3e 記憶
Thumbnail
當輝達宣布新一代 AI 平台 Vera Rubin 架構即將接棒, 市場第一時間關注的是: 👉 效能提升多少? 👉 功耗是否優化? 👉 訓練成本是否下降? 但真正影響供應鏈的問題是—— 誰能承接整個系統的組裝與整合? 一、Vera Rubin代表什麼? V
Thumbnail
設計一套專門為武俠小說微調(LoRA)設計的資料格式, 比如: 唐玄宗開元年間 絲路 / 祆教 / 波斯密使 軋犖山(安祿山) 華山派、公孫嫣 宗教與權謀交織 我們目標不是普通小說生成,而是: 🎯 訓練出「懂世界觀、會寫武功、能操控角色」的武俠模型
Thumbnail
在家用 GPU(例如 RTX 3060 / 4070 / 4090) 是可以訓練「小型 LLM」的 —— 但要方法正確。 我給你一個完整可執行流程圖。 🎯 先講現實 ❌ 你做不到的 從零訓練 7B 模型 用幾 TB 數據做 pretraining
Thumbnail
訓練一個 LLM(大型語言模型),本質上是讓一個巨大的 Transformer 神經網路,學會「預測下一個字」。 我們分成 完整流程 7 個階段 來看。 🏗 整體流程總覽 資料蒐集 → 清洗 → 分詞 → 建模 → 預訓練 → 對齊訓練 → 部署優化 ① 模型架構選擇(Transfor
Thumbnail
Transformer 是一種 專門處理序列資料(例如文字) 的神經網路架構。 它在 2017 年由論文: Attention Is All You Need 提出,作者之一是 Ashish Vaswani。 它徹底改變了 NLP(自然語言處理),並成為所有 LLM 的基礎。
Thumbnail
本課程以七層AI運算架構統整AI從Transformer、LLM到Agentic/Physical AI的演進,解析算力擴展與能耗挑戰。涵蓋GPU/TPU/ASIC、稀疏與數值表示、並行/記憶體設計、CIM/CNM等,並以期末專題整合硬體×演算法×應用。
本文分析邊緣 AI (Edge AI) 與物理 AI (Physical AI) 相較於雲端 AI Server 的不同成長邏輯,指出邊緣 AI 並非不爆發,而是正經歷質變。透過「單機價值提升」在 2026-2030 年間帶動工業電腦 (IPC) 產業的毛利與營收雙重跳升。
Thumbnail
如果你長期持有 鴻海,你一定聽過一句話: 「鴻海毛利率很低。」 「代工就是薄利多銷。」 這句話講了十幾年。 但當 AI 伺服器占比持續拉高時,問題就來了—— 這會不會讓鴻海的獲利結構出現「質變」? 還是只是營收放大、但本質不變? 一、為什麼AI伺服器不同? AI
Thumbnail
張志剛-avatar-img
14 小時前
粉色花海女孩-avatar-img
發文者
12 小時前