GPU

含有「GPU」共 1106 篇內容
全部內容
發佈日期由新至舊
2026/03/10 是圓圓過世後的第 275 天,今天要去桃園上班,不過中午要吃單位聚餐,我怕太晚吃早餐去那邊就吃不下了,而且我手上還有些事情要忙,所以就罕見正常時間出門,但是目的地是桃園總部,早上八點出門可以想像會比十點出門還要塞,而且今天又下雨,所以就是困在高架道路,對了,早上滑手機的時候看到
Thumbnail
探討 AI 時代目前消費者感受到的硬體成本上升現象,分析其與半導體產業資源分配、記憶體價格傳導的關聯,並將此現象類比為科技革命初期的「建設通膨」。文章也預期,長期來看 AI 有望透過提高生產力,帶來「技術型通縮」,但目前正處於從短期成本上升到長期紅利的過渡階段。
Thumbnail
含 AI 應用內容
#DRAM#記憶體#HBM
在前一篇文章中,我提到了當年為什麼選擇留在台北,而沒有去新竹的故事。相信很多讀者好奇,既然不去上班,那為什麼你還在最近股價回檔時,選擇繼續加碼台積電? 身為一個資工系出身、擔任多年產品負責人的人來說,我想從「護城河」與「沉沒成本」以外的角度,聊聊我的看法。
Thumbnail
付費限定
系列文|光通產業鏈故事 先說一個不舒服的事實 這個系列前四篇,說了很多光通革命的理由:銅線的物理極限、台積電的 COUPE 技術、三家台廠的定位、法人的籌碼訊號。 每一個邏輯,單獨看都很有說服力。 但如果你是一個合格的投資人,讀完這些之後,腦子裡應該出現一個問題:那什麼情況下這個故事會走樣
含 AI 應用內容
#基礎建設#供應鏈#GPU
付費限定
系列文|光通產業鏈故事 你的 AI,靠他們的零件在跑 新竹科學園區旁邊,有一排看起來很普通的廠房。 沒有炫目的招牌,沒有媒體報導,員工數量幾百人。這種規模的公司,在台灣科技業的食物鏈裡,屬於那種「你不去查就不會知道它存在」的層級。 但如果你現在打開 ChatGPT,或者跑一個圖像生成模型,
含 AI 應用內容
#基礎建設#GPU#矽光子
系列文|光通產業鏈故事 一個讓工程師興奮了二十年的想法 有一個想法,在光電工程師的圈子裡流傳了將近二十年。 想法很簡單:既然半導體可以用矽做,光學元件為什麼不行? 傳統的光通訊元件,用的是化合物半導體——磷化銦(InP)、砷化鎵(GaAs)。這些材料做出來的雷射和光接收器,性能優異,但製造
含 AI 應用內容
#GPU#供應鏈#資本市場
大型語言模型(LLM)到底是在「理解」,還是在「記憶」訓練資料? 很多研究(例如來自 Stanford University、OpenAI、Google DeepMind)發現: LLM 同時包含「記憶」與「推理」,而且比例會隨資料與模型大小改變。 下面用比較直觀的方式說明。
Thumbnail
系列文|光通產業鏈故事 一個沒有人在乎的物理事實 黃仁勳站在舞台上,背後是一張投影片。 上面是一個機櫃的剖面圖,密密麻麻的線路,像一棵被剪掉葉子的樹,只剩下藤蔓互相纏繞。他說:「我們做到了。72 顆 GPU,連在一起,像一顆巨大的超級晶片。這個架構將會改變 AI 的一切。」 台下掌聲。
這是很多人自己做「私人 AI 助手 / 領域模型」的典型做法。整體分成:模型選擇 → 資料 → 訓練 → 推論部署。 一、硬體條件(RTX 4090) RTX 4090 VRAM:24GB FP16 算力:約 82 TFLOPS 適合:LoRA / QLoRA 微調 能訓練模型大小:
Thumbnail