
最近看到 AWS 和 OpenAI 宣布多年期合作的消息。
這份協議金額高達 380 億美元,AWS 將提供配備十萬顆晶片的 Amazon EC2 UltraServers,讓 OpenAI 能快速擴增算力,支撐其最先進的生成式 AI 工作負載。在 AI 技術快速演進的今天,「算力」正成為最關鍵的資源。模型越大、且服務被更多人使用時,背後的硬體與算力就越驚人。而當技術的邊界不斷被突破,效能、擴展性、安全性,就成為最優先考量的三個指標。
這點能從之前「吉卜力畫風之亂」感受到,許多人嘗試用 AI 生成吉卜力風格的圖片,結果伺服器幾乎被擠爆——光是一張圖,就可能要等上 40 分鐘到 1 小時。模型變強了、使用者變多了,同時也讓 inference 需求暴增。這也讓人更清楚地意識到,算力的挑戰,其實更是基礎建設的挑戰。
之前皮衣老大還曾說過:
AI 浪潮下最大的需求,可能不是工程師或數據專家,而是水電技術師🤣
就如同戰場不只在模型與技術,基礎建設與生態圈至關重要
OpenAI 持續推出新模型,但每一次突破,背後都需要一個更穩、更快的環境支撐。
這樣的合作讓我想到另一個層面。
當系統變得越複雜,平台與基礎建設的責任更加吃重。
OpenAI 選擇 AWS,不只是買算力,而是找到一個能和自己「共同維運成長」的夥伴。
在企業裡其實也是如此。
每個專案想要長期運作,靠的不只有程式開發,還需要完善的流程、監控機制與團隊文化。
AI 的世界在講「基礎建設」,職場的世界講的是「組織結構」——兩者都在回答同一個問題:如何讓系統長期穩定地創造價值。
原文連結: https://www.aboutamazon.com/news/aws/aws-open-ai-workloads-compute-infrastructure












