你不用很懂半導體沒關係,
但有一個基本的邏輯,
觀念很簡單。
讓我用幾分鐘解釋給你聽。
12月時,AMD發表:
「AI加速器(包括記憶體)的市場規模(TAM或Total Addressable Market)預計到2027年會成長到4000億美元」。
2027年的這個數字在六個月前還僅是1500億美元。
而2022年這個市場規模大約是149億。
這代表複合年增長將從40%加速到93%。
Barron's:
這樣的高速成長將提供行業內所有公司充足的發展空間。
行業規模在迅速擴張,
代表基本上每一間本來在這個市場的玩家都有餅可以吃。
大方向的邏輯就是,假設競爭格局不變,每間公司的市佔率大致保持穩定,未來五年,這些公司營收每年平均都可以翻將近一倍。
如果這些公司的產品推陳出新,產品性能更強,或是市場持續處於供不應求狀態,企業議價能力強,那毛利率就會再擴張。
如果這些公司能隨著市場規模快速成長,實現了經營槓桿,提高經營效率,那利潤肯定可以成長的更快。
淨利率越薄的公司、資本開支越重的公司,經營槓桿的現象會越明顯。也就是說營收平均每年成長一倍,淨利率每年翻兩倍都是有可能的。
我不是半導體行業的專家。
這是一個通用的"底層邏輯"。
大家還有關注什麼公司,可能會有這樣的大利多呢~?
歡迎留言告訴我 :D
如果你喜歡我的文章,歡迎追蹤、訂閱。
如果喜歡看圖文,歡迎關注我的IG @wifevivi_
如果喜歡用聽的,歡迎收聽我的Podcast
如果你想要收到及時電子報,歡迎加我的Line@
----------- 以下補充 -----------
例如:
這三個合在一起 = 企業盈利提高。
所有企業盈利提高 = 整個經濟的產出。
因此,這次的AI熱潮跟前幾年的元宇宙熱潮是完全不一樣的。
用我的語言來表達我的理解:
AI就是讓電腦去模擬人的大腦思考和做出反應。
你叫一個人去做某件事情,他收到"指令",他會做一些"反應"。
你叫AI這顆"模擬大腦"去做某件事情,他收到"咒語"或"prompt",他會給你一些"產出"。
AI模型通常透過一個叫做機器學習的過程來訓練。在這個過程中,模型被訓練來識別數據中的模式和關聯。訓練一個AI模型大致可分為以下四個步驟:
一、數據準備:
收集並處理用於訓練模型的數據。這可能包括數據清洗、標記以及分割成訓練集和測試集。
以特斯拉的自動駕駛系統為例。特斯拉收集了大量的駕駛數據,包括視頻錄像、傳感器數據等,來自於全球車主的行車紀錄。這些數據經過清洗和標記,標明如何在各種駕駛條件下正確操作車輛,例如識別交通標誌、行人和其他車輛。就像新手司機需要先看交通規則和模擬駕駛場景一樣,這些車主的行駛影片都是它的「學習材料」。這些資料包括了車子如何在不同情況下行駛,比如怎麼在雨天開車,看到紅燈該怎麼辦,或者是遇到行人應該如何避讓。
二、選擇模型:
根據問題的性質選擇一個適當的機器學習算法或神經網絡架構。
以特斯拉的自動駕駛系統為例。基於這些數據,特斯拉選擇適用於視覺識別、決策制定和路徑規劃的深度學習模型和神經網絡架構,以處理從車輛傳感器(如攝像頭、雷達和超聲波傳感器)收集到的複雜數據。這些就像是一個「學習計畫」,這個計畫包括了使用特定的算法和模型來處理和學習這些數據。
三、訓練模型:
使用訓練數據來訓練模型,過程中模型會試圖學習數據中的模式。這通常涉及到調整模型的參數,直到模型的預測盡可能接近真實數據。
以特斯拉的自動駕駛系統為例。有了學習材料和計畫後,特斯拉就開始「練習開車」了。在電腦裡模擬不同的開車情境,讓它透過試錯,學習在各種情況下應該如何反應,就像新手司機在教練的監督下學習一樣。特斯拉使用這些數據進行模型訓練,讓模型學會解釋路況、預測其他路用者的行為,並作出安全駕駛決策。這一步涉及大量的計算資源,模型會在多次迭代中不斷調整參數,以提高預測的準確性和可靠性。
四、評估和調整:
使用測試集來評估模型的性能。根據評估結果,可能需要進一步調整模型的參數或重新訓練模型,以提高其準確性。
以特斯拉的自動駕駛系統為例。最後,就像新手司機要通過駕照考試一樣,特斯拉的自動駕駛系統也要經過一系列的測試來確保它學得夠好,能安全開車。如果在測試中發現有哪裡不夠好,就需要回去調整和重新學習,直到通過所有的「考試」。
整個過程可能需要反覆進行多次,直到滿意為止。
AI模型可以在多種地點和平台上進行訓練,具體取決於模型的複雜性、數據的規模以及可用資源。以下是幾個常見的訓練場所:
一、本地計算機或伺服器:
對於小到中等規模的模型,許多研究人員和開發者可能選擇在自己的計算機或公司內部的伺服器上進行訓練。這需要有足夠的計算能力,特別是GPU或TPU等硬件加速器。
二、雲計算平台:
對於需要大量計算資源或者想要利用專門的硬件加速器(如GPU、TPU)的更大規模模型,雲計算平台(如Amazon Web Services、Google Cloud Platform、Microsoft Azure)提供了彈性的計算資源。使用者可以根據需要動態調整計算能力,而無需投資昂貴的硬件。
三、專門的AI訓練平台:
一些公司和機構可能選擇使用專為AI訓練設計的專門平台和服務,這些平台可能提供優化的硬件和軟件環境以及管理工具,以提高訓練效率和效果。
四、分散式系統:
對於極其龐大和複雜的模型,如某些深度學習模型,可能需要通過分散式計算架構進行訓練,這意味著將計算任務分布在多個處理器或多個機器上。這種方法可以顯著縮短訓練時間。
五、邊緣計算設備:
在某些情況下,AI模型可能直接在邊緣設備(如智能手機、IoT設備)上進行訓練,尤其是在處理敏感數據或需要即時反應的場景中。
選擇哪個訓練場所主要基於模型的需求、成本考量以及對數據隱私的要求。
傳統的晶片太慢了,根本算不了。
想像一下這些雲端服務供應商的數據中心設備,(AWS, Google Cloud, Azure)
如果沒有配備AI晶片,不久後就會被時代淘汰。
想像一下你用Nokia手機該怎麼看你同學的IG 哈哈
除了運算的速度更快,能效也是更好的。