AI技術的發展為人們的生產和生活帶來了巨大的變革,從智能家居、智能醫療、自動駕駛等,現在AI已經漸漸地出現在你的生活中,如果未來AI會更盛行的,我們可以從中找到甚麼投資機會
那以下就要稍微介紹一下AI,但因為菜鳥也是自己去爬文,去找資料,不是相關的專業人士,所以僅供參考就好了,那AI也有蠻多法規跟倫理的問題,這個也不納入考慮,如果有興趣可以去看看在AI圈所謂的「Garbage in Garbage out」,所以這篇文章純以投資方面來談
1.AI是甚麼
是指機器在沒有人類介入的情況下,透過學習可以擁有自己的思考模式,Chatgpt就是一個例子
2.怎麼讓機器去學習
這個部份真的太難了,沒有程式、數學相關背景真的看不懂,有興趣的去搜尋,「深度學習」,簡單來說,就是把機器當成一個可以克金成長的小孩,丟到一個一堆知識的環境,讓他自己去學習、成長,漸漸地讓他自己的看法,那換個方式說就是,用顯示卡讓他去學習,那這個學習是一個迭代的過程,需要不斷地優化模型,直到達到預定的精度和效果
那前述所提到的「克金」是甚麼意思?
其實就是用更多更好的顯示卡來加速這台機器的學習能力,讓你的小孩學得更快
大概有個大方向後我們就進入正題
其實AI主要就是圍繞在深度學習這項技術當中,而深度學習主要分成兩大項
- 大數據,就是前面所提到的學習環境,研究員會利用爬蟲技術,在網上收集了大量的數據,包括書籍、新聞、網路文章等,這些數據被存儲在大型的數據庫中,以便於後續的處理和訓練
- 訓練,運用大量的GPU去訓練機器
而如果就價格及結構的話,GPU的這部分大概佔50~70%,所以我們首要就是要從這裏面去找公司以及投資機會
所以首先我們先來介紹一下顯示卡(GPU)
因為現在Chatgpt算最近蠻紅的AI,我們拿他舉例
Chatgpt它是使用了多個NVIDIA Tesla V100 GPU進行訓練(可能有再升級),走的協議是NVLINK
而下圖這是V100的圖片
所謂的PCIE是電腦主機板常見的匯流排規格,目前個人用的電腦都是用PCIE,而個人電腦插顯卡的位置就是PCIE x16的
兩者的差別為頻寬大小、延遲率等(NVLINK約為 PCIE的 8~10倍),所以現在深度學習大多都是用NVLINK協議
上圖為V100的長相
- 紫框處為GPU
GPU:專門用於處理圖形、影像和視訊等資料的處理器,可以在短時間內完成大量資料處理的任務
2. 紅框處為供電單元
供電單元:供電單元是一種電源供應器,通常用於為電腦或其他電子設備提供穩定的電力,它通常由一個或多個轉換器、過濾器和穩壓器等電子元件組成,能夠將交流電壓轉換為所需的直流電壓和電流,以滿足設備的電源需求,那因為現在顯示卡的功耗越來越高,且如果應用在深度學習,通常都會在滿載運行
3. 綠框處為記憶體
記憶體:因為將資料丟到電腦的記憶體再回來顯示卡太慢了,所以顯示卡都有自己的記憶體,用於存儲顯示卡需要處理的數據和計算結果,以便進行快速處理和渲染
4. 載板
就是下面裝元件的那個板子
以上這就是一些基本組成V100的元件
再來我們需要關注的就是伺服器相關的產業,因為現在大數據都需要儲存在雲端,所以伺服器就顯得重要
而伺服器是甚麼?其實不用把他想得太複雜
簡單來說,伺服器就是一台很強的個人電腦,個人電腦處理你的指令而已,伺服器要處理一堆人的指令,所以它的硬體設備一定會比個人電腦好
而伺服器的硬體組成
- CPU(中央處理器):處理所有的任務,包括操作系統和應用程序的執行,而伺服器的通常都會有較多的核心數,且因為伺服器是24小時運作的,所以需要有低發熱的特性
- 儲存裝置:通常都是SSD或是HDD,這個會依照預算而改變,現在最頂的通常都是用NVME的SSD,因為這個也需要長時間的讀寫,所以也會跟普通消費者所用的不同,以HDD為例
(1) 更高的速度有更高的轉速和更快的數據傳輸速率
(2) 更高的可靠性:更高品質的材料和技術,提高其可靠性和耐用性,從而減少故障和數據損失的風險
(3) 更高的安全性:更高的安全性功能
3. RAM(隨機存取記憶體)
4. PSU(電源供應器)
5. 散熱:很酷吧,其實這個部分也蠻重要的,因為在伺服器上的硬體都慧要求要高速運算,所以其實他們的發熱量都蠻高的,所以其實散熱也要下蠻大一部分的功夫的
其他的就比較不重要,像是高速的網路設備、擴展槽
礙於篇幅,所以股票放在下集說