DeepSeek的事件解讀與評論對美股影響
前言:
近日DeepSeek 的推出在市場掀起一波熱議,作為一個僅耗資 560 萬美元完成的開源大型語言模型,DeepSeek 展現了低成本與快速開發的優勢,其成果被部分人視為對 OpenAI 和 Google 壟斷地位的潛在挑戰。
然而,這波熱潮背後也存在諸多爭議。儘管 DeepSeek 提供的模型能以更少資源完成推理任務,但其效能仍無法全面趕上 GPT-4,甚至被認為更適合特定場景的應用而非廣泛推廣。此外,開源模型一直以來的挑戰,如數據品質、算力需求及多模態整合的技術門檻,仍然是限制其對商業化模型產生重大威脅的主要因素。這樣的背景也讓美國主要財經媒體對該事件的報導相對低調,而社群媒體上卻形成了極高的討論熱度,進一步凸顯了意見分歧。
另一方面,市場對開源模型的發展態度也充滿矛盾。一方面,開源模型代表以低成本實現高效推理的可能性,特別是在多模態和邊緣運算場景中展現了潛力;另一方面,過去幾年開源模型屢屢未能趕上 GPT-4 的整體水準,加上其商業化應用效果有限,使市場對其真正影響力抱持保留態度。正如 Meta 的 LLaMA 和 Hugging Face 等知名開源模型的發展所顯示,雖然開源模型以免費和靈活性吸引大量研究者與小型企業,但其影響力仍受到訓練資源和應用場景限制。對於 DeepSeek 是否能真正撼動 NVIDIA 等產業鏈巨頭,還需觀察其技術發展是否能快速商業化,或僅僅停留在技術討論的熱潮中。這一現象也反映投資者對 AI 模型未來趨勢的疲勞感,以及如何在短期熱點中理性篩選出長期價值的挑戰。
摘要重點
- DeepSeek 以 560 萬美元開發出開源模型,成本僅為傳統 GPT-4 模型的零頭,展現低成本、高效率的潛力。
- 儘管效能仍不及 OpenAI 和 Google,其在數據處理和推理任務上的表現已接近 GPT-4,對開源模型的技術突破具有示範效應。
- 部分投資者認為 DeepSeek 對 NVIDIA 等高端芯片供應商形成挑戰,但專家仍對其數據品質和商業化潛力持保留意見。
- 開源模型正朝向多模態推理(如文本、圖像、音頻整合)及小模型(高效、低資源消耗)發展,目標是降低運行門檻,應用於移動設備與邊緣運算場景。
- 雖然開源模型具有成本與靈活性優勢,但其商業應用仍受制於數據需求、算力資源及整合難度,短期內仍難以全面趕上 GPT-4 水準。
- Meta 的 LLaMA、Hugging Face 等開源模型展示了市場接受度,但影響力局限於特定場景,尚未撼動專有模型的主導地位。
市場反應與短期觀察
上週五(以及現在美股夜盤)包括 NVIDIA、AMD、META 等多家 AI 股下挫,可能與 DeepSeek 引發的市場不安有關,但更大程度受到美聯儲政策會議和高估值壓力影響。
DeepSeek 的影響需觀察相關個股間的強弱變化,如:
- 受惠股:AMD(推理市場需求提升)、META(開源模型生態受益)。
- 受害股:NVIDIA(高端芯片需求可能削弱)、MSFT(OpenAI 整合前景受挑戰)。
- 對照組:TSM(晶片製造商需求穩定)、AVGO/MRVL(ASIC 市場潛力)。
長期產業趨勢
- 隨多模態與推理模型的普及,ASIC(應用專用晶片)市場將快速成長,可能逐步分流 NVIDIA 等通用型 GPU 的市場份額。
- 開源模型若能有效解決數據與資源需求,將推動 AI 技術更廣泛的商業化,但仍需時間觀察是否能成為長期趨勢。
- 隨著 AI 相關熱點屢次快速降溫,投資者正重新審視 AI 產業的長期價值,開源模型的「低成本革命」能否撼動市場仍有待驗證。
第一部分: DeepSeek的事件解讀與評論
新聞參考:
矽谷對中國製造的人工智慧模型讚不絕口
中國的新人工智慧模式 DeepSeek 如何威脅美國的主導地位
新聞重點:
- DeepSeek,在12月下旬推出開源大型語言模型,使用NVIDIA降低的NVIDIA CHIPS,僅花費了兩個月,不到600萬美元才能建造。
- 關於該實驗室及其創始人Liang Wenfeng知之甚少。DeepSeek是由一個名為High-Flyer Quant的中國對沖基金誕生的,該基金管理約80億美元的資產。
- DeepSeek 的開發由中國對沖基金經理梁文峰領導,他已成為中國人工智慧發展的代言人。 1月20日,梁會見中國總理,討論本土企業如何縮小與美國的差距。
- DeepSeek 的技術仍然落後於 OpenAI 和Google,但儘管它使用的晶片數量較少且不太先進,並且在某些情況下跳過了美國開發商認為必要的步驟,但它仍然是一個勢均力敵的競爭對手。
- DeepSeek 表示,訓練其最新模型之一的成本為 560 萬美元,而人工智慧開發商 Anthropic 執行長 Dario Amodei 去年提到的建造模型成本為 1 億至 10 億美元。
- DeepSeek-R1: 這個推理模型於2025年1月20日正式發布。R1模型展現優異的推理能力,在數學、編碼和自然語言推理等任務上與OpenAI的GPT-4相當。
評論:
事先說明:
上面的新聞摘要重點還有其他的部分,我沒有節錄出來的部分是技術面的,也就是很多是比較艱深的Data Science方面的東西,有興趣的各位可以上網查詢,這裡僅聚焦討論在投資的方面。
分析:
- 目前看起來DeepDeek語言模型的推出會讓大家討論的重點在兩個:
(1)開源模型
(2)成本低且快速
至於效能或使用心得方面,上面的新聞有提到可能還沒辦法跟o1或Google等其他大模型相比。
事件重點:
市場很多人認為DeepSeek就是一個CP值高的模型。也就是用小小的成本就可以達到接近o1的能力。
我們以下就對美股個股的來初步分析:
很多大模型現在推出新的版本或功能時都很叫好,但我個人的觀察一下就沉寂下去,跟過去2023年相比差很多,有的是消費者喜新厭舊心態,有的是真的使用起來沒有當初這些大模型提到的那麼令人驚艷。
我使用o1和Sora的心得,一開始覺得好像不錯,之後用越久越了解AI還真的有很多地方改進的空間。另外,人類的反撲,我發現人類開始嫌惡因為AI的寫作(就不是真人寫的還拿出來賣等等的一堆評論...甚至連利用AI排版也有人不認同),或是AI製圖,看久了哪些是真人畫的插圖,哪些是AI圖,真的畫的(比如插畫)也許沒有AI畫的精緻,但受到實體人類的讚同(認同感)比AI高太多了。
我們不討論AI『現在』對人類的科技貢獻大小的問題(我認為AI對企業或對人類的貢獻很大未來會更大),我們想釐清的是現在的世界目前對AI的發展狀況以及有沒有AI 疲勞感?
DeepSeek不是第一家開源的大語言模型,美國已經有太多家了,你可以講DeepSeek是第一家用這麼便宜的成本就生產出來的大語言模型,但過去『文心一言』剛推出時也讓美國西方世界很緊張,現在呢?
過去開源模型也不少,比如以下:

最著名大家比較聽過的就是Meta的LLaMA模型。
這些開源模型從2023年後就一直不斷出現(因為開源,不斷有新的產品推出),主要朝兩個方面進行:
- 多模態
- 低成本
也就是利用開源模型所創造出來的這人些的終極目標就是:利用較小較便宜的模型就可以達到ChapGPT的程度,當時他們對標的3.5,但後來時間一久發現真的還好,之後到現在對標GPT 4 仍然一直無法趕上,(我不知道大家對ChatGPT 4的使用感受如何),我幫大家整理以下比較接近GPT 4但還是有差距的開源模型:

說明:
各位可以看到最後面一欄,基本上都落後GPT 4 ,但開源模型在目前仍在加緊趕上的部分。未來要花多久時間趕上?不知道,因為下面會提到困難點,也就是類似大家都在討論什麼時候要到AGI,感覺要快了,但現在就是到不了,因為背後有太多複雜的技術。尤其在資料方面的問題較大。
先整理一下,小結:
- 開源模型以前到現在一直存在,而且越來越多,因為免費的。
- 開源模型的終極目標:用較小的模型或較低的成本製作成類似大語言的水準。
- 這些開源模型到現在(美國/西方國家的)依然停留在3.5-4之間的水準,連4都趕不上,更不要提到o1。





















