陸AI新創企業DeepSeek(深度探求)近期推出「DeepSeek-V3」與「DeepSeek-R1」兩款最新的AI模型。這兩款模型具備低廉的製造成本,且採用運算能力相對低階的輝達H800晶片,卻擁有與全球頂尖AI語言模型匹敵的表現(例如OpenAI 的 ChatGPT-4),讓矽谷巨頭相當震驚。
陸媒《觀點財經》報導,據美國匿名職場論壇TeamBlind上一位自稱Meta員工的貼文,自DeepSeek發布DeepSeek-V3以來,Meta旗下的Llama 4在各項測試中落後,讓公司的生成式AI部門陷入恐慌。更令人憂慮的是,這間鮮為人知的中國公司僅耗資557萬美元(約台幣1.8億元)就達成這項技術成就。
該Meta員工指出,公司內部生成式AI部門的高階主管薪資都超過 DeepSeek的開發成本,而Meta目前擁有數十位此類高管,令人質疑部門龐大成本的合理性。
該員工透露,目前Meta工程師正瘋狂研究分析DeepSeek的成功秘訣,試圖複製任何可複製的技術。然而,當DeepSeek-R1發布時,情況變得更加嚴峻。該員工表示,雖然無法透露具體細節,但一些資訊將很快公開。
DeepSeek-V3於去年12月26日發布後,隨即成為開源模型的領頭羊。DeepSeek公布的技術報告數據顯示,Meta的Llama 3.1-405B僅在 MMLU-Pro大規模多任務理解數據集上接近DeepSeek-V3的水準,而在其他項目中表現幾乎都不及八成。
今年1月20日,DeepSeek 正式發表DeepSeek-R1,官方技術報告中的對照模型,僅包含OpenAI公司的閉源模型OpenAI o1以及自家模型DeepSeek-v3。在前次DeepSeek-V3測試中被拿來做對照的 Meta、Anthropic等公司模型在本次報告中已銷聲匿跡。
在成本方面,DeepSeek-v3總計耗費了278.8萬個GPU小時,使用2048 片輝達H800 GPU,耗時約兩個月完成訓練。相較之下,Meta公司的開源模型Llama 3.1-405B則耗費3080萬個GPU小時,成本是DeepSeek-v3 的 11倍,甚至OpenAI公司的GPT-4o模型訓練也耗資1億美元,與 DeepSeek-V3的557萬美元訓練成本差距甚大。
這新聞,讓美期大跌,乙太幣繼續崩盤,很多人本波玩乙太幣,輸到脫褲子,我想我已經提醒你很多次,4000是滿足,破3600轉弱,反彈近那要賣,如果你還信一堆有的沒的,繼續押槓桿,你會死很慘
總之,希望放假這5天,美股多崩一點,乙太,彼特多崩點,多崩你才有波段買點,美股多崩年後才有短機會
今年是小年夜 也祝大家 蛇年吉祥