還記得今年初,那個聲勢浩大,號稱要以「俗擱大碗」姿態震撼全球AI市場的DeepSeek嗎?它的登場曾讓無數人驚艷,使用率一度衝上高峰,彷彿預示著AI普惠時代的來臨。然而,短短幾個月過去,潮水退去,DeepSeek的使用率竟暴跌至僅剩3%,原定五月發布的R2新模型也遲遲不見蹤影,這究竟是怎麼回事?難道它真的「爛尾」了嗎?
許多用戶發現,DeepSeek雖然便宜,用起來卻是一個字——「慢」!不僅反應速度慢,提問後要等好幾秒才吐出第一個字,這種「首字回應時間過長」的問題,讓習慣了ChatGPT流暢體驗的用戶耐心盡失。更令人惱火的是,每當遇到像是政治等「敏感話題」,它就立刻「噤聲」,甚至「無法回答」,就像一個「失去靈魂的傳聲筒」,這讓許多人感到模型過於僵化,缺乏靈活性,自然選擇離開。
其實,表面的不佳體驗背後,藏著幾個核心問題。首先是算力瓶頸。開發和訓練強大的AI模型需要海量的頂級繪圖處理器(GPU),特別是輝達(NVIDIA)H20、H800或H100這類高階晶片。然而,DeepSeek在取得這些關鍵晶片上似乎遭遇了困難,這使得模型的訓練和優化受到極大限制,也直接拖累了R2新模型的開發進度。其次是數據質量問題。據說DeepSeek的R1模型能迅速問世,一部分是藉助了「蒸餾技術」,也就是學習OpenAI等成熟模型的知識。但當它想開發更強大的R2模型時,需要更多、更高品質的本地數據。不幸的是,國內能提供的訓練數據質量參差不齊,甚至充斥著行銷軟文、標題黨和陰謀論。當AI模型「吃」進垃圾,自然也只能「吐」出垃圾,導致模型產生嚴重的「幻覺體驗」,編造虛假信息,讓用戶信任崩塌。
DeepSeek最大的戰略錯誤,或許就是過度依賴「低價」這張牌,並將「題庫蒸餾」視為長久之計。在算力有限的情況下,為了維持低價,它不得不犧牲用戶體驗,例如縮減模型一次能處理的資訊長度(上下文視窗),以及嚴格的內容審核機制,這些都讓模型顯得「綁手綁腳」,不夠開放。
與此同時,DeepSeek的競爭對手們卻不斷推陳出新。OpenAI的ChatGPT和Google的Gemini,流量分別增長了40.6%和85.8%,市場佔有率迅速提升。連Grok和Claude等後起之秀也穩健成長。在AI這場激烈的馬拉松中,當你還在「慢又不回答」時,別人已經跑得更遠、更快。
DeepSeek的案例清楚地告訴我們,AI市場的競爭早已不是單純的價格戰。現在,用戶評估一個AI模型的好壞,看的是一種「整體CP值」,也就是所謂的「代幣經濟學」(Tokenomics)。它不僅僅是每百萬代幣的價格,更涵蓋了反應速度(每秒生成多少代幣)、處理資訊長度(上下文視窗大小)、延遲以及最關鍵的回答品質和可靠性,還有它是否真的能解決用戶的問題。
即使是資金雄厚的西方AI巨頭,如Anthropic的Claude,也面臨算力限制,不得不調整輸出速度來應對海量請求。這表明,在AI競賽中,充足的運算資源是所有領先廠商的共同課題,也是影響使用者體驗的根本。
DeepSeek從「遙遙領先」到「邊緣失語」的變形記,絕非偶然,而是技術、資源、戰略和市場多重因素交織的必然結果。這就像在一條AI高速公路上,光是把「油門」(低價)踩到底是不夠的。你還必須確保你的**「引擎」(算力)夠力,「方向盤」(使用者體驗)好操控,並且要遵守「交通規則」**(法規與審查),才能在這場全球競賽中持續領先。DeepSeek的掙扎,無疑是當前AI發展中,所有參與者都應深思的寶貴一課。它提醒我們,沒有綜合實力的支撐,再低的價格也留不住用戶的心。