大模型的“詛咒”被DeepSeek破除了嗎?

0 評論 885 瀏覽 0 收藏 15 分鐘

DeepSeek的橫空出世,引發了全球科技界的廣泛關注。其在短時間內迅速崛起,不僅在性能上與OpenAI等國際巨頭相媲美,更以極低的成本和高效的推理能力,成為全球增速最快的AI應用之一。本文將深入探討DeepSeek的技術突破是否真的破除了大模型行業的傳統“詛咒”,分析其背后的技術路徑、開源模式以及對算力投入的影響,供大家參考。

新一年的全球科技圈,主角儼然是DeepSeek。從發布以來,DeepSeek在整個AI產業鏈上引發一系列連鎖反應,無論是OpenAI,還是英偉達,其明顯的震驚似乎皆驗證著DeepSeek已奇襲成功。

而DeepSeek的初步表現也的確可圈可點,數據顯示,上線5天DeepSeek日活躍用戶已超過ChatGPT,上線20天的日活達2000萬人次以上,已是ChatGPT的23%。當前,DeepSeek成為全球增速最快的AI應用。

在海外一眾AI玩家不可置信的同時,國內AI領域一片“鑼鼓喧天”:截至目前,阿里云、百度云、騰訊云、字節火山引擎均已正式支持DeepSeek;同時,百度昆侖芯、天數智芯、摩爾線程接連宣布支持DeepSeek模型。

這也標志著全球AI競速賽中,國產廠商終于又跨出了一步。而DeepSeek的出現,是否為僵化已久的大模型行業破除了一些傳統“詛咒”,很多至關重要的細節,其實還值得進一步深究。

一、DeepSeek出圈是“偶然性”的嗎?

縱觀當前圍繞DeepSeek的幾大主要爭議,似乎每一點都指向同一個問題:DeepSeek是否真的實現了大模型的技術突破。早在DeepSeek公布其模型訓練成本僅為行業1/10時,就有聲音質疑,DeepSeek是通過大幅縮減模型參數規模,或依賴母公司幻方早期囤積的廉價算力實現的。

從某種角度來看,這些質疑有跡可循。

一方面,DeepSeek在縮減模型參數規模方面的“激進”有目共睹,另外一方面,DeepSeek背后的幻方確實有一定的算力儲存?;梅绞荁AT之外唯一能夠儲備萬張A100芯片的公司,有報道在2023年就曾公布過國內囤積超過1萬枚GPU的企業不超過5家。

但值得一提的是,無論是模型參數規模的縮減,還是算力創新爭議都無法否定DeepSeek“小力出奇跡”打法的實質意義。首先,DeepSeek-R1在參數量僅為1.5億(1.5B)的情況下,在數學基準測試中以79.8%的成功率超越GPT-4等大模型。

其次,輕量化模型天然在推理能力與性能方面表現更出彩,訓練和運行成本也更低。據悉,DeepSeek以僅需1/50的價格提供了GPT-4類似的性能,在中小型企業和個人開發者中搶奪了一定的市場地位。

至于幻方對DeepSeek的加成,與其說是一場資本的偶然游戲,不如說是國產大模型成長的必然結果。值得注意的是,幻方量化算是國內第一批闖入大模型賽道的企業,早在2017年,幻方就宣稱要實現投資策略全面AI化。

2019年,幻方量化成立AI公司,其自研的深度學習訓練平臺“螢火一號”總投資近2億元,搭載了1100塊GPU;兩年后,“螢火二號”的投入增加到10億元,搭載了約1萬張英偉達A100顯卡。

2023年11月,DeepSeek?的首個開源模型?DeepSeek-Coder發布。也就是說,這個引起海外科技巨頭集體破防的DeepSeek不是一夜之間的產物,而是國產AI廠商在大模型布局中早晚要走的一步。

不可否認,當前國內已具備培育“DeepSeek?”的客觀條件。公開資料顯示,一個全面的人工智能體系正在各方資本的追捧下誕生,國內人工智能相關企業超過4500家,核心產業規模接近6000億元人民幣。

芯片、算法、數據、平臺、應用……我國以大模型為代表的人工智能普及率達16.4%。

當然,DeepSeek的技術路徑依賴風險始終存在,這也讓DeepSeek的出圈多了一絲偶然,尤其“數據蒸餾技術”不斷遭受重重質疑。事實上,DeepSeek并非第一個使用數據蒸餾的大模型,“過度蒸餾”甚至是當前人工智能賽道的一大矛盾。

來自中科院、北大等多家機構就曾指出,除了豆包、Claude、Gemini之外,大部分開/閉源LLM蒸餾程度過高。而過度依賴蒸餾可能會導致基礎研究的停滯,并降低模型之間的多樣性。上海交通大學也有教授表示,蒸餾技術無法解決數學推理中的根本性挑戰。

總而言之,這些都在反逼DeepSeeK乃至整個國產大模型賽道繼續自我驗證,或許,國內還會誕生第二個“DeepSeek”,從現實的角度來看,DeepSeek成功的必然遠遠大于偶然。

二、“開源時代”要來臨了嗎?

值得注意的是,相比于技術之爭,DeepSeek也再度引發了全球科技圈對開源、閉源的激烈論證。Meta首席科學家楊立昆還在社交平臺上表示,這不是中國在追趕美國,而是開源在追趕閉源。

談及開源模型,還要追溯到2023年Meta的一場源代碼泄露風波。彼時,Meta順水推舟發布了LLama 2開源可商用版本,頓時在大模型賽道掀起開源狂潮,國內諸如悟道、百川智能、阿里云紛紛進入開源大模型領域。

根據Kimi chat統計,2024年全年開源大模型品牌超過10個。2025年開年不足兩個月,除了大火的DeepSeeK之外,參與開源者數不勝數。

據悉,1月15日,MiniMax開源了兩個模型。一個是基礎語言大模型MiniMax – Text – 01,另一個是視覺多模態大模型MiniMax – VL – 01;同時,NVIDIA也開源了自己的世界模型,分別有三個型號:NVIDIA Cosmos的Nano、Super和Ultra;1月16日,阿里云通義也開源了一個數學推理過程獎勵模型,尺寸為7B。

從2023年到2025年,無數AI人才爭論不休后,大模型的“開源時代”終于要來了嗎?

可以確定的一點是,比起閉源模式,開源模型能在短時間內憑借其開放性獲得大量關注。公開資料顯示,當年在“LLama 2”發布之初,其在Hugging Face檢索模型就有超6000個結果。百川智能方面則顯示,旗下兩款開源大模型在當年9月份的下載量就超過500萬。

事實上,DeepSeek能快速走紅與其開源模式分不開關系。2月統計顯示,當前接入DeepSeek系列模型的企業不計其數,云廠商、芯片廠商、應用端企業皆來湊了把熱鬧。在AI需求鼎盛的當前,大模型開源似乎更能促進AI生態化。

但大模型賽道開源與否,其實還有待商榷。

Mistral AI、xAI雖然都是開源的支持者,但它們的旗艦模型目前都是封閉的。國內大部分廠商基本也是一手閉源,一手開源,典型的例子如阿里云、百川智能,甚至李彥宏一度是閉源模式的忠實擁躉。

原因并不難猜測。

一方面,在全球科技領域里開源AI公司都不受資本歡迎,反而是閉源AI企業在融資方面更有優勢。數據統計顯示,從2020年以來,全球閉源?AI?領域初創公司已完成?375?億美元融資,而開源類型的?AI?公司僅獲?149?億美元融資。

這對花錢如流水的AI企業而言,其中的差距不是一星半點。

另外一方面,開源AI的定義在這兩年愈發復雜。2024年10月份,全球開放源代碼促進會發布關于“開源AI定義”1.0版本,新定義顯示,AI大模型若要被視為開源有三個要點:第一,訓練數據透明性;第二,完整代碼;第三,模型參數。

基于這一定義,DeepSeek就被質疑不算真正意義上的開源,只是為了迎合短期聲勢。而在全球范圍內,《Nature》的一篇報道也指出,不少科技巨頭宣稱他們的AI模型是開源的,實際上并不完全透明。

前幾日,受到“打擊”的奧爾特曼首次正面承認OpenAI的閉源“是一個錯誤”,或許,趕著DeepSeek的熱度,一場AI界的“口水大戲”又要拉開序幕。

三、大規模的算力投入即將“暫?!??

這段時間,不少沉迷囤積算力的AI企業因DeepSeek的橫空出世遭到冷嘲熱諷,英偉達這類算力供應商還在股價上跌了一個巨大的跟頭。坦白來說,DeepSeeK在某些方面的確帶來了新的突破,尤其在“壟斷詛咒”上,緩解了一部分焦慮。

但全球大模型賽道的算力需求依舊不可忽視,甚至DeepSeeK自身都未必能暫停算力投入。

需要注意的是,DeepSeek目前僅支持文字問答、讀圖、讀文檔等功能,還未涉及圖片、音頻和視頻生成領域。即便這樣,其服務器還困在崩潰的邊緣,而一旦想要改變形式,算力需求則會呈爆炸式增長,視頻生成類模型與語言模型之間的算力需求差距甚大。

公開數據顯示,OpenAI的Sora視頻生成大模型訓練和推理所需要的算力需求分別達到了GPT-4的4.5倍和近400倍。從語言到視頻之間的跨度尚且如此之大,隨著各種超級算力場景的誕生,算力建設的必要性只增不減。

數據顯示,2010年至2023年間,AI算力需求翻了數十萬倍,遠超摩爾定律的增長速度。進入2025年,OpenAI發布了首個AI Agent產品Operator,大有要引爆超級算力場景的趨勢,這才是關系算力建設是否繼續的關鍵。

據悉,當前大模型發展定義總共分為五個發展階段:L1?語言能力、L2?邏輯能力、L3?使用工具的能力、L4?自我學習能力、L5?探究科學規律。而Agent位于L3?使用工具能力,同時正在開啟對L4的自我學習能力的探索。

根據Gartner預測,到2028年,全球將有15%的日常工作決策預計將通過Agentic AI完成。如果大模型賽道按照規劃預想地一路狂奔,從L1到L5,全球各大AI企業對算力的建設更加不會忽視。

到L3階段,算力需求大概會是多少?

巴萊克銀行在2024年10月份的一則報告中預測過,到2026年,假如消費者人工智能應用能夠突破10億日活躍用戶,并且Agent在企業業務中有超過5%的滲透率,則需要至少142B ExaFLOPs(約150,000,000,000,000 P)的AI算力生成五千萬億個token。

即便超級應用階段的到來還遙遙無期,在目前大模型賽道加速淘汰的激烈戰場上,也沒有一家企業甘愿落后一步。微軟、谷歌、亞馬遜、Meta、字節跳動、阿里、騰訊、百度……這些海內外的AI巨頭只怕會繼續花錢賭未來。

另外,DeepSeek最為人稱道的莫過于繞開了“芯片大關”。

然而,作為算力產業的基石,相同投入下,優質的算力基礎設施往往會提供更高的算力效率與商業回報?!?025年算力產業十大趨勢》中提到過,以GPT-4為例,不同硬件配置下其性能會發生顯著差異。對比H100和GB200等不同硬件配置驅動GPT-4的性能,采用GB200 Scale-Up 64配置的盈利能力是H100 Scale-Up 8配置的6倍。

DeepSeek一問三崩的服務器,或許暗示著大模型賽道的“追芯”游戲在算力角逐環節中遲遲未能結束。據悉,2025年,英偉達下一代GPU GB300可能會出現多個關鍵硬件規格變化,而國內的AI芯片國產化進程也星夜兼程。

種種跡象顯示,辛苦的算力建設一時半會無法停止,反而更卷了。

本文由人人都是產品經理作者【道總有理】,微信公眾號:【道總有理】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自 Unsplash,基于CC0 協議

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 這個軟件的中國現有ai里最完全的模型,會深度思考的,繼續發展會越來越好

    來自中國 回復