對國內AI算力緊缺問題的若干看法

0 評論 1466 瀏覽 0 收藏 14 分鐘

本文通過問答形式,進一步闡述了國內AI算力的現狀,并提供了行業內部人士的看法和分析。整體而言,文章對國內AI算力緊缺問題進行了深入的探討,并提出了一些可能的解決思路。

今天凌晨的蘋果WWDC證實了一點:AI推理算力將長期處于“云端為主”的狀態,這個“長期”至少是三到五年。

是的,蘋果與OpenAI建立了戰略合作,計劃將下一代iOS系統與ChatGPT深度融合;但是絕大部分生成式AI推理,包括文字和圖片生成任務,仍將上傳到ChatGPT的數據中心,在云端完成。

關于這一點,OpenAI在公告中已經說得很清楚了:蘋果的“端側AI”主要仍局限于軟件層面。

如果連蘋果都做不到推理算力的“端側化”,那么其他手機廠商就更做不到了。

PC端可能比移動端的進展稍微好一點,但是在可見的未來,大部分AI PC(包括桌面工作站)仍將基于英偉達的桌面級顯卡,而且只能執行參數規模相對較小的(蒸餾后的)大模型推理。

無論從技術角度還是成本角度考慮,大模型及應用開發商都會更樂意在云端即數據中心完成大部分推理任務。

資本市場再次認識到了這一點,所以WWDC舉行之后,蘋果股價下跌而英偉達股價微漲。

在未來很長一段時間里,我們不必過多考慮“端側算力”。既然如此,國內AI算力緊缺的問題,就不可能通過發展所謂“端側算力”的方式去解決。自從2022年11月底ChatGPT橫空出世以來,國內AI算力幾乎始終處于緊缺狀態,這是由下列因素共同決定的:

全球AI算力均十分緊缺,尤其在制造端,英偉達H系列顯卡僅能由臺積電代工(三星不行),產能瓶頸將持續到多年以后。

美國芯片出口禁令日益嚴格,尤其在2023年下半年的全方位加強之后,許多“后門”被堵上了,國內廠商采購數據中心級顯卡的難度與日俱增。

我們知道,AI大模型所需算力分為訓練和推理兩種,前者的要求更高一些;國內的現狀則是兩種算力都缺乏。

諷刺的是,前幾年國內發展云游戲期間,互聯網大廠和電信運營商均采購了一批英偉達Turing架構的顯卡用于架設RTX刀片服務器,這些顯卡可以用于AI推理;如果沒有云游戲,國內推理算力的瓶頸將更加嚴重。

中國游戲產業是一個任勞任怨的背鍋產業,誰都能來踩一腳,誰都能污名化,但是拯救所謂“硬科技”產業偏偏還得靠它!

即便如此,國內AI推理算力的供需關系仍然十分緊張。所以,過去一個月國產大模型的“降價”舉措,很大程度上僅僅是行為藝術罷了。尤其是對于B端客戶而言,無論大模型API的調用價格降到多低,關鍵在于能不能買到量。

現在的問題就是“有價無市”:只有極小規模的采購才能以“刊例價”執行,稍大規模的采購就必須找銷售人員單獨洽談并排隊,實際成交價格難以預料(肯定遠高于“刊例價”)。

不要說B端用戶,哪怕C端用戶也能感受到推理算力的緊張:國內的幾個最流行的AI大模型應用,免費用戶在高峰期幾乎一定會遇到需要排隊的狀況,必須充值或打賞才能加快進度。

要知道,目前國內主流生成式AI應用的DAU普遍只有幾百萬量級,推理算力就已經如此匱乏;如果真的出現上億DAU的AI超級應用,算力幾乎肯定是跟不上的——所以目前國內不可能出現這樣的超級應用。

(注:文心一言和通義千問均自稱累計用戶超過1億、每日API調用次數超過1億,但是與1億DAU還差很遠;豆包估計也差很遠。)

可以想象,比推理要求更高的訓練算力更加緊缺。

2024年2月,字節跳動在一篇論文當中公布了它于前一年9月組建的“萬卡集群”。遺憾的是,它是由1.2萬張(比較落后的)A100顯卡組成,而美國科技巨頭早已換上了由(更先進的)H100組成的“萬卡集群”,例如Meta的LLaMA-3就是由2.5萬張H100組成的集群訓練的;以亞馬遜為代表的云計算大廠正在積極轉向(更更先進的)B100及GB200算力集群。

A系列顯卡發布于2020年,當時芯片禁令尚未出臺,國內采購沒有多大障礙;H系列發布于2022年,芯片禁令已經出臺,但是國內仍然可以通過采購“專供版”(主要是H800)的方式繞過;B系列于2024年發布,此時繞過芯片禁令的途徑已經非常狹窄、朝不保夕。

長期、嚴重的算力瓶頸,給國內AI產業帶來了兩個深刻影響。

首先,算力緊缺意味著算力價格高昂(無論以自購顯卡還是租用的形式),國內所有大模型廠商的售價均無法覆蓋訓練+推理成本,有些甚至無法覆蓋邊際推理成本,賣一單虧一單(最近一波降價之后可能虧的更嚴重)。

其次,國內大部分算力集中在少量科技大廠手中,創業公司高度依賴它們,十分渴望它們以算力的方式投資入股。 結論就是大模型創業在國內是一門非常差的生意,遠遠比不上當年的移動互聯網創業。

下面我們不妨以問答的形式,進一步說明國內AI算力的現狀。

問題是市場上最關心的那些問題,回答則不是來自我本人,而是來自我在云計算和AI行業的信賴的朋友,我只是總結他們的答案罷了。

問:目前國內AI算力儲備及分布狀況大致如何?

答:先說訓練使用的“大卡”。

如果把A100-800、H100-800均算作“大卡”的話,那么國內的“大卡”儲備肯定超過六位數,甚至可能超過了20萬張。問題在于隨著技術進步,A系列已經很難再被視為“大卡”了。

如果按照扎克伯格所謂的“H100等效算力”,國內的儲備肯定不超過六位數,而僅僅Meta一家的“H100等效算力”就已經超過了30萬張,2024年底將突破65萬張,遠遠超過了國內所有大廠的算力儲備之和。

具體到算力分布,有兩個標準:第一是“掌握的算力”,第二是“能調用的算力”。

阿里這樣的云計算大廠掌握了巨大的算力,但其中很大一部分要出租給客戶,自家大模型訓練和推理能調用的算力未必有絕對優勢。

如果只計算“掌握的算力”,國內第一的無疑是阿里,其次是百度、字節跳動,騰訊可能更少一點。掌握一兩千張大卡的互聯網公司很多,因為內容推薦算法、自動駕駛訓練等環節都需要。

至于推理算力的分布就更加駁雜了。

上文提到過,云游戲使用的顯卡可以承擔一定的推理任務,目前國內的推理算力可能有很大一部分來自以前的云游戲算力。

問:怎么看AI算力的國產替代?

答:在訓練端難度極大,哪怕某些國產顯卡自稱其技術參數能達到A100的水平,它們也不具備NVlink互聯技術和CUDA開發環境,從而無法承擔大模型訓練使命。況且,A100是英偉達2020年發布的產品,在2024年“追上”前者四年前的水平并無先進性可言。

大模型不是原子彈,它是一種重視性價比的民用商品,使用非主流硬件開發出來的大模型可能毫無商業價值可言。但是在推理端,不是完全沒有可能,因為推理卡對NVlink和CUDA的依賴程度很小。

英偉達在推理端的城墻仍然很高,但是比起訓練端就要差了不少。

問題在于:推理算力的技術路線也在不斷變遷,技術變遷的領導者還是英偉達。假如有選擇的話,主流大廠肯定樂意采購英偉達的推理解決方案。國內廠商的問題是在芯片禁令之下沒有選擇,在推理端進行國產替代總歸比沒有強。

問:怎么看Groq以及國內某些廠商推出的“遠超英偉達”的推理卡?

答:在高度特化的技術路線下,確實有可能做出表觀技術遠超英偉達同期產品的推理卡——但是付出的代價是應用場景十分狹窄。這樣的顯卡不僅只勝任大模型推理,甚至可能僅勝任某一特定類型的推理。大廠建立數據中心需要考慮通用性以及后續升級需求,高度特化的顯卡無法滿足這些需求。

上面提到過,云游戲使用的顯卡可以用于推理,但高度特化的推理卡可以執行圖形渲染任務嗎?可以執行自動駕駛等非生成式的推理任務嗎?

而且,硅谷那些不差錢的大廠,現在流行以“大卡”同時執行訓練和推理任務:速度更快、更具靈活性、管理起來更方便。你的訓練任務在全年之中不是平均分布的,可能這三個月訓練消耗的算力多一些,接下來推理消耗的算力多一些,統一組建“大卡”集群有助于提升靈活性。

當然,這樣做不夠經濟,所以推理任務主要還是得由推理卡去執行。

我只是想說,英偉達在訓練端和推理端的護城河是相輔相成的,不是彼此孤立的。

問:繞過芯片禁令的可能性大嗎?目前大家的替代方案是什么?

答:很多人認為,芯片禁令可以以“非正?!笔侄卫@過。

但他們忽視了兩點:

第一,英偉達高端顯卡近年來一直供不應求,所以不存在龐大的二手及散貨市場,哪怕是海外大廠淘汰下來的顯卡一般也是內部發揮余熱。

第二,即便你能繞過英偉達官方銷售獲得一些顯卡,也無法獲得技術支持。

H系列和B系列訓練卡都不是單片出售的,而是以服務器(訓練機)為單位出售。B系列訓練機已經非常像高端數控機床這樣的高精尖設備,內部可以植入地理位置判斷系統,發現地理位置偏移之后可以自動停機。

所以無論在理論上還是實踐中,只要英偉達愿意認真執行芯片禁令,就是很難繞過的。

雖然英偉達肯定愿意多賣幾個客戶、開拓中國市場,但現在它的顯卡反正不愁賣,短期內也不可能主動承擔破壞禁令的風險。

當然,一切都是可以談的。

只要雙方都想認真做生意,拿出一些東西做交換,沒有什么生意是一定做不成的。關鍵看大家做生意的意愿有多強烈了!我們不能低估解決問題的難度——因為只有充分估計難度,才能站在現實角度解決問題。片面低估難度并裝做問題已經解決是不可取的,相信真正的從業者不會這樣做。

本文由人人都是產品經理作者【互聯網怪盜團】,微信公眾號:【互聯網怪盜團】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!