「豆包」拉低價格線 全球大模型開卷性價比

0 評論 923 瀏覽 2 收藏 8 分鐘

豆包大模型將大模型用價拉至行業新低,國內各大模型廠商紛紛跟進降價,百模大戰也隨著集體降價進入了新階段。

大模型也開始打起價格戰。

5月15日,字節跳動旗下火山引擎發布豆包大模型,除了針對C端用戶的豆包APP可免費使用該模型的應用外,豆包大模型將B端用價拉至行業最低。

按照火山引擎總裁譚待的說法,豆包主力模型(≤32K)在企業市場的定價只有0.0008元/千Tokens,0.8厘就能處理1500多個漢字,比行業便宜99.3%。

豆包以高性價比亮相之前,通義千問、智普AI、DeepSeek等國內很多大模型都開始“卷”起價格,百模大戰也隨著集體降價進入了新階段。正如譚待所說,降低成本是推動大模型快進到“價值創造階段”的一個關鍵因素。

一、「豆包」將B端用價拉至行業新低

豆包大模型的前身是云雀大模型,也是2023年8月字節跳動旗下發布的首個基于Transformer架構的大模型。半年后,豆包大模型不僅出了全家桶,還將針對行業B端用戶降價。

豆包主力模型在企業市場的定價只有0.0008元/千Tokens,0.8厘就能處理1500多個漢字,比行業便宜99.3%。據此計算,1塊錢就能買到豆包主力模型的125萬Tokens的用量,大約為200萬個漢字,相當于三本《三國演義》。而128K的豆包通用模型也只需要0.005元/千Tokens,比行業價格低95.8%。

要知道GPT-4 Turbo 輸入1000 Tokens為0.01美元,輸出1000 Tokens價格為0.21元。相比之下,字節跳動直接把價格“打骨折”,堪稱AI界的拼多多。

不止“豆包”,國內不少大模型都在降價。

不久前,百度發布了文心大模型輕量版,其中ERNIE Tiny版本的價格降到了0.001元每千Tokens,相當于1元100萬Tokens。

今年5月,智譜AI的大模型商用價格也大幅降價。入門級產品GLM-3 Turbo模型調用價格下調80%,從5元/百萬Tokens降至1元/百萬Tokens,足以讓更多企業和個人都能用上這款入門級產品。

智譜AI的大模型的價格

5月6日,國內知名私募巨頭幻方量化旗下的AI公司DeepSeek發布全新第二代MoE大模型DeepSeek-V2,DeepSeek-V2 API定價為每百萬Tokens輸入1元、輸出2元(32K上下文)。

5月9日,阿里云正式發布通義千問2.5,根據OpenCompass的測評結果,通義千問2.5得分追平GPT-4 Turbo,與此同時,個人用戶可從App、官網和小程序免費使用。

5月14日,騰訊的混元文生圖大模型直接開源,免費商用。

在海外,OpenAI剛剛發布的GPT-4o也大幅度降價,不僅供所有用戶免費使用,在API調用方面也比去年11月發布的GPT-4-turbo降價一半,但速度提升兩倍。這是OpenAI大模型產品的第三次降價。

法國人工智能企業Mistral AI大模型Mistral Large的輸入、輸出價格目前也比GPT-4 Turbo便宜約20%,一度引起廣泛關注。

無論國內還是海外,大模型正在集體降價。

二、大模型降本,應用落地增效??

各個廠商“價格戰”已經開打,而在大半年前,人們獲知的常識是大模型訓練很燒錢,為何僅僅半年時間,廠商們就能將價格“打下來”、紛紛卷了起來?

火山引擎總裁譚待認為,降低成本是推動大模型快進到“價值創造階段”的一個關鍵因素。對于中小型企業客戶而言,調用大模型的一個重要考慮就是成本。譚待透露,字節跳動在模型結構、訓練、生產等各種技術層面有很多優化手段能夠實現降價。

OpenAI CEO Sam Altman也為人們不用在ChatGPT上看廣告就能使用它而感到驕傲, “我們的一個關鍵使命就是將AI產品免費提供給人們?!?/p>

的確,低價正在幫助大模型研發企業抓住市場機會,以占據一席之地。而用戶體量的增加也能反過來幫助研發訓練出更好模型。那么,大模型的訓練成本真的降低了嗎?

去年GPT-4發布時,Sam Altman曾透露,OpenAI 最大模型的訓練成本“遠遠超過了5000萬美元”。據斯坦福大學發布的《2024年人工智能指數報告》估算,OpenAI的GPT-4訓練成本為7800萬美元。

高昂的大模型訓練成本也直接推高的使用費用,直接將很多企業用戶阻攔在外。

不過,研究人員們正在尋找更低成本的訓練方法。去年,新加坡國立大學和清華大學的研究者提出了一個名為 VPGTrans 框架,以極低成本訓練高性能多模態大模型,相比于從頭訓練視覺模塊,VPGTrans 框架可以將 BLIP-2 FlanT5-XXL 的訓練開銷從 19000 +人民幣縮減到不到1000元。

國產大模型中,研發人員也各個方面找到降本增效的辦法。DeepSeek-V2提升數據集質量、優化架構后,AI異構計算平臺“百舸”將訓練和推理場景的吞吐量最高提升30%和60%。

除了訓練過程外,一些大模型訓練的基礎設施——芯片也在降價,比如英偉達AI芯片Nvidia A100的降價直接將大模型訓練成本降低了約60%。

大模型價格戰最直接的影響就是應用落地開始提速。豆包平臺上,已經有超過800萬個智能體被創建。GPT Store已有超過300萬個依托GPT模型的APP被創建。

僅半年時間,砸錢拼大模型性能的時代似乎已經是過去式?,F如今,市場用戶也隨著各家大模型的降價更看重誰家大模型又實惠又好用。這將推動大模型應用更快在場景和商業上實現落地。

本文由人人都是產品經理作者【元宇宙日爆】,微信公眾號:【元宇宙日爆】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!