這屆618巨頭爭當“全網最低”大模型,免費背后有何算盤?

0 評論 496 瀏覽 1 收藏 13 分鐘

這屆618,不僅電商平臺之間打得火熱,大模型廠商之間的低價之爭也打響了,多家大模型紛紛選擇降價。如何做出進一步的解讀?一起來看看本文的分享。

這屆618的價格戰是大模型打響的。

字節跳動打前陣,BAT前后腳跟進,主力模型降價97%,百萬tokens低至1元,大模型卷至“厘時代”,免費,全面免費,永久免費……堪稱炸場級別的降價力度已經許久未見,像是重演“百團大戰”“O2O混戰”“網約車補貼大戰”“云項目1元中標”似的,點燃了行業的戰火。

一、8家大模型集體降價

字節跳動和BAT集體入局大模型價格戰。據《IT時報》不完全統計,5月以來,已有8家國內外大模型宣布大降價,包括幻方量化、智譜、GPT-4o、字節豆包、阿里通義千問、百度文心一言、騰訊混元和科大訊飛星火等。

5月15日,字節跳動挑起大模型價格戰,豆包通用模型pro-32k版輸入價格降至0.0008元/千tokens,豆包通用模型pro-128k版輸入價格降至0.005元/千tokens。這意味著,1元就能買到豆包主力模型的125萬tokens,大約是200萬個漢字,相當于3本《三國演義》。

大模型通常以“元/千tokens”為計費單元,字節豆包將以分為單位的使用成本,直接打到了以厘為單位,真正挑起了價格戰。

阿里和百度在5月21日前后腳跟進,阿里通義千問GPT-4級主力模型Qwen-Long的輸入價格降至0.0005元/千tokens,直降97%,降價后約為GPT-4價格的1/400,擊穿全球底價。這意味著,1元就能買到200萬tokens,相當于5本《新華字典》。百度文心一言則直接宣布兩大主力模型全面免費且立即生效,分別為今年3月推出的輕量級大模型ERNIE Speed和ERNIE Lite,支持8k和128k上下文長度。

5月22日,騰訊混元大模型全面降價,主力模型之一混元-lite模型價格從0.008元/千tokens調整為全面免費,API輸入輸出總長度計劃從目前的4k升級為256k?;煸?standard、具備處理超38萬字符超長文本能力的混元-standard-256k以及最高配置萬億參數模型混元-pro三款大模型的API輸入輸出價格全面降低,最大降價幅度為87.5%。

同一天,科大訊飛推出業界首個“永久免費”的大模型——星火大模型lite,頂配版訊飛星火Max API價格則低至0.21元/萬tokens,相比較而言,百度文心一言ERNIE4.0和阿里通義千問Qwen-Max 的定價為1.2元/萬tokens,訊飛星火頂配版只為百度、阿里的五分之一。

真正讓國內大模型神經緊張的是,OpenAI從2023年年初至今,已經進行了4次降價,5月13日發布的GPT-4o不僅實現了性能躍升,價格也下降了50%。

二、巨頭燒錢換數據

“當前大模型的定價已經沒辦法覆蓋成本,但大模型廠商為何還要降價?主要目的是為了收集數據。”在主攻AI Agent的瀾碼科技CEO周健看來,GPT-4o的策略是對公眾免費,對開發者收費降低一半,讓公眾多用,從而收集多輪對話等交互數據,這比靜態數據更能快速提高模型能力,而國產大模型也同樣處于“燒錢換數據”的階段。

以往,LLM類的大模型沒有時間概念,但GPT-4o已經解決短時記憶問題,能在對話中感知情緒、跟隨指令或被人打斷,可以用不同情緒的語音講故事,不過長時記憶能力和社會智能還是不夠。

周健打了一個比方,即使GPT-4o像愛因斯坦一樣聰明,它也不能勝任一家上市公司的CFO,因為這個角色需要強大的長時記憶,根據不同溝通總結和分析整個公司的組織結構、權力結構等,所以它現階段還是一個“缸中之腦”。

除了對公眾免費以外,OpenAI還在用硬件來收集線下銷售、獵頭等與客戶交流的數據。發布GPT-4o后,OpenAI與美國知名論壇、美股散戶大本營Reddit合作,收集社區內容來訓練大模型。所以,收集這些真實動態數據的目的,是為了讓大模型變得更像人,可以多輪對話、長時記憶、熟知社會交往邏輯。

在上海人工智能研究院高級研發經理徐弘毅看來,大模型打下市場的關鍵也是數據。當前,大模型的競爭已從算力過渡到優質數據,優質的中文數據十分稀缺,而動態交互數據更顯重要。

中文教科書只有英文的十分之一,中文的靜態知識數據閉環天然弱于英文,所以只能從動態數據上實現量的突破,只有讓真實的人來用,才能收集動態數據。另外,全球70%的數據僅停留在免費公開數據集的層面,要想讓大模型掌握專業知識,只能不斷吸引各行各業的開發者注入垂直領域的數據集。

低價,無疑是最好的吸引方式。當然,前提是保證相同的質量甚至更快的速度。從去年的GPT-4到今年的GPT-4o,第一個token響應速度快了6倍,但調取價格便宜了12倍。國外廠商以速度博眼球,而國內廠商以價格博市場。不過,也有業內人士和媒體質疑,大模型廠商拋開并發量談價格“并不科學”,如果不能支持高并發量,就無法保證輸出速度和質量。

“大模型集體降價不僅僅是市場策略,更是拐點到來的信號。”曾負責國內首個基于時空數據信用債風險模型的北京市特聘專家楊曉靜認為,大模型集體降價的原因有三:首先是基于統籌補貼等政策,云、算力芯片等成本降低帶來了技術紅利;其次是大模型廠商對規模增長的信心,2024年初,每天國內所有大模型的API調用量不超過1億次,但預計今年底將有100倍增長;最后是吸引開發者,從而快速向千行百業覆蓋,而目前國內AIGC的用戶滲透率僅為6%左右。

“字節想通過豆包大模型推火山引擎和云服務,實際上,視頻等內容才是掘金之處。”楊曉靜也認為,云、算力、大模型、內容、數據是一條鏈條,打通后就能形成一個生態閉環,這也是巨頭燒錢換數據的內在邏輯。

三、價格戰或向C端傳導

“百模大戰”真正進入實戰階段,據《IT時報》記者觀察,此次降價的主體是文本大模型,主要面向開發者和企業,還未傳導至C端用戶層面。下一階段,國內大模型可能會迎來C端用戶層面和多模態大模型的降價。讓C端用戶用得起甚至免費用,從而讓大模型變得越來越好用。

在國外,OpenAI以性能優勢幾乎形成了壟斷。OpenAI最新推出的多模態大模型GPT-4o目前僅開放了文本和圖像功能,但未來將向C端用戶全部免費開放。并支持語音和視頻的輸入輸出。

GPT-4o演示

當前,若要在ChatGPT上體驗 Plus版本,仍要升級到19.99美元/月的會員。據應用智能公司Appfigures統計,ChatGPT的App凈收入在GPT-4o發布當天躍升22%,5月21日的凈收入達到90萬美元,接近該應用日均收入的兩倍。

“國內大模型競爭越發激烈,在沒有決出絕對勝出者之前,降價趨勢不會停止,甚至是指數級下降?!敝芙≌J為。

楊曉靜也認為,海量用戶和龐大的消費者市場還將加速成本下降。

價格戰的背后,是中國大模型想要抓住數據和場景的紅利,縮短甚至超越美國的大模型發展速度。數據為核、場景牽引是中國在移動互聯網、5G彎道超車的“制勝法寶”,那在大模型時代,這條反超路徑是否依然可行?

2024年被認為是大模型商業化落地的元年。IDC預測,2026年中國AI大模型市場規模將達到211億美元,人工智能將進入大規模落地應用關鍵期。據徐弘毅的觀察,國內大模型更傾向于深入應用場景這條路徑,靠業務打下基礎。

中美的大模型發展差距一直存在爭議,有人說差距是一年半,也有人說是半年。近期,斯坦福大學發布的《2024人工智能指數報告》顯示,2023年發布的全球149個知名大模型中,美國占61款,中國占15款,據世界第二,追趕速度較快。而中國的人工智能專利數量占60%,領先其他國家。

想要縮短中美大模型發展差距,中國大模型還得要靠應用場景取勝。

降價,會直接調動企業使用大模型的積極性。根據以往開發信用債風險模型和智能投顧的經驗,楊曉靜做了一個測算,2005年至2022年18年間,A股市場中累積了82.5萬份券商公司類研報,若每份以1萬字計算,整體約85億字,相當于3.4億個tokens。做智能投研大模型的開發者,如果原先通用大模型的價格來調取API,一次需要花費3.4萬元,現在只需要花費1700元。

據楊曉靜判斷,在金融領域,智能客服這個剛需領域將最快看到AI的注入和降價的影響,調用成本降低后,服務的用戶規模也將快速提升。

此外,中國是全球最大的工業機器人安裝國,安裝量占全球50%,中國AI大模型企業應該抓住工業化升級的時機?!癆I服務要變得像水電一樣易用易得,像5G一樣泛在化,才能像5G一樣彎道超車,實現全球引領?!睏顣造o說道。

本文由人人都是產品經理作者【IT時報】,微信公眾號:【IT時報】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!