為什么ChatGPT能降價90%?產生的商業影響是什么?
在未來,ChatGPT的成本會下降嗎?它產生的商業影響是什么呢?語言模型與現存端口會如何結合?本文作者對這三個方面,分享了他的看法,希望能給你帶來一些啟發。
本文說三件事:
- 價格-90%背后是什么?
- 商業影響是什么?真的要全面AIGC了?
- 老調重彈,關注語言模型與現存交互端口的融合
一、成本下降猜測
結論在前:可以大膽地說,在未來,成本還會進一步下降,并且會令人難以想象。
1. 技術角度
技術優化一直在進行,2020年GPT-3發布的時候,單次訓練成本是460萬美元,而現在這個價格是140萬美元,約-70%。盡管這是訓練成本,而非推理(回答你的問題即推理)成本,但也能夠作為參考。
具體的技術優化產生在哪些方面,算法?模型結構?工程設計?定制GPU?任務調度?——不知道(我沒去搜哈哈)。但技術角度出發,成本會下降大家應該是不會懷疑的。
2. 商業角度
假設,你現在擁有全世界最領先的技術,拔劍四顧心茫然,寰球宇內一個能打的都沒有。那么你會:
- 趁著技術領先期,能賺就賺。
- 直接成本價售賣,圈用戶圈數據圈場景圈服務商(特別我還有個金主爸爸的情況下),數據飛輪給我跑出火花來!剩余參賽者全都給我撿我挑剩的少量數據。
我想這道選擇題應該不難做。
用另一個角度推理佐證:
- SaaS服務成本一般在20%
- 云服務成本在50%
- 即背靠微軟的OpenAI,其成本線恰好就是之前價格的十分之一
- 也就是說人家說不定還有余力進一步降價,目前這個價格只是讓渡了利潤,還沒算上技術點來的成本下降。(參考《ChatGPT背后的經濟賬》,深度好文,推薦搜索學習?。?/li>
那么降價90%就不難理解了,不管是技術成本優化還是商業成本優化,這場降價都必將發生(事后諸葛亮就是我了)。
3. 競爭角度
假設Google的產品出來了——面對勢如烈火的微軟,面對產生動搖的云客戶。他發布基本對標產品之外,在價格上會做什么設計呢?
假設3月16日百度出來了,再過一段時間阿里、字節、騰訊等有能力的都跟進了,那么他們在價格上會形成默契的卡特爾嗎?還是像當初百團大戰一樣,不得不陷入一場爭奪數據、客戶的囚徒困境?
好玩!刺激!曾經的免費打車、免費吃飯、免費騎單車似乎在向我招手了!
二、商業影響是什么
結論在前:有人狂喜有人沒那么喜,走一步看三步。
1. 獨立開發者狂喜
現在看似降價90%,但我更傾向這是一種商業行為促使的降價,即把LLM的成本和創業公司的費用成本拉到一條線(38000字/元)。
說白了這技術還是那么貴,只是我揮淚大甩賣,大公司和創業公司站一起奔跑。
Twitter一條令我印象深刻的評論是:“這下子我可以做那些掛廣告盈利的項目了”。
2. 創業公司不一定喜
因為以前也能這么低成本的,只是你不知道。
0.02美元的價格是最貴的Davinci模型(GPT3.5),而Curie模型比他弱一些也更便宜一些,價格是0.002美元——就是ChatGPT現在的價格。
所以很多以前用GPT-3的創業公司,他根本就是基于Curie,或Curie微調后的模型在跑的業務。這次降價對他們更多是效果提升而非成本下降。
而且!暫時我在官網上沒看到ChatGPT支持微調的說明(我沒找到),如果真的是這樣,一些創業公司應該正在難受——我是擁抱新模型呢?還是用現在這個微調過的舊模型將就一下?相信他們應該都在加班測試了。
3. 小模型公司風中飄揚
之前我認為LLM模型存在一些弊端,會提供給小模型公司一定的生存空間,具體包括:實時性(車載/直播等)、私有化(金融)、成本敏感(客服)、答案精確(金融)、道德控制(心理)等要求的場景還是會使用小模型。
實時性,有點崩,最新的ChatGPT接口,有人測試后發現,響應速度是之前的4倍(不嚴謹,未多方求證)。
成本敏感,暫時堅挺。對于客服來說,哪怕是目前的價格下降90%,仍然是扛不動的的價位——客服本來就是成本中心,多花任何一分錢都是困難的。不過一旦客服做upsell追加銷售額場景跑通,成本可能就不是問題了。
私有化,OpenAI暴露出了私有化計劃,一定程度上,這也不再是小模型公司獨有的優勢了。
只剩下答案精確、道德控制這兩個LLM模型天生的缺陷死死撐住。
我比較擔心在這樣狂暴的技術演進中,小模型公司如何面對日新月異的LLM模型能力升級(我朋友圈一位朋友說,舊模型剛跑通接上,就落伍了……),如何面對大廠們卷起來的價格戰?
跟還是不跟?怎么跟?這將是纏繞在小模型公司身上陰魂不散的魔咒。
4. 為什么走一步看三步
第一個原因前面提過,這個成本還會進一步下降——有一些業務你現在跑不通,或許等兩個月模式就能跑通了。
那么——你要提前下場嗎?還是等成本到尾再下場?一個典型的例子是AI繪畫領域,企業是在成本高昂時入場的,靠勉強盈虧平衡活下來,并收獲成本暴降后的紅利——順便還幸運地等來了ControlNet的二次升級,獲得了更大的商業空間。
第二個原因則與OpenAI的另一項猜測有關,有爆料稱OpenAI在預備開放支持32,000 token長度的模型——而上下文長度目前在最新的ChatGPT上是4096 token。更長的上下文可能使一些原本做不了的場景(例如長文本寫作)成為可能。
總之走一步,看三步,可能今天你覺得不行的場景,明天凌晨大洋彼岸一則公告就行了,時刻保持更新,時刻提前預判。
如果你想看全面的所有方向的解析,請看我的分析庫,因為每個方向我都要結合技術、商業做詳細分析,寫在文章里是徹頭徹尾的災難:重磅分享:40+ChatGPT商業項目庫開源分享(持續增加)
三、語言模型與現存端口的結合
這種結合依賴于多模態+Toolformer,詳情關注我上篇文章怎么風平浪靜的?多模態+Toolformer,這波還不原地起飛?
我曾經認為語言模型會成為新時代的虛擬終端,即你無論要做什么、要用什么,你都是首先經過他——因為他太好用了!你就像吩咐你的秘書去幫你做事情一樣。
但是我發現我錯了,人類終究是實體,要與虛擬終端交互離不開實體終端,什么是實體終端?手機、電腦、音箱、VR、手表等。
微軟發布多模態這篇論文可能不是沒有原因的,自從BING上的嘗試后,他現在一路脫韁野馬一般沖向瀏覽器和Windows。
你想象一個場景→ 你用著電腦,帶著耳機聽歌,在閱讀一篇商業報道。你對報道中提到的向量化數據庫這個陌生的單詞產生了疑問,你選中單詞,向耳機語音提問,這是什么?LLM在瀏覽器的側邊欄為你列舉了詳細說明?!@時你想找一下現在向量數據庫這個方向有多少從業者、市場空間怎么樣,但是你這篇文章剛讀到10%,你想繼續讀下去不想被打亂思緒?!谑悄闱昧讼露鷻C,對耳機里LLM說“幫我列一下向量數據庫的玩家是哪些,搜集一下相關的市場分析報告并總結好,下載到本地?!薄斈汩喿x到30%的時候,耳機叮咚一聲響,相關的分析和報告都下載好了,只等你閱讀完畢后前往桌面的文件夾“向量數據庫分析”中查看。
那么在未來,手機、電腦(其實就是Mac體系,window已經在搞了)、音箱、VR等多端聯合起來會發生什么呢?哪個端口敢于拒絕擁抱全新的人機交互范式呢?而這場擁抱又會催生出哪些復合應用呢?
我覺得在未來,互聯網陣營會圍繞脫穎而出的LLM廠商進行重新站隊重組——例如,假設蘋果自己做不出來,你說他是擁抱微軟還是擁抱Google呢?
新時代就要來了,不要只看到AIGC內容生成,也請看看這場顛覆式的交互革命吧!
本文由@馬丁的面包屑 原創發布于人人都是產品經理,未經許可,禁止轉載。
題圖來自 Unsplash,基于 CC0 協議
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
老哥666