“每天只睡5小時”,大模型在火熱落地中

0 評論 2204 瀏覽 5 收藏 20 分鐘

大模型落地的第一批“明白人”出現了。他們在馬不停蹄的實踐中尋找著訣竅;同時,大模型落地的成本已經開始下降。

中工互聯董事長智振,最近經常奔波于前往各地的高鐵上,見客戶、簽訂戰略合作、推進大模型落地,“比起一個月前更忙了”。

3月中旬,智振曾向數智前線分享自己的工作狀態——“一天就睡5小時,光戰略合作都忙不過來。今年的目標是面向能源等工業領域,落地至少幾百、上千個大模型項目?!?/p>

而這種忙碌狀態同樣存在于數智前線接觸的多位行業大模型落地服務商中。業界觀察,行業大模型,正在以一種意想不到的速度,加緊落地。

水面之上,或許仍舊平靜無波,但水面之下,早已激流暗涌?!艾F在大家還在水面下,下半年應該都會浮上來一些?!痹诮鹑谛袠I做大模型落地的寬客進化CTO王舸說。

一、“每周以10個項目的數量增長”

被業界視作“大模型落地元年”的2024年,剛過去4個月,已經涌現出火熱氛圍。

“去年,主要是試的人和看的人比較多,愿意付費的人很少?!痹茊柨萍悸摵蟿撌既塑鈧饔鸶嬖V數智前線,但今年,付費人群明顯多了起來。

一位行業人士觀察,以2024年春節開工后第一天,國資委召開“中央企業人工智能專題推進會”為風向標,大量央國企開始大面積尋找合適的業務場景,市場氛圍被迅速帶動,大模型服務商們接洽的項目也在快速增長。

“客戶現在熱情似火?!盇I智能化服務企業眾數信科創始人兼CEO吳炳坤說,去年,都是他們主動去找客戶,但今年元旦過后,已基本變成“被動接洽需求”。2024年一季度尚未結束,這家公司處在PoC、走合同、實施交付等不同環節的需求數已有上百個,遠高于去年10余家的量級,且每周在以10個的數量新增,“我們不得不開始篩選”。

寬客進化CTO王舸則透露,去年他們在大模型上幾乎沒有落地項目,但今年,他們已經簽約好幾個百萬級的合同,涉及金融、電力、運營商等多個行業。其中,一些相對淺層次的需求,如大模型與傳統標準作業流程的結合,目前落地相對良好,但一些更深層次的需求,如專家經驗與大模型結合,還處于初級階段,“這塊的項目現在正在研發階段,下半年可能會有一些落地案例出來。”

“圍繞市場熱點,主動找來的客戶也有不少?!蓖豸催M一步說,比如個性化寫作場景,又如一些企業提出,是否能將數據要素和大模型這兩個今年最為火熱的概念結合起來。“比如數據入表,數據分級、分類,數據怎么溯源,以及數據需求方在交易所進行數據交易時,怎么在成千上萬的數據產品中自動匹配需要的數據,這些都是大家在構想和探索是否能用上大模型的方向。”

“大模型的加持,對現在大熱的‘數據要素×’三年規劃來說,是一個巨大的催化劑,能讓很多客戶很快地感受到數據帶來的價值?!崩顺痹瓶偨浝眍伭琳f。

一些聚焦在更為垂直領域的大模型落地服務商,也明確感知到了變化。

云蝠智能創始人魏佳星告訴數智前線,他們主攻的基于大模型的智能客服業務線,今年比去年同期增長了30%的訂單。而且今年的增長要比去年更加穩定。“去年3月,受大模型熱度刺激,我們取得了不錯的增速,但很快又在4月回落,但今年4月,不僅維持住了3月的增勢,還繼續保持了增長?!?/p>

高新興機器人首席技術官劉彪則透露,機器人已成為大模型最快落地的領域之一。今年底左右,他們結合大模型的機器人產品將可能全面商業化。目前,在工業領域,高新興巡檢機器人在解決“跑冒滴漏”的難題,處于試用階段;在物業等場景的煙火檢測已商用落地。

而一些服務商,已經考慮規范化復制的問題。中工互聯董事長智振透露,今年開始,他們將過去一年探索出的能做的方向全都產品化了,“一旦產品化,推廣復制就會很快”。

吳炳坤也告訴數智前線,由于產品化,他們一些客戶的交付落地時間,已經從過去的三個月,縮短到半個月。而今年,這家公司的目標,也不再是要拿下多少個客戶,而是鎖定兩大行業、6個細分子行業,做15個標品化的產品出來。

“今年的大模型應用肯定會爆發,這個速度會比想象的要快得多。”智振說。

不過也有資深人士用“方興未艾”來形容大模型目前的落地勢頭?!敖衲晡覀兛吹胶芏囝^部企業都動了起來,但大多都還是一些單點的應用或幾個場景的組合?!币恍┤耸勘硎?,大家都在等待C端和B端的殺手級應用出現。

浪潮云CEO顏亮認為,從單點到全流程植入才能帶來質的變化,可能需要1~2年,其中關鍵是大模型要經過周期性迭代,才能達到可用。“最多兩年時間。競爭會促成大家的互相學習和投入,我們感知到,2024年用戶在大模型上的投入,是2023在3~4倍以上?!?/p>

二、“在定價上遇到了‘挫折’”

春節過后,百度智能云渠道生態部總經理陳之若他們發現一個現象,一些大模型服務商,在幫客戶做完PoC后,在定價上遇到了挫折。

“服務商起初自己也沒有概念,打個比方假設以前產品賣兩萬塊錢,加了大模型后定價三萬五,服務商覺得是比較合理的,因為我給你降本增效了,但客戶反饋‘效果不錯但貴’?!庇谑?,大家開始掰扯定價、交付和服務的事情。

這對于服務商來說,既是挑戰,也是一個積極信號,因為大模型開始邁出商業化的第一步了。

定價背后,也有關于ROI(投資回報率)的考量。

“客戶對于最終的產出物其核心關注的點就是ROI。”曹璽說。但大模型銷售的更多的是服務,看不見摸不著,客戶不容易算出ROI。

“這就需要服務商去幫客戶把ROI明確出來?!?/strong>軟通動力羅晟告訴數智前線。比如,給企業售后場景賦能。原來一個售后人員即使經過好幾天的培訓,想要精準找到每個產品的售后問題,也要花十幾分鐘。但現在有了大模型助手,可以秒級輔助他們找到問題。這對于客戶來說,就是一個ROI比較高突出的場景。

而曹璽介紹,當下ROI的測算需要拿效果說話有時甚至是較為直觀的計算。比如,工作效率的具體提升,獲新客戶與客戶轉化的量化、購買數字人的成本比對。

幾位行業人士談到了大模型替代員工的敏感問題?!拔覀儾⒉皇钦f,大模型能減掉他們多少人,而是減少員工一些程序性的事物,提高效率,去做更有價值的事?;蛘呖梢杂懈噘Y源做新業務?!币晃淮竽P头丈逃^察,他們遇到一家醫院科室主任抱怨,自己手下那么多博士,整天在辦公室寫病歷,根本接觸不到患者。他們就想解決這個問題。

三、大模型場景落地要“短平快”

場景的選擇,同樣考驗服務商的能力。吳炳坤告訴數智前線,過去一年間,行業內不乏“叫好不叫座”的情況?!按蠹业膱鼍靶枨蠛芏?,但都是在做PoC,真正要讓客戶愿意付錢,還有蠻大的門檻要邁過去?!?/p>

智振則總結,“一年能回本,客戶很容易接受;三五年回本,客戶就要考慮考慮;7年回本,肯定得政策強制要求了。”這要求他們必須首先找到投資回報高的點來做。

為此,不少服務商都會選擇小點切入的策略,快速形成閉環來看效果。

比如新致軟件,最開始實際是以咨詢師的身份,切入到膳魔師項目中,并在多輪溝通和探討中,發現了老板在了解公司運營情況時耗時過長的痛點。通過在工作群中引入數字人,收集對話素材,并進行模型微調后,實現對管理層需求的快速響應。

“原來一個數據報表的訴求,大概需要2~3周,現在可以縮短到一天。”曹璽告訴數智前線,這大大提升了管理層的決策效率。而在內部跑通幾個場景后,新致軟件又幫膳魔師進一步打通了外部場景,落地了to c的7×24小時的AI助理。

我們現在所有項目都是按‘短平快’的方式去做實施。我們會幫客戶把一個大的需求,切到一個個比較小的點,逐點試錯,逐點突破,而不是像以前做軟件一樣,一個項目做上半年一年,客戶才能看到效果?!辈墉t告訴數智前線,這樣既保證客戶能快速看到效果,也能根據客戶反饋,更快發現問題,“少走彎路”。

“你要知道客戶到底在做一門怎么樣的生意,他最想達到的是流量盤活、轉化率還是更精準的獲客?你要不斷的去了解客戶業務訴求,同時要不斷去做復盤和打磨?!辈墉t說。

眾數信科也在場景選擇上提出了“小切口、大縱深”的策略。而為了避免大模型前期落地效果與客戶預期之間因偏差而導致客戶中途放棄的情況,有經驗的大模型服務商,在鎖定某個場景后,還會主動降低客戶的心理預期。

中工互聯智振也告訴數智前線,大家現在的想法都是優先把一個點打透,然后再基于這些成功的經驗,做全鏈條的整合?!艾F在已經有客戶與我們做了兩年的規劃,一點一點來做?!敝钦裾f。

技術和服務的延續性也被重點強調?!拔医洺1粏柕?,大模型技術發展那么快,我們之前的選擇的大模型會不會過時?為它做的定制、數據標注會不會失效?”百度智能云AI與大數據總經理忻舟說。

吳炳坤也告訴數智前線,大模型迭代太快了,但企業內部又基本沒有專門的AI人才。這就要求服務商要形成一種新的思維——大模型時代的項目不再是交鑰匙工程,而是需要提供教練式的陪跑服務,“陪著客戶不斷優化它自有的模型”。

四、大模型落地成本在下降

企業一旦在某個場景驗證模型的價值后,第二步關心的就是如何降低成本。

“現在最常見的成本區間,主要有兩級?!睂捒瓦M化CTO王舸告訴數智前線,一些簡單應用,比如個性化寫作、在傳統BPM流程中串接大模型能力等,一般可以直接調用API,成本較低,二三十萬元即可實現落地。另一極則是一些需要與專家經驗深度綁定的項目,會有私有化部署要求,成本普遍在百萬元起,甚至四五百萬。

“二三十萬元的市場,今年會非常卷,而跟業務深度綁定的市場,是大家想做,但目前做起來還比較困難的市場?!蓖豸凑f,尤其是需要私有化的項目,算力會是一個比較大的困難。

實際上,為了解決算力難和成本過高的問題,業界目前已經探索了一些方法。比如,企業除了使用純私有化的模式,也可以選擇“公有云的私有化”模式,即在公有云上開一個私有化的環境,達到節省成本的目的。

“目前,像銀行等有著嚴格數據不出域要求的金融企業,基本都還是采用前一種私有化,而在零售、酒店和文旅等數據管控沒那么嚴格的行業,則有不少企業傾向于選用后一種模式?!毙轮萝浖墉t告訴數智前線。

算力不足的情況下,通過CPU進行推理,也被不少人視為一個可選方案?!?B以下的模型,一般的推理場景,CPU目前是能夠滿足的。模型再大一點,30B~70B,速度會明顯變慢,但一些不需要實時交互的場景,CPU也是一個比較好的解決方案?!蓖豸凑f。

更重要的是,模型輕量化的趨勢,以及MoE概念的火熱,也降低了企業客戶對算力資源的訴求。

可以看到,通用大模型參數雖然已從上千億走到萬億級,但具體到行業落地上,卻不是參數規模越大越好。在海外,Meta發布的Llama系列模型,從70億、130億、330億到700億不等。在國內,百度、阿里、百川等都發布輕量級大模型。

“很多場景其實并不需要全知全能的能力,而是需要一個行業專家來解決一些專業的問題?!眳潜ふf。根據他的經驗,在很多垂類場景中,通過剪枝蒸餾等手段,壓縮出一個百億級的基礎模型,最大程度保留行業通識和能力,再結合企業的私有數據,也能實現千億級的效果,推理成本更低,使用也更簡單,是目前企業歡迎的做法。

“在行業中,我們認為7B-70B性價比最佳。”浪潮云CEO顏亮透露。

吳炳坤告訴數智前線,通過模型輕量化,他們已將包含算力、模型、應用等在內的落地成本做到幾十萬到小一兩百萬元的成本。這也是不少中腰部企業普遍能接受的價格區間。智振則透露,現在做大模型私有化部署,成本已降到百萬元起,一些小的嵌入式產品,比如1.6B參數、能放到一臺單機上的模型,甚至可以做到5萬元起。

一些企業探索MoE(混合專家系統),以實現用更合適的性價比。MoE的全稱是Mixture of Experts,被認為十分符合人類社會的分工概念,它通過“專家+路由”的機制,將不同問題交給對應領域的專家來解決,理論上能在算力成本不增加的前提下,顯著提升Transformer模型的性能。

去年年中,GPT-4曾一度被傳由8或16個MoE構成,這一概念隨之在業內引起關注。幾天前,騰訊混元宣布完成架構升級到MoE。

智振告訴數智前線,大模型會和第二次工業革命中興起的電器一樣,“最終并非一個電器通用,而是會涌現出各種各樣的電器,從燈泡到電飯煲,它只會取決于不同場景下怎么樣的性價比最高,怎么樣的功能最強,客戶接受度最高。”

李彥宏則在此前的一場演講中指出,未來大型的AI原生應用基本都是 MoE 架構。

值得關注的是,多位業內人士告訴數智前線,MoE目前仍處于發展早期,還存在不少挑戰。一些人士認為,它的技術復雜性太高,投入產出比不太匹配。也有人士表示,MoE需要資源較多,在響應速度和算力占用方面還有較大提升空間。

過去半年,大模型的技術進步速度極快,也推動行業落地的大潮在快速演進。

作者:周享玥,趙艷秋????????????;編輯:?;????

來源公眾號:數智前線(ID:szqx1991),關注數字化和智能化。

本文由人人都是產品經理合作媒體 @數智前線 授權發布,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!