國內(nèi)大語言模型產(chǎn)品的7個問題-六小龍or六條蟲?

1 評論 913 瀏覽 1 收藏 12 分鐘

在AI領域,被譽為“六小龍”的六家初創(chuàng)公司正面臨著多重挑戰(zhàn)。從尋找新的創(chuàng)新源泉,到解決內(nèi)容幻覺、知識融合難題,再到價值觀的重塑和產(chǎn)品方向的探索,這些公司正處于一個充滿機遇與挑戰(zhàn)的階段。本文將深入探討這些問題,并展望AI技術的未來發(fā)展趨勢,希望能為讀者提供一些有價值的思考和啟示。

目前零一萬物、百川智能、智譜AI、月之暗面、Minimax和階躍星辰被稱為X小龍。

另外在國內(nèi)大模型公司中,一直有著“X小龍”的說法,有說四小龍的,也有說六小龍的,還有說六小虎的。

目前的AI六小龍主要指的是在AI領域表現(xiàn)突出的六家初創(chuàng)公司,包括零一萬物、MiniMax、百川智能、智譜AI、階躍星辰、月之暗面

問題一 迷茫:無師可偷

之前2022年年底從GPT-3.5開始,大家開始是篩選掉第一批調(diào)用GPTAPI接口封裝為自家模型并號稱大模型的公司。

到GPT-4開始篩選掉一批基于LLAMA等開源模型做調(diào)優(yōu)的并號稱大模型的公司。

到GPT-4o發(fā)布至今半年多過去了,偷感十足的大模型公司在等著GPT-5的發(fā)布,GPT-5產(chǎn)品遲遲不再發(fā)布,導致無師可偷。

六小虎也好,六小龍也好至少是有部署過預訓練的,可能內(nèi)核必然借鑒了Transformer的架構(gòu)和數(shù)據(jù)輸入和生成方式,但是六小龍是國內(nèi)除了BAT之外不僅做了調(diào)優(yōu)API調(diào)用,還是做了預訓練的,預訓練的成本大家都懂:巨貴。

問題二 錯位:內(nèi)容幻覺

六小龍大模型雖然在寫作、推理、規(guī)劃、數(shù)學、代碼等諸多領域都展現(xiàn)出了強大甚至比肩人類的能力,卻經(jīng)常出現(xiàn)內(nèi)容幻覺、價值觀錯位、歧視偏見等問題。

我懷疑或者說可以肯定六小龍的大模型產(chǎn)品沒有研究過大模型內(nèi)部語言和知識機理。對他們來說大模型仍然是一個黑箱。

一評測的時候貌似得分都很高,其實評測數(shù)據(jù)是從外部行為評估大模型的能力,容易受到數(shù)據(jù)選擇、指標設計、提示方案等因素的影響。

對六小龍的產(chǎn)品團隊來說大規(guī)模參數(shù)化表征以及核心過程(如預訓練、指令微調(diào)、人 類反饋強化學習)的復雜動態(tài)特性仍然是個謎。

問題三: 復雜:知識融合

大模型難以理解復雜的知識結(jié)構(gòu),如實體、關系、事件和概念以及其間的復雜關系;同樣的知識可以通過不同語言形式表達,大模型也難以處理。在知識不完整性方 面,大模型要能夠利用外部資源,并與內(nèi)部參數(shù)化知識進行整合。

這就需要對大模型獲取外部資源、 利用自身大模型中知識以及處理語言模型內(nèi)知識與外部知識沖突能力進行系統(tǒng)評測。目前評測表明, 大模型在外部知識獲取、利用和內(nèi)外部沖突知識處理方面存在挑戰(zhàn)。

大模型在知識數(shù)據(jù)存儲、調(diào)用、融合,在知識結(jié)構(gòu)的多源性、知識對齊上有太多的時間需要產(chǎn)品補充上。

問題四:三觀:價值重塑

大語言模型不是傳統(tǒng)的搜索引擎,以前的搜索引擎是根據(jù)提問,搜索出來一系列經(jīng)過排序的網(wǎng)頁,不會想大模型給予直接的結(jié)果,在大模型時候,假如不加思索的采用生成的內(nèi)容,很可能出現(xiàn)三觀不正確的問題。

問題五:涌現(xiàn):遠離AGI

用戶從一開始對大模型的期待是AGI,產(chǎn)生智能涌現(xiàn)??梢酝瓿蛇^去需要不同專用小模型才能完成的多種任務,呈現(xiàn)出與人類通用智能相似的功能。

目前六小龍普遍沒有這類產(chǎn)品出現(xiàn)過。

國際上有些團隊在這一領域探索稍微提前一些,例如, 斯坦福大學團隊 2023 年 4 月推出一個虛擬小鎮(zhèn),構(gòu)建了 25 個大模型驅(qū)動的智能體,擁有不同個性的智能體,在小鎮(zhèn)中自由生活、工作和社交; 從而研發(fā)出大模型的自然語言交互能力使之發(fā)生在機器和機器之間,作為信息交流的工具和重要載體。

問題六:分裂:理強文弱

目前六小龍的團隊核心以算法工程技術人員為主,不懂計算機技術的人在團隊比較難混,例如:不懂K8S在基礎數(shù)據(jù)輸入層可能就難以作為主程核心,不懂Transformer架構(gòu),層,在模型架構(gòu)階段可能會被避之門外。

實際上對用戶來說用戶輸入中文生成的圖就是沒有輸入英文來的準確,請問六小龍你們?yōu)樯叮?/p>

其中有一個非常重要的原因我分析是:中文語料數(shù)據(jù)集比較少,導致大模型訓練樣本質(zhì)量不夠高、規(guī)模不夠大 。

構(gòu)建更高質(zhì)量,更大規(guī)模的中文語言資源庫,需要發(fā)揮文科特別是語言學科的優(yōu)勢。

問題七:產(chǎn)品:不動腦子

先看一下六小龍的產(chǎn)品如下圖:

1、萬知,零一萬物

假如不說是零一萬物的產(chǎn)品,可能很多朋友不知道有這個大模型產(chǎn)品。假如零一萬物不是李開復老師的大模型,可能會被罵的很差。打開萬知網(wǎng)站,我也不知道為何要用萬只?萬只的產(chǎn)品能否告訴我這個產(chǎn)品有什么特長和差異化?

2、百小應,百川智能

百小應選的賽道是熱門賽道,搜索,但是這個產(chǎn)品得等百川智能突破以上7個問題,才能是一個好的產(chǎn)品。

目前的百小應,應用主要問題解決傳統(tǒng)搜索問題還沒解決,產(chǎn)品去引導要下載APP了,有點急了。

3、智譜AI,智譜清言

智譜清言看著框架結(jié)構(gòu)跟ChatGPT產(chǎn)品像。當你用了以后,你會認可日久見模心,該用誰,誰好用自見分享,建議大家比較一下,大家愿意比較即是壓力也應該是產(chǎn)品團隊的動力。

4、kimi 月之暗面

這款產(chǎn)品自從營銷之后模型就貌似停止進步了,在其宣傳超長上下文,創(chuàng)始人是否套現(xiàn)風波之前,我每次阿里巴巴邀請給淘寶教育講課的時候,我會介紹一下這款產(chǎn)品,當時ChatGPT讀數(shù)據(jù)一是不合規(guī),二是調(diào)用也很貴,所以用Kimi幫助閱讀PDF提煉摘要還挺方便的,請問kimi產(chǎn)品這一年了kimi產(chǎn)品又有哪些進步?

5、MiniMax

MiniMax海螺的產(chǎn)品團隊可能末尾淘汰制,目前能看到海螺的產(chǎn)品團隊求生欲比較強,再積極的迭代。

產(chǎn)品整合了音樂生成、視頻生成、文生文、再突破需要產(chǎn)品有創(chuàng)新的應用了。

6、躍問:階躍星辰

這款產(chǎn)品寫文章的時候第一次用,先不點評,大家自行比較

從PC互聯(lián)網(wǎng)到移動互聯(lián)網(wǎng)再到AIGC,我做過的產(chǎn)品不下數(shù)十款,正是對這些產(chǎn)品的全情投入,形成了產(chǎn)品感,就像現(xiàn)在流行的偷感,很刺激當你形成產(chǎn)品感,你大概率能夠感知一款產(chǎn)品的未來會如何。

早些年PC時代你能夠通過一款產(chǎn)品得前端就能看到這家公司的組織結(jié)構(gòu),例如2019年你看天貓,上面的母嬰模塊,女裝模塊,箱包模塊,其實其產(chǎn)品就是對應其組織團隊的劃分的,組織團隊進而也決定其產(chǎn)品得價值。

后面到移動互聯(lián)網(wǎng),字節(jié)跳動、美團、大家能夠看到前者給用戶提供了完美的上癮模型,后者給用戶解決點外賣的痛點。

到移動互聯(lián)網(wǎng)至少產(chǎn)品經(jīng)理還在干人事,還在思考用戶需求,用戶的痛點是什么,如何設計產(chǎn)品去解決這些痛點。

可能AIGC前半程產(chǎn)品經(jīng)理忘記了這些,也可能本來還不夠?qū)I(yè),相信下半場AIGC無論是大模型基礎模型產(chǎn)品還是業(yè)務應用型大模型產(chǎn)品,將會快速的回歸用戶、回歸客戶的本質(zhì)。

本文不是將六小龍說成六跳蟲,意在一起去找到AIGC的產(chǎn)品價值、用戶價值、市場客戶價值。

專欄作家

連詩路AI產(chǎn)品,公眾號:連詩路AI產(chǎn)品。人人都是產(chǎn)品經(jīng)理專欄作家,《產(chǎn)品進化論:AI+時代產(chǎn)品經(jīng)理的思維方法》一書作者,前阿里產(chǎn)品專家,希望與創(chuàng)業(yè)者多多交流。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于CC0協(xié)議

該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務。

更多精彩內(nèi)容,請關注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 不得不說AI極大可能就是下一個風口,盡管只是起步就已經(jīng)展現(xiàn)了其強大的能力。

    來自廣東 回復