大模型真的在吞噬人類的一切數據嗎?

0 評論 1310 瀏覽 1 收藏 23 分鐘

隨著大模型對數據的大量需求,人們開始擔憂數據資源是否會被耗盡。本文將探討大模型是否真的在吞噬人類的一切數據,以及這一現象對AI未來發展的潛在影響。

在弗蘭克·赫伯特的《沙丘》中,沙漠星球厄拉科斯的沙丘下隱藏著一種無價之寶:香料。

這種神秘物質使太空旅行成為可能,能延長壽命,并具有擴展意識的效果,是宇宙中最寶貴的財富?!罢l控制了香料,誰就控制了宇宙”。正如香料在《沙丘》宇宙中占據著至關重要的地位一樣,在當今的生成式人工智能時代,數據也承載著類似角色。

就像《沙丘》中對香料的爭奪,現實世界里各方勢力也在為數據資源展開激烈角逐。海量的數據如同埋藏在數字世界沙丘下的“香料”,蘊藏著難以估量的價值。而那些能夠高效采集、管理和利用數據的企業,就像小說中控制香料的勢力,在這場數據爭奪戰中占據著優勢地位。

如同香料在《沙丘》宇宙中的供應并不是無限的如果開采過度或生態系統受到破壞,香料的產量可能會大幅減少甚至耗盡,數據也可能被耗盡。根據非營利研究機構Epoch AI的最新論文,大語言模型會在2028年耗盡互聯網文本數據。

大模型真的在吞噬人類的一切數據嗎?我們是否正處在一個看似無盡的數字香料狂潮中,不斷地向這些饑渴的大模型提供養分?

預計在未來幾年內可能會耗盡現有的公共文本數據存量

人類生成的數據量有限,一旦這些文本數據被耗盡,可能會成為約束語言模型繼續擴展的主要瓶頸。相關論文認為,語言模型將在2026年到2032年之間利用完這些數據,但如果考慮到利潤最大化,過度訓練數據可能會導致數據在2025年就被用完。

月之暗面創始人楊植麟也在近期表達了類似觀點,他認為大模型通向AGI最大的挑戰是數據。楊植麟表示,“假設你想最后做一個比人類更好的AI,但可能根本不存在這樣的數據,因為現在所有的數據都是人產生的。所以最大的問題是怎么解決這些比較稀缺、甚至一些不存在的數據?!?/p>

根據Epoch研究員Pablo Villalobos的觀點,OpenAI在訓練GPT-4時使用了大約1200萬個token,GPT-5需要60到100萬億個token才能跟上預期的增長。關鍵在于即使用盡互聯網上所有可能的高質量數,仍然需要10萬到20萬億token,甚至更多。

面對如此龐大的數據需求,合成數據也是一個學術界和產業界都在嘗試的重要方向。合成數據基于現有數據進行擴充,這種能力對未來的訓練數據規模至關重要。不過,用AI生成的數據進行訓練也存在一些局限性,例如可能導致模型崩潰等問題。

目前,大模型廠商主要從網絡上抓取科學論文、新聞文章、維基百科等公開信息來訓練模型。從長遠來看,僅依靠新聞文章和社交媒體等內容可能無法維持人工智能的發展需求。這可能迫使企業開始利用一些敏感的私有數據,如電子郵件、聊天記錄等,或不得不依賴于聊天機器人自身生成的質量不高的數據。

一、數據不夠用是“杞人憂天”?

沒有數據就無法訓練大語言模型,但數據真的不夠用了嗎?對于這一問題,也有人持有不一樣的觀點。

星環科技孫元浩認為,這是一個“假新聞的判斷”。在他看來,除了現有互聯網的存量數據,各個企業內部還有大量的數據沒有被利用,“現在數據多到遠遠超過模型可以處理的量”。

“大模型結構和訓練方法都不是秘密了,而語料散落在各種地方,需要把現有語料整理起來訓練或微調模型,工作量非常巨大,這是目前最大的挑戰?!睂O元浩告訴硅星人。

其中的一個重要問題,是數據處理范式從結構化數據到非結構化數據的轉變。結構化數據,例如數據庫中的表格數據,有明確的字段和格式,易于存儲和查詢。而文本文檔、合同協議、教材等非結構化數據,雖然包含豐富的信息和知識,但由于缺乏統一的格式,難以直接存儲和檢索,企業內部的非結構化數據往往也需要更專業的數據標注處理。

為此,星環試圖通過提供包括語料處理、模型訓練、知識庫建設在內的工具鏈,提升企業的數據處理能力?!拔覀円庾R到不可能一個模型通曉各個領域,企業核心機密是不可能讓你知道的,我們定位為提供工具幫你做訓練,你自己煉一個模型?!?/p>

挖掘企業內部數據重要性的另外一個例證是摩根大通擁有150PB的專有數據集,而GPT-4僅在不到1PB的數據上訓練。不過兩者的數據在質量、類型和用途上存在顯著差異。大模型面臨的挑戰主要在于獲取高質量、多樣化且合法可用的訓練數據,而非簡單的數據量不足。

對于“數據荒”,數據服務商景聯文科技創始人劉云濤也表達了類似觀點?!拔覀儸F在真實數據都來不及處理,數據不夠是杞人憂天了?!彼蚬栊侨吮硎?,“我預估洗完之后,中國的高質量數據大概是有150TB,世界上還有很多個國家?!?/p>

他認為目前存在的問題主要在于高質量的數據的問題,涉及到數據清洗、數據工程。

劉云濤表示,大模型時代的核心變化首先是數據量變大了,“以前一個題庫10 萬、20萬道已經很大的項目?,F在以億為單位,技術處理能力就變得非常重要了,因為你不可能靠人工?!?/p>

第二個變化在標準環節,需要引入專業領域的人工標注,“原來人工標注和自動化標注是一個平行的關系,那現在更像是技術標注放在前一輪,后一輪是專家級的標注?!?/p>

專家級標注指的是一種更高級別、更精細的人工標注過程,這種標注工作通常需要專業知識,能夠對自動化標注的結果進行校正和優化,以確保數據集的高質量。與此前的用低成本勞動力完成的簡單數據標注工作也有所不同。據稱,OpenAI內部就有一個幾十名博士級別的專業人士組成的團隊來做標注。

大模型廠商在處理數據時遵循的流程通常包括幾個環節:首先,數據從各渠道獲取被獲取后,進入數據工程部門。數據工程師會對數據進行清洗和預處理。接著,處理好的數據會被交給算法部門,算法部門會利用多種方法進一步處理,包括調參、通過監督學習對模型進行微調(SFT),以及使用人類反饋來強化學習模型(RLHF),經過這些步驟處理后的數據,最終會被應用到具體的任務或產品中。

在這一過程中,大模型廠商的核心的需求是從分布在各處的數據中提煉出可以用于微調、訓練或持續優化模型的高質量數據。

Scale.AI專注于為企業客戶提供訓練數據的數據標注開發。該平臺采用自動化標注、半自動化標注和人工審核等先進技術,提高標注的速度和準確性,并提供數據管理和質量控制工具。

在劉云濤看來,Scale.AI的核心不在于有很多數據,而是擁有快速處理數據的能力?!癝cale AI建立了一整套數據清洗的流程,另外還建立了一套數據引擎,能形成真正的數據飛輪,這是個流程性的技術的問題?!?/p>

二、開源數據的困境

大語言模型之所以能夠展現出驚人的理解和生成能力,是因為從海量的預訓練數據中學習了豐富的世界知識。而開源數據,如網頁、書籍、新聞、論文等,正是這些預訓練語料的重要來源。通過開放共享,開源數據為模型提供了廣泛而多樣的知識來源,使其能夠學習到人類社會的方方面面??梢哉f,沒有開源數據的支撐,大語言模型就難以獲得足夠的“知識養料”來實現快速發展。

由社區和非營利組織推動的開源數據項目,為語言模型的訓練提供了豐富多樣的語料,對推動了自然語言處理技術的發展至關重要。智源研究院林詠華告訴硅星人“如果沒有Common Crawl,整個大模型的發展都會延后?!?/p>

她也指出了一個相關的問題,國外志愿者參與的開源數據集的建設,如BookCorpus、古騰堡工程都積累數年時間,而在國內很少有人做類似的事情,這就造成了中文數據的數據孤島問題。

人工智能開源開放數據平臺OpenDataLab相關負責人告訴硅星人,數據資源持有方普遍存在的一個顧慮是無法明確數據開源行為對自身的價值,單純的數據開源對于中小型企業很難形成短期的回報?!皬耐顿Y與回報角度看,企業如果開源模型,其帶來的技術的迭代和創新,對企業來講無疑是一種回報,而開源數據則幾乎是純‘利他’的行為,很難有實際的收益?!?/p>

因此,相較于國外由非營利機構推動,國內各類事業單位在推動數據開源的過程中扮演了十分重要的角色。不過,隨著用戶規模和數據需求的增長,也為各類數據開源社區的資金與存儲等帶來了現實挑戰。

OpenDataLab從公開數據收錄、開源平臺建設、數據工具研發、高質量原創數據集發布、生態合作等多方面入手,正在著手推動解決研究和開發中數據需求。

OpenDataLab表示,中文大規模數據集在開源程度、規模以及質量方面與英文數據集相比存在差距,這在一定程度上制約了中文自然語言處理技術的發展。目前OpenDataLab已經聯合多家機構,發布了一系列原創高質量的大規模AI數據集,他們也希望能與更多機構一道,通過合作來邀請更多人參與到數據開源事業中來。

在公共數據開放和社會力量方面,中國與美國存在一些差異,美國政府在公共數據開放中扮演著重要角色,致力于“應開盡開”。政府建立專門的AI訓練數據開放平臺,對數據進行標識、清洗、標注等處理,并提供便捷的檢索和接口服務。社會力量則整合政府開放數據與網絡公開數據,以開源為主形成高質量訓練語料,并在行業大模型中貢獻專業性。

中國的公共數據共享和利用程度上仍有不足。部分領域如天氣、司法的數據開放不如美國充分,在開發利用中也缺乏API支持。社會力量主要結合海外開源數據和國內網絡公開數據形成訓練集在行業大模型中,社會力量雖有貢獻,但受限于專業門檻高、企業共享意愿低、公共數據開放不足等困難。

三、數據采集中的“灰度”

生成式人工智能的發展主要依賴大模型以及對大模型的數據訓練,數據訓練又離不開大規模的數據爬取。數據采集是產業鏈的起點,涉及從互聯網、社交媒體、公共數據庫等多個渠道收集原始數據。這一環節需要遵守數據隱私和版權法規,確保數據來源的合法性。隨著技術的發展,自動化工具如網絡爬蟲被廣泛使用,但同時也帶來了數據隱私和安全等問題。

五號雷達相關負責人童君告訴硅星人,數據爬取方面,Robots協議在網絡數據獲取是一種行業內的約定俗成。不過Robots協議遵循基于爬蟲的自覺性,并不能從根本上阻止數據的獲取?!斑@個行業水下的產業占80%,比如場外項目制的數據購買,數據進行二次加工之后,源頭的數據是來自于哪里?這個東西沒辦法追溯?!?/p>

景聯文創始人劉云濤則建議從“灰度”的角度來看待這個問題,“一個全新的行業,無論從國家到企業、個人都在探索,一定是有灰度的”。他認為,在大數據和人工智能的新興行業中,存在著一些灰色地帶,主張應該用技術手段將灰色地帶變成白色,合法合規。

景聯文用技術手段如SFT或人工標注,將獲取的數據轉化為可交付使用的數據,建立高質量大模型訓練數據集。他打了個比方,就像“別人在野地里采摘的白菜,經過他們的加工,變成了預制菜?!?/p>

隨著數據被定義為新的生產要素,全國各地紛紛成立了大量的數據交易所和交易中心。成為解決行業內的灰色地帶問題,提高市場參與者的安全感的一種新的機制。

截至目前,國內已成立了超過40家數據交易所,包括上海數交所、貴陽大數據交易所和北京國際大數據交易所等。這些交易所通過搭建數據要素流通平臺,提供數據供需對接撮合機制,以釋放數據要素的價值。

劉云濤認為,數據交易所是一個顯著中國特色的新興市場,但建立一個有效的數據交易體系還需要大量的工作來完善?!澳懿荒苷嬲鉀Q數商和購買方之間的問題?如果交易所只是讓我們付出,不能給我們帶來收益,那就沒有意義,這個事是需要時間的?!?/p>

五號雷達童君也表示,“大模型廠商基本上不會去交易所買數據。不是說今天我來做大模型,然后買一堆數據回來?!?/p>

據介紹,數據交易市場目前存在多種模式。有的大公司建立了平臺,提供數據產品和數據集,主要以API形式供企業購買服務。此外,還存在針對特定項目的定制化數據購買模式。在這種情況下,買方了解數據的來源(如氣象局)。并直接與擁有數據的機構或企業進行交易。

四、“是時候把數據Scale Down了”

LLaMA3通過將訓練數據從2T增加到15T,即使模型架構保持不變,模型性能得到了顯著提升,然而,這種“暴力擴展”的方法雖然有效,但也面臨著邊際效應遞減和資源消耗增加的問題。

語料規模并非越大越好,而是高信息密度的語料規模越大越好:Common Crawl是400TB的數據集,包含了互聯網上數十億網頁,內容非常廣泛但未經清洗。而C4則是對CC進行了過濾噪聲、重復內容等清洗后的305GB數據集。經評估發現基于C4訓練的模型性能優于CC,這既說明了數據清洗的重要性,也說明了語料規模不能一味追求大。

近期,DCLM項目組,從Common Crawl中成功提取并清洗出240T的數據,也為數據規模增加的可行性提供了新的證據。這一進展為數據的“Scale Up”策略提供了支持,但同時也提醒人們注意到數據處理和清洗背后的計算成本。

清華博士秦禹嘉表示,前scaling law時代我們強調的是scale up,即努力追求數據壓縮后的模型智能上限,后scaling law時代大家比拼的是scale down,即誰能訓練出“性價比”更高的模型。

例如,PbP團隊利用較小模型的性能評價來過濾數據,從而提升大型模型的訓練效果和收斂速度。類似地,DeepSeek通過使用fastText來清洗高質量數據,為特定場景下的模型訓練提供了優質數據。

這些研究成果暗示,通過徹底優化數據的質量,小型模型的訓練效果可以接近或等同于使用大規?!芭K數據”訓練的大型模型。這不僅示范了數據清洗在提升模型效率中的重要性,也說明在某些情況下,模型的參數規模并非越大越好,關鍵在于如何有效地利用每一份數據。

隨著AI領域的不斷發展,這種對“效率”和“質量”的追求正在成為研究和實踐中的新趨勢。未來,數據處理的方法,包括數據去噪、改寫預訓練數據等策略,將成為推動大模型發展的關鍵因素。同時,這也意味著數據質量可能成為衡量AI模型性能的新標準,而不僅僅是數據規模。

在當今快速發展的人工智能領域,數據成為了推動技術前進的基石,它的角色越來越像《沙丘》中珍貴的香料——無處不在,價值巨大。隨著對數據需求的增長,如何有效地收集、處理和利用這些“數字香料”成為了關鍵問題。從提高數據質量到拓寬數據獲取渠道,未來的AI發展不僅取決于我們如何應對這些挑戰,更在于我們如何在數據的海洋中探尋新的可能。正如《沙丘》展示的那樣,真正的力量來自于對這些資源的理解和利用——誰解決好了數據問題,誰就擁有了未來的鑰匙。

《沙丘》中的領航員通過食用香料獲得了預測未來的能力,人工智能算法通過處理大量數據集,發現模式和趨勢。在《沙丘》宇宙中,人類在香料混合物的影響下進化,獲得新的能力并經歷意識的重大飛躍。同樣,人工智能乃至AGI的發展也可能會為人類帶來類似的深遠影響。

只不過如果知道十年前在社交媒體上發布的內容,有朝一日會成為推動技術進步的“香料”,或許我們會更加慎重地對待自己的數字足跡。

作者|周一笑 郵箱|zhouyixiao@pingwest.com

本文由人人都是產品經理作者【硅星人】,微信公眾號:【硅星人Pro】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!