還在卷長文本?谷歌最新論文直接把文本干到…無限長了

0 評論 524 瀏覽 0 收藏 10 分鐘

最近一段時間,有關長文本能力的探討被擺到了臺面上,而就在人們比拼上下文窗口時,谷歌發布了一篇論文,談到團隊發明了一種新的注意力技術,這項技術可以讓transformer大模型在有限的計算資源條件下處理無限長度的輸入。

當人們還在比拼上下文窗口的時候,谷歌發布了這樣一篇論文《Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention》。論文中寫到,團隊發明了一種新的注意力技術,叫做“無限注意力”(Infini-attention),通過這項技術,能使transformer大模型在有限的計算資源條件下,處理無限長度的輸入。

在一個transformer模型中,注意力的作用是允許模型根據當前位置的輸入元素(如詞元或token)來分配權重給序列中其他所有位置的元素。而上下文窗口則限制了注意力機制的實際操作范圍,即模型在計算注意力時僅考慮當前元素周圍特定范圍內(前后若干位置)的其他元素。

無限注意力允許允許模型在處理無限長輸入序列的時候,仍能保持對上下文信息的訪問能力,再也不需要在處理新輸入時丟棄前一輸入段的注意力狀態了。那么也就是說,它的上下文窗口可以是……無限。

無限注意力機制背后的關鍵技術叫做壓縮記憶系統,這是一種能夠以緊湊形式存儲和檢索大量信息的結構,通過改變自身參數來捕獲新信息,確保信息可以在之后被恢復。單從運行的邏輯上來講,壓縮記憶系統和咱們日常生活里壓縮文件是一模一樣的。

壓縮記憶系統最大的作用是克服transformer標準注意力機制在處理長序列時存在的內存足跡和計算時間的二次復雜度問題,只需要通過使用固定數量的參數存儲和召回信息,確保存儲和計算成本保持在可控范圍內。因為其參數數量不隨輸入序列的增長而變化,那也就是說,無論輸入序列長度有多長,也不會對影響模型的復雜度。

接下來無限注意力機制會將輸入序列劃分為一系列嬌小的、連續的子序列,每個段具有固定的長度,使得模型在處理這些較短的段時,能夠保持較低的內存需求和計算復雜度。這種分段方法避免了一次性加載和處理整個無限長序列的挑戰,允許模型以流式(streaming)方式逐步處理輸入,即每次僅處理一個或幾個段,而非一次性加載全部數據。

在每個分段內部,無限注意力模型采用局部注意力機制來處理該段內的上下文信息。局部注意力限制了模型對當前段內token之間的注意力計算范圍,通常采用因果(causal)或自回歸(autoregressive)的形式,確保模型在處理當前token時,只能看到該令牌之前的所有token,而不能看到未來(即當前token之后)的任何token。

在輸出結果時,無限注意力模型為了生成最終的上下文輸出,要從壓縮記憶中檢索到的長期記憶信息與當前局部注意力計算出的上下文結合起來。這種融合確保模型既考慮了當前輸入段的局部依賴,又充分利用了歷史輸入的長期上下文。

當你理解了無限注意力機制后再回到標題,無限注意力模型能夠以流式方式處理極端長的輸入序列,無需一次性加載整個無限長的輸入,而是會根據歷史記錄進行分批次處理。那對于模型來說,就能夠在有限的內存和計算資源約束下,適應并處理無限長度的上下文。

論文首先在長上下文語言建?;鶞噬显u估了無限注意力模型的表現,與包括transformer-XL在內的多種模型進行了對比。

采用無限注意力的模型在PG19(長文檔數據集)以Arxiv-math(數學數據集)上都取得了遠超于transformer-XL的結果,同時實現了114倍的內存壓縮率,在保持低困惑度的同時提高了模型效率。

為了進一步驗證無限注意力機制的性能,論文將一個10億參數的大語言模型進行改造,把這個模型的多頭注意力(MHA)模塊換成了無限注意力,并繼續對其進行預訓練。驗證過程是,團隊要求模型在長達100萬tokens的輸入中定位并檢索隱藏的密鑰信息。

預訓練階段,模型使用的輸入序列長度僅為4K個tokens,以適應無限注意力的處理模式。經過3萬步的預訓練后,對密鑰檢索任務進行微調。在微調階段,為了模擬實際應用中可能遇到的更長上下文環境,模型在包含5K個token的長度輸入上進行微調。

在完成預訓練和微調后,團隊對模型進行評估,在不同長度(從32K到1M)和不同密鑰位置(開始、中間、結束)的長輸入文本中檢索密鑰的準確性。實驗結果表明無限注意力模型在所有測試場景中均能成功找回隱藏的密鑰,展現出其對極長上下文信息的卓越處理能力。

隨后團隊為了證明無限注意力機制在更大參數模型上的表現,又對一個用無限注意力改造的80億參數大語言模型進行了預訓練。使用8k個token長度的輸入訓練了3萬步。模型在BookSum數據集上進行微調,輸入長度設置為32K用于微調,但在評估階段增加到500K。

根據無限注意力在50萬文本長度的圖書中里生成的摘要,模型超越了專門為摘要任務構建的編碼器-解碼器模型及其長上下文擴展版本,實現了在BookSum數據集上的新SOTA(state-of-the-art)性能。隨著輸入書籍文本量的增加,模型的摘要性能指標(如Rouge分數)呈現出明顯的上升趨勢。

一個有效的記憶系統不僅對大型語言模型理解長文本來說是至關重要的,雖然論文并沒有大刀闊斧地修改transformer模型的注意力機制,只是用了類似于微創手術一樣的手法,把壓縮記憶模塊緊密地集成進了模型的標準點積注意力層(vanilla dot-product attention layer),卻徹頭徹尾改善了transformer模型在處理長序列時碰到的問題。

2022年的時候,deepmind曾發文《∞-former: Infinite Memory Transformer》,論文提出了一個叫做∞-former的模型,通過利用連續空間注意力機制對長期記憶進行關注,讓模型的注意力復雜度變得與上下文長度無關。從方法上來看,無限注意力和∞-former是有些相似的。后者以犧牲精度為代價換取了記憶長度,可是無限注意力卻可以在極端長度的密鑰中找到關鍵信息,精準度甚至比以往要高很多。

其實歸根結底,無限注意力和∞-former都是對transformer的記憶系統進行改進。不過transformer有一大缺陷是不能處理非連續的數據。因為transformer最初的設計是用于處理自然語言這樣的連續文本序列,但隨著圖片生成、音樂生成、視頻生成等多個領域應用的崛起,模型為了應對多模態的數據結構就必須能夠處理非連續的數據。谷歌若想擴大自己在多模態領域的領先地位,可能會開始數據結構方面的研究工作。

作者:苗正

來源公眾號:硅星人Pro(ID:Si-Planet),硅(Si)是創造未來的基礎,歡迎來到這個星球。

本文由人人都是產品經理合作媒體 @硅星人 授權發布,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發揮!