能聊天、會學習,遠不是GPT的終局

4 評論 9134 瀏覽 13 收藏 16 分鐘

ChatGPT的爆紅,仿佛給整個商業社會帶來了一次“技術革命”,GPT模型在其中舉足輕重,從GPT-3到現在的GPT-4,我們見證了這個模型能力的驚人飛躍。然而,這是否意味著我們已經看到了GPT的終局呢?本文從垂直、個人、離線三個維度,對GPT的發展趨勢、未來前景等方面進行了猜想,一起來看一下吧。

自然語言處理(NLP)技術的發展和運用,使得計算機性能增長速度一舉躍過摩爾定律瓶頸,將AI拱入屬于它的高光時代。而象征技術融合的ChatGPT一夜爆紅,仿佛給整個商業社會帶來了一次“技術革命”。

微軟、谷歌、百度、華為、阿里……全球范圍內的科技巨頭,爭先恐后真金白銀地押注,掀起了一場以資本和技術為基礎的生態競速。

無疑,GPT模型在這場革命中扮演了一個舉足輕重的角色。從GPT-3到GPT-3.5,再到現在的GPT-4,我們已經見證了這個模型能力的驚人飛躍。

然而,這是否意味著我們已經看到了GPT的終局?接下來,本文將從垂直、個人、離線三個維度,對GPT的發展趨勢、未來前景進行一些基于客觀現實的大膽猜想。

01 垂直GPT百花齊放

3月的最后一天,彭博新聞社發布了專門為金融領域打造的大型語言模型(LLM)——BloombergGPT,引發金融圈“地震”。

基于LLM的生成式人工智能,已經在許多領域展示了令人興奮的新應用場景。但是,金融領域的復雜性和獨特的術語,意味著其需要特定的語言模型。作為全球最大的財經資訊公司,彭博社在這方面恰好擁有巨大優勢。

在過去40年里,彭博收集了海量的金融市場數據,擁有廣泛的金融數據檔案,涵蓋一系列的主題。使用該公司數據終端的客戶遍布全球,包括交易員、投行、美聯儲、美國其他官方機構以及全球各大央行等。

這些特有數據,使得BloombergGPT比ChatGPT擁有更專業的訓練語料。據彭博社發布的報告中可以看出,研究人員利用彭博社現有的數據,對資源進行創建、收集和整理,構建了一個3630億個標簽的數據集,并基于通用和金融業務的場景進行混合模型訓練,以支持金融行業內各種各樣的自然語言處理(NLP)任務。

除了金融領域,醫療、教育也均有更為垂直的GPT產品涌現。例如,IBM Watson Education推出了一款名為“Teacher Advisor with Watson”的教育GPT,可以為教師提供個性化的教學建議和支持;Kheiron Medical推出的“MIA”醫療GPT,可以為醫生提供乳腺癌篩查和診斷支持。

相對于“廣而泛”的ChatGPT,垂直GPT的發展優勢十分明顯。

首先就是成本上,垂直GPT針對特定領域或行業進行優化,只需利用該領域內的專業數據進行訓練,避免了ChatGPT那樣數據采集的高成本和高難度。

另外對比通用的GPT產品,垂直GPT的訓練成本和應用成本更低。由于垂直GPT針對特定領域進行優化,訓練數據更加專業化和精細化,可以通過更少的數據和更短的訓練時間,獲得更好的效果。

而垂直GPT在特定領域的應用效果更好,能夠更準確地理解和處理領域內的語言數據,從而減少了后續的人工修正和調整成本。

更低的訓練成本、更短的訓練時間、更精細的訓練內容,能夠為企業提供更高效、準確、具有定制性的自然語言處理服務,優化企業的業務流程和數據分析能力,從而為企業帶來更多的商業價值和競爭優勢,這也使得垂直GPT在商業化上更加出色,資本市場和相關企業也更加看好這一方向。

值得一提的是,更垂直的GPT也意味著企業需要有更專業、更精準、更安全的數據語料,未來企業的競爭點也將圍繞專業數據、清洗和標注數據的能力、用戶隱私安全三點展開。

不可否認,隨著各行各業對自然語言處理技術的需求不斷增長,GPT模型被應用到更多的垂直領域中已被提上日程,未來將會看到更多專業的垂直GPT產品出現。

02 個人GPT并不遙遠

因為與通用GPT的模型存在一定不同,垂直GPT的獨特性、定制性在未來也可能促進個人GPT的出現。

個人GPT是指為個人用戶提供個性化的自然語言處理服務的GPT模型。個人GPT可以學習用戶的語言習慣、興趣愛好、生活方式等信息,從而為用戶提供更加個性化、貼近用戶需求的自然語言處理服務。

這看起來非常不可思議,但并非無法實現。

從底層實現邏輯技術來看,GPT的核心是基于Transformer架構,結合預訓練模式、多層結構、無監督學習和Fine-tuning微調等特點,通過對輸入語料的學習得到進化。也就是說,如果能夠在個人PC上實現這些步驟,那么就有構建GPT的可能。

目前市面上已經出現了大量開源大模型、公開語料包,基于這些模型可以快速進行語料訓練,而其中的難點無非在于處理數據的能力、以及對訓練好的模型進行評估和優化。簡單來講,如果PC上安裝了足夠優秀的GPU、CPU等核心處理器,完全能夠實現個人GPT的訓練。

當然,訓練個人GPT模型所需的硬件配置取決于許多因素,例如模型的規模、數據集的大小、訓練算法和優化器的選擇等。

以下是ChatGPT給到的一些通用建議和參考:

  • CPU:訓練大型的GPT模型需要強大的CPU計算能力,建議使用多核心的CPU處理器,例如Intel Xeon、AMD EPYC等型號的服務器級別CPU。
  • GPU:GPU是訓練大型GPT模型必不可少的重要組件,建議使用高性能、內存大的GPU,例如NVIDIA Tesla V100、A100等型號,以提高模型訓練速度和效率。
  • 內存:訓練大型GPT模型需要極高的內存消耗,建議使用大容量的內存,例如64GB以上的服務器內存。
  • 存儲:訓練大型GPT模型需要大量的存儲空間,建議使用高速、大容量的SSD或NVMe硬盤,以提高數據讀寫速度和效率。
  • 網絡:訓練大型GPT模型需要大量的數據傳輸和通信,建議使用高速、穩定的網絡連接,例如千兆以上的以太網或InfiniBand網絡。

需要注意的是,訓練個人GPT模型需要極高的計算資源和時間成本,建議使用云計算服務或租用高性能計算資源進行訓練,以提高效率和降低成本。同時,還需要選擇合適的訓練算法、優化器和超參數等,以提高訓練效果和準確性。

值得一提的是,前不久王健林獨子王思聰再次對家中的“百萬服務器”進行新一輪網絡改造,有業內人士推測主要目的就是提高服務器算力,以訓練個人GPT。

不過如果想要建立高質量的GPT模型,需要大量的高質量訓練數據語料,但是除了公開語料包外,個人用戶很難獲得大規模的高質量訓練數據,因此需要花費大量的時間和精力采集和處理數據,這也是個人在搭建GPT時的難點。

還需要注意的是,在個人PC上創建獨立的GPT需要大量的計算資源和時間,并且需要具備一定的機器學習和自然語言處理技術知識。除此之外,還需要關注大模型的可擴展性,以及數據隱私和安全問題,確保訓練數據和模型的高效性和保密性。

當然,對于普通用戶來說,構建訓練環境、調用開源大模型、尋找訓練語料等等幾乎每一步都是一個門檻。但在「科技新知」嘗試后發現,除了不能幫助直接購買所需的硬件外,ChatGPT可以協助解決搭建過程中幾乎80%的問題。

近期,OpenAI暫停ChatGPT Plus付費服務的消息傳得火熱,加上前幾天部分地區普通賬號大面積封號,雖然問題暫時得到解決或緩解,但ChatGPT計算資源供不應求的問題還是浮現出水面。

業內人士統一認為這是因為算力不足導致GPT-4的響應速度變慢,錯誤答案增加,微軟作為ChatGPT的金主,曾大力投入資源提升其算力并承諾繼續提升,但現在似乎還不太夠。

這也更加突出個人GPT的必要性。另外從底層邏輯來看,個人GPT除了個性化定制、隱私安全性更高、使用更高效外,還有一個更值得關注的優勢,就是離線使用。而在「科技新知」看來,離線GPT也是未來發展的一個主要方向。

03 離線GPT不無可能

GPT模型的訓練和推理,需要大量的計算資源和存儲空間,這使得云端環境成為了主流選擇。但是,在一些特定場景下,如邊緣計算、無網絡環境等,離線GPT模型的需求也并不少。

更為實際的,比如采礦等特殊環境行業,離線GPT可以結合監控系統和數據分析技術,分析礦山環境、工人健康狀況等信息,從而實現安全管理和風險預警,減少礦難和事故的發生,保障礦工的生命和財產安全。

通用GPT顯然無法實現在有限的存儲空間內,給到無限可能的答案。因此,「科技新知」認為“離線+專業”是GPT未來極可能實現的發展方向。

微軟剛剛發布了一款代號“賈維斯”的人工智能虛擬助手,它是一個集成了大型語言模型(LLM)和專家模型的框架,用于處理任何模式或領域中的復雜任務。

簡單來講,賈維斯類似AI與AI之間的協作系統,可以通過大型語言模型組織模型之間的合作,來處理任何模式或領域的任務。通過大型語言模型的規劃,可以有效地指定任務過程并解決更復雜的問題。

不妨設想一下,將礦業行業的GPT模型與賈維斯結合,再通過機器狗作為運行載體,由賈維斯作為中臺,向機器狗傳遞GPT模型所提供的信息,可以實現一定程度上的自主作業。

具體而言,機器狗可以通過搭載各種傳感器、控制器和執行器等設備,收集、處理和執行礦業作業所需要的各種數據和指令。

賈維斯作為中臺,可以實時監控機器狗的運行狀態、礦產資源的勘探和開采情況等信息,通過離線GPT模型分析和預測礦產資源的位置、規模和開采效率等指標,向機器狗傳遞智能化的勘探和開采指令,實現對機器狗的自主控制和作業。

客觀來講,這樣的模式也可以復刻到高空機器人、醫療機器人等特殊領域中。

不過在這個過程中,也需要解決客觀存在的技術難題。而其中最為關鍵的就是訓練中的語料數據存儲。

除了訓練好的垂直GPT需要占用大量內存外,賈維斯系統也需要處理大量的語音和文本數據,包括語音識別、自然語言處理、知識圖譜等任務,以實現語音輸入、文本輸出、任務執行等功能。如果全部在本地進行訓練,則需要大量的計算資源和存儲空間,以保證賈維斯系統的準確性和效率。

值得一提的是,賈維斯系統非常強大,但官方給出的電腦最低配置要求是:

  • NVIDIA GeForce RTX 3090 顯卡一張
  • 16GB 內存 最低配置
  • 42GB以上內存 理想配置

也就是說,如果能夠解決訓練語料的存儲問題,或者訓練方法有簡化突破后,離線GPT甚至離線“賈維斯”也不無可能。

最后,AI的快速發展已經讓各行各業感受到了“工具在進步”,甚至一部分人已經喊出“The future has arrived”,但這仍只是個開始,更多的技術創新和應用場景將會不斷涌現,好戲還會逐漸上演。

(本文系作者與ChatGPT聯合撰寫)

作者:萇樂;編輯:伊頁

來源公眾號:科技新知(ID:kejixinzhi),洞察技術變化背后的產業變遷。

本文由人人都是產品經理合作媒體 @科技新知 授權發布,未經許可,禁止轉載。

題圖來自 Unsplash,基于 CC0 協議

該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 請問一下,gpt計算資源消耗很大,基本固定要和云計算綁定了,這樣怎么實現離線操作呢?工人不能背個大計算機工作吧

    來自加拿大 回復
  2. 講真,GPT的前景發展可謂是無限可能,這等技術如果將來能廣泛應用,是否會再次帶來某種意義上的技術革命?

    來自山東 回復
  3. 文章對GPT的分析實在是太深入了,對于外行人來說是了解GPT系列的一個非常好的文章,受益匪淺。

    來自山東 回復
  4. 這篇文章很有意思,讓我對AI的發展歷程和未來趨勢有了更清晰的認識,作者用Workflow和Value兩個維度來分析AI生態系統的演變,很有創新性和洞察力。我同意作者的觀點,未來AI生態系統將是一個豐富多樣的生態系統,既有專業化的AI系統,也有通用的AI模型,各有優勢和局限。

    來自廣東 回復