GPT成熟之路官方筆記
在OpenAI開發者日當天,除了奧特曼的開幕演講外,還有許多分組討論的內容也同樣精彩,其中包括ChatGPT背后的產品和研發團隊如何協作、模型應用如何從原型走向成熟等內容的分享。這篇文章里,作者做了總結,一起來看。
ChatGPT產品打造的細節,現在OpenAI自己交了個底。
并且這波干貨分享真是信息量滿滿,包括但不限于:
- ChatGPT背后的產品和研發團隊如何協作
- 大模型應用如何從原型走向成熟
- OpenAI如何優化大模型性能……
以上信息,依然來自今年的新晉“科技春晚”——OpenAI開發者日。
除了奧特曼驚艷全球的開幕演講,當天還有更多分組討論,視頻也陸續被官方上傳到了油管。
而這也算得上是OpenAI驚天抓馬之前,其團隊“內幕”的一次展示。
值得借鑒學習之處,我們已經整理好筆記,一起來看~
一、產品與研究團隊合作“前所未有”
把時間拉回到2022年10月,OpenAI的研究團隊和產品團隊開始圍繞一個idea進行討論:為他們的基礎大模型,制作一個對話界面。
彼時還處在ChatGPT的早期階段,但研究團隊和產品團隊的緊密協作已然開始,它們之間相互的影響程度更是獨樹一幟。
或許這種團隊合作模式,可以成為其他公司參考借鑒的樣本。
用OpenAI模型行為產品負責人Joanne Jang的話說:
在OpenAI,研究團隊和產品團隊之間的相互影響,在業內已經達到了前所未有的程度。
ChatGPT本身,就是最明顯的例子。
OpenAI Post-Training團隊負責人Barret Zoph和Joanne共同分享了兩支團隊在ChatGPT開發和完善過程中的一些協作細節。
Barret團隊的主要職責,是在模型能力被加入到ChatGPT和API之前,對其進行調整。具體來說,ChatGPT后期增加的聯網、分析文件等功能,都是由Post-Training團隊負責的。
Barret重點提到的是,正是產品團隊的種種設計,讓研究團隊能夠及時get到什么樣的模型響應,對于現實世界中的用戶和開發人員是真正有用的。
比如ChatGPT的點贊點踩按鈕,就給研究本身帶來了很多價值:
我們可以根據這樣的反饋調整正在做的事情,了解哪些工作做得好,哪些做得不好,這樣一來,我們就能讓模型響應越來越適合用戶。
在研究中,我們通常用離線評估指標和基準去衡量模型的進展,但有時候這并非人們真正使用模型的方式。產品團隊的幫助,使得我們能夠確保自己正走在構建通用、強大系統的方向上。
而站在產品團隊的角度,Joanne同樣認為,OpenAI產品經理扮演的角色有獨特之處:
首先,在OpenAI做產品的目標不是收入、參與度、增長等傳統產品指標,而是打造造福全人類的通用人工智能。
其次,OpenAI的產品經理往往是從技術而非用戶問題的角度出發,去設計產品功能的。
最后,OpenAI研究團隊和產品團隊相互影響的程度非常之高,在業內可以說達到了前所未有的程度。
還是以ChatGPT誕生的過程為例。從GPT-3,到InstructGPT,再到ChatGPT,研究團隊發現,直接在多輪對話上訓練模型,能讓教導模型新的行為這件事變得更加有效。
而具體教導(設計)模型行為的工作,就是靠產品團隊來參與完成的:比如說,當用戶告訴ChatGPT“你現在是一只貓”,ChatGPT應該表現出怎樣的默認行為?
產品團隊對此進行了大量的實驗,以找出適合大多數用戶的默認模式。
(p.s. 不過Joanne也提到,對于用戶而言,最好的模型是個性化的模型,這也是他們對未來大模型發展方向的預判之一。)
二、非線性策略優化大模型性能
講完協同“內幕”,再來看技術細節。
在開發者日上,OpenAI的技術人員分享了GPT-4中使用的大模型優化技術。
劃重點就是,采用非線性策略,具體包括兩個維度和四個象限。
OpenAI提出了一個多層次的非線性優化框架,涉及到了提示工程、搜索增強生成(RAG)和微調這三種技術。
傳統的模型優化方式往往以線性方式運用這三項技術,在OpenAI看來這種模式無法解決“真正需要解決的問題”。
OpenAI認為,大模型表現優化分為兩個維度,一個是其本身的表現,一個是上下文。
根據這兩個維度需求程度的不同,就形成了四個象限。
具體來說,這兩個優化方向的起點都是提示工程,但接下來要用RAG還是微調(或兩者兼用)則需要根據實際情況來選擇。
通過詳細比較這三項技術各自的優勢,OpenAI的兩名技術人員分別做了具體解釋。
首先是提示工程,它被看作大模型優化的起始點,通過設計提示詞來增強模型性能,可以測試和快速迭代。
具體的策略包括,將提示詞設計得更清晰、將復雜任務拆解,以及提供示例文本或調用外部工具等。
但對于讓模型學習新信息,或者復刻一種復雜的方法(如學習新的編程語言),則超出了提示工程的能力范疇。
此外,任務的細化也會帶來token的增加,所以提示工程對于減少token消耗來說也是不利的。
RAG和微調解決的問題則存在一些相似之處,二者的主要區別在于,RAG更適用于讓模型從給定信息中獲取答案(短期記憶),而微調的重點是模型的長期記憶。
RAG的核心優勢是利用知識庫為模型提供上下文信息,從而減少模型幻覺。
但是這種知識信息通常局限于十分具體的領域,但對于寬泛的領域(如“法律”“醫學”等)作用并不明顯。
同時,提供大量上下文信息會帶來比提示工程更多的token消耗,對節約token同樣不利。
此外,過度應用RAG也有可能帶來反效果,比如有用戶要求GPT只利用文檔中的信息,然后發現模型出現了“幻覺”。
但事后分析發現,這并非是模型的幻覺現象,而是用戶提供的信息本身就存在錯誤。
而微調則是通過在小數據集上訓練模型,來提高性能和效率,或者修改輸出結構。
相比RAG,微調更側重于強調模型已有的知識,并提供復雜的任務指導,對于學習新知識或迭代到新用例則不是好的選擇。
總結下來就是,基于這些策略的特點和使用領域,根據實際需求有的放矢地選擇優化策略。
這也是OpenAI調教GPT-4的法寶,具體到應用層面,OpenAI也為一眾創業者獻上了一份大禮。
三、為創業者送上“大禮包”
OpenAI工程負責人和Applied團隊成員分享了如何將基于OpenAI模型搭建的應用從原型走向完整產品。
如果你也有興趣基于OpenAI的API搞一些應用創新,以下是官方分享的一些工程實踐經驗:
第一,打造以人為本的用戶體驗,即減少模型不確定性,增強模型的安全性和可控性。
第二,提供一致性體驗。比如利用知識庫等工具來減少模型的不一致性。工程師們提到,OpenAI通過控制seed來控制結果的可重現性,并且提供了當前系統的“指紋”來代表整個系統的狀態。
第三,重視性能評估。并且OpenAI發現,用大模型來代替人工進行性能評估效果顯著。
第四,管理延遲和成本。主要策略有兩種:首先是加入語義緩存,來減少真實API的訪問;其次是使用更便宜的模型,比如不直接使用GPT-4,而是用GPT-4的輸出來微調GPT-3.5 Turbo。
而具體到產品更新,新版API也值得關注,OpenAI的廣告詞是可以“在開發的應用中直接構建世界級的助手”。
新版API支持調用代碼解釋器和外部知識,OpenAI的API工程主管Michelle進行了現場演示。
此外,在函數(第三方API)調用方面也進行了改進,新增了JSON輸出模式,并允許同時調用多個函數。
四、One More Thing
順便提一嘴,開發者大會的開幕式上,OpenAI現場給每個人發放了500美元的賬戶余額,讓線下觀眾紛紛投來羨慕的目光。
不過實際上他們只賺了50,因為還要花450美元買門票。
按照最新的定價,50美元可以通過API處理500萬輸入token或166.6萬輸出token。
那么,今日份的干貨筆記就分享到這里了,想了解更多詳細內容,可以到官方回放中一睹為快。
作者:魚羊,克雷西
原文標題:GPT成熟之路官方筆記 | OpenAI開發者日
來源公眾號:量子位(ID:QbitAI),追蹤人工智能新趨勢,關注科技行業新突破
本文由人人都是產品經理合作媒體 @量子位 授權發布,未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
- 目前還沒評論,等你發揮!