我帶著AI如何工作?
用AI幫助我們工作,首先是要轉換思維,本文作者結合自身使用習慣和六大類對話,分析如何讓AI為你的工作提效,希望能夠幫到你。
工作多忙不過來時,只能找AI幫我干活兒。
這種選擇挺享受,它能提高效率,也有人吐槽我說,我太懶,現在科技發展快速,適當用一些工具蠻有必要的。
你也用過像文心一言、天工、KIKi Chat、騰訊混元這樣的大型模型。之后會發現,給出答案比較傻,不夠聰明的樣子。我覺得不是AI的錯,都幾百億參數了,是你不會用。
大家怎么用的呢?舉個例子:
一般拿到一個帶有對話框的AI大模型,第一個請求是,“幫我寫一個小紅書種草、大眾點評”文案,這種看似直接而具體的請求,幫助不大。
為什么?因為AI大模型有龐大基礎數據,但它生成的能力都受限于具體背景之下,所以,你在沒有任何背景信息給到它時,只能基于百億數據中的通用場景,給你答案。
01
要用好大模型,首先要明白Prompt。
中文中叫法比較多,有人說是命令、關鍵詞、魔法咒語,我喜歡叫它對話框。在我看來Prompt像一個嘴巴,與人對話的嘴巴,你想要從它那里拿到什么,就要給它什么。
比如說:
想讓AI幫你畫畫,得告訴它“熊貓、可愛的、水墨風”,畫的不像再加點“胖乎乎,正在吃竹子”,你想讓AI幫你寫個寫故事,就得輸入風格、什么類型,多少字。
這不難理解,用AI像丟線索,根據你給的線索和它以前學的東西,給你回答。懂得怎么用Prompt,AI才能更準確地搞懂你想要什么。
提示詞這活兒看起來也不難,都是日常話。百度創始人李彥宏和open AI創始人Sam對提示詞理解都一樣,說,你要條理,有結構、舉例子、講知識點,引導它思考。
如果你要在網上搜索關于Prompt的文章,會發現,這些內容大多給你一些現成模板,很少講到一些通用或深層次改進方法。為什么會這樣?
一方面,Prompt優化領域比較新,尤其在細分場景下,大家還在摸索中。另一方面,直接給出現成Prompt更符合快速閱讀習慣,畢竟誰都希望快速找到想到的東西。
假設只聊提示詞,就沒意思了,所以,我想結合自己使用習慣,聊一些更深度的。在整個Prompt對話中,對話分為六種分類:
- 零樣本
- 少樣本
- 思維鏈
- 完全監督
- 細化提示
- 元學習或模型遷移
零樣本(Zero-shot learning)像教一個孩子識別動物,不給它看每一種動物,它也能識別大概。
類似于,你教會孩子什么是貓狗、讓他認識這些動物特征,即使你沒教他什么是象,當它看到一只象時,也會根據之前已有的知識,比如,四條腿、大耳朵、長鼻子,來判斷可能是一種大型動物。
市面大模型,通常不被定義成零樣本。
它們有零樣本學習的能力,好比一個人讀過很多書,雖然他沒有研究過什么是社會心理學,由于他閱讀比較廣泛,遇到新問題時,也會利用已有的知識給出合理答案。
02
我對少樣本(Few-shot learning)的理解是:像教一個孩子學自行車,只給他很少的練習機會,這個孩子需要在這幾次練習中迅速掌握如何保持平衡和控制自行車的技巧。
同樣,AI領域,少樣本意思是,我們向AI提供一些內容,讓它快速學會識別你表達的意思。比如,我想讓AI給出一個PPT框架,我只有一些背景信息和想法作為訓練材料,給到它,它會給出基礎答案。?
這就解釋了,為什么市面那么多預設好的模板式Prompt。
因為大模型已經接受過大量數據訓練,變得相對聰明,能根據你提供的基礎信息給出答案。也意味著,當你讓它進行文本處理、邏輯推理時,不需要準備太多額外材料,它就能處理。
如果效果未達預期,你要增加一些樣本、示例、演示,以幫助它更好的理解任務要求。在大模型領域會把示例稱之為1-shot。
按照技術語言說,1-shot等于一個單例學習(One-shot learning)。也就是,AI通過一個示例(一個數據點或一個樣本)來學習執行某項任務。
比如,你教孩子認識動物。
在1-shot情況下,給孩子展示一張獅子照片,并告訴他是獅子。然后,當孩子以后再遇到其他獅子(無論是玩具獅子、動畫里的獅子、還是書上的獅子圖片),他應該能夠認出那也是獅子。
如果它認不出來,這時,得給它更多相似的照片,于是就有了3-shot、5-shot。我總結下來,想讓任何一個帶Prompt的AI給出少樣本答案,有兩種通用辦法:
(1)把需求說完法
比如,我服務一些甲方客戶,經常要寫brief。
我的對話會是這樣,“我是一名營銷專家,現在要做茶飲推廣,要一個完整小紅書營銷框架,里面包括市場競品分析、用戶畫像分析,渠道建議,預算分配、預期結果,我的預算在20萬以內,推廣時間是1個月,你跟我拆分下”。
這種提問,一次把所有相關信息、具體需求都給它,它能提供一個全面的框架,特別適合時間緊迫,已經非常清楚自己的需求時使用。
值得注意的是,當AI給你框架后,不符合預期怎么辦?這時,就要分階段優化。
比如,當AI給我提供市場分析時,沒有背景信息,那我就會給它補充1-shot背景信息(公司介紹、產品特點)幫主它更好理解情景。
提供這些信息后,別忘了,讓它記住這些背景資料,然后,再次請求它進行市場分析。這樣,AI能夠更全面,生成更符合你的答案。
(2)六步層次法
簡單講:問得清楚、慢慢調整問題、告訴它你想要什么樣的答案、一步一步來、用關鍵詞、給我反饋,不行在試試。
舉個如何提高工作效率的例子。假設你上來說,“如何提高工作效率”,那它給你的答案很通用,怎么辦?這時,要調整為,我是一名程序員,每天敲代碼、開會,請給我建議。
得到答案還不滿意,可以進一步指定,類似于,請以列表形式、給出具體步驟或技巧。這些技巧還不能滿足預期怎么辦?我就會增加難度的說,你從認知心理學視角,給我建議。
所以,一輪又一輪,不斷交互用關鍵詞,不行再試試的方法持續迭代,能讓AI更精準的回答你的問題。
兩種方法我比較喜歡第一個,一次性說完再補充。另外我有個習慣,會讓它扮演「提問助手」,讓它幫我寫提示詞,用它給的提示詞,問問題,這招挺有意思。
不過記住,它給出的答案只能作為參考,用時,還要謹慎;類似,當涉及到市場分析,應當堅持以事實、數據為依據,避免它的主觀臆斷、無根據推理。
03
比起少樣本,更深層次是思維鏈(Chain of Thought)。
大白話來說,當我要解決一個復雜問題,不是直接跳到答案處,而是一步一步,用邏輯推理方式,把思考過程輸入給它。
AI領域,特別處理復雜問題,或深度推理的任務時,思維鏈可以讓AI模型闡述出它的「思考過程」,好比一個人在解數學題時,不僅給出答案,還要寫出解決問題的各步驟,說明怎么算出來的。
用它的方法和少樣本有區別。
少樣本有點一層層剝洋蔥的感覺,它通過我的例子,理解我要表達的意思,快速適應我的任務,這個方式適用于我的數據(內容)很少,而思維鏈是先直接定義問題,然后逐步拆解。
舉個例子:
我是一家餐廳老板,我想分析客戶評論。這種情況下,我把我有的評論都給它,它能快速學習,并識別出滿意度、常見的投訴、建議。
也就是,信息量不大,AI也能深入挖掘這些評論的意思,提取出有用的見解,幫我理解客戶們的感受。
思維鏈不同。
比如,我給AI一本電子書《原則》,我的目的從中提取對餐廳經營有用的核心原則,那么,這種情況下,AI的方法是,它會分析這本書寫的什么,識別出與業務相關、服務相關的關鍵原則。
然后,它會展示出,它的思考過程。比如,如果將這些原則應用到你的餐廳中、預期效果會如何,整個過程不僅包括對書里概念的解讀,還包括,怎么將理論轉化成實踐的步驟。
之前,我曾說我電腦里電子書特別多。怎么用的呢?
假設我想寫一篇關于「認知心理學」方面的內容,現在要找到關于”認知偏差、記憶”方面的概念,為了收集相關信息、觀點,我會把電子書作為資源。
首先,我把電子書給到AI,接著,我會向AI提出一個要求,比如:就這本書內容,你能幫我找找關于認知偏差、記憶方面的重要概念、理論、研究成果嗎?請關注那些可以用在決策過程中的信息。
利用思維鏈方法,AI會做這三步:
- 內容篩選和分析
- 關鍵概念的提取
- 實際應用和建議
整個過程你可能看不見,AI會從電子書中篩選出和我指令相似的章節、段落,集中分析后,將這部分理論在哪一頁給到我,最后會附上一些建議。
它特別適合HR使用,如果你每天要看幾十份簡歷,最簡單的辦法是,把所有簡歷下載下來,全部給它,然后對著它提問,讓它從年齡、學歷、項目成果逐個幫你篩選。
讀書也一樣,給到它直接提問。
我經常提到,中國人和西方人在思維方式上有很大區別。中國人傾向于關注“是什么”,比如,拿一本書,會從頭到尾認真讀完,每個字都想不錯過。
西方孩子則不太一樣,他們更喜歡問“為什么”,會先思考這本書在寫什么,想解決什么樣的問題。這種思維方式上的差異,跟教育、環境有很大的關系。
寫作也是同樣的道理。
很多人寫文章,一開始想文章的結構應該怎樣,要表達什么,但卻忽略一個更重要的問題:我為什么要寫這個話題?通過話題反映什么問題,解決什么問題?如果你能先明確問題,找答案會容易多了。
此類思維后天也可以培養,
我有一個方法用了多年,那就是「黃金圈思維(Golden Circle Thinking)」簡單講:為什么(Why),怎么做(How)做什么(What),把為什么放前面。
話說回來,知道AI思維鏈工作的方式,日常怎么用呢?你可以試試我的三步走:
- 定義問題給出數據
- 提出具體的問題
- 分析AI的回答并應用
比如,我想讓AI幫我回答「如何減少家庭能源消耗」問題,但我不希望得到很籠統答案,我會在它第一輪回答后說,你給的答案太寬泛。?
然后,我給你一些具體節能措施、最新學術研究報告。基于這些信息,你能給出建議嗎?這時,它會給你提出具體的方法,并把分析過程給你。
如果直接給你結論,缺少了過程,你可以要求它按照因為、所以、結構化表達出來;最后,你根據建議調整方法,實現想要的結果。
簡單講,思維鏈是提問-給大量內容學習-基于內容要答案。
04
完全監督(Fully Supervised),像給AI上一堂明確答案的課。這個訓練中,給它展示很多例子,并且,每個例子都明確告訴它,這是什么、對錯、好壞。
好比學校里,老師給我們上課,會明確地告訴你,每個問題的正確答案。
我們用大模型要記住,它不是完美的,雖然受到平臺監督,但說的也不一定全對,因為這些答案是批量訓練出來的,數據會存在一些偏見。
我記得之前有人用文心一言的AI模型來測試,問它,“李彥宏是不是資本家?”,它回答“不是”,但當問“馬云是不是資本家?”時,它卻說“是”。
如果不是技術工程師,日常應該不會直接用到「完全監督」模型,我只想告訴你,了解基本原理和局限性,對我們有益,尤其涉及細分領域,特別專業的內容上。
比如,律師條例,股票分析。
模型會因為訓練的局限性,缺乏上下文理解不夠,提供不準確的信息,它的回答還會讓你毫無察覺。
國內大模型,幾乎測試過來了一遍,我發現好多屬于魚型容易忘事,你給它很多內容,有了上文,沒下文,要么,有了下文,問上文內容時早就丟完了。
這意味著,這些模型處理某些特定任務時,給的框架還行,但在復雜情境中,表現就一般了。
細化提示(Fine-Tuned Prompting),我理解的是,像給一個已經學了很多東西的學生補習課,讓他在某個特定科目上更擅長。
比如,一個AI模型,已經學很多互聯網上的文本,但,如果你想讓它更擅長處理法律文檔、醫學論文,得給它更多這方面的信息,讓它在這些特定領域變得更聰明。
從日常角度,用到的地方不會太多,充其量就在做PPT、寫文章、搞內容創作時。準確來說,那也不叫細化提示,應該稱之為“訓練指令”,所以,“細化提示”指更底層的模型訓練。
元學習和模型遷移(Meta-Learning or Model Transfer)個人層面,國內用到更少。前者像教一個人如何快讀學習東西,掌握學習背后的方法論,后者,就是把你訓練出來的模型,用到另一個任務上。
類似于,從企業角度,一個原型原來可以識別圖片,現在你用它可以做音頻。
我唯一一次獨特體驗是,花了一天時間,把自己寫過的所有文章,都給到AI,然后,讓它總結我思考問題的方式、語言風格,表達習慣、最后想看看到到底什么樣,結果,崩了。
所以,如果你日常想使用AI處理一些PPT、文檔、Excel什么的,知道它的基礎原理,掌握少樣本、思維鏈,比整理一大堆Prompt強多了。
值得一提的是,任何一個帶Prompt(對話框)的AI,都可以做以上操作,也不用局限于用一大堆AI產品。換句話說,把對話框當成數字人,你想要什么,就給什么,問什么。
總結而言
AI,絕對腦力助手,能否有效地使用AI,并不完全取決于選擇產品有多先進,關鍵你的思考方式是不是變了。用舊思維體驗新產品,如同,走老路,永遠到不了新地方一樣。
為我投票
我在參加人人都是產品經理2023年度評選,希望喜歡我的文章的朋友都能來支持我一下~
點擊下方鏈接進入我的個人參選頁面,點擊紅心即可為我投票。
每人每天最多可投30票,投票即可獲得抽獎機會,抽取書籍、人人都是產品經理紀念周邊&起點課堂會員等好禮哦!
投票傳送門:https://996.pm/YD518
專欄作家
王智遠,公眾號:王智遠,暢銷書《復利思維》作者,人人都是產品經理專欄作家?;ヂ摼W學者,左手科技互聯網,右手個體認知成長。
本文原創發布于人人都是產品經理。未經許可,禁止轉載。
題圖來自Unsplash,基于CC0協議。
該文觀點僅代表作者本人,人人都是產品經理平臺僅提供信息存儲空間服務。
內容不錯,就是出現很多亂用標點、語序錯亂的情況,可以用AI優化下..
“垃圾輸入,垃圾輸出”,同樣的,“好的輸入,好的輸出”