銀行如何構(gòu)建大語言模型產(chǎn)品

2 評論 1770 瀏覽 11 收藏 28 分鐘

大模型的應(yīng)用,其實(shí)在醫(yī)院、銀行這種專業(yè)性非常強(qiáng)、數(shù)據(jù)比較多的行業(yè)會非常使用。本文就通過案例介紹了一個(gè)銀行的實(shí)施案例,供大家參考。

目前大語言模型(Large language mode,LLM),以下簡稱LLM,非?;鸨?,各種基于LLM的產(chǎn)品如雨后春筍般出現(xiàn)。

以O(shè)penAI推出的GPT4為代表的LLM產(chǎn)品,為大家展示了LLM在對知識整理、歸納、推理、總結(jié)方面強(qiáng)大的能力。LLM借助于思維鏈(Chain Of Thought,CoT)技術(shù),可以使LLM生成推理路徑,將復(fù)雜問題拆解為多個(gè)簡單步驟分別處理,從而模擬人類思考的過程。

OpenAI近期推出的Sora產(chǎn)品,同樣令人震撼,給出一些提示詞,Sora便可以根據(jù)文本生成一段生動的視頻,效果不亞于專業(yè)的視頻工作室耗費(fèi)幾天做出來的視頻。

例如通過提示詞: 一段廣角視頻,一輛拉力車穿過紅杉林,出現(xiàn)在樹后,在急轉(zhuǎn)彎時(shí)向空中噴灑泥土,電影膠片拍攝于35毫米景深 。

Sora會生成一段高清的10秒左右的視頻,非常逼真。

大家有興趣可以使用Sora體驗(yàn)一下。

由此可見LLM在人機(jī)對話、知識推理、歸納總結(jié)、圖片和視頻生成上功能確實(shí)非常強(qiáng)大,只要我們給定的提示詞足夠恰當(dāng),LLM便能給出我們想要的結(jié)果。

很多垂直領(lǐng)域,已經(jīng)出現(xiàn)了許多LLM產(chǎn)品。

本文收集整理了一些,大家有興趣的可以重點(diǎn)深入了解。一些關(guān)于金融領(lǐng)域的LLM產(chǎn)品主要基于金融知識與問答,金融機(jī)構(gòu)可以作為增值服務(wù)提供給客戶,是一個(gè)非常不錯(cuò)的應(yīng)用場景。

一、銀行使用大模型的場景

對于銀行而言,LLM產(chǎn)品的應(yīng)用場景有很多。

任何工具的使用,其主要目標(biāo)是提升客戶服務(wù)質(zhì)量,節(jié)省企業(yè)運(yùn)營成本,增加企業(yè)收益以及提升企業(yè)社會效益。概括下來,就是降本增效。

我們知道,銀行的主營業(yè)務(wù)主要是存款業(yè)務(wù)、貸款業(yè)務(wù)、外匯與國際業(yè)務(wù),支付和結(jié)算、投資理財(cái)、托管、電子銀行以及銀行卡業(yè)務(wù)等。

除此之外,還有清算、繳費(fèi)、代理發(fā)行金融債券、票據(jù)貼現(xiàn)、代收代付等業(yè)務(wù)。很多銀行也推出了銀行業(yè)務(wù)相關(guān)的信息平臺服務(wù),例如招商銀行的CBS(Cross-bank Solution for Cash Management,跨銀行現(xiàn)金管理平臺)。

如果從銀行服務(wù)的視角來看,針對個(gè)人業(yè)務(wù)和企業(yè)業(yè)務(wù)的服務(wù)劃分,可以進(jìn)行如下劃分。

  • 個(gè)人業(yè)務(wù):信用卡、私人銀行、個(gè)人貸款、儲蓄業(yè)務(wù)、居家生活、投資理財(cái)、跨境金融、個(gè)人手機(jī)與網(wǎng)上銀行等。
  • 企業(yè)業(yè)務(wù):國內(nèi)業(yè)務(wù)、跨境金融、投資銀行、資產(chǎn)托管、同業(yè)金融、企業(yè)財(cái)富管理、融資租賃、企業(yè)手機(jī)與網(wǎng)上銀行等。

銀行利潤的主要來源是存貸利差。

因此,如何能最大限度減少獲客成本,識別優(yōu)質(zhì)貸款客戶,提升放貸質(zhì)量,減少銀行壞賬帶來的損失,是大模型產(chǎn)品具有應(yīng)用價(jià)值的場景之一。通過對歷史客戶數(shù)據(jù)進(jìn)行分析,給出相對恰當(dāng)?shù)氖谛沤Y(jié)果,快速審批,全方位風(fēng)險(xiǎn)管理。

對于銀行客戶服務(wù)水平,也是提升客戶滿意度非常關(guān)鍵的指標(biāo);利用大模型真實(shí)地與客戶進(jìn)行對話,并且非常精準(zhǔn)地解答用戶提出的問題,可以極大降低銀行的客服人工成本。

目前市面上已經(jīng)有類型的產(chǎn)品,機(jī)器對話的仿真程度已經(jīng)同真人對話效果相差無幾。大模型也可以為銀行的管理者快速提供需要的信息,對經(jīng)營數(shù)據(jù)進(jìn)行分析,理解并快速繪制圖表。

相比于通過人工以周報(bào)的形式向銀行管理層呈現(xiàn)數(shù)據(jù)圖表,往往需要大量人工操作數(shù)據(jù)分析平臺進(jìn)行數(shù)據(jù)整理,大模型可以快速動態(tài)提供數(shù)據(jù),為管理層提供決策依據(jù),進(jìn)而提升銀行的管理效率與管理水平。

對于新產(chǎn)品創(chuàng)新,大模型可以通過其超強(qiáng)的計(jì)算能力與數(shù)據(jù)分析,能夠快速進(jìn)行金融計(jì)算與建模,根據(jù)當(dāng)前銀行的歷史產(chǎn)品銷售情況,并結(jié)合客戶畫像,結(jié)合利率計(jì)算、風(fēng)險(xiǎn)評估。給出最優(yōu)的產(chǎn)品方案。

三、銀行構(gòu)建大模型的方式

根據(jù)我們對銀行使用大在模型場景的梳理后發(fā)現(xiàn),在大模型還沒有出現(xiàn)之前,其實(shí)銀行的業(yè)務(wù)已經(jīng)存在,并且也已經(jīng)通過數(shù)智化的方式對這些業(yè)務(wù)進(jìn)行賦能。

例如基于大數(shù)據(jù)對信貸用戶的智能評分與授信,根據(jù)用戶的使用習(xí)慣和畫像進(jìn)行個(gè)性化信息或是產(chǎn)品的推薦,客戶服務(wù)呼叫中心使用的NLP(Natural Language Processing,自然語言處理)、STT(Speech To Text,語言轉(zhuǎn)文本)以及TTS(Text To Speech,文本轉(zhuǎn)語言)。

大模型的出現(xiàn),可以簡單理解為是原有銀行人工智能應(yīng)用的升級,使計(jì)算機(jī)變得更聰明,產(chǎn)品效果更絲滑,用戶體驗(yàn)更完善。

由于篇幅有限,本文主要以客戶服務(wù)NLP為場景,來講解銀行構(gòu)建大模型的方式。實(shí)現(xiàn)為銀行的每位客戶建立7×24小時(shí)隨身專屬顧問,降低銀行人工客服與專屬顧問成本,提升銀行智能客戶服務(wù)水平,增加客戶粘性,提升用戶滿意度與忠誠度。

以消費(fèi)貸款為例,很多用戶收到銀行的營銷信息時(shí),會遇到這樣的問題,短信提醒告知用戶有獲得了一筆授信額度,利率非常優(yōu)惠,但當(dāng)用戶實(shí)際操作時(shí),卻被告知沒有額度,或是利率非常高,這樣給用戶的體驗(yàn)非常差,失去用戶信任,當(dāng)下次用戶再收到這樣的營銷信息時(shí),便很難被吸引,最終導(dǎo)致用戶流失。

構(gòu)建銀行客服場景的NLP大模型產(chǎn)品,可以通過以下方式進(jìn)行。

3.1 Embedding 初始化

Embedding基本的理念是用一個(gè)低維的向量表示一個(gè)物體,這個(gè)向量可以是一個(gè)詞,一個(gè)商品,或是一個(gè)執(zhí)行的任務(wù)等。

對于銀行智能客服,用戶輸入的一般是一段文本,如果使用大模型,Embedding的過程,也是Token化的過程。

Token是大模型中常見的交互與表示方式,也是一種計(jì)費(fèi)方式。例如在GPT-4模型中,每1000個(gè)token的費(fèi)用為0.03美元。對于銀行客服產(chǎn)品的大模型而言,將內(nèi)容Token化也便于從客觀的視角評價(jià)產(chǎn)品價(jià)值。

最后可以通過計(jì)算實(shí)際同用戶互動的Token數(shù),來評估銀行客戶大模型的產(chǎn)品為銀行實(shí)際帶來的價(jià)值。

如何將內(nèi)容Token化,可以按字分隔,也可以按詞分隔。例如,用戶在向智能客服咨詢,“本期信用卡賬單應(yīng)還款是多少?”。

  • 如果按字Token化,則為:“本|期| 信|用|卡|賬|單|應(yīng)|還|款|是|多|少|?”。
  • 如果按詞Token化,則為:“本期 |信用卡|賬單|應(yīng)|還款|是|多少|?”。

我們知道,其實(shí)句子有上下文,通過上下文的關(guān)聯(lián),實(shí)現(xiàn)語義的表達(dá)。

如果有足夠多的語料,也可以將句子作為Token。

3.2 Token 標(biāo)注

將內(nèi)容Token化之后,需要對Token進(jìn)一步進(jìn)行標(biāo)注。

標(biāo)注的作用是為了增加計(jì)算機(jī)對于用戶語義甚至是情感的理解,提升機(jī)器回答用戶問題的精準(zhǔn)度。

通過對用戶內(nèi)容Token標(biāo)注,我們可以對用戶內(nèi)容進(jìn)行實(shí)體抽取,用戶的情感分析,還可以根據(jù)標(biāo)注的內(nèi)容,同關(guān)系圖譜或知識圖譜進(jìn)行關(guān)聯(lián),發(fā)掘更多信息。

假設(shè)我們有一個(gè)標(biāo)簽集合,集合的內(nèi)容是 {scop,name,action,amount,type,…}。我們根據(jù)標(biāo)簽的集合,以及字典信息,對用戶提問“本期信用卡賬單應(yīng)還款是多少”的文本內(nèi)容做如下標(biāo)注。

其中,B代表Begin,意味著標(biāo)注的開始,E代表標(biāo)注的結(jié)束。如果一個(gè)詞比較長,中間有多個(gè)字,可以用多個(gè)大寫的I表示。

橫線- 后面的內(nèi)容是對內(nèi)容的標(biāo)注。例如,信用卡,我們認(rèn)為是一個(gè)名稱,可以標(biāo)注為 【name】;還款是一個(gè)動作,我們可以標(biāo)注為【action】。

對于傳統(tǒng)的銀行智能客服機(jī)器人,其實(shí)這一步完成之后,基本就可以搭建起一個(gè)簡單的客服機(jī)器人,通過對內(nèi)容配置相應(yīng)的執(zhí)行任務(wù),結(jié)合相似度計(jì)算或是簡單的機(jī)器學(xué)習(xí)就可以回答用戶問題。但是在大語言模型,我們還需要進(jìn)一步對內(nèi)容進(jìn)行訓(xùn)練,擴(kuò)展客服機(jī)器人的服務(wù)邊界,讓用戶感覺更像是同真人在溝通。

同時(shí),在服務(wù)用戶的同時(shí),還可以像真人客服一樣“順便”為用戶推薦些產(chǎn)品。

3.3 Attention機(jī)制

Attention機(jī)制,出現(xiàn)在2017年的一篇論文《Attention is All You Need》中,在這篇論文中提出了Transformer的模型架構(gòu),并針對機(jī)器翻譯這種場景做了實(shí)驗(yàn),獲得比較好的效果。

早些時(shí)候使用Seq2Seq模型,即序列到序列模型,可用于文本翻譯,主要原理是:接收的輸入是一個(gè)(單詞、字母、圖像特征)序列,輸出是另外一個(gè)序列。

但是Seq2Seq模型有個(gè)不足之處是僅是根據(jù)序列進(jìn)行映射,不考慮上下文,語義,語法,模型效果不是很好。Transformer模型中提出了Self Attention的結(jié)構(gòu),取代了以往 NLP任務(wù)中的 RNN 網(wǎng)絡(luò)結(jié)構(gòu)。

用戶輸入在Encoder(編碼器)的文本數(shù)據(jù),首先會經(jīng)過Self Attention 層,Self Attention層處理詞的時(shí)候,不僅會使用這個(gè)詞本身的信息,也會使用句子中其他詞的信息。

Attention機(jī)制解決了【Encoder(編碼器)-Decoder(解碼器)】結(jié)構(gòu)存在的長輸入序列問題,其功能可以被描述為將查詢和一組鍵值對映射到輸出,其中查詢(Q)、鍵(K)、值(V)和輸出(O)都是向量,輸出可以通過對查詢的值加權(quán)來計(jì)算。

簡單理解,就是先用問題輸入Query,檢索Key- Value 的記錄,找到和問題相似的記錄中的Key值,計(jì)算相關(guān)性的分?jǐn)?shù),然后對Value Embedding進(jìn)行加權(quán)求和,從而衍生出了Self Attention中的Q、K、V的表示。

主要實(shí)現(xiàn)步驟如下圖所示:

3.4 內(nèi)容安全

銀行的大模型產(chǎn)品,在產(chǎn)品形態(tài)上,并不等同于閑聊機(jī)器人。因?yàn)殚e聊機(jī)器人,為用戶提供的服務(wù)主要是解決用戶“無聊”的場景,而銀行客服機(jī)器人,在同用戶聊天互動的同時(shí),要確?;卮鸾Y(jié)果的精準(zhǔn)。必須給出嚴(yán)謹(jǐn)?shù)慕Y(jié)果,否則寧愿不回答。因此對于內(nèi)容的安全,需要格外關(guān)注。

確保內(nèi)容安全,主要可以通過三個(gè)方面進(jìn)行內(nèi)容安全控制。

  1. 用戶輸入內(nèi)容進(jìn)行控制:屬于事前控制的一種方式,利用關(guān)鍵詞識別,以及語義識別,對用戶輸入的內(nèi)容進(jìn)行安全校驗(yàn),判斷是否存在內(nèi)容安全風(fēng)險(xiǎn)。如果存在風(fēng)險(xiǎn),則給出相應(yīng)的提示,用戶的內(nèi)容不會作為大模型語料庫的輸入信息。
  2. 大模型自身內(nèi)容處理:屬于事中控制的一種方式,用戶輸入的內(nèi)容已經(jīng)進(jìn)入銀行智能客服大模型的引擎當(dāng)中,大模型可以根據(jù)用戶輸入內(nèi)容是否屬于歷史模型構(gòu)建范圍內(nèi)的知識進(jìn)行判斷,如果無法處理,則明確返回用戶無法理解用戶內(nèi)容,需要后續(xù)學(xué)習(xí)改進(jìn)。
  3. 大模型輸出結(jié)果控制:屬于事后控制的一種方式,這時(shí)大模型已經(jīng)根據(jù)用戶的提問內(nèi)容給出相應(yīng)的答案,即將輸出給用戶,但發(fā)現(xiàn)內(nèi)容存在安全風(fēng)險(xiǎn)。則需要對結(jié)果進(jìn)行過濾,或者重新觸發(fā)大模型的處理機(jī)制,告知大模型這個(gè)答案存在內(nèi)容安全風(fēng)險(xiǎn),需要重新生成新的結(jié)果。

總之,在銀行智能客服產(chǎn)品使用大模型時(shí),可以引入CGT(Controlable Text Generation,可控文本生成)來確保內(nèi)容質(zhì)量,降低內(nèi)容安全風(fēng)險(xiǎn)。

3.5 效果評測

在作者之前出版的《產(chǎn)品經(jīng)理知識?!愤@本書中,我們給出了對于人工智能效果評價(jià)的機(jī)制。對于軟件工程通用的系統(tǒng)穩(wěn)定效果,可以通過壓力測試獲得相應(yīng)的評測結(jié)論。

對于銀行智能客服大模型的運(yùn)行效果,我們可以準(zhǔn)備測試數(shù)據(jù)集,來進(jìn)行驗(yàn)證,一般而言,測試數(shù)據(jù)集占整個(gè)數(shù)據(jù)集的20%相對最為合適。

通過準(zhǔn)確率、精準(zhǔn)率與召回率進(jìn)行評價(jià)。

  • 準(zhǔn)確率(Accuracy Ratio):預(yù)測【正確的結(jié)果】占【總樣本】的百分比。即:AR =(TP+TN)÷(TP+FN+FP+TN)
  • 精準(zhǔn)率(Precision Ratio):也稱為查準(zhǔn)率,針對【預(yù)測結(jié)果】對所有被預(yù)測為正的樣本中實(shí)際為正的樣本的概率。即:PR = TP÷(TP+FP)
  • 召回率(Recall Ratio):也稱為查全率,針對【原樣本】在實(shí)際為正的樣本中被預(yù)測為正樣本的概率。即:RR = ?TP ÷(TP+FN)

從公式中我們可以看出,精準(zhǔn)率和召回率的分子者為TP,但是分母不同,在實(shí)際操作中,想要更高的召回率,精準(zhǔn)率就會降低。

為了平衡精準(zhǔn)率與召回率的關(guān)系,我們使用F1分?jǐn)?shù)來作為指標(biāo)。即:

F1 = (2×精準(zhǔn)率×召回率)÷(精準(zhǔn)率+召回率)

四、銀行大模型產(chǎn)品實(shí)踐樣例

4.1 總體架構(gòu)

我們可以通過一個(gè)簡單的架構(gòu),實(shí)現(xiàn)銀行大模型產(chǎn)品的MVP(Minimum Viable Product,最小可行)版本。

在銀行大模型產(chǎn)品MVP版本中,我們通過銀行小程序、銀行App或是網(wǎng)上銀行的服務(wù),為用戶提供智能文本對話服務(wù)。小程序、App和Web作為承載銀行大模型智能客服的渠道,通過統(tǒng)一的應(yīng)用API(Application Programming Interface,應(yīng)用程序編程接口)完成功能接入,實(shí)現(xiàn)客服功能。

  • 內(nèi)容安全模塊,作為接收用戶輸入內(nèi)容的第一道安全防線,將一些用戶輸入的敏感內(nèi)容或是與銀行客服無關(guān)的內(nèi)容進(jìn)行過濾;后續(xù)對大模型的內(nèi)容輸出進(jìn)行再次識別,防止不當(dāng)或是敏感內(nèi)容傳遞給客戶。
  • 銀行客服引擎,是用戶與銀行客服產(chǎn)品的紐帶,負(fù)責(zé)識別客戶,連通用戶體系,根據(jù)用戶畫像,對用戶提問進(jìn)行提煉,結(jié)合用戶歷史服務(wù)數(shù)據(jù),生成恰當(dāng)?shù)腜rompt給到大模型,甚至可以利用客服引擎歷史積累的數(shù)據(jù),作為大模型的學(xué)習(xí)樣本,對大模型進(jìn)行“蒸餾”以降低部署成本。
  • 用戶體系承載著用戶基本信息,對用戶進(jìn)行身份認(rèn)證,根據(jù)用戶歷史的數(shù)據(jù),生成用戶畫像,基于用戶和賬戶體系,建立同銀行核心數(shù)據(jù)的交互。任務(wù)執(zhí)行則是根據(jù)某些場景建立相應(yīng)的規(guī)則和策略,執(zhí)行相應(yīng)的任務(wù)。

例如,用戶在智能客服對話框中輸入“本期信用卡賬單應(yīng)還款是多少?”,大模型識別為用戶意圖是查詢本期信用卡的賬單,則結(jié)構(gòu)化相應(yīng)的執(zhí)行參數(shù)給到任務(wù)執(zhí)行模塊,由任務(wù)執(zhí)行模塊到銀行核心中,執(zhí)行相應(yīng)信息的獲取,并將相關(guān)內(nèi)容返回給大模型,由大模型加工處理后,呈現(xiàn)給用戶。

4.2 案例實(shí)踐

接下來我們著重對大模型的構(gòu)建作為產(chǎn)品實(shí)踐樣例。

同樣以用戶同客服咨詢“本期信用卡賬單”內(nèi)容為例,我們的基本目標(biāo)是通過對用戶針對詢問“本期信用卡賬單”不同的提問內(nèi)容,通過大模型學(xué)習(xí),智能客服均可以識別用戶意圖,給出本期信用卡賬單金額的回答結(jié)果。

1)構(gòu)建學(xué)習(xí)語料

我們根據(jù)用戶歷史的銀行客服問答數(shù)據(jù)作為大模型的語料輸入,在本案例中,我們僅選取了三條數(shù)據(jù)作為實(shí)驗(yàn)數(shù)據(jù)。

以下源代碼給出了如何將用戶輸入的內(nèi)容建立同索引的映射關(guān)系,并給出了輸出結(jié)果樣例。

在實(shí)際操作中,語料庫的內(nèi)容非常龐大,打印語料庫的功能需要注釋掉。由于本文實(shí)驗(yàn)數(shù)據(jù)非常少,我們選擇將語料的內(nèi)容進(jìn)行顯示輸出,便于直觀查看,也有利于后期的模型調(diào)試。

2)模型訓(xùn)練

為了簡化計(jì)算,我們根據(jù)收集的主料庫中隨機(jī)選取一條語料進(jìn)行模型訓(xùn)練。同樣我們將機(jī)器隨機(jī)挑選的語料,張量的形狀,也進(jìn)行了打印輸出,方便觀測運(yùn)行過程。

3)定義編碼器和解碼器

由于本案例實(shí)踐使用的是非常基礎(chǔ)的Seq2Seq模型,編碼器和解碼器也相對比較簡單。包含了嵌入層和RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))層。如果語料數(shù)據(jù)特別龐大,我們可以調(diào)整input_size和output_size參數(shù),以適應(yīng)不同的數(shù)據(jù)量。

另外也可以調(diào)整RNN的相關(guān)參數(shù),增加模型復(fù)雜度和容易,不過這樣機(jī)器運(yùn)算的代價(jià)也會同步增加。

4)整合編輯器和解碼器

大模型中包含了編輯器和解碼器,因此我們需要將兩者進(jìn)行整合,形成一個(gè)總模塊,便于處理用戶輸入的序列,并給出相應(yīng)的結(jié)果輸出。

5)定義訓(xùn)練函數(shù)

在這個(gè)訓(xùn)練模型中,每一個(gè)Epoch都會隨機(jī)選擇一個(gè)語料進(jìn)行訓(xùn)練。本文中由于語料稀少,訓(xùn)練模型的訓(xùn)練輪次設(shè)置的也不是很多。實(shí)際銀行部署過程中,銀行的AI服務(wù)器非常強(qiáng)大,可以結(jié)合海量數(shù)據(jù)進(jìn)行訓(xùn)練,從而提升結(jié)果的精準(zhǔn)度。

6)結(jié)果輸出

由于語料數(shù)據(jù)非常少,因此模型的準(zhǔn)確度是并不是很高,在輸入一些類似的其他問題,可能會導(dǎo)致回答不準(zhǔn)確。我們的目標(biāo)是希望用戶在輸入信用卡賬單或是理解推薦之類的問題時(shí),銀行智能客服的大模型能給出相應(yīng)的結(jié)果。

在本文實(shí)踐案例中,我們結(jié)合上文的“本期 信用卡 賬單 應(yīng) 還款 是 多少”,作為輸入,銀行客服大模型會給去【執(zhí)行賬單應(yīng)還款額查詢】策略,從而觸發(fā)相應(yīng)的任務(wù)機(jī)制,從銀行核心系統(tǒng)提取用戶本期信用卡賬單的還款金額數(shù)據(jù)。

當(dāng)用戶輸入是咨詢“有什么理財(cái)產(chǎn)品”相關(guān),則銀行智能客服會去【執(zhí)行理財(cái)產(chǎn)品推薦】,調(diào)用銀行產(chǎn)品推薦系統(tǒng),獲得相應(yīng)的理財(cái)產(chǎn)品推薦數(shù)據(jù)返回給用戶。

五、總結(jié)與展望

本文從當(dāng)下最流行的大模型應(yīng)用出發(fā),結(jié)合對銀行使用大模型場景的方式,給出了基礎(chǔ)的銀行構(gòu)建大模型的方式。通過最后銀行大模型產(chǎn)品實(shí)踐樣例的搭建,完成了銀行大語言模型產(chǎn)品MVP版本的構(gòu)建。

當(dāng)然,本文也有不足之處,由于大模型涉及的內(nèi)容非常多,受于篇幅所限,不能面面俱到。

大模型的發(fā)展日新月異,本文的內(nèi)容僅基于已的理論的應(yīng)用,比較陳舊。

另外,在本文的實(shí)踐案例中,僅使用了基礎(chǔ)的Seq2Seq模型,沒有使用到Transformer,也沒有用到Attention機(jī)制,語料的規(guī)模也不夠,還不足以稱為“大模型”。后期我們會專門針對Transformer進(jìn)行詳細(xì)講解。

由于大模型目前涉及的場景非常多,各種開源的大模型,各種垂直細(xì)分領(lǐng)域的大模型產(chǎn)品如雨后春筍般出現(xiàn)。

很顯然,在銀行領(lǐng)域,大模型會成為銀行經(jīng)營新的賦能工具。大模型在圖表理解和金融計(jì)算方面能力非常強(qiáng)大,能夠解析和解釋各類金融圖表,包括識別圖表類型、理解數(shù)據(jù)含義、分析趨勢和模式;能夠進(jìn)行金融計(jì)算和建模,包括利率計(jì)算、投資組合優(yōu)化、風(fēng)險(xiǎn)評估等。

大模型可以對傳統(tǒng)銀行風(fēng)險(xiǎn)管理、反欺詐、個(gè)性化推薦、貸款審批、經(jīng)營決策等現(xiàn)有的功能進(jìn)行重構(gòu),使這些傳統(tǒng)功能煥發(fā)新的生機(jī),降低銀行經(jīng)營成本,提升銀行運(yùn)營效率,將會帶來質(zhì)的飛躍,成為銀行新的發(fā)展動能。

參考文獻(xiàn)

[1]王佳亮.產(chǎn)品經(jīng)理知識棧[M].出版地:人民郵電出版社,2023

[2]黃佳.GPT圖解 大模型是怎樣構(gòu)建的[M].出版地:人民郵電出版社,2024

[3]蝸牛海膽. (2021). NLP入門系列1:attention和transformer [EB/OL]. https://blog.csdn.net/ahdaizhixu/article/details/119749361

[4]潘小小. (2023). 【經(jīng)典精讀】萬字長文解讀Transformer模型和Attention機(jī)制:attention和transformer [EB/OL]. https://zhuanlan.zhihu.com/p/104393915

本文由人人都是產(chǎn)品經(jīng)理作者【佳佳原創(chuàng)】,微信公眾號:【佳佳原創(chuàng)】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 銀行產(chǎn)品要做這么細(xì)致的工作的呀

    來自浙江 回復(fù)
    1. 是呀,想把工作做好,不容易。

      來自上海 回復(fù)