每日動(dòng)態(tài)!ChatGPT在金融營(yíng)銷領(lǐng)域的應(yīng)用
2023-04-27 09:35:21 |來源:未央網(wǎng)
3月21日,比爾·蓋茨發(fā)表文章表示,自1980年首次看到圖形用戶界面以來,OpenAI的GPT人工智能模式是他所見過的最具革命性的技術(shù)進(jìn)步。3月23日,OpenAI宣布目前正在逐步推出ChatGPT相關(guān)插件。
AI技術(shù)的應(yīng)用比想象中更快,人工智能時(shí)代已經(jīng)到來。各行各業(yè)暢想人工智能將在各領(lǐng)域帶來怎樣的改變,AI將給財(cái)富管理領(lǐng)域帶來怎樣的變革?本期我們采訪了道樂科技技術(shù)總監(jiān)蔡樹彬,看看他對(duì)ChatGPT的技術(shù)解讀及金融營(yíng)銷領(lǐng)域應(yīng)用的猜想。
ChatGPT技術(shù)解析
簡(jiǎn)單來說,ChatGPT(及GPT系列)是一種基于深度學(xué)習(xí)的自然語(yǔ)言處理技術(shù)。其基本原理是使用大規(guī)模的語(yǔ)料庫(kù)進(jìn)行訓(xùn)練,以獲得自然語(yǔ)言的語(yǔ)義和語(yǔ)法規(guī)則,從而生成自然流暢的對(duì)話。ChatGPT主要經(jīng)由數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、模型優(yōu)化和微調(diào)以及模型部署和應(yīng)用這4個(gè)階段形成。
(相關(guān)資料圖)
01 數(shù)據(jù)準(zhǔn)備
數(shù)據(jù)準(zhǔn)備包括數(shù)據(jù)收集和數(shù)據(jù)清洗。OpenAI沒有披露ChatGPT的具體訓(xùn)練數(shù)據(jù)集,但ChatGPT是在GPT-3的基礎(chǔ)上形成的,兩者的數(shù)據(jù)集大致相同。GPT-3的訓(xùn)練數(shù)據(jù)集包括但不限于以下維基百科、新聞、社交媒體等超過45TB的數(shù)據(jù)集:
除了這些數(shù)據(jù)集外,ChatGPT 還利用了其他一些開源的自然語(yǔ)言數(shù)據(jù)集,如OpenWebText、WebText、Stories等,以擴(kuò)展模型的語(yǔ)言覆蓋范圍和學(xué)習(xí)能力。這些數(shù)據(jù)集的廣泛性和多樣性可以幫助模型學(xué)習(xí)更豐富和復(fù)雜的語(yǔ)言知識(shí)和模式。ChatGPT 對(duì)這些數(shù)據(jù)集進(jìn)行了清洗、預(yù)處理和格式化,以保證數(shù)據(jù)的質(zhì)量和一致性,提高模型的訓(xùn)練效果和性能。質(zhì)量越高的數(shù)據(jù)集,如Wikipedia,具有更高的權(quán)重,在訓(xùn)練中會(huì)被更多地使用到。
數(shù)據(jù)集信息
02 模型訓(xùn)練
Transformer 模型結(jié)構(gòu)
具體來說,Transformer的模型各部分功能如下:
在這個(gè)處理過程中,語(yǔ)言文本中的單詞都被轉(zhuǎn)化為向量表示,這個(gè)向量就是詞向量。詞向量將單詞表示為一個(gè)固定長(zhǎng)度的向量,其中每個(gè)維度代表了單詞在不同語(yǔ)境下的含義。向量之間的距離與詞語(yǔ)之間的語(yǔ)義相似度保持一致,這樣單詞之間的相似性和關(guān)聯(lián)性就可以在詞向量空間中獲得表示。這種方式將單詞轉(zhuǎn)換為計(jì)算機(jī)可以處理的數(shù)值形式,從而可以方便地進(jìn)行各種自然語(yǔ)言處理任務(wù)。
ChatGPT是使用無監(jiān)督學(xué)習(xí)的方式進(jìn)行訓(xùn)練的。在訓(xùn)練ChatGPT模型時(shí),需要定義一個(gè)損失函數(shù),它可以幫助我們?cè)u(píng)估模型的性能并指導(dǎo)其學(xué)習(xí)——即訓(xùn)練模型的目標(biāo)是使損失函數(shù)最小化。
在ChatGPT的訓(xùn)練中,損失函數(shù)一般是基于語(yǔ)言模型的交叉熵?fù)p失函數(shù)。交叉熵?fù)p失函數(shù)的目標(biāo)是最小化模型預(yù)測(cè)的概率分布與實(shí)際概率分布之間的差異。兩者之間的差異越小,則代表模型的性能就越好。GPT最早期使用的是一種基于自回歸模型的語(yǔ)言模型,它通過最大化給定輸入序列的下一個(gè)單詞出現(xiàn)的概率來預(yù)訓(xùn)練模型。自回歸模型的目標(biāo)是最大化模型對(duì)無標(biāo)注文本數(shù)據(jù)的似然性,即最大化模型在給定無標(biāo)注文本數(shù)據(jù)下的對(duì)數(shù)似然函數(shù)。這樣,訓(xùn)練出來的模型可以在當(dāng)前輸入文本序列的基礎(chǔ)上,預(yù)測(cè)下一個(gè)單詞出現(xiàn)的概率。預(yù)測(cè)概率的一個(gè)重要指標(biāo)就是似然性,即當(dāng)前模型預(yù)測(cè)的結(jié)果與實(shí)際觀測(cè)值之間的相似程度。
在GPT-2,GPT-3中,在模型預(yù)訓(xùn)練階段還引入了掩碼語(yǔ)言模型(MLM,Masked Language Model,和Bert中的一樣)。MLM的目標(biāo)是在輸入序列中隨機(jī)遮蓋一些單詞,并讓模型預(yù)測(cè)這些被遮蓋的單詞。掩碼語(yǔ)言模型的似然函數(shù)表示為:
其中Wi表示第i個(gè)位置的被遮蔽的單詞,通常在文本中用一個(gè)特殊符號(hào)“[MASK]”標(biāo)記,Wi表示第i個(gè)位置之后的單詞序列,表示文本序列的長(zhǎng)度。使用MLM技術(shù)可以迫使模型學(xué)習(xí)到上下文信息,并在預(yù)測(cè)下一個(gè)標(biāo)記時(shí)考慮到前面已經(jīng)出現(xiàn)的標(biāo)記。MLM損失函數(shù)的目標(biāo)是最小化模型預(yù)測(cè)被替換標(biāo)記的概率分布與真實(shí)標(biāo)記的概率分布之間的差異,即使上述似然函數(shù)最大。
在訓(xùn)練ChatGPT模型時(shí),需要使用梯度下降算法對(duì)模型參數(shù)進(jìn)行優(yōu)化,以最小化模型的損失函數(shù)。ChatGPT 使用隨機(jī)梯度下降 (SGD) 的變體進(jìn)行訓(xùn)練,稱為 Adam 優(yōu)化器。Adam 優(yōu)化器結(jié)合了 SGD 和均方根傳播 (RMSProp) 優(yōu)化算法的優(yōu)點(diǎn),在訓(xùn)練過程中可以自適應(yīng)地調(diào)整學(xué)習(xí)率,有助于模型更快、更準(zhǔn)確地收斂。
從GPT-1到GPT-3,GPT模型的幾個(gè)重要參數(shù)都在迅速增大。詞向量的維度從768維快速增加到12888維;上下文窗口大小從1024增加到2048;每層Transformer的注意頭從12個(gè)增加到96個(gè),Transformer的層數(shù)從12層增加到96層。模型參數(shù)從1.17億急劇增加到1750億,訓(xùn)練的代價(jià)也從幾百萬(wàn)美元增加到上億美元。隨著模型參數(shù)量急劇增大,模型甚至涌現(xiàn)出一些人們預(yù)料之外的能力。
03 模型優(yōu)化和微調(diào)
模型微調(diào)的訓(xùn)練數(shù)據(jù)來自多個(gè)NLP任務(wù)(如分類、相似、選擇和蘊(yùn)含推理等)的公開數(shù)據(jù)集,這些數(shù)據(jù)集有明確的標(biāo)注,規(guī)模相對(duì)較小。OpenAI未公開所使用的數(shù)據(jù)集,一些常用的NLP數(shù)據(jù)集列舉如下:
模型微調(diào)時(shí)只訓(xùn)練輸出層和分隔符的嵌入值。利用分隔符使模型能使用相同的方式(預(yù)測(cè)下一個(gè)單詞)來處理不同的NLP任務(wù)。ChatGPT微調(diào)時(shí)使用的數(shù)據(jù)集包括Cornell Movie Dialogs Corpus、Persona-Chat、DailyDialog等,這些數(shù)據(jù)集覆蓋了不同領(lǐng)域和類型的對(duì)話,包括電影對(duì)話、個(gè)性化對(duì)話、日常對(duì)話等。通過使用這些數(shù)據(jù)集,ChatGPT可以更好地理解和模擬人類對(duì)話,從而提高其生成對(duì)話的質(zhì)量和流暢度。
一般的模型在訓(xùn)練時(shí)以預(yù)測(cè)下一個(gè)單詞的方式和最小化損失函數(shù)來建模,未能引入人的偏好和主觀意見。ChatGPT在模型優(yōu)化和微調(diào)時(shí)使用了指令微調(diào) (Instruction Fine-Tuning,IFT),有監(jiān)督微調(diào) (Supervised Fine-tuning, SFT)和人類反饋強(qiáng)化學(xué)習(xí) (Reinforcement Learning From Human Feedback,RLHF)等方法來提高生成文本的質(zhì)量。
指令微調(diào)可以讓模型學(xué)會(huì)以正確的方式遵循用戶的指令。指令范式由三個(gè)主要部分組成:指令,輸入和輸出。IFT 的訓(xùn)練數(shù)據(jù)通常是人工編寫的指令及用語(yǔ)言模型自舉生成的實(shí)例的集合。在自舉時(shí),先輸入一些指令樣本給LLM 用于提示它,隨后要求 LLM 生成新的指令、輸入和輸出。每一輪都會(huì)從人工編寫的樣本和模型生成的樣本中各選擇一些高質(zhì)量指令輸入到模型中。然而經(jīng)過指令微調(diào)的模型并不總是生成有幫助的和安全的響應(yīng),所以還需要在高質(zhì)量的人類標(biāo)注數(shù)據(jù)上使用SFT來微調(diào)模型,以提高有用性和無害性。
RLHF的思想是使用強(qiáng)化學(xué)習(xí)的方式直接優(yōu)化帶有人類反饋的語(yǔ)言模型。RLHF使得在一般文本數(shù)據(jù)語(yǔ)料庫(kù)上訓(xùn)練的語(yǔ)言模型能和復(fù)雜的人類價(jià)值觀對(duì)齊。RLHF的訓(xùn)練過程可以分解為三個(gè)核心步驟:1.預(yù)訓(xùn)練語(yǔ)言模型;2.收集數(shù)據(jù)并訓(xùn)練獎(jiǎng)勵(lì)模型;3.通過強(qiáng)化學(xué)習(xí)微調(diào)LM。RLHF的實(shí)現(xiàn)包括兩個(gè)重要的組成部分:獎(jiǎng)勵(lì)模型和人類反饋收集。獎(jiǎng)勵(lì)模型是一個(gè)用于評(píng)估生成文本質(zhì)量的模型,它基于已有的訓(xùn)練數(shù)據(jù)和人類反饋,學(xué)習(xí)生成文本的質(zhì)量,并給出相應(yīng)的獎(jiǎng)勵(lì)或懲罰。獎(jiǎng)勵(lì)模型的目標(biāo)是最大化模型得到的總體獎(jiǎng)勵(lì)。
在ChatGPT中,獎(jiǎng)勵(lì)模型是通過對(duì)人類反饋進(jìn)行監(jiān)督學(xué)習(xí)得到的,這些反饋包括對(duì)生成文本的評(píng)價(jià)和改進(jìn)建議。人類反饋收集是RLHF的另一個(gè)重要組成部分,它用于訓(xùn)練獎(jiǎng)勵(lì)模型并提供獎(jiǎng)勵(lì)或懲罰。在ChatGPT中,人類反饋收集主要通過兩種方式實(shí)現(xiàn)。一種是在線收集人類反饋,即讓人類用戶在與聊天機(jī)器人對(duì)話時(shí),對(duì)機(jī)器人生成的文本進(jìn)行評(píng)價(jià)和反饋。另一種是離線收集人類反饋,即從已有的人類對(duì)話記錄中提取生成文本和人類反饋,用于獎(jiǎng)勵(lì)模型的訓(xùn)練和模型參數(shù)的微調(diào)。
最后使用近端策略優(yōu)化 (Proximal Policy Optimization,PPO) 微調(diào)初始 LM 的部分或全部參數(shù)。PPO 算法確定的獎(jiǎng)勵(lì)函數(shù)具體計(jì)算如下:將提示輸入初始 LM 和當(dāng)前微調(diào)的 LM,分別得到了輸出文本,將來自當(dāng)前策略的文本傳遞給 RM 得到一個(gè)標(biāo)量的獎(jiǎng)勵(lì) ,將兩個(gè)模型的生成文本進(jìn)行比較,計(jì)算差異的懲罰項(xiàng)。在每個(gè)訓(xùn)練批次中,這一項(xiàng)被用于懲罰 RL策略生成的文本大幅偏離初始模型,以確保模型輸出合理連貫的文本。最后根據(jù) PPO 算法,我們按當(dāng)前批次數(shù)據(jù)的獎(jiǎng)勵(lì)指標(biāo)進(jìn)行優(yōu)化。PPO 算法是一種信賴域優(yōu)化 (Trust Region Optimization,TRO) 算法,它使用梯度約束確保更新步驟不會(huì)破壞學(xué)習(xí)過程的穩(wěn)定性。
ChatGPT 訓(xùn)練流程
04 模型部署和應(yīng)用
經(jīng)訓(xùn)練后獲得的模型,或換句話說就是訓(xùn)練得到的權(quán)重和偏置矩陣等,則可以部署到所需的應(yīng)用系統(tǒng)中并對(duì)外提供服務(wù)。OpenAI將模型部署在微軟的Azure云上后,圍繞該模型設(shè)計(jì),應(yīng)用了賬戶、計(jì)費(fèi)、用戶界面等模塊,同時(shí)開放了API接口,形成了我們?nèi)粘K佑|的ChatGPT。從下圖的接口示例可以看到,該接口使用起來非常簡(jiǎn)單(與OpenAI網(wǎng)站的Playground頁(yè)面內(nèi)容一一對(duì)應(yīng))。
ChatGPT是在大量語(yǔ)料上訓(xùn)練出來的語(yǔ)言模型。通過綜合提煉這些語(yǔ)料上的語(yǔ)言上下文模式,它能很好地根據(jù)輸入,預(yù)測(cè)下一個(gè)詞或下一段話。也即它能通過提示語(yǔ),生成回答。對(duì)比之前其他NLP模型,GPT有一個(gè)重要的設(shè)計(jì)目標(biāo)是要在不針對(duì)特定任務(wù)進(jìn)行微調(diào)的情況下,盡可能地提高模型的泛化能力,從而能在多個(gè)NLP任務(wù)中實(shí)現(xiàn)更好的表現(xiàn)。OpenAI的實(shí)驗(yàn)表明,通過利用指令(instruction)和示例(shot),ChatGPT已經(jīng)能很好地實(shí)現(xiàn)這個(gè)目標(biāo)。另一方面,OpenAI通過分析數(shù)百萬(wàn)行現(xiàn)有的代碼和文檔,訓(xùn)練了Codex模型,學(xué)習(xí)編程語(yǔ)言的語(yǔ)法和編程模式。Codex模型學(xué)習(xí)了許多邏輯分析和處理的內(nèi)容,被認(rèn)為可能是引發(fā)了ChatGPT思維鏈(CoT)的主要原因。通過綜合運(yùn)用指令、示例和思維鏈,我們可以讓ChatGPT產(chǎn)生更有意思的回答。
AI在金融營(yíng)銷領(lǐng)域的應(yīng)用
AI在金融領(lǐng)域早有過不少成功實(shí)施的先例。ChatGPT引起的這次AIGC浪潮,以內(nèi)容生成為其主要特征,將在金融領(lǐng)域各個(gè)需要生成內(nèi)容、使用內(nèi)容、核對(duì)內(nèi)容的地方獲得各種應(yīng)用。例如,在金融營(yíng)銷領(lǐng)域,AIGC可以輔助生成營(yíng)銷材料;在投資者教育領(lǐng)域,AIGC可以生成專門針對(duì)投資者的金融教育材料;在社群運(yùn)營(yíng)領(lǐng)域,AIGC可以輔助快速生成回復(fù)等等。
以金融營(yíng)銷領(lǐng)域?yàn)槔鎸?duì)市場(chǎng)快速變化,基金公司需要及時(shí)發(fā)布、更新相關(guān)營(yíng)銷資料。但基金客戶對(duì)基金產(chǎn)品的認(rèn)識(shí)理解差異大,千人一面的營(yíng)銷材料難以獲得投資者的廣泛認(rèn)可;基金產(chǎn)品介紹涉及的數(shù)據(jù)、內(nèi)容有高度的專業(yè)性要求,快速響應(yīng)的營(yíng)銷動(dòng)作容易出現(xiàn)差錯(cuò);投資者適當(dāng)性需要貫徹整個(gè)營(yíng)銷過程,片面追求營(yíng)銷效果容易導(dǎo)致出現(xiàn)合規(guī)性問題。在此背景下,提升營(yíng)銷效率和精度的重要性日益顯現(xiàn)。
基金行業(yè)的精細(xì)化營(yíng)銷可以從以下方面切入:以單客戶畫像為核心實(shí)施個(gè)性化策略;精準(zhǔn)匹配基金標(biāo)簽和客戶需求;高命中低頻次客戶需求;根據(jù)不同客戶特性和畫像推出多版本營(yíng)銷話術(shù),以期達(dá)到營(yíng)銷方案快速測(cè)試、精準(zhǔn)客戶觸達(dá)、精準(zhǔn)效果營(yíng)銷。為此,道樂科技推出“樂創(chuàng)”產(chǎn)品以賦能基金公司解決上述痛點(diǎn)。
樂創(chuàng)平臺(tái)是一款基于人工智能技術(shù)的金融營(yíng)銷內(nèi)容創(chuàng)作平臺(tái),旨在幫助金融機(jī)構(gòu)提升內(nèi)容創(chuàng)作效率和內(nèi)容質(zhì)量,實(shí)現(xiàn)智能化生成文字和圖片等內(nèi)容。
在樂創(chuàng)中,營(yíng)銷人員可以根據(jù)不同的應(yīng)用場(chǎng)景制定相應(yīng)的工作臺(tái),如產(chǎn)品宣傳、新基金發(fā)售、基金經(jīng)理介紹、營(yíng)銷活動(dòng)策劃、投資者教育專欄等。在每個(gè)應(yīng)用場(chǎng)景下,樂創(chuàng)均內(nèi)置對(duì)應(yīng)場(chǎng)景的輸入數(shù)據(jù),用戶只需要輕松地配置所需內(nèi)容即可高效地輸出針對(duì)不同需求的營(yíng)銷內(nèi)容,以幫助金融機(jī)構(gòu)更精準(zhǔn)和有效的營(yíng)銷。
以持營(yíng)基金內(nèi)容營(yíng)銷宣傳為例,用戶只需要根據(jù)頁(yè)面指示選擇需要宣傳的基金、指定面向的受眾、需要結(jié)合的時(shí)事熱點(diǎn),以及配置輸出的規(guī)則,如內(nèi)容人設(shè)、文本長(zhǎng)度和文本數(shù)量等。
同時(shí),在選擇基金后系統(tǒng)還會(huì)自動(dòng)調(diào)用道樂金融營(yíng)銷數(shù)據(jù)庫(kù)中關(guān)于該基金的信息,如在不同統(tǒng)計(jì)范圍之內(nèi)的業(yè)績(jī)表現(xiàn)、最大回撤、基金經(jīng)理、同類排名以及投資主題。
用戶可以按不同營(yíng)銷場(chǎng)景的需要,擇優(yōu)選取關(guān)鍵營(yíng)銷內(nèi)容,免去在數(shù)據(jù)平臺(tái)和內(nèi)容創(chuàng)作平臺(tái)之間數(shù)據(jù)來回復(fù)制的麻煩。
金融機(jī)構(gòu)往往同時(shí)面對(duì)多個(gè)目標(biāo)客戶群體,如零售客戶、機(jī)構(gòu)客戶、高凈值客戶等,需要為每個(gè)群體創(chuàng)作不同類型的內(nèi)容。但由于資源和時(shí)間有限,很難同時(shí)保證每個(gè)群體的內(nèi)容都能夠得到充分的關(guān)注和投入。
樂創(chuàng)的另一大特色是可以內(nèi)置多個(gè)用戶畫像,通過一下點(diǎn)擊切換目標(biāo)客戶群,調(diào)整營(yíng)銷內(nèi)容的輸出。
除了內(nèi)置的畫像,還可以自定義創(chuàng)建無數(shù)用戶畫像,只需要輸入性別、年齡層即可對(duì)客戶進(jìn)行精細(xì)化分類,還可以對(duì)用戶痛點(diǎn)進(jìn)行設(shè)置,讓 AI 輸出的結(jié)果更有針對(duì)性,以達(dá)到提升轉(zhuǎn)化率的效果。
基金營(yíng)銷往往與時(shí)下政策熱點(diǎn)、投資熱點(diǎn)相關(guān),運(yùn)營(yíng)人員需要在不同平臺(tái)資訊中來回翻找可供參考的信息,還要抽象和提煉內(nèi)容的觀點(diǎn),無疑十分費(fèi)時(shí)費(fèi)力。為此,樂創(chuàng)整合多個(gè)財(cái)經(jīng)平臺(tái)資訊供用戶搜索和參考。只需選取相關(guān)的熱點(diǎn)標(biāo)題,樂創(chuàng)即會(huì)在后臺(tái)進(jìn)行觀點(diǎn)提煉,幫助用戶節(jié)省時(shí)間和精力。同時(shí),樂創(chuàng)還根據(jù)每一只基金進(jìn)行相關(guān)熱點(diǎn)匹配,方便用戶篩選。
經(jīng)過簡(jiǎn)單的配置和輸入后,樂創(chuàng)會(huì)根據(jù)輸入的要求瞬間生成多個(gè)符合要求的結(jié)果,用戶可以根據(jù)不同的結(jié)果進(jìn)行復(fù)制、收藏以及調(diào)優(yōu)。
金融領(lǐng)域的內(nèi)容營(yíng)銷必須符合監(jiān)管規(guī)定和保證信息安全,并且對(duì)表達(dá)專業(yè)性也有要求。因此,樂創(chuàng)會(huì)自動(dòng)為每一條結(jié)果進(jìn)行效果預(yù)測(cè)、受眾分析和智能風(fēng)控,以降低內(nèi)容審核所需的額外時(shí)間及成本,以及向不同受眾準(zhǔn)確地傳達(dá)可信實(shí)用的信息。
上述是用戶如何通過樂創(chuàng)快速批量生產(chǎn)營(yíng)銷短文案的說明。而基金公司除了短文案的生產(chǎn),往往也需要深度的長(zhǎng)文案輸出。以下則通過“指數(shù)投資價(jià)值分析”案例介紹如何在樂創(chuàng)中智能輸出長(zhǎng)文案。
在樂創(chuàng)中,用戶只需要通過兩大步驟即可輸出一篇長(zhǎng)文案:配置主題和審核調(diào)整。
(1)配置主題。以“指數(shù)投資價(jià)值分析”為例,用戶需要選取需要分析的產(chǎn)品品類(本例中為“指數(shù)”),然后選擇具體標(biāo)的(如“中證全指信息技術(shù)指數(shù)”),樂創(chuàng)即會(huì)在后臺(tái)生成智能大綱(下左圖)。用戶通過修改大綱內(nèi)容確定最終內(nèi)容輸出的框架,以控制輸出的內(nèi)容,本例中“指數(shù)投資價(jià)值分析”的框架是“指數(shù)簡(jiǎn)介”“指數(shù)成分分析”“指數(shù)業(yè)績(jī)分析”“指數(shù)估值表現(xiàn)”“與最新政策熱點(diǎn)結(jié)合”和“與當(dāng)前熱點(diǎn)的結(jié)合”。(下右圖)
(2)審核調(diào)整。樂創(chuàng)會(huì)根據(jù)智能大綱補(bǔ)充相關(guān)細(xì)節(jié),用戶在輸出后只需要審閱、調(diào)整輸出的內(nèi)容。在此步驟中,樂創(chuàng)提供了先進(jìn)的自然語(yǔ)言處理(NLP)技術(shù),對(duì)生成的內(nèi)容進(jìn)行文本審核,包括語(yǔ)法、拼寫、句法等方面的檢查,避免因?yàn)槲谋惧e(cuò)誤導(dǎo)致內(nèi)容質(zhì)量下降;進(jìn)行自動(dòng)優(yōu)化,包括調(diào)整詞匯、句子結(jié)構(gòu)、段落結(jié)構(gòu)等,以提高文章的整體質(zhì)量和流暢性;進(jìn)行語(yǔ)義分析,保證內(nèi)容的邏輯性和通順性,避免產(chǎn)生歧義或不通順的內(nèi)容;進(jìn)行可讀性分析,分析文章的段落長(zhǎng)度、句子長(zhǎng)度、使用詞匯、句子結(jié)構(gòu)等,提供具體的改進(jìn)建議,以提高文章的易讀性和可懂性。如用戶對(duì)段落或句子仍不滿意,還可以使用樂創(chuàng)的智能改寫工具進(jìn)行修改 —— 只需要告訴 AI 想怎樣修改即可,大大降低內(nèi)容創(chuàng)作成本。
同時(shí),樂創(chuàng)集成了道樂金融營(yíng)銷數(shù)據(jù)庫(kù)中的內(nèi)容,擁有強(qiáng)大的金融數(shù)據(jù)調(diào)取能力,用戶可以根據(jù)不同的場(chǎng)景需求插入不同的金融圖表。
總之,樂創(chuàng)是一款基于人工智能的全方位金融營(yíng)銷內(nèi)容創(chuàng)作解決方案,可以幫助金融機(jī)構(gòu)實(shí)現(xiàn)智能化服務(wù)和個(gè)性化營(yíng)銷,提高市場(chǎng)競(jìng)爭(zhēng)力和業(yè)務(wù)盈利能力。通過使用樂創(chuàng)平臺(tái),金融機(jī)構(gòu)可以提高客戶滿意度和營(yíng)銷效果,節(jié)約人力成本,并實(shí)現(xiàn)更加高效的客戶管理和營(yíng)銷。
參考文獻(xiàn)[1] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[J]. Advances in neural information processing systems, 2017, 30.[2] Brown T, Mann B, Ryder N, etal. Language models are few-shot learners[J]. Advances in neural information processing systems, 2020, 33: 1877-1901.[3] Ouyang L, Wu J, Jiang X, et al. Training language models to follow instructions with human feedback[J]. Advances in Neural Information Processing Systems, 2022, 35: 27730-27744.[4] OpenAI. GPT-4 Technical Report. OpenAI, 2023.
作者簡(jiǎn)介:蔡樹彬,中山大學(xué)計(jì)算機(jī)專業(yè)學(xué)士、博士。目前擔(dān)任道樂科技技術(shù)總監(jiān),深圳移動(dòng)互聯(lián)網(wǎng)應(yīng)用中間件技術(shù)工程實(shí)驗(yàn)室主任。
本文系未央網(wǎng)專欄作者:道樂研究院 發(fā)表,內(nèi)容屬作者個(gè)人觀點(diǎn),不代表網(wǎng)站觀點(diǎn),未經(jīng)許可嚴(yán)禁轉(zhuǎn)載,違者必究!關(guān)鍵詞:
標(biāo)簽閱讀
-
每日動(dòng)態(tài)!ChatGPT在金融營(yíng)銷領(lǐng)域的應(yīng)用
2023-04-27 -
“反殺”拼多多,淘寶DAU重返第一|世界報(bào)資訊
2023-04-27 -
信達(dá)地產(chǎn)完成發(fā)行16億中期票據(jù) 票面利率4.35%
2023-04-27 -
新消息丨智造預(yù)制菜丨發(fā)力“產(chǎn)學(xué)研”協(xié)同創(chuàng)新體系,珠海強(qiáng)晟...
2023-04-27 -
熱門:聯(lián)合精密業(yè)績(jī)短期承壓 白電消費(fèi)復(fù)蘇助力公司發(fā)展
2023-04-27 -
焦點(diǎn)簡(jiǎn)訊:集體巨崩!
2023-04-27 -
港股保險(xiǎn)股走強(qiáng) 中國(guó)平安漲超4%_世界今頭條
2023-04-27 -
傳媒股快速反彈 新華文軒4連板
2023-04-27 -
醫(yī)療保健板塊反復(fù)走強(qiáng) 多股漲超10%
2023-04-27 -
利爾達(dá)2022年分配預(yù)案,擬派發(fā)現(xiàn)金紅利6324.45萬(wàn)元 全球快看
2023-04-27 -
手指歌英文兒歌_手指歌
2023-04-27 -
安信信托危局后加速重啟 資訊
2023-04-27 -
2022年延續(xù)業(yè)績(jī)雙位數(shù)高增長(zhǎng) 洋河股份強(qiáng)勁勢(shì)能從何而來?
2023-04-27 -
港交所歐冠升:今年開局良好 將積極推動(dòng)全球?qū)υ捄突ヂ?lián)互通
2023-04-27 -
金徽股份資源儲(chǔ)備持續(xù)擴(kuò)大 券商預(yù)計(jì)公司2023年利潤(rùn)5.5億
2023-04-27 -
全球觀焦點(diǎn):華宇軟件去年虧超十億元 年報(bào)連續(xù)兩年被出具“...
2023-04-27 -
【GH電新】天合光能23年一季報(bào)報(bào)點(diǎn)評(píng)業(yè)績(jī)亮眼接
2023-04-27 -
中銀證券給予上海家化買入評(píng)級(jí) 環(huán)球新資訊
2023-04-27 -
簡(jiǎn)訊:達(dá)證券給予千味央廚買入評(píng)級(jí)
2023-04-27 -
亞科轉(zhuǎn)債、鹿山轉(zhuǎn)債上市!_每日熱點(diǎn)
2023-04-27