2024年4月(yue)19日(ri),主題為「“融合創‘新’,數(shu)‘智’賦能”—2024藝賽旗春(chun)季產(chan)品發(fa)布(bu)會(hui)」,在線上順利舉行!
2023 年(nian),ChatGPT 火出了(le)圈(quan),繼 ChatGPT 之后,全球各行各業大模型千帆競發。
在大模型的加持下,超自動化將會產生怎樣的“超能力”?
南(nan)京大學(xue)(xue)(xue)人工智能(neng)學(xue)(xue)(xue)院副院長(chang)、藝賽旗首席科學(xue)(xue)(xue)家(jia)黎銘教授在藝賽旗2024春季發布會上為我們了帶來主題為《基于(yu)大(da)模型的(de)流程(cheng)自動(dong)化》的分享。
流程自動化的關鍵是要理清流程,在完成自動化之前,流程挖掘是非常重要的一步。
企業不管是要做數字化轉型,還是要提升經營效率,首(shou)先(xian)都需要(yao)對整個公司的業(ye)務進行實時(shi)客觀的觀察和(he)了解。
由于大部分企業的內部涉及多個異構的業務系統,數據往往分散在多個系統中,難以給出一個統一的高質量日志文件。
此外即便通過流程挖掘發現了業務流程中的瓶頸,優化建議的執行和效果驗證仍然依賴于人員進行,這需要和用戶頻繁溝通了解訴求,不同視角的人總結出來的流程可能存在差異,反饋的時間可能較長,帶來大量溝通成本,最終導致項目難以推進。
黎教授指出,機器學習是利用經驗來提高系統性能的一種技術,它可以從業務數據中自動發現、配置并運行流程,并根據業務條件與變化對自身進行適時調整。機器學習研究的主要產物是算法,這些算法可以在各個行業有廣泛應用,包括計算機視覺、人工智能和數據挖掘。
現如今機器學習已經成為人工智能領域的核心研究之一,在各個領域中展現出巨大的潛力和創新能力。計算機領(ling)域的(de)最高獎(jiang)——圖靈獎(jiang)就連續(xu)授予了這方面的(de)學(xue)者(zhe)。
除了學術界,政府和工業界也對機器學習給予了高度重視,我國在《新一代人工智能發展規劃》里,將機器學習列為需重點研究的關鍵基礎理論之一,美國白宮印發的人工智能白皮書,也將其列為人工智能領域最重要技術之一。
基于深度學習模型的ChatGPT應(ying)運而生
機器學習是隨著人工智能發展而興起的,到了 90 年代開始逐漸受到重視。機器學習的一個重要分支方向是深度學習,由學者 Jeffrey Hinton 在 2006 年提出。深度(du)學(xue)習(xi)的發展使得機器學(xue)習(xi)模型能夠(gou)解決更復(fu)雜(za)的問題,例如2016年基于深度學習模型的AlphaGo 就打敗了人類頂尖棋手,引起了全世界的轟動。
到了2022年底,基于深度學習模型的ChatGPT誕生,再次引起了廣泛關注,ChatGPT驗證了大模型的巨大商業價值和科研價值。ChatGPT不僅是一個對話機器人,它還在機器翻譯、問答系統、創意寫作、搜索和閱讀理解等方面取得了許多成功案例。
為(wei)了(le)提高(gao)模型的推理能(neng)力(li),OpenAI在2021年利用(yong)179G的代(dai)碼數據對(dui)GPT3進行訓練,希望通過(guo)這種(zhong)訓練提升模型的邏輯推(tui)理能力。
既然模型已經開始用代碼進行訓練,那么人們就開始思(si)考(kao) ChatGPT 這樣(yang)的(de)預(yu)訓(xun)練模型是(shi)否(fou)可以更好(hao)地用(yong)于軟(ruan)件(jian)開發?
我們很早就開始了在這方面的思考,針對代碼的局部領域關(guan)(guan)系(xi)、線性依(yi)(yi)(yi)賴(lai)關(guan)(guan)系(xi)、語法依(yi)(yi)(yi)賴(lai)關(guan)(guan)系(xi)、控制(zhi)依(yi)(yi)(yi)賴(lai)關(guan)(guan)系(xi)、多層次結構交互關(guan)(guan)系(xi)等進行了研究(jiu),提(ti)出(chu)了多種學習模型。
研究過程中遇到了數據量不足的問題,難以支撐訓練出一個比較好的深度模型。因此,我們開始在網上獲得大量代碼信息,做出一個通用的代碼表征模型,并通過代碼復用技術,將其應用到各個任務中,從而獲得更好的性能。
因此我們提出了一個基于模型復用的框架,基于此(ci)框(kuang)架訓練出一個可(ke)重用的軟件缺陷挖掘模型RUM,并(bing)將其應用于不同的缺陷挖掘任(ren)務中。這是最早的使用預訓練模型來解決不同任(ren)務的思考模式,也(ye)為后續的研究方向奠定了基礎。
ChatGPT就是這樣一個經過語言和代碼訓練的通用模型,在軟件開發過程中的具有很大的應用潛力。工業界對此也有深入的跟進和思考,如Microsoft和OpenAI聯合開發的GPT代碼生成模型CoPilot,以及GitHub和OpenAI合作開發的代碼生成模型Codex,都在代碼生成領域取得了顯著的成功。
在使用ChatGPT的過程中,它展現出了強大的語言和邏輯推理能力,能夠輔助開發者編寫高質量的代碼。例如,當需要編寫一個Python版本的快速排序代碼時,ChatGPT可以直接生成代碼,并附帶對該代碼的解釋。
然而,當涉及到業務代碼時,ChatGPT的性能就會受到挑戰。在自動化流程挖掘中,生成相應的流程挖掘代碼是一項關鍵任務,這需要解決ChatGPT在業務代碼編寫方面的短板。
第一個挑戰是 ChatGPT 對語言的過度依賴。作為一個基于語言的模型,ChatGPT在分析代碼(即編程語言)時會遇到困難,因為編程語言和自然語言存在顯著差異。盡管編程語言可以通過程序員的要求提高代碼的可讀性,但這并非強制性的。換言之,即使代碼的可讀性較差,它仍然可以正常運行。因此,如果用ChatGPT這樣的模型去分析這樣的代碼,可能會導致錯誤。
為此(ci),我們提出了一個相應的嘗(chang)試(shi)性解決方(fang)案(an)—— VECOS。這個模型可以對質量非常低的,甚至是反編譯出來的代碼進行語義分析和理解。
另一個挑戰是雖然 ChatGPT 對語言文字很敏感,但對編程語言的功能語義建模能力有限。
對此,黎教授舉例說明,有兩段 Java 代碼,可能在詞匯表級別完全一致,但實際功能和語義卻有顯著差異。這是因為在程序設計中,程序結構中的內在關系尤為重要。如果要生成或理解代碼的功能,就需要對這部分進行有效建模。然而,目前的ChatGPT模型只抓住了文字層面的關系,卻忽略了程序內蘊的結構聯系。因此,需要對相應的程序結構語義進行特殊的建模。
針對這一問題,我們開始探討如何在以Transformer為基礎模型的預訓練大模型上考慮代碼結構特征?
Transformer是目前最先進的神經網絡結構之一。它通過自注意力機制,能夠捕捉到輸入序列中的長距離依賴關系,從而實現對復雜語義的理解。這種強大的能力使得ChatGPT能夠處理各種復雜的自然語言任務,包括問答、文本生成、摘要等。并且針對代碼的多層次結構特征,我們提出了基(ji)于新型“金字塔注意(yi)力機制(zhi)” Transformer 基(ji)礎模(mo)型 PA-former。
以上所述的基礎理論方法和技術已被應用到實際業務場景中,包括藝賽旗的(de)流(liu)(liu)程(cheng)挖掘(jue)技術(shu)及業務場景,以幫助其更好的(de)進行業務流(liu)(liu)程(cheng)的(de)發掘(jue)。
南京(jing)大學與藝賽旗共同發起(qi)的智能研究(jiu)(jiu)院(yuan)在人(ren)工智能及超自動化領域(yu)的研究(jiu)(jiu)成果,充分展現了其卓越的創(chuang)新能力。這些研究成(cheng)果不(bu)僅在學(xue)術界受到高度認可(ke),也(ye)在實際應用中取得(de)了(le)顯著(zhu)的成(cheng)果。隨著科技(ji)的(de)不斷進步和(he)發展,相信這些成果將(jiang)在更多(duo)領域發揮重要的(de)作用(yong)。