2024年4月19日,主(zhu)題(ti)為「“融合創(chuang)‘新’,數‘智’賦(fu)能”—2024藝賽旗春季產品發布會」,在線上順利(li)舉行!
2023 年,ChatGPT 火出了圈,繼 ChatGPT 之后,全球各(ge)行各(ge)業大模(mo)型千(qian)帆競(jing)發。
在大模型的加持下,超自動化將會產生怎樣的“超能力”?
南京大學(xue)人工智能學(xue)院副院長、藝賽旗首席科學(xue)家黎銘(ming)教授在藝賽旗2024春季發布會上為我們了帶來主題為《基于大模(mo)型的流程自(zi)動(dong)化(hua)》的分享。
流程自動化的關鍵是要理清流程,在完成自動化之前,流程挖掘是非常重要的一步。
企業不管是要做數字化轉型,還是要提升經營效率,首先(xian)都(dou)需要(yao)對整個公司(si)的業務進行實(shi)時(shi)客(ke)觀(guan)的觀(guan)察和了解。
由于大部分企業的內部涉及多個異構的業務系統,數據往往分散在多個系統中,難以給出一個統一的高質量日志文件。
此外即便通過流程挖掘發現了業務流程中的瓶頸,優化建議的執行和效果驗證仍然依賴于人員進行,這需要和用戶頻繁溝通了解訴求,不同視角的人總結出來的流程可能存在差異,反饋的時間可能較長,帶來大量溝通成本,最終導致項目難以推進。
黎教授指出,機器學習是利用經驗來提高系統性能的一種技術,它可以從業務數據中自動發現、配置并運行流程,并根據業務條件與變化對自身進行適時調整。機器學習研究的主要產物是算法,這些算法可以在各個行業有廣泛應用,包括計算機視覺、人工智能和數據挖掘。
現如今機器學習已經成為人工智能領域的核心研究之一,在各個領域中展現出巨大的潛力和創新能力。計算機領域的最高獎——圖靈獎就連續授予了這方(fang)面的學者。
除了學術界,政府和工業界也對機器學習給予了高度重視,我國在《新一代人工智能發展規劃》里,將機器學習列為需重點研究的關鍵基礎理論之一,美國白宮印發的人工智能白皮書,也將其列為人工智能領域最重要技術之一。
基于深度學習(xi)模型(xing)的ChatGPT應運而生
機器學習是隨著人工智能發展而興起的,到了 90 年代開始逐漸受到重視。機器學習的一個重要分支方向是深度學習,由學者 Jeffrey Hinton 在 2006 年提出。深度(du)學習(xi)的(de)發展使(shi)得機器(qi)學習(xi)模型能夠(gou)解(jie)決(jue)更復雜的(de)問(wen)題,例如2016年基于深度學習模型的AlphaGo 就打敗了人類頂尖棋手,引起了全世界的轟動。
到了2022年底,基于深度學習模型的ChatGPT誕生,再次引起了廣泛關注,ChatGPT驗證了大模型的巨大商業價值和科研價值。ChatGPT不僅是一個對話機器人,它還在機器翻譯、問答系統、創意寫作、搜索和閱讀理解等方面取得了許多成功案例。
為了提(ti)高模(mo)型的推理能力,OpenAI在2021年利用(yong)179G的代碼數據對GPT3進行訓練,希望通過(guo)這種訓練提升模型的邏輯推理(li)能力。
既然模型已經開始用代碼進行訓練,那么人們就開始思考 ChatGPT 這樣的預訓(xun)練模型是(shi)否可以更(geng)好地用于軟件開發?
我們很早就開始了在這方面的思考,針(zhen)對(dui)代碼的局(ju)部領域關(guan)系(xi)(xi)(xi)、線性依賴關(guan)系(xi)(xi)(xi)、語法依賴關(guan)系(xi)(xi)(xi)、控制依賴關(guan)系(xi)(xi)(xi)、多(duo)(duo)層次結(jie)構交互關(guan)系(xi)(xi)(xi)等進行了研究,提出了多(duo)(duo)種學(xue)習模型。
研究過程中遇到了數據量不足的問題,難以支撐訓練出一個比較好的深度模型。因此,我們開始在網上獲得大量代碼信息,做出一個通用的代碼表征模型,并通過代碼復用技術,將其應用到各個任務中,從而獲得更好的性能。
因此我們提出了一個基于模型復用的框架,基(ji)于此框架訓練(lian)出一個可重用的軟件缺陷(xian)挖掘模型RUM,并將其(qi)應用于不同(tong)的(de)缺(que)陷(xian)挖掘任(ren)務中。這(zhe)是最早的(de)使用預訓練模型來解決不同(tong)任(ren)務的(de)思考模式(shi),也為后續的(de)研究方向奠定了基礎。
ChatGPT就是這樣一個經過語言和代碼訓練的通用模型,在軟件開發過程中的具有很大的應用潛力。工業界對此也有深入的跟進和思考,如Microsoft和OpenAI聯合開發的GPT代碼生成模型CoPilot,以及GitHub和OpenAI合作開發的代碼生成模型Codex,都在代碼生成領域取得了顯著的成功。
在使用ChatGPT的過程中,它展現出了強大的語言和邏輯推理能力,能夠輔助開發者編寫高質量的代碼。例如,當需要編寫一個Python版本的快速排序代碼時,ChatGPT可以直接生成代碼,并附帶對該代碼的解釋。
然而,當涉及到業務代碼時,ChatGPT的性能就會受到挑戰。在自動化流程挖掘中,生成相應的流程挖掘代碼是一項關鍵任務,這需要解決ChatGPT在業務代碼編寫方面的短板。
第一個挑戰是 ChatGPT 對語言的過度依賴。作為一個基于語言的模型,ChatGPT在分析代碼(即編程語言)時會遇到困難,因為編程語言和自然語言存在顯著差異。盡管編程語言可以通過程序員的要求提高代碼的可讀性,但這并非強制性的。換言之,即使代碼的可讀性較差,它仍然可以正常運行。因此,如果用ChatGPT這樣的模型去分析這樣的代碼,可能會導致錯誤。
為此(ci),我們(men)提出了一個相應的嘗(chang)試性解決方案—— VECOS。這個模型可以對質量非常低的,甚至是反編譯出來的代碼進行語義分析和理解。
另一個挑戰是雖然 ChatGPT 對語言文字很敏感,但對編程語言的功能語義建模能力有限。
對此,黎教授舉例說明,有兩段 Java 代碼,可能在詞匯表級別完全一致,但實際功能和語義卻有顯著差異。這是因為在程序設計中,程序結構中的內在關系尤為重要。如果要生成或理解代碼的功能,就需要對這部分進行有效建模。然而,目前的ChatGPT模型只抓住了文字層面的關系,卻忽略了程序內蘊的結構聯系。因此,需要對相應的程序結構語義進行特殊的建模。
針對這一問題,我們開始探討如何在以Transformer為基礎模型的預訓練大模型上考慮代碼結構特征?
Transformer是目前最先進的神經網絡結構之一。它通過自注意力機制,能夠捕捉到輸入序列中的長距離依賴關系,從而實現對復雜語義的理解。這種強大的能力使得ChatGPT能夠處理各種復雜的自然語言任務,包括問答、文本生成、摘要等。并且針對代碼的多層次結構特征,我們提出了基于新型(xing)“金(jin)字塔注意(yi)力機制(zhi)” Transformer 基礎模(mo)型(xing) PA-former。
以上所述的基礎理論方法和技術已被應用到實際業務場景中,包(bao)括藝(yi)賽旗的(de)流程挖掘技術及業務場(chang)景,以(yi)幫助(zhu)其更好的(de)進行業務流程的(de)發掘。
南京大學(xue)與(yu)藝賽(sai)旗共同發起的(de)(de)智能研究院(yuan)在人工(gong)智能及(ji)超自動化領域(yu)的(de)(de)研究成(cheng)果(guo),充分(fen)展現了其卓越的(de)(de)創(chuang)新能力。這些(xie)研(yan)究成果不僅在(zai)學術界受到高度認可,也在(zai)實際應用中取得了顯著的(de)成果。隨(sui)著科技的(de)不斷進步和發展(zhan),相信這(zhe)些成(cheng)果將在更(geng)多(duo)領域發揮(hui)重要的(de)作用。