近日,安徽大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院江波教授團(tuán)隊(duì)在結(jié)構(gòu)模式識(shí)別與多模態(tài)信息處理研究方面取得新進(jìn)展。相關(guān)成果分別發(fā)表在人工智能頂級(jí)期刊IEEE Transactions on Pattern Analysis and Machine Intelligence (影響因子:23.6)和International Journal of Computer Vision (影響因子:19.5),安徽大學(xué)均為唯一單位。
圖1 基于圖注意力擴(kuò)散模型的神經(jīng)網(wǎng)絡(luò)框架
在圖表示學(xué)習(xí)方面,針對(duì)現(xiàn)有的圖注意力網(wǎng)絡(luò)難以對(duì)圖結(jié)構(gòu)關(guān)系信息進(jìn)行充分利用等挑戰(zhàn)問(wèn)題,江波教授團(tuán)隊(duì)提出了一種新的圖注意力擴(kuò)散模型(GRA)。GRA能夠在注意力擴(kuò)散的過(guò)程中保持圖的結(jié)構(gòu)化稀疏特性,并進(jìn)一步通過(guò)能量最小化框架實(shí)現(xiàn)了對(duì)GRA的機(jī)理進(jìn)行理論分析。相關(guān)成果在線發(fā)表于人工智能領(lǐng)域頂級(jí)期刊《IEEE Transactions on Pattern Analysis and Machine Intelligence》。江波教授為論文的第一作者,湯進(jìn)教授為論文的通訊作者。
圖2 交叉擴(kuò)散注意力模塊的架構(gòu)圖
在多模態(tài)信息融合方面,該團(tuán)隊(duì)利用異質(zhì)圖擴(kuò)散模型設(shè)計(jì)了一種新的交叉擴(kuò)散注意力(CDA)機(jī)制,并基于此實(shí)現(xiàn)了一種新的多模態(tài)融合模型MutualFormer。相比于傳統(tǒng)的交叉注意力,該團(tuán)隊(duì)提出的CDA模型能夠較好地緩解不同模態(tài)域差異給多模態(tài)信息融合帶來(lái)的不利影響。相關(guān)成果在線發(fā)表于人工智能領(lǐng)域頂級(jí)期刊《International Journal of Computer Vision》,博士研究生汪茜茜為論文的第一作者,江波教授為論文的通訊作者。
新聞鏈接:http://www.ahu.edu.cn/2024/0508/c15059a339391/page.htm
網(wǎng)站內(nèi)容來(lái)源于互聯(lián)網(wǎng),由網(wǎng)絡(luò)編輯負(fù)責(zé)審查,目的在于傳遞信息,提供專業(yè)服務(wù),不代表本網(wǎng)站平臺(tái)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。如因內(nèi)容、版權(quán)問(wèn)題存在異議的,請(qǐng)與我們?nèi)〉寐?lián)系,我們將協(xié)調(diào)給予處理(按照法規(guī)支付稿費(fèi)或刪除),聯(lián)系方式:ahos@aiofm.ac.cn 。網(wǎng)站平臺(tái)將加強(qiáng)監(jiān)控與審核,一旦發(fā)現(xiàn)違反規(guī)定的內(nèi)容,按國(guó)家法規(guī)處理,處理時(shí)間不超過(guò)24小時(shí)。