近日,安徽大學(xué)大數(shù)據(jù)與統(tǒng)計(jì)學(xué)院數(shù)據(jù)科學(xué)與大數(shù)據(jù)團(tuán)隊(duì)青年教師宣寒宇與南京理工大學(xué)、法國國家信息與自動(dòng)化研究所和美國伊利諾伊理工學(xué)院等國內(nèi)外高校研究人員合作,揭示了多模態(tài)對比學(xué)習(xí)用于聲源定位任務(wù)的有效性及其機(jī)理。相關(guān)成果發(fā)表在人工智能領(lǐng)域頂級期刊IEEE《模式分析與機(jī)器智能》(T-PAMI) ,安徽大學(xué)為第一單位。
圖(a)跨模態(tài)實(shí)例鑒別和多模態(tài)MoCo示意圖,
圖(b)基于跨模態(tài)實(shí)例鑒別和多模態(tài)MoCo的聲源定位示意圖
該項(xiàng)研究針對現(xiàn)有的基于圖(map)的聲源定位方法只能提供對聲源位置的粗粒度和間接性描述、難以對大規(guī)模視聽樣本數(shù)據(jù)的分布進(jìn)行有效推理、隨機(jī)抽樣構(gòu)建的對比集包含大量錯(cuò)誤負(fù)樣本等關(guān)鍵問題,提出了兩種新的基于提案(proposal)的聲源定位方法,即xID4SSL和3MoCo4SSL,并提出了一種新的主動(dòng)對比集挖掘算法,用于挖掘具有豐富信息和多樣化的對比集。
新聞鏈接:http://www.ahu.edu.cn/2024/0511/c15129a339653/page.htm
網(wǎng)站內(nèi)容來源于互聯(lián)網(wǎng),由網(wǎng)絡(luò)編輯負(fù)責(zé)審查,目的在于傳遞信息,提供專業(yè)服務(wù),不代表本網(wǎng)站平臺贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。如因內(nèi)容、版權(quán)問題存在異議的,請與我們?nèi)〉寐?lián)系,我們將協(xié)調(diào)給予處理(按照法規(guī)支付稿費(fèi)或刪除),聯(lián)系方式:ahos@aiofm.ac.cn 。網(wǎng)站平臺將加強(qiáng)監(jiān)控與審核,一旦發(fā)現(xiàn)違反規(guī)定的內(nèi)容,按國家法規(guī)處理,處理時(shí)間不超過24小時(shí)。