亚洲五月天一区二区三区-日本午夜福利视频在线-日本欧美一区二区不卡免费-日韩深夜视频在线观看

電子科技大學(xué)團(tuán)隊(duì)在全球計(jì)算機(jī)視覺(jué)頂會(huì)CVPR 2025發(fā)表多篇論文

來(lái)源:電子科技大學(xué) #電子科技大學(xué)#
2w

近日,2025 IEEE國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別會(huì)議(IEEE Conference on Computer Vision and Pattern Recognition,簡(jiǎn)稱(chēng)CVPR)官方公布論文收錄結(jié)果。據(jù)CVPR官網(wǎng)顯示,本屆CVPR收到了創(chuàng)新高的13008份論文(比CVPR2024增加了12.8%),共錄用了2878篇論文,接收率為22.1%。這些被錄取的最新科研成果涵蓋了計(jì)算機(jī)視覺(jué)領(lǐng)域各項(xiàng)前沿工作。計(jì)算機(jī)(網(wǎng)安)學(xué)院數(shù)據(jù)智能團(tuán)隊(duì)(DIG)2022級(jí)博士研究生吳海峰、2023級(jí)博士研究生李巍煒、2023級(jí)博士研究生張樂(lè)恒、2024級(jí)博士研究生龍偉、2023級(jí)碩士研究生楊宇航和2021級(jí)博士研究生鄧金紅(共同一作)、2023級(jí)碩士研究生盧景博撰寫(xiě)的6篇論文被此次會(huì)議接收。

  圖1 論文《GeoDepth: From Point-to-Depth to Plane-to-Depth Modeling for Self-Supervised Monocular Depth Estimation》內(nèi)容示意圖

2022級(jí)博士生吳海峰以第一作者撰寫(xiě)的論文《GeoDepth: From Point-to-Depth to Plane-to-Depth Modeling for Self-Supervised Monocular Depth Estimation》(作者:吳海峰、顧舒航、段立新、李文【通訊作者】)發(fā)現(xiàn)了基于點(diǎn)表示的方法忽略了3D場(chǎng)景中的結(jié)構(gòu)化信息,使預(yù)測(cè)的深度圖中相鄰像素的深度存在突然跳變,提出了基于平面表示的自監(jiān)督深度估計(jì)方法。該方法將3D場(chǎng)景建模成以平面法線(xiàn)和平面偏移進(jìn)行參數(shù)化的平面集合,并提出結(jié)構(gòu)化平面生成模塊和深度不連續(xù)性感知模塊,確保平面集合的準(zhǔn)確性,最終從精確的平面參數(shù)轉(zhuǎn)換到深度。實(shí)驗(yàn)結(jié)果表明,該方法在室內(nèi)和室外數(shù)據(jù)集上取得了不錯(cuò)的結(jié)果。

  圖2 論文《Let Samples Speak: Mitigating Spurious Correlation by Exploiting the Clusterness of Samples》內(nèi)容示意圖

2023級(jí)博士生李巍煒以第一作者撰寫(xiě)的論文《Let Samples Speak: Mitigating Spurious Correlation by Exploiting the Clusterness of Samples》(作者:李巍煒、劉俊灼、任媛媛、鄭煜辰、劉亞豪、李文【通訊作者】) 在理論層面證明了深度神經(jīng)網(wǎng)絡(luò)的錯(cuò)誤決策規(guī)則(比如使用發(fā)色分類(lèi)性別)的源頭——虛假特征往往在特征空間中呈現(xiàn)分散分布,并由此提出了一種面向數(shù)據(jù)的方法來(lái)識(shí)別、中和模型特征層中的虛假特征,減輕深度神經(jīng)網(wǎng)絡(luò)對(duì)虛假特征的依賴(lài),從而消除模型的錯(cuò)誤決策規(guī)則。該方法在多個(gè)圖像、文本、醫(yī)療數(shù)據(jù)集上的最差組準(zhǔn)確率與標(biāo)準(zhǔn)經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化 (ERM) 相比,提高了20%以上。

圖3 論文《Uncertainty-guided Perturbation for Image Super-Resolution Diffusion Model》內(nèi)容示意圖

2023級(jí)博士生張樂(lè)恒以第一作者撰寫(xiě)的論文《Uncertainty-guided Perturbation for Image Super-Resolution Diffusion Model》(作者:張樂(lè)恒、游煒熠、施柯煊、顧舒航【通訊作者】)對(duì)現(xiàn)有的基于擴(kuò)散模型的超分辨率方法進(jìn)行了優(yōu)化,從不確定性的角度將各向同性的擴(kuò)散過(guò)程改為各向異性的過(guò)程。該方法僅在圖像中不確定性高的部分(邊緣、紋理等較難復(fù)原的部分)添加較大的噪聲,而在不確定性低的部分(平滑區(qū)域等易于復(fù)原的部分)減少噪聲強(qiáng)度,使得擴(kuò)散過(guò)程更符合超分辨率任務(wù)的特性。實(shí)驗(yàn)結(jié)果表明,該方法在多個(gè)真實(shí)世界超分辨率數(shù)據(jù)集上取得了不錯(cuò)的成績(jī)。

圖4 論文《Progressive Focused Transformer for Single Image Super-Resolution》網(wǎng)絡(luò)示意圖

2024級(jí)博士生龍偉以第一作者撰寫(xiě)的論文《Progressive Focused Transformer for Single Image Super-Resolution》(作者:龍偉、周星宇、張樂(lè)恒、顧舒航【通訊作者】)?,F(xiàn)有基于Transformer的超分辨率重建方法面臨較高計(jì)算復(fù)雜度的問(wèn)題,其根源在于現(xiàn)有注意力機(jī)制中存在大量與查詢(xún)特征無(wú)關(guān)的冗余相似性計(jì)算,這不僅降低了模型的重建性能,還增加了顯著的計(jì)算開(kāi)銷(xiāo)。為了解決這一問(wèn)題,本文提出了一種高效的漸進(jìn)聚焦型Transformer架構(gòu),該架構(gòu)通過(guò)哈達(dá)瑪乘積將網(wǎng)絡(luò)中所有孤立的注意力圖進(jìn)行關(guān)聯(lián)整合,從而使注意力資源集中分配到最關(guān)鍵的圖像區(qū)域。該方法不僅能夠精準(zhǔn)捕獲語(yǔ)義關(guān)聯(lián)性強(qiáng)的相似特征,還能在相似性計(jì)算之前動(dòng)態(tài)過(guò)濾冗余特征,從而顯著降低整體計(jì)算成本。實(shí)驗(yàn)結(jié)果表明,該方法在多個(gè)圖像超分辨率數(shù)據(jù)集上均取得了最先進(jìn)的性能。

圖5 論文《ResCLIP: Residual Attention for Training-free Dense Vision-language Inference》內(nèi)容示意圖

2023級(jí)碩士生楊宇航、2021級(jí)博士生鄧金紅以共同第一作者撰寫(xiě)的論文《ResCLIP: Residual Attention for Training-free Dense Vision-language Inference》(作者:楊宇航、鄧金紅、李文【通訊作者】、段立新)首次揭示了CLIP中間層中互相關(guān)自注意力權(quán)重蘊(yùn)含的類(lèi)相關(guān)空間結(jié)構(gòu)特征,突破了其他研究?jī)H關(guān)注最后一層自相關(guān)自注意力設(shè)計(jì)的局限。論文創(chuàng)新性地提出殘差融合自注意力模塊以有效激活CLIP模型的潛在密集預(yù)測(cè)能力,同時(shí)引入語(yǔ)義反饋優(yōu)化模塊強(qiáng)化對(duì)同類(lèi)語(yǔ)義區(qū)域的關(guān)注度與局部一致性。該方法即插即用,無(wú)需任何參數(shù)微調(diào)即可釋放視覺(jué)語(yǔ)言大模型的密集推理潛能,在基準(zhǔn)數(shù)據(jù)集上驗(yàn)證了本文算法的有效性。

圖6 論文《Learned Image Compression with Dictionary-based Entropy Model》熵模型示意圖

2023級(jí)碩士生盧景博以第一作者撰寫(xiě)的論文《Learned Image Compression with Dictionary-based Entropy Model》(作者:盧景博、張樂(lè)恒、周星宇、李穆、李文、顧舒航【通訊作者】)。本文提出了一種高效的基于字典學(xué)習(xí)的熵模型,該熵模型首先使用字典存儲(chǔ)自然圖像中常出現(xiàn)的結(jié)構(gòu)、紋理,然后在對(duì)圖像進(jìn)行熵編碼的過(guò)程中通過(guò)使用包含部分信息的特征查找包含完整信息的字典,從而可以精準(zhǔn)的對(duì)圖像分布進(jìn)行建模,完成更高效的圖像壓縮效果。實(shí)驗(yàn)結(jié)果表明,該方法同時(shí)在編解碼延時(shí)和率失真權(quán)衡上取得了最先進(jìn)的性能。

計(jì)算機(jī)(網(wǎng)安)學(xué)院數(shù)據(jù)智能團(tuán)隊(duì)(Data Intelligence Group)主要研究領(lǐng)域?yàn)闄C(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué),具體包括遷移學(xué)習(xí)、深度學(xué)習(xí)、弱監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)及在圖像視頻分析、目標(biāo)檢測(cè)、語(yǔ)義分割、眼底影像分析等計(jì)算機(jī)視覺(jué)任務(wù)中的應(yīng)用。研究團(tuán)隊(duì)現(xiàn)有正高級(jí)教授5人,副教授1人,助理研究員1人,研究生70余人;科研環(huán)境近400平方米,設(shè)獨(dú)立機(jī)房,配置高性能服務(wù)器,擁有GPU顯卡200余張。團(tuán)隊(duì)近年研究屢獲成績(jī),發(fā)表中國(guó)科學(xué)院JCR一區(qū)或CCF A類(lèi)期刊會(huì)議論文80余篇;榮獲四川省科學(xué)技術(shù)進(jìn)步獎(jiǎng)一等獎(jiǎng),吳文俊人工智能科學(xué)技術(shù)獎(jiǎng)-自然科學(xué)獎(jiǎng)一等獎(jiǎng)等;在國(guó)內(nèi)外多項(xiàng)計(jì)算機(jī)視覺(jué)和人工智能大賽中名列前茅,獲2021年CVPR NTIRE移動(dòng)端視頻超分辨比賽全球冠軍、2021年“智箭?火眼”人工智能挑戰(zhàn)賽相關(guān)科目全國(guó)冠軍、2022年“華為杯”四川省大學(xué)生嵌入式設(shè)計(jì)競(jìng)賽全省一等獎(jiǎng)等。

責(zé)編: 集小微
來(lái)源:電子科技大學(xué) #電子科技大學(xué)#
THE END
關(guān)閉
加載

PDF 加載中...

国产精品国产三级国| 把韩国美女操出水| 国产亚洲精品高清视频免费| 精品无码国产一区二区三区A| 深插巴西美女的逼| 极品一区二区三区av| 影音先锋亚洲中文综合网| 美女的咪咪和骚逼| 淫荡淫水逼操烂视频| 从后面进入嗯啊视频| 妺妺坐在我腿上下面好湿| 美女爽的嗷嗷叫免费| 啊服慢一点插入逼逼| 俩男人插下面的视频| 中文字幕一区二区三区中文字幕| 亚洲综合区欧美一区二区| 69国产精品久久久久久人| 欧美另类在线观看| 啊啊啊啊大鸡巴操我视频| 操世界最美丽的逼片| 插BB流水水视频| 在线观看日韩欧美| 白色紧身裤无码系列在线| 美国毛片亚洲社区成人看| 狠狠干无码日韩AV| 91在线一区二区| 免费男人和女人黄片| 日韩午夜资源在线观看| 69国产成人综合久久精| 国产合区在线一区二区三区| 男生插女生下面流出白色精液视频| 欧美另类在线观看| 热精品韩国毛久久久久久| 国产成人亚洲欧美久久| 久久久久九九九国产精品| 国产女主播喷出白浆视频| 精品精品国产一区二区性色av| 97人人澡人人爽人人揉| 999精品免费视频| 留学生美女被大黑屌猛戳| 成人刺激性视频在线观看|