午夜dj在线的www视频在线,亚洲伊人色综合久久天天伊人,天天躁夜夜躁狠狠综合2020,午夜性又黄又爽免费看尤物,中文字幕一区二区三区乱码

核心技術(shù)
產(chǎn)品
解決方案
行業(yè)
開發(fā)者
關(guān)于曠視
語言
新聞資訊
首頁 / 新聞資訊 / 新聞動態(tài)

CVPR 2021,曠視研究院斬獲 7 項競賽冠軍

2021-06-29

在近期舉行的全球計算機視覺三大頂級會議之一 CVPR 2021 (Conference on Computer Vision and Pattern Recognition 2021,即“計算機視覺與模式識別會議”)上,曠視研究院表現(xiàn)出色,在多個細分賽道斬獲7項冠軍!

恭喜曠廠小伙伴再創(chuàng)佳績的同時,為了幫助大家更好地了解曠視在CVPR 2021挑戰(zhàn)賽中的精彩表現(xiàn),我們對參賽論文進行了梳理,希望通過十分鐘的閱讀,能讓你對這些斬獲榮譽的研究成果可以一目了然。這些成果覆蓋了高動態(tài)范圍圖像、圖像超分辨率、圖像去模糊、自動駕駛等方向,也歡迎大家參與交流和分享。


NTIRE 2021挑戰(zhàn)賽

作為圖像視頻修復(fù)和增強領(lǐng)域極具影響力的國際競賽, NTIRE(New Trends in Image Restoration and Enhancement, 即圖像恢復(fù)與增強的新趨勢)涵蓋了從圖像到視頻幾乎所有方向,一直備受工業(yè)界關(guān)注。在NTIRE 2021挑戰(zhàn)賽上,曠視研究院包攬了高動態(tài)范圍圖像、圖像超分辨率、圖像去模糊三大賽道的冠軍。


高動態(tài)范圍圖像賽道冠軍


目前動態(tài)場景下的多幀HDR成像任務(wù)主要包含兩個難點

1.如何解決相機抖動和前景目標(biāo)運動帶來的對齊問題;

2.如何在融合過程中有效恢復(fù)過曝/欠曝區(qū)域丟失的細節(jié)。


針對上述問題,曠視提出了一種新穎的雙分支網(wǎng)絡(luò)結(jié)構(gòu)ADNet,分別對原始LDR輸入和對應(yīng)gamma矯正之后的圖像進行處理。對于原始的LDR圖像,曠視提出使用空間注意力模塊來檢測過曝/欠曝和噪聲區(qū)域。對于對應(yīng)的gamma矯正圖像,曠視首次在該任務(wù)中提出使用可變形對齊模塊來對齊動態(tài)多幀。




基于上述改進,和目前較好的AHDRNet方法相比,曠視的方法可以更好地解決鬼影問題,獲得噪聲更少、圖像細節(jié)更清晰的HDR結(jié)果。


關(guān)鍵詞:雙分支網(wǎng)絡(luò)結(jié)構(gòu)ADNet;去鬼影;少噪聲

論文地址:https://reurl.cc/vqa1XL

代碼地址:https://github.com/Pea-Shooter/ADNet


圖像超分辨率賽道冠軍


針對RAW域下的多幀模式圖像超分辨率問題,解決方案為使用特征金字塔增強多尺度特征,同時消除一定的噪聲影響。此方式下的多幀特征更加穩(wěn)定,再利用多尺度的可變性卷積模塊(Deformable Convolution)對所有特征進行對齊。

曠視設(shè)計了一種跨幀的非局部融合網(wǎng)絡(luò)(Cross Non-Local Fusion),使得每一幀圖像在融合時都將自身與參考幀的非局部空間關(guān)系信息考慮在內(nèi),由此提高多幀融合效果。

圖像融合后的重建部分,曠視使用了考慮長范圍信息的超分重建網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)中每一個Block的輸入都是之前所有Block的輸出,可以避免在重建的過程中信息丟失的問題,提高超分的紋理效果。正體框架結(jié)構(gòu)如下:




相比于EDSR、EDVR等圖像或視頻超分模型,EBSR在RAW域多幀超分任務(wù)上性能更好,也更加穩(wěn)定。EBSR在合成數(shù)據(jù)和真實數(shù)據(jù)的多幀超分任務(wù)上都達到了SOTA效果。


關(guān)鍵詞:跨幀的非局部融合網(wǎng)絡(luò);可變性卷積模塊

論文地址:https://reurl.cc/9rvXna

代碼地址:https://github.com/Algolzw/EBSR


圖像去模糊賽道冠軍


歸一化(Normalization)技術(shù)在高層計算機視覺任務(wù)中(如圖像分類,目標(biāo)檢測等)有廣泛且成功的應(yīng)用,但是在底層視覺任務(wù)中,簡單的使用它會造成性能損失。

受到實例歸一化(Instance Normalization)在風(fēng)格遷移任務(wù)中成功應(yīng)用的啟發(fā),曠視設(shè)計了 半實例歸一化模塊,即將特征從通道維度一分為二,其中的一半進行實例歸一化,另一半保持不變。
基于此,曠視提出了半實例歸一化網(wǎng)絡(luò)HINet,在更少計算量的前提下,在多個圖像恢復(fù)任務(wù)上達到領(lǐng)先性能。特別的, 曠視的方法在SIDD數(shù)據(jù)集上,僅用7.5%的計算量就超越了當(dāng)前領(lǐng)先模型 0.11 dB PSNR。

和目前較好的方法MPRNet相比,曠視在多種圖像恢復(fù)任務(wù)上均有優(yōu)勢:



關(guān)鍵詞:圖像恢復(fù);半實例歸一化

論文地址:https://arxiv.org/abs/2105.06086

代碼地址:https://github.com/megvii-model/HINet


WAD 2021挑戰(zhàn)賽

近年來,隨著自動駕駛熱度的不斷攀升, WAD(Workshop on Autonomous Driving)挑戰(zhàn)賽的競爭也愈加激烈,在Argoverse 2021 Competition挑戰(zhàn)賽上,曠視同樣表現(xiàn)不俗。


Streaming Perception Challenge賽道冠軍


在Streaming Perception Challenge賽道,本次挑戰(zhàn)的主要關(guān)注點之一是自動駕駛場景下的實時視頻流目標(biāo)檢測問題。由一個服務(wù)器收發(fā)圖片和檢測結(jié)果來模擬視頻流30FPS的視頻,客戶端接收到圖片后進行實時推斷,這對參賽團隊的算法創(chuàng)新和工程實現(xiàn)能力都提出非常高的要求。
基于在目標(biāo)檢測領(lǐng)域積累的技術(shù)優(yōu)勢,大賽中,曠視提出了針對高分辨率自動駕駛場景的2D目標(biāo)檢測方案。




結(jié)合曠視自研的 單階段目標(biāo)檢測算法(YOLO-X,即將開源),同時使用TensorRT進行推理加速,曠視的2D目標(biāo)檢測方案具備性能優(yōu)異、實時性高等優(yōu)勢,可大大提升自動駕駛場景中2D物體的檢測性能,最終在Streaming Perception Challenge賽道取得的了 full-track和detection-only track雙賽道第一的優(yōu)異成績。


關(guān)鍵詞:自動駕駛;2D目標(biāo)檢測方案

比賽網(wǎng)站:https://eval.ai/web/challenges/challenge-page/800/overview


IMC 挑戰(zhàn)賽

圖像特征匹配涉及圖像檢索,重定位等諸多富有前景的下游任務(wù)。然而,來自視角、尺度、光照等方面的復(fù)雜變換以及遮擋、相機渲染等因素的存在,使得該領(lǐng)域相當(dāng)具有挑戰(zhàn)性。

本屆IMC2021挑戰(zhàn)賽基于真實拍攝場景,重點考核了參賽模型的位姿估計準(zhǔn)確性。整體競賽框架由預(yù)處理、關(guān)鍵點提取、描述子提取、關(guān)鍵點匹配和匹配對過濾五個部分組成。
在Unlimited keypoints賽道上,曠視研究院拔得頭籌。


Unlimited keypoints賽道冠軍


基于技術(shù)積累和深入數(shù)據(jù)分析,曠視研究院采用 漫水填充和語義遮罩技術(shù)對圖像進行預(yù)處理,有效降低了關(guān)鍵點噪音。此外,在關(guān)鍵點提取階段利用Homographic Adaptation和Refinement策略提升基線模型預(yù)測的關(guān)鍵點數(shù)量及質(zhì)量。
在描述子提取階段,考慮到巨大的幾何變換如旋轉(zhuǎn)和尺度縮放,曠視采用了測試時增強技術(shù)以增強模型魯棒性。最后,曠視設(shè)計了SuperPoint、DISK與SuperGlue的聯(lián)合架構(gòu)與適應(yīng)性RANSAC進行匹配和位姿估計。憑借適應(yīng)性策略和高效集成技術(shù),最終曠視獲得IMC2021挑戰(zhàn)賽Unlimited keypoints賽道冠軍。



關(guān)鍵詞:多尺度融合;多角度融合;模型集成;自適應(yīng)RANSAC
比賽網(wǎng)站:https://www.cs.ubc.ca/research/image-matching-challenge/current/


SimLocMatch挑戰(zhàn)賽

有別于現(xiàn)實場景,SimLocMatch是一個基于合成的數(shù)據(jù)集和基準(zhǔn),包含具有不同挑戰(zhàn)性的場景。此次CVPR 2021 SimLocMatch大賽采用合成數(shù)據(jù)以允許更為嚴(yán)格的評估準(zhǔn)則。曠視研究院將SimLocMatch挑戰(zhàn)賽冠軍成功收入囊中。


SimLocMatch 冠軍


基于包含 Homographic Adaptation、Refinement、SuperPoint+DISK+SuperGlue 在內(nèi)已有的精巧架構(gòu),曠視研究院額外設(shè)置了 最小匹配量置信策略,以輔助模型分辨極端場景以舍棄模糊匹配,成功提升了模型對抗極端樣本的能力。


關(guān)鍵詞:模型集成;最小匹配置信度策略

比賽網(wǎng)站:https://simlocmatch.com/


研究創(chuàng)新不止,技術(shù)更迭不?。?/strong>


再次給曠視研究院獲獎同學(xué)點贊

同時也期待更多優(yōu)秀的小伙伴加入我們

用人工智能造福大眾!


新聞資訊

CVPR 2021,曠視研究院斬獲 7 項競賽冠軍

2021-06-29

在近期舉行的全球計算機視覺三大頂級會議之一 CVPR 2021 (Conference on Computer Vision and Pattern Recognition 2021,即“計算機視覺與模式識別會議”)上,曠視研究院表現(xiàn)出色,在多個細分賽道斬獲7項冠軍!

恭喜曠廠小伙伴再創(chuàng)佳績的同時,為了幫助大家更好地了解曠視在CVPR 2021挑戰(zhàn)賽中的精彩表現(xiàn),我們對參賽論文進行了梳理,希望通過十分鐘的閱讀,能讓你對這些斬獲榮譽的研究成果可以一目了然。這些成果覆蓋了高動態(tài)范圍圖像、圖像超分辨率、圖像去模糊、自動駕駛等方向,也歡迎大家參與交流和分享。


NTIRE 2021挑戰(zhàn)賽

作為圖像視頻修復(fù)和增強領(lǐng)域極具影響力的國際競賽, NTIRE(New Trends in Image Restoration and Enhancement, 即圖像恢復(fù)與增強的新趨勢)涵蓋了從圖像到視頻幾乎所有方向,一直備受工業(yè)界關(guān)注。在NTIRE 2021挑戰(zhàn)賽上,曠視研究院包攬了高動態(tài)范圍圖像、圖像超分辨率、圖像去模糊三大賽道的冠軍。


高動態(tài)范圍圖像賽道冠軍


目前動態(tài)場景下的多幀HDR成像任務(wù)主要包含兩個難點

1.如何解決相機抖動和前景目標(biāo)運動帶來的對齊問題;

2.如何在融合過程中有效恢復(fù)過曝/欠曝區(qū)域丟失的細節(jié)。


針對上述問題,曠視提出了一種新穎的雙分支網(wǎng)絡(luò)結(jié)構(gòu)ADNet,分別對原始LDR輸入和對應(yīng)gamma矯正之后的圖像進行處理。對于原始的LDR圖像,曠視提出使用空間注意力模塊來檢測過曝/欠曝和噪聲區(qū)域。對于對應(yīng)的gamma矯正圖像,曠視首次在該任務(wù)中提出使用可變形對齊模塊來對齊動態(tài)多幀




基于上述改進,和目前較好的AHDRNet方法相比,曠視的方法可以更好地解決鬼影問題,獲得噪聲更少、圖像細節(jié)更清晰的HDR結(jié)果。


關(guān)鍵詞:雙分支網(wǎng)絡(luò)結(jié)構(gòu)ADNet;去鬼影;少噪聲

論文地址:https://reurl.cc/vqa1XL

代碼地址:https://github.com/Pea-Shooter/ADNet


圖像超分辨率賽道冠軍


針對RAW域下的多幀模式圖像超分辨率問題,解決方案為使用特征金字塔增強多尺度特征,同時消除一定的噪聲影響。此方式下的多幀特征更加穩(wěn)定,再利用多尺度的可變性卷積模塊(Deformable Convolution)對所有特征進行對齊。

曠視設(shè)計了一種跨幀的非局部融合網(wǎng)絡(luò)(Cross Non-Local Fusion),使得每一幀圖像在融合時都將自身與參考幀的非局部空間關(guān)系信息考慮在內(nèi),由此提高多幀融合效果。

圖像融合后的重建部分,曠視使用了考慮長范圍信息的超分重建網(wǎng)絡(luò)結(jié)構(gòu),該結(jié)構(gòu)中每一個Block的輸入都是之前所有Block的輸出,可以避免在重建的過程中信息丟失的問題,提高超分的紋理效果。正體框架結(jié)構(gòu)如下:




相比于EDSR、EDVR等圖像或視頻超分模型,EBSR在RAW域多幀超分任務(wù)上性能更好,也更加穩(wěn)定。EBSR在合成數(shù)據(jù)和真實數(shù)據(jù)的多幀超分任務(wù)上都達到了SOTA效果。


關(guān)鍵詞:跨幀的非局部融合網(wǎng)絡(luò);可變性卷積模塊

論文地址:https://reurl.cc/9rvXna

代碼地址:https://github.com/Algolzw/EBSR


圖像去模糊賽道冠軍


歸一化(Normalization)技術(shù)在高層計算機視覺任務(wù)中(如圖像分類,目標(biāo)檢測等)有廣泛且成功的應(yīng)用,但是在底層視覺任務(wù)中,簡單的使用它會造成性能損失。

受到實例歸一化(Instance Normalization)在風(fēng)格遷移任務(wù)中成功應(yīng)用的啟發(fā),曠視設(shè)計了 半實例歸一化模塊,即將特征從通道維度一分為二,其中的一半進行實例歸一化,另一半保持不變。
基于此,曠視提出了半實例歸一化網(wǎng)絡(luò)HINet,在更少計算量的前提下,在多個圖像恢復(fù)任務(wù)上達到領(lǐng)先性能。特別的, 曠視的方法在SIDD數(shù)據(jù)集上,僅用7.5%的計算量就超越了當(dāng)前領(lǐng)先模型 0.11 dB PSNR。

和目前較好的方法MPRNet相比,曠視在多種圖像恢復(fù)任務(wù)上均有優(yōu)勢:



關(guān)鍵詞:圖像恢復(fù);半實例歸一化

論文地址:https://arxiv.org/abs/2105.06086

代碼地址:https://github.com/megvii-model/HINet


WAD 2021挑戰(zhàn)賽

近年來,隨著自動駕駛熱度的不斷攀升, WAD(Workshop on Autonomous Driving)挑戰(zhàn)賽的競爭也愈加激烈,在Argoverse 2021 Competition挑戰(zhàn)賽上,曠視同樣表現(xiàn)不俗。


Streaming Perception Challenge賽道冠軍


在Streaming Perception Challenge賽道,本次挑戰(zhàn)的主要關(guān)注點之一是自動駕駛場景下的實時視頻流目標(biāo)檢測問題。由一個服務(wù)器收發(fā)圖片和檢測結(jié)果來模擬視頻流30FPS的視頻,客戶端接收到圖片后進行實時推斷,這對參賽團隊的算法創(chuàng)新和工程實現(xiàn)能力都提出非常高的要求。
基于在目標(biāo)檢測領(lǐng)域積累的技術(shù)優(yōu)勢,大賽中,曠視提出了針對高分辨率自動駕駛場景的2D目標(biāo)檢測方案。




結(jié)合曠視自研的 單階段目標(biāo)檢測算法(YOLO-X,即將開源),同時使用TensorRT進行推理加速,曠視的2D目標(biāo)檢測方案具備性能優(yōu)異、實時性高等優(yōu)勢,可大大提升自動駕駛場景中2D物體的檢測性能,最終在Streaming Perception Challenge賽道取得的了 full-track和detection-only track雙賽道第一的優(yōu)異成績。


關(guān)鍵詞:自動駕駛;2D目標(biāo)檢測方案

比賽網(wǎng)站:https://eval.ai/web/challenges/challenge-page/800/overview


IMC 挑戰(zhàn)賽

圖像特征匹配涉及圖像檢索,重定位等諸多富有前景的下游任務(wù)。然而,來自視角、尺度、光照等方面的復(fù)雜變換以及遮擋、相機渲染等因素的存在,使得該領(lǐng)域相當(dāng)具有挑戰(zhàn)性。

本屆IMC2021挑戰(zhàn)賽基于真實拍攝場景,重點考核了參賽模型的位姿估計準(zhǔn)確性。整體競賽框架由預(yù)處理、關(guān)鍵點提取、描述子提取、關(guān)鍵點匹配和匹配對過濾五個部分組成。
在Unlimited keypoints賽道上,曠視研究院拔得頭籌。


Unlimited keypoints賽道冠軍


基于技術(shù)積累和深入數(shù)據(jù)分析,曠視研究院采用 漫水填充和語義遮罩技術(shù)對圖像進行預(yù)處理,有效降低了關(guān)鍵點噪音。此外,在關(guān)鍵點提取階段利用Homographic Adaptation和Refinement策略提升基線模型預(yù)測的關(guān)鍵點數(shù)量及質(zhì)量。
在描述子提取階段,考慮到巨大的幾何變換如旋轉(zhuǎn)和尺度縮放,曠視采用了測試時增強技術(shù)以增強模型魯棒性。最后,曠視設(shè)計了SuperPoint、DISK與SuperGlue的聯(lián)合架構(gòu)與適應(yīng)性RANSAC進行匹配和位姿估計。憑借適應(yīng)性策略和高效集成技術(shù),最終曠視獲得IMC2021挑戰(zhàn)賽Unlimited keypoints賽道冠軍。



關(guān)鍵詞:多尺度融合;多角度融合;模型集成;自適應(yīng)RANSAC
比賽網(wǎng)站:https://www.cs.ubc.ca/research/image-matching-challenge/current/


SimLocMatch挑戰(zhàn)賽

有別于現(xiàn)實場景,SimLocMatch是一個基于合成的數(shù)據(jù)集和基準(zhǔn),包含具有不同挑戰(zhàn)性的場景。此次CVPR 2021 SimLocMatch大賽采用合成數(shù)據(jù)以允許更為嚴(yán)格的評估準(zhǔn)則。曠視研究院將SimLocMatch挑戰(zhàn)賽冠軍成功收入囊中。


SimLocMatch 冠軍


基于包含 Homographic Adaptation、Refinement、SuperPoint+DISK+SuperGlue 在內(nèi)已有的精巧架構(gòu),曠視研究院額外設(shè)置了 最小匹配量置信策略,以輔助模型分辨極端場景以舍棄模糊匹配,成功提升了模型對抗極端樣本的能力。


關(guān)鍵詞:模型集成;最小匹配置信度策略

比賽網(wǎng)站:https://simlocmatch.com/


研究創(chuàng)新不止,技術(shù)更迭不?。?/strong>


再次給曠視研究院獲獎同學(xué)點贊

同時也期待更多優(yōu)秀的小伙伴加入我們

用人工智能造福大眾!


聯(lián)系我們