午夜dj在线的www视频在线,亚洲伊人色综合久久天天伊人,天天躁夜夜躁狠狠综合2020,午夜性又黄又爽免费看尤物,中文字幕一区二区三区乱码

首頁新聞資訊學術活動

CVPR 2018 | 曠視榮獲CVPR挑戰(zhàn)賽 AVA&WAD 雙項冠軍

2018-07-01

作為全球五十大最聰明企業(yè)和計算機視覺領域的原創(chuàng)技術擔當,曠視在世界范圍內所參與的人工智能技術挑戰(zhàn)賽中始終處于高位水平。自 2013 年贏得人臉識別三項世界冠軍以來,曠視已累計收獲 17 項人工智能技術評測冠軍和挑戰(zhàn)賽第一名,今天仍在不斷續(xù)寫輝煌。CVPR 2018 期間,多項挑戰(zhàn)賽結果揭曉,其中曠視參與了 AVA 和 WAD 挑戰(zhàn)賽,擊敗谷歌 DeepMind 和英偉達等巨頭公司斬獲「時空行為定位」和「實例視頻分割」雙項冠軍。


AVA & WAD 挑戰(zhàn)賽分別針對視頻語義和自動駕駛問題而設,挑戰(zhàn)賽不僅給了曠視在 CVPR 2018 這樣的國際舞臺上秀“技術肌肉”的機會,同時彰顯了曠視研究院雄厚的人才儲備和過硬的技術儲備,也為曠視后續(xù)的產品創(chuàng)新和技術落地埋下了伏筆。


曠視首席科學家孫劍在其朋友圈不無幽默地寫到:“團隊拿了大規(guī)模動作識別 ActivityNet 挑戰(zhàn)賽、和基于 ApolloScape(目前最大規(guī)模公開數據)的自動駕駛挑戰(zhàn)賽的兩個 task 冠軍,我都不知道你們參賽了?!边@不僅反映了團隊超強的實力和驚人的自驅力,還有研究院倍加推崇的“無知者無畏的精神”。下面是曠視研究院俞剛博士等人對 AVA & WAD 挑戰(zhàn)賽所作的相關技術解讀,以及其對曠視產品體系所帶來的影響。


AVA 挑戰(zhàn)賽


ActivityNet Large-Scale Activity Recognition Challenge (ActivityNet Challenge)是一項計算機視覺領域的大規(guī)模挑戰(zhàn)賽,自 2016 至今 ,已成功舉辦三屆。ActivityNet 挑戰(zhàn)賽聚焦于識別互聯網視頻門戶網站之中的日常及目標導向的高級行為,比賽結果已在 CVPR 會上公布,并以 Workshop 形式展示。


Image 076.png

ActivityNet Challenge 2018 頒獎現場


ActivityNet Challenge 2018 包含 6 個獨立任務(Task),旨在進一步拓展視頻語義理解的邊界,其中 Task B 時空行為定位(Spatio-temporal Action Localization)依據 AVA 數據集,試圖評估算法對人類行為時空信息的定位能力,其中每個標注的視頻片段連續(xù)且超過 15 分鐘,包含多個主體,每個主體有多個行為;Task B 分為 #1 (Vision Only) 以及 #2 (Full) 兩個子挑戰(zhàn)賽。總體來說,這一任務做大的難點是將動作細化到了原子級別,需要在任務中判斷人類行為主體的位置,發(fā)生了什么動作,又與其他物體/人發(fā)生了什么交互。


從結果看,曠視在這次挑戰(zhàn)賽中力壓群雄,分別以 0.21075 和 0.2099 的成績拿下 AVA 挑戰(zhàn)賽雙料第一名,谷歌 DeepMind 名列 #1 (Vision Only) 第二名。


曠視研究院檢測組負責人俞剛表示,該挑戰(zhàn)賽的算法把時空動作行為的任務分解成了兩個子任務:1) 行人位置定位以及 2) 基于檢測位置的動作分類。而制勝的訣竅是曠視在行人檢測子網絡中使用了最新的檢測技術,比如 Light Head R-CNN;而在動作分類子網絡中,則結合最新的 3D 卷積特征, 比如 I3D, 以及傳統的 two-stream 網絡特征來優(yōu)化動作分類能力。


AVA 挑戰(zhàn)賽奪冠在一定程度上表明,曠視研究院有著過硬的技術儲備和優(yōu)秀的人才梯隊,究其原因,這是由于曠視研究院向來重視通過參加挑戰(zhàn)賽不斷培養(yǎng)和提高實習生和研究員自主解決問題的能力。通過挑戰(zhàn)賽奪冠測試和篩選技術矩陣,強化優(yōu)秀技術庫存,使得曠視研究院內部形成一個良性循環(huán),而這正是曠視能夠成為全球五十大聰明公司和原創(chuàng)技術擔當的重要因素之一。


走好從人才到技術這一步,下一步是從技術到產品。從公司產品的角度講,行為時空信息的定位能力在視頻語義分析上有著非常大的意義,這一技術將從底層因素上推動曠視產品體系的迭代和更新,更好地連接場景,提升用戶體驗,提供真正的商業(yè)價值;未來這項技術將在智慧城市、智慧零售和智慧安防等領域發(fā)揮強大作用,實現曠視賦能億萬攝像頭的愿景。


WAD 挑戰(zhàn)賽


WAD(Workshop on Autonomous Driving)是一項由 CVPR 2018 workshop 主辦的自動駕駛識別挑戰(zhàn)賽,包含駕駛區(qū)域分割、道路物體檢測、語義分割域適應和實例視頻分割 4 個 Task,旨在展示當前的計算機視覺算法對外在環(huán)境的感知能力;其中的 Task 4 ——實例視頻分割(Instance-level Video Segmentation)要求參賽者在一幀之內實現對移動物體(比如汽車和行人)實例級別的分割,參與這項任務的意義在于挑戰(zhàn)賽為研究者們提供了一次真正獨特的機會,練手解決自動駕駛領域內極具價值且引人關注的問題。


基于由百度精良標注的大規(guī)模數據集 ApolloScape,該挑戰(zhàn)賽目前已開放 14.7 萬幀的像素級語義標注圖像;另外值得一提的是,其大小是當前同類型開源數據集的 10+ 倍,標注精細度已經超過同類型的 KITTI、Cityscapes 數據集,也超過 UC Berkley 最新發(fā)布的 BDD100K 數據集。在 WAD 挑戰(zhàn)賽中,曠視最終以 0.33986 的成績奪得第一名,超過第三名芯片巨頭英偉達將近 7 個點。


Image 077.png

WAD 挑戰(zhàn)賽冠軍證書及簽名


俞剛認為,從技術層面講,該挑戰(zhàn)賽的算法主要來自當前檢測方面的積累,據其以優(yōu)化場景中的小物體。在挑戰(zhàn)中,團隊重新設定了檢測算法的 anchor,使得對小物體的覆蓋率能有更大的提高, 同時還更新了一些訓練策略,比如更高的顯存利用率和數據增強,提升小物體的召回率。


總體來看,團隊本次參加自動駕駛相關的挑戰(zhàn)賽達到了兩個主要目的:一是通過測試在不同應用場景下的算法通用性,有力驗證了曠視自身算法的能力;另一方面則是檢驗了自身對算法的掌握性。而本次獲得雙料冠軍,也印證了曠視研究院在技術上的積累與對算法應用于不同場景的良好掌控力。


從人才到技術,再到產品落地,這一邏輯同樣適用 WAD 挑戰(zhàn)賽。該挑戰(zhàn)賽所代表的實例分割技術是發(fā)展自動駕駛不可或缺的核心組件,?盡管曠視目前并未涉足自動駕駛領域,但已經具備了國際領先的核心技術能力,為今后拓寬戰(zhàn)略版圖和完善產品體系打下了堅實的基礎。




CVPR 2018 | 曠視榮獲CVPR挑戰(zhàn)賽 AVA&WAD 雙項冠軍

2018-07-01

作為全球五十大最聰明企業(yè)和計算機視覺領域的原創(chuàng)技術擔當,曠視在世界范圍內所參與的人工智能技術挑戰(zhàn)賽中始終處于高位水平。自 2013 年贏得人臉識別三項世界冠軍以來,曠視已累計收獲 17 項人工智能技術評測冠軍和挑戰(zhàn)賽第一名,今天仍在不斷續(xù)寫輝煌。CVPR 2018 期間,多項挑戰(zhàn)賽結果揭曉,其中曠視參與了 AVA 和 WAD 挑戰(zhàn)賽,擊敗谷歌 DeepMind 和英偉達等巨頭公司,斬獲「時空行為定位」和「實例視頻分割」雙項冠軍。


AVA & WAD 挑戰(zhàn)賽分別針對視頻語義和自動駕駛問題而設,挑戰(zhàn)賽不僅給了曠視在 CVPR 2018 這樣的國際舞臺上秀“技術肌肉”的機會,同時彰顯了曠視研究院雄厚的人才儲備和過硬的技術儲備,也為曠視后續(xù)的產品創(chuàng)新和技術落地埋下了伏筆。


曠視首席科學家孫劍在其朋友圈不無幽默地寫到:“團隊拿了大規(guī)模動作識別 ActivityNet 挑戰(zhàn)賽、和基于 ApolloScape(目前最大規(guī)模公開數據)的自動駕駛挑戰(zhàn)賽的兩個 task 冠軍,我都不知道你們參賽了?!边@不僅反映了團隊超強的實力和驚人的自驅力,還有研究院倍加推崇的“無知者無畏的精神”。下面是曠視研究院俞剛博士等人對 AVA & WAD 挑戰(zhàn)賽所作的相關技術解讀,以及其對曠視產品體系所帶來的影響。


AVA 挑戰(zhàn)賽


ActivityNet Large-Scale Activity Recognition Challenge (ActivityNet Challenge)是一項計算機視覺領域的大規(guī)模挑戰(zhàn)賽,自 2016 至今 ,已成功舉辦三屆。ActivityNet 挑戰(zhàn)賽聚焦于識別互聯網視頻門戶網站之中的日常及目標導向的高級行為,比賽結果已在 CVPR 會上公布,并以 Workshop 形式展示。


Image 076.png

ActivityNet Challenge 2018 頒獎現場


ActivityNet Challenge 2018 包含 6 個獨立任務(Task),旨在進一步拓展視頻語義理解的邊界,其中 Task B 時空行為定位(Spatio-temporal Action Localization)依據 AVA 數據集,試圖評估算法對人類行為時空信息的定位能力,其中每個標注的視頻片段連續(xù)且超過 15 分鐘,包含多個主體,每個主體有多個行為;Task B 分為 #1 (Vision Only) 以及 #2 (Full) 兩個子挑戰(zhàn)賽。總體來說,這一任務做大的難點是將動作細化到了原子級別,需要在任務中判斷人類行為主體的位置,發(fā)生了什么動作,又與其他物體/人發(fā)生了什么交互。


從結果看,曠視在這次挑戰(zhàn)賽中力壓群雄,分別以 0.21075 和 0.2099 的成績拿下 AVA 挑戰(zhàn)賽雙料第一名,谷歌 DeepMind 名列 #1 (Vision Only) 第二名。


曠視研究院檢測組負責人俞剛表示,該挑戰(zhàn)賽的算法把時空動作行為的任務分解成了兩個子任務:1) 行人位置定位以及 2) 基于檢測位置的動作分類。而制勝的訣竅是曠視在行人檢測子網絡中使用了最新的檢測技術,比如 Light Head R-CNN;而在動作分類子網絡中,則結合最新的 3D 卷積特征, 比如 I3D, 以及傳統的 two-stream 網絡特征來優(yōu)化動作分類能力。


AVA 挑戰(zhàn)賽奪冠在一定程度上表明,曠視研究院有著過硬的技術儲備和優(yōu)秀的人才梯隊,究其原因,這是由于曠視研究院向來重視通過參加挑戰(zhàn)賽不斷培養(yǎng)和提高實習生和研究員自主解決問題的能力。通過挑戰(zhàn)賽奪冠測試和篩選技術矩陣,強化優(yōu)秀技術庫存,使得曠視研究院內部形成一個良性循環(huán),而這正是曠視能夠成為全球五十大聰明公司和原創(chuàng)技術擔當的重要因素之一。


走好從人才到技術這一步,下一步是從技術到產品。從公司產品的角度講,行為時空信息的定位能力在視頻語義分析上有著非常大的意義,這一技術將從底層因素上推動曠視產品體系的迭代和更新,更好地連接場景,提升用戶體驗,提供真正的商業(yè)價值;未來這項技術將在智慧城市、智慧零售和智慧安防等領域發(fā)揮強大作用,實現曠視賦能億萬攝像頭的愿景。


WAD 挑戰(zhàn)賽


WAD(Workshop on Autonomous Driving)是一項由 CVPR 2018 workshop 主辦的自動駕駛識別挑戰(zhàn)賽,包含駕駛區(qū)域分割、道路物體檢測、語義分割域適應和實例視頻分割 4 個 Task,旨在展示當前的計算機視覺算法對外在環(huán)境的感知能力;其中的 Task 4 ——實例視頻分割(Instance-level Video Segmentation)要求參賽者在一幀之內實現對移動物體(比如汽車和行人)實例級別的分割,參與這項任務的意義在于挑戰(zhàn)賽為研究者們提供了一次真正獨特的機會,練手解決自動駕駛領域內極具價值且引人關注的問題。


基于由百度精良標注的大規(guī)模數據集 ApolloScape,該挑戰(zhàn)賽目前已開放 14.7 萬幀的像素級語義標注圖像;另外值得一提的是,其大小是當前同類型開源數據集的 10+ 倍,標注精細度已經超過同類型的 KITTI、Cityscapes 數據集,也超過 UC Berkley 最新發(fā)布的 BDD100K 數據集。在 WAD 挑戰(zhàn)賽中,曠視最終以 0.33986 的成績奪得第一名,超過第三名芯片巨頭英偉達將近 7 個點。


Image 077.png

WAD 挑戰(zhàn)賽冠軍證書及簽名


俞剛認為,從技術層面講,該挑戰(zhàn)賽的算法主要來自當前檢測方面的積累,據其以優(yōu)化場景中的小物體。在挑戰(zhàn)中,團隊重新設定了檢測算法的 anchor,使得對小物體的覆蓋率能有更大的提高, 同時還更新了一些訓練策略,比如更高的顯存利用率和數據增強,提升小物體的召回率。


總體來看,團隊本次參加自動駕駛相關的挑戰(zhàn)賽達到了兩個主要目的:一是通過測試在不同應用場景下的算法通用性,有力驗證了曠視自身算法的能力;另一方面則是檢驗了自身對算法的掌握性。而本次獲得雙料冠軍,也印證了曠視研究院在技術上的積累與對算法應用于不同場景的良好掌控力。


從人才到技術,再到產品落地,這一邏輯同樣適用 WAD 挑戰(zhàn)賽。該挑戰(zhàn)賽所代表的實例分割技術是發(fā)展自動駕駛不可或缺的核心組件,?盡管曠視目前并未涉足自動駕駛領域,但已經具備了國際領先的核心技術能力,為今后拓寬戰(zhàn)略版圖和完善產品體系打下了堅實的基礎。




熱門新聞
聯系我們