飛步科技三篇論文入選CVPR 2022

時(shí)間:2022-03-25

來(lái)源:LSAD產(chǎn)業(yè)聯(lián)盟

0

導(dǎo)語(yǔ):涉及車(chē)道線(xiàn)檢測(cè)、3D目標(biāo)檢測(cè)、少樣本分類(lèi)等與無(wú)人駕駛密切相關(guān)的技術(shù)方向。

在即將舉行的計(jì)算機(jī)視覺(jué)國(guó)際頂級(jí)會(huì)議CVPR 2022中,飛步科技被錄用了三篇高水平論文,涉及車(chē)道線(xiàn)檢測(cè)、3D目標(biāo)檢測(cè)、少樣本分類(lèi)等與無(wú)人駕駛密切相關(guān)的技術(shù)方向。以下為入選論文介紹。

基于跨層優(yōu)化的車(chē)道線(xiàn)檢測(cè)方法
CLRNet: Cross Layer Refinement Network for Lane Detection

車(chē)道線(xiàn)檢測(cè)是無(wú)人駕駛系統(tǒng)感知模塊的重要功能,由搭載在車(chē)身上的視覺(jué)攝像頭來(lái)完成,感知結(jié)果常用來(lái)進(jìn)行輔助定位。車(chē)道線(xiàn)檢測(cè)需要有高層次的語(yǔ)義信息,但車(chē)道線(xiàn)特征相對(duì)簡(jiǎn)單,需要有低層次的特征來(lái)精確定位。并且在港口、城市道路等真實(shí)場(chǎng)景中,車(chē)道線(xiàn)經(jīng)常存在破損、被遮擋等情況。

為了解決上述問(wèn)題,CLRNet提出了一種結(jié)合高層次和低層次特征的網(wǎng)絡(luò)結(jié)構(gòu),一方面可以感知環(huán)境信息,聚集全局特征,另一方面也能結(jié)合局部的信息精準(zhǔn)定位車(chē)道線(xiàn)。并且文章提出一種全新的線(xiàn)段交并比損失函數(shù),進(jìn)一步提升了車(chē)道線(xiàn)的定位精度。簡(jiǎn)而言之,CLRNet可以幫助無(wú)人駕駛系統(tǒng)進(jìn)行更類(lèi)人的判斷,精準(zhǔn)“修補(bǔ)”出因?yàn)檎趽鹾推茡p而消失的車(chē)道線(xiàn)。

 
如下圖所示,相比于其他方法,CLRNet可以檢測(cè)出完整而連續(xù)的車(chē)道線(xiàn)。大量實(shí)驗(yàn)證明,論文提出的方法取得了遠(yuǎn)超越當(dāng)前最先進(jìn)方法的性能表現(xiàn)。


論文地址:https://arxiv.org/abs/2203.10350

基于互中心化學(xué)習(xí)的少樣本分類(lèi)方法
Learning to Affiliate: Mutual Centralized Learning for Few-shot Classification

對(duì)于神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō),需要大量的樣本數(shù)據(jù)來(lái)進(jìn)行學(xué)習(xí)。現(xiàn)階段,無(wú)人駕駛系統(tǒng)依靠大數(shù)據(jù)來(lái)進(jìn)行模型學(xué)習(xí),并盡可能在較少的樣本中去做出分類(lèi)。傳統(tǒng)的方法傾向于使用一個(gè)全局特征來(lái)密集地表示圖像,而不是使用混合的局部特征。但在實(shí)際的無(wú)人駕駛作業(yè)場(chǎng)景中,這樣的方法存在著天然的局限性,例如前方車(chē)輛車(chē)窗掛出了樹(shù)枝,但無(wú)人駕駛系統(tǒng)可能會(huì)將車(chē)輛誤檢為一棵樹(shù)。


針對(duì)上述問(wèn)題,論文提出了一種全新的互中心化的學(xué)習(xí)(MCL)方法,來(lái)更加密切地關(guān)聯(lián)圖像局部特征的稠密表示,針對(duì)上述Corner Case有著很好的效果。具體而言,論文假設(shè)每個(gè)局部特征是一個(gè)可以在離散特征空間中雙向游走的粒子,提出使用局部特征的可達(dá)性進(jìn)行分類(lèi)任務(wù)。論文證明這種方法與關(guān)系網(wǎng)絡(luò)中的中心性存在緊密的聯(lián)系,且可以通過(guò)修改局部特征在全局池化中的權(quán)重來(lái)得到更加魯棒的特征表示。經(jīng)過(guò)實(shí)驗(yàn)證明,論文方法在各個(gè)少樣本分類(lèi)的數(shù)據(jù)集上達(dá)到了最優(yōu)的效果。



論文地址:https://arxiv.org/abs/2106.05517

基于稀疏融合稠密范式的多模態(tài)3D檢測(cè)方法
Sparse Fuse Dense: Towards High Quality 3D Detection with Depth Completion

無(wú)人駕駛系統(tǒng)中,基于純點(diǎn)云的感知方案,對(duì)于遮擋及遠(yuǎn)距離的物體往往很難給出準(zhǔn)確的檢測(cè)結(jié)果,因?yàn)檫@些物體表面的點(diǎn)云通常非常稀疏。

一種可行的解決方案是將點(diǎn)云和高分辨率的圖像進(jìn)行融合,以此來(lái)緩解點(diǎn)云稀疏性的問(wèn)題。但由于圖像和點(diǎn)云的數(shù)據(jù)格式不同,將二者融合并不容易。


論文提出了一種新穎的多模態(tài)3D檢測(cè)框架SFD(Sparse Fuse Dense),其利用深度補(bǔ)全將2D圖片轉(zhuǎn)換成3D偽點(diǎn)云,從而統(tǒng)一了圖像和雷達(dá)點(diǎn)云的數(shù)據(jù)表達(dá)方式。這使得多模態(tài)方法可以使用更精細(xì)的RoI融合策略以及更豐富的數(shù)據(jù)增強(qiáng)。為了充分挖掘偽點(diǎn)云的信息,論文還為偽點(diǎn)云定制了一個(gè)高效的卷積。

論文提出的方法有效地彌補(bǔ)了激光雷達(dá)的不足,提升了自動(dòng)駕駛車(chē)輛對(duì)于場(chǎng)景的理解能力,增強(qiáng)了遮擋和遠(yuǎn)距離物體的感知召回率。在KITTI數(shù)據(jù)集的3D目標(biāo)檢測(cè)任務(wù)上,論文提出的方法取得了排名第一的成績(jī)。

論文地址:https://arxiv.org/abs/2203.09780

掃碼關(guān)注公眾號(hào),隨時(shí)了解最新資訊

低速無(wú)人駕駛產(chǎn)業(yè)綜合服務(wù)平臺(tái)版權(quán)與免責(zé)聲明:

凡本網(wǎng)注明[來(lái)源:低速無(wú)人駕駛產(chǎn)業(yè)綜合服務(wù)平臺(tái)]的所有文字、圖片、音視和視頻文件,版權(quán)均為低速無(wú)人駕駛產(chǎn)業(yè)綜合服務(wù)平臺(tái)獨(dú)家所有。如需轉(zhuǎn)載請(qǐng)與0755-85260609聯(lián)系。任何媒體、網(wǎng)站或個(gè)人轉(zhuǎn)載使用時(shí)須注明來(lái)源“低速無(wú)人駕駛產(chǎn)業(yè)綜合服務(wù)平臺(tái)”,違反者本網(wǎng)將追究其法律責(zé)任。

本網(wǎng)轉(zhuǎn)載并注明其他來(lái)源的稿件,均來(lái)自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請(qǐng)保留稿件來(lái)源及作者,禁止擅自篡改,違者自負(fù)版權(quán)法律責(zé)任。

如涉及作品內(nèi)容、版權(quán)等問(wèn)題,請(qǐng)?jiān)谧髌钒l(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注低速無(wú)人駕駛產(chǎn)業(yè)聯(lián)盟公眾號(hào)獲取更多資訊

最新新聞