基于多特征交互融合的行人過街意圖預(yù)測(cè)
摘要: 行人意圖預(yù)測(cè)對(duì)于開發(fā)安全的自動(dòng)駕駛輔助系統(tǒng)至關(guān)重要。傳統(tǒng)方法主要采用圖卷積網(wǎng)絡(luò)和遞歸架構(gòu)來處理人體姿態(tài)數(shù)據(jù),這些方法在特征融合方面存在局限性,并且依賴于行人姿態(tài)信息提取的完整性,導(dǎo)致行人被局部遮擋時(shí)準(zhǔn)確性降低。為了解決以上問題,提出了多特征交互融合的行人過街意圖預(yù)測(cè)模型(PEPR-Net),使用頭部姿態(tài)并引入了骨架熱力圖信息,提高了行人被遮擋時(shí)預(yù)測(cè)的準(zhǔn)確性,并且彌補(bǔ)了非歐幾里得... (共11頁)
開通會(huì)員,享受整站包年服務(wù)