城大研發全新人工智能系統可提升自動駕駛預測準確性

 

車輛要保持安全的自動駕駛,精確、實時地預測附近車輛及行人的未來動向至關重要。香港城市大學(城大)領導的研究團隊,最近研發出一套全新人工智能系統,可增加自動駕駛系統在密集交通環境中的預測準確程度,並提高運算效率超過85%,為改善自動駕駛汽車的安全性提供巨大應用潛力。

帶領研究團隊的城大電腦科學系汪建平教授解釋,精確和實時預測在自動駕駛系統中極為重要,即使是微乎其微的延遲或錯誤,都可以導致災難性的後果。

然而,目前的行車預測技術往往無法正確理解周圍的駕駛場景,又或缺乏預測效率。現有方案通常在車輛及其觀察視窗向前移動時,即使周邊物體的最新位置數據與其前一個位置重疊,系統仍需要為周圍的物體和環境的最新位置數據,進行重新歸一化(re-normalising)和重新編碼(re-encoding),這會令實時在線預測出現多余的運算程序及導致延誤。

AI, cityu
QCNet可捕捉道路使用者的動向,準確預測附近車輛的多種可能動向。(圖片來源:香港城市大學汪建平教授研究團隊)

為了解決以上情況,汪教授的研究團隊研發了一套名為「QCNet」的軌跡預測系統,並可在理論上支持串流處理。這套系統基於相對時空(relative spacetime)的原理來進行定位,有著包括「空間維度的旋轉平移不變性(roto-translation invariance)」與「時間維度的平移不變性(translation invariance)」等優點。

透過上述提及的兩大特點,系統可在駕駛環境中提取唯一且固定的位置訊息,並不受駕駛者在查看駕駛場景時的時空座標所影響。這讓系統可以存取和重用之前所計算的座標編碼,理論上便可以做到實時預測。

AI, cityu
QCNet可理解道路規則和不同道路使用者之間的互動,從而提供符合地圖及可避免車輛踫撞的軌跡預測。(圖片來源:香港城市大學汪建平教授研究團隊)

團隊同時將道路使用者、車道和行人過路處之間的相對位置,整合至這套人工智能系統當中,以捕捉他們與駕駛場景之間的相互關係和互動,有效增強系統對道路規則和道路使用者之間互動的理解,同時考慮道路使用者動向的不確定性,從而產生可避免車輛踫撞的預測。

為了評估QCNet的功效,研究團隊使用了「Argoverse 1」和「Argoverse 2」兩套來自美國不同城市的自動駕駛開放數據和高清地圖數據庫進行測試。兩大數據庫涵蓋了超過32萬個數據序列和25萬個駕駛場景,被認為是對行為預測系統最具考驗難度的參照基準。

AI, cityu
QCNet在「Argoverse 1」及「Argoverse 2」的不同預測系統中表現最佳,並於CVPR 2023獲得了Argoverse 2的「運動預測挑戰賽」( Multi-Agent Motion Forecasting Competition)冠軍。(圖片來源:香港城市大學汪建平教授研究團隊)

在測試當中,QCNet即使在長遠預測道路使用者6秒後的行為動向,仍能展示出一定的速度與高準確性,並分別在Argoverse 1的333套預測系統與Argoverse 2的44套預測系統中位列第一。同時,QCNet在涉及190個道路使用者與169個地圖多邊形(map polygons,即包括車道和行人過路處) 的高密度交通場景之中,仍能將在線預測的延誤時間由8毫秒降至1毫秒, 令預測效率提高超過85%。

汪教授說:「團隊研發的技術可應用於自動駕駛系統,令自動駕駛汽車更有效地理解周邊環境,更準確地預測其他道路使用者的未來動向,以提供更安全、更人性化的駕駛決定,保障自動駕駛的安全性。」她補充說:「我們計劃將這套技術應用在更多的自動駕駛範疇,包括模擬交通系統和產生人性化的決定。」

 

上述研究成果已於今年在加拿大舉行的電腦視覺(computer vision)年度學術會議——「IEEE / CVF電腦視覺與模式識別會議」(IEEE / CVF Computer Vision and Pattern Recognition Conference, CVPR 2023)上發表,題為〈Query-Centric Trajectory Prediction〉

AI, cityu
汪建平教授(右)與周梓康先生(左)。(圖片來源:香港城市大學汪建平教授研究團隊)

研究論文的第一作者是周梓康先生,他是汪教授在城大電腦科學系研究團隊的博士生。通訊作者是汪教授,其他合作的研究人員分別來自鴻海科技集團(Foxconn®)旗下的鴻海研究院,以及美國的卡尼基美隆大學(Carnegie Mellon University)。有關研究成果整合至鴻海科技集團旗下的電動車自動駕駛系統,以提升實時預測效率和提高自動駕駛的安全性。

研究項目獲不同機構支持,包括鴻海研究院、香港研究資助局和深圳市科技創新委員會資助。

 

 

 

聯絡資料

Back to top