TWI760128B - 深度圖像之生成方法、系統以及應用該方法之定位系統 - Google Patents

深度圖像之生成方法、系統以及應用該方法之定位系統 Download PDF

Info

Publication number
TWI760128B
TWI760128B TW110107954A TW110107954A TWI760128B TW I760128 B TWI760128 B TW I760128B TW 110107954 A TW110107954 A TW 110107954A TW 110107954 A TW110107954 A TW 110107954A TW I760128 B TWI760128 B TW I760128B
Authority
TW
Taiwan
Prior art keywords
depth
image
radar
module
feature point
Prior art date
Application number
TW110107954A
Other languages
English (en)
Other versions
TW202236214A (zh
Inventor
郭峻因
皓升 鄭
Original Assignee
國立陽明交通大學
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 國立陽明交通大學 filed Critical 國立陽明交通大學
Priority to TW110107954A priority Critical patent/TWI760128B/zh
Application granted granted Critical
Publication of TWI760128B publication Critical patent/TWI760128B/zh
Publication of TW202236214A publication Critical patent/TW202236214A/zh

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

一種深度圖像之生成方法及系統,係利用計算具相對深度之像素圖像以及具量測深度之雷達圖像以產生倍率,進而以該倍率校正像素圖像而生成深度圖像,亦即藉由像素圖像及雷達圖像之融合以得到準確深度,另外,本發明以上述方法及系統,進一步建構對應之定位系統,即將深度圖像之生成系統所生成之深度圖像,透過同步定位與地圖建構模組進行定位,以達到利用具有絕對深度之深度圖像進行定位之目的。

Description

深度圖像之生成方法、系統以及應用該方法之定位系統
本發明係為一種圖像生成技術以及定位方法,尤指一種深度圖像之生成方法、系統以及應用該方法之定位系統。
近年來,機器人、自動駕駛汽車(以下稱自駕車)等技術愈益成熟。以自駕車為例,於一些特定區域已能看到自駕車行駛於道路上,其須仰賴精確的定位技術之協助,方能順利於預定路線上移動,以避免自駕車偏離預定路線或是自駕車因偏離預定路線而造成許多事故,是以,定位技術對於自駕車之行駛著實重要。
近來最受到矚目的定位技術,莫過於同步定位與地圖建構技術(Simultaneous Localization and Mapping,下稱SLAM),憑藉著其精確的定位功能,且不須倚靠全球定位系統(Global Positioning System,GPS)之特點,使得SLAM技術可應用於戶外或非戶外之場所,其應用範圍更加廣泛。一般SLAM技術通常需要架設光學雷達(light detection and ranging,LIDAR)作為感測裝置,以精確地偵 測環境中物體之距離以及判斷影像之深度,惟光學雷達設備昂貴,是以,目前出現視覺SLAM(Vision SLAM)技術盼得取而代之。
視覺SLAM技術主要係利用相機作為感測器,而現今的相機具有成本低廉,且架設、設定、校正皆較為簡單之優點,使得視覺SLAM技術逐漸受到重視,然視覺SLAM技術仍存在一些需要克服之難題,其中之一在於其演算法較為複雜且運算量較為龐大。
為解決上述問題,目前之視覺SLAM技術中,於影像處理方面,是依據其使用之像素區域大小,大致上分為直接法(Direct method)和特徵點法(feature-based method),其中,直接法會直接使用整張影像去進行定位與估測相機姿態,其優點在於較不耗時,但直接法對於亮度變化敏感,且儲存地圖所占用之空間較大,而特徵點法則會對整張畫面先進行特徵點萃取的動作,雖然較費時但對於環境光的抗噪性高,地圖占用儲存空間小。
另外,在輸入感測方面,視覺SLAM技術可分為單目像機(Monocular)SLAM、彩色深度像機(RGB-D)SLAM和立體像機(Stereo)SLAM,其中,Monocular SLAM是使用單一個影像進行定位,其利用關鍵幀與關鍵幀之間的特徵點的位置,等速模型估算距離,亦即於Monocular SLAM進行建圖與定位時,須依靠關鍵幀與關鍵幀直接的視差計算特徵點的實際位置,此致Monocular SLAM無法建立與實際軌跡大小一樣的地圖,因而Monocular SLAM最大的問題在於缺乏環境的實際深度資訊;其次,RGB-D SLAM則是利用單目相機搭配紅外測距,惟其存在著紅外線在室外強光底下無法正常運作之問題,亦即紅外線於室外之場所使用時,將受光線之故而影響其準確度,致其所測量的深度並不準確,據此,RGB-D SLAM的應用通常僅限於室內的環境中使用;另外,Stereo SLAM係使用兩個相機的視差估計深度進行定位,具體地,Stereo SLAM係藉由兩顆魚眼相機之間的視差,以計算深度,再搭配相機的校正計算出實際環境的距離,惟Stereo SLAM的問題在於延展性不佳。
由上可知,目前視覺SLAM技術存在的最大問題在於無法有效提供具有精確的絕對深度之深度圖,而傳統Monocular SLAM、RGB-D SLAM和以及Stereo SLAM存在各自缺點,導致視覺SLAM目前難以取代現有應用光學雷達之SLAM,因此,如何克服上述現有技術之種種缺失,將成目前亟欲解決的課題。
有鑑於上述問題,本發明提供一種深度圖像之生成方法,係包括:提供包括深度特徵點以及對應該深度特徵點之相對深度的像素圖像;提供包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;計算該量測深度與該相對深度之間的倍率;以及透過該倍率校正該像素圖像,以形成深度圖像。
於一實施例中,該深度圖像之生成方法復包括透過深度學習網路對該像素圖像進行分析,以自該像素圖像中取得該深度特徵點,俾利用該深度特徵點得到該相對深度。
於另一實施例中,該雷達圖像與該像素圖像係利用投影方式,以使該雷達點與該深度特徵點相對應。
於另一實施例中,該像素圖像包括複數個該深度特徵點以及複數個該相對深度,該雷達圖像包括複數個該雷達點以及複數個該量測深度,透過複 數個該量測深度與複數個該相對深度之間的計算取得複數個倍率,且平均該複數個倍率以產生平均倍率,俾利用該平均倍率校正該像素圖像。
於又一實施例中,該深度圖像之生成方法復包括透過複數個該像素圖像以及複數個該雷達圖像以獲得複數個幀倍率,且平均該複數個幀倍率以產生校正倍率,俾藉由該校正倍率校正該像素圖像,以形成該深度圖像。
本發明復提供一種深度圖像之生成系統,其包括:深度預測模組,係用於接收及分析像素圖像,以獲得該像素圖像之深度特徵點以及對應該深度特徵點的相對深度;雷達擷取模組,係用於擷取包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;以及深度融合模組,係連接該深度預測模組與該雷達擷取模組,用以計算該量測深度與該相對深度之間的倍率,以透過該倍率校正該像素圖像而形成深度圖像。
於一實施例中,該深度圖像之生成系統復包括連接該深度預測模組之圖像擷取模組,用以擷取該像素圖像以將該像素圖像提供予該深度預測模組。
於另一實施例中,該深度預測模組係透過深度學習網路對該像素圖像進行分析,以自該像素圖像中取得該深度特徵點,俾利用該深度特徵點得到該相對深度。
於另一實施例中,該深度圖像之生成系統復包括連接該深度預測模組以及該雷達擷取模組之校正模組,係用於利用投影方式使該雷達點與該深度特徵點相對應,俾將經投影之該像素圖像及該雷達圖像傳送至該深度融合模組。
於另一實施例中,該像素圖像包括複數個該深度特徵點以及複數個該相對深度,該雷達圖像包括複數個該雷達點以及複數個該量測深度,該深度融合模組透過複數個該量測深度與複數個該相對深度之間的計算取得複數個倍率,且平均該複數個倍率以產生平均倍率,俾利用該平均倍率校正該像素圖像。
於又一實施例中,該深度融合模組透過複數個該像素圖像以及複數個該雷達圖像之間的計算取得複數個幀倍率,且平均該複數個幀倍率以產生校正倍率,俾藉由該校正倍率校正該像素圖像,以形成該深度圖像。
本發明復提供一種定位系統,係包括:深度預測模組,係用於接收及分析像素圖像,以獲得該像素圖像之深度特徵點以及對應該深度特徵點的相對深度;雷達擷取模組,係用於擷取包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;深度融合模組,係連接該深度預測模組與該雷達擷取模組,用以計算該量測深度與該相對深度之間的倍率,透過該倍率校正該像素圖像而形成深度圖像;以及同步定位與地圖建構模組,係用於比對該深度融合模組所形成之該深度圖像以及預存之區域地圖,以依據比對結果而於該區域地圖中進行定位。
於一實施例中,該定位系統復包括圖像擷取模組以及校正模組,其中,該圖像擷取模組用以擷取該像素圖像以將該像素圖像提供予該深度預測模組,而該校正模組接收來自該深度預測模組之該像素圖像以及來自該雷達擷取模組之該雷達圖像,以利用投影方式,使該雷達點與該深度特徵點相對應,俾將經投影之該像素圖像及該雷達圖像傳送至該深度融合模組。
於另一實施例中,該同步定位與地圖建構模組復包括:特徵點萃取單元,係用於對該深度圖像進行圖像特徵點萃取;追蹤或重新定位單元,係連 接該特徵點萃取單元,用以比對該深度圖像之該圖像特徵點與前一個深度圖像之先前圖像特徵點,以進行特徵點追蹤;以及優化與區域定位單元,係連接該追蹤或重新定位單元,用於分析該追蹤或重新定位單元之追蹤結果,以取得該深度圖像對應的定位位置。
於另一實施例中,該同步定位與地圖建構模組復包括用以輸出該深度圖像對應的定位位置之相機姿態輸出單元。
於另一實施例中,該相機姿態輸出單元係為視訊圖形陣列(VGA)、數位視訊介面(DVI)、高畫質多媒體介面(HDMI)或顯示埠(Display Port)之輸出埠。
於另一實施例中,該同步定位與地圖建構模組復包括用以儲存該區域地圖之區域地圖單元,以於該追蹤或重新定位單元無法對該深度圖像之圖像特徵點與該前一個深度圖像之先前圖像特徵點進行追蹤時,透過該深度影像與該區域地圖進行比對,以進行重新定位。
於另一實施例中,該優化與區域定位單元係於取得該深度圖像對應的該定位位置時,同步更新該區域地圖。
於另一實施例中,該同步定位與地圖建構模組復包括用於在該區域地圖中***關鍵幀之關鍵幀生成單元,以於***該關鍵幀時,比對該關鍵幀與該區域地圖中之其他關鍵幀,俾於比對結果匹配時,利用該圖像特徵點形成三維地圖。
於又一實施例中,該同步定位與地圖建構模組復包括迴環檢測單元,用以計算該關鍵幀與該區域地圖之該其他關鍵幀之間的相似度,以於該相似度超過閾值時,優化該區域地圖。
綜上所述,本發明之深度圖像之生成方法與系統,將具相對深度之像素圖像以及具量測深度之雷達圖像進行融合,計算出二者相差之倍率,以透過該倍率校正該像素圖像而生成深度圖像,藉此得到準確深度;另外,本發明提出應用前述生成方法之定位系統,係將所生成之深度圖像進一步透過同步定位與地圖建構模組進行定位,據以達到提供具有絕對深度之深度圖像進行定位之目的,不僅解決視覺SLAM的可能問題,亦能取代現有應用光學雷達之SLAM的高成本問題。
10,10’:深度圖像之生成系統
11:深度預測模組
12:雷達擷取模組
13:深度融合模組
14:圖像擷取模組
15:校正模組
201-211:流程
60:定位系統
61:深度預測模組
62:雷達擷取模組
63:深度融合模組
64:同步定位與地圖建構模組
641:特徵點萃取單元
642:追蹤或重新定位單元
643:優化與區域定位單元
644:相機姿態輸出單元
645:區域地圖單元
646:關鍵幀生成單元
647:迴環檢測單元
65:圖像擷取模組
66:校正模組
801~807:流程
901~907:流程
S101~S104:步驟
圖1係本發明之深度圖像之生成方法的步驟流程圖。
圖2係本發明之深度圖像之生成方法進行深度融合之流程圖。
圖3係本發明之雷達圖像取樣示意圖。
圖4係本發明之深度圖像之生成系統第一實施例之架構示意圖。
圖5係本發明之深度圖像之生成系統第二實施例之架構示意圖。
圖6係本發明之定位系統之系統架構示意圖。
圖7係本發明之定位系統中同步定位與地圖建構模組之架構示意圖。
圖8係本發明之形成投影矩陣之流程圖。
圖9係本發明之定位系統之相機姿態投影流程圖。
圖10A-10D係本發明之定位效果軌跡圖。
以下藉由特定的具體實施形態說明本發明之技術內容,熟悉此技藝之人士可由本說明書所揭示之內容輕易地瞭解本發明之優點與功效。然本發明亦可藉由其他不同的具體實施形態加以施行或應用。
圖1為本發明之深度圖像之生成方法的步驟流程圖。如圖所示,於步驟S101,提供包括深度特徵點以及對應該深度特徵點之相對深度的像素圖像。具體而言,該像素圖像係為透過相機、攝影機等用以擷取環境圖像之設備所擷取之圖片或影像資料,透過分析像素圖像,以自該像素圖像中獲得深度特徵點以及對應該深度特徵點之相對深度資訊。易言之,本發明透過深度學習網路對像素圖像進行分析,以由像素圖像中取得深度特徵點,並利用深度特徵點得到像素圖像之相對深度,其中,本發明所述之深度特徵點係指像素圖像中之特定區域、物件、像素或座標點等,可用以供深度學習網路進行分析之資訊。
於步驟S102,提供包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像。具體而言,雷達圖像係為透過雷達對環境所擷取之雷達點雲,其具有一或複數雷達點,透過雷達點能獲知其對應之距離資訊。進一步地,雷達圖像與像素圖像利用投影方式,而使該雷達點與該深度特徵點相對應,其中,像素圖像及雷達圖像分別具有各自的座標軸,透過將雷達圖像之座標軸對應至像素圖像之座標軸,即將雷達圖像投影至像素圖像,藉此使得雷達圖像之雷達點可對應像素圖像上之像素點。
於步驟S103,計算該量測深度與該相對深度之間的倍率。本步驟即以相對深度為基礎,計算量測深度相較於相對深度之間之倍率,舉例而言,像素圖像中之深度特徵點經分析所得到之相對深度為5公尺,而雷達圖像中對應深度特徵點的量測深度為10公尺,則其間之倍率即為2倍。
於步驟S104,透過該倍率校正該像素圖像,以形成深度圖像。於獲得相對深度與量測深度之間的倍率後,利用該倍率對像素圖像進行校正,使該像素圖像形成具有絕對深度的深度圖像,亦即,像素圖像具有許多相對距離資訊,為密集的深度圖,而雷達圖像具有準確距離資訊但資料量少,故為稀疏的點雲圖,深度圖像則如像素圖像具有許多距離資訊的深度圖,但同時具備絕對深度資訊。承上示例,當得到相對深度與量測深度之間的倍率為2倍時,利用該倍率將像素圖像中的相對深度校正為雷達圖像中之量測深度,使得像素圖像經倍率之校正後,成為具有絕對深度之深度圖像。
於一實施例中,可於一段時間區間中擷取複數幀之像素圖像以及對應該複數幀的像素圖像之複數個雷達圖像,接著,先對各對應幀之像素圖像及雷達圖像取其各自對應幀之倍率,藉以獲得複數個幀倍率,再進一步對複數個幀倍率取平均值,以得到校正倍率,即可藉該校正倍率校正各像素圖像,以形成對應之深度圖像,據此,本發明可達到降低單一倍率可能產生較大誤差之目的。
於另一實施例中,每一個像素圖像係包括複數個深度特徵點,且複數個深度特徵點係對應有複數個相對深度,而每一個雷達圖像係對應像素圖像包括複數個雷達點,且複數個雷達點係對應有複數個量測深度,據此,本發明可透過單一圖像中複數個量測深度與對應的複數個相對深度之間的計算,使各對應之相對深度及量測深度皆產生對應之倍率,藉以於單一像素圖像中取得複數個倍率,再將該複數個倍率進行平均,以產生平均倍率,即可利用該平均倍率校正像素圖像,其可達到降低單一圖像中僅採用單一倍率可能產生誤差之結果。
圖2為本發明之深度圖像之生成方法進行深度融合之流程圖。如圖所示,本發明之雷達圖像為透過雷達所擷取之對應環境的雷達點雲,其中,雷 達點雲中具有多個雷達點及對應各雷達點之量測深度,於流程201中,係提供雷達圖像;於流程202-203中,係對雷達圖像進行篩選,以達到減少雷達圖像中之雜訊所產生之影像,具體而言,先確認雷達點雲是否是有效投影,即將雷達圖像投影至像素圖像上,並確認各雷達點是否為有效投影,並可找到對應之特徵點,若為未有效投影,則捨去該雷達圖像,當為有效投影時,再確認雷達圖像中的雷達點的距離範圍是否屬於所使用之雷達的深度範圍,如否,則捨去該雷達圖像,以淘汰不適合之雷達圖像,若雷達點屬於規定之深度範圍,則進入流程204,即於雷達圖像篩選後,利用篩選後之具有深度的雷達圖像對相對深度圖進行取樣,其中,圖3為本發明之雷達圖像取樣示意圖,如圖所示,本發明藉由在雷達圖像之雷達點周圍進行取樣,其可達到消除雜訊之目的,於此之後,將取得每一個有效雷達點對應的相對深度數值;於流程205中,利用有效雷達點對應之相對深度之數值,以計算單一幀的倍率;於流程206中,利用多幀之像素圖像及對應之雷達圖像,以計算多幀(例如M個幀)之多個倍率;於流程207中,再將多幀所形成之多個倍率進行平均,以取得最後之校正倍率;於流程208中,將得到之最終之校正倍率,用以校正相對深度;於流程209中,進行限制深度範圍,即要求相對深度校正後仍要屬於深度範圍內;於流程210中,再進行中位數對齊的調整;最後,於流程211中,獲得具有絕對深度之深度圖像。
圖4為本發明之深度圖像之生成系統第一實施例之架構示意圖。如圖所示,於本實施例中,本發明之深度圖像之生成系統10包括深度預測模組11、雷達擷取模組12以及與深度預測模組11和雷達擷取模組12連接之深度融合模組13,其中,深度融合模組13自深度預測模組11和雷達擷取模組12分別獲得相 對深度及對應相對深度之量測深度,以經計算及校正後,形成深度圖像。關於本發明之生成系統10,詳細說明如下。
深度預測模組11係利用像素圖像中之單個RGB影像產生深度資訊,亦即深度預測模組11於接收像素圖像後進行分析,以獲得該像素圖像之深度特徵點以及對應深度特徵點之相對深度。具體而言,深度預測模組11透過使用預先訓練完成之深度學習網路對像素圖像進行分析,以自該像素圖像中取得深度特徵點,並利用該深度特徵點得到相對深度,進一步地,深度學習網路對像素圖像之分析可分為編碼與解碼兩個階段,其中,編碼部分係在於對像素圖像找出對應之特徵點,而解碼部分在利用特徵點以計算出對應之深度資訊。
雷達擷取模組12係具備可銜接嵌入式系統裝置中的影像擷取裝置,其主要是通過序列(serial)的傳輸方式將雷達點雲資訊傳遞到系統以進行其他運算,雷達擷取模組12可擷取包括對應像素圖像的深度特徵點之雷達點以及對應雷達點之量測深度的雷達圖像,亦即,本發明透過雷達擷取模組12取得具有雷達點及量測深度之雷達圖像。
深度融合模組13係用於將深度預測模組11所得之相對深度與雷達擷取模組12所得之雷達圖像中量測深度進行融合。本發明之深度融合模組13連接深度預測模組11與雷達擷取模組12並接收具有相對深度之像素圖像以及具有量測深度之雷達圖像,該深度融合模組13計算量測深度與相對深度之間的倍率,再透過該倍率以校正像素圖像,亦即,使像素圖像之相對深度藉由倍率校正成絕對深度,藉以形成具有絕對深度之深度圖像。須說明者,深度融合模組13主要用於處理雷達點雲和相對深度圖,其中,雷達圖像為雷達點雲,其雖僅為稀疏之點雲圖,但擁有準確之距離資訊,另外,像素圖像則只具有物件與物件之間的 相對深度,但其為密集的深度圖,本發明即透過深度融合模組13融合相對深度與量測深度,以形成深度圖像。
於一實施例中,深度融合模組13係於接收複數個像素圖像及對應之複數個雷達圖像後,先透過計算各對應幀之像素圖像以及雷達圖像取得各幀之倍率,藉以取得複數個幀倍率,再平均複數個幀倍率以得到校正倍率,據此,深度融合模組13即可藉該校正倍率以校正像素圖像,藉此形成對應之深度圖像,如此透過多個圖像的數據平均,可降低僅採用單一圖像而有造成較大之誤差值的情況。
於另一實施例中,像素圖像係包括複數個深度特徵點以及複數個相對深度,而雷達圖像包括對應各深度特徵點之複數個雷達點以及複數個量測深度,該深度融合模組13能透過複數個量測深度與複數個相對深度之間的計算,以取得複數個倍率,接著平均該複數個倍率以產生平均倍率,據此,本發明可利用平均倍率來校正像素圖像,亦可降低單一圖像僅採單一倍率可能造成之誤差問題。
第5圖為本發明之深度圖像之生成系統第二實施例之架構示意圖。如圖所示,本實施例之深度圖像之生成系統10’的深度預測模組11、雷達擷取模組12以及深度融合模組13與圖4相同,於此不在贅述,而不同處在於本實施例中,深度圖像之生成系統10’復包括圖像擷取模組14以及校正模組15。
圖像擷取模組14係用以擷取供深度預測模組11分析之像素圖像,簡言之,其為具備可銜接於嵌入式裝置之模組,例如網路攝影機、數位攝影機、智慧型手機、行車紀錄器等電子設備,本發明可藉圖像擷取模組14即時獲得所處環境之像素圖像。
校正模組15係連接深度預測模組11、雷達擷取模組12以及深度融合模組13,以接收像素圖像以及雷達圖像,其中,校正模組15利用投影方式將雷達圖像投影至像素圖像,使得雷達點與深度特徵點之間相對應,經投影之像素圖像及雷達圖像之後被傳送至深度融合模組13進行深度融合。易言之,校正模組15用以將雷達點自雷達圖像之坐標投影至像素圖像之坐標上,以使雷達點對應深度影像之深度特徵點,即於像素圖像中顯示雷達點所對應到的影像圖像中之像素的位置。具體而言,圖像擷取模組14以相機為例,於校正模組15進行投影前,須先計算相機的內部參數和雷達對於相機的相對位置,之後,若相機之內部參數和雷達與相機之相對位置於未改變之前提下,無需再進行校正,亦即,雷達與相機之間只須進行一次校正即可,於投影階段則可直接利用預先建立之投影矩陣進行轉換,以達對應之目的。
圖6為應用深度圖像之生成方法之定位系統的系統架構示意圖。如圖所示,本發明之定位系統60包括深度預測模組61、雷達擷取模組62、深度融合模組63以及同步定位與地圖建構模組64,進一步地,復可包括圖像擷取模組65以及校正模組66,其中,深度預測模組61、雷達擷取模組62、深度融合模組63、圖像擷取模組65以及校正模組66之功能與運作,如前面深度圖像之生成系統所述,故不再贅言,以下僅針對同步定位與地圖建構模組64進行說明。
同步定位與地圖建構模組64用於將自深度融合模組63所接收之深度圖像以及同步定位與地圖建構模組64所預存之區域地圖作比對,以依據比對結果而於區域地圖中進行定位,據以得到於該區域地圖中所處之位置。簡言之,定位系統60是基於深度融合模組63所產生之深度圖像,而於區域地圖中進行定位,其具體定位程序,詳如後述。
圖7為本發明之定位系統60中同步定位與地圖建構模組64之架構示意圖。如圖所示,本發明之同步定位與地圖建構模組64包括特徵點萃取單元641、追蹤或重新定位單元642以及優化與區域定位單元643。
特徵點萃取單元641係於同步定位與地圖建構模組64自深度融合模組63取得深度圖像,對所接收之每一幀深度圖像進行圖像特徵點萃取。
追蹤或重新定位單元642係連接該特徵點萃取單元641,以於特徵點萃取單元641對當前所接收之深度圖像萃取出圖像特徵點時,利用該深度圖像之圖像特徵點對前一幀之深度圖像的先前圖像特徵點進行追蹤。簡言之,追蹤或重新定位單元642透過比對當前幀之深度圖像的圖像特徵點與前一個深度圖像之先前圖像特徵點,以進行特徵點追蹤。
優化與區域定位單元643係連接追蹤或重新定位單元642,且於追蹤或重新定位單元642之追蹤成功後,依據追蹤結果進行分析,以取得深度圖像對應的定位位置,進而得到本發明之定位系統的相機姿態。易言之,本發明之定位系統於追蹤或重新定位單元642追蹤成功後,經由優化與區域定位單元643計算出相機姿態,相機姿態之資訊會同時進行輸出以及於區域地圖中紀錄當前相機姿態。
據此,本發明能透過圖6之深度預測模組61、雷達擷取模組62以及深度融合模組63生成深度圖像,提供同步定位與地圖建構模組64對深度圖像進行追蹤,進而確定在區域地圖之實際位置,以達到定位之目的。
進一步地,圖7所示之同步定位與地圖建構模組64復包括相機姿態輸出單元644、區域地圖單元645、關鍵幀生成單元646以及迴環檢測單元647。
相機姿態輸出單元644係用以輸出深度圖像之定位位置所對應之相機姿態,其透過視訊圖形陣列(VGA)、數位視訊介面(DVI)、高畫質多媒體介面(HDMI)或顯示埠(Display Port,DP)等輸出埠,以供內嵌式或外接式之顯示裝置連接,藉由前述之輸出埠對應連接到影像顯示裝置,提供同步定位與地圖建構模組64之視機姿態。簡言之,本發明可透過相機姿態輸出單元644提供視覺化輸出資訊,相機姿態輸出單元644可與本發明之定位系統所設置之相容的顯示設備透過如VGA、DVI、HDMI或Display Port等輸出介面進行連接,以傳送視覺化輸出資訊,易言之,相機姿態單元644可提供一個接口通道給其他模組或裝置取得相機姿態之資訊或進一步對相機姿態執行資料視覺化。另外,相機姿態輸出單元644亦提供相機姿態在三維空間中的變換矩陣(Transformation matrix),該變換矩陣內包含了相機姿態當前的位置資訊,可提供給其他系統使用或記錄軌跡等用途。
區域地圖單元645係用以儲存該區域地圖,以及於追蹤或重新定位單元642無法對深度圖像之圖像特徵點與前一個深度圖像之先前圖像特徵點進行追蹤時,提供區域地圖與深度影像進行比對,以利用區域地圖與深度影像之比對結果重新定位。由上可知,定位系統經前述重新定位時,優化與區域定位單元643將取得深度圖像對應之定位位置,此時可同步更新區域地圖單元645內之區域地圖。
另外,本發明之定位系統於追蹤或重新定位單元642追蹤成功後,經由優化與區域定位單元643計算出相機姿態,相機姿態之資訊會同時送到相機姿態輸出單元644以及區域地圖單元645紀錄下當前相機姿態。
關鍵幀生成單元646係用於在該區域地圖中***關鍵幀,且於***該關鍵幀時,比對該關鍵幀與該區域地圖中之其他關鍵幀,以於比對結果匹配時,利用該圖像特徵點形成三維地圖。具體而言,關鍵幀生成單元646會存取區域地圖單元645中之區域地圖,以於追蹤或重新定位單元642追蹤的過程中,於一定之間隔(例如時間間隔或幀間隔)***關鍵幀,並由當前關鍵幀與區域地圖中的關鍵幀中相匹配的特徵點生成三維(3D)地圖點。
同步定位與地圖建構模組64係利用迴環檢測單元647計算關鍵幀與該區域地圖之該其他關鍵幀之間的相似度,以於該相似度超過閾值時,優化該區域地圖。易言之,迴環檢測單元647會計算新生成與舊有地圖點、關鍵幀的相似度,若相似度高於閾值,則會對所有的地圖資訊做優化,來消除飄移誤差(drift error),再將優化後結果存回區域地圖內。
圖8為本發明之形成投影矩陣之流程圖。如圖所示,為使本發明之同步定位與地圖建構模組64的軌跡接近全球定位系統(Global Positioning System,GPS)之準確度,本發明進一步利用投影矩陣對每一個相機姿態進行投影。於流程801中,建置或預先錄製ROSBAG資料庫;於流程802-804中,利用建置之ROSBAG資料庫產生SLAM建圖,並儲存SLAM建圖為SLAM地圖以及獲得一個初步的建圖軌跡;於流程805中,取得GPS軌跡;於流程806-807中,計算建圖軌跡和GPS軌跡之間的對應,以產生投影矩陣。據此,本發明於定位階段後,利用產生對應建圖軌跡和GPS軌跡之投影矩陣,以供後續對每一個相機姿態和GPS軌跡作投影,以獲得更加精準的軌跡圖。
圖9為本發明之定位系統之相機姿態投影流程圖。如圖所示,於流程901-902中,提供SLAM建圖以及圖8所產生之投影矩陣至定位系統,於流程 903-904中,本發明之定位系統接收SLAM建圖以及投影矩陣進行分析,以輸出相機姿態。
圖10A-10D為本發明之定位效果軌跡圖。如圖所示,於四種不同路線上,透過本發明之定位係統所取得之定位效果及地圖構建之結果,幾近於習知利用光學雷達之LIDAR SLAM和GPS之效果,因而本發明所述技術確實能取代現有應用光學雷達之SLAM,且其精確度也近似GPS軌跡。
綜上所述,本發明係建立一種雷達與攝像機傳感器融合的深度圖像之生成系統,其中,本發明利用雷達和攝像機傳感器(例如單眼相機)之優勢來實現這種融合,透過對單眼相機之深度估計,可僅用單一像素圖像來估計環境每一個像素的密集深度,惟像素圖像僅缺少絕對深度信息,對此,本發明導入雷達以彌補其缺失,雷達擁有價格便宜之優勢,且其可提供有關周圍環境之稀疏的深度訊息,因此,本發明使用雷達提供之稀疏的深度訊息,以與單眼相機之深度估計所產生之估計深度進行融合,藉以創建可提供周圍環境之絕對深度圖像。再者,本發明進一步將深度圖像導入至SLAM系統,SLAM系統僅須利用本發明所生成之深度圖像取得深度信息,而無需在隨後幀的關鍵點內使用三角測量來計算周圍的深度。
本發明可於兩個方面使SLAM系統受益,亦即,於SLAM系統的製圖任務中,本發明可具有有關周圍環境的更準確的深度信息,因此,可創建一個具有比單眼SLAM更好並且與LIDAR SLAM相當的比例的地圖;在定位任務中,它不僅可使用後續幀之間的特徵匹配進行定位,還可使用視覺軌跡進行定位,並減少由於純旋轉而丟失跟踪的機會,此可增加SLAM系統的穩定性,並增加重新定位和成功定位的機會。綜上,本發明利用雷達和如相機等圖像擷取裝置即可生 成具有絕對深度之深度圖,據以達到具有與GPS或LIDAR SLAM相當的比例之地圖之功效,將有助於減少系統建置之成本。
上述實施形態僅例示性說明本發明之原理及其功效,而非用於限制本發明。任何熟習此項技藝之人士均可在不違背本發明之精神及範疇下,對上述實施形態進行修飾與改變。因此,本發明之權利保護範圍,應如後述之申請專利範圍所列。
S101~S104:步驟

Claims (17)

  1. 一種深度圖像之生成方法,係包括:提供包括深度特徵點以及對應該深度特徵點之相對深度的像素圖像;提供包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;計算該量測深度與該相對深度之間的倍率;以及透過該倍率校正該像素圖像,以形成深度圖像,其中,該像素圖像包括複數個該深度特徵點以及複數個該相對深度,該雷達圖像包括複數個該雷達點以及複數個該量測深度,透過複數個該量測深度與複數個該相對深度之間的計算取得複數個倍率,且平均該複數個倍率以產生平均倍率,俾利用該平均倍率校正該像素圖像。
  2. 如請求項1所述之深度圖像之生成方法,復包括透過深度學習網路對該像素圖像進行分析,以自該像素圖像中取得該深度特徵點,俾利用該深度特徵點得到該相對深度。
  3. 如請求項1所述之深度圖像之生成方法,其中,該雷達圖像與該像素圖像係利用投影方式,以使該雷達點與該深度特徵點相對應。
  4. 如請求項1所述之深度圖像之生成方法,復包括透過複數個該像素圖像以及複數個該雷達圖像以獲得複數個幀倍率,且平均該複數個幀倍率以產生校正倍率,俾藉由該校正倍率校正該像素圖像,以形成該深度圖像。
  5. 一種深度圖像之生成系統,其包括:深度預測模組,係用於接收及分析像素圖像,以獲得該像素圖像之深度特徵點以及對應該深度特徵點的相對深度; 雷達擷取模組,係用於擷取包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;以及深度融合模組,係連接該深度預測模組與該雷達擷取模組,用以計算該量測深度與該相對深度之間的倍率,以透過該倍率校正該像素圖像而形成深度圖像,其中,該像素圖像包括複數個該深度特徵點以及複數個該相對深度,該雷達圖像包括複數個該雷達點以及複數個該量測深度,該深度融合模組透過複數個該量測深度與複數個該相對深度之間的計算取得複數個倍率,且平均該複數個倍率以產生平均倍率,俾利用該平均倍率校正該像素圖像。
  6. 如請求項5所述之深度圖像之生成系統,復包括連接該深度預測模組之圖像擷取模組,用以擷取該像素圖像以將該像素圖像提供予該深度預測模組。
  7. 如請求項5所述之深度圖像之生成系統,其中,該深度預測模組係透過深度學習網路對該像素圖像進行分析,以自該像素圖像中取得該深度特徵點,俾利用該深度特徵點得到該相對深度。
  8. 如請求項5所述之深度圖像之生成系統,復包括連接該深度預測模組以及該雷達擷取模組之校正模組,係用於利用投影方式使該雷達點與該深度特徵點相對應,俾將經投影之該像素圖像及該雷達圖像傳送至該深度融合模組。
  9. 如請求項5所述之深度圖像之生成系統,其中,該深度融合模組透過複數個該像素圖像以及複數個該雷達圖像之間的計算取得複數個幀倍率,且平均該複數個幀倍率以產生校正倍率,俾藉由該校正倍率校正該像素圖像,以形成該深度圖像。
  10. 一種定位系統,係包括:深度預測模組,係用於接收及分析像素圖像,以獲得該像素圖像之深度特徵點以及對應該深度特徵點的相對深度;雷達擷取模組,係用於擷取包括對應該深度特徵點之雷達點以及對應該雷達點之量測深度的雷達圖像;深度融合模組,係連接該深度預測模組與該雷達擷取模組,用以計算該量測深度與該相對深度之間的倍率,以透過該倍率校正該像素圖像而形成深度圖像;以及同步定位與地圖建構模組,係用於比對該深度融合模組所形成之該深度圖像以及預存之區域地圖,以依據比對結果而於該區域地圖中進行定位,其中,該同步定位與地圖建構模組復包括:特徵點萃取單元,係用於對該深度圖像進行圖像特徵點萃取;追蹤或重新定位單元,係連接該特徵點萃取單元,用以比對該深度圖像之該圖像特徵點與前一個深度圖像之先前圖像特徵點,以進行特徵點追蹤;以及優化與區域定位單元,係連接該追蹤或重新定位單元,用於分析該追蹤或重新定位單元之追蹤結果,以取得該深度圖像對應的定位位置。
  11. 如請求項10所述之定位系統,復包括圖像擷取模組以及校正模組,其中,該圖像擷取模組用以擷取該像素圖像以將該像素圖像提供予該深度預測模組,而該校正模組接收來自該深度預測模組之該像素圖像以及來自該雷達擷取模組之該雷達圖像,以利用投影方式使該雷達點與該深度特徵點相對應,俾將經投影之該像素圖像及該雷達圖像傳送至該深度融合模組。
  12. 如請求項10所述之定位系統,其中,該同步定位與地圖建構模組復包括用以儲存該區域地圖之區域地圖單元,以於該追蹤或重新定位單元無法對該深度圖像之圖像特徵點與該前一個深度圖像之先前圖像特徵點進行追蹤時,透過該深度影像與該區域地圖進行比對,以進行重新定位。
  13. 如請求項10所述之定位系統,其中,該優化與區域定位單元係於取得該深度圖像對應的該定位位置時,同步更新該區域地圖。
  14. 如請求項10所述之定位系統,其中,該同步定位與地圖建構模組復包括用於在該區域地圖中***關鍵幀之關鍵幀生成單元,以於***該關鍵幀時,比對該關鍵幀與該區域地圖中之其他關鍵幀,俾於比對結果匹配時,利用該圖像特徵點形成三維地圖。
  15. 如請求項14所述之定位系統,其中,該同步定位與地圖建構模組復包括迴環檢測單元,用以計算該關鍵幀與該區域地圖之該其他關鍵幀之間的相似度,以於該相似度超過閾值時,優化該區域地圖。
  16. 如請求項10所述之定位系統,其中,該同步定位與地圖建構模組復包括用以輸出該深度圖像對應的定位位置之相機姿態輸出單元。
  17. 如請求項16所述之定位系統,其中,該相機姿態輸出單元係為視訊圖形陣列(VGA)、數位視訊介面(DVI)、高畫質多媒體介面(HDMI)或顯示埠(Display Port)之輸出埠。
TW110107954A 2021-03-05 2021-03-05 深度圖像之生成方法、系統以及應用該方法之定位系統 TWI760128B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
TW110107954A TWI760128B (zh) 2021-03-05 2021-03-05 深度圖像之生成方法、系統以及應用該方法之定位系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW110107954A TWI760128B (zh) 2021-03-05 2021-03-05 深度圖像之生成方法、系統以及應用該方法之定位系統

Publications (2)

Publication Number Publication Date
TWI760128B true TWI760128B (zh) 2022-04-01
TW202236214A TW202236214A (zh) 2022-09-16

Family

ID=82199080

Family Applications (1)

Application Number Title Priority Date Filing Date
TW110107954A TWI760128B (zh) 2021-03-05 2021-03-05 深度圖像之生成方法、系統以及應用該方法之定位系統

Country Status (1)

Country Link
TW (1) TWI760128B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI820740B (zh) * 2022-04-19 2023-11-01 聯發科技股份有限公司 運動預測的方法及電子設備

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443842A (zh) * 2019-07-24 2019-11-12 大连理工大学 基于视角融合的深度图预测方法
TW202020693A (zh) * 2018-11-28 2020-06-01 台達電子工業股份有限公司 地圖建置設備及其地圖建置方法
CN111563442A (zh) * 2020-04-29 2020-08-21 上海交通大学 基于激光雷达的点云和相机图像数据融合的slam方法及***
CN111861962A (zh) * 2020-07-28 2020-10-30 湖北亿咖通科技有限公司 一种数据融合方法及电子设备
WO2020234906A1 (en) * 2019-05-17 2020-11-26 Alma Mater Studiorum - Universita' Di Bologna Method for determining depth from images and relative system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202020693A (zh) * 2018-11-28 2020-06-01 台達電子工業股份有限公司 地圖建置設備及其地圖建置方法
WO2020234906A1 (en) * 2019-05-17 2020-11-26 Alma Mater Studiorum - Universita' Di Bologna Method for determining depth from images and relative system
CN110443842A (zh) * 2019-07-24 2019-11-12 大连理工大学 基于视角融合的深度图预测方法
CN111563442A (zh) * 2020-04-29 2020-08-21 上海交通大学 基于激光雷达的点云和相机图像数据融合的slam方法及***
CN111861962A (zh) * 2020-07-28 2020-10-30 湖北亿咖通科技有限公司 一种数据融合方法及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI820740B (zh) * 2022-04-19 2023-11-01 聯發科技股份有限公司 運動預測的方法及電子設備

Also Published As

Publication number Publication date
TW202236214A (zh) 2022-09-16

Similar Documents

Publication Publication Date Title
CN112894832B (zh) 三维建模方法、装置、电子设备和存储介质
CN111983639B (zh) 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法
Zhu et al. The multivehicle stereo event camera dataset: An event camera dataset for 3D perception
CN110428467B (zh) 一种相机、imu和激光雷达联合的机器人定位方法
CN111462200A (zh) 一种跨视频行人定位追踪方法、***及设备
CN113362247B (zh) 一种激光融合多目相机的语义实景三维重建方法及***
CN109465832A (zh) 高精度视觉和imu紧融合定位方法与***
CN112461210B (zh) 一种空地协同建筑测绘机器人***及其测绘方法
WO2018019272A1 (zh) 基于平面检测实现增强现实的方法及装置
CN107038714B (zh) 多型视觉传感协同目标跟踪方法
US11195297B2 (en) Method and system for visual localization based on dual dome cameras
US11989827B2 (en) Method, apparatus and system for generating a three-dimensional model of a scene
CN112418288A (zh) 一种基于gms和运动检测的动态视觉slam方法
CN104182968A (zh) 宽基线多阵列光学探测***模糊动目标分割方法
CN116222543A (zh) 用于机器人环境感知的多传感器融合地图构建方法及***
TWI760128B (zh) 深度圖像之生成方法、系統以及應用該方法之定位系統
CN111192299A (zh) 一种基于综合管廊视频监控***的人员轨迹定位方法
CN112432653B (zh) 基于点线特征的单目视觉惯性里程计方法
CN111829522B (zh) 即时定位与地图构建方法、计算机设备以及装置
CN116804553A (zh) 基于事件相机/imu/自然路标的里程计***及方法
CN114972514B (zh) Slam定位方法、装置、电子设备和可读存储介质
Calloway et al. Three tiered visual-inertial tracking and mapping for augmented reality in urban settings
CN116259001A (zh) 一种多视角融合的三维行人姿态估计与追踪方法
CN115965743A (zh) 一种基于vr和倾斜摄影收集数据的三维建模***及方法
Zhao et al. An ORB-SLAM3 autonomous positioning and orientation approach using 360-degree panoramic video