TWI822423B - 運算裝置及模型產生方法 - Google Patents
運算裝置及模型產生方法 Download PDFInfo
- Publication number
- TWI822423B TWI822423B TW111140954A TW111140954A TWI822423B TW I822423 B TWI822423 B TW I822423B TW 111140954 A TW111140954 A TW 111140954A TW 111140954 A TW111140954 A TW 111140954A TW I822423 B TWI822423 B TW I822423B
- Authority
- TW
- Taiwan
- Prior art keywords
- time point
- correlation
- processor
- sensing
- coordinate system
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000005259 measurement Methods 0.000 claims abstract description 21
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 230000000007 visual effect Effects 0.000 claims abstract description 6
- 230000004807 localization Effects 0.000 claims abstract description 4
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000001914 filtration Methods 0.000 claims description 20
- 238000005457 optimization Methods 0.000 claims description 17
- 238000013136 deep learning model Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Monitoring And Testing Of Nuclear Reactors (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Separation Using Semi-Permeable Membranes (AREA)
- Feedback Control In General (AREA)
Abstract
本發明提出一種運算裝置及模型產生方法。在方法中,融合多個感測資料以決定多個感測點的深度資訊,依據影像資料及慣性測量資料透過視覺慣性測程演算法追蹤影像資料中的一個或更多個像素的移動軌跡,並依據深度資訊及移動軌跡透過同步定位與映射演算法將那些感測點映射到坐標系,以產生三維環境模型。依據設置操作在三維環境模型中設置物件,並提供物件的購物資訊。
Description
本發明是有關於一種空間建模技術,且特別是有關於一種運算裝置及模型產生方法。
為了模擬真實環境,可以對真實環境的空間進行掃描以產生看起來像真實環境的模擬環境。模擬環境可實現在諸如遊戲、家居佈置、機器人移動等應用。值得注意的是,掃描空間所得到的感測資料可能有誤差,進而造成模擬環境的失真。
本發明實施例提供一種運算裝置及模型產生方法,可補償誤差,進而提升模擬環境的擬真度。
本發明實施例的模型產生方法包括:融合那些感測資料,以決定多個感測點的深度資訊。這些感測資料包括影像資料及慣性(Inertial)測量資料。依據影像資料及慣性測量資料透過視覺慣性測程(Visual Inertial Odometry,VIO)演算法追蹤影像資料中的一個或更多個像素的移動軌跡。依據深度資訊及移動軌跡透過同步定位與映射(Simultaneous Localization And Mapping,SLAM)演算法將那些感測點映射到坐標系,以產生三維環境模型。三維環境模型中的位置由坐標系所定義。
本發明實施例的運算裝置包括記憶體及處理器。記憶體用以儲存程式碼。處理器耦接記憶體。處理器載入程式碼以執行運算裝置經配置用以融合多個感測資料以決定多個感測點的深度資訊,依據影像資料及慣性測量資料透過視覺慣性測程演算法追蹤影像資料中的一個或更多個像素的移動軌跡,並依據深度資訊及移動軌跡透過同步定位與映射演算法將那些感測點映射到坐標系以產生三維環境模型。感測資料包括影像資料及慣性測量資料。三維環境模型中的位置由坐標系所定義。
基於上述,依據本發明的運算裝置及模型產生方法,利用VIO及SLAM演算法估測環境中的感測點的位置,並據以建立三維環境模型。藉此,可提升位置估測的準確度及三維模型的擬真度。
為讓本發明的上述特徵和優點能更明顯易懂,下文特舉實施例,並配合所附圖式作詳細說明如下。
圖1是依據本發明的一實施例的模型產生系統1的示意圖。請參照圖1,模型產生系統1包括(但不僅限於)行動裝置10及運算裝置30。
行動裝置10可以是手機、平板電腦、掃描器、機器人、穿戴式裝置、自走車或車載系統。行動裝置10包括(但不僅限於)多台感測器11。
感測器11可以是影像擷取裝置、光達(LiDAR)、飛行時間(Time-of-Flight,ToF)偵測器、慣性測量單元(Inertial Measurement Unit,IMU)、加速度計、陀螺儀或電子羅盤。在一實施例中,感測器11用以取得感測資料。感測資料包括影像資料及慣性感測資料。影像資料可以是一張或更多張影像及其像素的感測強度。慣性感測資料可以是姿態、三軸的加速度、角速度或位移。
運算裝置30可以是手機、平板電腦、桌上型電腦、筆記型電腦、伺服器或智能助理裝置。運算裝置30通訊連接行動裝置10。例如,透過Wi-Fi、藍芽、紅外線或其他無線傳輸技術,或透過電路內部線路、乙太網路、光纖網路、通用序列匯流排(Universal Serial Bus,USB)或其他有線傳輸技術傳送或接收資料,並可能有額外的通訊收發器(圖未示)實現。運算裝置30包括(但不僅限於)記憶體31及處理器32。
記憶體31可以是任何型態的固定或可移動隨機存取記憶體(Radom Access Memory,RAM)、唯讀記憶體(Read Only Memory,ROM)、快閃記憶體(flash memory)、傳統硬碟(Hard Disk Drive,HDD)、固態硬碟(Solid-State Drive,SSD)或類似元件。在一實施例中,記憶體31用以儲存程式碼、軟體模組、資料(例如,感測資料、或三維模型)或檔案,其詳細內容待後續實施例詳述。
處理器32耦接及記憶體31。處理器32可以是中央處理單元(Central Processing Unit,CPU),或是其他可程式化之一般用途或特殊用途的微處理器(Microprocessor)、數位信號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application-Specific Integrated Circuit,ASIC)或其他類似元件或上述元件的組合。在一實施例中,處理器32用以執行運算裝置30的所有或部份作業,且可載入並執行記憶體31所儲存的程式碼、軟體模組、檔案及/或資料。在一實施例中,處理器32執行本發明實施例的所有或部分操作。在一些實施例中,記憶體31所記錄的那些軟體模組或程式碼也可能是實體電路所實現。
在一些實施例中,行動裝置10與運算裝置30可整合成獨立裝置。
下文中,將搭配模型產生系統1中的各項裝置及元件說明本發明實施例所述之方法。本方法的各個流程可依照實施情形而隨之調整,且並不僅限於此。
圖2是依據本發明的一實施例的模型產生方法的流程圖。請參照圖2,運算裝置30的處理器32融合多個感測資料,以決定多個感測點的深度資訊(步驟S210)。具體而言,透過感測器11掃描所處環境,可形成多個感測點。感測點的深度資訊可以是感測器11與感測點之間的距離。在一實施例中,處理器32可將影像資料中的影像匹配成多個影像區塊。例如,處理器32可透過影像特徵比對或深度學習模型辨識影像中的物體(例如,牆、天花板、地板或櫃架),並依據物體所在的區域的輪廓分割成影像區塊。接著,處理器32可決定那些影像區塊對應的深度資訊。例如,處理器32可透過深度學習模型擷取特徵並據以預測影像區塊或所屬物體的深度資訊。深度學習模型/演算法可分析訓練樣本以自中獲得規律,從而透過規律對未知資料預測。一般而言,深度資訊通常相關於物件在場景中的大小比例及姿態。而深度學習模型即是經學習後所建構出的機器學習模型,並據以對待評估資料(例如,影像區域)推論。又例如,處理器32可比對影像區域與記憶體31所儲存位於不同位置的物體的特徵資訊。處理器32可基於相似程度高於對應門檻值的位置決定深度資訊。
在另一實施例中,感測器11為深度感測器或距離感測器。處理器32可依據深度感測器或距離感測器的感測資料決定環境中的多個感測點的深度資訊。
處理器32依據影像資料及慣性測量資料透過視覺慣性測程(Visual Inertial Odometry,VIO)演算法追蹤影像資料中的一個或更多個像素的移動軌跡(步驟S220)。具體而言,VIO是使用一個或多個影像擷取裝置及一個或多個IMU進行狀態測量的技術。前述狀態是指感測器11的載體(例如,行動裝置10)在特定自由度下的姿態、速度或其他物理量。由於影像擷取裝置可在一定的曝光時間內捕獲光子以取得到一張二維(2D)的影像,在低速運動時,影像擷取裝置所得到的影像資料記錄相當豐富的環境資訊。然而,同時影像資料容易受到環境的影響,且有尺寸上的模棱兩可的問題。相比之下,IMU是用於感測自身角加速度及加速度。雖然慣性測量資料較為單一且累積誤差很大,但其不受環境的影響。此外,慣性測量資料還具有確切尺度單位的特性,正好彌補影像資料的短缺。透過整合影像資料及慣性測量資料兩者,可得到較為準確的慣性導航。
圖3是依據本發明的一實施例的慣性導航的示意圖。請參照圖3,處理器32可決定影像資料中的物體在時間點T1與時間點T2之間的位置差異。時間點T1早於時間點T2。物體在影像中佔據部分像素。處理器32可辨識物體,判斷物體在影像中的影像位置,並定義為地標(landmark)L。處理器32可比較兩個不同時間點T1、T2在影像擷取裝置112所擷取到相同物體的位置差異。
接著,處理器32可依據時間點T1的初始位置及位置差異決定時間點T1至時間點T2的移動軌跡。初始位置是依據時間點T1的慣性測量資料(透過IMU 111取得)所決定。例如,對IMU 111的慣性積分可得出初始位置。處理器32可進一步將地標L的位置自感測坐標系轉換到世界坐標系WC。而VIO的資料融合方法有很多。例如,鬆耦合(loosely coupled)與緊耦合(tightly coupled)。鬆耦合演算法分別依據影像資料與慣性測量資料進行位姿估測,再對其位姿估測結果進行融合。而緊耦合演算法直接融合影像資料與慣性測量資料,依據融合資料建構運動與觀測方程式,並據以進行狀態估測。
請參照圖2,處理器32依據深度資訊及移動軌跡透過同步定位與映射(Simultaneous Localization And Mapping,SLAM)演算法將那些感測點映射到坐標系,以產生三維(3D)環境模型(步驟S230)。具體而言,SLAM演算法可透過座標轉換將環境中的感測點處於不同時刻不同位置的深度資訊,轉換到同一個坐標系下,從而產生對於環境的完整三維環境模型。而三維環境模型中的位置由這坐標系所定義。
然而,無偏差/誤差且高準確度的環境三維環境模型需要倚賴無偏差的移動軌跡以及深度資訊。然而,由於各種感測器11通常會存在不同程度上的誤差。此外,雜訊通常會存在於真實環境中,因此SLAM演算法要考慮的不只是數學上的唯一解,更包括與那些和結果相關的物理概念的相互作用。值得注意的是,在三維模型構建的下一個反覆運算步驟中,測得的距離和方向/姿態有可預知的系列誤差。這些誤差通常由感測器11的有限準確度、以及來自環境中的其他雜訊所引起,並反映在三維環境模型上的點、或是特徵的誤差。隨著時間的推移和運動的變化,定位和地圖構建的誤差累計增加,進而影響地圖本身的精度。
在一實施例中,處理器32可匹配第一時間點的第一關聯性及第二時間點的第二關聯性。第一時間點早於該第二時間點。第一關聯性是第一時間點的那些感測資料與該三維環境模型中的對應位置之間的關聯性,且第二關聯性是第二時間點的那些感測資料與該三維環境模型中的對應位置之間的關聯性。也就是,在特定時間點的感測資料與所對應的地標。SLAM演算架構是透過一個反覆運算數學問題,來解決各種感測資料的偏差。數學問題例如是基於感測資料(作為狀態)形成運動方程式及觀測方程式。
處理器32可依據第一關聯性及第二關聯性之間的匹配結果修正那些感測點在坐標系上的位置。為了補償這些誤差,處理器32可將當前的三維環境模型與先前的三維環境模型進行匹配。例如,透過可知已走過三維環境模型中重複地點的環路閉合(Loop Closure)演算法。或者,用於SLAM機率學相關的演算法。例如,卡爾曼濾波、粒子濾波(某一種蒙特卡羅方法)以及掃描匹配的資料範圍。透過這些演算法,處理器32可透過比對當前(例如,第二時間點)以及過去(例如,第一時間點)的感測資料,來逐步最佳化過去及現在的軌跡位置以及深度資訊。透過遞迴式的最佳化,可得到對環境中各個點的精準估測。由上述說明可知,本發明實施例的演算法能夠形成一個閉環,也才能夠隨著軌跡的推移,累積出完整且精準的三維環境模型。反之,若未形成閉環,則誤差可能會持續累積並且放大,最終導致前後資料不連貫,進而產出無用的三維環境模型。
在一實施例中,處理器32可依據第一關聯性及第二關聯性透過最佳化演算法最小化那些感測點在坐標系上的位置的誤差,並依據第二關聯性透過濾波演算法估測那些感測點在坐標系上的位置。最佳化演算法是將SLAM的狀態估測轉換成誤差項,並最小化誤差項。例如,牛頓法、高斯-牛頓法或Levenberg-Marquardt方法。濾波演算法例如是卡爾曼濾波、擴展卡爾曼濾波、粒子濾波。最佳化演算法可參酌不同時間點的感測資料,而濾波演算法是對當前感測資料引入雜訊。
與現有技術不同處在於,相較於現有技術僅單一採用最佳化演算法或濾波演算法,本發明實施例結合兩種演算法。而最佳化演算法與濾波演算法的比重相關於運算裝置30的軟硬體資源及預測位置的準確度。例如,若軟硬體資源或準確度要求較低,則濾波演算法的比重高於最佳化演算法。而若軟硬體資源或準確度要求較高,則最佳化演算法的比重高於濾波演算法。
在一實施例中,處理器32可接收設置操作。設置操作可透過諸如觸控面板、滑鼠、鍵盤或其他輸入裝置取得。例如,滑動、按壓或點擊操作。處理器32可依據這設置操作在三維環境模型中設置物件。依據不同應用情境,物件例如是家具、畫框或家電。處理器32可依據設置操作移動物件,並將物件放置於三圍環境模型中的指定位置。接著,處理器32可透過顯示器(圖未示)提供這物件的購物資訊。例如,物件名稱、金額、運送方式、支付選擇等選項。處理器32還可透過通訊收發器(圖未示)連結到店商伺服器,並據以完成購物流程。
在一應用情境中,行動裝置10可快速掃瞄空間並感知空間內的所有尺寸資訊,讓使用者不再需要任何手動丈量,即能直接輕鬆在三維環境模型中佈置家具。本發明實施例還可提供軟體即服務(Software as a Service,SaaS)系統,讓使用者可參考實際空間搭配呈現或調整擺放位置,且運算裝置30所裝載的購物程式可將商品加入購物車以直接購物。除此之外,雲端串連的方式更能夠讓使用者互助遠端搭配空間,進而成為線上最大家居社群。然而,不限於家具布置,本發明實施例的快速建模特性還能導入其他應用。
綜上所述,在本發明的運算裝置及模型產生方法中,對手機或其他可攜式行動裝置的LiDAR、相機、IMU等感測器的資料進行資料融合以取得具有深度資訊,再透過VIO演算法來追蹤相機上不同像素的移動軌跡,利用深度資訊及移動的軌跡再搭配上SLAM演算法框架進行最佳化,以得到對環境中各感測點的準確估測。
雖然本發明已以實施例揭露如上,然其並非用以限定本發明,任何所屬技術領域中具有通常知識者,在不脫離本發明的精神和範圍內,當可作些許的更動與潤飾,故本發明的保護範圍當視後附的申請專利範圍所界定者為準。
1:模型產生系統
10:行動裝置
11:感測器
30:運算裝置
31:記憶體
32:處理器
S210~S230:步驟
T1、T2:時間點
111:IMU
112:影像擷取裝置
L:地標
WC:世界坐標系
圖1是依據本發明的一實施例的模型產生系統的示意圖。
圖2是依據本發明的一實施例的模型產生方法的流程圖。
圖3是依據本發明的一實施例的慣性導航的示意圖。
S210~S230:步驟
Claims (6)
- 一種模型產生方法,適用於一運算裝置,其中該運算裝置包括一處理器,所述方法包括:經由該處理器,融合多個感測資料,以決定多個感測點的一深度資訊,其中該些感測資料包括一影像資料及一慣性(Inertial)測量資料,其中決定該些感測點的該深度資訊的步驟包括:經由該處理器,根據該影像資料,識別匹配至多個物件的多個物件影像區塊;經由該處理器,將該些物件影像區塊輸入至深度學習模型,以輸出該些物件的特徵及深度資訊,進而決定對應該些物件的該些感測點的該深度資訊;經由該處理器,依據該影像資料及該慣性測量資料透過一視覺慣性測程(Visual Inertial Odometry,VIO)演算法追蹤該影像資料中的至少一像素的一移動軌跡;以及經由該處理器,依據該深度資訊及該移動軌跡透過一同步定位與映射(Simultaneous Localization And Mapping,SLAM)演算法將該些感測點映射到一坐標系,以產生一三維環境模型,其中該三維環境模型中的位置由該坐標系所定義,其中將該些感測點映射到該坐標系的步驟包括:經由該處理器,匹配一第一時間點的一第一關聯性及一第二時間點的一第二關聯性,其中該第一時間點早於該第二時間點,該第一關聯性是該第一時間點的該些感測資料與該 三維環境模型中的對應位置之間的關聯性,且該第二關聯性是該第二時間點的該些感測資料與該三維環境模型中的對應位置之間的關聯性;以及經由該處理器,依據該第一關聯性及該第二關聯性之間的匹配結果修正該些感測點在該坐標系上的位置,其中依據該第一關聯性及該第二關聯性之間的匹配結果修正該些感測點在該坐標系上的位置的步驟包括:經由該處理器,依據該第一關聯性及該第二關聯性透過一最佳化演算法最小化該些感測點在該坐標系上的位置的誤差;以及經由該處理器,依據該第二關聯性透過一濾波演算法估測該些感測點在該坐標系上的位置,其中該最佳化演算法與該濾波演算法的比重相關於該運算裝置的資源及預測位置的準確度,其中若該資源或該準確度的要求較低,該濾波演算法的比重高於該最佳化演算法,其中若該資源或該準確度的要求較高,該最佳化演算法的比重高於該濾波演算法。
- 如請求項1所述的模型產生方法,其中融合該些感測資料的步驟包括:經由該處理器,將該影像資料分割成多個影像區塊;經由該處理器,決定該些影像區塊對應的深度資訊,且追蹤該影像資料中的該至少一像素的該移動軌跡的步驟包括: 經由該處理器,決定該影像資料中的一物體在一第三時間點與一第四時間點之間的一位置差異,其中該第三時間點早於該第四時間點;以及經由該處理器,依據該第三時間點的一初始位置及該位置差異決定該第三時間點至該第四時間點的移動軌跡,其中該初始位置是依據該第三時間點的該慣性測量資料所決定。
- 如請求項1所述的模型產生方法,更包括:經由該處理器,接收一設置操作;經由該處理器,依據該設置操作在該三維環境模型中設置一物件;以及經由該處理器,提供該物件的購物資訊。
- 一種運算裝置,包括:一記憶體,用以儲存一程式碼;以及一處理器,耦接該記憶體,經配置用以載入以執行:融合多個感測資料,以決定多個感測點的一深度資訊,其中該些感測資料包括一影像資料及一慣性測量資料,其中決定該些感測點的該深度資訊的步驟包括:根據該影像資料,識別匹配至多個物件的多個物件影像區塊;將該些物件影像區塊輸入至深度學習模型,以輸出該些物件的特徵及深度資訊,進而決定對應該些物件的該些感測點的該深度資訊; 依據該影像資料及該慣性測量資料透過一視覺慣性測程演算法追蹤該影像資料中的至少一像素的一移動軌跡;以及依據該深度資訊及該移動軌跡透過一同步定位與映射將該些感測點映射到一坐標系,以產生一三維環境模型,其中該三維環境模型中的位置由該坐標系所定義,其中將該些感測點映射到該坐標系的步驟包括:匹配一第一時間點的一第一關聯性及一第二時間點的一第二關聯性,其中該第一時間點早於該第二時間點,該第一關聯性是該第一時間點的該些感測資料與該三維環境模型中的對應位置之間的關聯性,且該第二關聯性是該第二時間點的該些感測資料與該三維環境模型中的對應位置之間的關聯性;以及依據該第一關聯性及該第二關聯性之間的匹配結果修正該些感測點在該坐標系上的位置,其中依據該第一關聯性及該第二關聯性之間的匹配結果修正該些感測點在該坐標系上的位置的步驟包括:依據該第一關聯性及該第二關聯性透過一最佳化演算法最小化該些感測點在該坐標系上的位置的誤差;以及依據該第二關聯性透過一濾波演算法估測該些感測點在該坐標系上的位置,其中該最佳化演算法與該濾波演算法的比重相關於該運算裝置的資源及預測位置的準確度,其中若該資源或該準 確度的要求較低,該濾波演算法的比重高於該最佳化演算法,其中若該資源或該準確度的要求較高,該最佳化演算法的比重高於該濾波演算法。
- 如請求項6所述的運算裝置,其中該處理器更用以執行:將該影像資料分割成多個影像區塊;決定該些影像區塊對應的深度資訊;決定該影像資料中的一物體在一第三時間點與一第四時間點之間的一位置差異,其中該第三時間點早於該第四時間點;以及依據該第三時間點的一初始位置及該位置差異決定該第三時間點至該第四時間點的移動軌跡,其中該初始位置是依據該第三時間點的該慣性測量資料所決定。
- 如請求項6所述的運算裝置,其中該處理器更用以執行:接收一設置操作;依據該設置操作在該三維環境模型中設置一物件;以及提供該物件的購物資訊。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/353,852 US20240029350A1 (en) | 2022-07-22 | 2023-07-17 | Computing apparatus and model generation method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202263391333P | 2022-07-22 | 2022-07-22 | |
US63/391,333 | 2022-07-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI822423B true TWI822423B (zh) | 2023-11-11 |
TW202405757A TW202405757A (zh) | 2024-02-01 |
Family
ID=86689530
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111140954A TWI822423B (zh) | 2022-07-22 | 2022-10-27 | 運算裝置及模型產生方法 |
TW111211774U TWM637241U (zh) | 2022-07-22 | 2022-10-27 | 運算裝置及模型產生系統 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW111211774U TWM637241U (zh) | 2022-07-22 | 2022-10-27 | 運算裝置及模型產生系統 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN117437348A (zh) |
TW (2) | TWI822423B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI822423B (zh) * | 2022-07-22 | 2023-11-11 | 杜宇威 | 運算裝置及模型產生方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109556611A (zh) * | 2018-11-30 | 2019-04-02 | 广州高新兴机器人有限公司 | 一种基于图优化和粒子滤波的融合定位方法 |
US20220137223A1 (en) * | 2020-10-30 | 2022-05-05 | Faro Technologies, Inc. | Simultaneous localization and mapping algorithms using three-dimensional registration |
CN114608554A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种手持slam设备以及机器人即时定位与建图方法 |
TWI768776B (zh) * | 2021-03-19 | 2022-06-21 | 國立臺灣大學 | 室內定位系統及室內定位方法 |
TWM637241U (zh) * | 2022-07-22 | 2023-02-01 | 杜宇威 | 運算裝置及模型產生系統 |
-
2022
- 2022-10-27 TW TW111140954A patent/TWI822423B/zh active
- 2022-10-27 TW TW111211774U patent/TWM637241U/zh unknown
-
2023
- 2023-07-19 CN CN202310888124.7A patent/CN117437348A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109556611A (zh) * | 2018-11-30 | 2019-04-02 | 广州高新兴机器人有限公司 | 一种基于图优化和粒子滤波的融合定位方法 |
US20220137223A1 (en) * | 2020-10-30 | 2022-05-05 | Faro Technologies, Inc. | Simultaneous localization and mapping algorithms using three-dimensional registration |
TWI768776B (zh) * | 2021-03-19 | 2022-06-21 | 國立臺灣大學 | 室內定位系統及室內定位方法 |
CN114608554A (zh) * | 2022-02-22 | 2022-06-10 | 北京理工大学 | 一种手持slam设备以及机器人即时定位与建图方法 |
TWM637241U (zh) * | 2022-07-22 | 2023-02-01 | 杜宇威 | 運算裝置及模型產生系統 |
Also Published As
Publication number | Publication date |
---|---|
TWM637241U (zh) | 2023-02-01 |
CN117437348A (zh) | 2024-01-23 |
TW202405757A (zh) | 2024-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11704833B2 (en) | Monocular vision tracking method, apparatus and non-transitory computer-readable storage medium | |
US20210190497A1 (en) | Simultaneous location and mapping (slam) using dual event cameras | |
CN111156998B (zh) | 一种基于rgb-d相机与imu信息融合的移动机器人定位方法 | |
US20200226782A1 (en) | Positioning method, positioning apparatus, positioning system, storage medium, and method for constructing offline map database | |
Panahandeh et al. | Vision-aided inertial navigation based on ground plane feature detection | |
CN102622762B (zh) | 使用深度图的实时相机跟踪 | |
US8976172B2 (en) | Three-dimensional scanning using existing sensors on portable electronic devices | |
CN105143907B (zh) | 定位***和方法 | |
US11132810B2 (en) | Three-dimensional measurement apparatus | |
Sola et al. | Fusing monocular information in multicamera SLAM | |
US10157478B2 (en) | Enabling use of three-dimensional locations of features with two-dimensional images | |
TW202208879A (zh) | 位姿確定方法、電子設備及電腦可讀儲存介質 | |
US20210183100A1 (en) | Data processing method and apparatus | |
EP3090410A1 (en) | Methods and systems for generating a map including sparse and dense mapping information | |
CN104848861A (zh) | 一种基于图像消失点识别技术的移动设备姿态测量方法 | |
Liu et al. | Enabling context-aware indoor augmented reality via smartphone sensing and vision tracking | |
WO2022247548A1 (zh) | 定位方法和装置、电子设备及存储介质 | |
TWI822423B (zh) | 運算裝置及模型產生方法 | |
TW202238449A (zh) | 室內定位系統及室內定位方法 | |
US20240029350A1 (en) | Computing apparatus and model generation method | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
US20240069203A1 (en) | Global optimization methods for mobile coordinate scanners | |
JP2023503750A (ja) | ロボットの位置決め方法及び装置、機器、記憶媒体 | |
Irmisch et al. | Simulation framework for a visual-inertial navigation system | |
CN105741260A (zh) | 行动定位装置及其定位方法 |