TWI657011B - 無人機、無人機控制系統及控制方法 - Google Patents
無人機、無人機控制系統及控制方法 Download PDFInfo
- Publication number
- TWI657011B TWI657011B TW106141808A TW106141808A TWI657011B TW I657011 B TWI657011 B TW I657011B TW 106141808 A TW106141808 A TW 106141808A TW 106141808 A TW106141808 A TW 106141808A TW I657011 B TWI657011 B TW I657011B
- Authority
- TW
- Taiwan
- Prior art keywords
- image
- feature point
- point set
- drone
- computing device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000006073 displacement reaction Methods 0.000 claims abstract description 92
- 239000013598 vector Substances 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000000513 principal component analysis Methods 0.000 claims description 8
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 7
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000003064 k means clustering Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000001514 detection method Methods 0.000 description 5
- 238000012937 correction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007664 blowing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/10—Propulsion
- B64U50/13—Propulsion using external fans or propellers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/10—Propulsion
- B64U50/19—Propulsion using electrically powered motors
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Astronomy & Astrophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Studio Devices (AREA)
Abstract
一種無人機控制方法,適用於具有攝影機之無人機。所述的控制方法包括:攝影機取得第一影像,攝影機在取得第一影像之後取得第二影像,運算裝置根據第一影像及第二影像分別計算出複數個特徵點,運算裝置選取第一特徵點集合及第二特徵點集合,運算裝置根據第一特徵點集合及第二特徵點集合計算出第一軸向位移及第二軸向位移,運算裝置根據第一特徵點集合及第二特徵點集合計算出第一感興趣區域面積及第二感興趣區域面積並計算出第三軸向位移,控制裝置根據第一軸向位移、第二軸向位移及第三軸向位移調整攝影機之姿態或無人機之飛行路徑。
Description
本發明係關於一種無人機控制方法,特別是一種透過酬載攝影機拍攝的影像修正攝影機姿態(Pose)或無人機飛行路徑的控制方法。
橋梁是交通網絡的咽喉。為了在橋梁的服務年限內確保行車安全及交通順暢,定期橋梁檢測成為養護工作的重要環節。橋梁檢測一般以目檢為主,然而若是橋梁周圍的地形險峻使得觀察不易,則須透過橋梁檢測車、高空作業車或小型船艇等輔助趨近橋梁四周。從工安角度而言,檢測人員乘坐上述特殊車械時暴露在危險環境中。另一方面,檢測車械通常體積龐大,操作起來不僅費時,動用成本也較昂貴。
無人機作為新一代的科技產物,近年來被廣泛應用於航空拍攝、工程監察、農林作業、環境觀測及災難搜救等多種領域。然而以橋梁檢測而言,現今透過無人機進行橋梁檢測大多採取人工介入方式,配置至少一名專業飛手輔助操作。由於橋梁必須因應地貌採取非直線或是非等高的結構,使得單純以全球定位系統(Global Positioning System,GPS)設置起迄坐標的固定排程方式無法通用於具有特殊結構設計的橋梁。另外,更必須考慮GPS或氣壓計等儀器的估測誤差,以及無人機拍攝時被風吹離航線的不確定因素,上述皆增加了自動導航的設計難度。另外,若採用同步定位與地圖建構(Simultaneous localization and mapping,SLAM)的視覺導航方法,則必須預先建立目標橋梁的地圖場景,輔以複雜計算方可得到較精確的攝影機位置與目標對應關係。而若是採用實時動態技術(Real Time Kinematic,RTK),雖可達到公分等級的精準度,但卻又必須額外增設地面信號基準站、流動站及無線電通訊系統。因此, 應用SLAM和RTK於橋梁檢測亦不符合經濟效益。
有鑒於此,本發明提出一個無人機控制方法。透過攝影機連續拍攝目標影像,根據影像計算無人機在這段連續時間內的位移向量,並即時將校正資訊反饋,進行飛行路徑修正或雲台控制調整等工作,然後執行下一次的自動拍攝。而且航拍期間不需額外使用昂貴的特殊車械或檢測器材,因此節省工程檢測的設備開銷。從實務角度觀之,本發明提供一個以無人機自動檢測的解決方案,有效提升工程檢測效率,並保障檢測人員安全。本發明除了應用於橋梁檢測,於建築物外觀檢測或是太陽能板檢測等類似任務上同樣具有高度實用性。
依據本發明之一實施例所敘述的無人機控制方法,適用於具有攝影機以拍攝目標之無人機。所述的控制方法包括:於第一時間取得第一影像;攝影機於第一時間之後的第二時間取得第二影像;運算裝置根據第一影像及第二影像分別計算出複數個特徵點;運算裝置選取第一特徵點集合及第二特徵點集合,其中第一特徵點集合包括第一影像的複數個特徵點之中的至少三個特徵點,第二特徵點集合包括第二影像的複數個特徵點之中的至少三個特徵點;運算裝置根據第一特徵點集合及第二特徵點集合計算出第一軸向位移及第二軸向位移;運算裝置根據第一特徵點集合及第二特徵點集合分別計算出第一感興趣區域面積及第二感興趣區域面積,且運算裝置更根據第一感興趣區域面積及第二感興趣區域面積計算出第三軸向位移;以及控制裝置根據第一軸向位移、第二軸向位移及第三軸向位移調整攝影機之姿態(Pose)或無人機之飛行路徑。
依據本發明一實施例所敘述的無人機控制系統,包括:攝影機、運算裝置及控制裝置。攝影機用以取得無人機飛行過程中之第一影像及第二影像,其中第一影像在第一時間拍攝,第二影像在第二時間拍攝,且第一時間早於第二時間。運算裝置電性連接攝影機,運算裝置根據第一影像及第二影像計算無人機從第一時間到第二時間的位移向量。控制裝置電性連接運算裝置,控制裝置用於根據位移向量選擇性地調整雲台以改變攝影機之拍攝姿態,或調整無人機之飛行路徑。
依據本發明一實施例所敘述的無人機,包括:飛行系統、控制系統、雲台以及機架。其中飛行系統包括槳翼、馬達以及馬達驅動裝置。槳翼可旋轉以提供無人機上升浮力。馬達透過主軸連接槳翼,馬達用於提供槳翼旋轉動力。馬達驅動裝置電性連接馬達並根據一飛行控制命令致動馬達。其中控制系統包括攝影機、運算裝置及控制裝置。攝影機先後取得第一影像及一第二影像,即第一影像於第一時間拍攝,第二影像於第二時間拍攝,且第一時間早於第二時間。運算裝置電性連接攝影機,運算裝置根據第一影像及第二影像計算無人機從第一時間到第二時間的一位移向量。控制裝置電性連接運算裝置及雲台,控制裝置根據位移向量選擇性地發送一雲台調整命令或發送一飛行控制命令。雲台電性連接攝影機,雲台具有伺服馬達,雲台接收雲台調整命令以驅動伺服馬達調整攝影機的拍攝姿態。機架用於承載飛行系統、控制系統及雲台。
藉由上述架構,本案所揭露的無人機控制方法、無人機控制系統以及具有此控制系統的無人機,透過酬載攝影機針對目標拍攝的連續影像,以運算裝置計算出影像特徵點,並進一步根據這些特徵點換算出無人機在兩次拍攝影像之間的三軸位移向量,再反饋至無人機的雲台或飛行控制系統以便調整攝影機姿態或無人機飛行路徑以達到更佳的拍攝效果。此外,採用本發明所揭露的無人機及無人機控制系統,不需額外增設感測器或通訊套件即可透過本發明所揭露的無人機控制方法進行自動航拍,因此可節省傳統以人員遙控方式控制無人機執行檢測時的人力成本。
以上之關於本揭露內容之說明及以下之實施方式之說明係用以示範與解釋本發明之精神與原理,並且提供本發明之專利申請範圍更進一步之解釋。
以下在實施方式中詳細敘述本發明之詳細特徵以及優點,其內容足以使任何熟習相關技藝者了解本發明之技術內容並據以實施,且根據本說明書所揭露之內容、申請專利範圍及圖式,任何熟習相關技藝者可輕易地理解本發明相關之目的及優點。以下之實施例係進一步詳細說明本發明之觀點,但非以任何觀點限制本發明之範疇。
請一併參考圖1及圖2。圖1係繪示本發明一實施例中的無人機控制系統11。圖2係以圖1所示的無人機控制系統11運作無人機控制方法的流程圖。如圖1所示,無人機控制系統11包括攝影機22、運算裝置24以及控制裝置26。運算裝置24電性連接攝影機22,控制裝置26電性連接運算裝置24。
請參考圖2的步驟S12及S14。在步驟S12中,於第一時間取得第一影像;在步驟S14中,以攝影機22於第二時間取得第二影像,其中第一時間早於第二時間。例如,攝影機22在第一時間拍攝第一影像,並在第二時間拍攝第二影像。在本發明一實施例中,控制裝置26可包括一計時器用於累計第一時間及第二時間之間隔時間。詳言之,當攝影機22於第一時間拍攝第一影像時,控制裝置26致動計時器開始累計間隔時間,當累計的間隔時間達到一預設值後,控制裝置26致動攝影機22在第二時間拍攝第二影像。於另一實施例中,控制裝置26可更結合用以感測飛行速度的加速度計或用以感測飛行高度的氣壓計等感測器的感測數值,以決定第二時間與第一時間之間的拍攝間隔。另外,實務上,攝影機22可針對目標(例如:橋梁)先後拍攝兩張靜態照片,並以此作為第一影像和第二影像;然而,攝影機22亦可針對目標拍攝一段影片,而控制裝置26在指定的第一時間和第二時間中擷取影片中的兩幀畫面作為第一影像及第二影像。或者,更可在無人機飛行前,先由其他攝影機預先拍攝目標的一影像,並輸入至無人機控制系統11作為第一影像。換言之,本發明對於取得第一影像及第二影像的方式不予限制。
請參考圖2的步驟S16。在步驟S16中,運算裝置24根據第一影像及第二影像計算總差異量。具體而言,運算裝置24接收第一影像和第二影像後,計算兩張影像之間的差異程度。由於在本發明所揭露的無人機控制方法係透過在一段時間中取得的兩張影像計算得出一位移向量,故在計算位移向量前,必須先確認攝影機22拍攝的第二影像相較於第一影像具有足夠的差異程度。詳言之,運算裝置24將第一影像及第二影像各自分成n×n的區塊,其中n為大於1的正整數。透過下列公式1,運算裝置24計算第一影像中與第二影像中相對應的二區塊之間的差異量。
(公式1)
其中B
diff為差異量,M
i,k及V
i,k分別表示第k影像之第i個區塊的平均值及變異數,M
i,p及V
i,p分別表示第p影像之第i個區塊的平均值及變異數,上述第k影像及第p影像於本實施例中等同於第一影像及第二影像。若B
diff小於設定的閾值T
b,則區塊i視為無明顯差異。運算裝置24依照公式1重複計算出每個區塊的差異量,再加總得出整張畫面的總差異量。請參考圖2的步驟S18,在步驟S18中,運算裝置24判斷總差異量是否小於一閾值T
f。若總差異量大於或等於預設的一閾值T
f,代表第二影像相較於第一影像具有足夠的差異量,則繼續執行步驟S32。反之,若總差異量小於預設的一閾值T
f,代表第二影像相較於第一影像無明顯差異。因此,運算裝置24捨棄差異量過小的第二影像並返回步驟S14,以供運算裝置24取得另一影像作為第二影像(例如通知控制裝置26致動攝影機22再拍攝另一影像作為第二影像),隨後運算裝置24再根據步驟S16重新計算影像總差異量。然而,此步驟S16係供提高本實施例的判斷準確度,並非完成本發明之控制方法必然須執行之程序。
請參考圖2的步驟S32。在取得第一影像及第二影像(較佳係執行步驟S16以確認第二影像相較第一影像具有足夠的差異量)之後,在步驟S32中,運算裝置24中的位移運算模組根據第一影像及第二影像分別計算出複數個特徵點。此步驟S32之目的在於找出影像中較固定或是較強烈的焦點,或是梯度有明顯變化的部分。在不同影像上進行特徵匹配時,常會遇到尺度變化的問題,也就是要分析的目標可能在不同影像具有不同大小,使得尺度上的差異導致相同目標的特徵在實際進行匹配時並未被成功匹配。因此,在本發明一實施例中,採用尺度不變特徵轉換(Scale-Invariant Feature Transform,SIFT)演算法。SIFT演算法從影像中提取具有旋轉不變性和伸縮不變性的特徵點以及特徵點對應的描述子(Descriptor),藉此描述影像的局部性特徵。於其他實施例中,可採用加速穩健特徵(Speeded Up Robust Feature,SURF)演算法或梯度定位方向直方圖(Gradient location-orientation histogram,GLOH)演算法計算影像的特徵點。請參考圖3,其係一橋梁影像,運算裝置24中的位移運算模組所計算出的特徵點標示如圖3黑圈之圓心處,其中黑圈內的線條方向代表此特徵點描述子的所有特徵向量中最大值的方向(由圓心指向圓周)。
請再參考圖2的步驟S34,在步驟S34中,運算裝置24中的位移運算模組選取第一特徵點集合及第二特徵點集合,其中第一特徵點集合包括第一影像的多個特徵點之中的至少三個特徵點;第二特徵點集合係包括第二影像的多個特徵點之中的至少三個特徵點。必須說明的是:運算裝置24中的位移運算模組選取第一特徵點集合及第二特徵點集合相當於選取第一影像的感興趣區域(Region of Interest,ROI)及第二影像的感興趣區域(ROI)。感興趣區域(ROI)係指從影像中以方框、圓、橢圓或不規則多邊形等形狀圈選出的重點區域,設置感興趣區域(ROI)可以減少後續處理時間並增加運算精確度。請參考圖4,圖4係根據圖3設定感興趣區域(ROI)範圍的示意圖,由圖4可看出感興趣區域(ROI)係橋梁主體。當感興趣區域(ROI)設定後,無人機的控制裝置26便能根據感興趣區域(ROI)鎖定目標並控制攝影機22針對目標進行後續拍攝工作。
在一實施例中,在取得第一影像及第二影像之前,運算裝置24可預先儲存一已選取感興趣區域(ROI)的影像作為參考影像,並且在步驟S34時,根據此參考影像中的特徵點資料選取特徵點集合。
在一實施例中,在步驟S32得出多個特徵點之後,運算裝置24可利用主成分分析(Principal Component Analysis,PCA)之演算法,得到具代表性的特徵點,選取第一特徵點集合及第二特徵點集合,並且可進一步降低特徵點描述子維度。主成分分析(PCA)透過分析共變異數矩陣 (covariance matrix) 的特徵性質以得出數據的主成分(即特徵向量)與它們的權值(即特徵值),透過保留對應大特徵值的低階主成分,捨棄對應小特徵值的高階主成分,達到減少描述子的特徵向量維度,同時保留描述子的最大變異數。承上所述,運算裝置24將較高維度的特徵向量透過矩陣運算,得出一組按變異數之貢獻從大到小排列的新特徵向量,這組新特徵向量是原始特徵向量的線性組合,且新特徵向量彼此正交而不具相關性。然而必須注意的是:執行主成分分析(PCA)並非必要步驟,可視運算裝置24之運算能力以及第一影像及第二影像之特徵點數量而決定是否執行主成分分析(PCA)。此外,也可以使用其它方式選取出具代表性的特徵點,例如由使用者主動自第一影像及/或第二影像中選取出特徵點。
請參考圖2的步驟S52及步驟S54。在步驟S52中,運算裝置24針對特徵點進行匹配與分類。詳言之,在一實施例中,運算裝置24針對第一影像及第二影像各自的感興趣區域(ROI)的多個特徵點的描述子內容尋找相似特徵,所述尋找方式例如隨機抽樣一致算法(RANdom SAmple Consensus,RANSAC)或以核線(Epipoloar Line)配合基本矩陣(Fundamental Matrix)運算的方式以得到多組匹配特徵點。然後採用K-均值聚類法(K-means clustering)將多組匹配特徵點分類為K個聚類。在步驟S54中,運算裝置24根據已分類的多組匹配特徵點計算主要移動方向。詳言之,根據步驟S52得出的K個聚類,運算裝置24中的位移運算模組(未繪示)對每個聚類各自執行主成分分析以計算出每個聚類中的主成分方向,此主成分方向包括第一軸向位移和第二軸向位移,其中第一軸向例如係X軸,第二軸向例如係Y軸。運算裝置24中的位移運算模組進一步將每個聚類的第一軸向位移及第二軸向位移各自加總及計算平均值,藉此運算裝置24可由多組第一軸向位移及第二軸向位移中計算出一組主要移動方向。簡言之,根據步驟S52至步驟S54,運算裝置24計算出攝影機22在取得兩個影像中間所作的主要移動方向。
請參考圖2的步驟S56。在步驟S56中,運算裝置24中的深度運算模組(未繪示)計算感興趣區域(ROI)面積比例,其中運算裝置24中的深度運算模組耦接位移運算模組。詳言之,為了進一步確認攝影機22在拍攝第一影像與第二影像之間相對於拍攝目標的遠近關係,在一實施例中,首先運算裝置24的深度運算模組將第一影像感興趣區域(ROI)中的多個特徵點及第二影像之感興趣區域(ROI)中的多個特徵點分別對應至平面上的n邊形,然後取得代表n邊形頂點的n個特徵點的座標值,代入公式2以分別計算出第一感興趣區域面積及第二感興趣區域面積(第一/二感興趣區域面積在此代稱第一/二影像中的感興趣區域的面積)。
(公式2)
其中a為面積,(x
0, y
0),(x
1, y
1),…,(x
n-1, y
n-1)為代表n邊形頂點的n個特徵點的座標值。
請參考圖2的步驟S58。在步驟S58中,運算裝置24計算第三軸向位移。詳言之,運算裝置24中的深度運算模組在分別計算出第一感興趣區域面積及第二感興趣區域面積之後,運算裝置24中的深度運算模組進一步依據攝影機焦距以及兩個面積的比例關係,計算得出第三軸向(Z軸)位移。在另一實施例中,基於簡化計算量的考量,在運算裝置24中的深度運算模組取得第一特徵點集合及第二特徵點集合中的特徵點座標後,僅計算其中兩個特徵點的距離的平方值(或其中三個不共線的特徵點所組成的三角形面積)作為面積參考值,再計算出面積比例關係,並換算得出第三軸向(Z軸)位移。
請參考圖2的步驟S72,在步驟S72中,控制裝置26根據第一軸向位移、第二軸向位移及第三軸向位移等資訊調整攝影機22之姿態或無人機的飛行路徑。詳言之,在本發明一實施例中,無人機控制系統11中的控制裝置26更包括一定位裝置。所述定位裝置例如係GPS感測器,可用以定位無人機當前的世界座標。在無人機進行航拍之前(即在步驟S12取得第一影像之前),設置無人機本次飛行路徑途中從起點到終點以及中途參考定位點的GPS坐標。根據GPS座標(可視為絕對位置資訊),結合運算裝置24計算出的位移向量(可視為相對位置資訊),控制裝置26根據世界坐標及位移向量調整無人機之飛行路徑,即控制裝置26選擇性地發送訊號調整攝影機22的拍攝角度,以達到更清楚地拍攝目標的效果;或是控制裝置26選擇性發送訊號修正飛行路徑,以避免無人機偏離原本路線,或是根據實際拍攝目標的物理結構,動態的調整無人機本身相對於目標的距離,以避免過於靠近而擦撞至目標,或是過於遠離目標以至於拍攝到與目標無關的景物。
請一併參考圖5及圖6。圖5係繪製本發明一實施例的無人機1功能方塊圖。圖6係依據本發明一實施例所繪示的無人機結構示意圖。本發明一實施例的無人機1包括飛行系統10、控制系統11、雲台12以及機架13。其中飛行系統10包括槳翼、馬達(未繪示)以及馬達驅動裝置(未繪示)。槳翼可旋轉以提供無人機上升浮力。馬達透過主軸連接槳翼以提供旋轉動力。馬達驅動裝置電性連接馬達並根據飛行控制命令致動馬達。無人機1的控制系統11及其控制方法如前文所介紹,此處不贅述。雲台12電性連接控制系統11中的攝影機22。雲台12具有伺服馬達並根據雲台調整命令驅動伺服馬達調整攝影機22的拍攝姿態。機架13用於承載飛行系統10、控制系統11及雲台12,機架13的設計直接地反映無人機1的外觀特徵。
在本範例實施例中,運算裝置24用以控制無人機1的整體運作。運算裝置24例如是中央處理單元(Central Processing Unit,CPU)、可程式化之微處理器(Microprocessor)、數位訊號處理器(Digital Signal Processor,DSP)、可程式化控制器、特殊應用積體電路(Application Specific Integrated Circuits,ASIC)、可程式化邏輯裝置(Programmable Logic Device,PLD)或其他類似裝置,本揭露並不加以限制。運算裝置24會從儲存裝置中載入位移運算模組以及深度運算模組的程式碼,執行位移運算模組之計算第一影像及第二影像的複數個特徵點,以得出第一軸向位移和第二軸向位移;執行深度運算模組之分別計算出第一感興趣區域面積及第二感興趣區域面積後,得出第三軸向位移。
必須特別說明的是,在本發明所述的無人機1的一實施例中,關於控制系統11的輸出部分。請一併參考圖2的步驟S72及圖5。運算裝置24計算出的第一軸向位移、第二軸向位移及第三軸向位移可組成一位移向量,此位移向量代表攝影機22在兩次拍攝中的空間位移。運算裝置24進一步地根據攝影機校正程序(camera calibration)與攝影機模型的外部參數(extrinsic parameter),建立世界座標(world coordinate)和攝影機座標之間的座標系統轉換關係,並推算出無人機1本身在世界座標系中的位移。實務上,運算裝置24將此位移向量作為飛行路徑的修正參數,並結合從GPS裝置得到的絕對座標,由控制裝置26發送一飛行控制命令以便即時調整無人機1的飛行路徑。在另一實施例中,控制裝置26可根據此位移向量發送一雲台調整命令,雲台12根據此雲台調整命令致動三軸向的伺服馬達,改變攝影機22的拍攝姿態(Pose),修正下一次的拍攝角度以更精確地拍攝目標。
綜合以上所述,本發明之無人機控制方法,藉由攝影機即時取得目標的影像,透過計算影像中感興趣區域的特徵點的對應關係,推估無人機於世界坐標系中的拍攝平面位移;並透過特徵點群集的面積變化,推估無人機與目標的距離變化,無人機控制系統輸出的位移向量可用於即時反饋雲台以調整拍攝姿態或是輸入至飛行系統以調整飛行路徑,藉此取得較為穩定的航拍畫面。
雖然本發明以前述之實施例揭露如上,然其並非用以限定本發明。在不脫離本發明之精神和範圍內,所為之更動與潤飾,均屬本發明之專利保護範圍。關於本發明所界定之保護範圍請參考所附之申請專利範圍。
S12-S72‧‧‧步驟
1‧‧‧無人機
10‧‧‧飛行系統
11‧‧‧控制系統
12‧‧‧雲台
13‧‧‧機架
22‧‧‧攝影機
24‧‧‧運算裝置
26‧‧‧控制裝置
ROI‧‧‧感興趣區域
圖1係依據本發明一實施例所繪示的無人機控制系統的功能方塊圖。 圖2係依據本發明一實施例所繪示的無人機控制方法的流程圖。 圖3係依據本發明一實施例所繪示的影像特徵點標示圖。 圖4係依據本發明一實施例所繪示的感興趣區域選取示意圖。 圖5係依據本發明一實施例所繪示的無人機功能方塊示意圖。 圖6係依據本發明一實施例所繪示的無人機結構示意圖。
Claims (10)
- 一種無人機控制方法,適用於具有一攝影機以拍攝一目標之一無人機,所述的控制方法包括:於一第一時間取得一第一影像;以該攝影機於該第一時間之後的一第二時間取得一第二影像;以一運算裝置根據該第一影像及該第二影像分別計算出複數個特徵點;以該運算裝置選取一第一特徵點集合及一第二特徵點集合,該第一特徵點集合包括該第一影像的該些特徵點之中的至少三個特徵點,該第二特徵點集合包括該第二影像的該些特徵點之中的至少三個特徵點;以該運算裝置根據該第一特徵點集合及該第二特徵點集合計算出一第一軸向位移及一第二軸向位移;以該運算裝置根據該第一特徵點集合及該第二特徵點集合分別計算出一第一感興趣區域面積及一第二感興趣區域面積,且該運算裝置更根據該第一感興趣區域面積及該第二感興趣區域面積計算出一第三軸向位移;以及以一控制裝置根據該第一軸向位移、該第二軸向位移及該第三軸向位移調整該攝影機之姿態或該無人機之飛行路徑。
- 如請求項1所述之無人機控制方法,其中在該運算裝置計算出該些特徵點之前,更包括該運算裝置根據該第一影像及該第二影像計算一總差異量,當該總差異量小於一閾值時,以該攝影機重新取得該第二影像。
- 如請求項1所述之無人機控制方法,其中該運算裝置以尺度不變特徵轉換演算法取得該些特徵點。
- 如請求項1所述之無人機控制方法,其中該運算裝置使用主成分分析選取該第一特徵點集合及該第二特徵點集合。
- 如請求項1所述之無人機控制方法,其中在計算出該第一軸向位移及該第二軸向位移之前,該運算裝置使用K-均值聚類法將該些特徵點分類以計算該第一軸向位移及該第二軸向位移。
- 如請求項1所述之無人機控制方法,其中在該攝影機取得該第一影像之前,更包括以該控制裝置設置該無人機之飛行路徑。
- 一種無人機控制系統,包括:一攝影機,用以取得一無人機飛行過程中之一第一影像及一第二影像,其中該第一影像在一第一時間拍攝,該第二影像在一第二時間拍攝,且該第一時間早於該第二時間;一運算裝置,電性連接該攝影機,該運算裝置用以根據該第一影像及該第二影像計算該無人機從該第一時間到該第二時間的一位移向量;以及一控制裝置,電性連接該運算裝置,該控制裝置用於根據該位移向量選擇性地調整雲台以改變該攝影機之拍攝姿態或調整該無人機之飛行路徑;其中,該位移向量包括一第一軸向位移、一第二軸向位移及一第三軸向位移,該運算裝置更包括:一位移運算模組,用於根據一第一影像及一第二影像分別計算出複數個特徵點,並用於選取一第一特徵點集合及一第二特徵點集合,其中該第一特徵點集合包括該第一影像的該些特徵點之中的至少三個特徵點,該第二特徵點集合包括該第二影像的該些特徵點之中的至少三個特徵點,該位移運算模組根據該第一特徵點集合及該第二特徵點集合計算出該第一軸向位移及該第二軸向位移;以及一深度運算模組,耦接該位移運算模組,該深度運算模組用於根據該第一特徵點集合及該第二特徵點集合分別計算出一第一感興趣區域面積及一第二感興趣區域面積,並用於根據該第一感興趣區域面積及該第二感興趣區域面積計算出該第三軸向位移。
- 如請求項7所述之無人機控制系統,其中該控制裝置更包括一計時器用於累計該第一時間及該第二時間之間隔時間。
- 如請求項7所述之無人機控制系統,其中該控制裝置更包括一定位裝置用於取得該無人機之一世界坐標,且該控制裝置根據世界坐標及該位移向量調整該無人機之飛行路徑。
- 一種無人機,包括:一飛行系統,包括:一槳翼,可旋轉以提供該無人機上升浮力;一馬達,以一主軸連接該槳翼,該馬達用於提供該槳翼旋轉之動力;以及一馬達驅動裝置,電性連接至該馬達且根據一飛行控制命令致動該馬達;一控制系統,包括:一攝影機,用以取得該無人機飛行過程中之一第一影像及一第二影像,其中該第一影像在一第一時間取得,該第二影像在一第二時間取得,且該第一時間早於該第二時間;一運算裝置,電性連接該攝影機,該運算裝置用以根據該第一影像及該第二影像計算該無人機從該第一時間到該第二時間的一位移向量;以及一控制裝置,電性連接該運算裝置,該控制裝置用於根據該位移向量選擇性地發送一雲台調整命令以調整該攝影機之拍攝姿態或發送該飛行控制命令以調整該無人機之飛行路徑;其中,該位移向量包括一第一軸向位移、一第二軸向位移及一第三軸向位移,該運算裝置更包括:一位移運算模組,用於根據一第一影像及一第二影像分別計算出複數個特徵點,並用於選取一第一特徵點集合及一第二特徵點集合,其中該第一特徵點集合包括該第一影像的該些特徵點之中的至少三個特徵點,該第二特徵點集合包括該第二影像的該些特徵點之中的至少三個特徵點,該位移運算模組根據該第一特徵點集合及該第二特徵點集合計算出該第一軸向位移及該第二軸向位移;以及一深度運算模組,耦接該位移運算模組,該深度運算模組用於根據該第一特徵點集合及該第二特徵點集合分別計算出一第一感興趣區域面積及一第二感興趣區域面積,並用於根據該第一感興趣區域面積及該第二感興趣區域面積計算出該第三軸向位移;一雲台,電性連接該攝影機及該控制裝置,該雲台具有一伺服馬達,該雲台用於接收該雲台調整命令以驅動該伺服馬達調整該攝影機之拍攝姿態;以及一機架,用於承載該飛行系統、該控制系統及該雲台。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106141808A TWI657011B (zh) | 2017-11-30 | 2017-11-30 | 無人機、無人機控制系統及控制方法 |
CN201711337673.6A CN109857144B (zh) | 2017-11-30 | 2017-12-14 | 无人机、无人机控制***及控制方法 |
US15/921,625 US10703479B2 (en) | 2017-11-30 | 2018-03-14 | Unmanned aerial vehicle, control systems for unmanned aerial vehicle and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106141808A TWI657011B (zh) | 2017-11-30 | 2017-11-30 | 無人機、無人機控制系統及控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI657011B true TWI657011B (zh) | 2019-04-21 |
TW201925033A TW201925033A (zh) | 2019-07-01 |
Family
ID=66634243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106141808A TWI657011B (zh) | 2017-11-30 | 2017-11-30 | 無人機、無人機控制系統及控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10703479B2 (zh) |
CN (1) | CN109857144B (zh) |
TW (1) | TWI657011B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI766427B (zh) * | 2020-11-06 | 2022-06-01 | 財團法人工業技術研究院 | 無人機裝置及無人機工作區的部署方法 |
US11874657B2 (en) | 2020-08-25 | 2024-01-16 | Far Eastone Telecommunications Co., Ltd. | Unmanned aerial vehicle control system and unmanned aerial vehicle control method |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11048257B2 (en) * | 2018-01-23 | 2021-06-29 | Gopro, Inc. | Relative image capture device orientation calibration |
US10916150B2 (en) | 2018-05-03 | 2021-02-09 | Arkidan Systems Inc. | Computer-assisted aerial surveying and navigation |
GB2584717B (en) * | 2019-06-13 | 2023-10-25 | Thales Holdings Uk Plc | Autonomous search and track using a wide FOV |
CN111699453A (zh) * | 2019-07-01 | 2020-09-22 | 深圳市大疆创新科技有限公司 | 可移动平台的控制方法、装置、设备及存储介质 |
CN111044197B (zh) * | 2019-10-25 | 2021-06-11 | 东南大学 | 一种基于无人机平台的非接触式索力测试*** |
CN111428631B (zh) * | 2020-03-23 | 2023-05-05 | 中南大学 | 无人机飞控信号可视化识别分选方法 |
CN111338383B (zh) * | 2020-04-24 | 2023-10-13 | 北京泛化智能科技有限公司 | 基于gaas的自主飞行方法及***、存储介质 |
US11445121B2 (en) * | 2020-12-29 | 2022-09-13 | Industrial Technology Research Institute | Movable photographing system and photography composition control method |
EP4326617A1 (en) * | 2021-04-19 | 2024-02-28 | Quantified Energy Labs Pte. Ltd. | Automated imaging of photovoltaic devices using an aerial vehicle and automated flight of the aerial vehicle for performing the same |
TWI783748B (zh) * | 2021-10-22 | 2022-11-11 | 中華學校財團法人中華科技大學 | 應用深度學習之無人機避障飛行控制影像辨識方法、系統及其應用 |
TWI806318B (zh) * | 2021-12-28 | 2023-06-21 | 財團法人工業技術研究院 | 無人機及其控制方法 |
CN114035614B (zh) * | 2022-01-10 | 2022-05-17 | 成都奥伦达科技有限公司 | 基于先验信息的无人机自主巡检方法、***及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060126737A1 (en) * | 2004-12-15 | 2006-06-15 | International Business Machines Corporation | Method, system and program product for a camera to track an object using motion vector data |
JP2007235333A (ja) * | 2006-02-28 | 2007-09-13 | Victor Co Of Japan Ltd | 動きベクトル検出装置 |
CN101511022A (zh) * | 2009-03-20 | 2009-08-19 | 北京航空航天大学 | 一种机载视频压缩与目标跟踪联合实现方法 |
TWI444593B (zh) * | 2011-10-21 | 2014-07-11 | Ind Tech Res Inst | 地面目標定位系統與方法 |
TW201534512A (zh) * | 2014-03-06 | 2015-09-16 | Univ Nat Changhua Education | 雙影像避障路徑規劃導航控制方法 |
TWM524967U (zh) * | 2016-04-06 | 2016-07-01 | Portwell Inc | 飛行警衛裝置 |
TWI578124B (zh) * | 2015-11-24 | 2017-04-11 | 財團法人金屬工業研究發展中心 | 多旋翼飛行器及其控制方法 |
TW201723789A (zh) * | 2015-12-23 | 2017-07-01 | 英華達股份有限公司 | 觸控顯示裝置、觸控顯示方法及無人機 |
TWI602433B (zh) * | 2016-04-29 | 2017-10-11 | 和碩聯合科技股份有限公司 | 物體追蹤方法及其無人飛行載具 |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2804936B1 (fr) | 2000-02-15 | 2002-06-07 | Bertin Technologies Sa | Engin volant telecommande, en particulier de surveillance ou d'inspection |
US9070101B2 (en) * | 2007-01-12 | 2015-06-30 | Fatdoor, Inc. | Peer-to-peer neighborhood delivery multi-copter and method |
US8718838B2 (en) | 2007-12-14 | 2014-05-06 | The Boeing Company | System and methods for autonomous tracking and surveillance |
CA2744204A1 (en) * | 2008-11-20 | 2010-05-27 | Geoffrey Salkeld | Unmanned aerial vehicle (uav) |
KR101611504B1 (ko) * | 2009-09-25 | 2016-04-11 | 삼성전자 주식회사 | 로봇 시스템 및 그 영상 처리 방법 |
FR2961601B1 (fr) | 2010-06-22 | 2012-07-27 | Parrot | Procede d'evaluation de la vitesse horizontale d'un drone, notamment d'un drone apte au vol stationnaire autopilote |
FR2964774B1 (fr) * | 2010-09-14 | 2012-09-28 | Astrium Sas | Procede d'estimation du mouvement d'un porteur par rapport a un environnement et dispositif de calcul pour systeme de navigation |
WO2012044297A1 (en) | 2010-09-30 | 2012-04-05 | Empire Technology Development Llc | Automatic flight control for uav based solid modeling |
EP2511658A1 (de) * | 2011-04-14 | 2012-10-17 | Hexagon Technology Center GmbH | Vermessungssystem und Verfahren zur Neupunktbestimmung |
WO2013033954A1 (zh) * | 2011-09-09 | 2013-03-14 | 深圳市大疆创新科技有限公司 | 陀螺式动态自平衡云台 |
FR2985329B1 (fr) | 2012-01-04 | 2015-01-30 | Parrot | Procede de pilotage intuitif d'un drone au moyen d'un appareil de telecommande. |
FR2988868B1 (fr) * | 2012-03-30 | 2015-04-24 | Parrot | Procede de pilotage d'un drone a voilure tournante a rotors multiples avec estimation et compensation du vent lateral |
CN102788580A (zh) * | 2012-06-20 | 2012-11-21 | 天津工业大学 | 无人机视觉导航中的飞行路线合成方法 |
JP6367522B2 (ja) * | 2013-02-28 | 2018-08-01 | 株式会社トプコン | 航空写真システム |
WO2015143615A1 (zh) * | 2014-03-24 | 2015-10-01 | 深圳市大疆创新科技有限公司 | 飞行器状态实时修正的方法和装置 |
FR3023593B1 (fr) * | 2014-07-08 | 2016-07-22 | Parrot | Systeme de fixation rapide d'un accessoire sur le corps d'un drone |
EP3060966B1 (en) | 2014-07-30 | 2021-05-05 | SZ DJI Technology Co., Ltd. | Systems and methods for target tracking |
EP3161502B1 (en) * | 2014-08-29 | 2020-04-22 | SZ DJI Technology Co., Ltd. | An unmanned aerial vehicle (uav) for collecting audio data |
CN104316057A (zh) | 2014-10-31 | 2015-01-28 | 天津工业大学 | 一种无人机视觉导航方法 |
TWI554976B (zh) * | 2014-11-17 | 2016-10-21 | 財團法人工業技術研究院 | 監控系統及其影像處理方法 |
TWI524758B (zh) | 2014-12-09 | 2016-03-01 | 財團法人工業技術研究院 | 電子裝置及其漸增式姿態估算及攝影方法 |
EP3071482B1 (en) * | 2014-12-23 | 2020-10-07 | SZ DJI Osmo Technology Co., Ltd. | Uav panoramic imaging |
FR3031402B1 (fr) * | 2015-01-02 | 2018-09-07 | Squadrone System | Procede de pilotage automatique d'un drone a voilure tournante pour operer des mouvements de camera par une camera embarquee |
US9505494B1 (en) | 2015-04-30 | 2016-11-29 | Allstate Insurance Company | Enhanced unmanned aerial vehicles for damage inspection |
US10634500B2 (en) * | 2015-06-29 | 2020-04-28 | Yuneec Technology Co., Limited | Aircraft and obstacle avoidance method and system thereof |
CN105045276B (zh) * | 2015-07-03 | 2019-01-11 | 深圳一电航空技术有限公司 | 无人机飞行控制方法及装置 |
US9989965B2 (en) * | 2015-08-20 | 2018-06-05 | Motionloft, Inc. | Object detection and analysis via unmanned aerial vehicle |
US9997080B1 (en) * | 2015-10-06 | 2018-06-12 | Zipline International Inc. | Decentralized air traffic management system for unmanned aerial vehicles |
FR3042613A1 (fr) * | 2015-10-19 | 2017-04-21 | Parrot | Dispositif de pilotage d'un drone apte a maintenir des commandes de pilotage et procede de commande associe. |
JP2017104365A (ja) * | 2015-12-11 | 2017-06-15 | 株式会社ディスコ | 有人ドローン |
US20190031341A1 (en) * | 2015-12-22 | 2019-01-31 | Intel Corporation | UNIVERSAL CONTROLLER FOR ROBUST TRAJECTORY TRACKING IN MULTIROTOR UNMANNED AERIAL VEHICLES (UAVs) |
US9513635B1 (en) | 2015-12-30 | 2016-12-06 | Unmanned Innovation, Inc. | Unmanned aerial vehicle inspection system |
KR101921376B1 (ko) * | 2016-02-24 | 2018-11-22 | 홍유정 | 객체 컨트롤러 |
US10029788B2 (en) * | 2016-03-28 | 2018-07-24 | Zipline International Inc. | Vision based calibration system for unmanned aerial vehicles |
WO2017166002A1 (zh) * | 2016-03-28 | 2017-10-05 | 深圳市大疆创新科技有限公司 | 无人飞行器的悬停控制方法、控制***和无人飞行器 |
US11468778B2 (en) * | 2016-06-10 | 2022-10-11 | Metal Raptor, Llc | Emergency shutdown and landing for passenger drones and unmanned aerial vehicles with air traffic control |
IL246358A0 (en) * | 2016-06-20 | 2016-11-30 | Fox Yuval | A system for positioning and locking and a method for driverless vehicles |
FR3052885A1 (fr) * | 2016-06-20 | 2017-12-22 | Parrot Drones | Drone comprenant des ailes portantes |
FR3054336A1 (fr) * | 2016-07-22 | 2018-01-26 | Parrot Drones | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et localisation amelioree de la cible. |
EP4286273A3 (en) * | 2016-08-08 | 2024-04-03 | Cleo Robotics Inc. | An unmanned aerial vehicle and a system for controlling an unmanned aerial vehicle |
WO2018032415A1 (en) * | 2016-08-17 | 2018-02-22 | SZ DJI Technology Co., Ltd. | Systems and methods for operating unmanned aerial vehicles |
CN107223292B (zh) * | 2016-09-26 | 2019-04-23 | 深圳市大疆创新科技有限公司 | 天线及无人机 |
FR3058238B1 (fr) * | 2016-10-28 | 2019-01-25 | Parrot Drones | Systeme autonome de prise de vues animees par un drone avec poursuite de cible et maintien de l'angle de prise de vue de la cible. |
CN106682668A (zh) | 2016-11-18 | 2017-05-17 | 云南电网有限责任公司电力科学研究院 | 一种使用无人机标记影像的输电线路地质灾害监测方法 |
US11368002B2 (en) * | 2016-11-22 | 2022-06-21 | Hydro-Quebec | Unmanned aerial vehicle for monitoring an electrical line |
KR20180060634A (ko) * | 2016-11-29 | 2018-06-07 | 한화에어로스페이스 주식회사 | 돔 타입 3축 짐벌 |
CN115238018A (zh) * | 2016-12-01 | 2022-10-25 | 深圳市大疆创新科技有限公司 | 用于管理3d飞行路径的方法和相关*** |
CN107074348B (zh) * | 2016-12-30 | 2021-06-15 | 深圳市大疆创新科技有限公司 | 控制方法、装置、设备及无人飞行器 |
US10254767B1 (en) * | 2017-01-25 | 2019-04-09 | Amazon Technologies, Inc. | Determining position or orientation relative to a marker |
JP2018185167A (ja) * | 2017-04-24 | 2018-11-22 | 三菱電機株式会社 | 飛行制御装置および形状測定装置 |
US10379545B2 (en) * | 2017-07-03 | 2019-08-13 | Skydio, Inc. | Detecting optical discrepancies in captured images |
JP2020513122A (ja) * | 2017-07-06 | 2020-04-30 | トップ フライト テクノロジーズ, インコーポレイテッド | ドローンのためのナビゲーションシステム |
US10564650B2 (en) * | 2017-07-27 | 2020-02-18 | Intel Corporation | Trajectory tracking controllers for rotorcraft unmanned aerial vehicles (UAVS) |
US10569875B2 (en) * | 2017-09-29 | 2020-02-25 | Deere & Company | Using unmanned aerial vehicles (UAVs or drones) in forestry imaging and assessment applications |
-
2017
- 2017-11-30 TW TW106141808A patent/TWI657011B/zh active
- 2017-12-14 CN CN201711337673.6A patent/CN109857144B/zh active Active
-
2018
- 2018-03-14 US US15/921,625 patent/US10703479B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060126737A1 (en) * | 2004-12-15 | 2006-06-15 | International Business Machines Corporation | Method, system and program product for a camera to track an object using motion vector data |
JP2007235333A (ja) * | 2006-02-28 | 2007-09-13 | Victor Co Of Japan Ltd | 動きベクトル検出装置 |
CN101511022A (zh) * | 2009-03-20 | 2009-08-19 | 北京航空航天大学 | 一种机载视频压缩与目标跟踪联合实现方法 |
TWI444593B (zh) * | 2011-10-21 | 2014-07-11 | Ind Tech Res Inst | 地面目標定位系統與方法 |
TW201534512A (zh) * | 2014-03-06 | 2015-09-16 | Univ Nat Changhua Education | 雙影像避障路徑規劃導航控制方法 |
TWI578124B (zh) * | 2015-11-24 | 2017-04-11 | 財團法人金屬工業研究發展中心 | 多旋翼飛行器及其控制方法 |
TW201723789A (zh) * | 2015-12-23 | 2017-07-01 | 英華達股份有限公司 | 觸控顯示裝置、觸控顯示方法及無人機 |
TWM524967U (zh) * | 2016-04-06 | 2016-07-01 | Portwell Inc | 飛行警衛裝置 |
TWI602433B (zh) * | 2016-04-29 | 2017-10-11 | 和碩聯合科技股份有限公司 | 物體追蹤方法及其無人飛行載具 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11874657B2 (en) | 2020-08-25 | 2024-01-16 | Far Eastone Telecommunications Co., Ltd. | Unmanned aerial vehicle control system and unmanned aerial vehicle control method |
TWI766427B (zh) * | 2020-11-06 | 2022-06-01 | 財團法人工業技術研究院 | 無人機裝置及無人機工作區的部署方法 |
US11721224B2 (en) | 2020-11-06 | 2023-08-08 | Industrial Technology Research Institute | Drone apparatus and method for deploying drone working zone |
Also Published As
Publication number | Publication date |
---|---|
US20190161186A1 (en) | 2019-05-30 |
CN109857144B (zh) | 2022-01-14 |
TW201925033A (zh) | 2019-07-01 |
CN109857144A (zh) | 2019-06-07 |
US10703479B2 (en) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI657011B (zh) | 無人機、無人機控制系統及控制方法 | |
CN108711166B (zh) | 一种基于四旋翼无人机的单目相机尺度估计方法 | |
Yang et al. | An onboard monocular vision system for autonomous takeoff, hovering and landing of a micro aerial vehicle | |
Shen et al. | Vision-based state estimation for autonomous rotorcraft MAVs in complex environments | |
Patruno et al. | A vision-based approach for unmanned aerial vehicle landing | |
Shan et al. | Google map aided visual navigation for UAVs in GPS-denied environment | |
JP5990453B2 (ja) | 自律移動ロボット | |
JP6324649B1 (ja) | 検出システム、検出方法、及びプログラム | |
US20110301925A1 (en) | Optical State Estimation And Simulation Environment For Unmanned Aerial Vehicles | |
CN108759826B (zh) | 一种基于手机和无人机多传感参数融合的无人机运动跟踪方法 | |
Lippiello et al. | MAV indoor navigation based on a closed-form solution for absolute scale velocity estimation using optical flow and inertial data | |
WO2019126930A1 (zh) | 测距方法、装置以及无人机 | |
CN110570463B (zh) | 一种目标状态估计方法、装置和无人机 | |
WO2022021027A1 (zh) | 目标跟踪方法、装置、无人机、***及可读存储介质 | |
Zheng et al. | Robust and accurate monocular visual navigation combining IMU for a quadrotor | |
CN109857128B (zh) | 无人机视觉定点降落方法、***、设备及存储介质 | |
Aswini et al. | Obstacle avoidance and distance measurement for unmanned aerial vehicles using monocular vision | |
Abeywardena et al. | Tightly-coupled model aided visual-inertial fusion for quadrotor micro air vehicles | |
Zhou et al. | Real-time object detection and pose estimation using stereo vision. An application for a Quadrotor MAV | |
Kakillioglu et al. | 3D sensor-based UAV localization for bridge inspection | |
Daftry et al. | Semi-dense visual odometry for monocular navigation in cluttered environment | |
Gabdullin et al. | Analysis of onboard sensor-based odometry for a quadrotor uav in outdoor environment | |
Cabrera-Ponce et al. | A vision-based approach for autonomous landing | |
Thurrowgood et al. | UAV attitude control using the visual horizon | |
Hernández et al. | Visual SLAM with oriented landmarks and partial odometry |