JP7019118B1 - 情報処理装置及び情報処理方法 - Google Patents
情報処理装置及び情報処理方法 Download PDFInfo
- Publication number
- JP7019118B1 JP7019118B1 JP2021572532A JP2021572532A JP7019118B1 JP 7019118 B1 JP7019118 B1 JP 7019118B1 JP 2021572532 A JP2021572532 A JP 2021572532A JP 2021572532 A JP2021572532 A JP 2021572532A JP 7019118 B1 JP7019118 B1 JP 7019118B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- points
- identification
- unit
- positions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/865—Combination of radar systems with lidar systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
Description
図1は、実施の形態に係る情報処理装置としての移動予測装置130を含む移動予測システム100の構成を概略的に示すブロック図である。
図2は、移動予測システム100の配置例を示す概略図である。
測距装置120は、その空間において複数の測距点までの距離を測定し、その複数の測距点までの距離を示す測距データを生成する。測距装置120は、その測距データを移動予測装置130に与える。
図2では、撮像装置110の例として、2次元画像を取得するセンサとしてカメラ111が車両101に搭載されている。
また、測距装置120の例として、ミリ波レーダ121及びレーザーセンサ122が車両101に搭載されている。なお、測距装置120としては、ミリ波レーダ121及びレーザーセンサ122の少なくとも何れか一方が搭載されていればよい。
図3は、測距装置120による測距点を説明するための俯瞰図である。
測距装置120から放射状に右方向に延びている線の各々が、光線である。その光線が車両101に当たり、反射して測距装置120に返ってくるまでの時間をもとに、測距装置120は、車両101までの距離を測定する。
放射状に延びる光線と光線との間は、0.1度等のように測距装置120の仕様に従い解像度が決まっている。この解像度は、撮像装置110として機能するカメラ111よりも疎である。例えば、図3では、車両101に対して、3点の測距点P01~P03しか取得されない。
図4(A)は、測距装置120による測距と、撮像装置110による撮像と、を説明するための斜視図である。
図4(A)に示されているように、撮像装置110は、撮像装置110が搭載されている車両である搭載車両の前方向の画像を撮像するように設置されているものとする。
また、図4(A)に示されている点P11~P19は、測距装置120で測距が行なわれた測距点である。測距点P11~P19も、搭載車両の前方向に配置されている。
なお、図4(A)に示されているように、測距及び撮像を行なう空間の左右方向をX軸、垂直方向をY軸、及び、奥行き方向をZ軸とする。なお、Z軸は、撮像装置110のレンズの光軸に対応する。
図4(B)は、俯瞰図を斜め方向から見た斜視図である。
図5に示されているように、画像は、X軸と、Y軸との二つの軸の二次元の画像である。
画像の左側に別の車両103が撮像され、その右側に建物104が撮像されている。
なお、図5には、説明のために、測距点P11~P13、P16~P18が描かれているが、実際の画像には、測距点P11~P13、P16~P18は撮像されていない。
図5に示されているように、前方の別の車両103に三つの測距点P16~P18が存在しており、これは画像より疎な情報である。
以上のように、マッピング部132は、複数の対象点及びバウンディングボックス105を重畳する重畳部として機能する。なお、測距点及びバウンディングボックス105が重畳された画像を重畳画像ともいう。バウンディングボックス105のサイズは、例えば、CNNの手法による画像認識により決定される。その画像認識では、バウンディングボックス105は、画像内において識別された物体に対して、予め定められた程度、大きなサイズとなる。
図6に示されているピンホールモデルは、上空から俯瞰したときの図を示しており、撮像面への投射は下記の(1)式で行われる。
例えば、図5に示されている画像において、バウンディングボックス105の左側の線分に近い対象点を特定する場合を説明する。
以上と同様にして、バウンディングボックス105の右側の線分に最も近い測距点P16に対応する対象点も特定することができる。なお、測距点P16に対応する対象点のピクセル値は、(u4,u4)とする。
例えば、奥行き付与部134は、空間において、同一物判定部133により特定された二つの測距点までの距離から、重畳画像の左右方向に延びる軸(ここでは、X軸)に対するその特定された二つの測距点を結ぶ直線の傾きを算出し、その直線に垂直方向の識別物体の長さに対応する線分である対応線分を、算出された傾きに従ってその軸の左右方向に傾かせ、その対応線分の端部の位置により奥行き位置を算出する。
上記と同様にして、右端に近い測距点P16に対応する対象点と同じ高さのエッジ点Q2の実際の位置も(X2,Z4)として求まる。
図5に示されている例では、エッジ点Q01と、エッジ点Q02とを結ぶ直線のX軸に対する角度は、下記の(3)式で求められる。
なお、奥行き付与部134は、空間において、二つの測距点P16、P18を結ぶ直線の、その空間における左右方向の軸(ここでは、X軸)に対する傾きを算出し、その直線に対して垂直方向の識別物体の長さに対応する線分である対応線分を、算出された傾きに従ってその軸に対して左右方向に傾かせた対応線分の端部の位置を、奥行き位置として算出する。
これにより、奥行き付与部134は、画像から認識された物体(ここでは、別の車両103)の四隅(ここでは、エッジ点Q01、エッジ点Q02、位置C1及び位置C2)の座標を特定することができる。
具体的には、俯瞰図生成部135は、撮像装置110で撮像された画像から認識された全ての物体に対応する全てのバウンディングボックスに含まれる全ての対象点を奥行き付与部134で処理した後、いずれのバウンディングボックスにも含まれなかった対象点を特定する。
ここで特定された対象点は、物体が存在するものの画像から認識できなかった物体の対象点である。俯瞰図生成部135は、この対象点に対応する測距点を俯瞰図に投射する。その手法として、例えば、高さ方向をゼロにする方法がある。他の手法としては、対象点に対応する測距点から俯瞰図に垂直に交わる点を計算する方法がある。この処理により、バウンディングボックスに含まれる物体に対応する部分の画像と、残りの測距点に対応する点とを示す俯瞰図が完成する。例えば、図4(B)が完成した俯瞰図を斜め方向から見た図である。
移動予測装置130は、メモリ10と、メモリ10に格納されているプログラムを実行するCPU(Central Processing Unit)等のプロセッサ11と、撮像装置110及び測距装置120を接続するためのインターフェース(I/F)12とを備えるコンピュータ13により構成することができる。このようなプログラムは、ネットワークを通じて提供されてもよく、また、記録媒体に記録されて提供されてもよい。即ち、このようなプログラムは、例えば、プログラムプロダクトとして提供されてもよい。
なお、I/F12は、撮像装置110から画像データの入力を受ける画像入力部、及び、測距装置120から測距点を示す測距点データの入力を受ける測距点入力部として機能する。
まず、物体識別部131は、撮像装置110で撮像された画像を示す画像データを取得して、その画像データで示される画像内の物体を識別する(S10)。
次に、移動予測部136は、俯瞰図に含まれている移動物体の移動予測を行う(S22)。
まず、奥行き付与部134は、バウンディングボックスの左右の線分に最も近い二つの測距点から、二つのエッジ点を特定し、その二つのエッジ点を奥行き方向(ここでは、Z軸)へ投射したときのそれぞれの距離を算出する(S30)。
Claims (7)
- 空間を撮像した画像を示す画像データに基づいて、前記画像から予め定められた物体を識別物体として識別する物体識別部と、
前記空間における複数の測距点までの距離を示す測距データに基づいて、前記画像の前記複数の測距点に対応する位置に、前記複数の測距点に対応する複数の対象点を前記画像に重畳するとともに、前記物体識別部での識別結果を参照して、前記識別物体の周囲を囲む矩形を前記画像に重畳することで、重畳画像を生成する重畳部と、
前記重畳画像において、前記複数の対象点の中から、前記矩形内において前記矩形の左右の線分に最も近い二つの対象点を特定する対象点特定部と、
前記特定された二つの対象点から前記左右の線分の内の近い方の線分に下ろした垂線の足の前記空間における位置を、前記識別物体の左右のエッジを示す点である二つのエッジ点の位置として特定し、前記空間において、前記二つのエッジ点とは異なる予め定められた二つの対応点の位置である二つの奥行き位置を算出する奥行き付与部と、
前記二つのエッジ点の位置と、前記二つの奥行き位置とを、予め定められた二次元の画像に投影することで、前記識別物体を示す俯瞰図を生成する俯瞰図生成部と、を備えること
を特徴とする情報処理装置。 - 前記奥行き付与部は、前記空間において、前記二つの測距点を結ぶ直線の、前記空間における左右方向の軸に対する傾きを算出し、前記直線に対して垂直方向の前記識別物体の長さに対応する線分である対応線分を、前記算出された傾きに従って前記軸に対して左右方向に傾かせた前記対応線分の端部の位置を、前記奥行き位置として算出すること
を特徴とする請求項1に記載の情報処理装置。 - 前記長さは、予め定められていること
を特徴とする請求項2に記載の情報処理装置。 - 前記物体識別部は、機械学習により、前記画像から前記識別物体を識別すること
を特徴とする請求項1から3の何れか一項に記載の情報処理装置。 - 前記俯瞰図を用いて、前記識別物体の移動を予測する移動予測部をさらに備えること
を特徴とする請求項1から4の何れか一項に記載の情報処理装置。 - 前記移動予測部は、機械学習により、前記移動を予測すること
を特徴とする請求項5に記載の情報処理装置。 - 空間を撮像した画像を示す画像データに基づいて、前記画像から予め定められた物体を識別物体として識別し、
前記空間における複数の測距点までの距離を示す測距データに基づいて、前記画像の前記複数の測距点に対応する位置に、前記複数の測距点に対応する複数の対象点を前記画像に重畳するとともに、前記識別物体を識別した結果を参照して、前記識別物体の周囲を囲む矩形を前記画像に重畳することで、重畳画像を生成し、
前記重畳画像において、前記複数の対象点の中から、前記矩形内において前記矩形の左右の線分に最も近い二つの対象点を特定し、
前記特定された二つの対象点から前記左右の線分の内の近い方の線分に下ろした垂線の足の前記空間における位置を、前記識別物体の左右のエッジを示す点である二つのエッジ点の位置として特定し、
前記空間において、前記二つのエッジ点とは異なる予め定められた二つの対応点の位置である二つの奥行き位置を算出し、
前記二つのエッジ点の位置と、前記二つの奥行き位置とを、予め定められた二次元の画像に投影することで、前記識別物体を示す俯瞰図を生成すること
を特徴とする情報処理方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/013009 WO2021192032A1 (ja) | 2020-03-24 | 2020-03-24 | 情報処理装置及び情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021192032A1 JPWO2021192032A1 (ja) | 2021-09-30 |
JP7019118B1 true JP7019118B1 (ja) | 2022-02-14 |
Family
ID=77891204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021572532A Active JP7019118B1 (ja) | 2020-03-24 | 2020-03-24 | 情報処理装置及び情報処理方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220415031A1 (ja) |
JP (1) | JP7019118B1 (ja) |
CN (1) | CN115244594B (ja) |
DE (1) | DE112020006508T5 (ja) |
WO (1) | WO2021192032A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018043028A1 (ja) * | 2016-08-29 | 2018-03-08 | 株式会社デンソー | 周辺監視装置及び周辺監視方法 |
JP2018036915A (ja) * | 2016-08-31 | 2018-03-08 | アイシン精機株式会社 | 駐車支援装置 |
JP2018048949A (ja) * | 2016-09-23 | 2018-03-29 | トヨタ自動車株式会社 | 物体識別装置 |
JP2019139420A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 立体物認識装置、撮像装置および車両 |
US20190291723A1 (en) * | 2018-03-26 | 2019-09-26 | International Business Machines Corporation | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3514607B2 (ja) * | 1997-06-04 | 2004-03-31 | パイオニア株式会社 | 地図表示制御装置及び地図表示制御用プログラムを記録した記録媒体 |
JP5422902B2 (ja) * | 2008-03-27 | 2014-02-19 | 三洋電機株式会社 | 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法 |
JP2010124300A (ja) * | 2008-11-20 | 2010-06-03 | Clarion Co Ltd | 画像処理装置およびこれを用いたリヤビューカメラシステム |
JP2010287029A (ja) * | 2009-06-11 | 2010-12-24 | Konica Minolta Opto Inc | 周辺表示装置 |
JP6084434B2 (ja) * | 2012-10-31 | 2017-02-22 | クラリオン株式会社 | 画像処理システム及び画像処理方法 |
JP6975929B2 (ja) * | 2017-04-18 | 2021-12-01 | パナソニックIpマネジメント株式会社 | カメラ校正方法、カメラ校正プログラム及びカメラ校正装置 |
JP6984215B2 (ja) | 2017-08-02 | 2021-12-17 | ソニーグループ株式会社 | 信号処理装置、および信号処理方法、プログラム、並びに移動体 |
-
2020
- 2020-03-24 CN CN202080098002.2A patent/CN115244594B/zh active Active
- 2020-03-24 DE DE112020006508.1T patent/DE112020006508T5/de active Pending
- 2020-03-24 WO PCT/JP2020/013009 patent/WO2021192032A1/ja active Application Filing
- 2020-03-24 JP JP2021572532A patent/JP7019118B1/ja active Active
-
2022
- 2022-08-30 US US17/898,958 patent/US20220415031A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018043028A1 (ja) * | 2016-08-29 | 2018-03-08 | 株式会社デンソー | 周辺監視装置及び周辺監視方法 |
JP2018036915A (ja) * | 2016-08-31 | 2018-03-08 | アイシン精機株式会社 | 駐車支援装置 |
JP2018048949A (ja) * | 2016-09-23 | 2018-03-29 | トヨタ自動車株式会社 | 物体識別装置 |
JP2019139420A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 立体物認識装置、撮像装置および車両 |
US20190291723A1 (en) * | 2018-03-26 | 2019-09-26 | International Business Machines Corporation | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network |
Also Published As
Publication number | Publication date |
---|---|
WO2021192032A1 (ja) | 2021-09-30 |
CN115244594B (zh) | 2023-10-31 |
JPWO2021192032A1 (ja) | 2021-09-30 |
DE112020006508T5 (de) | 2022-11-17 |
US20220415031A1 (en) | 2022-12-29 |
CN115244594A (zh) | 2022-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965870B2 (en) | Camera calibration method using a calibration target | |
CN112444242B (zh) | 一种位姿优化方法及装置 | |
CN107025663A (zh) | 视觉***中用于3d点云匹配的杂波评分***及方法 | |
KR102151815B1 (ko) | 카메라 및 라이다 센서 융합을 이용한 객체 검출 방법 및 그를 위한 장치 | |
CN113256740A (zh) | 一种雷达与相机的标定方法、电子设备及存储介质 | |
KR101090082B1 (ko) | 단일 카메라 및 레이저를 이용한 계단 치수 측정 시스템 및 방법 | |
CN112036359B (zh) | 一种车道线的拓扑信息获得方法、电子设备及存储介质 | |
JP2023029441A (ja) | 計測装置、計測システムおよび車両 | |
CN114842106A (zh) | 栅格地图的构建方法及构建装置、自行走装置、存储介质 | |
JPH1144533A (ja) | 先行車両検出装置 | |
JP7019118B1 (ja) | 情報処理装置及び情報処理方法 | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
US20220414925A1 (en) | Tracking with reference to a world coordinate system | |
JP2006317418A (ja) | 画像計測装置、画像計測方法、計測処理プログラム及び記録媒体 | |
JPH10312463A (ja) | 物体認識方法およびその装置 | |
CN114051627A (zh) | 相机校准方法 | |
CN113591640A (zh) | 一种道路护栏的检测方法、装置及车辆 | |
JP6546898B2 (ja) | 3次元空間特定装置、方法、及びプログラム | |
JP5964093B2 (ja) | 車両サイズ測定装置、車両サイズ測定方法、およびプログラム | |
JP2004020398A (ja) | 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体 | |
JP3519296B2 (ja) | 熱画像の自動測定方法及び自動測定装置 | |
JPH10283478A (ja) | 特徴抽出方法およびその方法を用いた物体認識装置 | |
JP7390743B2 (ja) | 物体測定装置及び物体測定方法 | |
KR102602319B1 (ko) | 인공지능 영상 딥러닝 모델을 이용한 다중 객체 추적기반 교통 정보 수집 시스템 및 방법 | |
CN116704138B (zh) | 倾斜摄影三维模型的建立方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220201 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7019118 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |