JP7120181B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP7120181B2
JP7120181B2 JP2019152224A JP2019152224A JP7120181B2 JP 7120181 B2 JP7120181 B2 JP 7120181B2 JP 2019152224 A JP2019152224 A JP 2019152224A JP 2019152224 A JP2019152224 A JP 2019152224A JP 7120181 B2 JP7120181 B2 JP 7120181B2
Authority
JP
Japan
Prior art keywords
coordinates
data
undetected
interpolation
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019152224A
Other languages
English (en)
Other versions
JP2021032660A (ja
Inventor
寛 阪本
亮祐 深谷
秀往 松井
潤也 上野
一樹 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019152224A priority Critical patent/JP7120181B2/ja
Priority to US16/993,664 priority patent/US11538252B2/en
Priority to DE102020121836.2A priority patent/DE102020121836A1/de
Priority to CN202010850390.7A priority patent/CN112485807B/zh
Publication of JP2021032660A publication Critical patent/JP2021032660A/ja
Application granted granted Critical
Publication of JP7120181B2 publication Critical patent/JP7120181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両に搭載される物体認識装置に関する。
特開2012-145444号公報は、ライダー(LIDAR: Laser Imaging Detection And Ranging)によって検出されたデータ点群のクラスタリング処理を行う物体認識装置を開示する。データ点群は、多数の検出点の三次元位置データ(すなわち、X、YおよびZ位置データ)から構成される。クラスタリング処理では、検出点間で三次元位置データの比較などが行われ、1つの物体と見做すことのできる検出点同士がグループ化される。
特開2012-145444号公報 特開2018-048949号公報
ライダーは、レーザ光の飛行時間(TOF: Time of Flight)に基づいてZ位置データ(すなわち、飛行時間データ)を生成する。そのため、飛行時間が計測されなかった場合、Z位置データが得られない。Z位置データが得られなかった場合、データ点群に空白領域が発生する。この場合、空白領域はクラスタリング処理の対象外となる。
飛行時間が計測されなかった場合には、レーザ光の照射先にレーザ光を反射する物体が存在しない場合と、照射先にレーザ光を吸収する低反射物体(例えば、黒色系の物体)が存在した場合と、が含まれる。そのため、後者の場合にはクラスタリング処理が正しく行われず、低反射物体の認識を誤る可能性がある。
本発明の1つの目的は、ライダーから照射されたレーザ光を吸収する低反射物体を認識することのできる物体認識装置を提供することにある。
第1の観点は、上記課題を解決するための物体認識装置であり、次の特徴を有する。
前記物体認識装置は、ライダーと、処理装置とを備える。
前記ライダーは、車両の周囲にレーザ光を照射し、前記周囲で反射したレーザ光を検出する。
前記処理装置は、前記ライダーの検出点群のクラスタリング処理を、前記レーザ光の飛行時間データを含む各検出点の三次元位置データに基づいて行う。
前記物体認識装置は、更に、カラー画像取得部を備える。
前記カラー画像取得部は、前記周囲のカラー画像を取得する。
前記処理装置は、前記クラスタリング処理において、前記三次元位置データにより表現される距離画像上の第1および第2座標においてリンク条件が満たされる場合、前前記第1座標に対応する第1検出点と、前記第2座標に対応する第2検出点とを関連付ける。
前記リンク条件は、前記第1および第2座標の間における距離が所定距離以上であり、前記第1および第2検出点の間における前記飛行時間データの差が所定差未満であり、かつ、座標条件が満たされる場合に満たされる。
前記座標条件は、前記第1および第2座標の間の経路上に位置する座標を示す経路座標が前記飛行時間データの計算が行われなかった未検出座標に該当し、かつ、前記経路座標の位置に合致する前記カラー画像上の座標の画素値を示すカラー画素値が全て所定の黒色系画素値に該当する場合に満たされる。
第2の観点は、第1の観点において更に次の特徴を有する。
前記処理装置は、前記クラスタリング処理を行う前に、補間処理を行う。
前記補間処理は、前記未検出座標における飛行時間データを補間する処理である。
前記処理装置は、前記補間処理において、採用条件が満たされる場合、補間用データを前記未検出座標における飛行時間データとして採用する。
前記採用条件は、補間後の前記未検出座標の位置に合致する前記カラー画素値が前記所定の黒色系画素値に該当する場合に満たされる。
第3の観点は、第2の観点において更に次の特徴を有する。
前記補間用データが、前記距離画像上の縦軸負方向において前記未検出座標からの距離が最も短い座標における前記飛行時間データである。
第4の観点は、第2の観点において更に次の特徴を有する。
前記物体認識装置は、更に、位置情報取得部と、データベースとを備える。
前記位置情報取得部は、前記車両の位置情報を取得する。
前記データベースには、地形情報が格納されている。
前記処理装置は、前記補間処理において、前記位置情報および前記地形情報に基づいて、前記距離画像上の座標のうちから路面に相当する座標を示す路面座標を特定する。
前記補間用データは、前記距離画像上の縦軸負方向において前記未検出座標からの距離が最も短い前記路面座標における前記飛行時間データである。
第1の観点によれば、リンク条件が満たされる場合に、第1検出点と第2検出点とが関連付けられる。リンク条件によれば、第1および第2座標の間に未検出座標が存在する場合であっても、第1検出点と第2検出点とを関連付けることができる。そうすると、これらの検出点がクラスタリング処理において同一のクラスタにグループ化され易くなる。したがって、低反射物体の誤認を抑えることが可能となる。
第2の観点によれば、クラスタリング処理を行う前に補間処理が行われる。補間処理では、採用条件が満たされる場合、補間用データが未検出座標における飛行時間データとして採用される。したがって、クラスタリング処理における計算負荷を減らすことが可能となる。
第3の観点によれば、距離画像の縦軸負方向において未検出座標からの距離が最も短い座標における飛行時間データが補間用データとして採用される。したがって、クラスタリング処理の精度を向上することが可能となる。
第4の観点によれば、距離画像の縦軸負方向において未検出座標からの距離が最も短い路面座標における飛行時間データが補間用データとして採用される。したがって、クラスタリング処理の精度を向上することが可能となる。
本願の前提を説明する図である。 前方車両のボディカラーが白色系である場合の、前方車両のリア部の画像を模式的に示す図である。 前方車両のボディカラーが黒色系である場合の、前方車両のリア部の画像を模式的に示す図である。 座標条件を説明する図である。 座標条件を説明する図である。 実施の形態1に係る物体認識装置の構成例を示すブロック図である。 処理装置において実行される処理の一例を説明するフローチャートである。 実施の形態2に係る補間処理の第2の例を説明する図である。 実施の形態2に係る物体認識装置の構成例を示すブロック図である。 処理装置において実行される処理の一例を説明するフローチャートである。 実施の形態3に係る補間処理を説明する図である。 実施の形態3に係る物体認識装置の構成例を示すブロック図である。
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に示す実施の形態において各要素の個数、数量、量、範囲等の数に言及した場合、特に明示した場合や原理的に明らかにその数に特定される場合を除いて、その言及した数に、この発明が限定されるものではない。また、以下に示す実施の形態において説明する構造やステップ等は、特に明示した場合や明らかに原理的にそれに特定される場合を除いて、この発明に必ずしも必須のものではない。
1.実施の形態1
先ず、図1乃至7を参照しながら実施の形態1について説明する。
1.1 前提
図1は、本願の前提を説明する図である。図1には、車両M1が描かれている。車両M1には、ライダーLDが搭載されている。ライダーLDは、車両M1の周囲にレーザ光を照射し、この周囲で反射したレーザ光を検出する。ライダーLDによってレーザ光が検出されると、データ点群が得られる。データ点群は、多数の検出点の三次元位置データ(すなわち、X、YおよびZ位置データ)から構成される。データ点群に、三次元位置データの取得時刻、および、この取得時刻におけるライダーLDの位置データ(すなわち、緯度および経度データ)が追加されていてもよい。
車両M1は、処理装置PUを備えている。処理装置PUは、物体認識処理を行う。物体認識処理は、クラスタリング処理を含んでいる。クラスタリング処理は、三次元位置データに基づいて、データ点群を複数のクラスタにグループ化する処理である。本願は、このクラスタリング処理において、少なくとも2つのデータ点を関連付ける処理を行う点に特徴がある。クラスタに基づいた物体認識処理については、特に限定されず、公知の技術が適用される。
図1には、車両M1が走行する路面RSが描かれている。路面RSで反射したレーザ光がライダーLDにより検出されると、路面RS上の多数の検出点の三次元位置データが得られる。図1には、また、車両M1の前方に車両M2が描かれている。車両M2は、移動していてもよいし、静止していてもよい。車両M2は、車両とは異なる移動物体でもよいし、静止物体でもよい。車両M2で反射したレーザ光がライダーLDにより検出されると、車両M2上の多数の検出点の三次元位置データが得られる。図1に示すデータ点DPは、路面RSおよび車両M2の検出点を模式的に示したものである。
1.2 クラスタリング処理における問題点
既に述べたとおり、ライダーLDが飛行時間TOFを計測できなかった場合には、照射先にレーザ光を反射する物体が存在しない場合と、照射先にレーザ光を吸収する低反射物体が存在した場合と、が含まれる。後者の場合の問題点について、図2および図3を参照して説明する。
これらの図には、それぞれ、2種類の画像が模式的に示されている。2種類の画像は、車両M2のリア部REM2のカラー画像CIMGおよび距離画像DIMGである。カラー画像CIMGは、カメラまたは画像センサから取得されるRGB画像である。RGB画像では、二次元座標の画素値がRGB値によって表される。つまり、カラー画像CIMGにおける座標CC(x,y)の画素値IC(x,y)は、RGB値によって表される。なお、画素値IC(x,y)は、本願における“カラー画素値”に相当する。カラー画像CIMGは、CMY値、CMYK値、HSV値またはHLS値を用いて表されてもよい。
距離画像DIMGは、三次元位置データにより表現される画像である。距離画像DIMGの各座標は、データ点DPでのZ位置データ(すなわち、飛行時間データ)に応じた画素値によって表される。具体的に、距離画像DIMGにおける座標CD(x,y)の画素値ID(x,y)は、飛行時間TOFに応じた画素値によって表される。画素値ID(x,y)は、例えば、飛行時間TOFが短くなるほど小さな画素値で表され、飛行時間TOFが長くなるほど大きな画素値で表される。
図2は、車両M2のボディカラーが白色系である場合のリア部REM2の画像を示している。この図の距離画像DIMGに示すように、白色系のボディカラーの場合は、リア部REM2の表面でレーザ光が反射し易い。そのため、リア部REM2の検出点に相当するデータ点DPが多数得られる。故に、この場合は、クラスタリング処理において、これらのデータ点DPが同一のクラスタにグループ化され易くなる。
図3は、車両M2のボディカラーが黒色系である場合のリア部REM2の画像を示している。この図の距離画像DIMGに示すように、黒色系のボディカラーの場合は、尾灯TL、リアバンパーRBといったリア部REM2の一部の領域でしかデータ点DPが得られない。この理由は、リア部REM2に吸収されることでレーザ光が反射しなくなり、飛行時間TOFが計測されなかったからである。
図3には、Z位置データが得られていない領域(以下、“未検出領域”と称す。)BR1~3が描かれている。未検出領域BRを構成する座標CD(x,y)を、未検出座標CDBR(x,y)と称す。そうすると、未検出座標CDBR(x,y)の画素値IDBR(x,y)は、何れも黒色系のRGB値によって表される。このような未検出座標CDBR(x,y)が距離画像DIMGに含まれているということは、データ点群に空白領域が存在することを意味する。空白領域が存在すると、この空白領域によって、リア部REM2の検出点に相当するデータ点DPが隔てられてしまう。そうすると、これらのデータ点DPを同一のクラスタにグループ化することが困難になる。
1.3 実施の形態1に係る物体認識処理の特徴
このように、照射先にレーザ光を吸収する低反射物体が存在する場合は、クラスタリング処理が正しく行われず、この物体の認識を誤る可能性がある。そこで、実施の形態1に係るクラスタリング処理では、距離画像DIMG上の任意の2つのデータ点DPを関連付けるための条件(リンク条件)として、基本および特殊条件が設定される。以下、説明の便宜上、これらのデータ点DPを、“第1のデータ点DP”および“第2のデータ点DP”と称す。
1.3.1 基本条件
基本条件は、第1のデータ点DPと第2のデータ点DPを関連付けるために定常的に使用される条件である。基本条件は、第1座標CDDP1(x,y)および第2座標CDDP2(x,y)に関する次の条件(i)および(ii)から構成される。第1座標CDDP1(x,y)は、第1のデータ点DPに対応する座標CD(x,y)である。第2座標CDDP2(x,y)は、第2のデータ点DPに対応する座標CD(x,y)である。
(i) 第1座標CDDP1(x,y)と第2座標CDDP2(x,y)の間における距離dCが所定距離dCTH未満である
(ii) 飛行時間データTDDP1(x,y)と飛行時間データTDDP2(x,y)の間における差dTが所定差dTTH未満である
所定距離dCTHは、一般的な車両の車幅(2m程度)を基準として設定される閾値である。所定差dTTHは、飛行時間TOFが同程度と認められる閾値である。飛行時間データTDDP1(x,y)は、第1のデータ点DPにおけるZ位置データである。飛行時間データTDDP2(x,y)は、第2のデータ点DPにおけるZ位置データである。条件(i)および(ii)が同時に満たされる場合、基本条件が満たされる。
1.3.2 特殊条件
特殊条件は、基本条件のもとでは関連付けることのできなかった第1のデータ点DPと第2のデータ点DPを関連付けるために使用される条件である。特殊条件は、第1座標CDDP1(x,y)および第2座標CDDP2(x,y)に関する以下の条件(iii)~(v)から構成される。
(iii) 距離dCが所定距離dCTH以上である
(iv) 差dTが所定差dTTH未満である
(v) 座標条件が満たされる
条件(iii)、(iv)および(v)が同時に満たされる場合、特殊条件が満たされる。なお、条件(iv)は条件(ii)と同じである。
条件(v)に示した座標条件は、次の条件(v1)および(v2)から構成される。
(v1) 経路座標CD(x,y)が未検出座標CDBR(x,y)に該当する
(v2) 距離画像DIMGとカラー画像CIMGの位置合わせをした場合において、経路座標CD(x,y)の位置に合致する座標CC(x,y)の画素値IC(x,y)が全て所定の黒色系画素値に該当する
経路座標CD(x,y)は、第1座標CDDP1(x,y)と第2座標CDDP2(x,y)の間の経路上に位置する座標CD(x,y)である。経路座標CD(x,y)の数は少なくとも1つである。“所定の黒色系画素値”としては、黒色系のRBG値が例示される。“黒色系のRBG値”とは、RBG値のそれぞれの値が所定値(例えば、256階調でRGB値が表現される場合、それぞれ50程度)未満であるRGB値を指す。条件(v1)および(v2)が同時に満たされる場合、座標条件は満たされる。カラー画像CIMGがRGB値とは異なる表色系の値(例えば、CMYK値)で表される場合、“所定の黒色系画素値”は、その表色系における黒色系の値を指す。
図4は、条件(v1)を説明する図である。図4には、距離画像DIMGの一部の領域が模式的に描かれている。図4に示す例では、説明の便宜上、座標CD(x,y)を白色、灰色または黒色で表現する。白色または灰色で表現されている座標CD(x,y)(例えば、座標CD(i+2,j+1)および(i+2,j+4))は、データ点DPに対応する。黒色で表現されている座標CD(x,y)(例えば、座標CD(i+2,j+2)および(i+6,j+2))は、未検出座標CDBR(x,y)に該当する。
経路座標CD(x,y)は、第1座標CDDP1(x,y)と第2座標CDDP2(x,y)を結ぶ最短経路SLに基づいて特定される。第1座標CDDP1(x,y)が座標CD(i,j)であり、第2座標CDDP2(x,y)が座標CD(i+2,j)である場合を考える。この場合に特定される最短経路SLは、経路L1である。経路座標CD(x,y)は、座標CD(i+1,j)となる。ここで、座標CD(i+1,j)は、未検出座標CDBR(x,y)に該当する。故に、座標CD(i,j)と座標CD(i+2,j)の組み合わせによれば、条件(v1)が満たされる。
最短経路SLが複数存在する場合もある。この場合は、これらの最短経路SLの何れかで条件(v1)が満たされれば、条件(v1)が満たされる。第1座標CDDP1(x,y)が座標CD(i+2,j+1)であり、第2座標CDDP2(x,y)が座標CD(i+1,j+4)である場合を考える。この場合の最短経路SLは、経路L2またはL3となる。座標CD(i+2,j+4)を含む経路L3は、条件(v1)を満たさない。一方、座標(i+1,j+1)、(i+1,j+2)および(i+1,j+3)は、未検出座標CDBR(x,y)に該当する。したがって、経路L2によれば、条件(v1)が満たされる。故に、座標CD(i+2,j+1)と座標CD(i+1,j+4)の組み合わせによれば、条件(v1)が満たされる。
図5は、条件(v2)を説明する図である。図5には、図3で説明した距離画像DIMGおよびカラー画像CIMGが描かれている。図5には、また、位置合わせ後の距離画像DIMGに、カラー画像CIMGを投影した投影画像PIMGが描かれている。この投影画像PIMGに示すように、未検出領域BR1には、リア部REM2のガラスが投影される。ここで、ガラスの画素値IC(x,y)は、所定の黒色系画素値に該当しない。そのため、経路座標CD(x,y)の位置に合致する座標CC(x,y)の画素値IC(x,y)は、黒色系以外のRBG値となる。故に、この場合は、条件(v2)が満たされない。
未検出領域BR2には、リア部REM2の尾灯TLおよびボディ塗装面が投影される。ここで、尾灯TLの画素値IC(x,y)は、所定の黒色系画素値に該当しない。そのため、尾灯TLに対応する経路座標CD(x,y)の位置に合致する座標CC(x,y)の画素値IC(x,y)は、条件(v2)を満たさない。一方、ボディ塗装面の画素値IC(x,y)は、所定の黒色系画素値に該当する。よって、ボディ塗装面に対応する経路座標CD(x,y)の位置に合致する座標CC(x,y)の画素値IC(x,y)によれば、条件(v2)が満たされる。
未検出領域BR3には、ボディ塗装面が投影される。よって、未検出領域BR2に投影されたボディ塗装面と同様の結論が得られる。
1.4 効果
上述した特徴によれば、基本条件と特殊条件の組み合わせに基づいたクラスタリング処理が行われる。特に、特殊条件によれば、第1のデータ点DPと第2のデータ点DPの間に未検出座標CDBR(x,y)が存在する場合であっても、これらのデータ点DPおよびDPを関連付けることが可能となる。そのため、これらのデータ点DPおよびDPがクラスタリング処理において同一のクラスタにグループ化され易くなる。したがって、低反射物体の誤認を抑えることが可能となる。
1.5 物体認識装置の構成例
図6は、実施の形態1に係る物体認識装置1の構成例を示すブロック図である。図6に示すように、物体認識装置1は、カラー画像取得部10と、距離画像取得部20と、処理装置30と、を備えている。
カラー画像取得部10は、カラー画像CIMGを取得する。カラー画像取得部10は、例えば、カメラまたは画像センサである。カラー画像取得部10は、カメラまたは画像センサから分離された画像処理装置でもよい。カラー画像取得部10は、カラー画像CIMGを処理装置30に送信する。
距離画像取得部20は、距離画像DIMGを取得する。距離画像取得部20は、例えば、図1に示したライダーLDである。距離画像取得部20は、ライダーLDから分離された画像処理装置でもよい。距離画像取得部20は、距離画像DIMGを処理装置30に送信する。
処理装置30は、図1に示した処理装置PUである。典型的に、処理装置30は、プロセッサ、メモリおよび入出力インタフェースを備えるマイクロコンピュータである。処理装置30は、入出力インタフェースを介して各種情報を受け取る。そして、処理装置30は、受け取った情報に基づいて物体認識処理を行う。
処理装置30は、物体認識処理を行うための機能として、位置合わせ部31と、特異座標特定部32と、クラスタリング部33と、を備えている。図6に示したこれらの機能ブロックは、処理装置30のプロセッサがメモリに格納された制御プログラムを実行することにより実現される。
位置合わせ部31は、カラー画像CIMGと距離画像DIMGの位置合わせを行う。位置合わせは、例えば、次の情報(i)~(iii)を用いて高精度に行われる。
(i) カメラ(または画像センサ)とライダーLDのキャリブレーションパラメータ
(ii) カラー画像CIMGの取得時刻tCIMGと距離画像DIMGの取得時刻tDIMG
(iii) 取得時刻tCIMGにおけるカメラ(または画像センサ)の位置、および、取得時刻tDIMGにおけるライダーLDの位置
特異座標特定部32は、位置合わせ後の距離画像DIMGに、カラー画像CIMGを投影する。特異座標特定部32は、カラー画像CIMGが投影された距離画像DIMG(すなわち、投影画像PIMG)上で特異座標CPPE(x,y)を特定する。特異座標CPPE(x,y)は、次の(i)および(ii)の条件を満たす投影画像PIMG上の座標CP(x,y)である。
(i) 距離画像DIMG上では未検出座標CDBR(x,y)に該当する
(ii) カラー画像CIMG上では画素値IC(x,y)が所定の黒色系画素値である
特異座標特定部32は、特異座標CPPE(x,y)が特定された場合、特異座標CPPE(x,y)をクラスタリング部33に送信する。
クラスタリング部33は、クラスタリング処理を行う。クラスタリング処理では、少なくとも2つのデータ点DPを関連付ける処理が行われる。この関連付け処理では、距離画像DIMG上の第1のデータ点DPおよび第2のデータ点DPについて、基本または特殊条件が満たされるか否かが判定される。なお、特殊条件を構成する座標条件の判定については、特異座標CPPE(x,y)と経路座標CD(x,y)とに基づいて行われる。特異座標CPPE(x,y)が経路座標CD(x,y)に該当する場合、座標条件が満たされる。基本または特殊条件が満たされる場合、第1のデータ点DPおよび第2のデータ点DPが関連付けられる。
1.6 具体的処理
図7は、処理装置30において実行される処理の一例を説明するフローチャートである。この図に示すルーチンは、所定の制御周期で繰り返し実行される。
まず、ステップS11では、カラー画像CIMGが取得される。続いて、ステップS12では、距離画像DIMGが取得される。続いて、ステップS13では、距離画像DIMGにカラー画像CIMGが投影される。カラー画像CIMGの投影の前には、カラー画像CIMGと距離画像DIMGの位置合わせが行われる。
ステップS14では、基本条件が満たされるか否かが判定される。ステップS15では、特殊条件が満たされるか否かが判定される。ステップS14またはS15の判定結果が肯定的な場合、ステップS16において、これらのデータ点が関連付けられる。ステップS14およびS15の判定結果が共に否定的な場合、ステップS17において、これらのデータ点は関連付けされない。基本または特殊条件の判定対象は、距離画像DIMG上の全てのデータ点DPである。つまり、全てのデータ点DPの判定結果が得られるまで、ステップS14~S17の判定処理が繰り返し行われる。
2.実施の形態2
次に、図8乃至10を参照しながら実施の形態2について説明する。なお、上記実施の形態1の説明と重複する説明については適宜省略される。
2.1 実施の形態2に係る物体認識処理の特徴
実施の形態2係る物体認識処理は、補間処理を含んでいる。補間処理は、未検出座標CDBR(x,y)における未検出のZ位置データを補間する処理である。補間処理は、クラスタリング処理を行う前に行われる。補間処理では、また、採用条件に基づいて、未検出座標CDBR(x,y)における未検出のZ位置データが補間された距離画像DIMGを採用するか否かが判定される。
以下、説明の便宜上、未検出座標CDBR(x,y)における未検出のZ位置データを、“未検出データ”と称す。また、未検出データを補間するためのZ位置データを、“補間用データ”と称す。また、未検出データが補間された三次元位置データにより表現される距離画像DIMGを“補間画像IIMG”と称す。また、未検出データが補間された後の未検出座標CDBR(x,y)を“補間座標CDIN(x,y)”と称す。また、また、補間座標CDIN(x,y)に対応するデータ点DPを、“補間データ点DPI”と称す。
未検出データの補間手法について説明する。第1の例では、未検出座標CDBR(x,y)に隣接する座標CD(x,y)のZ位置データが、補間用データに該当する。“未検出座標CDBR(x,y)に隣接する座標CD(x,y)”には、データ点DPに対応する座標CD(x,y)だけでなく、補間座標CDIN(x,y)も含まれる。第1の例によれば、全ての未検出座標CDBR(x,y)が補間座標CDIN(x,y)に置き換わる可能性がある。なお、このような補間手法は周知である。
第2の例について、図8を参照して説明する。図8には、補間前後の距離画像DIMGが描かれている。補間前の距離画像DIMGは、図3に示した距離画像DIMGと同じである。第2の例では、未検出領域BRのy軸負方向(すなわち、縦軸負方向)において、データ点DPの探索が行われる。そして、最初に発見されたデータ点DPにおけるZ位置データによって未検出データが補間される。“最初に発見されたデータ点DP”とは、y軸負方向において未検出領域BRからの距離が最も短いデータ点DPである。このように、第2の例では、最初に発見されたデータ点DPにおけるZ位置データが、補間用データに該当する。
図8に示す例では、未検出領域BR1の全ての未検出データが、データ点DPにおけるZ位置データ(z1)によって補間される。未検出領域BR2の全ての未検出データは、データ点DPにおけるZ位置データ(z2)によって補間される。未検出領域BR3の全ての未検出データは、データ点DPにおけるZ位置データ(z3)によって補間される。
データ点DP(z1)は、実際には、車両M2の真下の路面RSにおけるZ位置データである。そのため、この場合は、Z位置データの精度が担保された補間データ点DPIが得られる。一方、データ点DP(z2)およびDP(z3)は、実際には、ボディ塗装面におけるZ位置データである。そのため、この場合は、未検出領域BR2(または未検出領域BR3)の周囲のデータ点DPと、補間データ点DPIとの関連付けが容易になる。
補間処理では、更に、補間用データを補間画像IIMGに採用するか否かが判定される。この判定は、次の採用条件に基づいて行われる。
採用条件:距離画像DIMGとカラー画像CIMGの位置合わせをした場合において、補間座標CDIN(x,y)の位置に合致する画素値IC(x,y)が所定の黒色系画素値に該当する
採用条件が満たされる場合、補間用データが補間画像IIMGに採用される。そうでない場合、補間用データは破棄される。
2.2 効果
上述した特徴によれば、補間処理によって未検出データが補間される。したがって、補間処理の後に行われるクラスタリング処理における計算負荷を減らすことが可能となる。また、補間手法の第2の例によれば、車両M2の真下の路面RSのZ位置データに辿り着くことが可能となる。そのため、Z位置データの精度が担保された補間データ点DPIによって、クラスタリング処理の精度を向上することが可能となる。
2.3 物体認識装置の構成例
図9は、実施の形態2に係る物体認識装置2の構成例を示すブロック図である。図9に示すように、物体認識装置2は、カラー画像取得部10と、距離画像取得部20と、処理装置40と、を備えている。
処理装置40のハード構成は、図6で説明した処理装置30のそれと同じである。処理装置40が備える物体認識処理を行うための機能も、処理装置30のそれと同じである。処理装置40は、補間処理を行うための構成として、未検出データ補間部41を備えている。図9に示したこれらの機能ブロックは、処理装置40のプロセッサがメモリに格納された制御プログラムを実行することにより実現される。
未検出データ補間部41は、補間処理を行う。補間処理では、上述した補間手法によって未検出データが補間される。補間処理では、また、補間用データを補間画像IIMGに採用するか否かが判定される。この判定は、特異座標CPPE(x,y)と、採用条件とに基づいて行われる。特異座標CPPE(x,y)が特異座標特定部32によって特定されることは既に説明したとおりである。補間座標CDIN(x,y)が特異座標CPPE(x,y)に該当する場合、採用条件が満たされる。
2.4 具体的処理
図10は、処理装置40において実行される補間処理の一例を説明するフローチャートである。この図に示すルーチンは、所定の制御周期で繰り返し実行される。
ステップS21およびS22の処理は、図7で説明したステップS11およびS12の処理と同じである。ステップS23では、未検出データが補間される。補間手法については上述したとおりである。ステップS24の処理は、図7で説明したステップS13の処理と同じである。
ステップS25では、採用条件が満たされるか否かが判定される。ステップS25の判定結果が肯定的な場合、ステップS26において、補間用データが補間画像IIMGに採用される。ステップS25の判定結果が否定的な場合、ステップS27において、補間用データが破棄される。採用条件の判定対象は、補間画像IIMG上の全ての補間データ点DPIである。つまり、全ての補間データ点DPIの判定結果が得られるまで、ステップS25~S27の判定処理が繰り返し行われる。
3.実施の形態3
次に、図11および12を参照しながら実施の形態3について説明する。なお、上記実施の形態1または2の説明と重複する説明については適宜省略される。
3.1 実施の形態3に係る物体認識処理の特徴
上記実施の形態2に係る物体認識処理同様、実施の形態3係る物体認識処理は、補間処理を含んでいる。ただし、実施の形態3に係る補間処理では、車両M1の位置情報および地形情報に基づいて、車両M2の真下の路面RSに相当する座標CD(x,y)のZ位置データが特定される。つまり、実施の形態3の補間処理は、補間手法において上記実施の形態2のそれと異なる。
以下、説明の便宜上、路面RSに相当する座標CD(x,y)を、“路面座標CDRS(x,y)”と称す。
実施の形態3に係る補間処理について、図11を参照して説明する。図11には、補間前後の距離画像DIMGが描かれている。補間前の距離画像DIMGは、図3に示した距離画像DIMGと同じである。図11に示す例では、未検出領域BRのy軸負方向において、路面RSに対応するデータ点DPに辿り着くまでデータ点DPの探索が行われる。“路面RSに対応するデータ点DP”とは、y軸負方向において未検出領域BRからの距離が最も短いデータ点DPである。そして、路面RSに対応するデータ点DPにおけるZ位置データによって未検出データが補間される。このように、実施の形態3では、路面RSに対応するデータ点DPにおけるZ位置データが、補間用データに該当する。
図11に示す例では、路面RSに対応するデータ点DPのZ位置データはz4である。よって、この例では、未検出領域BR1~3の全ての未検出データが、同一のZ位置データ(z4)によって補間される。
3.2 効果
上述した特徴によれば、上記実施の形態2の特徴と同様の効果が得られる。すなわち、補間処理の後に行われるクラスタリング処理における計算負荷を減らすことが可能となる。また、車両M2の真下の路面RSのZ位置データに基づいた補間が行われるので、Z位置データの精度が担保された補間データ点DPによって、クラスタリング処理の精度を向上することが可能となる。
3.3 物体認識装置の構成例
図12は、実施の形態3に係る物体認識装置3の構成例を示すブロック図である。図12に示すように、物体認識装置3は、カラー画像取得部10と、距離画像取得部20と、位置情報取得部50と、データベース60と、処理装置70とを備えている。
位置情報取得部50は、車両M1の位置情報を取得する。位置情報取得部50は、例えば、GNSS(Global Navigation Satellite System)受信器である。位置情報取得部50は、3個以上の人工衛星からの信号を受信する。位置情報取得部50は、受信した信号に基づいて、車両M1の位置情報を算出する。位置情報取得部50は、位置情報を処理装置70に送信する。
データベース60は、地形情報が格納されたデータベースである。地形情報は、地形(terrain)に関する地図情報である。地形情報は、地図上の位置[X,Y]における路面RSの高度Zの情報を含んでいる。
処理装置70のハード構成は、図6で説明した処理装置30のそれと同じである。処理装置70が備える物体認識処理を行うための機能も、処理装置30のそれと同じである。処理装置70は、補間処理を行うための構成として、未検出データ補間部71を備えている。図12に示したこれらの機能ブロックは、処理装置70のプロセッサがメモリに格納された制御プログラムを実行することにより実現される。
未検出データ補間部71は、補間処理を行う。未検出データ補間部71が行う補間処理の内容は、図9で説明した未検出データ補間部41のそれと基本的に同じである。すなわち、補間処理では、上述した補間手法によって未検出データが補間される。補間処理では、また、Z位置データ(zRS)を補間画像IIMGに採用するか否かが判定される。
1,2,3 物体認識装置
10 カラー画像取得部
20 距離画像取得部
30,40,70 処理装置
31 位置合わせ部
32 特異座標特定部
33 クラスタリング部
41,71 未検出データ補間部
BR 未検出領域
CIMG カラー画像
DIMG 距離画像
DP データ点
LD ライダー
M1,M2 車両

Claims (4)

  1. 車両の周囲にレーザ光を照射し、前記周囲で反射したレーザ光を検出するライダーと、
    前記ライダーの検出点群のクラスタリング処理を、前記レーザ光の飛行時間データを含む各検出点の三次元位置データに基づいて行う処理装置と、
    を備える物体認識装置であって、
    前記周囲のカラー画像を取得するカラー画像取得部を更に備え、
    前記処理装置は、前記クラスタリング処理において、前記三次元位置データにより表現される距離画像上の第1および第2座標においてリンク条件が満たされる場合、前記第1座標に対応する第1検出点と、前記第2座標に対応する第2検出点とを関連付け、
    前記リンク条件は、前記第1および第2座標の間における距離が所定距離以上であり、前記第1および第2検出点の間における前記飛行時間データの差が所定差未満であり、かつ、座標条件が満たされる場合に満たされ、
    前記座標条件は、前記第1および第2座標の間の経路上に位置する座標を示す経路座標が前記飛行時間データの計算が行われなかった未検出座標に該当し、かつ、前記経路座標の位置に合致する前記カラー画像上の座標の画素値を示すカラー画素値が全て所定の黒色系画素値に該当する場合に満たされる
    ことを特徴とする物体認識装置。
  2. 前記処理装置は、前記クラスタリング処理を行う前に、前記未検出座標における飛行時間データを補間する補間処理を行い、
    前記処理装置は、前記補間処理において、採用条件が満たされる場合、補間用データを前記未検出座標における飛行時間データとして採用し、
    前記採用条件は、補間後の前記未検出座標の位置に合致する前記カラー画素値が前記所定の黒色系画素値に該当する場合に満たされる
    ことを特徴とする請求項1に記載の物体認識装置。
  3. 前記補間用データが、前記距離画像の縦軸負方向において前記未検出座標からの距離が最も短い座標における前記飛行時間データである
    ことを特徴とする請求項2に記載の物体認識装置。
  4. 前記車両の位置情報を取得する位置情報取得部と、
    地形情報が格納されたデータベースと、
    を更に備え、
    前記処理装置は、前記補間処理において、前記位置情報および前記地形情報に基づいて、前記距離画像上の座標のうちから路面に相当する座標を示す路面座標を特定し、
    前記補間用データが、前記距離画像の縦軸負方向において前記未検出座標からの距離が最も短い前記路面座標における前記飛行時間データである
    ことを特徴とする請求項2に記載の物体認識装置。
JP2019152224A 2019-08-22 2019-08-22 物体認識装置 Active JP7120181B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019152224A JP7120181B2 (ja) 2019-08-22 2019-08-22 物体認識装置
US16/993,664 US11538252B2 (en) 2019-08-22 2020-08-14 Object recognition device
DE102020121836.2A DE102020121836A1 (de) 2019-08-22 2020-08-20 Objekterkennungseinrichtung
CN202010850390.7A CN112485807B (zh) 2019-08-22 2020-08-21 物体识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019152224A JP7120181B2 (ja) 2019-08-22 2019-08-22 物体認識装置

Publications (2)

Publication Number Publication Date
JP2021032660A JP2021032660A (ja) 2021-03-01
JP7120181B2 true JP7120181B2 (ja) 2022-08-17

Family

ID=74495941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019152224A Active JP7120181B2 (ja) 2019-08-22 2019-08-22 物体認識装置

Country Status (4)

Country Link
US (1) US11538252B2 (ja)
JP (1) JP7120181B2 (ja)
CN (1) CN112485807B (ja)
DE (1) DE102020121836A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (ja) 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置
JP2001209796A (ja) 2000-01-26 2001-08-03 Minolta Co Ltd 画像処理装置、領域抽出方法および記録媒体
JP2001227926A (ja) 2000-02-18 2001-08-24 Meidensha Corp 物体の三次元形状モデル作製方法及びそれを実施するソフトウェアを記録した媒体並びにこの方法を実現するための物体の三次元形状モデル作製装置
WO2015097824A1 (ja) 2013-12-26 2015-07-02 株式会社日立製作所 物体認識装置
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2019045303A (ja) 2017-09-01 2019-03-22 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、撮像制御プログラムおよび撮像制御プログラムを記録した記録媒体
US20190219697A1 (en) 2018-01-12 2019-07-18 Ford Global Technologies, Llc Lidar localization

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5664252B2 (ja) 2011-01-12 2015-02-04 トヨタ自動車株式会社 歩行者検出装置
JP2013101045A (ja) * 2011-11-08 2013-05-23 Fanuc Ltd 物品の3次元位置姿勢の認識装置及び認識方法
JP6042674B2 (ja) * 2012-09-20 2016-12-14 スタンレー電気株式会社 三次元情報取得機能付き画像投影装置
WO2016135856A1 (ja) * 2015-02-24 2016-09-01 株式会社日立製作所 3次元形状計測システムおよびその計測方法
US9638791B2 (en) * 2015-06-25 2017-05-02 Qualcomm Incorporated Methods and apparatus for performing exposure estimation using a time-of-flight sensor
CN106227212B (zh) * 2016-08-12 2019-02-22 天津大学 基于栅格地图和动态校准的精度可控室内导航***及方法
JP6911312B2 (ja) 2016-09-23 2021-07-28 トヨタ自動車株式会社 物体識別装置
US10630913B2 (en) * 2017-04-27 2020-04-21 Aptiv Technologies Limited Lidar and camera data fusion for automated vehicle
JP6911739B2 (ja) * 2017-12-13 2021-07-28 トヨタ自動車株式会社 運転支援装置
US11662433B2 (en) * 2017-12-22 2023-05-30 Denso Corporation Distance measuring apparatus, recognizing apparatus, and distance measuring method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000230809A (ja) 1998-12-09 2000-08-22 Matsushita Electric Ind Co Ltd 距離データの補間方法,カラー画像階層化方法およびカラー画像階層化装置
JP2001209796A (ja) 2000-01-26 2001-08-03 Minolta Co Ltd 画像処理装置、領域抽出方法および記録媒体
JP2001227926A (ja) 2000-02-18 2001-08-24 Meidensha Corp 物体の三次元形状モデル作製方法及びそれを実施するソフトウェアを記録した媒体並びにこの方法を実現するための物体の三次元形状モデル作製装置
WO2015097824A1 (ja) 2013-12-26 2015-07-02 株式会社日立製作所 物体認識装置
JP2019028861A (ja) 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
JP2019045303A (ja) 2017-09-01 2019-03-22 パナソニックIpマネジメント株式会社 撮像制御装置、撮像制御方法、撮像制御プログラムおよび撮像制御プログラムを記録した記録媒体
US20190219697A1 (en) 2018-01-12 2019-07-18 Ford Global Technologies, Llc Lidar localization

Also Published As

Publication number Publication date
CN112485807B (zh) 2024-03-15
JP2021032660A (ja) 2021-03-01
US20210056319A1 (en) 2021-02-25
CN112485807A (zh) 2021-03-12
DE102020121836A1 (de) 2021-02-25
US11538252B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
US11823460B2 (en) Image fusion for autonomous vehicle operation
US10430641B2 (en) Methods and systems for object tracking using bounding boxes
US10318822B2 (en) Object tracking
US20150073705A1 (en) Vehicle environment recognition apparatus
US9779315B2 (en) Traffic signal recognition apparatus and traffic signal recognition method
US10679077B2 (en) Road marking recognition device
US20180347991A1 (en) Method, device, map management apparatus, and system for precision-locating a motor vehicle in an environment
CN111507130A (zh) 车道级定位方法及***、计算机设备、车辆、存储介质
JP4761156B2 (ja) 地物位置認識装置及び地物位置認識方法
JP2020086545A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
US20220334258A1 (en) Apparatus for assisting driving of vehicle and method thereof
JP2017207920A (ja) 逆走車検出装置、逆走車検出方法
US20210190509A1 (en) Position estimating apparatus and position estimating method
JP7503164B2 (ja) 地図情報作成方法
US11017274B2 (en) Information processing system and information processing method
US11861914B2 (en) Object recognition method and object recognition device
JP7120181B2 (ja) 物体認識装置
US11595587B2 (en) Vehicle surroundings object detection in low light conditions
US20240078749A1 (en) Method and apparatus for modeling object, storage medium, and vehicle control method
JP2013101040A (ja) 距離推定装置
JP6834920B2 (ja) 物標判別装置
US20230105739A1 (en) Own position inferring device
US20220300744A1 (en) Information processing device and information processing method
JP2021170029A (ja) 測定装置、測定方法およびプログラム
WO2023126142A1 (en) Method and apparatus for generating ground truth for other road participant

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7120181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151