JP7095640B2 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
JP7095640B2
JP7095640B2 JP2019063664A JP2019063664A JP7095640B2 JP 7095640 B2 JP7095640 B2 JP 7095640B2 JP 2019063664 A JP2019063664 A JP 2019063664A JP 2019063664 A JP2019063664 A JP 2019063664A JP 7095640 B2 JP7095640 B2 JP 7095640B2
Authority
JP
Japan
Prior art keywords
information
pixel
light
detection device
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019063664A
Other languages
English (en)
Other versions
JP2020165679A (ja
Inventor
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019063664A priority Critical patent/JP7095640B2/ja
Priority to PCT/JP2020/013001 priority patent/WO2020196513A1/ja
Priority to CN202080025799.3A priority patent/CN113646804A/zh
Publication of JP2020165679A publication Critical patent/JP2020165679A/ja
Priority to US17/486,224 priority patent/US11961306B2/en
Application granted granted Critical
Publication of JP7095640B2 publication Critical patent/JP7095640B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Description

本開示は、物体検出装置に関する。
近年、車両の衝突回避や運転支援のため、車両に撮像カメラ、ミリ波レーダ、レーザレーダ(LIDAR:Light Detection and Rangingとも呼ばれる)等のセンサが搭載され、かかるセンサの検出結果に基づき、車両制御、例えば、エンジンの燃焼制御、操舵制御、制動制御等を行う技術が提案されている。特許文献1には、車両に搭載されているステレオカメラと、ミリ波レーダと、レーザレーダの合計3つのセンサから得られる検出信号に基づき、それぞれ立体物の存在確率を算出し、得られた3つの存在確率を組み合わせて、いわゆるセンサフュージョンにより立体物の総合存在確率を求める技術が提案されている。
特開2007-310741号公報
特許文献1のように、複数のセンサにより得られる情報を組み合わせて物体を検出する技術では、各センサの設置位置のずれや検出タイミングのずれ等に起因して物体の誤検出、例えば、物体の有無、大きさ、位置などを誤って検出するおそれがある。例えば、撮像カメラの搭載位置からは前方の車両の陰に居る人物を特定できるが、レーザレーダの搭載位置からはかかる人物にレーザを照射できないために人物を検出できず、算出される総合存在確率が、実際には人物が存在するにも関わらずに非常に小さな値になるおそれがある。また、例えば、各センサの検出可能領域が互いに異なるために、それぞれの検出可能領域が重複しない領域に関しては、物体の検出精度が低くなってしまう。このような問題は、ステレオカメラ、ミリ波レーダ、およびレーザレーダに限らず、複数種類の情報を取得可能なセンサをそれぞれ搭載する場合において共通する。このため、複数種類の情報を利用して物体を検出する際の検出精度の低下を抑制可能な技術が望まれる。
本開示は、以下の形態として実現することが可能である。
本開示の一形態として、物体を検出する物体検出装置(50)が提供される。この物体検出装置は、照射光(Lz)を照射する照射部(100)と、照射された前記照射光の反射光を含む光を受光可能な複数の受光要素(201)が面状に配列された受光面(S1)を有し、前記受光面における予め定められている画素範囲内の前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光信号を出力する受光部(200)と、を有し、前記受光信号に基づき、各画素における前記反射光の受光強度を示す第1情報と、各画素における前記反射光を除く他の光である背景光の受光強度を示す第2情報と、各画素における前記物体までの距離を示す第3情報と、を各画素の画素値として取得する単一のセンサ装置(10)と、各画素の前記画素値を利用して物体を検出する検出部(30)と、を備え、前記検出部は、取得された各画素の前記画素値に含まれる前記第1ないし前記第3情報をすべて利用して、前記物体を検出し、前記検出部は、前記第1ないし前記第3情報と、前記物体が存在する場合の前記第1ないし前記第3情報のモデルであるモデル情報(331-333)と、を対照することにより、前記物体を検出し、前記検出部は、前記第1情報と、前記第1情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第1尤度を求め、前記第2情報と、前記第2情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第2尤度を求め、前記第3情報と、前記第3情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第3尤度を求め、画素ごとに、前記第1ないし前記第3尤度に対してそれぞれ重み付けをして積算して総合尤度を求め、得られた前記総合尤度を利用して、前記物体を検出する
上記形態の測距装置によれば、物体の検出に用いられる第1ないし第3情報は、いずれも単一のセンサ装置により取得されるので、これらの情報のうちの少なくとも一部をそれぞれ異なる複数のセンサ装置により取得する構成に比べて、物体検出精度の低下を抑制できる。具体的には、第1ないし第3情報が単一のセンサ装置により取得されるので、第1ないし第3情報を取得するための各種パラメータ、例えば、センサ装置の設置位置、照射光の照射範囲、検出タイミングを一致させることができ、センサ装置の設置位置のずれや検出タイミングのずれ等に起因する物体の誤検出を抑制できる。
本開示は、物体検出装置以外の種々の形態で実現することも可能である。例えば、物体検出装置を備える車両、物体検出方法、これらの装置および方法を実現するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体等の形態で実現することができる。
本開示の一実施形態としての物体検出装置を搭載した車両の概略構成を示す説明図である。 物体検出装置の機能的構成を示すブロック図である。 第1実施形態における物体検出処理の手順を示すフローチャートである。 対応付け処理の手順を示すフローチャートである。 LIDARにより取得された測距点を表す画像を示す説明図である。 クラスタリングにより取得されたクラスタリング結果を表す画像を示す説明図である。 対応付け処理の実行結果の一例を示す説明図である。 第2実施形態における検出部の機能的構成を示すブロック図である。 第2実施形態における物体検出処理の手順を示すフローチャートである。 第2実施形態における重み付け設定処理の手順を示すフローチャートである。 第3実施形態における物体検出処理の手順を示すフローチャートである。 第4実施形態における閾値設定処理の手順を示すフローチャートである。
A.第1実施形態:
A1.装置構成:
図1に示すように、本実施形態の物体検出装置50は、車両500に搭載され、車両500の前方の周囲に存在する物体、例えば、他の車両や歩行者や建物等を検出する。物体検出装置50は、照射光Lzを照射して、対象物からの反射光を受光する。図1では、照射光Lzの射出中心位置を原点とし、車両500の前方方向をY軸とし、原点を通り車両500の幅方向左から右の方向をX軸とし、原点を通り鉛直上方をZ軸として表わしている。図1に示すように、照射光Lzは、Z軸方向に縦長の光であり、1回の照射により、縦長の所定範囲Arに照射される。また、照射光Lzは、X-Y平面と平行な方向の一次元走査により所定の測定範囲全体に照射される。物体検出装置50は、対象物からの照射光Lzの反射光に加えて、反射光以外の光、例えば、日光、街灯の光、他車両の前照灯など(以下、「背景光」と呼ぶ)を受光する。物体検出装置50は、受光した光の強度に関連する情報を利用して背景光の強度を特定し、かかる強度に基づき判定用閾値を設定する。物体検出装置50は、受光した光のうち設定された判定用閾値以上の強度の光を対象物からの反射光として特定し、照射光Lzを照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOF(Time of Flight)を特定する。物体検出装置50は、かかる飛行時間TOFを、車両500と対象物との間を光が往復する時間であるものとして、対象物までの距離を算出する。
図2に示すように、物体検出装置50は、センサ装置10と、検出部30と、制御部40とを備える。センサ装置10は、照射光Lzを照射し、照射光Lzの反射光の受光強度を各画素の画素値とする反射強度画像と、物体までの距離を各画素の画素値とする距離画像と、背景光の受光強度を各画素の画素値とする背景光画像とを取得し、これら3つの画像の各画素の画素値を利用して、物体を検出する。
センサ装置10は、照射部100と、受光部200とを備える。照射部100は、レーザ光源101と、走査部102とを備える。レーザ光源101は半導体レーザダイオードにより構成されており、制御部40の制御下において、パルスレーザ光を照射光Lzとして所定周期ごとに照射する。例えば、所定周期は、照射光Lzが照射されて所定範囲内の対象物からの反射光がセンサ装置10において受光されるまでに要する期間以上の期間として予め実験等により求めて設定されている。なお、レーザ光源101から射出された照射光Lzは、図示しない光学系により図1に示すような縦長の照射光Lzに形成される。走査部102は、回転軸103を中心にミラー104を回動させることによって照射光Lzの一次元走査を所定の測定範囲の全体に亘って行う。ミラー104は、例えば、MEMSミラーによって構成される。ミラー104の回動は、制御部40によって制御される。走査部102によって照射光Lzの一次元走査が行われることにより、照射部100は、車両500前方の検出範囲に対して照射光Lzを照射する方位を変更しながら照射光Lzを照射する。なお、レーザ光源101として、レーザダイオード素子に代えて、固体レーザ等の他の任意の種類のレーザ光源を用いてもよい。また、照射光Lzは、横長でも良く、走査は二次元走査でも良い。
照射部100により照射された照射光Lzは、測定範囲内の対象物OBにより反射される。対象物OBにより反射された反射光は、受光部200により受光される。本実施形態では、受光部200は、受光面S1における反射光の大きさが、受光面S1の大きさよりも小さくなるように構成された図示しない光学系を通じて反射光を受光する。なお、反射光は、その一部(例えば、長手方向の端部)が、受光面S1からはみ出すように受光部200によって受光されてもよい。
受光部200は、二次元配列状に受光面S1を形成する複数の画素Gと、複数のMP用加算器211、212、213、214、・・・と、画素用加算器220と、ヒストグラム生成部230と、反射強度画像取得部240と、背景光画像取得部250と、距離画像取得部260と、閾値決定部270とを備える。
複数の画素Gのうち、図1では、図示の便宜上1つの画素Gのみ記載している。本実施形態では、各画素Gは、縦2個×横2個の計4個のマクロピクセルMP1~MP4を備える。各マクロピクセルMP1~MP4は、縦5個×横5個の計25個の受光要素201を有する。したがって、図1の例では、各画素Gは、縦10個×横10個の計100個の受光要素201を備える。本実施形態において、受光要素201は、SPAD(シングルフォトンアバランシェダイオード)を備える。SPADは、光(フォトン)を入力すると、一定の確率で、光の入射を示すパルス状の出力信号(以下、「受光信号」とも呼ぶ)を出力する。したがって、図1の例では、各マクロピクセルMP1~MP4は、それぞれ受光した光の強度に応じて0~25個の受光信号を出力する。また、画素G全体として、受光した光の強度に応じて0~100個の受光信号を出力する。
複数のMP用加算器のうち、図1では、1つの画素Gに接続される4つのMP用加算器211~214のみ記載している。MP用加算器211は、マクロピクセルMP1を構成する各受光要素201に接続されており、マクロピクセルMP1内の受光要素201から出力される受光信号の数を加算する。同様に、他のMP用加算器212~214は、マクロピクセルMP2~MP4を構成する各受光要素201に接続されており、マクロピクセルMP2~MP4内の受光要素201から出力される受光信号の数(以下、「受光数」とも呼ぶ)を、それぞれ加算する。なお、図1では図示されていない他の画素Gについても同様に、4つのマクロピクセルに対応する4つのMP用加算器を備える。
画素用加算器220は、1つの画素Gの受光数、すなわち1つの画素に含まれる受光要素201から出力される受光数を加算する。具体的には、画素用加算器220は、4つのMP用加算器211~214に接続されており、各MP用加算器211~214から、加算結果、すなわち各マクロピクセルMP1~MP4内の受光数の合算値を入力して、これらを合算する。なお、画素用加算器220は、各画素Gに対して設けられているが、図2では、1つの画素Gに対応する画素用加算器220のみを表している。
ヒストグラム生成部230は、画素用加算器220により得られた各画素の受光数の合計値を、所定の単位時間毎に記録したヒストグラムを生成して記憶する。
反射強度画像取得部240は、反射強度画像を取得する。反射強度画像とは、照射光Lzを照射した領域、すなわち、図1に示す所定範囲Arから受光した光の各画素における強度(以下、「反射強度」と呼ぶ)を画素値とする画像を意味する。反射強度画像取得部240は、ヒストグラム生成部230により生成されたヒストグラムから各画素の反射強度に相当する受光数を取得して、各画素の画素値とする。このとき、反射強度画像取得部240は、制御部40からどの方位の所定範囲Arに照射光Lzを照射したかを示す情報を取得し、かかる情報に基づき、ヒストグラムから取得すべき反射強度(受光数)を特定する。したがって、反射強度画像は、照射部100が1回の走査を行う周期ごとに取得される。上述の走査が行われる周期はフレーム期間とも呼ばれ、取得された画像は反射強度のフレーム画像とも呼ばれる。反射強度画像取得部240は、反射強度画像記憶部241を備え、取得した反射強度画像(フレーム画像)を反射強度画像記憶部241に記憶する。上述の「反射強度」とは、本実施形態においては、ヒストグラムのピーク時の受光数を意味する。なお、反射強度画像は、本開示における第1情報の下位概念に相当する。
背景光画像取得部250は、背景光画像を取得する。背景光画像とは、各画素Gにおける背景光の受光強度を示す画像を意味する。背景光画像取得部250は、ヒストグラム生成部230により生成されたヒストグラムから各画素の背景光に相当する受光数を取得して、各画素の画素値とする。このとき、背景光画像取得部250は、制御部40からどの方位の所定範囲Arに照射光Lzを照射したかを示す情報を取得し、かかる情報に基づき、対象物OBから反射光を受けるであろう方位に対応する画素を除くその他の画素の受光数を、背景光に相当する受光数として特定する。背景光画像も上述のフレーム期間ごとに生成される。したがって、背景光画像の各画素の画素値となる受光数は、フレーム期間のうち、かかる画素に照射光Lzに対する対象物OBからの反射光が照射されていない期間の受光数の合計値に相当する。換言すると、太陽光や街灯等の外乱光のみが対象物OBに反射した光が画素に受光した際の受光数である。なお、取得された背景光画像は、背景光のフレーム画像とも呼ばれる。背景光画像取得部250は、背景光画像記憶部251を備え、取得した背景光画像(フレーム画像)を、背景光画像記憶部251に記憶する。なお、背景光画像は、本開示における第2情報の下位概念に相当する。
距離画像取得部260は、距離画像を取得する。距離画像とは、各画素Gに対応する方位における物体までの距離を示す画像を意味する。距離画像取得部260は、ピーク検出部261と、距離演算部262と、距離画像記憶部263とを備える。ピーク検出部261は、ヒストグラム生成部230により生成されたヒストグラムから各画素のフレーム期間内におけるピークを検出する。具体的には、閾値決定部270により決定された判定用閾値を利用して、各画素の各フレーム期間において、かかる判定用閾値以上となる時刻が存在するか否かを特定し、存在する場合にピークが存在すると特定する。判定用閾値の詳細については、後述する。距離演算部262は、フレーム期間の開始時刻とピーク検出部261により検出されたピークの時刻との間の時間を、光の飛行時間TOF(Time of Flight)を特定し、かかる飛行時間TOFを、車両500と対象物OBとの間を光が往復する時間であるものとして、対象物OBまでの距離を算出する。そして、各画素について算出された対象物OBまでの距離を画素値として距離画像が取得され、距離画像記憶部263に記憶される。なお、距離画像は、フレーム期間ごとに取得され、距離のフレーム画像とも呼ばれる。また、距離画像は、本開示における第3情報の下位概念に相当する。
閾値決定部270は、背景光画像取得部250により取得された背景光画像を背景光画像記憶部251から読み出し、かかる背景光画像に基づき、判定用閾値を決定する。具体的には、今回のフレーム期間における距離画像を取得するための判定用閾値を決定する場合、前回のフレーム期間の背景光画像の画素値の平均値、すなわち前回の背景光のフレーム画像の各画素の受光数の平均値を求め、かかる平均値に対して、所定の受光数だけ増加させた値を、今回のフレーム期間における判定用閾値として決定する。上述の「所定の受光数」は、予め実験等により適切な値が求められて設定されている。なお、前回の背景光のフレーム画像の各画素の受光数の平均値に限らず、前回以前の任意の数のフレーム画像の各画素の受光数、またはその平均値に基づき判定用閾値を決定してもよい。
検出部30は、反射強度画像、背景光画像および距離画像の各画素値を利用して物体(対象物OB)を検出する。検出部30による物体検出方法の詳細は後述する。
上述の構成を有する物体検出装置50では、後述の物体検出処理を実行することにより、反射強度画像、背景光画像および距離画像という異なる3つの種類の情報を利用して物体(対象物OB)を検出する。
A2.物体検出処理:
車両500のイグニッションがオンすると、物体検出装置50において物体検出処理が実行される。なお、車両500において、物体検出処理の開始および終了のユーザによる指示を受け付けるインターフェイス、例えば、物理的なボタンやモニタに表示されるメニュー画面を、インストルメントパネルに予め設けて置き、かかるボタンやメニュー画面の操作により処理開始指示を受け付けた場合に、物体検出処理が開始されてもよい。物体検出処理に含まれる後述のステップS105~S130は、フレーム期間ごとに繰り返し実行される。
図3に示すように、検出部30は、反射強度画像取得部240、背景光画像取得部250、距離画像取得部260から、それぞれ反射強度画像、背景光画像、距離画像を、それぞれ取得する(ステップS105)。検出部30は、前処理を実行する(ステップS110)。本実施形態では、前処理として、ステップS105において取得された各画像について、極座標を直交座標に変換する座標変換処理、3種類の画像に基づき所定の距離内の物体から得られた有効な測距点を特定する処理、および雨滴を含むノイズを除去する処理を意味する。なお、物体認識の精度向上のための任意の処理を、前処理として実行してもよい。
図5に示す時刻t1の画像F_t1は、ステップS110により取得された測距点OPを直交座標上に配置した画像を示している。なお、図5では、理解を助けるために、車両500の前方を走行している車両CAを表している。ステップS110の後、走行する道路の上方から鉛直下方に向かって見たときの直交座標上に、複数の測距点OPが表わされている。測距点OPは、反射強度が所定の強度以上の画素である。また、各測距点OPは、距離画像の情報に基づき、車両500からの距離を加味して配置されている。図5に示すように、道路からの反射光による測距点OPと、車両CAの最後部の面からの反射光による測距点OPと、車両CAの斜め前の路上の測距点OPとが得られる。車両CAの斜め前の路上の測距点OPは、例えば、マンホールからの反射光による測距点OPなどが該当する。
図3に示すように、検出部30は、立体物判定処理を実行する(ステップS115)。具体的には、検出部30は、各測距点OPのうち、車両500が走行する路面からの高さが、所定の寸法以上の測距点OPを、立体物を表す測距点OPとして特定する。換言すると、ステップS115は、車両500が走行する道路の路面の位置を判定する処理ともいえる。続いて、検出部30は、得られた測距点OPのうち、同一物体を表すものとして推定される測距点OP同士を対応付ける、いわゆるクラスタリングを実行する(ステップS120)。本実施形態では、測距点OP同士の距離が所定の大きさ以下の測距点同士を、1つのクラスタリング結果としてまとめる。図6に示す例では、図5に示す画像F_t1において、車両CAの最後部の面から得られた複数の測距点OPが、1つのクラスタリング結果Gp1として互いにまとめられている。
図3に示すように、検出部30は、前回のフレーム期間において実行された後述のステップS130で得られた追跡結果(物標)と、今回のフレーム期間において実行されたステップS120で得られたクラスタリング結果とを対応付ける対応付け処理を実行する(ステップS125)。
図4に示すように、対応付け処理において、まず、検出部30は、反射強度画像を対象として、今回と前回の2つのフレーム画像について、クラスタリング結果と前回の追跡結果間の反射光強度の平均値の差分ΔRを算出する(ステップS205)。具体的には、今回のクラスタリング結果と前回の追跡結果に対応する位置の画素の画素値(反射強度)の平均値をそれぞれ算出し、これらの平均値の差分ΔRを求める。なお、各フレーム画像において複数のクラスタリング結果が得られている場合には、追跡結果の重心位置から一定距離未満の全てのクラスタリング結果に対して差分ΔRを算出する。
検出部30は、背景光画像を対象として、上述のステップS205と同様に、今回のクラスタリング結果と前回の追跡結果の背景光強度の平均値の差分ΔBを算出する(ステップS210)。検出部30は、距離画像を対象として、上述のステップS205と同様に、今回のクラスタリング結果と前回の追跡結果間の距離の平均値の差分ΔLを算出する(ステップS215)。
検出部30は、ステップS205で得られた差分ΔRが予め定められた閾値αよりも小さく、且つ、ステップS210で得られた差分ΔBが予め定められた閾値βよりも小さく、且つ、ステップS215で得られた差分ΔLが予め定められた閾値γよりも小さいか否かを判定する(ステップS220)。閾値α、βおよびγは、それぞれ、今回のクラスタリング結果と前回の追跡結果が同物体である場合に想定される差分の最大値として、予め実験により特定されて設定されている。
差分ΔRが閾値αよりも小さく、且つ、差分ΔBが閾値βよりも小さく、且つ、差分ΔLが閾値γよりも小さいと判定された場合(ステップS220:YES)、検出部30は、今回のフレーム画像のクラスタリング結果と、前回のフレーム画像の追跡結果とを互いに対応付ける(ステップS225)。検出部30は、今回のフレーム画像に含まれる全てのクラスタリング結果について判断終了したか否かを判定し(ステップS230)、全てのクラスタリング結果について判断終了していないと判定された場合(ステップS230:NO)、上述のステップS205に戻り、異なるクラスタリング結果を対象として、上述のステップS205~S230が実行される。これに対して、全てのクラスタリング結果について判断終了したと判定された場合(ステップS230:YES)、対応付け処理は終了し、図3に示すステップS130が実行される。
上述のステップS220において、差分ΔRが閾値αよりも小さくない、または、差分ΔBが閾値βよりも小さない、または、差分ΔLが閾値γよりも小さくないと判定された場合(ステップS220:NO)、上述のステップS230が実行される。したがって、この場合、ステップS225は実行されず、追跡結果とクラスタリング結果は互いに対応付けられないこととなる。このように、本実施形態の対応付け処理では、反射光強度の差分ΔRと、背景光画像の差分ΔBと、距離画像の差分ΔLとがいずれも閾値よりも小さい場合に追跡結果とクラスタリング結果が対応付けられるので、これら3つの差分ΔR、ΔB、ΔLのうちの2つ以下が閾値以下である場合に追跡結果とクラスタリング結果が対応付けられる構成に比べて、対応付けの精度を向上できる。尚、ここではS220を満たせば対応付くとしたが、これに限らず、条件を満たすものが複数ある場合には、最も差分が小さいもののみを対応付くとしても良い。
図3に示すように、ステップS125の完了後、検出部30は、ステップS125において対応付けられた今回のフレーム画像のクラスタリング結果と、前回のフレーム画像の追跡結果とにより物体の軌跡を求め、フィルタリングする追跡処理を実行する(ステップS130)。本実施形態において、上記フィルタリングとは、カルマンフィルタを意味する。なお、カルマンフィルタに限らず、拡張カルマンフィルタやパーティクルフィルタを用いてもよい。このようにして、追跡処理により得られる結果が、今回のフレーム画像における追跡結果となる。
図7に示すように、例えば、今回のフレーム画像F_t2において、先行車両の最後部から得られる複数の測距点OPがクラスタリング結果Gp2として特定され、かかるクラスタリング結果Gp2が、前回のフレーム画像F_t1における追跡結果Gp1と対応付けられた場合、検出部30は、追跡結果Gp1の重心位置g1と、クラスタリング結果Gp2の重心位置g2とを求め、これら2つを結ぶ直線を、物体(車両CA)の軌跡Tr1として求める。
なお、図7の例では、フレーム画像F_t2では、車両CAの近傍にマンホールMHが存在し、かかるマンホールMHから得られた複数の測距点OPがクラスタリング結果Gp3として特定されている。比較例として、距離のみを根拠として対応付け処理が行われた場合、例えば、2つの距離のフレーム画像において、重心位置の距離が最も短いクラスタリング結果と追跡結果が対応付けられた場合、追跡結果Gp1からクラスタリング結果Gp3までの距離が、追跡結果Gp1からクラスタリング結果Gp2までの距離もよりも短いために、追跡結果Gp1とクラスタリング結果Gp3とが対応付けられることとなる。その結果、追跡結果Gp1の重心位置g1とクラスタリング結果Gp3の重心位置g3とを結ぶ軌跡Tr2が、誤って特定されてしまう。これに対して、本実施形態では、上述のように、フレーム画像F_t1において車両CAを示す追跡結果Gp1と、フレーム画像F_t2において車両CAを示すクラスタリング結果Gp2とが対応付けられ、正しい軌跡Tr1が特定される。
上述のステップS130の完了後、ステップS105に戻り、次のフレーム画像を対象としてステップS105~S130が実行される。
以上説明した第1実施形態の物体検出装置50によれば、物体の検出に用いられる反射強度画像、背景光画像および距離画像は、いずれも単一のセンサ装置10により取得されるので、これらの画像のうちの少なくとも一部をそれぞれ異なる複数のセンサ装置により取得される構成に比べて、検出精度の低下を抑制できる。具体的には、上述の3種類の画像が単一のセンサ装置10により取得されるので、これらの画像を取得するための各種パラメータ、例えば、センサ装置10の設置位置、照射光Lzの照射範囲、検出タイミングを一致させることができ、センサ装置10の設置位置のずれや検出タイミングのずれ等に起因する物体の誤検出を抑制できる。
また、物体検出装置50によれば、検出部30は、反射強度画像、背景光画像および距離画像を用いてクラスタリング処理や、対応付け処理を実行するので、これらの処理を精度良く実行できる。
また、物体検出装置50によれば、対応付け処理において、反射強度画像、背景光画像および距離画像のそれぞれについて、2つのフレーム画像における追跡結果とクラスタリング結果の画素値の平均値をそれぞれ求め、また、かかる平均値の差分ΔR、ΔB、ΔLを求め、反射強度画像、背景光画像および距離画像のそれぞれについての差分ΔR、ΔB、ΔLが、いずれも設定された閾値α、β、γよりも小さい場合に、2つのフレーム画像のそれぞれの結果を対応付けるので、2つのフレーム画像間において、対応付けを精度良く実行できる。また、3種の情報を用いていることで異なる物体同士では互いに異なり易く、同じ物体同士では互いに同じになり易くなるため、対応付けを精度良く実行できる。
また、受光要素201は、受光信号として光の入射を示す出力信号を出力するSPADを有するので、各画素における受光の有無を精度良く特定できる。
B.第2実施形態:
B1.装置構成:
第2実施形態の物体検出装置50は、検出部30に代えて、図8に示す検出部30aを備える点において、第1実施形態の物体検出装置50と異なる。第2実施形態の物体検出装置50におけるその他の構成は、第1実施形態の物体検出装置50と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。
図8に示すように、第2実施形態の検出部30aは、反射強度データ入力部311と、背景光画像データ入力部312と、距離画像データ入力部313と、3つの識別器321、322、323と、3つのスコアマップ生成部341、342、343と、総合スコアマップ生成部350と、閾値処理部360と、物標検出部370とを備える。
反射強度データ入力部311は、反射強度画像取得部240から反射強度画像のデータを入力する。背景光画像データ入力部312は、背景光画像取得部250から背景光画像のデータを入力する。距離画像データ入力部313は、距離画像取得部260から距離画像のデータを入力する。
識別器321には、予めモデル情報331が設定されている。このモデル情報331は、物体を示す予め定められた反射強度のモデル(パターン)を示す情報である。識別器321は、反射強度データ入力部311に入力された反射強度画像をラスタ―スキャンして、反射強度画像とモデル情報331とを対照し、各画素について物体が存在する尤もらしさを示す尤度(以下、「第1尤度」と呼ぶ)を特定し、これら各画素の第1尤度からなるスコアマップ(以下、「第1スコアマップ」と呼ぶ)を生成する。
識別器322には、予めモデル情報332が設定されている。このモデル情報332は、物体を示す予め定められた背景光強度のモデル(パターン)を示す情報である。識別器322は、背景光画像データ入力部312に入力された背景光画像をラスタ―スキャンして、背景光画像と、モデル情報332と対照し、各画素について物体が存在する尤もらしさを示す尤度(以下、「第2尤度」と呼ぶ)を特定し、これら各画素の第2尤度からなるスコアマップ(以下、「第2スコアマップ」と呼ぶ)を生成する。
識別器323には、予めモデル情報333が設定されている。このモデル情報333は、物体を示す予め定められた距離のモデル(パターン)を示す情報である。識別器323は、距離画像データ入力部313に入力された距離画像をラスタ―スキャンして、距離画像と、モデル情報333と対照し、各画素について物体が存在する尤もらしさを示す尤度(以下、「第3尤度」と呼ぶ)を特定し、これら各画素の第3尤度からなるスコアマップ(以下、「第3スコアマップ」と呼ぶ)を生成する。
総合スコアマップ生成部350は、スコアマップ生成部341により生成された第1スコアマップScr(1)と、スコアマップ生成部342により生成された第2スコアマップScr(2)と、スコアマップ生成部343により生成された第3スコアマップScr(3)とにそれぞれ重み付け(重み係数:w(i)(i=1,2,3))を行って下記式(1)により合算して総合スコアマップScr(Total)を生成する。本実施形態において、重み付けする際の重み付け係数は、後述の重み付け設定処理により設定される。なお、重み付け係数の初期値は、第1スコアマップ:第2スコアマップ:第3スコアマップが、1:1:1となるような値に設定されている。重み付けの詳細については、後述する。総合スコアマップ生成部350は、総合スコアマップを生成することに加えて、背景光強度に関連する強度関連情報を取得する。強度関連情報の詳細については、後述する。なお、第2実施形態において、総合スコアマップ生成部350は、本開示における情報取得部の下位概念に相当する。
Figure 0007095640000001
閾値処理部360は、総合スコアマップ生成部350により生成された総合スコアマップに対して所定のスコアの閾値を適用して、総合スコアが閾値以上の画素を特定する。物標検出部370は、総合スコアが閾値以上の画素を、物体を示す物標として検出する。
B2.物体検出処理:
図9に示す第2実施形態の物体検出処理は、ステップS115を省略する点と、ステップS111、S112、S113、S119を追加して実行する点とにおいて、第1実施形態の物体検出処理と異なる。第2実施形態の物体検出処理のその他の手順は、第1実施形態の物体検出処理と同じであるので、同一の手順には同一の符号を付し、その詳細な説明を省略する。
ステップS105およびS110の完了後、スコアマップ生成部341は、反射強度データ入力部311に入力された反射強度画像に基づき、第1スコアマップを生成する(ステップS111)。また、スコアマップ生成部342は、背景光画像データ入力部312に入力された背景光画像に基づき、第2スコアマップを生成する(ステップS112)。また、スコアマップ生成部343は、距離画像データ入力部313に入力された距離画像に基づき、第3スコアマップを生成する(ステップS113)。本実施形態では、これら3つのステップS111~S113は、並列処理にて実行されるが、所定の順序でシリアル処理にて実行されてもよい。
総合スコアマップ生成部350は、重み付け設定処理を実行する(ステップS118)。図10に示すように、重み付け設定処理において、まず、総合スコアマップ生成部350は、背景光の強度関連情報を取得する(ステップS305)。背景光の強度関連情報とは、背景光強度に関連する情報を意味する。本実施形態において、強度関連情報は、下記(i)~(iv)が該当する。
(i)背景光画像の強度を示す受光数の情報。
(ii)車両500が備える図1に示すライト511の点灯状態を示す情報。
(iii)車両500が備える図1に示す日射センサ512の検出結果を示す情報。
(iv)車両500が備える図1に示すワイパ装置513の動作状態を示す情報。
上記情報(i)は、背景光画像取得部250から取得する。背景光画像取得部250では、背景光画像の平均受光数を求め、かかる平均受光数についての情報を、背景光画像の強度を示す情報として検出部30aに送信する。上記情報(ii)は、ライト511が点灯しているか消灯しているかを示す情報を意味し、ライト511を制御するECU(Electronic Control Unit)から取得される。上記情報(iii)は、日射センサ512により検出された日射量を意味し、日射センサ512を制御するECUから取得される。上記情報(iv)は、ワイパ装置513が動作しているか否かを示す情報を意味し、ワイパ装置513を制御するECUから取得される。
図10に示すように、総合スコアマップ生成部350は、ステップS305で取得された強度関連情報に基づき、測定範囲の明るさ環境を特定する(ステップS310)。本実施形態において、明るさ環境とは、明るい環境(以下、「明環境」と呼ぶ)と、明環境よりも暗い環境(以下、「暗環境」と呼ぶ)とのいずれかを意味する。総合スコアマップ生成部350は、背景光の平均受光数が閾値以上である場合に明環境であり、閾値未満である場合に暗環境であると判断する。ステップS310では、上記情報(i)に関して、背景光画像の平均受光数が閾値以上であり、上記情報(ii)がライト511は消灯状態であることを示し、上記情報(iii)が日射センサ512の検出結果は所定の日射量閾値以上であることを示し、上記(iv)がワイパ装置513は動作していないことを示す場合に、明環境であると特定し、それ以外の場合に暗環境であると特定する。一般的には、晴れた日の昼間に建物の陰やトンネル内等とは異なる場所を車両500が走行中である場合に明環境であると特定される。これに対して、夜間である場合や、建物の陰やトンネル内を走行中である場合などには、暗環境であると特定される。
総合スコアマップ生成部350は、ステップS310の特定結果が、明環境であるか否かを判定する(ステップS315)。明環境であると判定された場合(ステップS315:YES)、総合スコアマップ生成部350は、第1スコアマップ(反射光強度画像)および第3スコアマップ(距離画像)の重み付け係数w(1)、w(3)を初期値に対して小さく設定し、第2スコアマップ(背景光画像)の重み付け係数w(2)を初期値に対して大きく設定する(ステップS320)。なお、このとき、w(1)、w(3)の値を共に0にしても良い。この結果、第1、3スコアマップの重み付け係数は、第2スコアマップの重み付け係数よりも小さく設定される。換言すると、第1情報及び、第3情報の結果よりも第2情報による結果が優先されることになる。ステップS320の完了後、重み付け設定処理は終了し、図9のステップS119が実行される。
他方、明環境でない、つまり暗環境と判定された場合(ステップS315:NO)、総合スコアマップ生成部350は、第1スコアマップ(反射光強度画像)および第3スコアマップ(距離画像)の重み付け係数w(1)、w(3)を初期値に対して大きく設定し、第2スコアマップ(背景光画像)の重み付け係数w(2)を初期値に対して小さく設定する(ステップS325)。なお、このとき、w(2)の値を0にしても良い。この結果、第1、3スコアマップの重み付け係数は、第2スコアマップの重み付け係数よりも大きく設定される。換言すると、第2情報による結果よりも第1情報及び、第3情報の結果が優先されることになる。ステップS325の完了後、重み付け設定処理は終了し、図9のステップS119が実行される。
明環境においては、背景光強度が高いため、反射光と背景光との強度比が小さくなり、換言すると、S/N比が劣化し、反射光(対象物OB)の強度を高い精度で特定できなくなる。また、これに伴い、対象物OBまでの距離を正確に特定できなくなる。このため、明環境においては、第1尤度および第3尤度の信頼性が暗環境と比べて低くなるので、本実施形態では、第1および第3スコアマップの重み付け係数を相対的に低く設定するようにしている。他方、背景光強度が高いために第2尤度の信頼性は高くなる。このため、本実施形態では、第2スコアマップの重み付け係数を相対的に高く設定するようにしている。
暗環境においては、背景光強度が弱いため、反射光と背景光との強度比が大きくなり、換言すると、S/N比が良好であり、対象物OBからの反射光の強度を高い精度で特定できる。また、これに伴い、対象物OBまでの距離を高い精度で特定できる。このため、暗環境においては、第1尤度および第3尤度の信頼性が暗環境と比べて高くなるので、本実施形態では、第1および第3スコアマップの重み付け係数を相対的に高く設定するようにしている。他方、背景光強度が低いために第2尤度の信頼性は低くなる。このため、本実施形態では、第2スコアマップの重み付け係数を相対的に低く設定するようにしている。
図9に示すように、ステップS119として、総合スコアマップ生成部350は、第1ないし第3スコアマップ、すなわち、反射強度画像、背景光画像および距離画像における物体の検出結果に対して、ステップS118で設定された重み付け係数を適用して総合スコアマップを生成する。なお、上述のように、生成された総合スコアマップを対象に閾値処理が実行され、物体を示す物標が特定される。そして、このようにして特定された物標を用いて、上述のステップS120~S130が実行される。
以上説明した第2実施形態の物体検出装置50は、第1実施形態の物体検出装置50と同様な効果を有する。加えて、3つの識別器321~323は、入力された各画像(反射強度画像、背景光画像および距離画像)と、モデル情報331~333とを対照することにより物体を検出する(第1ないし第3スコアマップを生成する)ので、並列に処理することができ検出部30aを高速に処理することができる。
また、入力された各画像とモデル情報331~333との対照により求めた第1ないし第3スコアマップ(第1ないし第3尤度)に対してそれぞれ重み付けをして積算して総合スコアマップ(総合尤度)を求め、得られた総合スコアマップを利用して物体を検出するので、1つまたは2つのモデル情報との対照から求めた尤度を積算して総合スコアマップを求める構成に比べて、物体の検出精度を向上できる。
背景光強度が高い場合には、すなわち、明環境では、背景光強度が低い場合に比べて、ノイズが大きくなるために反射光強度を高い精度で求めることができず、また、距離を高い精度で求めることができない。このため、背景光強度が高い場合には、低い場合に比べて、反射光強度画像および距離画像として低精度の情報を得られるため、第1尤度および第3尤度は信頼性の低い値となる。他方、背景光強度が高い場合には、強度が低い場合に比べて、背景光強度を高い精度で求めることができ、第2情報として高精度の情報を得ることができるので、第2尤度は信頼性の高い値となる。このため、第2形態の物体検出装置50によれば、背景光強度が高い場合には、すなわち、明環境では、強度が低い場合に比べて、第1尤度および第3尤度に対する重み付けを小さく設定し、かつ、第2尤度に対する重み付けを大きく設定するので、精度の高い総合スコアマップ(総合尤度)を求めることができ、また、物体の検出精度を向上できる。
C.第3実施形態:
第3実施形態の物体検出装置50の構成は、第1実施形態の物体検出装置50の構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第3実施形態の物体検出処理は、図11に示すように、ステップS106およびS107を追加する点において、第1実施形態の物体検出処理と異なる。第3実施形態の物体検出処理のその他の手順は、第1実施形態の物体検出処理と同じであるので、同一の手順には同一の符号を付し、その詳細な説明を省略する。なお、第3実施形態において、検出部30は、本開示における検出部およびコントラスト関連値算出部の下位概念に相当する。
ステップS105の完了後、検出部30は、反射強度画像、背景光画像および距離画像のそれぞれについて、コントラスト関連値を算出する(ステップS106)。コントラスト関連値とは、コントラストに関連する値であり、コントラストが大きいほど大きな値が設定される。本実施形態において、コントラスト関連値は、Michelsonコントラストの値を意味する。なお、コントラスト関連値としては、Michelsonコントラストの値に限らず、画素値の分散や、各画像内における最大画素値と最小画素値との比など、コントラストに関連する任意のパラメータを用いてもよい。
検出部30は、すべての画像についてステップS106で算出されたコントラスト関連値が、予め設定されているコントラスト閾値以上であるか否かを判定する(ステップS107)。かかるコントラスト閾値は、物体を検出するのに適さない画像を排除するための閾値として、予め実験等により求めて設定されている。例えば、夜間、街灯などがまったく無い状況では、背景光がほとんど存在しないため、周囲の対象物OBが存在しない状況ではコントラスト関連値は非常に小さい。また、これとは反対に、逆光の状況においては、背景光が非常に強いために、周囲に対象物OBが存在している状況においてもコントラスト関連値は非常に小さい。これらの状況においては、対象物OBを誤検出するおそれがある。そこで、このような誤検出が起きる可能性の高いコントラスト関連値の最大値を実験に求め、かかる値よりも大きな値をコントラスト閾値として設定するようにしている。
検出部30は、すべての画像について算出されたコントラスト値がコントラスト閾値以上であると判定された場合(ステップS107:YES)、上述のステップS110~S130を実行する。これに対して、すべての画像について算出されたコントラスト値がコントラスト閾値以上でないと判定された場合(ステップS107:NO)、ステップS110~S130が省略され、ステップS105に戻り、次のフレーム期間において、再びステップS105~S130が実行されることとなる。
以上説明した第3実施形態の物体検出装置50は、第1実施形態の物体検出装置50と同様な効果を有する。加えて、反射強度画像、背景光画像および距離画像のうちの少なくとも1つの画像について算出されたコントラスト関連値がコントラスト閾値よりも小さい場合には、取得された3種類の画像を利用した物体の検出が行われないので、コントラスト関連値がコントラスト閾値よりも小さいために物体と背景との境界が分かりづらい画像を用いて物体検出を行うことを抑制でき、物体検出精度の低下を抑制できる。
D.第4実施形態:
第4実施形態の物体検出装置50の構成は、第1実施形態の物体検出装置50の構成と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明を省略する。第4実施形態の物体検出装置50では、図4に示す対応付け処理において用いられる3つの閾値α、β、γが予め設定されている固定値ではなく、閾値設定処理によって設定される。なお、3つ閾値α、β、γには、それぞれ予め初期値が設定されている。なお、第4実施形態において、検出部30は、本開示における検出部と情報取得部と閾値設定部の下位概念に相当する。
図12に示す第4実施形態における閾値設定処理は、図4に示すステップS215とステップS220との間において実行される。なお、閾値設定処理が実行されるタイミングは、ステップS220が実行される前の任意のタイミングであってもよい。また、図4に示す対応付け処理とは別の処理として、対応付け処理よりも前に実行されてもよいし、対応付け処理と並列して実行されてもよい。
図12に示すように、検出部30は、背景光の強度関連情報を取得する(ステップS405)。検出部30は、ステップS405で取得された強度関連情報に基づき、測定範囲の明るさ環境を特定する(ステップS410)。検出部30は、ステップS410の特定結果が、明環境であるか否かを判定する(ステップS415)。上述のステップS405~S415は、第2実施形態の重み付け設定処理のステップS305~S315と同じであるので、その詳細な手順を省略する。
明環境であると判定された場合(ステップS415:YES)、閾値α(反射光強度画像)および閾値γ(距離画像)をいずれも初期値に対して大きく設定し、閾値β(背景光画像)を初期値に対して小さく設定する(ステップS420)。これに対して、明環境ではないと判定された場合(ステップS415:NO)、閾値α(反射光強度画像)および閾値γ(距離画像)をいずれも初期値に対して小さく設定し、閾値β(背景光画像)を初期値に対して大きく設定する(ステップS425)。ステップS420またはS425の完了後、対応付け処理の所定の手順に戻る、或いは、対応付け処理と並列して実行される構成においては、閾値設定処理は終了する。
上述のように、明環境においては、背景光強度が高いため、反射光と背景光との強度比が小さくなり、換言すると、S/N比が劣化し、反射光(対象物OB)の強度を正確に特定できなくなる。また、これに伴い、対象物OBまでの距離を正確に特定できなくなる。このため、明環境においては、差分ΔRおよびΔLは、比較的低い精度の値として算出され易い。そこで、この場合、閾値α、γについては、大きな値を設定するようにしている。他方、背景光強度が高いため、背景光強度は正確に特定できるため、差分ΔBは、比較的高い精度の値として算出され易い。そこで、この場合、閾値βについては、相対的に小さな値を設定するようにしている。
暗環境においては、背景光強度が弱いため、反射光と背景光との強度比が大きくなり、換言すると、S/N比が良好であり、反射光(対象物OB)の強度を高い精度で特定できる。また、これに伴い、対象物OBまでの距離を高い精度で特定できる。このため、暗環境においては、差分ΔRおよびΔLは、比較的高い精度の値として算出され易い。そこで、この場合、閾値α、γについては、小さな値を設定するようにしている。他方、背景光強度が低いため、背景光強度は高い精度で特定できないおそれがあるため、差分ΔBは、比較的低い精度の値として算出され易い。そこで、この場合、閾値βについては、相対的に大きな値を設定するようにしている。
以上説明した第4実施形態の物体検出装置50は、第1実施形態の物体検出装置50と同様な効果を有する。明環境、すなわち背景光の強度が高い場合には、暗環境に場合に比べてノイズが大きくなるために反射光強度を高い精度で求めることができず、また、距離を高い精度で求めることができない。このため、背景光強度が高い場合には、低い場合に比べて、反射強度画像および距離画像として低精度の画像を得られるに過ぎない。他方、明環境では、暗環境に比べて、背景光の強度を正確に求めることができ、背景光画像として高精度の画像を得ることができる。したがって、第4形態の物体検出装置50によれば、背景光強度が高い場合には、強度が低い場合に比べて、低精度の画像として得られる反射強度画像および距離画像に対する閾値を大きく設定し、高精度の画像として得られる背景光画像に対する閾値を小さく設定するので、対応付け処理を精度良く行うことができる。
E.他の実施形態:
(E1)各実施形態では、3種類の画像、すなわち、反射強度画像、背景光画像および距離画像を利用して、路面判定、クラスタリング処理、対応付け処理を実行していたが、これら3つの処理のうちの一部のみを実行してもよい。
(E2)各実施形態の対応付け処理では、前回の追跡結果と今回のクラスタリング結果を構成する各画素値の平均値の差分(差分ΔR、ΔB、ΔL)を用いて対応付けるか否かを判断していたが、本開示はこれに限定されない。画素値の中央値、最大値、最小値、分散、ヒストグラムなど、かかる追跡結果及び、クラスタリング結果の画素値の特徴量を示す任意のパラメータやその組み合わせを用いて対応付けるか否かを判断してもよい。例えば、ヒストグラムについては、フレーム期間において単位時間ごとの級数の差分を、比較対象についてそれぞれ積算し、得られた差分の合計値(合計差分)が、各画像について設けられた閾値よりもいずれも小さい場合に対応付け、いずれか1つの画像について設けられた閾値以上の場合に対応付けないようにしてもよい。
(E3)第2実施形態では、明環境においては、第1および第3スコアマップに対する重み付け係数を初期値よりも小さく設定し、第2スコアマップについての重み付け係数を初期値よりも大きく設定していたが、本開示はこれに限定されない。第1および第3スコアマップに対する重み付け係数が、第2スコアマップについての重み付け係数よりも大きくなるような任意の方法により設定してもよい。同様に、暗環境においては、第1および第3スコアマップに対する重み付け係数が、第2スコアマップについての重み付け係数よりも小さくなるような任意の方法により設定してもよい。
(E4)第2実施形態では、明環境か否かは、画像全体で判断していたが、画像中の部分領域ごとに明環境か否かを判断してもよい。そして、部分領域ごとに判断された明るさ環境に応じて重み付け係数を設定してもよい。例えば、画像中の一部の部分領域が、建物の日陰を表しており、他の部分領域がいずれも日光が当たっている領域を表している場合、日陰領域についての第1スコアマップ(反射強度画像)及び、第3スコアマップ(距離画像)の重み付け係数を重み付け係数aとし、日陰領域についての第2スコアマップ(背景光画像)の重み付け係数の重み付け係数を重み付け係数bとし、その他領域についての、第1ないし第3スコアマップ(反射強度画像、背景光画像および距離画像)の重み付け係数を重み付け係数cとして、重み付け係数a、b、cについて、「a>c>b」の関係が成立するように、各重み付け係数を設定してもよい。
(E5)第2実施形態において、第1ないし第3スコアマップに重み付け係数を適用することに代えて、予め入力された各画像を正規化しておき、第1ないし第3スコアマップを生成し、重み付け係数を適用することなく総合スコアマップを生成してもよい。かかる正規化の方法としては、例えば、明るさ環境に応じて各画像において取りうる画素値の範囲を0~255の値に正規化してもよい。具体的には、背景光の画素値の取り得る値の範囲が1~1000である場合、明環境においては、最低値1が「0」となり、最高値1000が「255」となるような変換を行って正規化してもよい。また、暗環境においては、最低値1が「0」となり、最高値300が「255」となるような変換を行って正規化してもよい。
(E6)第2実施形態と第3実施形態とを組み合わせてもよい。例えば、第2実施形態の重み付け設定処理において、第3実施形態の物体検出処理におけるステップS106およびS107を、例えば、ステップS320およびS325の後に実行し、すべての画像のコントラスト関連値がコントラスト閾値以上の場合には、ステップS320およびS325で設定された重み付け係数のままとし、いずれかの画像のコントラスト関連値がコントラスト閾値未満の場合には、ステップS320およびS325で設定された重み付け係数に対して、さらに1未満の所定の係数を掛け合わせてもよい。このようにすることで、コントラスト関連値が低い画像については、重み付け係数が小さくなり、総合スコアマップ(総合尤度)を小さくできる。したがって、あるフレーム期間において逆光により物体検出にふさわしくない画像が得られたとしても、かかる画像の総合スコアマップを低くして、かかる画像から物体が誤検出されることを抑制できる。
(E7)第3実施形態において、ステップS107において、3種類の情報それぞれに対して閾値処理を実行し、閾値以上の情報のみを後段の処理で使用するようにしても良い。また、第3実施形態において、ステップS107において、すべての画像について、コントラスト関連値がコントラスト閾値未満の場合には、かかる旨をユーザに報知するようにしてもよい。報知の方法としては、車両500のインストルメントパネルに設けられた表示装置にエラーメッセージを表示する方法や、警告音や警告メッセージをスピーカから出力する方法や、所定のランプを点灯する方法など、任意の方法を採用してもよい。
(E8)第2および第3実施形態では、明るさ環境を特定する際に用いる強度関連情報のうち、情報(i)については、前回のフレーム期間における背景光画像の強度を示す受光数であったが、本開示はこれに限定されない。例えば、前々回のフレーム期間における背景光画像の強度を示す受光数を用いてもよい。また、例えば、測距直前に背景光強度を求めても良いし、前回以前の複数のフレーム期間における背景光画像の強度の平均値、合算値、中央値、分散等の統計値を用いてもよい。
(E9)第2および第3実施形態では、明るさ環境を特定する際に用いる強度関連情報は、情報(i)~(iv)の合計4つであったが、本開示はこれに限定されない。例えば、ユーザが視認等で明るさ環境を判断し、その判断結果を所定のユーザインターフェイスから車両500に入力する構成としてもよい。かかる構成においては、所定のユーザインターフェイスから入力される明るさ環境を示す情報が、強度関連情報に該当する。また、例えば、情報(i)~(iv)の一部を省略してもよい。また、例えば、車両500に搭載されたマイクにより取得された音の大きさや高低などを、強度関連情報として用いてもよい。かかる構成においては、例えば、音が閾値強度よりも大きい場合には、昼間であるものと推定して明環境であると特定し、閾値強度以下の場合には、夜間であるものと推定して暗環境であると特定してもよい。
(E10)各実施形態の物体検出装置50は、例えば、以下のような装置に適用可能である。例えば、対象物OBまでの距離を測定する測距装置に適用できる。また、例えば、車両500の走行経路を生成する経路生成装置に適用できる。かかる構成においては、走行中の道路において障害物を避けるような経路を生成する際に、物体検出装置50により検出された対象物OBまでの距離を利用してもよい。また、例えば、自動運転制御装置に適用できる。かかる構成においては、物体検出装置50により検出された対象物OBまでの距離を利用して、車両500の速度や操舵量を決定してもよい。また、例えば、対象物OBまでの距離を車両500の乗員に表示するための検出結果表示装置に適用できる。かかる構成においては、車両500の乗員は、車両500の前方に存在する物体までの距離を視覚的に確認できる。また、例えば、遠隔操作制御装置に対して車両500の周囲の状況を通知する遠隔情報取得装置に適用できる。かかる構成においては、車両500を遠隔操作するオペレータ側の遠隔操作制御装置(例えば、サーバ装置)に対して、対象物OBまでの距離の情報(距離画像)の他、距離画像や背景光画像を送信してもよい。また、例えば、物体検出装置50を、車両500に搭載することに代えて、固定設置してもよい。例えば、監視カメラ(定点カメラ)に物体検出装置50を搭載し、画像を取得するとともに、対象物OBまでの距離を測定してもよい。
(E11)各実施形態における物体検出装置50の構成は、あくまでも一例であり、様々に変更可能である。例えば、第2および第3実施形態において明るさ環境は2段階であったが、任意の数の段階であってもよい。また、各画素Gが備えるマクロピクセルの数、および各マクロピクセルが有する受光要素201の数を、それぞれ任意の数にしてもよい。また、受光要素201として、APD(アバランシェフォトダイオード)などSPAD以外の任意の受光素子を用いてもよい。
(E12)本開示に記載の物体検出装置50及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体検出装置50及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体検出装置50及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10 センサ装置、30 検出部、50 物体検出装置、100 照射部、200 受光部、201 受光要素、Lz 照射光、S1 受光面

Claims (10)

  1. 物体を検出する物体検出装置(50)であって、
    照射光(Lz)を照射する照射部(100)と、照射された前記照射光の反射光を含む光を受光可能な複数の受光要素(201)が面状に配列された受光面(S1)を有し、前記受光面における予め定められている画素範囲内の前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光信号を出力する受光部(200)と、を有し、前記受光信号に基づき、各画素における前記反射光の受光強度を示す第1情報と、各画素における前記反射光を除く他の光である背景光の受光強度を示す第2情報と、各画素における前記物体までの距離を示す第3情報と、を各画素の画素値として取得する単一のセンサ装置(10)と、
    各画素の前記画素値を利用して前記物体を検出する検出部(30)と、
    を備え、
    前記検出部は、取得された各画素の前記画素値に含まれる前記第1ないし前記第3情報をすべて利用して、前記物体を検出し、
    前記検出部は、前記第1ないし前記第3情報と、前記物体が存在する場合の前記第1ないし前記第3情報のモデルであるモデル情報(331-333)と、を対照することにより、前記物体を検出し、
    前記検出部は、
    前記第1情報と、前記第1情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第1尤度を求め、
    前記第2情報と、前記第2情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第2尤度を求め、
    前記第3情報と、前記第3情報に対する前記モデル情報とを対照して、画素ごとに、前記物体が存在する尤もらしさを示す第3尤度を求め、
    画素ごとに、前記第1ないし前記第3尤度に対してそれぞれ重み付けをして積算して総合尤度を求め、得られた前記総合尤度を利用して、前記物体を検出する、物体検出装置。
  2. 請求項1に記載の物体検出装置において、
    前記検出部は、前記第1ないし前記第3情報を利用して、
    路面判定処理(S115)と、
    複数の測距点を対応付けるクラスタリング処理(S120)と、
    のうちの少なくとも1つの処理を実行する、物体検出装置。
  3. 請求項に記載の物体検出装置において、
    前記センサ装置は、車両(500)に搭載されて用いられ、
    前記センサ装置は、予め定められたフレーム時間ごとに、前記第1ないし前記第3情報を、それぞれフレーム画像として取得し、
    前記検出部は、前記第1ないし前記第3情報について、それぞれ、
    前記クラスタリング処理を実行し、
    前記クラスタリング処理の結果であるクラスタリング結果を、時間的に前に得られた前記クラスタリング結果と対応付けて追跡結果として特定する処理である対応付け処理(S125)であって、取得時刻が異なる少なくとも2つの前記フレーム画像の前記画素値を利用して、2つの前記フレーム画像間における前記クラスタリング処理されたクラスタリング結果と前回特定された前記追跡結果を対応付ける対応付け処理を実行する、物体検出装置。
  4. 請求項に記載の物体検出装置において、
    前記検出部は、
    前記クラスタリング処理と、前記対応付け処理と、を実行し、
    前記対応付け処理において、
    2つの前記フレーム画像について、それぞれ、前記クラスタリング結果の前記画素値の特徴量を求め、
    2つの前記フレーム画像間での前記特徴量の差分(ΔR、ΔB、ΔL)を求め、
    前記差分に含まれる前記第1ないし前記第3情報のそれぞれについての前記差分が、いずれも設定された閾値(α、β、γ)よりも小さい場合に、2つの前記フレーム画像の前記クラスタリング結果と前回の追跡結果を対応付ける、物体検出装置。
  5. 請求項に記載の物体検出装置において、
    前記背景光の強度に関連する強度関連情報を取得する情報取得部(S305)と、
    前記閾値を設定する閾値設定部(S310)と、
    をさらに備え、
    前記閾値設定部は、取得された前記強度関連情報に関連する前記背景光の強度が高い場合には、該強度が低い場合に比べて、前記第1情報および前記第3情報に対する前記閾値を大きく設定し、かつ、前記第2情報に対する前記閾値を小さく設定する、物体検出装置。
  6. 請求項または請求項に記載の物体検出装置において、
    前記特徴量は、前記第1ないし前記第3情報のそれぞれの各画素の前記画素値の平均値と、各画素の前記画素値のヒストグラムと、のうちの少なくとも一方である、物体検出装置。
  7. 請求項1から請求項6までのいずれか一項に記載の物体検出装置において、
    前記背景光の強度に関連する強度関連情報を取得する情報取得部(350)をさらに備え、
    前記検出部は、取得された前記強度関連情報に関連する前記背景光の強度が高い場合には、該強度が低い場合に比べて、前記第1尤度および前記第3尤度に対する重み付けを小さく設定し、かつ、前記第2尤度に対する重み付けを大きく設定する、物体検出装置。
  8. 請求項1から請求項までのいずれか一項に記載の物体検出装置において、
    前記センサ装置は、予め定められたフレーム時間ごとに、前記第1ないし前記第3情報を、それぞれフレーム画像として取得し、
    取得された前記第1ないし前記第3情報からなるそれぞれの前記フレーム画像について、コントラストに関連するコントラスト関連値を算出するコントラスト関連値算出部(30)を、さらに備え、
    前記検出部は、前記第1ないし前記第3情報からなる3つの前記フレーム画像が取得された場合において、
    取得された3つの前記フレーム画像のいずれについても、該フレーム画像について算出された前記コントラスト関連値が関連するコントラストが予め定められたコントラスト閾値以上の場合には、取得された3つの前記フレーム画像をすべて利用して、前記物体を検出し、
    取得された3つの前記フレーム画像のうちの少なくとも1つの前記フレーム画像について算出された前記コントラスト関連値が関連するコントラストが前記コントラスト閾値よりも小さい場合には、取得された3つの前記フレーム画像を利用した前記物体の検出を行わない、物体検出装置。
  9. 請求項1から請求項までのいずれか一項に記載の物体検出装置において、
    前記センサ装置は、前記物体までの距離を測定する測距装置として構成されている、物体検出装置。
  10. 請求項1から請求項までのいずれか一項に記載の物体検出装置において、
    前記受光要素は、前記受光信号として光の入射を示す出力信号を出力するSPAD(シングルフォトンアバランシェダイオード)を有する、物体検出装置。
JP2019063664A 2019-03-28 2019-03-28 物体検出装置 Active JP7095640B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019063664A JP7095640B2 (ja) 2019-03-28 2019-03-28 物体検出装置
PCT/JP2020/013001 WO2020196513A1 (ja) 2019-03-28 2020-03-24 物体検出装置
CN202080025799.3A CN113646804A (zh) 2019-03-28 2020-03-24 物体检测装置
US17/486,224 US11961306B2 (en) 2019-03-28 2021-09-27 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019063664A JP7095640B2 (ja) 2019-03-28 2019-03-28 物体検出装置

Publications (2)

Publication Number Publication Date
JP2020165679A JP2020165679A (ja) 2020-10-08
JP7095640B2 true JP7095640B2 (ja) 2022-07-05

Family

ID=72608449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019063664A Active JP7095640B2 (ja) 2019-03-28 2019-03-28 物体検出装置

Country Status (4)

Country Link
US (1) US11961306B2 (ja)
JP (1) JP7095640B2 (ja)
CN (1) CN113646804A (ja)
WO (1) WO2020196513A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210208259A1 (en) * 2020-01-02 2021-07-08 WeRide Corp. Method and device of noise filtering for lidar devices
JP7294302B2 (ja) * 2020-10-29 2023-06-20 トヨタ自動車株式会社 物体検出装置
JP7347398B2 (ja) * 2020-10-29 2023-09-20 トヨタ自動車株式会社 物体検出装置
JP7276304B2 (ja) * 2020-10-29 2023-05-18 トヨタ自動車株式会社 物体検出装置
CN117949594B (zh) * 2024-03-26 2024-06-11 常州建昊建筑鉴定检测有限公司 一种建筑工程保温材料燃烧性能检测***与方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032759A (ja) 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2007122507A (ja) 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2015132523A (ja) 2014-01-10 2015-07-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP2017150895A (ja) 2016-02-23 2017-08-31 株式会社デンソー 物体認識装置
WO2018198729A1 (ja) 2017-04-28 2018-11-01 シャープ株式会社 3次元画像素子および光レーダー装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005090974A (ja) 2003-09-12 2005-04-07 Daihatsu Motor Co Ltd 先行車認識装置
JP4407920B2 (ja) 2004-05-19 2010-02-03 ダイハツ工業株式会社 障害物認識方法及び障害物認識装置
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2008276691A (ja) * 2007-05-07 2008-11-13 Kwok-Yan Leung ハードディスクインターフェースを模擬したインターフェースカード
JP2010003091A (ja) * 2008-06-19 2010-01-07 Seiko Epson Corp オブジェクト検出装置、オブジェクト検出方法、オブジェクト検出プログラムおよび印刷装置
JP5138119B2 (ja) * 2011-04-25 2013-02-06 三洋電機株式会社 物体検出装置および情報取得装置
JP5845858B2 (ja) * 2011-11-30 2016-01-20 住友電気工業株式会社 対象検出装置および対象検出方法
FR2990038A1 (fr) * 2012-04-25 2013-11-01 St Microelectronics Grenoble 2 Procede et dispositif de detection d'un objet dans une image
CN109521397B (zh) * 2013-06-13 2023-03-28 巴斯夫欧洲公司 用于光学地检测至少一个对象的检测器
CN107229056A (zh) * 2016-03-23 2017-10-03 松下知识产权经营株式会社 图像处理装置、图像处理方法以及记录介质
JP2019028395A (ja) * 2017-08-03 2019-02-21 国立大学法人京都大学 光変調材料
JP7021885B2 (ja) * 2017-09-11 2022-02-17 株式会社日立エルジーデータストレージ 距離測定装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032759A (ja) 2000-07-19 2002-01-31 Mitsubishi Electric Corp 監視装置
JP2007122507A (ja) 2005-10-28 2007-05-17 Secom Co Ltd 侵入検知装置
JP2015132523A (ja) 2014-01-10 2015-07-23 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法及びプログラム
JP2017150895A (ja) 2016-02-23 2017-08-31 株式会社デンソー 物体認識装置
WO2018198729A1 (ja) 2017-04-28 2018-11-01 シャープ株式会社 3次元画像素子および光レーダー装置

Also Published As

Publication number Publication date
US11961306B2 (en) 2024-04-16
JP2020165679A (ja) 2020-10-08
WO2020196513A1 (ja) 2020-10-01
US20220012505A1 (en) 2022-01-13
CN113646804A (zh) 2021-11-12

Similar Documents

Publication Publication Date Title
JP7095640B2 (ja) 物体検出装置
US10832064B2 (en) Vacant parking space detection apparatus and vacant parking space detection method
US7973911B2 (en) Object measuring device and method for use in the device
CN103523014A (zh) 车载装置
US20220011425A1 (en) Radar power control method and apparatus
JP5718726B2 (ja) 車両周辺監視装置
CN110293973B (zh) 驾驶支援***
US20220011440A1 (en) Ranging device
US20220317269A1 (en) Signal processing device, signal processing method, and ranging module
JPWO2019202628A1 (ja) 路面検出装置、路面検出装置を利用した画像表示装置、路面検出装置を利用した障害物検知装置、路面検出方法、路面検出方法を利用した画像表示方法、および路面検出方法を利用した障害物検知方法
JP2007114831A (ja) 物体検出装置
JP2002099906A (ja) 物体認識装置
JP2020153797A (ja) 検出装置、測距装置、検出方法、プログラム、移動体
JP2019158662A (ja) 物標認識装置及び車両走行制御システム
JP2020066246A (ja) 路面状態推定装置
US20220214434A1 (en) Gating camera
WO2022190364A1 (ja) 情報処理装置、情報処理方法、プログラム及び記憶媒体
US20220207884A1 (en) Object recognition apparatus and object recognition program product
US20230336876A1 (en) Vehicle-mounted sensing system and gated camera
JP4151571B2 (ja) 車載用障害物検出装置
CN113966475A (zh) 测距装置和测距方法
JP3532896B2 (ja) スミア検出方法及びこのスミア検出方法を用いた画像処理装置
JP2021113767A (ja) 障害物検知装置、及び障害物検知システム
WO2021166912A1 (ja) 物体検出装置
JP2021103101A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220606

R151 Written notification of patent or utility model registration

Ref document number: 7095640

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151