JP2022067928A - 対象物推定装置、その対象物推定方法、および、車両 - Google Patents

対象物推定装置、その対象物推定方法、および、車両 Download PDF

Info

Publication number
JP2022067928A
JP2022067928A JP2020176798A JP2020176798A JP2022067928A JP 2022067928 A JP2022067928 A JP 2022067928A JP 2020176798 A JP2020176798 A JP 2020176798A JP 2020176798 A JP2020176798 A JP 2020176798A JP 2022067928 A JP2022067928 A JP 2022067928A
Authority
JP
Japan
Prior art keywords
image
estimation
spatial image
vehicle
automobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020176798A
Other languages
English (en)
Inventor
哉 小山
Hajime Koyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2020176798A priority Critical patent/JP2022067928A/ja
Priority to US17/502,807 priority patent/US20220121864A1/en
Publication of JP2022067928A publication Critical patent/JP2022067928A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Artificial Intelligence (AREA)
  • Transportation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】対象物の存在場所についての推定を改善する。【解決手段】対象物推定装置10は、空間に存在する対象物100を含む空間画像(34)を取得して、取得される対象物100を含む空間画像(34)に基づいて空間画像(34)における対象物100の存在場所を示す画像領域情報51,52を推定する。取得される空間画像(34)に含まれる対象物100が斜めになる姿勢で含まれている場合には、対象物推定装置10は、空間画像(34)において斜めになる姿勢で含まれている対象物100の画像領域35より広い画像領域を、空間画像(34)における対象物100の存在場所を示す画像領域情報51,52として推定することができる。【選択図】 図7

Description

本発明は、対象物推定装置、その対象物推定方法、および、車両に関する。
自動車といった車両では、自車である自動車の周囲を自動車に設けられるカメラにより撮像し、撮像画像から周囲に存在する他の車両などの対象物の存在場所を推定し、たとえば対象物の存在場所を避けて移動できるようになることが望ましい。
たとえば、特許文献1の物体検出装置は、撮影画像について検出される物体候補領域の物体の姿勢と相対距離とをニューラルネットワークにより学習し、推定して出力する。そして、特許文献1から得られる物体の姿勢と相対距離とを用いることにより、車両は、推定されている物体の存在場所を避けて移動することが可能となる。
特開2019-008460号公報
しかしながら、特許文献1のニューラルネットワークは、単純に、撮影画像と、撮影画像における物体の画像領域の周囲を囲うように設けられる推定枠とを教師データとして用いて、それらの関連性を機械的に学習するものである。
この場合、ニューラルネットワークは、基本的に撮影画像における物体の画像領域に対して推定枠を関連付けることになり、その結果として、実空間におけるたとえば車両といった物体が存在している場所と、撮影画像における物体の画像領域の周囲を囲う推定枠に基づいて推定される場所との間に、大きな誤差を生じることがある。
たとえば、撮像画像に含まれる物体としての車両が、撮像画像の視点位置に対して斜めになる姿勢で撮像画像に含まれている場合、実空間での車両の先端は、撮像画像における車両の画像領域に基づいて推定される車両の存在位置を示す推定枠より撮影画像の視点位置へ向かって飛び出したようになってしまう。一つの理由は、車両の外形が、これらの推定処理において一般的に仮定されている立方体形状ではないことに起因する。特に、近年の自動車は、歩行者などの車外の人との衝突安全性を高めるために、旧来のものより丸みを帯びた角が立っていない外形を有するため、この仮定に起因する誤差はとても大きいものになる。その結果、たとえば推定されている物体の存在場所の近くを通過しようと制御されている自動車は、正常な制御の下で、物体と触れてしまう可能性が生じ得る。
このように対象物の存在場所についての推定は、改善することが求められる。
本発明の一形態に係る対象物推定装置は、空間に存在する対象物を含む空間画像を取得可能な取得部と、前記取得部により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の存在場所を示す画像領域情報を推定する推定部と、を有し、前記推定部は、前記取得部により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができる。
好適には、前記推定部は、空間に存在する前記対象物を含む前記空間画像と、前記空間画像における前記対象物の存在場所を示す前記画像領域情報との関連性を機械学習して、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定することができる、とよい。
好適には、前記推定部は、前記画像領域情報として、前記空間画像における前記対象物の画像領域の周囲を囲う推定パターンを機械学習し、または推定することができる、とよい。
好適には、前記推定部は、前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、斜めになる姿勢で含まれている前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを機械学習し、または推定することができる、とよい。
好適には、前記推定部は、前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合と比べて、前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを機械学習し、または推定することができる、とよい。
好適には、前記推定部は、前記取得部により取得される前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合には、対向する姿勢で含まれている前記対象物の画像領域と接する前記推定パターンを推定し、前記取得部により取得される前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、前記取得部により取得される前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合と比べて、前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを推定することができる、とよい。
好適には、前記推定部は、前記空間画像に含まれる対象物を平面視した状態で前記対象物の全体を含むように囲う四角形の平面枠を基準として、前記平面枠に対して立設することになる推定パターンを機械学習して、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報としての前記推定パターンを推定することができる、とよい。
好適には、前記推定部は、前記推定パターンとして、前記空間画像の地面に立接していることになる四角形の前記推定パターン、または前記空間画像の地面と接していることになる四角形の前記推定パターンを機械学習し、または推定することができる、とよい。
好適には、前記推定部は、前記取得部により取得される前記空間画像に含まれる前記対象物として少なくとも車両を対象として、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定するものであり、前記空間画像に含まれる対象物としての前記車両が斜めになる姿勢で含まれている場合には、斜めになる姿勢で含まれている前記車両についての正対面、前記正対面に隣接する隣接面、並びに、前記正対面および前記隣接面の双方の中の少なくとも2つに対応している、少なくとも2種類の推定パターンを機械学習し、または推定することができる、とよい。
好適には、前記推定部により生成される前記画像領域情報を用いて、空間に存在する対象物についての位置、方向、または距離を生成する後処理部、を有する、とよい。
好適には、前記後処理部は、前記取得部により取得される前記空間画像に含まれる前記対象物として少なくとも車両を対象として、前記対象物についての位置、方向、または距離を生成するものであり、少なくとも、前記空間画像に含まれる対象物としての前記車両が斜めになる姿勢で含まれている場合には、前記推定部か推定する前記画像領域情報としての、斜めになる姿勢で含まれている前記車両についての正対面、前記正対面に隣接する隣接面、並びに、前記正対面および前記隣接面の双方の中の少なくとも2つに対応している、少なくとも2種類の推定パターンを用いて、斜めになる姿勢で含まれている前記車両についての位置、方向、または距離を生成する、とよい。
好適には、前記後処理部は前記空間画像において斜めになる姿勢で含まれている対象物としての車両について、前記推定部か推定する前記画像領域情報としての少なくとも2種類の推定パターンに基づいて、前記空間画像に含まれる対象物を平面視した状態で前記対象物の全体を含むように囲う四角形の平面枠の角を路面へ写した複数の路面点位置として、斜めになる姿勢で含まれている前記車両の画像領域の左右両側の前記路面点位置を特定し、斜めになる姿勢で含まれている前記車両の画像領域についての特定した左右両側の前記路面点位置を基準として、左右両側の前記路面点位置の間にある中央の前記路面点位置を特定し、特定した3つの前記路面点位置から、空間に存在する対象物としての前記車両についての位置、方向、または距離を生成する、とよい。
本発明の一形態に係る対象物推定装置の対象物推定方法は、空間に存在する対象物を含む空間画像における、前記対象物の存在場所を示す前記画像領域情報を推定する対象物推定装置の対象物推定方法であって、前記空間に存在する前記対象物を含む前記空間画像を取得可能な取得工程と、前記取得工程により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定する推定工程と、を有し、前記推定工程は、前記取得工程により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができる。
本発明の一形態に係る車両は、車両の周辺の空間を撮像する撮像デバイスと、前記撮像デバイスによる撮像画像を処理する処理部と、前記処理部の処理結果を用いて、車両の走行を制御する制御部と、を有し、前記処理部は、前記空間に存在する前記対象物を含む空間画像として前記撮像画像を取得可能な取得部と、前記取得部により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の画像領域情報を推定する推定部と、前記推定部により生成される前記画像領域情報を用いて、空間に存在する対象物についての位置、方向、または距離を生成する後処理部と、を有し、前記推定部は、前記取得部により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができ、前記制御部は、前記処理部の処理結果としての、前記後処理部により推定された空間に存在する対象物についての位置、方向、または距離を用いて、前記空間画像において斜めになる姿勢で含まれている前記対象物と接触し難くした進路または進行可能範囲を決定して、前記車両の走行を制御する。
本発明において、取得される対象物を含む空間画像の少なくとも一部に基づいて、空間画像における対象物の存在場所を示す画像領域情報を推定する推定部は、取得される空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、空間画像において斜めになる姿勢で含まれている対象物の画像領域より広い画像領域を、空間画像における対象物の存在場所を示す画像領域情報として推定することができる。
その結果、本発明では、空間画像において斜めになる姿勢で含まれている対象物についての空間画像における対象物の存在場所を示す画像領域情報に基づいて、たとえば対象物の画像領域と接している推定枠による画像領域情報と比べて、より近づいた対象物の存在場所を得ることが可能になる。
これにより、本発明では、対象物の存在場所についての推定を改善できる可能性がある。
図1は、本発明の実施形態に係る自律的な運転支援または自動運転の機能を有する自動車の制御系の説明図である。 図2は、図1の対象物推定装置の説明図である。 図3は、図2(B)の深層学習ニューラルネットワークが学習する学習画像の一例の説明図である。 図4は、図2(B)の深層学習ニューラルネットワークに対して、図3の学習画像とともに学習させることができる推定枠の一例の説明図である。 図5は、対象物である他の自動車についての自車としての自動車からの相対的な位置、方向、間隔(距離)の説明図である。 図6は、図3(B)において斜めになる姿勢で撮像されている他の自動車に外接する平面枠、および外接立方体の説明図である。 図7は、本実施形態において、斜めになる姿勢で学習画像に撮像されている他の自動車の画像領域と対応付けて関連性が学習される推定枠の一例の説明図である。 図8は、図2の対象物推定装置による対象物の推定制御のフローチャートである。 図9は、2つの推定枠に基づく後処理制御のフローチャートである。
以下、本発明の実施形態を、図面に基づいて説明する。
図1は、本発明の実施形態に係る自律的な運転支援または自動運転の機能を有する自動車1の制御系の説明図である。
自動車1は、車両の一例である。
図1の自動車1は、自動車1の外側である周囲を撮像して撮像画像を生成する撮像デバイス2、対象物推定装置10、三次元地図装置3、走行制御部4、アクチュエータ5、車両動きセンサ6、位置情報生成装置7、車両通信装置8、を有する。対象物推定装置10、三次元地図装置3、および走行制御部4は、自動車1の走行を制御するための自動車1の制御装置として機能する。
アクチュエータ5は、たとえばエンジン、モータ、トランスミッション、制動装置、ステアリング装置といった自動車1の走行を実現するための不図示の装置の動作を制御するものである。アクチュエータ5は、たとえば装置ごとに、複数で設けられてよい。
車両動きセンサ6は、自動車1の走行などによる動きを検出する。車両動きセンサ6は、たとえば加速度センサ、速度センサ、などでよい。加速度センサは、たとえば自動車1の前後左右上下の3軸方向の加速度を検出してよい。速度センサは、たとえば自動車1の前後左右上下の3軸方向の速度を検出してよい。車両動きセンサ6は、自動車1の走行による動きを検出して、その検出情報を走行制御部4へ出力する。
走行制御部4は、自動車1の走行を制御するものであり、アクチュエータ5へ制御信号を出力する。走行制御部4は、たとえば、乗員の運転操作に基づいて自動車1の走行を制御しても、自動運転により自動車1の走行を制御しても、よい。また、走行制御部4は、自車で検出または生成される各種の情報を用いて、手動運転または自動運転による車両の走行を調整するように運転を支援してよい。このような走行が可能な自動車1は、自律的な運転支援または自動運転により走行することができる。
位置情報生成装置7は、たとえばGNSS(Global Navigation Satellite System)衛星からの電波を受信して、位置情報生成装置7が設けられている自動車1の現在位置、現在時刻を生成する。位置情報生成装置7は、生成した自動車1の現在位置、現在時刻を走行制御部4へ出力する。
三次元地図装置3は、たとえば自動車1の現在位置の周辺の地図情報を、走行制御部4へ出力する。
撮像デバイス2は、自動車1の周辺空間を撮像するために自動車1に設けられる、たとえば単眼カメラデバイスでよい。単眼カメラデバイスは、たとえば自動車1の前へ向けて、フロントガラスの上部に設けられてよい。この場合、単眼カメラデバイスは、自動車1の進行方向である前方向について撮像して、その二次元的な平面の撮像画像を生成し、撮像画像を所定の信号フォーマットで出力する。検出された撮像画像を含む画像信号は、撮像デバイス2から出力された後、制御装置へ伝送されて、制御装置に入力される。撮像画像についての画像信号は、制御装置において分岐されて、対象物推定装置10と走行制御部4とに入力されてよい。撮像デバイス2は、自動車1において複数で設けられてよい。複数の撮像デバイス2は、たとえば互いの画角が重ならないように4方向に向けて設けられて、自動車1の周囲である360度のすべての方向を撮像してよい。この場合、制御装置、対象物推定装置10、および走行制御部4には、複数の撮像デバイス2からの複数の撮像画像の画像信号が入力されてよい。なお、撮像デバイス2には、たとえばステレオカメラデバイスといった複眼カメラデバイスが含まれてよい。複眼カメラデバイスは、複数のカメラで撮像した複数の撮像画像の1つを、またはすべてを合成した画像を、制御装置、対象物推定装置10、および走行制御部4へ出力してよい。
車両通信装置8は、自動車1の外と通信する。車両通信装置8は、たとえば移動体通信網の基地局、交通情報配信網の基地局、他の自動車100といった移動体、歩行者などが所持する携帯端末、通信衛星、などと通信路を生成してよい。車両通信装置8は、生成している通信路を通じて、不図示のサーバ装置との間でデータを送受してよい。車両通信装置8は、たとえばサーバ装置から受信した受信データを制御装置へ出力する。車両通信装置8は、制御装置からの送信データをたとえばサーバ装置へ送信する。受信データは、たとえば自動運転のための経路、進路、移動可能範囲、周辺に存在する他の自動車100の現在または将来の位置、移動速度、移動方向、周辺空間の撮像画像、についてのものでよい。送信データは、たとえば自車である自動車1の現在または将来の位置、移動速度、移動方向、進路、移動想定範囲、経路、についてのものでよい。
対象物推定装置10は、撮像デバイス2による周辺空間の撮像画像を処理する処理部である。対象物推定装置10は、撮像画像の処理結果を、走行制御部4へ出力する。対象物推定装置10は、たとえば、撮像画像に含まれる他の移動体の相対的な位置、方向、間隔(距離)を、周辺車情報として走行制御部4へ出力してよい。
走行制御部4は、これらの装置から得られる情報を用いて、自動車1の自律的な走行を制御してよい。たとえば、走行制御部4は、対象物推定装置10による撮像画像の処理結果を用いて、自動車1の走行を制御してよい。
なお、特段の図示はしないが、図1の各部は、自動車1に設けられる制御系の車ネットワークにより、相互に接続されよい。車ネットワークには、たとえば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay、CXPI(Clock Extension Peripheral Interface)といったものがある。車ネットワークは、たとえば、複数の装置に接続される複数のバスケーブルと、複数のバスケーブルがバス接続される中継装置としてのセントラルゲートウェイ(CGW)と、で構成されてよい。複数の制御ECUは、車ネットワークを通じて相互にメッセージを送受することにより、情報を送受できる。これにより、自動車1の制御系に設けられる各部は、協働して自動車1を制御する。
図2は、図1の対象物推定装置10の説明図である。
図2(A)は、図1の対象物推定装置10のハードウェア構成の説明図である。
図2(A)の対象物推定装置10は、入出力ポート11、メモリ12、CPU13、タイマ14、および、これらが接続される内部バス15、を有する。
入出力ポート11は、対象物推定装置10の物理的な出力部23である。入出力ポート11には、撮像デバイス2、走行制御部4、が接続される。
入出力ポート11は、特に、撮像デバイス2と接続されて、撮像デバイス2の撮像画像を所定の信号フォーマットで入力される画像信号に専用の入力端子を備えてよい。画像信号に専用の入力端子は、たとえばビデオ端子でよい。
タイマ14は、時刻、時間を計測する。
メモリ12は、CPU13により実行されるプログラムおよびデータを記憶する。データには、たとえば、設定データ、実行中データ、がある。メモリ12は、たとえばROM、RAM、記録ディスク、半導体メモリ、で構成されてよい。メモリ12は、揮発性であっても不揮発性であってもよいが、CPU13により実行されるプログラムおよび設定データについては少なくとも不揮発性のメモリ12に記録するとよい。
CPU13は、たとえば情報処理装置にて用いられる汎用的なCPU13であっても、自動車1で用いられるECUであっても、画像処理などの特殊な処理において高い機能を有するGPU、ASIC、であってもよい。CPU13は、メモリ12に記録されているプログラムを読み込んで実行する。これにより、CPU13は、撮像デバイス2による周辺空間の撮像画像を取得して処理する取得部および処理部として機能し得る。
CPU13は、たとえば、内部バス15を通じて入出力ポート11から撮像デバイス2から画像信号に重畳されていた周辺空間の撮像画像を取得し、撮像画像に含まれる対象物についての推定処理などを実行する。CPU13は、撮像画像についての対象物の処理結果の情報を、内部バス15を通じて入出力ポート11へ出力する。入出力ポート11へ出力された撮像画像についての対象物の処理結果の情報は、走行制御部4へ出力される。
図2(B)は、図2(A)の対象物推定装置10において実現される深層学習ニューラルネットワーク(DNN)の説明図である。
CPU13は、メモリ12に記録されているプログラムを読み込んで実行することにより、図2(B)の深層学習ニューラルネットワークを対象物推定装置10に実現する。
図2(B)の対象物推定装置10に実現される深層学習ニューラルネットワークは、入力部21、DNN部22、出力部23、を有する。
DNN部22は、学習画像とその推定結果である推定枠との関連性を機械学習した学習済みモデルにより推定処理を実行するものである。DNN部22は、たとえばニューラルネットワークを模した多段の信号処理構造を有する。
学習画像は、撮像デバイス2による周辺空間の撮像画像であっても、仮想空間についての画像であっても、これらを混合した画像であってもよい。
推定枠は、学習画像に含まれるたとえば後述する図5に示す他の自動車100といった対象物についての、画像中の存在場所を示す情報である。
そして、DNN部22は、学習画像と、その画像に含まれている他の自動車100についての画像中の存在場所を示す推定枠との入力に基づいて、これらの関連性を学習する。
これにより、DNN部22は、画像から推定枠を得るための関連性についてのパラメータなどを生成する。メモリ12には、DNN部22のためのニューラルネットワークのプログラムとともに、この関連性のパラメータなどが記録されてよい。
このような学習を終えたDNN部22は、撮像デバイス2の周辺空間の撮像画像が入力部21から入力されると、入力された撮像画像についてのニューラルネットワークによる推定処理を実行して、画像中の他の自動車100の存在場所を示す推定枠を、出力部23から出力する。
なお、CPU13は、撮像画像に他の自動車100の画像成分が含まれているか否かを判断し、他の自動車100の画像成分が含まれている場合には、少なくとも他の自動車100の画像成分が含まれている一部についてDNN部22としての推定処理を実行してもよい。この場合、DNN部22としてのCPU13は、他の自動車100を一部に含む画像の全体についてではなく、他の自動車100の画像領域より少し大きいサイズの部分画像について学習して、学習する画像と、その画像中の他の自動車100の存在場所を示す推定枠との関連性を学習することになる。
このように、対象物推定装置10のCPU13は、実空間に存在する他の自動車100といった対象物を含む空間画像と、空間画像における対象物の存在場所を示す推定枠との関連性を機械学習して、学習した関連性に基づいて撮像デバイス2による周辺空間の撮像画像に含まれる他の自動車100の存在場所を示す推定枠を推定することができる。
図3は、図2(B)の深層学習ニューラルネットワークが学習する学習画像の一例の説明図である。学習画像は、空間画像の一例である。撮像画像も、空間画像の一例である。
図3(A)は、自車である自動車1の前を走行する他の自動車100を後方から撮像した学習画像31である。
この場合、他の自動車100は、学習画像31において、その後面が学習画像31の視点位置へ向かう姿勢で含まれている。この場合、学習画像31に含まれる物体としての他の自動車100についての後面は、学習画像31の視点位置に対して向いた正対面となる。学習画像31には、他の自動車100についての後面の画像領域32が含まれる。
図3(B)は、先行する他の自動車100を斜め後方から撮像した学習画像34である。他の自動車100は、たとえば自車である自動車1が走行している車線に隣接する車線を走行している。
この場合、他の自動車100は、学習画像34おいて、学習画像34の視点位置に対して斜めになる姿勢で含まれている。学習画像34には、他の自動車100の左側面と後面とが含まれている。学習画像34に含まれる物体としての他の自動車100の後面は、学習画像34の視点位置に対して向いた正対面となり、左側面が正対面と隣接する隣接面となる。学習画像34には、他の自動車100についての後面および左側面の画像領域35が含まれる。
図4は、図2(B)の深層学習ニューラルネットワークに対して図3の学習画像31,34とともに学習させることが可能な、他の自動車100の画像領域32,35に対して設定される一般的な推定枠33,36の一例の説明図である。
ここでの推定枠33,36は、学習画像31,34における他の自動車100の画像領域32,35を示すものであり、処理の対象物である他の自動車100の画像領域32,35の周囲を囲う四角形の推定パターンとされている。推定枠33,36は、他の自動車100の画像中の存在場所を示す画像領域情報として用いることが可能である。
図4(A)の左側には、学習画像31に含まれる他の自動車100の背面の画像領域32が示されている。この場合、他の自動車100の画像領域32に対して設定される一般的な推定枠33は、図4(A)の右側に示すように、他の自動車100の画像領域32の輪郭に対して4辺のすべてが接する四角形の推定枠となる。四角形の推定枠33は、他の自動車100の画像領域32に対して4辺のすべてが外接している。
図4(B)の左側には、学習画像34に含まれる他の自動車100の背面と左側面との画像領域35が示されている。他の自動車100は、学習画像34の視点位置に対して斜めとなる姿勢で、学習画像34に含まれている。この場合、他の自動車100の画像領域35に対して設定される一般的な推定枠36は、図4(B)の右側に示すように、他の自動車100の画像領域35の輪郭に対して4辺のすべてが接する四角形の推定枠となる。四角形の推定枠36は、他の自動車100の画像領域35に対して4辺のすべてが外接している。
このような推定枠33,36を学習画像31,34とともに学習した場合、深層学習ニューラルネットワークは、周辺空間の撮像画像に含まれる他の自動車100についての存在場所の推定処理により、図4と同様に周辺空間の撮像画像に含まれる他の自動車100の画像範囲の輪郭に対して4辺のすべてが接する推定枠を推定するようになると考えられる。
図5は、対象物である他の自動車100についての、自車としての自動車1からの相対的な位置、方向、間隔の説明図である。
図5は、撮像デバイス2が設けられる自車である自動車1と、他の自動車100とを、真上方向から平面視した状態での模式図である。
図5には、撮像デバイス2を中心として、撮像デバイス2が設けられる自車である自動車1の走行方向の前側の周辺空間が示されている。
ここで、他の自動車100は、自車である自動車1についての右前方向に存在する。この場合、他の自動車100は、学習画像、または撮像デバイス2による周辺空間の撮像画像において、斜めとなる姿勢で映ることになる。画像中の他の自動車100の前面が画像の視点位置へ向かう正対面となり、左側面が、正対面と隣接する隣接面となる。
そして、図5(A)は、図4(B)の推定枠36を学習している場合での、図2の対象物推定装置10により撮像画像について推定される他の自動車100の相対的な位置、方向、間隔についての説明図である。
これに対し、図5(B)は、本実施形態の後述する推定枠51,52を学習した場合での、図2の対象物推定装置10により撮像画像について推定される他の自動車100の相対的な位置、方向、間隔についての説明図である。
そして、図4(B)の推定枠36を学習している場合、撮像画像についての推定枠は、図5(A)に示す推定枠36のように推定される。
図4では、図3の学習画像31,34とともに、他の自動車100の画像領域32,35の輪郭に対して4辺のすべてが外接する四角形の推定枠33,36が教師データとして用いられる。この関連性を機械的に学習している場合、深層学習ニューラルネットワークは、学習画像31,34について、学習画像31,34に含まれる他の自動車100の画像領域32,35の輪郭に対して4辺のすべてが外接する四角形の推定枠33,36を学習することになる。
図2の対象物推定装置10のCPU13は、撮像デバイス2の撮像画像における他の自動車100の存在場所を示す推定枠として、図4の推定枠33,36と同様に、撮像デバイス2の撮像画像に含まれる他の自動車100の画像領域の輪郭に対して4辺のすべてが外接する四角形の推定枠を出力するようになる。
そして、この場合の推定枠は、図5(A)に示すように、実際に他の自動車100が存在している範囲の内側に収まる。推定枠36が対角を結ぶことになる平面枠101は、他の自動車100の右側面、前面、左側面、後面による外形より小さくなる。実空間に存在する他の自動車100は、平面枠101の前後左右へ飛び出すようになる。たとえば他の自動車100の前部は、平面枠101より前へ飛び出してる。他の自動車100は、平面枠101の位置より自車である自動車1へ向かうように手前へ飛び出している。
このような関係となる理由の一つとしては、たとえば自動車1がその前後左右の4つの角が削られて丸くなっており、自動車1の実際の外形が平面枠101より小さくなっていることにあると考えられる。自動車1の外形が立方体形状ではないことに起因して、自動車1に対応四する推定枠36および平面枠101が、自動車1の外形より小さくなる。
このように推定枠36の範囲が、被写体である他の自動車100の実際の外形より小さくなると、それに基づいて得られる他の自動車100の相対的な位置、方向、間隔は、図中に実線矢印で示すように、自車である自動車1から他の自動車100までの実際の位置、方向、間隔とは異なるものとなる。図5(A)中の実線の矢印の先端は、推定枠36の中央部分へ向けて描画されている。
特に、図5(A)のように推定枠36の範囲が他の自動車100の実際の外形より小さくなると、他の自動車100について推定される間隔は、実際の間隔より広くなり易い。その結果、他の自動車100は、実際より遠くに存在すると推定されてしまう。そのような推定に基づく自動車1の走行制御が正常に実行されたとしても、自車である自動車1と他の自動車100とが必要以上に接近してしまう可能性がある。自動車1は、推定されている他の自動車100の存在場所の近くを通過しようと正常な制御を実行しているにもかかわらず、その正常な制御の下で他の自動車100と触れてしまう可能性が生じ得る。
なお、仮に図5(A)の推定枠36から平面枠101を得て、その平面枠101の近接角P3’を得るようにしても、平面枠101そのものが他の自動車100の実際の外形より小さくなっているため、推定される間隔は、同様に、実際より広くなってしまう。したがって、それに基づく自動車1の走行制御が正常に実行されたとしても、自車である自動車1と他の自動車100とが必要以上に接近してしまう可能性が生じ得ることには変わりがない。
このように、図4のように他の自動車100の画像領域32,35の輪郭に対して4辺のすべてが外接している四角形の推定枠33,36を学習し、それに基づいて推定枠の推定を実行してしまうと、図2の対象物推定装置10のCPU13は、他の自動車100についての相対的な位置、方向、間隔として、実際との誤差が大きいものを推定してしまうことになる。
このように他の自動車100などの、自車である自動車1の周辺にいる対象物の存在場所についての推定は、改善することが求められる。
図6は、図3(B)において斜めになる姿勢で撮像されている他の自動車100に外接する平面枠41、および外接立方体42の説明図である。
図6(A)は、他の自動車100を上から見た平面図である。図6(A)の他の自動車100は、その前後左右の4つの角が削られて丸くなっている外形を有する。
本実施形態では、図6(A)の他の自動車100に対して、その全体を含むように囲う四角形の平面枠41を想定する。本実施形態の平面枠41において、他の自動車100の前後左右それぞれの側面に沿って延在する4辺は、各々に対応する他の自動車100の側面と外接している。
図6(B)は、図6(A)の他の自動車100を、左斜め後方から見た斜視図である。
図6(B)には、他の自動車100の全体を含む外接立方体42が示されている。外接立方体42の6つの各面は、他の自動車100の上下左右前後の各面と接する。外接立方体42の上面は、四角形の平面枠41と同じになってよい。
図6(B)の外接立方体42の底面は、基本的に他の自動車100が走行している路面であると想定できる。この想定を前提にすれば、外接立方体42の底面の角である図中のP1、P2、およびP3は、四角形の平面枠41の角を路面へ写した複数の路面点位置となる。
そして、本実施形態では、これらの他の自動車100を含むように外接している平面枠41または外接立方体42を基準として、画像に含まれる他の自動車100についての存在場所を示す推定枠を機械学習に使用し、推定する。
また、学習する推定枠には、路面に対して接しているもの、または路面に対して立設しているものを使用する。
これにより、学習済みの深層学習ニューラルネットワークは、他の自動車100を含むように外接している平面枠41または外接立方体42を基準とした推定枠を、画像に含まれる他の自動車100についての存在場所を示す画像領域情報として推定できるようになることが期待できる。
また、学習済みの深層学習ニューラルネットワークは、路面に対して接している推定枠、または路面に対して立設している推定枠を、推定できるようになることが期待できる。
図7は、本実施形態において、斜めになる姿勢で学習画像34に撮像されている他の自動車100の画像領域35と対応付けて関連性が学習される推定枠51~54の一例の説明図である。
この学習画像34についての推定枠51~54は、学習済みの深層学習ニューラルネットワークにより、撮像デバイス2の撮像画像について推定されることが望まれているものである。
図7(A)は、斜めになる姿勢で撮像されている他の自動車100の正対面および隣接面の全体を囲う全体推定枠51の一例の説明図である。
図7(A)の全体推定枠51は、他の自動車100の正対面および隣接面による画像領域35の全体を囲うように設定される。
全体推定枠51の左辺は、学習画像34(撮像画像でもある。以下の説明において同じ。)において基本的に画面の上下方向に沿って延在するものである。全体推定枠51の左辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左前側の縦縁と、重なる。全体推定枠51の左辺は、他の自動車100の画像領域35から離れている。全体推定枠51の左辺は、学習画像34において、外接立方体42の左前側の縦縁による底面の角である路面点位置P1と重なる。
全体推定枠51の右辺は、学習画像34において基本的に画面の上下方向に沿って延在するものである。全体推定枠51の右辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の右後側の縦縁と、学習画像34において重なる。全体推定枠51の右辺は、他の自動車100の画像領域35から離れている。全体推定枠51の右辺の下端は、学習画像34において、外接立方体42の右後側の縦縁による底面の角である路面点位置P2と重なる。
全体推定枠51の上辺と下辺とは、学習画像34において基本的に画面の左右方向に沿って延在するものである。上辺と下辺とは、左辺と左辺とを連結する。
これにより、四角形の全体推定枠51は、他の自動車100の正対面および隣接面による画像領域35の全体を含んで囲うように、学習画像34に対して設定される。
全体推定枠51は、学習画像34に含まれる他の自動車100を平面視した状態で、他の自動車100の前後左右それぞれの側面に沿って囲う四角形の平面枠41を基準として、平面枠41の対角を結ぶ姿勢で立設している。
また、全体推定枠51についての図中の右下角は、路面点位置P2と重なっており、学習画像34に含まれている他の自動車100の周囲の地面と接している。
図7(B)は、斜めになる姿勢で撮像されている他の自動車100の隣接面を囲う隣接推定枠52の一例の説明図である。
図7(B)の隣接推定枠52は、他の自動車100の隣接面による画像領域に対して重ねて設定される。
隣接推定枠52の左辺は、学習画像34において画面の上下方向に沿って延在するものである。隣接推定枠52の左辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左前側の縦縁と、重なる。隣接推定枠52の左辺は、他の自動車100の画像領域35から離れている。隣接推定枠52の左辺の下端は、学習画像34において、外接立方体42の左前側の縦縁による底面の角である路面点位置P1と重なる。
隣接推定枠52の右辺は、学習画像34において画面の上下方向に沿って延在するものである。隣接推定枠52の右辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左後側の縦縁と、重なる。学習画像34において隣接推定枠52の右辺の下方には、外接立方体42の左後側の縦縁による底面の角である路面点位置P3が位置する。
隣接推定枠52の上辺と下辺とは、学習画像34において基本的に画面の左右方向に沿って延在するものである。上辺と下辺とは、左辺と左辺とを連結する。
これにより、四角形の隣接推定枠52は、他の自動車100の隣接面による画像領域に対して重なるように、学習画像34に対して設定される。
隣接推定枠52は、学習画像34に含まれる他の自動車100を平面視した状態で、他の自動車100の前後左右それぞれの側面に沿って囲う四角形の平面枠41を基準として、平面枠41の図中の左縁に沿うように立設している。
また、隣接推定枠52についての図中の左下角は、路面点位置P1と重なっており、学習画像34に含まれている他の自動車100の周囲の地面と接している。
図7(C)は、斜めになる姿勢で撮像されている他の自動車100の隣接面を囲う他の隣接推定枠53の一例の説明図である。
図7(C)の他の隣接推定枠53は、他の自動車100の隣接面による画像領域に対して重ねて設定される。
他の隣接推定枠53の左辺は、学習画像34において画面の上下方向に沿って延在するものである。他の隣接推定枠53の左辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左前側の縦縁と、重なる。他の隣接推定枠53の左辺は、他の自動車100の画像領域35から離れている。他の隣接推定枠53の左辺は、学習画像34において、外接立方体42の左前側の縦縁による底面の角である路面点位置P1と重なる。
他の隣接推定枠53の右辺は、学習画像34において画面の上下方向に沿って延在するものである。他の隣接推定枠53の右辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左後側の縦縁と、重なる。他の隣接推定枠53の右辺の下端は、学習画像34において、外接立方体42の左後側の縦縁による底面の角である路面点位置P3と重なる。
他の隣接推定枠53の上辺と下辺とは、学習画像34において基本的に画面の左右方向に沿って延在するものである。上辺と下辺とは、左辺と左辺とを連結する。
これにより、四角形の他の隣接推定枠53は、他の自動車100の隣接面による画像領域に対して重なるように、学習画像34に対して設定される。
他の隣接推定枠53は、学習画像34に含まれる他の自動車100を平面視した状態で、他の自動車100の前後左右それぞれの側面に沿って囲う四角形の平面枠41を基準として、平面枠41の図中の左縁に沿うように立設している。
また、他の隣接推定枠53についての図中の右下角は、路面点位置P3と重なっており、学習画像34に含まれている他の自動車100の周囲の地面と接している。
図7(D)は、斜めになる姿勢で撮像されている他の自動車100の正対面を囲う正対推定枠54の一例の説明図である。
図7(D)の正対推定枠54は、他の自動車100の正対面による画像領域に対して重ねて設定される。
正対推定枠54の左辺は、学習画像34において画面の上下方向に沿って延在するものである。正対推定枠54の左辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の左後側の縦縁と、重なる。正対推定枠54の左辺の下端は、学習画像34において、外接立方体42の左後側の縦縁による底面の角である路面点位置P3と重なる。
正対推定枠54の右辺は、学習画像34において画面の上下方向に沿って延在するものである。正対推定枠54の右辺は、学習画像34の視点位置から見て、学習画像34における外接立方体42の右後側の縦縁と、重なる。正対推定枠54の右辺は、他の自動車100の画像領域35から離れている。学習画像34において正対推定枠54の右辺には、外接立方体42の右後側の縦縁による底面の角である路面点位置P2と重なる。
正対推定枠54の上辺と下辺とは、学習画像34において基本的に画面の左右方向に沿って延在するものである。上辺と下辺とは、左辺と左辺とを連結する。
これにより、四角形の正対推定枠54は、他の自動車100の正対面による画像領域に対して重なるように、学習画像34に対して設定される。
正対推定枠54は、学習画像34に含まれる他の自動車100を平面視した状態で、他の自動車100の前後左右それぞれの側面に沿って囲う四角形の平面枠41を基準として、平面枠41の図中下側の正対縁に沿うように立設している。
また、正対推定枠54についての図中の左下角は、路面点位置P3と重なっており、学習画像34に含まれている他の自動車100の周囲の地面と接している。
これらの学習画像34と対応付けて学習される推定枠51~54は、学習画像34に含まれる他の自動車100の画像領域35より幅広となる。
幅広の推定枠51~54は、少なくとも、学習画像34に含まれる対象物としての他の自動車100が、学習画像34の視点位置に対して斜めになる姿勢で、学習画像34に含まれている場合において、学習画像34と対応付けて学習されるとよい。幅広の推定枠51~54は、学習画像31に含まれる他の自動車100が、学習画像31の視点位置へ向かう姿勢で、学習画像31に含まれている場合においても、その学習画像31と対応付けて学習されてもよい。
このような学習をした学習済みの深層学習ニューラルネットワークは、撮像デバイス2による撮像画像における対象物である他の自動車100の存在場所を示す画像領域情報として、撮像画像において他の自動車100の画像領域と重なる幅広の推定枠51~54を推定するようになる。図3の学習画像34とともにたとえば図7(A)の全体推定枠51と図7(B)の隣接推定枠52とを教師データとして用いて、それらの関連性を機械的に学習している場合、その学習済みモデルによる推定を実行する図2の対象物推定装置10のCPU13は、撮像デバイス2の撮像画像について、撮像デバイス2の撮像画像に斜めになる姿勢で含まれる他の自動車100の画像領域の輪郭に対して4辺の少なくとも一部が離れている全体推定枠51と隣接推定枠52とを推定することになる。図2の対象物推定装置10のCPU13は、撮像画像に斜めになる姿勢で含まれている自動車1についての、撮像画像における対象物の存在場所を示す対象物推定情報として、撮像デバイス2の撮像画像に含まれる他の自動車100の画像領域の輪郭に対して4辺の少なくとも一部が離れている全体推定枠51と隣接推定枠52とを推定することができる。
撮像画像について推定された幅広の推定枠は、図7の場合と同様に、撮像画像において斜めになる姿勢で含まれている他の自動車100の画像領域から、四角形の4辺の中の少なくとも一部が離れている。撮像画像に含まれる他の自動車100が撮像画像の視点位置に対して斜めになる姿勢で含まれている場合での幅広の推定枠は、たとえば撮像画像の視点位置と対向するように向いた姿勢で含まれている場合での図4(A)のような一般的な推定枠33と比べて、4辺の中の少なくとも一部が他の自動車100の画像領域から離れるようになっている。
しかも、推定された幅広の推定枠は、撮像画像に含まれる地面と接している、または撮像画像に含まれる地面に立設している、と推定できる。
なお、本実施形態において学習可能な推定枠または推定可能な推定枠は、図7に例示する推定枠51~54に限られない。学習可能な推定枠または推定可能な推定枠は、少なくとも、対象物である他の自動車100の前後左右それぞれの側面に沿って囲う四角形の平面枠41を基準として立設しているものであればよい。
また、本実施形態において学習可能な推定枠または推定可能な推定枠は、好ましくは、図7のものと同様に、撮像画像に含まれる地面と接している、または撮像画像に含まれる地面に立設している、ものにするとよい。この際、学習可能な推定枠または推定可能な推定枠は、図7とは異なる路面点位置において地面と接したり、地面に立設したり、してよい。
本実施形態では、たとえば図7に示す4つの推定枠51~54の中の、少なくとも2つの推定枠について、撮像画像とともに機械学習する。学習に係る複数の推定枠は、画像における位置および広さが互いに異なる。以下の説明では、図7(A)の全体推定枠51と、図7(B)の隣接推定枠52とを機械学習した学習済みの深層学習ニューラルネットワークを例として説明する。
なお、深層学習ニューラルネットワークの学習に用いられる推定枠は、図6や図7に示す平面枠41より大きいサイズの平面枠を基準とするものでもよい。基準となる平面枠が大きくなると、推定枠も大きく幅広になる。推定枠は、被写体である他の自動車100の実際の位置から外側へ向けて離れるように設定されることになる。大きい推定枠に基づいて生成される自車である自動車1から他の自動車100までの間隔は、小さい推定枠での間隔より小さくなる。その結果、推定枠に基づいて自動車1の走行を制御する際には、他の自動車100からより離れるように走行が制御され得る。自車である自動車1は、他の自動車100へ近接するような走行制御を実行し難くなる。推定枠を大きくすることで、走行制御においてより大きい安全マージンを確保できるようなる。ただし、平面枠41を大きくしすぎると、他の自動車100が実際のものより大きく推定されてしまうことになり、他の自動車100へ近接し過ぎないように走行を制御することが難しくなってゆく。走行制御そのものが実行できなくなる可能性が高まる。平面枠41の大きさは、自動車1の走行制御の継続性を勘案して、走行制御の安全性などについしての要求仕様に応じて決定してよい。
図8は、図2の対象物推定装置10による対象物の推定制御のフローチャートである。
図2の対象物推定装置10のCPU13は、上述した学習画像と全体推定枠51および隣接推定枠52との関連性を学習している。
図2の対象物推定装置10のCPU13は、学習済みの深層学習ニューラルネットワークを用いて、たとえば自動車1の走行のために図8の対象物の推定制御を繰り返し実行する。
上述した学習画像と全体推定枠51および隣接推定枠52との関連性を学習した学習済みモデルのデータは、深層学習ニューラルネットワークのデータの一部として、メモリ12に記録されてよい。
以下の説明では、図8の推定制御における撮像画像についての対象物として、撮像デバイス2が設けられる自車である自動車1の周辺にいる他の自動車(周辺車両)100を例に説明する。
ステップST1において、対象物推定装置10のCPU13は、撮像デバイス2による新たな周辺空間の撮像画像を取得するか否かを判断する。撮像デバイス2から新たな周辺空間の撮像画像を取得している場合、または撮像デバイス2から新たな周辺空間の撮像画像を取得するタイミングである場合、CPU13は、撮像デバイス2による新たな周辺空間の撮像画像を取得すると判断し、処理をステップST2へ進める。撮像デバイス2による新たな周辺空間の撮像画像を取得しない場合、CPU13は、本処理を繰り返す。
ステップST2において、CPU13は、撮像デバイス2による新たな周辺空間の撮像画像を取得する。CPU13は、取得部として、実空間に存在する実体物である周辺にいる他の自動車100を含む周辺空間の撮像画像を取得することが可能である。
ステップST3から、CPU13は、新たに取得した撮像画像を解析し、撮像画像に含まれている対象物としての周辺にいる他の自動車100を解析する。
ステップST4において、CPU13は、新たに取得した撮像画像に、周辺にいる他の自動車100が含まれているか否かを判断する。撮像画像に周辺にいる他の自動車100が含まれていない場合、CPU13は、ステップST5からステップST8の処理を飛ばし、処理をステップST9へ進める。撮像画像に周辺にいる他の自動車100が含まれている場合、CPU13は、処理をステップST5へ進める。
ステップST5において、CPU13は、学習済みの深層学習ニューラルネットワークを用いて、新たに取得した周辺空間の撮像画像に含まれている周辺にいる他の自動車100について、四角形の全体推定枠51を推定する。全体推定枠51は、画像中の周辺にいる他の自動車100の全体の存在場所を示す画像領域情報である。
たとえば周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置へ向かう正対した姿勢で、撮像画像に含まれている場合、CPU13は、撮像画像において正対した姿勢にある周辺にいる他の自動車100の画像領域の輪郭と接する四角形の全体推定枠51を推定する。四角形の全体推定枠51の4辺のすべての辺は、撮像画像における周辺にいる他の自動車100の画像領域の輪郭と接している。
この他にもたとえば、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合、CPU13は、撮像画像において斜めになる姿勢にある周辺にいる他の自動車100の画像領域より幅広の全体推定枠51を推定する。四角形の全体推定枠51の4辺の中の少なくとも左右両側の辺は、撮像画像における周辺にいる他の自動車100の画像領域の輪郭から左右方向へ離れる。
このようにCPU13は、撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合には、撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置と対向するように向いた姿勢で、撮像画像に含まれている場合と比べて、周辺にいる他の自動車100の画像領域から、四角形の推定枠の4辺の中の少なくとも一部が離れている推定枠を推定する。
ステップST6において、CPU13は、学習済みの深層学習ニューラルネットワークを用いて、新たに取得した周辺空間の撮像画像に含まれている周辺にいる他の自動車100について、四角形の隣接推定枠52を推定する。隣接推定枠52は、画像中の周辺にいる他の自動車100の隣接面の存在場所を示す画像領域情報である。
たとえば、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合、CPU13は、撮像画像において斜めになる姿勢にある周辺にいる他の自動車100の隣接面の画像領域から離れるように幅広の隣接推定枠52を推定する。四角形の隣接推定枠52の4辺の中の少なくとも左側の辺または右側の辺は、撮像画像における周辺にいる他の自動車100の隣接面の画像領域の輪郭から左右方向へ離れる。
また、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置へ向かう正対した姿勢で、撮像画像に含まれている場合、CPU13は、四角形の隣接推定枠52の替わりに、四角形の正対推定枠54を推定してよい。CPU13は、四角形の隣接推定枠52、および四角形の正対推定枠54の双方を推定しないようにしてもよい。
ステップST7から、CPU13は、深層学習ニューラルネットワークによる推定枠の推定処理の後処理を開始する。CPU13は、推定した2つの推定枠から、撮像画像の撮像範囲を基準として、自車である自動車1の撮像デバイス2に対する周辺にいる他の自動車100についての相対的な位置、方向、間隔を生成する。
たとえば、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合、CPU13は、撮像画像において斜めになる姿勢にある周辺にいる他の自動車100について推定した全体推定枠51および隣接推定枠52の双方を用いて、周辺にいる他の自動車100の位置および姿勢を特定し、特定した周辺にいる他の自動車100の位置および姿勢に基づいて、周辺にいる他の自動車100についての相対的な位置、方向、間隔を生成する。
この他にもたとえば、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置へ向かう正対した姿勢で、撮像画像に含まれている場合、CPU13は、全体推定枠51および隣接推定枠52の中の全体推定枠51を用いて、周辺にいる他の自動車100の位置および姿勢を特定し、特定した周辺にいる他の自動車100の位置および姿勢に基づいて、周辺にいる他の自動車100についての相対的な位置、方向、間隔を生成する。この際、CPU13は、四角形の全体推定枠51の下端辺の中点を周辺にいる他の自動車100の位置として、周辺にいる他の自動車100についての相対的な位置、方向、間隔を生成してよい。
ステップST8において、CPU13は、生成した周辺にいる他の自動車100についての相対的な位置、方向、間隔を、周辺車情報として出力する。周辺車情報は、入出力ポート11を通じて、走行制御部4へ出力される。走行制御部4は、対象物推定装置10により生成された周辺車情報を用いて、自車の走行を制御する。走行制御部4は、周辺にいる他の自動車100と接触し難くなるように、周辺にいる他の自動車100から離れた進路または進行可能範囲を決定して、自動車1の走行を制御する。
ステップST9において、CPU13は、対象物推定制御を終了するか否かを判断する。CPU13は、たとえば自車である自動車1の移動(走行)が終了した場合、対象物推定制御を終了すると判断し、本制御を終了する。対象物推定制御を終了すると判断しない場合、CPU13は、処理をステップST1へ戻す。CPU13は、次の撮像画像を取得してステップST1からステップST9までの処理を繰り返す。
図9は、2つの推定枠に基づく後処理制御のフローチャートである。
周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合、図2の対象物推定装置10のCPU13は、図8のステップST7において、図9の2つの推定枠に基づく後処理制御を実行してよい。
この状況下における自車の自動車1、周辺にいる他の自動車100、平面枠、外接立方体、全面推定枠、隣接推定枠52、複数の路面点位置P1~P3は、たとえば図5(B)の周辺空間において同図に示す位置関係である。図5(B)の周辺空間において、全面推定枠は、周辺にいる他の自動車100の右前より右前方向へ突出し、周辺にいる他の自動車100の左後より左後方向へ突出している。隣接推定枠52は、周辺にいる他の自動車100の左後より左後方向へ突出している。
図5(B)は、本実施形態の推定枠を学習した場合での、図2の対象物推定装置10により推定される他の自動車100の相対的な位置、方向、間隔についての説明図である。
ステップST11において、CPU13は、全面推定枠および隣接推定枠52の2つの推定枠に含まれている角から、周辺にいる他の自動車100の画像中の左右両側の路面点位置P1、P2を特定する。図5(B)の場合、CPU13は、たとえば全面推定枠の右下角を、周辺にいる他の自動車100の画像中の右側の路面点位置P2として特定し、隣接推定枠52の左下角を、周辺にいる他の自動車100の画像中の左側の路面点位置P1として特定してよい。複数の推定枠から路面点位置として抽出する角は、複数の推定枠の組み合わせ、各推定枠において角として含ませる路面点位置の対応付け、などにより変わる。
CPU13は、図5(B)のような周辺空間において、特定した路面点位置P1、P2を設定する。
ステップST12において、CPU13は、路面点位置P1、P2を設定した周辺空間に、周辺にいる他の自動車100の正対面に沿う線分を描画する。CPU13は、たとえば図6(B)に示すように、正対面である周辺にいる他の自動車100の後面において左右両端部分に存在する一対のテールライトを、周辺にいる他の自動車100の撮像画像から特定して抽出し、一対のテールライトを結ぶ線分と平行な正対線を、正対面を基準として隣接面とは反対側にある路面点位置P2から描画してよい。
ステップST13において、CPU13は、路面点位置P1、P2を設定した周辺空間に、周辺にいる他の自動車100の隣接面に沿う線分を描画する。CPU13は、たとえば図6(B)に示すように、隣接面である周辺にいる他の自動車100の左側面において前後方向に並んでいる一対のホイールを、周辺にいる他の自動車100の撮像画像から特定して抽出し、一対のホイールの中心を結ぶ線分と平行な隣接線を、隣接面の側にある路面点位置P1から描画してよい。
ステップST14において、CPU13は、ステップST12により描画した正対線と、ステップST13により描画した隣接線との交点を、中央の路面点位置P3として特定する。CPU13は、正対線と隣接線とを描画した周辺空間において、中央の路面点位置P3を特定してよい。これにより、CPU13は、図5(B)のような周辺空間において、自車である自動車1の撮像デバイス2に対する、3つの路面点位置P1~P3を特定できる。
ステップST15において、CPU13は、特定した3つの路面点位置P1~P3を用いて、自車から周辺にいる他の自動車100までの相対的な位置、方向、間隔を演算して生成する。CPU13は、図5(B)のような周辺空間における、特定した中央の路面点位置P3と、自車である自動車1の位置との相対関係に基づいて、自車から周辺にいる他の自動車100までの相対的な位置、方向、間隔を生成してよい。
なお、周辺環境の撮像画像は、たとえば図3(B)の学習画像のようなものである。撮像デバイス2の撮像範囲(画角)がたとえば図5(B)の状態などに固定化されている場合、平らな路面のみを画像成分として含む周辺環境の撮像画像の各画素についての自車からの相対的な位置、方向、間隔も固定的なものになる、と言うことができる。CPU13は、このような画素ごとの相対的な位置、方向、間隔の情報を用いて、たとえば中央の路面点位置P3を映している画素を特定して、特定した画素に対応付けられている位置、方向、間隔を、中央の路面点位置P3の位置、方向、間隔としてよい。この場合、CPU13は、特定した画素に対応付けられている位置、方向、間隔を、自車から周辺にいる他の自動車100までの相対的な位置、方向、間隔として生成することになる。画素ごとの相対的な位置、方向、間隔の情報は、たとえばメモリ12に記録されてよい。
このような処理により、CPU13は、後処理部として、推定された画像領域情報としての複数の推定枠を用いて、周辺空間に存在する周辺にいる他の自動車100である他の自動車100についての、撮像デバイス2の視点位置に対する相対的な方向、間隔、または位置を生成することができる。
CPU13は、撮像画像に含まれる周辺にいる他の自動車100が、撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれているとしても、斜めになる姿勢で含まれている自動車1についての2種類の全体推定枠51および隣接推定枠52を用いて、斜めになる姿勢で含まれている自動車1についての、撮像デバイス2の視点位置に対する相対的な方向、間隔、または位置を高精度に生成することができる。
以上のように、本実施形態では、対象物としての周辺にいる他の自動車100を含む周辺空間の撮像画像に基づいて、周辺空間の撮像画像における周辺にいる他の自動車100の存在場所を示す画像領域情報としての幅広の推定枠を推定する。そして、周辺空間の撮像画像に含まれる周辺にいる他の自動車100が、周辺空間の撮像画像の視点位置に対して斜めになる姿勢で、撮像画像に含まれている場合には、本実施形態では、撮像画像において斜めになる姿勢にある周辺にいる他の自動車100の画像領域より幅が広い画像領域を、周辺空間の撮像画像における周辺にいる他の自動車100の存在場所を示す幅広の推定枠とする。
その結果、本実施形態では、周辺空間の撮像画像において斜めになる姿勢にある周辺にいる他の自動車100についての幅広の推定枠に基づいて、たとえば対象物の画像領域と4辺のすべてが接している推定枠と比べて、撮像画像の視点位置に対して近づいた周辺にいる他の自動車100の存在場所を得ることが可能になる。
これにより、本実施形態では、周辺にいる他の自動車100の存在場所についての推定を改善することができる。
特に、本実施形態のような幅広の推定枠を、深層学習ニューラルネットワークに学習させて、推定させることより、推定枠に基づいて、推定枠を推定した後に、他の自動車100の正対面や隣接面を判断するための処理を別途実行したり、推定枠に対応する路面の位置を求める処理を別途実行したり、する必要がなくなる。推定枠そのものが、ある程度の確からしさで、他の自動車100の正対面や隣接面の情報と、および路面点位置の情報とを含んでいることにより、推定枠に基づく後処理が非常に軽負荷の簡便なものとなる。本実施形態では、推定枠に既に含まれているそれらの情報を用いて、簡単な後処理により、周辺にいる他の自動車100の相対的な位置、方向、間隔を得ることができる。後処理を含む対象物推定装置10の処理は、自動車1の走行制御において求められるリアルタイム性が得られるように、短時間および軽負荷なものとすることができる。
以上の実施形態は、本発明の好適な実施形態の例であるが、本発明は、これに限定されるものではなく、発明の要旨を逸脱しない範囲において種々の変形または変更が可能である。
上述した実施形態では、対象物推定装置10は、自車である自動車1の周辺に存在する周辺にいる他の自動車100を、対象物推定装置10による推定処理の対象物としている。
対象物推定装置10は、この他にもたとえば、人、自転車、電車、航空機、ボールなどの遊具、段ボール箱などの移動可能な落下物、構造物などの固定されている物体を、対象物推定装置10による推定処理の対象物としてよい。これらの実体を有する対象物についても、上述した推定処理を適用することにより、自車である自動車1に対する対象物までの相対的な位置、方向、間隔を高精度に得ることが可能となる。
上述した実施形態では、対象物推定装置10は、実空間に存在する実体物を、推定処理の対象物としている。
この他にもたとえば、対象物推定装置10は、仮想空間に存在すると考えることができるオブジェクト、または仮想空間と実空間との混合空間に存在すると考えることができるオブジェクトを、推定処理の対象物としてよい。
上述した実施形態では、対象物推定装置10は、撮像デバイス2による周辺空間の撮像画像などを学習して、推定処理に用いている。
対象物推定装置10は、自動車1に設けられる他の検出デバイス、たとえば超音波により自動車1の周辺をスキャンするレーダにより生成される周辺空間についての空間画像を学習して、推定処理に用いてもよい。この場合の空間画像は、撮像画像と同様に平面的な画像であってもよいが、たとえば湾曲するなどした立体的な画像であってもよい。湾曲するなどした立体的な画像であっても、たとえば対象物の画像領域およびその周囲における局所的な平面性を利用した近似的な処理に対して、上述した実施形態と同様の処理を適用することにより、対象物についての相対的な位置、方向、間隔を高精度に得ることが可能となると考えられる。
1…自動車(車両)、2…撮像デバイス、3…三次元地図装置、4…走行制御部、5…アクチュエータ、6…車両動きセンサ、7…位置情報生成装置、8…車両通信装置、10…対象物推定装置、11…入出力ポート、12… ステップST、12…メモリ、13…CPU、14…タイマ、15…内部バス、21…入力部、22…DNN部、23…出力部、31…学習画像、32…画像領域、33…推定枠、34…学習画像、35…画像領域、36…推定枠、41…平面枠、42…外接立方体、51…全体推定枠、52…隣接推定枠、53…他の隣接推定枠、54…正対推定枠、100…他の自動車(周辺車両)、101…平面枠、P1~P3…路面点位置


Claims (14)

  1. 空間に存在する対象物を含む空間画像を取得可能な取得部と、
    前記取得部により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の存在場所を示す画像領域情報を推定する推定部と、
    を有し、
    前記推定部は、
    前記取得部により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができる、
    対象物推定装置。
  2. 前記推定部は、
    空間に存在する前記対象物を含む前記空間画像と、前記空間画像における前記対象物の存在場所を示す前記画像領域情報との関連性を機械学習して、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定することができる、
    請求項1記載の、対象物推定装置。
  3. 前記推定部は、
    前記画像領域情報として、前記空間画像における前記対象物の画像領域の周囲を囲う推定パターンを機械学習し、または推定することができる、
    請求項2記載の、対象物推定装置。
  4. 前記推定部は、
    前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、斜めになる姿勢で含まれている前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを機械学習し、または推定することができる、
    請求項3記載の、対象物推定装置。
  5. 前記推定部は、
    前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合と比べて、前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを機械学習し、または推定することができる、
    請求項3または4記載の、対象物推定装置。
  6. 前記推定部は、
    前記取得部により取得される前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合には、対向する姿勢で含まれている前記対象物の画像領域と接する前記推定パターンを推定し、
    前記取得部により取得される前記空間画像に含まれる対象物が斜めになる姿勢で含まれている場合には、前記取得部により取得される前記空間画像に含まれる対象物が対向するように向いた姿勢で含まれている場合と比べて、前記対象物の画像領域から少なくとも一部が離れている前記推定パターンを推定することができる、
    請求項3から5の中のいずれか一項記載の、対象物推定装置。
  7. 前記推定部は、
    前記空間画像に含まれる対象物を平面視した状態で前記対象物の全体を含むように囲う四角形の平面枠を基準として、前記平面枠に対して立設することになる推定パターンを機械学習して、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報としての前記推定パターンを推定することができる、
    請求項1から6の中のいずれか一項記載の、対象物推定装置。
  8. 前記推定部は、
    前記推定パターンとして、前記空間画像の地面に立接していることになる四角形の前記推定パターン、または前記空間画像の地面と接していることになる四角形の前記推定パターンを機械学習し、または推定することができる、
    請求項1から7の中のいずれか一項記載の、対象物推定装置。
  9. 前記推定部は、
    前記取得部により取得される前記空間画像に含まれる前記対象物として少なくとも車両を対象として、前記取得部により取得される前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定するものであり、
    前記空間画像に含まれる対象物としての前記車両が斜めになる姿勢で含まれている場合には、斜めになる姿勢で含まれている前記車両についての正対面、前記正対面に隣接する隣接面、並びに、前記正対面および前記隣接面の双方の中の少なくとも2つに対応している、少なくとも2種類の推定パターンを機械学習し、または推定することができる、
    請求項1から8の中のいずれか一項記載の、対象物推定装置。
  10. 前記推定部により生成される前記画像領域情報を用いて、空間に存在する対象物についての位置、方向、または距離を生成する後処理部、を有する、
    請求項1から9の中のいずれか一項記載の、対象物推定装置。
  11. 前記後処理部は、
    前記取得部により取得される前記空間画像に含まれる前記対象物として少なくとも車両を対象として、前記対象物についての位置、方向、または距離を生成するものであり、
    少なくとも、前記空間画像に含まれる対象物としての前記車両が斜めになる姿勢で含まれている場合には、
    前記推定部か推定する前記画像領域情報としての、斜めになる姿勢で含まれている前記車両についての正対面、前記正対面に隣接する隣接面、並びに、前記正対面および前記隣接面の双方の中の少なくとも2つに対応している、少なくとも2種類の推定パターンを用いて、斜めになる姿勢で含まれている前記車両についての位置、方向、または距離を生成する、
    請求項10記載の、対象物推定装置。
  12. 前記後処理部は、
    前記空間画像において斜めになる姿勢で含まれている対象物としての車両について、
    前記推定部か推定する前記画像領域情報としての少なくとも2種類の推定パターンに基づいて、前記空間画像に含まれる対象物を平面視した状態で前記対象物の全体を含むように囲う四角形の平面枠の角を路面へ写した複数の路面点位置として、斜めになる姿勢で含まれている前記車両の画像領域の左右両側の前記路面点位置を特定し、
    斜めになる姿勢で含まれている前記車両の画像領域についての特定した左右両側の前記路面点位置を基準として、左右両側の前記路面点位置の間にある中央の前記路面点位置を特定し、
    特定した3つの前記路面点位置から、空間に存在する対象物としての前記車両についての位置、方向、または距離を生成する、
    請求項10または11記載の、対象物推定装置。
  13. 空間に存在する対象物を含む空間画像における、前記対象物の存在場所を示す前記画像領域情報を推定する対象物推定装置の対象物推定方法であって、
    前記空間に存在する前記対象物を含む前記空間画像を取得可能な取得工程と、
    前記取得工程により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の存在場所を示す前記画像領域情報を推定する推定工程と、
    を有し、
    前記推定工程は、
    前記取得工程により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができる、
    対象物推定装置の対象物推定方法。
  14. 車両の周辺の空間を撮像する撮像デバイスと、
    前記撮像デバイスによる撮像画像を処理する処理部と、
    前記処理部の処理結果を用いて、車両の走行を制御する制御部と、
    を有し、
    前記処理部は、
    前記空間に存在する前記対象物を含む空間画像として前記撮像画像を取得可能な取得部と、
    前記取得部により取得される前記対象物を含む前記空間画像の少なくとも一部に基づいて、前記空間画像における前記対象物の画像領域情報を推定する推定部と、
    前記推定部により生成される前記画像領域情報を用いて、空間に存在する対象物についての位置、方向、または距離を生成する後処理部と、
    を有し、
    前記推定部は、
    前記取得部により取得される前記空間画像に含まれる前記対象物が斜めになる姿勢で含まれている場合には、前記空間画像において斜めになる姿勢で含まれている前記対象物の画像領域より広い画像領域を、前記空間画像における前記対象物の存在場所を示す前記画像領域情報として推定することができ、
    前記制御部は、
    前記処理部の処理結果としての、前記後処理部により推定された空間に存在する対象物についての位置、方向、または距離を用いて、前記空間画像において斜めになる姿勢で含まれている前記対象物と接触し難くした進路または進行可能範囲を決定して、前記車両の走行を制御する、
    車両。


JP2020176798A 2020-10-21 2020-10-21 対象物推定装置、その対象物推定方法、および、車両 Pending JP2022067928A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020176798A JP2022067928A (ja) 2020-10-21 2020-10-21 対象物推定装置、その対象物推定方法、および、車両
US17/502,807 US20220121864A1 (en) 2020-10-21 2021-10-15 Object estimation device, object estimation method therefor, and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020176798A JP2022067928A (ja) 2020-10-21 2020-10-21 対象物推定装置、その対象物推定方法、および、車両

Publications (1)

Publication Number Publication Date
JP2022067928A true JP2022067928A (ja) 2022-05-09

Family

ID=81186296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020176798A Pending JP2022067928A (ja) 2020-10-21 2020-10-21 対象物推定装置、その対象物推定方法、および、車両

Country Status (2)

Country Link
US (1) US20220121864A1 (ja)
JP (1) JP2022067928A (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008011228A1 (de) * 2008-02-26 2009-08-27 Robert Bosch Gmbh Verfahren zur Unterstützung eines Nutzers eines Fahrzeugs, Steuereinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs und Fahrzeug mit einer derartigen Steuereinrichtung
JP2014219801A (ja) * 2013-05-07 2014-11-20 株式会社東芝 車両判別装置
DE102016108973A1 (de) * 2016-05-13 2017-11-16 Dürr Assembly Products GmbH Verfahren zur Erkennung der Richtung der Orientierung eines Fahrzeugs sowie Verwendung des Verfahrens
JP6439757B2 (ja) * 2016-07-08 2018-12-19 オムロン株式会社 画像処理装置および画像処理方法
JP6390671B2 (ja) * 2016-07-29 2018-09-19 オムロン株式会社 画像処理装置および画像処理方法
JP2019096072A (ja) * 2017-11-22 2019-06-20 株式会社東芝 物体検出装置、物体検出方法およびプログラム
JP6700502B2 (ja) * 2018-02-27 2020-05-27 三菱電機株式会社 車両用表示制御装置および表示制御方法
US11093783B2 (en) * 2018-12-05 2021-08-17 Subaru Corporation Vehicle detection apparatus
JP2022034086A (ja) * 2018-12-07 2022-03-03 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、および情報処理方法、並びにプログラム
WO2020116194A1 (ja) * 2018-12-07 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体
JP7381388B2 (ja) * 2020-04-03 2023-11-15 トヨタ自動車株式会社 信号灯状態識別装置、信号灯状態識別方法及び信号灯状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) * 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US11379995B2 (en) * 2020-07-15 2022-07-05 Jingdong Digits Technology Holding Co., Ltd. System and method for 3D object detection and tracking with monocular surveillance cameras
JP7376547B2 (ja) * 2021-10-12 2023-11-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム

Also Published As

Publication number Publication date
US20220121864A1 (en) 2022-04-21

Similar Documents

Publication Publication Date Title
US10445928B2 (en) Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
JP6825569B2 (ja) 信号処理装置、信号処理方法、およびプログラム
JP7056540B2 (ja) センサ校正方法およびセンサ校正装置
JP6409680B2 (ja) 運転支援装置、運転支援方法
JPWO2017159382A1 (ja) 信号処理装置および信号処理方法
WO2017056484A1 (ja) 画像処理装置、ステレオカメラ装置、車両及び画像処理方法
JP7196063B2 (ja) 撮像制御装置、および撮像制御装置の制御方法、並びに移動体
WO2019073920A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
CN109074653B (zh) 用于检测机动车辆的道路旁边的物体的方法、计算设备、驾驶员辅助***以及机动车辆
JP7424390B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
KR20210098972A (ko) 정보 처리 장치, 정보 처리 방법, 프로그램, 이동체 제어 장치 및 이동체
CN109987082B (zh) 车辆控制装置、车辆控制方法和存储介质
JPWO2019142660A1 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20240056694A1 (en) Imaging device, image processing method, and image processing program
JP2021154969A (ja) 障害物検知装置、障害物検知方法、および、プログラム
JP2022067928A (ja) 対象物推定装置、その対象物推定方法、および、車両
KR102612821B1 (ko) 차량용 전자 장치 및 차량용 전자 장치의 동작 방법
JP7027279B2 (ja) 車両制御装置、車両制御方法、およびプログラム
CN115959111A (zh) 车辆控制装置、车辆控制方法及存储介质
US20240144499A1 (en) Information processing device, information processing method, and information processing program
WO2023188046A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
US20230245362A1 (en) Image processing device, image processing method, and computer-readable medium
WO2022196316A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2023243310A1 (ja) 画像処理システム、画像処理装置、画像処理方法、画像処理プログラム
CN118215951A (zh) 信息处理装置、信息处理方法、以及信息处理程序

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20221223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230927

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240618