JPWO2019150552A1 - 落下物検知装置、車載システム、車両および落下物検知プログラム - Google Patents

落下物検知装置、車載システム、車両および落下物検知プログラム Download PDF

Info

Publication number
JPWO2019150552A1
JPWO2019150552A1 JP2019568519A JP2019568519A JPWO2019150552A1 JP WO2019150552 A1 JPWO2019150552 A1 JP WO2019150552A1 JP 2019568519 A JP2019568519 A JP 2019568519A JP 2019568519 A JP2019568519 A JP 2019568519A JP WO2019150552 A1 JPWO2019150552 A1 JP WO2019150552A1
Authority
JP
Japan
Prior art keywords
vehicle
luggage
unit
object detection
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019568519A
Other languages
English (en)
Other versions
JP6685481B2 (ja
Inventor
長谷川 雄史
雄史 長谷川
村山 修
修 村山
雅浩 虻川
雅浩 虻川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6685481B2 publication Critical patent/JP6685481B2/ja
Publication of JPWO2019150552A1 publication Critical patent/JPWO2019150552A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

第1車両に搭載して使用される落下物検知装置(11)の取得部(41)は、荷物を載せて第1車両の前方を走行している第2車両および第2車両の周辺のデプス画像を取得する。落下物検知装置(11)の判定部(42)は、取得部(41)により取得されたデプス画像を用いて、荷物が第2車両と異なる動きをしていないか判定する。落下物検知装置(11)の検知部(43)は、判定部(42)による判定の結果をもとに、荷物の落下を検知する。

Description

本発明は、落下物検知装置、車載システム、車両および落下物検知プログラムに関するものである。
特許文献1には、ミリ波センサとカメラとを備えるACC機能付き車両が、その車両と、ACCターゲットとなる前方車両との間にある荷物等の静止物をカメラで検知した場合に、ACC機能による追従走行を停止または抑制する技術が開示されている。「ACC」は、Adaptive Cruise Controlの略語である。
特開2016−011061号公報
Castorena, J.; Kamilov, U.; Boufounos, P.T., "Autocalibration of LIDAR and Optical Cameras via Edge Alignment", Mitsubishi Electric Research Laboratories, TR2016−009, March 2016 実吉敬二、「ステレオカメラによる自動車運転支援システム」、情報処理学会研究報告、Vol.2013−CVIM−185 No.20、2013年1月23日 Gunnar Farneback, "Two−Frame Motion Estimation Based on Polynomial Expansion", Computer Vision Laboratory, Linkoping University, 2003
従来技術では、落下後の荷物しか検知できない。すなわち、荷物の落下を即時に検知することができない。そのため、前方車両までの車間距離が短いと、回避走行が間に合わず、ACC機能付き車両が荷物と衝突する可能性が高い。
本発明は、前方車両からの荷物の落下を即時に検知することを目的とする。
本発明の一態様に係る落下物検知装置は、
第1車両に搭載して使用され、
荷物を載せて前記第1車両の前方を走行している第2車両および前記第2車両の周辺のデプス画像を取得する取得部と、
前記取得部により取得されたデプス画像を用いて、前記荷物が前記第2車両と異なる動きをしていないか判定する判定部と、
前記判定部による判定の結果をもとに、前記荷物の落下を検知する検知部と
を備える。
本発明では、前方車両および前方車両の周辺のデプス画像を用いて、前方車両の荷物が前方車両と異なる動きをしていないか判定した結果をもとに、荷物の落下が検知される。そのため、前方車両からの荷物の落下を即時に検知することができる。
実施の形態1に係る落下物検知装置を備える車載システムの構成を示すブロック図。 実施の形態1に係る落下物検知装置の動作を示すフローチャート。 実施の形態1に係るデプス画像の例を示す図。 実施の形態1に係るデプスセンサと距離センサとの距離計測結果を示す図。 実施の形態1の変形例に係る落下物検知装置を備える車載システムの構成を示すブロック図。 実施の形態2に係る落下物検知装置を備える車載システムの構成を示すブロック図。 実施の形態2に係る落下物検知装置の動作を示すフローチャート。 実施の形態2に係るデプス画像の画像領域の例を示す図。 実施の形態2の変形例に係る落下物検知装置を備える車載システムの構成を示すブロック図。 実施の形態3に係る落下物検知装置を備える車載システムの構成を示すブロック図。 実施の形態3に係る落下物検知装置の動作を示すフローチャート。 実施の形態3に係るカメラ画像および移動ベクトルの例を示す図。 実施の形態3に係るカメラ画像および移動ベクトルの例を示す図。 実施の形態3に係るカメラ画像および移動ベクトルの例を示す図。 実施の形態3に係るカメラ画像および移動ベクトルの例を示す図。 実施の形態3の変形例に係る落下物検知装置を備える車載システムの構成を示すブロック図。
以下、本発明の実施の形態について、図を用いて説明する。各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。なお、本発明は、以下に説明する実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。例えば、以下に説明する実施の形態のうち、2つ以上の実施の形態が組み合わせられて実施されても構わない。あるいは、以下に説明する実施の形態のうち、1つの実施の形態または2つ以上の実施の形態の組み合わせが部分的に実施されても構わない。
実施の形態1.
本実施の形態について、図1から図4を用いて説明する。
***構成の説明***
図1を参照して、本実施の形態に係る落下物検知装置11を備える車載システム10の構成を説明する。
車載システム10は、落下物検知装置11と、センサデバイス21と、車両制御ユニット31とを備える。
落下物検知装置11は、コンピュータである。落下物検知装置11は、本実施の形態では、一般的なコンピュータであるが、組込機器でもよいし、ECUでもよい。「ECU」は、Electronic Control Unitの略語である。
落下物検知装置11は、プロセッサ13を備えるとともに、センサIO12、メモリ14およびROM15といった他のハードウェアを備える。「IO」は、Input/Outputの略語である。プロセッサ13は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
落下物検知装置11は、機能要素として、取得部41と、判定部42と、検知部43と、計測部44とを備える。取得部41、判定部42、検知部43および計測部44の機能は、ソフトウェアにより実現される。
プロセッサ13は、落下物検知プログラムを実行する装置である。落下物検知プログラムは、取得部41、判定部42、検知部43および計測部44の機能を実現するプログラムである。プロセッサ13は、本実施の形態では、CPUであるが、GPUでもよいし、CPUとGPUとの組み合わせでもよい。「CPU」は、Central Processing Unitの略語である。「GPU」は、Graphics Processing Unitの略語である。
メモリ14およびROM15は、落下物検知プログラムを記憶する装置である。「ROM」は、Read Only Memoryの略語である。メモリ14は、例えば、RAM、フラッシュメモリまたはこれらの組み合わせである。「RAM」は、Random Access Memoryの略語である。
落下物検知装置11は、ハードウェアとして、通信デバイス、入力機器およびディスプレイをさらに備えてもよい。
通信デバイスは、落下物検知プログラムに入力されるデータを受信するレシーバと、落下物検知プログラムから出力されるデータを送信するトランスミッタとを含む。通信デバイスは、例えば、通信チップまたはNICである。「NIC」は、Network Interface Cardの略語である。
入力機器は、落下物検知プログラムへのデータの入力のためにユーザにより操作される機器である。入力機器は、例えば、タッチパネルである。
ディスプレイは、落下物検知プログラムから出力されるデータを画面に表示する機器である。ディスプレイは、例えば、LCDである。「LCD」は、Liquid Crystal Displayの略語である。
落下物検知プログラムは、ROM15からメモリ14にロードされ、メモリ14からプロセッサ13に読み込まれ、プロセッサ13によって実行される。
落下物検知装置11は、プロセッサ13を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、落下物検知プログラムの実行を分担する。それぞれのプロセッサは、例えば、CPU、GPU、DSP、または、これらのうちいくつか、もしくは、すべての組み合わせである。
落下物検知プログラムにより利用、処理または出力されるデータ、情報、信号値および変数値は、メモリ14、または、プロセッサ13内のレジスタまたはキャッシュメモリに記憶される。
落下物検知プログラムは、取得部41、判定部42、検知部43および計測部44により行われる処理をそれぞれ取得処理、判定処理、検知処理および計測処理としてコンピュータに実行させるプログラムである。落下物検知プログラムは、コンピュータ読取可能な媒体に記録されて提供されてもよいし、記録媒体に格納されて提供されてもよいし、プログラムプロダクトとして提供されてもよい。
落下物検知装置11は、1台のコンピュータで構成されていてもよいし、複数台のコンピュータで構成されていてもよい。落下物検知装置11が複数台のコンピュータで構成されている場合は、取得部41、判定部42、検知部43および計測部44の機能が、各コンピュータに分散されて実現されてもよい。
センサデバイス21としては、少なくともデプスセンサ22および距離センサ23が備えられる。デプスセンサ22は、例えば、ステレオカメラ、または、単眼カメラとLiDARセンサとの組み合わせである。「LiDAR」は、Light Detection and Rangingの略語である。距離センサ23は、本実施の形態では、ミリ波センサであるが、他の種類のレーダセンサでもよい。センサデバイス21として、カメラおよびソナーといった他の車載デバイスがさらに備えられてもよい。
車両制御ユニット31は、車両制御バスインタフェース32と、センサECU33と、車両ECU34とを備える。
車両制御バスインタフェース32は、落下物検知装置11と、センサECU33および車両ECU34との間の通信のためのインタフェースである。
センサECU33は、センサデバイス21から得られるデータを処理するECUである。
車両ECU34は、車両を制御するECUである。
***動作の説明***
図1のほかに、図2から図4を参照して、本実施の形態に係る落下物検知装置11の動作を説明する。落下物検知装置11の動作は、本実施の形態に係る落下物検知方法に相当する。
落下物検知装置11は、第1車両51に搭載して使用される。第1車両51は、自動運転車両である。落下物検知装置11を備える車載システム10は、第1車両51に搭載されたシステムである。車載システム10の車両制御ユニット31は、第1車両51の運転を制御する。
落下物検知装置11は、センサIO12を介して、車載センサであるセンサデバイス21と接続する。これにより、センサデバイス21で計測された第1車両51の前方のセンシングデータが落下物検知装置11に入力される。
落下物検知装置11は、第1車両51のデプスセンサ22のセンシングデータからデプス画像61を算出し、デプス画像61と他センサ情報とを比較して、第2車両52と荷物53とを分離することで、第2車両52から落下した荷物53を即時に検知する。第2車両52は、荷物53を載せて第1車両51の前方を走行している車両、すなわち、前方車両である。
落下物検知装置11は、車両制御バスインタフェース32を介して、車両制御ユニット31と接続する。これにより、落下物検知装置11で検知された落下物の位置情報および移動情報が車両制御ユニット31へ出力される。
本実施の形態では、落下物検知装置11は、デプス画像61の変化とミリ波センサである距離センサ23の距離情報とを参照して第2車両52と荷物53との分離を判別する。これにより、第2車両52から荷物53が落下した場合であっても、第1車両51がこの落下物を回避するように、落下中または落下の可能性がある荷物53を即時に検知可能である。
車両制御ユニット31は、落下物検知装置11で第1車両51の前方を走行中の第2車両52から荷物53が落下したことが検出された場合には、第1車両51のブレーキ制御を行い、落下した荷物53との衝突を回避する。車両制御ユニット31は、第1車両51のブレーキ制御だけでなく、車線変更することで、荷物53との衝突を回避してもよい。
落下物検知装置11の動作の詳細を説明する。
図2のステップS101において、取得部41は、第2車両52および第2車両52の周辺のデプス画像61を取得する。
図2のステップS102からステップS106において、判定部42は、取得部41により取得されたデプス画像61を用いて、荷物53が第2車両52と異なる動きをしていないか判定する。具体的には、ステップS102およびステップS103において、判定部42は、デプス画像61を参照して、道路を除き最も近い物体までの距離を算出する。ステップS104において、計測部44は、距離センサ23を用いて、第2車両52までの距離を計測する。本実施の形態では、計測部44は、距離センサ23としてミリ波センサを用いて、第2車両52までの距離を計測する。ステップS105およびステップS106において、判定部42は、算出した距離と、計測部44により計測された距離とを比較し、距離の差が閾値を超えている場合に、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定する。
図2のステップS107およびステップS108において、検知部43は、判定部42による判定の結果をもとに、荷物53の落下を検知する。
落下物検知装置11の動作をより具体的に説明する。
ステップS101において、取得部41は、センサデバイス21のうちデプスセンサ22を使用して、第1車両51の前方のデプス画像61を算出する。
デプス画像61の算出に使用されるデプスセンサ22がステレオカメラの場合、取得部41は、片方のカメラの撮影画像ともう片方のカメラの撮影画像とを比較して、撮影画像内の同一特徴がある点を探索し、特徴点同士の位置ズレを参照することで、特徴点の距離情報、すなわち、デプス値を算出する。取得部41は、撮影画像の各画素に対してデプス値を算出することで、デプス画像61を生成する。
デプス画像61の算出に使用されるデプスセンサ22が単眼カメラとLiDARセンサとの組み合わせの場合、取得部41は、LiDARセンサで計測した3D点群情報を基準にして、単眼カメラとLiDARセンサとのフュージョン結果からデプス画像61を算出する。LiDARセンサの3D点群情報は計測解像度が低いため、取得部41は、単眼カメラの撮影画像内に写る物体の境界領域情報、すなわち、エッジ情報を参照して3D点群情報を補間する。取得部41は、補間により計測解像度が向上した3D点群情報からデプス画像61を算出する。具体的な手法としては、非特許文献1に記載の手法を用いることができる。
デプスセンサ22は、計測解像度の高いFlash LiDARであってもよい。
ステップS102において、判定部42は、ステップS101で算出されたデプス画像61を参照して、立体物の画像領域と路面の画像領域とを分離して立体物を検出する。
ステップS103において、判定部42は、ステップS102で検出した立体物のうち、第1車両51に最も近距離にある立体物までの距離を計測する。
図3にデプス画像61の例を示す。この例では、距離に応じて、デプス画像61の各画素の色を変化させて表示する。色は、便宜上、ハッチングで示している。デプス画像61の下部では、第1車両51から近距離にある路面までの距離が計測されるため、画素の色は近距離を表す色となる。画像上部へ移動するのに伴い、第1車両51から路面までの距離は遠くなるため、画素の色も上部へ移動するに伴って遠距離を表す色に変化する。デプス画像61において、第2車両52を表す画像領域内の各画素は、距離がほぼ等しくなるため、色も同じになる。なお、距離が計測できなかった画素は黒色で表示する。
図3の上図は、第2車両52と荷物53との分離前のデプス画像61を示す。分離前は、第2車両52と荷物53との距離がほぼ等しいため、画素の色もほぼ等しくなる。図3の下図は、第2車両52と荷物53との分離後のデプス画像61を示す。分離後は、第2車両52と荷物53との距離が異なるため、荷物53の撮影領域に対応する画素の色は第2車両52の画素の色と異なる。
第2車両52を表す画像領域の検出処理では、デプス画像61から立体物が検知されて、立体物と路面との画像領域が分離され、立体物の画像領域が第2車両52の画像領域と判断される。なお、立体物の画像領域サイズが小さく、車両サイズと異なれば、第2車両52ではないと判定されてもよい。
本実施の形態では、立体物と判定された画像領域の中で第1車両51に最も近い画素の距離がデプス画像61の距離として扱われる。第2車両52と荷物53とが分離すると荷物53が第1車両51に最も近くなるため、デプス画像61の距離は荷物53までの距離を表すようになる。デプス画像61からの立体物検知方法としては、非特許文献2に記載の方法を用いることができる。
ステップS104において、計測部44は、センサデバイス21のうちミリ波センサを使用して、第1車両51の前方にある第2車両52までの距離を算出する。
ミリ波センサは、波長の短い電磁波であるミリ波を出力し、第2車両52等の物体に当たって反射した電磁波を受信することで、物体までの距離を計測する。ミリ波は、金属を含む物体に強く反射する。そのため、ミリ波センサは、第2車両52を検知するが、段ボール箱等の金属を含まない物体は検知しない。第2車両52から荷物53が突然落下してきても、荷物53が段ボール箱等の金属を含まない物体であれば、ミリ波センサは、荷物53を検知せずに、その先にある第2車両52までの距離を計測する。
ステップS105において、判定部42は、第2車両52と荷物53との分離判別処理を開始し、ステップS103で計測したデプス画像61の距離と、ステップS104で計測されたミリ波センサの距離とを比較する。
デプス画像61の距離は、第1車両51から最も近い物体までの距離であるのに対して、ミリ波センサの距離は、金属を含む第2車両52までの距離である。実際には、ミリ波センサのトラッキング処理の影響もあり、荷物53が落下する前に第2車両52が検知されていると、荷物53の落下後も前の検知結果が参照されて、第2車両52が検知され続ける可能性が高い。これにより、図4に示すように、第2車両52と荷物53とが分離していないときはデプス画像61の距離とミリ波センサの距離とが等しくなるが、第2車両52と荷物53とが分離したときは、デプス画像61の距離とミリ波センサの距離とに差が生じる。
ステップS106において、判定部42は、ステップS105で比較した2つの距離の差が任意の閾値ΔZ以上であれば、第2車両52と荷物53とが分離したと判定してステップS107へ進む。判定部42は、距離差が閾値よりも小さければ、第2車両52と荷物53とが分離していないと判定してステップS101へ戻る。
閾値ΔZは、任意の値でよいが、センサの距離計測精度から設定されることが望ましく、一例としては0.5m程度に設定することができる。
ステップS107において、検知部43は、ステップS106の分離判別結果を受けて、落下物となる荷物53の位置および速度を算出する。荷物53の位置は、ステップS101で取得されたデプス画像61とステップS103で計測された立体物までの距離とから算出される。ステップS103の距離よりZ軸方向の位置が、ステップS101のデプス画像61と距離情報とからX軸方向およびY軸方向の位置が算出できる。X軸方向は車両横方向、Y軸方向は車両高さ方向、Z軸方向は車両進行方向に相当する。荷物53の速度は、荷物53の位置の時系列情報と第1車両51の速度とから算出される。
ステップS108において、検知部43は、ステップS107で算出した落下物となる荷物53の位置および速度の情報を車両ECU34に送信する。
車両ECU34は、ステップS108で送信された落下物の位置および速度の情報を参照し、その落下物との衝突を回避するために、第1車両51の速度を減速するか、または、車線変更等、操舵による進行方向の変更をする。なお、この車両ECU34の機能は、制御部の機能として落下物検知プログラムにより実現されてもよい。すなわち、落下物検知装置11は、検知部43により算出された荷物53の位置および速度に応じて、第1車両51の移動を制御する制御部をさらに備えてもよい。
以上の動作により、第2車両52から荷物53が落下した場合であっても、落下中の荷物53を即時に検知可能となり、落下物との衝突を回避できる。
なお、ステップS107およびステップS108において、検知部43は、荷物53の位置および速度だけでなく、荷物53のサイズおよび移動方向もデプス画像61から算出し、荷物53の位置、サイズ、移動速度および移動方向の情報を車両ECU34に送信してもよい。
検知部43は、情報を車両ECU34に送信する際に、情報の確度を判定し、情報とあわせて確度判定の結果を送信してもよい。
***実施の形態の効果の説明***
本実施の形態では、前方車両および前方車両の周辺のデプス画像61を用いて、前方車両の荷物53が前方車両と異なる動きをしていないか判定した結果をもとに、荷物53の落下が検知される。そのため、前方車両からの荷物53の落下を即時に検知することができる。
本実施の形態では、落下中または落下の可能性のある荷物53を検知して、荷物の落下を即時に検知することにより、第1車両51と第2車両52との車間距離が短い場合であっても、第2車両52から落下する荷物53を回避した走行が可能となる。なお、落下の可能性の高い荷物53を検知した場合には、第1車両51の車速低下により、第2車両52との車間距離を遠くにしてもよい。
本実施の形態では、判定部42が、ミリ波センサの反射強度の特徴を用いて、第2車両52と荷物53との分離を判別する。ミリ波センサは、金属類に強く反応するため、第2車両52から段ボール等の非金属の荷物53が落下しても荷物53には反応せずに第2車両52を検知する。そのため、計測部44は、第2車両52までの距離を出力する。一方で、ステレオカメラ等のデプスセンサ22は、第2車両52から落下した荷物53を検知するため、荷物53までの距離を出力する。2種類のセンサの距離を比較することで、第2車両52と荷物53との分離判別をすることができる。
本実施の形態では、検知部43が、判定部42の分離判別結果を参照することで、荷物53が落下後の衝撃で移動している状態であっても、荷物53の落下を判定可能である。
本実施の形態によれば、前方車両から落下中の荷物53、または、落下の可能性が高い荷物53を即時に検知することで、前方車両から荷物53が突然落下しても、荷物53との衝突を回避可能な自動運転車両が提供できる。
***他の構成***
本実施の形態では、取得部41、判定部42、検知部43および計測部44の機能がソフトウェアにより実現されるが、変形例として、取得部41、判定部42、検知部43および計測部44の機能がハードウェアにより実現されてもよい。この変形例について、主に本実施の形態との差異を説明する。
図5を参照して、本実施の形態の変形例に係る落下物検知装置11を備える車載システム10の構成を説明する。
この例では、落下物検知装置11は、電子回路16およびセンサIO12といったハードウェアを備える。
電子回路16は、取得部41、判定部42、検知部43および計測部44の機能を実現する専用のハードウェアである。電子回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。「IC」は、Integrated Circuitの略語である。「GA」は、Gate Arrayの略語である。「FPGA」は、Field−Programmable Gate Arrayの略語である。「ASIC」は、Application Specific Integrated Circuitの略語である。
落下物検知装置11は、電子回路16を代替する複数の電子回路を備えていてもよい。これら複数の電子回路は、全体として取得部41、判定部42、検知部43および計測部44の機能を実現する。それぞれの電子回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。
別の変形例として、取得部41、判定部42、検知部43および計測部44の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、取得部41、判定部42、検知部43および計測部44の機能の一部が専用のハードウェアにより実現され、残りがソフトウェアにより実現されてもよい。
プロセッサ13および電子回路16は、いずれも処理回路である。すなわち、落下物検知装置11の構成が図1および図5のいずれに示した構成であっても、取得部41、判定部42、検知部43および計測部44の動作は、処理回路により行われる。
実施の形態2.
本実施の形態について、主に実施の形態1との差異を、図6から図8を用いて説明する。
***構成の説明***
図6を参照して、本実施の形態に係る落下物検知装置11を備える車載システム10の構成を説明する。
本実施の形態では、落下物検知装置11は、機能要素として、取得部41と、判定部42と、検知部43とを備える。判定部42は、算出部45を備える。取得部41、判定部42および検知部43の機能は、ソフトウェアにより実現される。
本実施の形態では、落下物検知プログラムは、取得部41、判定部42および検知部43により行われる処理をそれぞれ取得処理、判定処理および検知処理としてコンピュータに実行させるプログラムである。すなわち、落下物検知プログラムは、取得部41、判定部42および検知部43の機能を実現するプログラムである。落下物検知プログラムは、実施の形態1と同じように、ROM15からメモリ14にロードされ、メモリ14からプロセッサ13に読み込まれ、プロセッサ13によって実行される。
本実施の形態では、センサデバイス21として、少なくともデプスセンサ22が備えられる。
***動作の説明***
図6のほかに、図7および図8を参照して、本実施の形態に係る落下物検知装置11の動作を説明する。落下物検知装置11の動作は、本実施の形態に係る落下物検知方法に相当する。
本実施の形態では、落下物検知装置11は、デプス画像61の変化した画像領域の大きさを参照して第2車両52と荷物53との分離を判別する。これにより、実施の形態1と同様に、第2車両52から荷物53が落下した場合であっても、第1車両51がこの落下物を回避するように、落下中または落下の可能性がある荷物53を即時に検知可能である。
落下物検知装置11の動作の詳細を説明する。
図7のステップS201において、取得部41は、第2車両52および第2車両52の周辺のデプス画像61を取得する。
図7のステップS202からステップS206において、判定部42は、取得部41により取得されたデプス画像61を用いて、荷物53が第2車両52と異なる動きをしていないか判定する。具体的には、ステップS202からステップS204において、判定部42は、取得部41により取得された複数時点のデプス画像61間でデプス値が変化している画像領域を算出する。ステップS205およびステップS206において、判定部42は、算出した画像領域の大きさが第2車両52に相当する大きさと異なっている場合に、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定する。
図7のステップS207およびステップS208において、検知部43は、判定部42による判定の結果をもとに、荷物53の落下を検知する。
なお、第2車両52の画像領域と荷物53の画像領域とが判別可能であれば、ステップS202からステップS204において、判定部42は、取得部41により取得された複数時点のデプス画像61における、第2車両52の画像領域間でのデプス値の変化量と、荷物53の画像領域間でのデプス値の変化量とを比較してもよい。ステップS205およびステップS206において、判定部42は、変化量の差が閾値を超えている場合に、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定してもよい。
さらに、判定部42は、変化量の差が閾値を下回っている場合でも、変化量の差によって、荷物53が固定されていないと判定してもよい。ステップ207およびステップS208において、検知部43は、荷物53が固定されていないと判定部42により判定された場合、第1車両51と第2車両52との間の距離を空ける制御を行ってもよい。
落下物検知装置11の動作をより具体的に説明する。
ステップS201の処理については、実施の形態1におけるステップS101の処理と同じであるため、具体的な説明を省略する。
ステップS202の処理については、実施の形態1におけるステップS102の処理と同じであるため、具体的な説明を省略する。
ステップS203において、判定部42は、ステップS202で検出した立体物の画像領域をデプス画像61から切り出す。
ステップS204において、判定部42が備える算出部45は、ステップS203で切り出された画像領域に対して、時系列にデプス値が変化した画像領域を算出する。
ステップS205において、判定部42は、第2車両52と荷物53との分離判別処理を開始し、ステップS204で算出した、デプス値が変化した画像領域とデプス値の距離情報とを参照して、画像領域に写る実際の物体のサイズを算出する。実際の物体のサイズ算出では、距離情報からZ軸方向の位置が算出され、デプス画像61と距離情報とからX軸方向およびY軸方向の位置が算出され、それらの位置から画像領域に対応する実際の物体のサイズが求められる。前述したように、X軸方向は車両横方向、Y軸方向は車両高さ方向、Z軸方向は車両進行方向に相当する。
ステップS206において、判定部42は、ステップS205で算出したサイズが車両サイズに相当する閾値以下であれば、荷物53が落下したことに起因してデプス値が変化したと推測し、第2車両52と荷物53とが分離したと判定してステップS207へ進む。判定部42は、ステップS205で算出したサイズが車両サイズに相当する閾値よりも大きければ、単に第1車両51と第2車両52との車間距離が変化したことに起因してデプス値が変化したとみなし、第2車両52と荷物53とが分離していないと判定してステップS201へ戻る。
図8にデプス画像61の画像領域の例を示す。この例では、図3と同様に、距離に応じて、デプス画像61の各画素の色を変化させて表示する。色は、便宜上、ハッチングで示している。
図8の上図は、デプス画像61を示す。図8の下図は、上図のデプス画像61から切り出された立体物の画像領域を示す。第1車両51と第2車両52との車間距離が変化すれば、第2車両52の画像領域のデプス値が変化する。第1車両51と荷物53との距離が変化すれば、荷物53の画像領域のデプス値が変化する。よって、デプス値が変化した画像領域のサイズを参照して、第2車両52と荷物53との分離を判定することができる。
なお、判定部42は、立体物の画像領域を切り出してからデプス値の変化を参照して第2車両52と荷物53との分離判別をする代わりに、立体物の画像領域を切り出さずにデプス画像61の全体に対するデプス値の変化を参照して第2車両52と荷物53との分離判別をしてもよい。
ステップS207の処理については、実施の形態1におけるステップS107の処理と同じであるため、具体的な説明を省略する。
ステップS208の処理については、実施の形態1におけるステップS108の処理と同じであるため、具体的な説明を省略する。
以上の動作により、第2車両52から荷物53が落下した場合であっても、落下中の荷物53を即時に検知可能となり、落下物との衝突を回避できる。
本実施の形態では、判定部42は、デプス値が変化する画像領域のサイズのみから第2車両52と荷物53との分離を判定するため、第2車両52と荷物53との画像領域をあらかじめ分別しておく必要がない。
なお、判定部42は、デプス画像61を参照して第2車両52と荷物53との画像領域をあらかじめ分別しておいてもよい。判定部42は、第2車両52の画像領域と荷物53の画像領域とのデプス値の変化量が同等であれば、第2車両52と荷物53とが分離していないと判定し、デプス値の変化量が任意の閾値以上異なれば、第2車両52と荷物53とが分離したと判定してもよい。
判定部42は、デプス値の変化量の差が任意の閾値よりも小さくても、デプス値の変化量が異なる状態が継続すれば、第2車両52に荷物53が固定されていないと推測し、荷物53が落下する可能性が高いと判定してもよい。落下の可能性が高い場合、検知部43は、車両ECU34を介して、第2車両52との車間距離を空けるように第1車両51を制御してもよい。
***実施の形態の効果の説明***
本実施の形態では、実施の形態1と同様に、前方車両および前方車両の周辺のデプス画像61を用いて、前方車両の荷物53が前方車両と異なる動きをしていないか判定した結果をもとに、荷物53の落下が検知される。そのため、前方車両からの荷物53の落下を即時に検知することができる。
本実施の形態では、実施の形態1と異なり、ミリ波センサ等の距離センサが不要である。
***他の構成***
本実施の形態では、取得部41、判定部42および検知部43の機能がソフトウェアにより実現されるが、変形例として、取得部41、判定部42および検知部43の機能がハードウェアにより実現されてもよい。この変形例について、主に本実施の形態との差異を説明する。
図9を参照して、本実施の形態の変形例に係る落下物検知装置11を備える車載システム10の構成を説明する。
この例では、落下物検知装置11は、電子回路16およびセンサIO12といったハードウェアを備える。
電子回路16は、取得部41、判定部42および検知部43の機能を実現する専用のハードウェアである。電子回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。
別の変形例として、取得部41、判定部42および検知部43の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、取得部41、判定部42および検知部43の機能の一部が専用のハードウェアにより実現され、残りがソフトウェアにより実現されてもよい。
プロセッサ13および電子回路16は、いずれも処理回路である。すなわち、落下物検知装置11の構成が図6および図9のいずれに示した構成であっても、取得部41、判定部42および検知部43の動作は、処理回路により行われる。
実施の形態3.
本実施の形態について、主に実施の形態1との差異を、図10から図15を用いて説明する。
***構成の説明***
図10を参照して、本実施の形態に係る落下物検知装置11を備える車載システム10の構成を説明する。
本実施の形態では、落下物検知装置11は、機能要素として、取得部41と、判定部42と、検知部43と、算出部46とを備える。取得部41、判定部42、検知部43および算出部46の機能は、ソフトウェアにより実現される。
本実施の形態では、落下物検知プログラムは、取得部41、判定部42、検知部43および算出部46により行われる処理をそれぞれ取得処理、判定処理、検知処理および算出処理としてコンピュータに実行させるプログラムである。すなわち、落下物検知プログラムは、取得部41、判定部42、検知部43および算出部46の機能を実現するプログラムである。落下物検知プログラムは、実施の形態1と同じように、ROM15からメモリ14にロードされ、メモリ14からプロセッサ13に読み込まれ、プロセッサ13によって実行される。
本実施の形態では、センサデバイス21として、少なくともデプスセンサ22およびカメラ24が備えられる。
***動作の説明***
図10のほかに、図11から図15を参照して、本実施の形態に係る落下物検知装置11の動作を説明する。落下物検知装置11の動作は、本実施の形態に係る落下物検知方法に相当する。
本実施の形態では、落下物検知装置11は、デプス画像61の変化とオプティカルフローとを参照して第2車両52と荷物53との分離を判別する。これにより、実施の形態1と同様に、第2車両52から荷物53が落下した場合であっても、第1車両51がこの落下物を回避するように、落下中または落下の可能性がある荷物53を即時に検知可能である。
落下物検知装置11の動作の詳細を説明する。
図11のステップS301において、取得部41は、第2車両52および第2車両52の周辺のデプス画像61を取得する。
図11のステップS302からステップS306において、判定部42は、取得部41により取得されたデプス画像61を用いて、荷物53が第2車両52と異なる動きをしていないか判定する。具体的には、ステップS304において、算出部46は、第2車両52および第2車両52の周辺を撮影して得られた複数時点のカメラ画像間での物体の動きを表す移動ベクトルを算出する。ステップS302、ステップS303、ステップS305およびステップS306において、判定部42は、取得部41により取得された複数時点のデプス画像61を参照して、第2車両52までの距離が長くなっているか判定する。判定部42は、距離が長くなっている場合に、算出部46により算出された移動ベクトルが下向きのベクトルであれば、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定する。
図11のステップS307およびステップS308において、検知部43は、判定部42による判定の結果をもとに、荷物53の落下を検知する。
なお、ステップS306において、判定部42は、第2車両52までの距離が短くなっている場合にも、算出部46により算出された移動ベクトルが下向きのベクトルであり、ベクトルの大きさが閾値を超えていれば、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定してよい。
また、ステップS306において、判定部42は、第2車両52までの距離が短くなっている場合にも、算出部46により算出された移動ベクトルが上向きのベクトルであれば、荷物53が「第2車両52と異なる動き」として第2車両52から分離する動きをしたと判定してよい。
落下物検知装置11の動作をより具体的に説明する。
ステップS301の処理については、実施の形態1におけるステップS101の処理と同じであるため、具体的な説明を省略する。
ステップS302の処理については、実施の形態1におけるステップS102の処理と同じであるため、具体的な説明を省略する。
ステップS303において、判定部42は、ステップS302で検出した立体物の画像領域をデプス画像61から切り出す。
ステップS304において、算出部46は、センサデバイス21のうちカメラ24を使用して、第1車両51の前方の2次元画像を撮影し、得られたカメラ画像の時系列データから移動ベクトルを算出する。すなわち、算出部46は、カメラ24で撮影された画像から画像の時系列変化を表す移動ベクトルを算出する。移動ベクトルは、オプティカルフローとも呼ばれる。
移動ベクトルの算出方法としては、疎のオプティカルフローを算出する方法を用いてもよいし、密なオプティカルフローを算出する方法を用いてもよい。疎のオプティカルフローを算出する方法では、カメラ画像から特徴点が検出され、時系列のカメラ画像内で特徴点が移動する移動方向と移動量とが算出される。特徴点とは、周囲の画像領域に輝度変化がある点のことである。特徴点は、コーナー検出等の手法を用いて検出される。疎のオプティカルフローを算出する方法の一例としては、KLT法が挙げられる。「KLT」は、Kanade−Lucas−Tomasiの略語である。密なオプティカルフローを算出する方法では、カメラ画像の全画素の移動ベクトルが算出される。密なオプティカルフローを算出する方法の一例としては、非特許文献3に記載の方法が挙げられる。
ステップS305において、判定部42は、第2車両52と荷物53との分離判別処理を開始し、ステップS304で算出された移動ベクトルを参照して下向きの移動ベクトルが発生しているか否かを判定する。下向きの移動ベクトルが発生している場合には、判定部42は、ステップS301で算出されたデプス画像61を参照して車間距離が短くなっているか否かを判定する。
ステップS306において、判定部42は、ステップS305で下向きの移動ベクトルが発生しているが車間距離は短くなっていないと判定していれば、荷物53が落下したことに起因して下向きの移動ベクトルが発生したと推定し、第2車両52と荷物53とが分離したと判定してステップS307へ進む。判定部42は、ステップS305で下向きの移動ベクトルが発生していないと判定したか、下向きの移動ベクトルが発生しており、車間距離が短くなっていると判定していれば、第2車両52と荷物53とが分離していないと判定してステップS301へ戻る。
このように、判定部42は、取得部41で算出されたデプス画像61の時系列変化と、算出部46で算出された移動ベクトルとを参照して、第2車両52と荷物53との分離を判別する。移動ベクトルは、時系列のカメラ画像内に移動する物体があれば発生する。第2車両52から荷物53が落下して移動した場合にも移動ベクトルは発生するが、第1車両51と第2車両52との車間距離が変化した場合にも移動ベクトルは発生する。よって、移動ベクトルが荷物53の落下によるものか、車間距離の変化によるものかを判定する必要がある。
図12から図15に時系列のカメラ画像およびカメラ画像から算出された移動ベクトルの例を示す。
第1車両51と第2車両52との車間距離が短くなると、通常は、図12の例のように、第2車両52の画像領域内に下向きの移動ベクトルが発生する。車間距離が長くなると、通常は、図13の例のように、第2車両52の画像領域内に上向きの移動ベクトルが発生する。車間距離の変化は、デプス画像61からも算出可能である。よって、判定部42は、デプス画像61を参照して車間距離が短くなっていないと判定したのに、図14の例のように、下向きの移動ベクトルが発生している場合は、第2車両52と荷物53とが分離したと判定する。判定部42は、デプス画像61を参照して車間距離が短くなっていると判定したときに、下向きの移動ベクトルが発生している場合は、下向きの移動ベクトルを車間距離の変化に起因するものと推定し、第2車両52と荷物53とが分離していないと判定する。
判定部42は、車間距離の変化から下向きの移動ベクトルの変化量を算出し、その変化量よりも十分大きな下向きの移動ベクトルを検出した場合には、第2車両52と荷物53とが分離したと判定してもよい。
図12から図15の例を詳しく説明する。
図12は、車間距離が短くなる際に通常発生する移動ベクトルを示す。図12の左上図は、時刻T1のカメラ画像71を示す。図12の右上図は、時刻T1+1のカメラ画像72を示す。図12の下図は、時刻T1のカメラ画像71と時刻T1+1のカメラ画像72とから算出された移動ベクトルを示す。第1車両51と第2車両52との車間距離が短くなると、第2車両52の画像領域が撮影画像内を下向きに移動するので、下向きの移動ベクトルが発生する。
図13は、車間距離が長くなる際に通常発生する移動ベクトルを示す。図13の左上図は、時刻T2のカメラ画像73を示す。図13の右上図は、時刻T2+1のカメラ画像74を示す。図13の下図は、時刻T2のカメラ画像73と時刻T2+1のカメラ画像74とから算出された移動ベクトルを示す。第1車両51と第2車両52との車間距離が長くなると、第2車両52の画像領域が撮影画像内を上向きに移動するので、上向きの移動ベクトルが発生する。
図14は、荷物53の落下に伴う移動ベクトルを示す。図14の左上図は、時刻T3のカメラ画像75を示す。図14の右上図は、時刻T3+1のカメラ画像76を示す。図14の下図は、時刻T3のカメラ画像75と時刻T3+1のカメラ画像76とから算出された移動ベクトルを示す。第1車両51と第2車両52との車間距離は変化なしとする。第2車両52から荷物53が落下すると、荷物53の画像領域が撮影画像内を下向きに移動するので、下向きの移動ベクトルが発生する。
このように、判定部42は、車間距離をデプス画像61から算出可能であるので、車間距離が長くなったか、または、変化がないときに下向きの移動ベクトルを検知した場合は、第2車両52から荷物53が落下したと判定する。
第2車両52から落下した荷物53は、路面と衝突して跳ね上がることがある。
図15は、荷物53の跳ね上がりに伴う移動ベクトルを示す。図15の左上図は、時刻T4のカメラ画像77を示す。図15の右上図は、時刻T4+1のカメラ画像78を示す。図15の下図は、時刻T4のカメラ画像77と時刻T4+1のカメラ画像78とから算出された移動ベクトルを示す。第1車両51と第2車両52との車間距離は変化なしとする。荷物53が跳ね上がると、荷物53の画像領域が撮影画像内を上向きに移動するので、上向きの移動ベクトルが発生する。
このように、判定部42は、車間距離をデプス画像61から算出可能であるので、車間距離が短くなったか、または、変化がないときに上向きの移動ベクトルを検知した場合は、第2車両52から荷物53が落下し、その後に跳ね上がったと判定してもよい。すなわち、判定部42は、車間距離の変化による移動ベクトルとは異なる方向の移動ベクトルを、第2車両52の画像領域内から検出した場合には、第2車両52から荷物53が分離したと判定してもよい。
ステップS307の処理については、実施の形態1におけるステップS107の処理と同じであるため、具体的な説明を省略する。
ステップS308の処理については、実施の形態1におけるステップS108の処理と同じであるため、具体的な説明を省略する。
以上の動作により、第2車両52から荷物53が落下した場合であっても、落下中の荷物53を即時に検知可能となり、落下物との衝突を回避できる。
***実施の形態の効果の説明***
本実施の形態では、実施の形態1と同様に、前方車両および前方車両の周辺のデプス画像61を用いて、前方車両の荷物53が前方車両と異なる動きをしていないか判定した結果をもとに、荷物53の落下が検知される。そのため、前方車両からの荷物53の落下を即時に検知することができる。
本実施の形態では、実施の形態1と異なり、カメラ24が必要であるものの、ミリ波センサ等の距離センサが不要である。なお、デプスセンサ22とは別にカメラ24が備えられる代わりに、デプスセンサ22の構成要素を兼ねるようにカメラ24が備えられてもよい。
***他の構成***
本実施の形態では、取得部41、判定部42、検知部43および算出部46の機能がソフトウェアにより実現されるが、変形例として、取得部41、判定部42、検知部43および算出部46の機能がハードウェアにより実現されてもよい。この変形例について、主に本実施の形態との差異を説明する。
図16を参照して、本実施の形態の変形例に係る落下物検知装置11を備える車載システム10の構成を説明する。
この例では、落下物検知装置11は、電子回路16およびセンサIO12といったハードウェアを備える。
電子回路16は、取得部41、判定部42、検知部43および算出部46の機能を実現する専用のハードウェアである。電子回路16は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、FPGA、ASIC、または、これらのうちいくつか、もしくは、すべての組み合わせである。
別の変形例として、取得部41、判定部42、検知部43および算出部46の機能がソフトウェアとハードウェアとの組み合わせにより実現されてもよい。すなわち、取得部41、判定部42、検知部43および算出部46の機能の一部が専用のハードウェアにより実現され、残りがソフトウェアにより実現されてもよい。
プロセッサ13および電子回路16は、いずれも処理回路である。すなわち、落下物検知装置11の構成が図10および図16のいずれに示した構成であっても、取得部41、判定部42、検知部43および算出部46の動作は、処理回路により行われる。
実施の形態1から実施の形態3のうち2つ以上の実施の形態を組み合わせて実施する場合、車間距離に応じて実施の形態を使い分けてもよい。一例として、車間距離が遠い場合には実施の形態1の動作を適用し、車間距離が短い場合には実施の形態2の動作を適用することで誤判定の発生を抑制しやすくなる。
10 車載システム、11 落下物検知装置、12 センサIO、13 プロセッサ、14 メモリ、15 ROM、16 電子回路、21 センサデバイス、22 デプスセンサ、23 距離センサ、24 カメラ、31 車両制御ユニット、32 車両制御バスインタフェース、33 センサECU、34 車両ECU、41 取得部、42 判定部、43 検知部、44 計測部、45 算出部、46 算出部、51 第1車両、52 第2車両、53 荷物、61 デプス画像、71 カメラ画像、72 カメラ画像、73 カメラ画像、74 カメラ画像、75 カメラ画像、76 カメラ画像、77 カメラ画像、78 カメラ画像。

Claims (12)

  1. 第1車両に搭載して使用される落下物検知装置であって、
    荷物を載せて前記第1車両の前方を走行している第2車両および前記第2車両の周辺のデプス画像を取得する取得部と、
    前記取得部により取得されたデプス画像を用いて、前記荷物が前記第2車両と異なる動きをしていないか判定する判定部と、
    前記判定部による判定の結果をもとに、前記荷物の落下を検知する検知部と
    を備える落下物検知装置。
  2. 距離センサを用いて、前記第2車両までの距離を計測する計測部をさらに備え、
    前記判定部は、前記デプス画像を参照して、道路を除き最も近い物体までの距離を算出し、算出した距離と、前記計測部により計測された距離とを比較し、距離の差が閾値を超えている場合に、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  3. 前記計測部は、前記距離センサとしてミリ波センサを用いる請求項2に記載の落下物検知装置。
  4. 前記判定部は、前記取得部により取得された複数時点のデプス画像間でデプス値が変化している画像領域を算出し、算出した画像領域の大きさが前記第2車両に相当する大きさと異なっている場合に、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  5. 前記判定部は、前記取得部により取得された複数時点のデプス画像における、前記第2車両の画像領域間でのデプス値の変化量と、前記荷物の画像領域間でのデプス値の変化量とを比較し、変化量の差が閾値を超えている場合に、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  6. 前記判定部は、前記変化量の差が前記閾値を下回っている場合でも、前記変化量の差によって、前記荷物が固定されていないと判定し、
    前記検知部は、前記荷物が固定されていないと前記判定部により判定された場合、前記第1車両と前記第2車両との間の距離を空ける制御を行う請求項5に記載の落下物検知装置。
  7. 前記第2車両および前記第2車両の周辺を撮影して得られた複数時点のカメラ画像間での物体の動きを表す移動ベクトルを算出する算出部をさらに備え、
    前記判定部は、前記取得部により取得された前記複数時点のデプス画像を参照して、前記第2車両までの距離が長くなっているか判定し、距離が長くなっている場合に、前記算出部により算出された移動ベクトルが下向きのベクトルであれば、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  8. 前記第2車両および前記第2車両の周辺を撮影して得られた複数時点のカメラ画像間での物体の動きを表す移動ベクトルを算出する算出部をさらに備え、
    前記判定部は、前記取得部により取得された前記複数時点のデプス画像を参照して、前記第2車両までの距離が長くなっているか判定し、前記距離が短くなっている場合に、前記算出部により算出された移動ベクトルが下向きのベクトルであり、ベクトルの大きさが閾値を超えていれば、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  9. 前記第2車両および前記第2車両の周辺を撮影して得られた複数時点のカメラ画像間での物体の動きを表す移動ベクトルを算出する算出部をさらに備え、
    前記判定部は、前記取得部により取得された前記複数時点のデプス画像を参照して、前記第2車両までの距離が長くなっているか判定し、距離が短くなっている場合に、前記算出部により算出された移動ベクトルが上向きのベクトルであれば、前記荷物が前記第2車両と異なる動きとして前記第2車両から分離する動きをしたと判定する請求項1に記載の落下物検知装置。
  10. 請求項1から9のいずれか1項に記載の落下物検知装置と、
    前記第1車両の運転を制御する車両制御ユニットと
    を備える車載システム。
  11. 請求項1から9のいずれか1項に記載の落下物検知装置が搭載された車両。
  12. 第1車両に搭載して使用されるコンピュータに、
    荷物を載せて前記第1車両の前方を走行している第2車両および前記第2車両の周辺のデプス画像を取得する取得処理と、
    前記取得処理により取得されたデプス画像を用いて、前記荷物が前記第2車両と異なる動きをしていないか判定する判定処理と、
    前記判定処理による判定の結果をもとに、前記荷物の落下を検知する検知処理と
    を実行させる落下物検知プログラム。
JP2019568519A 2018-02-02 2018-02-02 落下物検知装置、車載システム、車両および落下物検知プログラム Active JP6685481B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/003598 WO2019150552A1 (ja) 2018-02-02 2018-02-02 落下物検知装置、車載システム、車両および落下物検知プログラム

Publications (2)

Publication Number Publication Date
JP6685481B2 JP6685481B2 (ja) 2020-04-22
JPWO2019150552A1 true JPWO2019150552A1 (ja) 2020-07-02

Family

ID=67479235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019568519A Active JP6685481B2 (ja) 2018-02-02 2018-02-02 落下物検知装置、車載システム、車両および落下物検知プログラム

Country Status (5)

Country Link
US (1) US11256932B2 (ja)
JP (1) JP6685481B2 (ja)
CN (1) CN111656396B (ja)
DE (1) DE112018006738B4 (ja)
WO (1) WO2019150552A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114269243A (zh) * 2020-03-19 2022-04-01 株式会社日立制作所 跌倒风险评价***
US11223928B1 (en) * 2020-10-15 2022-01-11 Toyota Motor Engineering & Manufacturing North America, Inc. Unsecured object detection and alert
US11447149B2 (en) * 2021-02-01 2022-09-20 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for detecting and alerting load separation from a moving vehicle
US11948303B2 (en) * 2021-02-26 2024-04-02 Capsovision Inc. Method and apparatus for objective assessment of gastrointestinal conditions based on images captured in the GI tract
JP2023046109A (ja) * 2021-09-22 2023-04-03 株式会社Subaru 車両の運転支援装置
CN115239706A (zh) * 2022-09-20 2022-10-25 图达通智能科技(武汉)有限公司 基于激光雷达的坠物识别方法、装置和可读存储介质
DE102023004810A1 (de) 2022-12-02 2024-06-13 Mercedes-Benz Group AG Verbesserung der Wahrscheinlichkeit der Erkennung eines Objekts in der Fahrspur eines Fahrzeugs

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293141A (ja) * 1996-04-24 1997-11-11 Hitachi Ltd 移動物体検出装置
JP2006258507A (ja) * 2005-03-15 2006-09-28 Omron Corp 前方物体認識装置
JP2010108371A (ja) * 2008-10-31 2010-05-13 Toyota Motor Corp 車両用落下物検出装置
JP2012047609A (ja) * 2010-08-27 2012-03-08 Honda Motor Co Ltd 物体検知装置
JP2012103921A (ja) * 2010-11-10 2012-05-31 Saxa Inc 通行車両監視システム及び車両用監視カメラ

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10315843A (ja) 1997-05-14 1998-12-02 Yazaki Corp 荷崩れ監視装置
JP4615139B2 (ja) * 2001-03-30 2011-01-19 本田技研工業株式会社 車両の周辺監視装置
JP2004009993A (ja) 2002-06-11 2004-01-15 Toshiba Eng Co Ltd 列車事故回避システム
JP2005018472A (ja) 2003-06-26 2005-01-20 Nec Mobiling Ltd 運送車両の荷崩れ監視システムおよびその方法
CN1914060B (zh) 2004-01-28 2013-05-29 丰田自动车株式会社 车辆行驶支持***
JP4193765B2 (ja) * 2004-01-28 2008-12-10 トヨタ自動車株式会社 車両用走行支援装置
FI116755B (fi) * 2004-03-08 2006-02-15 Perlos Oyj Elektroninen laite ja latausliitinjärjestely
JP4561266B2 (ja) 2004-09-14 2010-10-13 富士通株式会社 落下物検知装置
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
US20100007500A1 (en) * 2008-07-09 2010-01-14 International Business Machines Corporation Detector system for detecting cargo items falling during transport and method for retrieval thereof
JP4788798B2 (ja) * 2009-04-23 2011-10-05 トヨタ自動車株式会社 物体検出装置
US8509982B2 (en) * 2010-10-05 2013-08-13 Google Inc. Zone driving
US9852632B2 (en) * 2012-02-10 2017-12-26 Mitsubishi Electric Corporation Driving assistance device and driving assistance method
WO2014033954A1 (ja) * 2012-09-03 2014-03-06 トヨタ自動車株式会社 衝突判定装置及び衝突判定方法
JP5910434B2 (ja) 2012-09-25 2016-04-27 トヨタ自動車株式会社 衝突予測装置
CN103116757B (zh) * 2013-01-30 2016-12-28 北京科技大学 一种三维信息复原提取的道路遗洒物识别方法
US9122933B2 (en) * 2013-03-13 2015-09-01 Mighty Carma, Inc. After market driving assistance system
JP2014232508A (ja) 2013-05-30 2014-12-11 トヨタ自動車株式会社 回避軌道予測装置
JP2014238731A (ja) * 2013-06-07 2014-12-18 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、および画像処理方法
DE102014210259A1 (de) * 2014-05-28 2015-12-03 Bayerische Motoren Werke Aktiengesellschaft Assistent zur Detektion von herabfallenden Objekten
JP6151670B2 (ja) 2014-06-30 2017-06-21 本田技研工業株式会社 移動支援装置
KR102366402B1 (ko) * 2015-05-21 2022-02-22 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
CN105718888B (zh) * 2016-01-22 2019-09-13 北京中科慧眼科技有限公司 障碍物预警方法和障碍物预警装置
JP6587000B2 (ja) * 2016-01-28 2019-10-09 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
WO2017195405A1 (ja) * 2016-05-11 2017-11-16 ソニー株式会社 画像処理装置及び画像処理方法、並びに移動体
US10628960B2 (en) * 2016-11-24 2020-04-21 Ricoh Company, Ltd. Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and recording medium
JP6834522B2 (ja) * 2017-01-23 2021-02-24 スズキ株式会社 運転支援装置
JP6791099B2 (ja) * 2017-11-01 2020-11-25 株式会社デンソー 車両制御装置
JP2020175804A (ja) * 2019-04-19 2020-10-29 マツダ株式会社 車両制御装置
JP2020175795A (ja) * 2019-04-19 2020-10-29 マツダ株式会社 車両制御装置
EP4096978A4 (en) * 2020-02-21 2024-03-06 Bluespace AI, Inc. METHOD FOR OBJECT AVOIDANCE DURING AUTONOMOUS NAVIGATION

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293141A (ja) * 1996-04-24 1997-11-11 Hitachi Ltd 移動物体検出装置
JP2006258507A (ja) * 2005-03-15 2006-09-28 Omron Corp 前方物体認識装置
JP2010108371A (ja) * 2008-10-31 2010-05-13 Toyota Motor Corp 車両用落下物検出装置
JP2012047609A (ja) * 2010-08-27 2012-03-08 Honda Motor Co Ltd 物体検知装置
JP2012103921A (ja) * 2010-11-10 2012-05-31 Saxa Inc 通行車両監視システム及び車両用監視カメラ

Also Published As

Publication number Publication date
US20210056322A1 (en) 2021-02-25
CN111656396B (zh) 2024-01-09
DE112018006738B4 (de) 2022-03-10
DE112018006738T5 (de) 2020-09-10
US11256932B2 (en) 2022-02-22
WO2019150552A1 (ja) 2019-08-08
CN111656396A (zh) 2020-09-11
JP6685481B2 (ja) 2020-04-22

Similar Documents

Publication Publication Date Title
JP6685481B2 (ja) 落下物検知装置、車載システム、車両および落下物検知プログラム
US9196163B2 (en) Driving support apparatus and driving support method
US10922561B2 (en) Object recognition device and vehicle travel control system
US9470790B2 (en) Collision determination device and collision determination method
JP6407626B2 (ja) 物体認識装置及び車両制御システム
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
JP5910046B2 (ja) 障害物検出装置
US11003922B2 (en) Peripheral recognition device, peripheral recognition method, and computer readable medium
CN111052201B (zh) 碰撞预测装置、碰撞预测方法以及存储介质
CN110194162B (zh) 用于基于可用空间信号来检测靠近切入车辆的***和方法
KR20190074025A (ko) 주변차량 의도 판단 장치 및 방법
CN110383102B (zh) 故障检测装置、故障检测方法及计算机可读取存储介质
JP7111181B2 (ja) 検知装置、移動体システム、及び検知方法
JP2006072495A (ja) 立体物監視装置
WO2019078211A1 (ja) 移動物体認識装置
JP2020086884A (ja) 区画線推定装置、表示制御装置、方法、及びコンピュータ・プログラム
JP6818902B6 (ja) 車両検知システム
JP7471927B2 (ja) 障害物検出装置、車両、障害物検出システム、及び障害物検出方法
JP7401273B2 (ja) 移動体の制御装置及び方法
WO2023013110A1 (ja) 外界認識装置
CN117341716A (zh) 显示控制装置、存储介质及方法
JP2023088533A (ja) 情報処理装置、情報処理方法及びプログラム
JP2022032109A (ja) 衝突判定装置、衝突判定方法および衝突回避システム
CN117622200A (zh) 车辆控制装置、存储车辆控制用计算机程序的存储介质及车辆控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200131

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200331

R150 Certificate of patent or registration of utility model

Ref document number: 6685481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250