JP6944328B2 - 車両の周辺監視装置と周辺監視方法 - Google Patents

車両の周辺監視装置と周辺監視方法 Download PDF

Info

Publication number
JP6944328B2
JP6944328B2 JP2017192068A JP2017192068A JP6944328B2 JP 6944328 B2 JP6944328 B2 JP 6944328B2 JP 2017192068 A JP2017192068 A JP 2017192068A JP 2017192068 A JP2017192068 A JP 2017192068A JP 6944328 B2 JP6944328 B2 JP 6944328B2
Authority
JP
Japan
Prior art keywords
image
group
pixel
unit
depth distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017192068A
Other languages
English (en)
Other versions
JP2019067149A (ja
Inventor
健 田邊
健 田邊
宏晃 伊藤
宏晃 伊藤
尚秀 内田
尚秀 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2017192068A priority Critical patent/JP6944328B2/ja
Priority to US16/142,462 priority patent/US10776649B2/en
Publication of JP2019067149A publication Critical patent/JP2019067149A/ja
Application granted granted Critical
Publication of JP6944328B2 publication Critical patent/JP6944328B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、対象物を異なる位置から撮影した複数の画像を取得して、車両の周囲を監視する周辺監視装置および周辺監視方法に関する。
車両の周囲の対象物を撮影した複数の画像についてステレオマッチング処理を行うことによって視差画像を作成し、この視差画像に基づいて奥行距離等を算出する技術が知られている。
特許文献1には、画像を構成する画素領域を奥行距離情報に基づいてグループ化するグループ化処理部と、グループ化した複数の画素領域に対して画像上の対象物のオプティカルフローを対応付けする対応付け部と、このオプティカルフローを用いて対象物の移動状態を検出する物体検出部と、を備える物体検出装置に関する技術が記載されている。
画素領域に対して対応付けするオプティカルフローの個数を増加させることによって、対象物の移動状態の検出精度を向上させることができる。しかしながら、オプティカルフローを対応させる個数を増やすと、対応付け部の処理負荷が増加する。
このため、特許文献1では、対応付け部は、奥行距離が近い画素領域のグループほど画像の単位面積当たりのオプティカルフローの対応付けの数を少なくして、オプティカルフローの対応付けを行う。特許文献1には、奥行距離が近い画素領域のグループでは、オプティカルフローを対応させる個数を少なくしても対象物の検出精度が大きく低下することはないため、対象物の検出精度を維持することと、対応付け部の処理負荷の増加を抑制することとを両立できると記載されている。
特開2016−81108号公報
特許文献1では、奥行距離が近い領域では、対応するオプティカルフローの個数を少なくしたことにより、オプティカルフローに含まれる誤差等の影響が大きくなって対象物の検出精度が低下する場合がある。
上記の実情に鑑み、本発明は、オプティカルフローの誤差の影響を小さくして対象物の検出精度の低下を抑制することと、対応付け部の総処理負荷の増大を抑制することとを両立できる周辺監視技術を提供することを目的とする。
本発明は、対象物を異なる位置から撮影した複数の画像を取得して車両の周囲を監視する周辺監視装置を提供する。この周辺監視装置は、前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得部と、前記奥行距離情報に基づいて複数の前記画素領域を1以上のグループにグループ化するグループ化処理部と、前記画像に対し前記画素領域ごとに、前記画像上における前記対象物の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得部と、前記グループのうち前記対象物を含むグループに含まれる前記画素領域の面積の総和を算出し、前記面積の総和が小さいほど、前記対象物を含むグループのそれぞれに対応付ける前記オプティカルフローの個数を大きく設定する対応付け数設定部と、前記対象物を含むグループに含まれる前記画素領域に対し前記対応付け数設定部にて設定した個数の前記オプティカルフローを対応付ける対応付け部と、前記対応付け部により対応付けられた前記オプティカルフローを用いて前記車両の周囲の対象物の移動状態を検出する対象物検出部と、を備える。
本発明の周辺監視装置によれば、対応付け数設定部は、対象物を含むグループに含まれる画素領域の面積の総和を算出し、面積の総和が小さい場合に対象物を含むグループのそれぞれに対応付けるオプティカルフローの個数を大きく設定する。このため、対応付け部の総処理負荷の増加を抑制しながら、対象物を含むグループ対して、できるだけ多くのオプティカルフローを対応付けすることができる。その結果、オプティカルフローの誤差の影響を小さくして物体の移動状態の検出精度の低下を抑制することと、対応付け部の総処理負荷の増大を抑制することとを両立できる。
本発明は、上記の周辺監視装置によって実現可能な周辺監視方法についても提供することができる。本発明は、対象物を異なる位置から撮影した複数の画像を取得して車両の周囲を監視する周辺監視方法を提供する。この周辺監視方法は、前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得ステップと、前記奥行距離情報に基づいて複数の前記画素領域を1以上のグループにグループ化するグループ化処理ステップと、前記画像に対し前記画素領域ごとに、前記画像上における前記対象物の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得ステップと、前記グループのうち前記対象物を含むグループに含まれる前記画素領域の面積の総和を算出し、前記面積の総和が小さいほど、前記対象物を含むグループのそれぞれに対応付ける前記オプティカルフローの個数を大きく設定する対応付け数設定ステップと、前記対象物を含むグループに含まれる前記画素領域に対し前記対応付け数設定ステップにて設定した個数の前記オプティカルフローを対応付ける対応付けステップと、前記対応付けステップにより対応付けられた前記オプティカルフローを用いて前記車両の周囲の対象物の移動状態を検出する対象物検出ステップと、を備える。
実施形態に係る周辺監視装置を示すブロック図。 周辺監視装置による対象物検出に用いられる画像の一例を示す図。 周辺監視装置によるグループ化処理の一例を示す図。 周辺監視装置によるグループ化処理の一例を示す図。 周辺監視装置による対応付け処理の一例を示す図。 周辺監視装置による対応付け処理の一例を示す図。 周辺監視装置によって実行される周辺監視方法を示すフローチャート。
図1に示すように、本実施形態に係る周辺監視装置10は、距離情報取得部110と、グループ化処理部120と、移動情報取得部130と、対応付け数設定部140と、対応付け部150と、対象物検出部160とを備えている。周辺監視装置10は、A/D変換回路、I/O、CPU、RAM、ROM、画像メモリ等を含む電子制御ユニット(ECU)であり、CPUは、予め格納されたプログラムを実行することによって、上記の各部の機能を実現する。CPUに替えて、またはCPUとともに、デジタル処理回路を書き込んだFPGA(Field-Programmable Gate Array)等を備えていてもよい。
周辺監視装置10は、車両に搭載された撮像装置21、22により撮像された画像を用いて車両周囲の対象物を検出する。撮像装置21、22から出力される信号は、デジタル信号に変換されて、周辺監視装置10のCPUに入力される。周辺監視装置10は、入力された画像データについて画像処理を行い、画像データや制御信号を報知装置、表示装置、運転制御装置等の出力部30に出力する。
撮像装置21,22としては、画像を構成する画素領域ごとの輝度情報及び画素領域ごとの奥行距離情報を取得できるものが用いられる。具体的には、例えば、CCDやCMOSセンサ、あるいは赤外線カメラ等のイメージセンサを内蔵したステレオカメラ等を好適に用いることができる。
撮像装置21,22により撮像される画像は、カラーでもモノクロであってもよい。また、撮像波長帯は、可視波長でも、近赤外波長であってもよく、車両周囲の物体が認識できる画像データが得られれば、いずれの波長帯であってもよい。また、撮像装置21,22としては、画像の輝度情報及び奥行距離情報を取得できるものであれば、ステレオカメラ以外のセンサであってもよく、例えばTOF(Time of flight)カメラを用いてもよいし、輝度情報の画像を撮像するカメラと奥行距離情報を取得するセンサ、例えばレーザレーダセンサなどを組み合わせたものを用いてもよい。
撮像装置21、22は、車両の進行方向の周囲を撮影できるように、撮像方向に対し交差する方向に並べて配置される。具体的には、例えば、車両のルームミラーの背後に、車幅方向において所定の基線長で取り付けられる。撮像装置21、22は、通常の走行状態において車両前方の道路や先行車両等を含む周辺環境を撮影する。周辺監視装置10は、1対の撮像装置21、22が撮影した画像を取得し、これによって対象物を異なる位置から撮影した複数の画像を取得することができる。
距離情報取得部110は、撮像装置21,22により撮像された画像における奥行距離の情報を取得する。例えば、距離情報取得部110は、撮像装置21,22により撮像された画像データを取得し、その画像データを用いて、画像を構成する画素領域ごとに奥行距離情報を取得する。画像データは、画像の画素領域ごとの輝度情報及び奥行距離情報を取得可能なデータであり、所定周期で繰り返して取得され、記憶される。
画像を構成する画素領域は、一つの画素からなる領域であってもよいし、複数の画素からなる領域であってもよい。画素領域を複数の画素からなる領域として設定する場合、例えば2×2の4つの画素からなる領域、それ以上の数の画素からなる領域とされる。輝度情報は、例えば画素領域の輝度値である。画素領域が一つの画素からなる場合には、その画素の輝度値が画素領域の輝度情報となる。画素領域が複数の画素から構成される場合、複数の画素における輝度値の平均値、最高値、最低値又は所定の代表値が画素領域の輝度情報とされる。
奥行距離情報は、画素領域に撮像される被撮像体の奥行距離に関する情報であり、奥行距離を含む情報である。例えば、奥行距離は、撮像装置21,22の撮像方向における被撮像体までの距離である。撮像装置21,22としてステレオカメラを用いる場合、奥行距離は複数のカメラの設置位置を結ぶ直線から対象物までの距離となる。
対象物は、画像に撮像されるものであって、立体物である物体のほか、路面、空などの背景を含んでいてもよい。画素領域が一つの画素からなる場合には、その画素の奥行距離が画素領域の奥行距離情報となる。画素領域が複数の画素から構成される場合、複数の画素における奥行距離の平均値、最高値、最低値又は所定の代表値を画素領域の奥行距離情報として用いればよい。
なお、奥行距離情報は、奥行距離の値をそのまま用いてもよいが、奥行距離に対応する値であってもよい。例えば、奥行距離に対応した視差の値を奥行距離情報として用いてもよい。視差の値は、二つの撮像装置によって撮像される二つの画像における被撮像体ないし物体の視差の値であり、奥行距離が近いほど大きな値となる。
撮像装置21,22としてステレオカメラが用いられる場合、距離情報取得部110は、二つの左右の画像について視差画像を生成する。そして、距離情報取得部110は、視差画像における画素領域の視差の値を奥行距離情報として用いる。また、画素領域ごとの視差に基づいて画素領域ごとの奥行距離を演算して、その奥行距離の値を奥行距離情報として用いてもよい。奥行距離情報の算出手法としては、例えばdense stereo技術が用いられ、より具体的にはSGM法やELAS法などが用いられる。
グループ化処理部120は、奥行距離情報を取得した画像について、その奥行距離情報に基づいて複数の画素領域をグループ化する。このグループ化処理部120は、三次元空間上において近接する画素領域を同一のグループとして設定しグループ化する。
例えば、グループ化処理部120は、奥行距離が同一または所定範囲内にある画素領域が近接する場合に同一のグループとしてグループ化を行ってもよい。より具体的には、グループ化処理部120は、画像の縦方向、横方向またはその両方向において奥行距離が同一または所定範囲内にある画素領域が近接する場合に同一のグループとしてグループ化してもよい。
図2に示す画像200について画像領域を区画してグループ化する場合を例示して、具体的に説明する。画像200には、車両201、車両202、空203、防護柵204、路面205が撮影されている。距離情報取得部110は、画像200を画素領域に区画し、画像200の画素領域ごとの輝度情報及び奥行距離情報を取得する。グループ化処理部120は、図3に示すように、縦方向において奥行距離が同一または所定範囲内にあり、隣接する画素が同一グループとなるようにグループ化処理を行い、グループ301〜305を設定する。なお、グループ301〜305に含まれる画素領域は、それぞれ、図2の車両201、車両202、空203、路肩の防護柵204、路面205を含む画像領域に対応している。
グループ化処理部120は、各グループの画素領域についての奥行距離情報と視差に基づいて、各グループの画素に何が撮影されているかを認識する。グループ301,302は、奥行距離が同一または所定範囲内にある画素からなるグループであり、視差が小さくないことから、検出対象となる対象物が撮影されていると認識される。グループ303は、奥行距離が同一または所定範囲内にある画素からなるグループであり、視差が小さいことから、より遠方の背景が撮影されていると認識される。グループ304,305は、奥行距離が同一または所定範囲内にある画素が隣接するグループであり、グループ304は画像の左右端の位置に、グループ305は画像の下方の位置に行くほど、視差が大きくなるように変化している。このため、グループ304,305は、それぞれ路肩の防護柵204と路面205を表していると認識される。
グループ化処理部120は、グループ化したグループ結果を記憶する。すなわち、グループ化処理部120は、グループ記憶部としても機能する。グループ結果は、グループ化が行われるごとに記憶され、グループが表す物体の動きの検出に用いることができる。
移動情報取得部130は、画像に対し画素領域ごとに、画像上における被撮像体の移動方向および移動量の情報を含むオプティカルフローを取得する。例えば、移動情報取得部130は、撮像装置21,22により撮像された画像について画素領域ごとにオプティカルフローを算出し、移動情報として取得する。オプティカルフローは、画素領域の動きベクトルであり、画像上の被撮像体をベクトルで表したものである。このため、オプティカルフローは、画素領域に表示される被撮像体の移動方向及び移動量の情報を有している。画素領域は、上述したように、一つの画素からなる領域でもよいし、複数の画素からなる領域でもよい。画素領域が複数の画素からなる領域として設定される場合、例えば、複数の画素におけるオプティカルフローの平均値、最高値、最低値又は所定の代表値を画素領域のオプティカルフローとして用いればよい。オプティカルフローを取得する画素領域は、奥行距離情報を取得する画素領域と同じ大きさの領域として設定されるが、奥行距離情報を取得する画素領域と異なる大きさの領域として設定する場合もある。
オプティカルフローの具体的な算出は、現在の画像に対し先に撮像した画像を用いて画素領域の移動を解析して行われ、マッチング法や勾配法などを用いて行えばよい。なお、オプティカルフローの算出は、路面や道路などの背景を表す領域を除いて行ってもよい。この処理の省略により、対象物検出の処理負荷を低減することができる。
対応付け部150は、グループ化処理部120にてグループ化された画素領域のうち、対象物を含むグループ(例えば、図3に示すグループ301,302)に含まれる画素領域に対し、移動情報取得部130にて取得されたオプティカルフローを対応付ける。対応付け数設定部140は、対応付け部150において、それぞれのグループに対応付けられるオプティカルフローの個数を設定する。
対応付け数設定部140は、対象物を含むグループに含まれる画素領域の面積の総和の値が小さいほど、対象物を含むグループそれぞれに対応付けるオプティカルフローの個数の値を大きい値に設定する。
例えば、対象物を含むグループがk個ある場合、i=1,2,…,kについて、グループiに含まれる画素領域の面積をSiとすると、対象物を含むグループに含まれる面積の総和Sは、下記式(1)によって表すことができる。
Figure 0006944328
また、グループiに対応付けるオプティカルフローの個数をNiとすると、対象物を含むグループ全体に対応付けるオプティカルフローの個数Nは、下記式(2)によって表すことができる。
Figure 0006944328
個数Nは、対応付け部150の処理能力に応じて設定されるオプティカルフローの個数の上限値No以下に設定される(すなわち、N≦No)。対象物の検出精度を向上させるためには、Nの値は大きく設定することが好ましいため、対応付けるオプティカルフローの個数が過剰ではない場合には、N=Noに設定される。
すなわち、オプティカルフローの個数が過剰でない場合には、対象物を含むグループに含まれる画素領域の面積の総和Sの大小に関わらず、そのグループ全体に対してNo個のオプティカルフローが対応付けられる。このため、面積の総和Sが小さいほど、画素領域の単位面積当たりに対応付けられるオプティカルフローの個数は大きくなる。言い換えると、対象物を含むグループに含まれる画素領域の面積の総和Sが小さいほど、対象物を含むグループのそれぞれに対応付けるオプティカルフローの個数は大きく設定される。
なお、N=Noに設定しなくても、対象物を十分に高精度に検出することができる場合には、N=Noとする必要はない。グループの画素領域の面積に対して、対応付けするオプティカルフローの個数が十分であればよく、N=Noに設定しなくても、対象物を十分に高精度に検出することができる場合もある。
N=Noに設定しなくても、対象物を十分に高精度に検出することができる場合には、オプティカルフローの対応付けの個数Nは、対象物を含むグループに含まれる画素領域の面積の総和Sが大きくなるにしたがって大きくなるように設定してもよい。オプティカルフローの対応付けの個数Nは、面積の総和Sに基づいて数式を用いて算出してもよいし、面積の総和Sに対応したオプティカルフローの対応付けのマップ又はテーブルを用いて演算してもよい。その際、オプティカルフローの対応付けの数が面積の総和Sに応じて連続的に変化するように設定されてもよいし、面積の総和Sに応じて段階的に変化するように設定されてもよい。
対応付け数設定部140によれば、対象物を含むグループに含まれる画素領域の面積の総和Sに応じて、No個を上限として、できるだけ多くのオプティカルフローの個数を設定することができる。このため、撮像装置21,22から対象物までの奥行距離に関わらず、対応付け部150の処理能力を有効に利用して対象物(例えば、車両201,202)の検出を行うことができ、検出精度を確保することができる。
また、対応付けするオプティカルフローの個数Nは、対応付け部150の処理能力に応じて設定されるオプティカルフローの個数の上限値No以下に設定されるため、対応付け部150の処理能力を超えて演算処理負荷を大きくすることを抑制できる。
対応付け数設定部140は、グループiにそれぞれ対応付けるオプティカルフローの個数Niを任意に決定できる。例えば、グループiに均等にオプティカルフローの個数を振り分けて対応付けしてもよいし、グループiに含まれる対象物の種類や画素領域の面積に応じて、オプティカルフローの個数を変化させて対応付けしてもよい。
例えば、対応付け数設定部140は、グループiにそれぞれ含まれる画素領域の面積Siに応じて、グループiにそれぞれ対応付けるオプティカルフローの個数Niを設定してもよい。例えば、下記式(3)に基づいて、対象物を含むグループのそれぞれに含まれる画素領域の面積Siが大きいほど、そのグループに対応付けるオプティカルフローの個数Niを大きく設定してもよい。例えば、図3に示す対象物を含むグループ301、グループ302について、N1=NS1/(S1+S2)とし、N2=NS2/(S1+S2)としてもよい。
Ni=NSi/S … (3)。
例えば、対象物の距離が近い場合や、対象物が大きい場合に、対象物を含む画素領域の面積Siが大きくなる。このような場合には、対象物の移動情報をより正確に把握する必要があることが多い。対応付け数設定部140によれば、対象物を含む画素領域の面積Siが大きくなるほどそのグループに対応付けるオプティカルフローの個数Niを大きく設定するため、対象物の距離が近い場合や、対象物が大きい場合にも、対象物の移動情報をより正確に把握することができる。
具体的に説明すると、図3に示す対象物を含むグループ301に含まれる画素領域の面積をS1とし、グループ302に含まれる画素領域の面積をS2とすると、対象物を含むグループに含まれる画素領域の面積の総和Sは、上記式(1)に従い、S=S1+S2によって表すことができる。また、グループ301に対応付けるオプティカルフローの個数をN1とし、グループ302に対応付けるオプティカルフローの個数をN2とすると、対象物を含むグループ全体に対応付けるオプティカルフローの個数Nは、上記式(2)に従い、N=N1+N2によって表すことができる。対応付け数設定部140は、オプティカルフローの個数が過剰でない場合には、N=Noと設定し、この場合、No=N1+N2と設定される。すなわち、画素領域の単位面積当たりに対応付けられるオプティカルフローの個数はNo/(S1+S2)である。また、上記式(3)に従ってN1およびN2を設定すると、グループ301に対応付けられるオプティカルフローの個数N1は、N1=NoS1/(S1+S2)であり、グループ302に対応付けられるオプティカルフローの個数N2は、N2=NoS2/(S1+S2)である。
これに対して、例えば、図4に示す画像400のように、車両202が1台のみ撮影されており、この車両202を含む画素領域からなるグループ402に含まれる画素領域の面積がグループ302と等しくS2である場合には、対象物を含むグループに含まれる画素領域の面積の総和Sは、上記式(1)よりS=S2である。対応付け数設定部140は、オプティカルフローの個数が過剰でない場合には、N=Noと設定し、この場合、グループ402に対して、No個のオプティカルフローが対応付けられる。また、画素領域の単位面積当たりに対応付けられるオプティカルフローの個数はNo/S2である。
すなわち、対象物を含むグループに含まれる画素領域の面積の総和Sが小さい画像400においては、対象物を含むグループに含まれる画素領域の面積の総和が大きい画像300よりも、対象物を含むグループそれぞれに対して対応付けられるオプティカルフローの個数が大きく設定される。
なお、対応付け数設定部140によるオプティカルフローの個数の設定は、上記の数式による算出基づくものに限定されない。例えば、対象物を含むグループiに含まれる画素領域の面積Siと、オプティカルフローの個数Niとの対応付けるマップ又はテーブルを用いて、そのグループに対応付けるオプティカルフローの個数を算出してもよい。その際、オプティカルフローの個数は、画素領域の面積に応じて連続的に変化するように設定されてもよいし、画素領域の面積に応じて段階的に変化するように設定されてもよい。
また、対応付け数設定部140は、グループiに含まれる対象物の種類や奥行距離によって、オプティカルフローの個数を変化させて対応付けしてもよい。例えば、そのグループに含まれる画素領域の面積が同じであっても、対象物が車両であるグループには、対象物が道路標識であるグループよりも多くのオプティカルフローを設定するようにしてもよい。または、例えば、そのグループに含まれる画素領域の面積が同じであっても、対象物の奥行距離が近いグループには、対象物の奥行距離が遠いグループよりも多くのオプティカルフローを設定するようにしてもよい。
具体的には、例えば、上記式(1)、(3)について、奥行距離が近いグループmの画素領域の面積Smを、重み付け係数aで補正した値a・Smに置き換えてもよい。
対応付け部150は、グループ化処理部120にてグループ化された画素領域に対し、移動情報取得部130にて取得されたオプティカルフローを対応付ける。例えば、グループ化処理部120にてグループとして設定された画素領域に対し、移動情報取得部130にて取得されたオプティカルフローが対応付けられる。その際、対応付け部150は、対象物が含まれている画素領域を含むグループに対して、対応付け数設定部140が設定した個数のオプティカルフローをそれぞれ対応付ける。
図5,6は、図3、4に示す対象物を含むグループ301,302,402に対して、それぞれオプティカルフロー501,502,602を対応付けした状態の一例を模式的に示す図である。図5,6にて、オプティカルフロー501,502,602の個数は、矢印の個数によって示されている。グループ402に対応付けられるオプティカルフロー602の個数は、図5に示すグループ301,302のそれぞれに対応付けられるオプティカルフロー501,502の個数よりも多い。また、グループ402の画素領域の単位面積当たりに対応付けられるオプティカルフローの個数は、グループ301,302の画素領域の単位面積当たりに対応付けられるオプティカルフローの個数よりも多い。なお、図5,6では、描画の都合上、オプティカルフロー501,502の個数の総数は、オプティカルフロー602の個数よりも多くなっているが、上述したように、オプティカルフロー501,502の個数の総数およびオプティカルフロー602の個数を等しくNoに設定してもよい。また、グループ301,302に対応付けられるオプティカルフローの個数については、それぞれのグループに含まれる画素領域の面積が大きいほど、オプティカルフローの個数が多くなるように配分されている。
対象物検出部160は、対応付け部150により対応付けられたオプティカルフローを用いて車両の周囲の物体の移動状態を検出する。例えば、オプティカルフローを対応付けられたグループが車両周囲の物体と認識され、そのオプティカルフローに基づいてグループの移動状態が検出される。そのグループの移動状態に基づいて物体の三次元空間における相対速度が算出される。物体の移動状態としては、相対速度のほか、絶対速度であってもよいし、加減速度であってもよい。この物体の移動状態を検出結果に基づいて、自車両の走行の支障となる物体であるか否かを判定し、その判定結果を自車両の運転者に報知してもよい。
図7は、本実施形態に係る周辺監視装置10によって実行される周辺監視方法の一部を構成する対象物検出処理のフローチャートである。対象物検出処理は、周辺監視装置10により所定の周期で繰り返して実行される。
まず、画像取得ステップ(ステップS101)が実行され、周辺監視装置10は、撮像装置21,22により撮像された1対の画像データを取得する。この画像データは、撮像装置21,22によって同時刻に対象物を異なる位置から撮影した1対の画像データである。
次に、距離情報取得ステップ(ステップS102)が実行され、距離情報取得部110は、取得した1対の画像を構成する画素領域ごとに、画像における奥行距離情報を取得する。奥行距離情報は、所定周期で繰り返して取得され、取得されるごとに記録される。
具体的には、例えば、撮像装置21,22から得られた、1対の画像について視差画像を生成する処理が行われる。視差画像における画素領域ごとの視差の値が奥行距離情報として取得される。または、画素領域ごとの視差に基づいて画素領域ごとの奥行距離を演算して、その奥行距離の値を奥行距離情報として取得してもよい。
次に、グループ化処理ステップ(ステップS103)が実行され、グループ化処理部120は、奥行距離情報を取得した画像について、奥行距離情報に基づいて複数の画素領域を1以上のグループにグループ化する。このグループ化処理では、三次元空間上において近接する画素領域を同一のグループとして設定する。具体的には、例えば、上述したように、車両201、車両202、空203、防護柵204、路面205が撮影された画像200について、グループ301〜305にグループ化する。
グループ化処理部120は、さらに、グループ信頼度の設定ステップ(ステップS104)を実行する。グループ信頼度の設定処理は、グループ設定された画素領域が立体物を表示するものであるかどうかの信頼度を設定する処理である。
例えば、グループ信頼度の設定ステップでは、画素領域の奥行距離情報に基づいてグループ化された画素領域が立体物を示すものであるかどうかが判定される。立体物とは、背景や路面でなく、検出対象となる対象物を含む立体的な物体である。
具体的に説明すると、図3に示すように、グループ301〜305が設定されている場合、奥行距離情報である視差の値及び画像上の位置に応じた視差の変化状態に基づいて、グループ301〜305がそれぞれ立体物を表示するものであるかどうかが判定される。例えば、視差の値が所定以上の遠方を示す値でなく、画像上の位置に応じて視差の変化状態が所定以上でない場合に、立体物であると判定すればよい。
これに対し、視差の値が所定以上の遠方を示す値であり、または、画像上の位置に応じて視差の値の変化状態が所定以上である場合、立体物でないと判定すればよい。グループ303は、視差の値の変化状態が位置に応じて所定以上でないが、所定以上の遠方を示す値となっており、立体物でなく、背景を示すものであると判定される。グループ301,302は、視差の値が所定以上の遠方を示す値となっておらず、かつ、視差の値の変化状態が位置に応じて所定以上でない。このため、立体物を示すものであると判定される。グループ305は、視差の値が所定以上の遠方を示す値となっていないが、位置に対して視差の値が所定以上に傾斜しており、視差の値の変化状態が位置に応じて所定以上となっている。このため、立体物を示すものでなく、路面を示すものであると判定される。このように、グループ303,305は、グループ信頼度が所定以上でなく立体物を示すものでないと判定され、グループ301,302はグループ信頼度が所定以上であり立体物を示すものであると判定される。
次に、移動情報取得ステップ(ステップS105)が実行され、移動情報取得部130は、画像の画素領域ごとに、画像上における対象物を含む被撮像体の移動方向および移動量を含むオプティカルフローを取得する。例えば、この取得処理では、撮像装置21,22により撮像された画像について画素領域ごとにオプティカルフローを算出し、移動情報として取得してもよい。
次に、対応付け数の設定ステップ(ステップS106)が実行され、対応付け数設定部140は、対象物を含むグループに含まれる画素領域の面積の総和を算出し、面積の総和が小さいほど、対象物を含むグループのそれぞれに対応付けるオプティカルフローの個数を大きく設定する。また、1つの画像中に対象物を含むグループが複数存在する場合には、対象物を含むグループのそれぞれに含まれる画素領域の面積が大きいほど対応付けるオプティカルフローの個数を大きく設定する。
次に、対応付けステップ(ステップS107)が実行され、対応付け部150は、対象物を含むグループに含まれる画素領域に対し、対応付け数設定ステップにおいて設定した個数のオプティカルフローを対応付ける。この対応付け処理は、画像において設定されたグループの全部に対して行ってもよいし、ステップS104にて立体物を示すグループと判定されたグループのみに行ってもよい。
次に、対象物検出ステップ(ステップS108)が実行され、対象物検出部160は、グループ化された画素領域の動きを算出し、対象物を検出する。具体的には、例えば、対象物検出部160は、対応付けられたオプティカルフローを用いて車両の周囲の対象物の移動状態を検出する。すなわち、オプティカルフローを対応付けられたグループが対象物として認識され、そのオプティカルフローに基づいて、対象物を含むグループの移動状態が検出される。より具体的には、グループの移動状態に基づいて対象物の三次元空間における相対速度が算出される。対象物の移動状態としては、相対速度のほか、絶対速度であってもよいし、加減速度であってもよい。この算出処理で検出されたグループのオプティカルフローは、記憶されて、次周期以降に実行される処理において用いられる。
そして、出力ステップ(ステップS109)が実行され、周辺監視装置10は、対象物の検出結果に基づいて、出力部に画像データや制御信号を送信して、処理を終了する。なお、図7の一連の制御処理において、制御結果に影響を及ぼさなければ、制御処理の順番を入れ替えてもよいし、制御処理の一部の実行を省略してもよい。
以上説明したように、本実施形態に係る周辺監視装置10によれば、画像を用いた対象物検出処理において、対応付け数設定部140は、対象物を含むグループに含まれる画素領域の面積の総和Sの値が小さいほど、対象物を含むグループiのそれぞれに対応付けるオプティカルフローの個数Niの値を大きい値に設定する。これにより、奥行距離が近い画素領域のグループにおいて、対応付け部150の処理能力に余裕があるにもかかわらず、対応付けするオプティカルフローの個数を小さい値に設定することを抑制できる。その結果、周辺監視装置10において、対象物検出精度が低下することを抑制できる。
また、対応付け数設定部140は、対象物を含むグループ全体に設定したオプティカルフローの個数を複数のグループに配分するに際して、対象物を含むグループiのそれぞれに含まれる画素領域の面積Siが大きいほど対応付けるオプティカルフローの個数Niを大きく設定することができる。このため、対応付け部150の総処理負荷の増加を抑制しながら、対象物を含むグループ対して、できるだけ多くのオプティカルフローを対応付けすることができる。
10…周辺監視装置、110…距離情報取得部、120…グループ化処理部、130…移動情報取得部、140…対応付け数設定部、150…対応付け部、160…対象物検出部

Claims (3)

  1. 対象物を異なる位置から撮影した複数の画像を取得して車両の周囲を監視する周辺監視装置(10)であって、
    前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得部(110)と、
    前記奥行距離情報に基づいて複数の前記画素領域を1以上のグループにグループ化するグループ化処理部(120)と、
    前記画像に対し前記画素領域ごとに、前記画像上における前記対象物の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得部(130)と、
    前記グループのうち前記対象物を含むグループに含まれる前記画素領域の面積の総和を算出し、前記面積の総和が小さいほど、前記対象物を含むグループのそれぞれに対応付ける前記オプティカルフローの個数を大きく設定する対応付け数設定部(140)と、
    前記対象物を含むグループに含まれる前記画素領域に対し前記対応付け数設定部にて設定した個数の前記オプティカルフローを対応付ける対応付け部(150)と、
    前記対応付け部により対応付けられた前記オプティカルフローを用いて前記車両の周囲の対象物の移動状態を検出する対象物検出部(160)と、を備える周辺監視装置。
  2. 前記対応付け数設定部は、前記対象物を含むグループが複数である場合に、前記対象物を含む複数のグループのそれぞれに含まれる前記画素領域の面積が大きいほど対応付ける前記オプティカルフローの個数を大きく設定する請求項1に記載の周辺監視装置。
  3. 対象物を異なる位置から撮影した複数の画像を取得して車両の周囲を監視する周辺監視方法であって、
    前記画像を構成する画素領域ごとに、前記画像における奥行距離を含む奥行距離情報を取得する距離情報取得ステップ(S102)と、
    前記奥行距離情報に基づいて複数の前記画素領域を1以上のグループにグループ化するグループ化処理ステップ(S103)と、
    前記画像に対し前記画素領域ごとに、前記画像上における前記対象物の移動方向および移動量の情報を含むオプティカルフローを取得する移動情報取得ステップ(S105)と、
    前記グループのうち前記対象物を含むグループに含まれる前記画素領域の面積の総和を算出し、前記面積の総和が小さいほど、前記対象物を含むグループのそれぞれに対応付ける前記オプティカルフローの個数を大きく設定する対応付け数設定ステップ(S106)と、
    前記対象物を含むグループに含まれる前記画素領域に対し前記対応付け数設定ステップにて設定した個数の前記オプティカルフローを対応付ける対応付けステップ(S107)と、
    前記対応付けステップにより対応付けられた前記オプティカルフローを用いて前記車両の周囲の対象物の移動状態を検出する対象物検出ステップ(S108)と、を備える周辺監視方法。
JP2017192068A 2017-09-29 2017-09-29 車両の周辺監視装置と周辺監視方法 Active JP6944328B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017192068A JP6944328B2 (ja) 2017-09-29 2017-09-29 車両の周辺監視装置と周辺監視方法
US16/142,462 US10776649B2 (en) 2017-09-29 2018-09-26 Method and apparatus for monitoring region around vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192068A JP6944328B2 (ja) 2017-09-29 2017-09-29 車両の周辺監視装置と周辺監視方法

Publications (2)

Publication Number Publication Date
JP2019067149A JP2019067149A (ja) 2019-04-25
JP6944328B2 true JP6944328B2 (ja) 2021-10-06

Family

ID=65897353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192068A Active JP6944328B2 (ja) 2017-09-29 2017-09-29 車両の周辺監視装置と周辺監視方法

Country Status (2)

Country Link
US (1) US10776649B2 (ja)
JP (1) JP6944328B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6970577B2 (ja) * 2017-09-29 2021-11-24 株式会社デンソー 周辺監視装置および周辺監視方法
JP6920159B2 (ja) * 2017-09-29 2021-08-18 株式会社デンソー 車両の周辺監視装置と周辺監視方法
GB2598082A (en) * 2020-07-08 2022-02-23 Continental Automotive Gmbh Road mirror detection system and method
US11840238B2 (en) * 2021-02-05 2023-12-12 Nvidia Corporation Multi-view geometry-based hazard detection for autonomous systems and applications

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3395634B2 (ja) * 1998-03-12 2003-04-14 三菱自動車工業株式会社 オプティカルフロー式後方情報検出装置
JP5190712B2 (ja) * 2009-03-24 2013-04-24 アイシン精機株式会社 障害物検出装置
GB2482551A (en) * 2010-08-06 2012-02-08 Qinetiq Ltd Alignment of synthetic aperture radar images
JP6466679B2 (ja) * 2014-10-10 2019-02-06 トヨタ自動車株式会社 物体検出装置
KR101910453B1 (ko) * 2016-03-03 2018-10-24 한국전자통신연구원 정보표시를 위한 핵심선 추출 장치 및 방법
GB2565590B (en) * 2017-08-18 2021-06-02 Apical Ltd Method of flicker reduction

Also Published As

Publication number Publication date
JP2019067149A (ja) 2019-04-25
US10776649B2 (en) 2020-09-15
US20190102642A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
US20230010529A1 (en) Vehicular vision system having a plurality of cameras
JP6944328B2 (ja) 車両の周辺監視装置と周辺監視方法
US8654196B2 (en) Image pickup apparatus and rangefinder, with altering baseline lengths for parallax computation obtained by combining any two of a plurality of cameras
CN106650708B (zh) 一种自动驾驶障碍物视觉检测方法与***
EP2919197B1 (en) Object detection device and object detection method
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
JP6417886B2 (ja) 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム
KR102490272B1 (ko) 차량의 주변 영역을 표시하기 위한 방법
JP6306735B2 (ja) ステレオカメラ装置及びステレオカメラ装置を備える車両
KR20180041524A (ko) 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
JP2019067150A (ja) 周辺監視装置および周辺監視方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2019061303A (ja) 車両の周辺監視装置と周辺監視方法
JP6466679B2 (ja) 物体検出装置
WO2015001747A1 (ja) 走行路面標示検知装置および走行路面標示検知方法
WO2019003996A1 (ja) プロセッサ、画像処理装置、移動体、画像処理方法、及びプログラム
JP2019066327A (ja) 車両の周辺監視装置および周辺監視方法
JP4742695B2 (ja) 視線認識装置、及び視線認識方法
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP4598011B2 (ja) 車両用表示装置
JP5904927B2 (ja) 車両用周辺監視装置
JP5867207B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US11430147B2 (en) Image processing apparatus, imaging apparatus, mobile body, and image processing method
JP2000115614A5 (ja) 立体映像システム、コンピュータ読み取り可能な記憶媒体及びデータを記憶した記憶媒体
US10200617B2 (en) Camera apparatus, and method of generating view finder image signal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210910

R150 Certificate of patent or registration of utility model

Ref document number: 6944328

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150