JP6222353B2 - 物標検出装置及び物標検出方法 - Google Patents

物標検出装置及び物標検出方法 Download PDF

Info

Publication number
JP6222353B2
JP6222353B2 JP2016520844A JP2016520844A JP6222353B2 JP 6222353 B2 JP6222353 B2 JP 6222353B2 JP 2016520844 A JP2016520844 A JP 2016520844A JP 2016520844 A JP2016520844 A JP 2016520844A JP 6222353 B2 JP6222353 B2 JP 6222353B2
Authority
JP
Japan
Prior art keywords
vehicle
target
error
self
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016520844A
Other languages
English (en)
Other versions
JPWO2015177865A1 (ja
Inventor
大貴 山ノ井
大貴 山ノ井
西内 秀和
秀和 西内
安藤 敏之
敏之 安藤
佐藤 宏
宏 佐藤
松尾 治夫
治夫 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Publication of JPWO2015177865A1 publication Critical patent/JPWO2015177865A1/ja
Application granted granted Critical
Publication of JP6222353B2 publication Critical patent/JP6222353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

本発明は、物標検出装置及び物標検出方法に関する。
従来から、車両前方の画像データから交通用表示器を検出する画像処理システムが知られている(特許文献1)。特許文献1では、車両の位置及び姿勢を検出することにより、交通用表示器の位置を予測し、この予測位置に基づき、画像データに対して画像処理領域を決定し、画像処理領域から交通用表示器を検出する。これにより、画像処理の負担を軽減している。
特開2007−241469号公報
しかし、特許文献1の画像処理システムは、画像処理領域を決定する際に、検出した車両の位置及び姿勢に含まれる誤差を考慮していない。当該誤差は車両周囲の状況に応じて大きく変化する。誤差が大きければ画像処理領域から交通用表示器が外れてしまい、交通用表示器を検出できない。一方、画像処理領域が広すぎると、交通用表示器以外のものを誤検出する可能性が高まる。
本発明は、上記課題に鑑みてなされたものであり、物標を精度良く検出することができる物標検出装置及び物標検出方法を提供することを目的としている。
本発明の一態様に係わる物標検出装置は、車両の周囲を撮像して画像を取得し、車両の初期位置からの移動量に基づいて、車両の自己位置を検出し、車両の周囲の物標の地図上の位置情報及び自己位置から車両に対する物標の相対位置を推定する。車両に対する物標の相対位置から、画像における物標の検出領域を設定し、検出領域から物標を検出する。そして、自己位置に含まれる誤差を車両の初期位置からの移動量に基づいて推定し、誤差に応じて物標の検出領域の大きさを調整する。
図1は、実施形態に係わる物標検出装置100へ入出力される情報を示すブロック図である。 図2は、実施形態に係わる物標検出装置100の構成及びデータフローを示すブロック図である。 図3は、図2の自己位置検出部12の構成及びデータフローを示すブロック図である。 図4は、図2の検出領域設定部14の構成及びデータフローを示すブロック図である。 図5(a)は、地上ランドマークから車両51の進行方向への移動量(距離)に対する車両51の座標の誤差を示すグラフであり、図5(b)は、地上ランドマークから各回転方向(ロール方向、ピッチ方向、ヨー方向)への車両51の移動量(角度)に対する車両51の姿勢の誤差を示すグラフである。 図6(a)は、地上ランドマークLM1〜LM3が設置された直線道路LD1を走行する車両51A〜51Cを示す図であり、図6(b)は、誤差推定部16が推定する誤差を示す表であり、図6(c)は、自己位置検出部12が検出する自己位置を示す表である。 図7(a)は、地上ランドマークLM1が設置された直線道路LD1を走行する車両51A〜51Cを示す図であり、図7(b)は、誤差推定部16が推定する誤差を示す表である。 図8(a)は、地上ランドマークLM1、LM2が設置されたカーブLD2を走行する車両51A、51Bを示す図であり、図8(b)は、誤差推定部16が推定する誤差を示す表であり、図8(c)は、自己位置検出部12が検出する自己位置を示す表である。 図9(a)は、地上ランドマークLM1が設置されたカーブLD2を走行する車両51A、51Bを示す図であり、図9(b)は、誤差推定部16が推定する誤差を示す表である。 図10は、画像(Img)上の二次元座標(xl,yl)を示す平面図であって、誤差を考慮していない物標の座標(G)と誤差が最大に生じた場合の物標の座標(G)を示す。 図11は、図10に示す検出領域(Z)の大きさを比較した表である。 図12は、物標検出装置100を用いた物標検出方法の一例を示すフローチャートである。
以下、本発明の実施形態を複数の図面に基づいて説明する。同一部材には同一符号を付して再度の説明を省略する。
(第1実施形態)
図1を参照して、実施形態に係わる物標検出装置100のへ入出力される情報を説明する。物標検出装置100は、車両51に搭載された撮像部(カメラ)により撮像された画像から、道路周辺に設置された物標を検出する。物標は、地上に固定されたものであって、例えば、信号機、道路標識が含まれる。本例では、信号機を例に取り説明を続ける。
物標検出装置100には、地図情報D02と、ランドマーク情報D01と、カメラ情報D03とが入力される。地図情報D02には、予め実環境と地図の間で対応付けされた物標の位置情報を含まれる。ランドマーク情報D01は、実環境上の車両51の自己位置を算出するために用いられる。ランドマークには、地上に設けられた特徴物(地上ランドマーク)、及び車両51が受信可能なGPS信号を発信するGPS衛星が含まれる。第1実施形態では、地上ランドマークを例に取り説明する。ランドマーク情報D01には、例えば、地上ランドマークの位置情報が含まれる。カメラ情報D03は、撮像部から車両51の周囲(例えば前方)の映像を抽出するために用いられる。物標検出装置100は、これらの情報D01〜D03に基づいて、物標の一例である信号機の認識結果を信号機情報D04として出力する。
図2を参照して、実施形態に係わる物標検出装置100の構成及びデータフローを説明する。物標検出装置100は、撮像部11と、自己位置検出部12と、物標位置推定部13と、検出領域設定部14と、物標検出部15と、誤差推定部16とを備える。
撮像部11は、車両51に搭載され、車両51の周囲を撮像して画像を取得する。撮像部11は、固体撮像素子、例えばCCD及びCMOSを備えるカメラであって、画像処理が可能な画像を取得する。撮像部11は、カメラ情報D03に基づいて、画像の画角、カメラの垂直方向及び水平方向の角度を設定し、取得した画像を画像データD08として出力する。
自己位置検出部12は、ランドマーク情報D01に基づいた車両51の地図情報D02上の初期位置からの移動量から車両51の自己位置を検出する。ランドマーク情報D01は、例えば、車載のカメラ或いはレーザレーダ等のセンシング手段により検出された地上ランドマーク(店舗、名所、観光スポット)の車両51に対する相対位置の情報である。地図情報D02の中には、地上ランドマークの位置情報が予め登録されている。ランドマーク情報D01と地上ランドマークの相対位置の情報とを照合することにより、車両51の自己位置を検出することができる。ここで、「位置」には、座標及び姿勢が含まれる。具体的には、地上ランドマークの位置には、地上ランドマークの座標及び姿勢が含まれ、車両51の位置には、車両51の座標及び姿勢が含まれる。自己位置検出部12は、基準となる座標系における座標(x, y, z)及び、各座標軸の回転方向である姿勢(ピッチ、ヨー、ロール)を自己位置情報D05として出力する。
物標位置推定部13は、地図情報D02と自己位置情報D05とから、車両51に対する物標の相対位置を推定する。地図情報D02の中には、物標の位置情報(座標情報)が予め登録されている。物標の座標と車両51の座標及び姿勢とから、車両51に対する物標の相対座標を求めることができる。物標位置推定部13は、推定した物標の相対位置を相対位置情報D06として出力する。
誤差推定部16は、自己位置検出部12により検出された自己位置に含まれる誤差を、車両の初期位置からの移動量に基づいて推定する。誤差推定部16の詳細は、図5〜図9を参照して後述する。
検出領域設定部14は、物標の相対位置から、画像における物標の検出領域を設定する。撮像部11は車両51に固定されているため、撮像部11が撮像する画角が定まれば、画像の中で、物標が撮像されるであろう画像上の位置を特定することができる。検出領域設定部14は、この画像上の位置に基づいて、画像における物標の検出領域を設定する。
検出領域設定部14は、誤差推定部16により推定された誤差に応じて、物標の検出領域の大きさを調整する。検出領域設定部14は、設定及び調整した検出領域を検出領域情報D09として出力する。検出領域設定部14の詳細は、図10〜図11を参照して後述する。
物標検出部15は、設定及び調整された検出領域から物標を検出する。具体的には、検出領域に含まれる画像データD08に対して、物標を検出するための画像処理を実施する。画像処理の方法は特に問わない。例えば、物標が信号機である場合、信号機が有する信号灯を、商用電源の交流周期に基づく同期検波処理、又は色相及び形状の類似判定処理を用いて、検出することができる。その他、物標を検出するための既知の画像処理を適用することができる。画像データD08全体ではなく、その一部分(検出領域)に対して画像処理を実施することにより、物標検出のための情報処理負担を軽減して、早期に物標を検出することができる。物標検出部15は、物標の検出結果を物標情報D04として出力する。
なお、自己位置検出部12、物標位置推定部13、誤差推定部16、検出領域設定部14、及び物標検出部15は、CPU、メモリ、及び入出力部を備えるマイクロコントローラを用いて実現することができる。具体的に、CPUは、予めインストールされたコンピュータプログラムを実行することにより、マイクロコントローラが備える複数の情報処理部(12〜16)を構成する。マイクロコントローラが備えるメモリの一部は、地図情報D02を記憶する地図データベースを構成する。なお、マイクロコントローラは、車両にかかわる他の制御(例えば、自動運転制御)に用いるECUと兼用してもよい。
図3を参照して、図2の自己位置検出部12の構成及びデータフローを説明する。自己位置検出部12は、初期位置検出部21と、移動量加算部22とを備える。初期位置検出部21は、ランドマーク情報D01を用いて車両51の初期位置を検出する。初期位置とは、車両51の自己位置が検出できる位置であり、ランドマーク情報D01から直接求めることができる車両51の位置、すなわち座標及び姿勢である。なお、道路側に設置されており、設置されている道路区間において、走行している車両の位置を検出する装置があり、路車間通信等によって、自車両の位置情報が得られる場合、道路側の車両位置検出装置から車両51の位置を受信することで、車両51の自己位置が検出できる位置が得られる。
移動量加算部22は、初期位置検出部21により検出された初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。例えば、センシング手段により地上ランドマークが検出されている場合、車両の移動量を累積加算することなく、自己位置検出部12は初期位置の情報を自己位置情報D05として検出する。一方、地上ランドマークが検出されていていない場合に、自己位置検出部12は、最後に検出された初期位置に車両の移動量を累積加算した位置の情報を、自己位置情報D05として出力する。車両の移動量の推定方法は、特に問わず、既知の方法を用いて行うことができる。例えば、移動量加算部22は、オドメトリ、レーダ装置、ジャイロセンサ、ヨーレイトセンサ、舵角センサを用いて、単位時間当たりの車両の移動量、つまり、座標及び姿勢の変化量を推定することができる。
なお、図3の自己位置検出部12の構成に対して、図2の誤差推定部16は、移動量加算部22により累積加算された車両51の移動量に基づいて自己位置の誤差を推定する。移動量加算部22により推定される車両の移動量の精度は、ランドマークを用いて検出される初期位置の精度に比べて低い。初期位置に車両の移動量を累積加算することにより、自己位置に含まれる誤差も同時に累積加算される。よって、ランドマークを用いて検出された初期位置からの移動量に応じて、車両の自己位置に含まれる誤差は大きく変化する。初期位置からの移動量に基づいて誤差を推定することにより、誤差を精度良く推定することができる。詳細は、図5〜図9を参照して後述する。
図4を参照して、図2の検出領域設定部14の構成及びデータフローを説明する。検出領域設定部14は、物標位置誤差推定部31と、座標変換部32と、領域決定部34とを備える。
物標位置誤差推定部31は、自己位置に含まれる誤差により、物標の相対位置に生じる誤差を推定する。具体的に、物標位置誤差推定部31には、相対位置情報D06と誤差情報D07とが入力される。そして、車両51の座標及び姿勢の各々に、誤差推定部16により推定された誤差が生じた場合に、車両51に対する物標の相対座標に生じる誤差を推定する。物標位置誤差推定部31は、物標の相対座標に生じる誤差を物標位置誤差情報D11として出力する。
座標変換部32は、物標の相対座標及びその誤差を、物標を撮像した画像上の座標へそれぞれ変換する。具体的に、座標変換部32には、相対位置情報D06及び物標位置誤差情報D11が入力される。座標変換部32は、撮像部11が有するレンズ光学系に基づき、物標の三次元座標(x, y, z)を画像上の二次元座標(xl,yl)へ変換する座標変換処理を行う。座標変換方法は特に問わず、既知の方法を用いることができる。座標変換部32は、誤差を考慮していない物標の二次元座標、及び誤差が最大に生じた場合の物標の二次元座標を、レンズ座標情報D12として出力する。
領域決定部34は、誤差を考慮していない座標と誤差が最大に生じた場合の座標との差に基づいて検出領域の大きさを決定し、誤差を考慮していない座標に基づいて検出領域の中心座標を決定する。詳細は、図10を参照して後述する。検出領域の大きさ及び中心座標は、検出領域情報D09として出力される。
図5〜図9を参照して、移動量加算部22により累積加算される車両51の移動量に基づいて推定される自己位置の誤差について説明する。図5(a)の横軸は、初期位置から進行方向(z方向)への車両51の移動距離を示し、図5(a)の縦軸は、車両51の座標に含まれる誤差(gx、gy、gz)を示す。gzは車両51の進行方向の誤差を示し、gxは車両51の幅方向の誤差を示し、gyは車両51の高さ方向の誤差を示す。
車両51の座標に含まれる誤差(gx、gy、gz)は、初期位置からの移動距離に比例して増加する。初期位置からの移動距離がゼロの場合、誤差(gx、gy、gz)もゼロである。なお、図5(a)において、初期位置検出部21が検出する初期位置に含まれる誤差は考慮していない。車両51の座標は、初期位置に対して、単位時間あたりの座標の変化量を累積加算することにより算出される。このため、初期位置からの移動距離が長くなれば、累積加算される座標の変化量も大きくなり、よって、車両51の座標に含まれる誤差(gx、gy、gz)も大きくなる。z方向(進行方向)への移動距離に対して、車両51の幅方向の誤差(gx)が最も大きく、車両の高さ方向の誤差(gy)が最も小さい。
図5(b)の横軸は、初期位置から各回転方向(ロール方向、ピッチ方向、ヨー方向)への車両51の移動量(角度の変化量)を示し、図5(b)の縦軸は、車両51の姿勢に含まれる誤差(gr、gp、gya)を示す。grは車両51のロール方向の誤差を示し、gpは車両51のピッチ方向の誤差を示し、gyaは車両51のヨー方向の誤差を示す。
車両51の姿勢に含まれる誤差(gr、gp、gya)は、初期位置における車両の51の姿勢(初期姿勢)からの変化量に比例して増加する。初期姿勢からの変化量がゼロの場合、予め定めた誤差(gr、gp、gya)が生じる。つまり、図5(b)において、初期位置検出部21が検出する初期姿勢に含まれる誤差が考慮されている。車両51の姿勢は、初期姿勢に対して、単位時間あたりの姿勢の変化量を累積加算することにより算出される。このため、初期姿勢からの変化量が大きくなれば、累積加算される姿勢の変化量も大きくなり、よって、車両51の姿勢に含まれる誤差(gr、gp、gya)も大きくなる。各回転方向への変化量に対して、ロール方向及びピッチ方向の誤差(gr、gp)が最も大きく、ヨー方向の誤差(gya)が最も小さい。ヨー方向に回転した場合には、ヨー方向にのみ誤差(gya)が生じる。ロール方向及びピッチ方向についても同様である。
次に、図6〜図9に示す道路形状及び地上ランドマークの具体的な事例に沿って、誤差推定部16が推定する誤差、及び自己位置検出部12が検出する自己位置を説明する。
図6(a)は、地上ランドマークLM1〜LM3が設置された直線道路LD1を走行する車両51A〜51Cを示す。図6(b)は、誤差推定部16が推定する誤差を示す表であり、図6(c)は、自己位置検出部12が検出する自己位置を示す表である。車両51Aは、地上ランドマークLM1に最も接近した時の車両の位置を示す。車両51B及び51Cも同様にして、地上ランドマークLM2及びLM3に最も接近した時の車両の位置を示す。また、物標Tgtの一例である信号機は、車両51A、51B及び51Cから、進行方向へ200m、120m、及び40mだけ離れている。
車両51A、51B及び51Cの各地点において、自己位置検出部12は、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。よって、図6(b)に示すように、車両51A、51B及び51Cの各地点において、誤差推定部16が推定する誤差は、初期位置検出部21が検出する初期姿勢に含まれる誤差と等しい。なお、直線道路LD1を走行するため、図6(c)に示すように、自己位置検出部12が検出する自己位置は、進行方向(z方向)の座標(z)のみが変化している。図6(c)に示す座標は、物標Tgtを原点とする座標である。それぞれ単位は、gx[m]、gy[m]、gz[m]、gp[°]、gya[°]、gr[°]、x[m]、y[m]、z[m]、pich[°]、yaw[°]、roll[°]である。
これに対して、図7(a)は、直線道路LD1に、地上ランドマークLM1のみが設置されている事例を示す。自己位置検出部12は、車両51Aの地点において、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。このため、図7(b)に示すように、車両51Aの地点において、図6(b)と同様な座標及び姿勢の誤差が生じる。しかし、地上ランドマークLM2及びLM3が設置されていないため、車両51B及び51Cにおける自己位置は、車両51Aからの移動量を累積加算することにより算出される。よって、車両51B及び51Cにおける座標の誤差は、図6(b)とは異なる。誤差推定部16は、図5(a)に示すデータを参照して、車両51Aからの移動量(80m、160m)から、座標の誤差を算出する。車両51Aからの移動量が大きくなるほど、座標(gx、gy、gz)の誤差が大きくなる。なお、本事例では、車両51は各回転方向に移動していないため、車両51B及び51Cにおける姿勢の誤差は、図6(b)と同じである。
図8(a)は、地上ランドマークLM1、LM2が設置されたカーブLD2を走行する車両51A、51Bを示す。図8(b)は、誤差推定部16が推定する誤差を示す表であり、図8(c)は、自己位置検出部12が検出する自己位置を示す表である。車両51A及び51Bは、地上ランドマークLM1及びLM2に最も接近した時の車両の位置を示す。
車両51A及び51Bの各地点において、自己位置検出部12は、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。よって、図8(b)に示すように、車両51A及び51Bの各地点において、誤差推定部16が推定する誤差は、初期位置検出部21が検出する初期姿勢に含まれる誤差と等しい。図8(c)に示す座標は、物標Tgtを原点とする座標である。
これに対して、図9(a)は、カーブLD2に、地上ランドマークLM1のみが設置されている事例を示す。自己位置検出部12は、車両51Aの地点において、車両の移動量を累積演算することなく、車両51の初期位置をそのまま自己位置として算出することができる。このため、図9(b)に示すように、車両51Aの地点において、図8(b)と同様な座標及び姿勢の誤差が生じる。しかし、地上ランドマークLM2が設置されていないため、車両51Bにおける自己位置は、車両51Aからの移動量を累積加算することにより算出される。車両51Aから車両51Bの間に、車両51はヨー方向に90°回転移動している。誤差推定部16は、図5(b)に示すデータを参照して、車両51Aからの移動量から、ヨー方向の誤差(gya)を算出する。図9(b)に示すように、車両51Bにおけるヨー方向の誤差(gya)が増加している。なお、車両51Aから車両51Bの間に、車両の姿勢のみならず、車両の座標も変化しているが、図9の事例では、姿勢の変化のみを考慮し、座標の変化は考慮しない。
図10を参照して、検出領域の大きさ及び中心座標を決定する方法の一例を説明する。図10は、画像(Img)上の二次元座標(xl,yl)を示す平面図である。座標(G)は、座標変換部32により座標変換された、誤差を考慮していない物標の二次元座標を示す。座標(G)は、座標変換部32により座標変換された、誤差が最大に生じた場合の物標の二次元座標を示す。座標(G)と座標(G)との差(Xm、Ym)は、座標変換部32により座標変換された、物標の相対座標に含まれる誤差に相当する。
検出領域設定部14は、座標(G)を中心座標とし、物標の大きさに対して、X方向及びY方向にそれぞれ2×Xm及び2×Ymの長さを加えた4辺を有する検出領域(Z)を設定する。これにより、誤差が最大に生じた場合であっても、検出領域(Z)内に物標の座標(G)が収まるため、物標が検出領域から外れ難くすることができる。また、検出領域(Z)を広げ過ぎることが無くなるので、物標以外のものが誤検出され難くなり、且つ演算負荷を下げた状態で物標を検出できる。
或いは、検出領域設定部14は、予め用意された複数の異なる大きさの検出領域(Z)の中から、最も近い大きさの検出領域(Z)を選択してもよい。
図11を参照して、図6〜図9に示す事例における検出領域(Z)の大きさを比較する。ここでは、図6の車両51C及び図8の車両51Bにおける検出領域(Z)の大きさをそれぞれ基準値(x)とする。図6の車両51Bでは、自己位置(座標および姿勢)に含まれる誤差は、図6の車両51Cと同じであるが、物標までの距離が異なる。このため、検出領域(Z)の大きさは、基準値(x)の3倍となる。図7の車両51Bでは、地上ランドマークが無いため、移動量の累積加算による誤差が発生する。このため、検出領域(Z)の大きさは、更に大きくなり、基準値(x)の5倍となる。図7の車両51Cでは、移動量の累積加算による誤差は更に増加するが、物標までの距離は縮まる。このため、検出領域(Z)の大きさは、小さくなり、基準値(x)の2倍となる。同様に、図9の車両51Bでは、移動量の累積加算による誤差が発生するため、検出領域(Z)の大きさは、基準値(x)の2倍となる。
このように、物標からの距離が離れると、ヨー方向及びピッチ方向の誤差(gya、gp)の影響が強くなり、大きな検出領域が必要となる。また、物標との距離が近づくと座標の誤差(gx、gy、gz)の影響が強くなるため、ランドマーク情報の有無によって検出領域(Z)の大きさに差が生じる。
図12を参照して、物標検出装置100を用いた物標検出方法の一例を説明する。
ステップS01において、撮像部11は、カメラ情報D03に基づいて車両51の周囲を撮像して画像を取得する。ステップS03に進み、自己位置検出部12は、ランドマーク情報D01から車両51の初期位置を求めた上、車両51の初期位置からの移動量に基づき、車両51の自己位置を検出し、検出された自己位置を自己位置情報D05として出力する。
ステップS05に進み、物標位置推定部13は、地図情報D02と自己位置情報D05とから、車両51に対する物標の相対位置を推定する。ステップS07に進み、誤差推定部16は、ステップS03で検出された自己位置に含まれる誤差(Ds)を、自己位置に基づいて推定する。具体的には、車両51の自己位置に含まれる誤差(gx、gy、gz、gr、gp、gya)を、図5(a)及び(b)を参照して、初期位置からの移動量(距離或いは角度)に応じて推定する。
ステップS09に進み、推定した誤差(Ds)が所定のしきい値(Dth)よりも大きいか否かを判断する。誤差(Ds)がしきい値(Dth)よりも大きい場合(S09でYES)、物標の相対位置に生じる誤差も大きくなるため、誤差に応じて検出領域(Z)の大きさを調整する必要性が高まる。そこで、ステップS13へ進み、物標位置誤差推定部31は、自己位置に含まれる誤差により、物標の相対位置に生じる誤差を推定する。
なお、しきい値(Dth)は、車両の座標に含まれる誤差(gx、gy、gz)及び車両の姿勢に含まれる誤差(gr、gp、gya)の各々に設定することができる。そして、各誤差のうち、いずれか1つがしきい値よりも大きい場合に、ステップS09でYESと判断することができる。或いは、全ての誤差がしきい値よりも大きい場合に限り、ステップS09でYESと判断しても構わない。
ステップS15に進み、座標変換部32は、物標の相対座標及びその誤差を、図10に示すように、物標を撮像した画像(Img)上の座標(xl,yl)へそれぞれ変換する。ステップS17に進み、領域決定部34は、誤差を考慮していない座標(G)と誤差が最大に生じた場合の座標(G)との差(Xm、Ym)に基づいて、図11に示すように、検出領域(Z)の大きさを設定する。ステップS19に進み、領域決定部34は、誤差を考慮していない座標(G)に基づいて検出領域(Z)の中心座標を決定する。これにより、検出領域(Z)が決定される。
一方、誤差(Ds)がしきい値(Dth)以下である場合(S09でNO)、物標の相対位置に生じる誤差も小さくなる。このため、検出領域(Z)の大きさを、誤差に応じて調整する必要性も低い。そこで、ステップS11に進み、ステップS05で推定した物標の相対位置を座標変換して、誤差を考慮していない座標(G)を求める。ステップS19に進み、誤差を考慮していない座標(G)に基づいて、検出領域(Z)の中心座標を決定する。この場合の検出領域(Z)の大きさは、予め定めた値、例えば、図11の基準値(x)である。つまり、誤差(Ds)がしきい値(Dth)以下である場合、誤差(Ds)に応じて検出領域(Z)の大きさを調整せずに、検出領域(Z)を決定する。
ステップS21に進み、前回からの誤差(Ds)の変化量が所定の基準値以上であるか否かを判断する。誤差(Ds)の変化量が所定の基準値以上であれば(S21でYES)、ステップS23に進み、領域決定部34は、検出領域情報D09の一例として、検出領域の大きさの調整量をメモリに記憶する。誤差(Ds)の変化量が所定の基準値未満であれば(S21でNO)、領域決定部34は、検出領域の大きさの調整量を更新しない。そして、ステップS25に進み、物標検出部15は、設定及び調整された検出領域に含まれる画像データD08に対して、物標を検出するための画像処理を実施する。
以上説明したように、第1実施形態によれば、以下の作用効果が得られる。
車両51の自己位置に含まれる誤差(Ds)を当該車両の初期位置からの移動量に基づいて推定し、誤差(Ds)に応じて物標の検出領域(Z)の大きさを調整する。これにより、誤差(Ds)を考慮して物標の検出領域(Z)の大きさを調整することができる。よって、車両周囲の状況に応じて誤差(Ds)が大きく変化しても、誤差(Ds)に応じて適切な大きさの検出領域(Z)を設定することができる。例えば、誤差が大きければ検出領域を大きくして、物標が検出領域から外れ難くすることができる。一方、誤差が小さければ検出領域を小さくして、物標以外のものが誤検出され難くすることができる。また、画像処理の負担も軽減される。このように、車両の自己位置に含まれる誤差を考慮して物標の検出領域の大きさを適切に調整することにより、物標を精度良く検出することができる。誤差が生じた場合でも、物標の認識に必要な検出領域を確保し、かつ検出領域を最低限に狭めることで、演算負荷を下げた状態で物標を検出できる。
ランドマーク(例えば、地上ランドマークLM1〜LM3)を用いて検出された初期位置に累積加算される移動量に応じて、車両51の自己位置に含まれる誤差(Ds)は大きく変化する。初期位置からの移動量に基づいて誤差を推定することにより、誤差を精度良く推定することができる。
地上にある特徴物(地上ランドマークLM1〜LM3)の位置情報と地図情報D02とを照合することにより自己位置を精度良く検出することができる。よって、ランドマークから自己位置までの移動量に基づいて誤差(Ds)を精度良く推定することができる。
自己位置検出部12は、自己位置として、車両の座標及び車両の姿勢を検出する。誤差推定部16は、車両の進行方向への移動量に基づいて、車両の座標に含まれる誤差を推定し、車両の回転方向への移動量に基づいて、車両の姿勢に含まれる誤差を推定する。これにより、車両の自己位置に含まれる誤差(Ds)を正確に推定することができるので、誤差(Ds)に起因して物標の相対位置に生じる誤差も正確に推定することができる。
領域決定部34は、誤差(Ds)の変化量が所定の基準値以上である場合、検出領域の大きさの調整量を保持する。これにより、最新の検出領域情報D09を保持することができる。
(第2実施形態)
第2実施形態では、自己位置を検出するためのランドマークとして、車両51が受信可能なGPS信号を発信するGPS衛星を例に取り説明する。自己位置検出部12は、ランドマーク情報D01としてGPS信号を受信し、GPS信号から車両51の初期位置(初期座標及び初期姿勢)を検出する。
GPS信号は、車両51周囲の状況、例えば車両周囲に多数の建物がある状況によって遮断され、車両51はGPS信号を受信できない場合がある。この場合、自己位置検出部12は、初期位置検出部21により検出された初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。
図3の初期位置検出部21は、GPS信号を用いて車両51の初期位置を検出する。初期位置とは、GPS信号から直接求めることができる車両51の位置、すなわち座標及び姿勢である。移動量加算部22は、GPS信号が受信されていない場合に、最後に受信したGPS信号から求めた初期位置に、車両の移動量を累積加算することで車両51の自己位置を算出する。
例えば、GPS信号が受信されている場合、車両の移動量を累積加算することなく、自己位置検出部12は初期位置の情報を自己位置情報D05として検出する。一方、GPS信号が受信されていない場合に、自己位置検出部12は、最後に検出された初期位置に車両の移動量を累積加算した位置の情報を、自己位置情報D05として出力する。
図6(a)〜図9(a)に示す事例において、地上ランドマークLM1〜LM3に最も近づく車両51A〜51Cの位置は、GPS信号を受信して車両51の初期位置を検出した地点に相当する。
その他、物標検出装置100及び物標検出方法に関する構成は、第1実施形態と同じであり、説明を省略する。
以上説明したように、自己位置検出部12は、GPS衛星をランドマークとして用いて自己位置を検出し、誤差推定部16は、GPS衛星から送信される信号を最後に受信した時の車両の位置から自己位置までの移動量に基づいて、誤差を推定する。これにより、GPS衛星から送信されるGPS信号を用いることにより初期位置を精度良く検出することができる。よって、GPS信号を受信してから自己位置までの移動量に基づいて誤差(Ds)を精度良く推定することができる。
以上、実施例に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
例えば、自己位置検出部12は、地上ランドマーク及びGPS衛星の両方を、ランドマークとして用いて自己位置を検出してもよい。この場合、誤差推定部16は、最後に、地上ランドマークを検出してから、或いはGPS信号を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
また、地上ランドマークと車両51との間で通信を行える場合には、地上ランドマークと車両51との相対位置関係を、GPS衛星を利用する場合と同様に、通信によって得ることができる。この場合、誤差推定部16は、最後に、地上ランドマークから位置を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
また、道路側に設置されており、設置されている道路区間において、走行している車両の位置を検出する装置があり、路車間通信等によって、自車両の位置情報が得られる場合がある。この場合、自己位置検出部12は、車両51の自己位置を、路車間通信等によって、道路側の車両位置検出装置より、検出するようにしてもよい。この場合、誤差推定部16は、最後に、道路側の車両位置検出装置から車両51の位置(初期位置)を受信してから自己位置までの移動量に基づいて誤差(Ds)を推定すればよい。
11 撮像部
12 自己位置検出部
13 物標位置推定部
14 検出領域設定部
15 物標検出部
16 誤差推定部
21 初期位置検出部
22 移動量加算部
検出領域

Claims (6)

  1. 車両に搭載され、前記車両の周囲を撮像して画像を取得する撮像部と、
    前記車両の初期位置からの移動量に基づいて、前記車両の自己位置を検出する自己位置検出部と、
    前記車両の周囲の物標の地図上の位置情報と前記自己位置とから、前記車両に対する前記物標の相対位置を推定する物標位置推定部と、
    前記車両に対する前記物標の相対位置から、前記物標の画像上の位置を特定し、前記画像上の位置に基づいて、前記物標の検出領域を設定する検出領域設定部と、
    前記検出領域から前記物標を検出する物標検出部と、
    前記自己位置検出部により検出された前記自己位置に含まれる誤差を、前記車両の初期位置からの移動量に基づいて推定する誤差推定部と、を備え、
    前記検出領域設定部は、前記誤差推定部により推定された前記誤差に応じて、前記物標の検出領域の大きさを調整する
    ことを特徴とする物標検出装置。
  2. 前記自己位置検出部は、
    ランドマークを用いて前記車両の初期位置を検出する初期位置検出部と、
    前記初期位置に、前記車両の移動量を累積加算することで前記自己位置を算出する移動量加算部と、を備え、
    前記誤差推定部は、前記車両の初期位置からの前記車両の移動量に基づいて前記誤差を推定する
    ことを特徴とする請求項1に記載の物標検出装置。
  3. 前記初期位置検出部は、GPS衛星をランドマークとして用いて前記初期位置を検出し、
    前記誤差推定部は、GPS衛星から送信される信号を最後に受信した時の前記初期位置からの前記車両の移動量に基づいて、前記誤差を推定する
    ことを特徴とする請求項2に記載の物標検出装置。
  4. 前記自己位置検出部は、前記自己位置として、前記車両の座標及び前記車両の姿勢を検出し、
    前記誤差推定部は、前記車両の進行方向への移動量に基づいて、前記車両の座標に含まれる誤差を推定し、前記車両の回転方向への移動量に基づいて、前記車両の姿勢に含まれる誤差を推定する
    ことを特徴とする請求項1〜3のいずれか一項に記載の物標検出装置。
  5. 前記検出領域設定部は、前記誤差の変化量が所定の基準値以上である場合、検出領域の大きさの調整量を保持することを特徴とする請求項1〜4のいずれか一項に記載の物標検出装置。
  6. 車両に搭載された撮像部と、自己位置検出部と、物標位置推定部と、検出領域設定部と、物標検出部と、誤差推定部とを備える物標検出装置を用いた物標検出方法であって、
    前記撮像部を用いて、前記車両の周囲を撮像して画像を取得し、
    前記自己位置検出部が、前記車両の初期位置からの移動量に基づいて、前記車両の自己位置を検出し、
    前記物標位置推定部が、前記車両の周囲の物標の地図上の位置情報と前記自己位置とから、前記車両に対する前記物標の相対位置を推定し、
    前記検出領域設定部が、前記車両に対する前記物標の相対位置から、前記物標の画像上の位置を特定し、前記画像上の位置に基づいて、前記物標の検出領域を設定し、
    前記誤差推定部が、前記自己位置に含まれる誤差を、前記車両の初期位置からの移動量に基づいて推定し、
    前記検出領域設定部が、前記誤差に応じて、前記物標の検出領域の大きさを調整し、
    前記物標検出部が、前記検出領域から前記物標を検出する
    ことを特徴とする物標検出方法。
JP2016520844A 2014-05-20 2014-05-20 物標検出装置及び物標検出方法 Active JP6222353B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/063351 WO2015177865A1 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法

Publications (2)

Publication Number Publication Date
JPWO2015177865A1 JPWO2015177865A1 (ja) 2017-04-20
JP6222353B2 true JP6222353B2 (ja) 2017-11-08

Family

ID=54553563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016520844A Active JP6222353B2 (ja) 2014-05-20 2014-05-20 物標検出装置及び物標検出方法

Country Status (8)

Country Link
US (1) US9767372B2 (ja)
EP (1) EP3147629B1 (ja)
JP (1) JP6222353B2 (ja)
CN (1) CN106461403B (ja)
BR (1) BR112016026372B1 (ja)
MX (1) MX355397B (ja)
RU (1) RU2633641C1 (ja)
WO (1) WO2015177865A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6361366B2 (ja) * 2014-08-18 2018-07-25 株式会社デンソー 物体認識装置
EP3104189B1 (en) * 2015-06-11 2020-09-30 Veoneer Sweden AB Misalignment estimation for a vehicle radar system
JP6756101B2 (ja) * 2015-12-04 2020-09-16 トヨタ自動車株式会社 物体認識装置
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 自動運転システム
BR112019001508B1 (pt) * 2016-07-26 2022-11-01 Nissan Motor Co., Ltd Método de estimativa de autoposição e dispositivo de estimativa de autoposição
DE102017220139A1 (de) * 2017-11-13 2019-05-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen einer Position wenigstens eines Objekts
CN111936820A (zh) * 2018-03-30 2020-11-13 丰田自动车欧洲公司 用于调整车辆外部位置信息的***和方法
US10839522B2 (en) * 2018-05-11 2020-11-17 Toyota Research Institute, Inc. Adaptive data collecting and processing system and methods
EP3904995A4 (en) * 2018-12-28 2022-02-23 Panasonic Intellectual Property Management Co., Ltd. LOCATION DEVICE
CN112149659B (zh) * 2019-06-27 2021-11-09 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
JP7227112B2 (ja) * 2019-09-27 2023-02-21 日立Astemo株式会社 物体検出装置、走行制御システム、および走行制御方法
JP7226583B2 (ja) * 2019-11-12 2023-02-21 日産自動車株式会社 信号機認識方法及び信号機認識装置
EP3825731B1 (de) * 2019-11-21 2022-01-05 Sick Ag Optoelektronischer sicherheitssensor und verfahren zur sicheren bestimmung der eigenen position
EP3929613A1 (en) * 2020-06-22 2021-12-29 Carnegie Robotics, LLC A method for navigating a movable device along an inclined surface
US11935292B2 (en) 2020-06-22 2024-03-19 Carnegie Robotics, Llc Method and a system for analyzing a scene, room or venue
EP3988899B1 (en) * 2020-10-23 2024-05-22 Atlantic Inertial Systems Limited Terrain referenced navigation system
CN115993089B (zh) * 2022-11-10 2023-08-15 山东大学 基于pl-icp的在线四舵轮agv内外参标定方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2526876B2 (ja) * 1986-11-17 1996-08-21 日本電装株式会社 車両走行位置表示装置
RU2109344C1 (ru) * 1993-08-06 1998-04-20 Николай Николаевич Токарев Способ обнаружения движущихся целей и устройство для его осуществления
JP3449240B2 (ja) * 1998-09-24 2003-09-22 株式会社デンソー 車両用現在位置検出装置、車両用現在位置表示装置、ナビゲーション装置および記録媒体
JP4273119B2 (ja) * 2003-10-21 2009-06-03 和郎 岩根 ナビゲーション装置
JP4763250B2 (ja) * 2004-04-09 2011-08-31 株式会社デンソー 物体検出装置
WO2005122113A1 (en) * 2004-06-07 2005-12-22 Sharp Kabushiki Kaisha Information display control device, navigation device, controlling method of information display control device, control program of information display control device, and computer-readable storage medium
WO2006121088A1 (ja) * 2005-05-10 2006-11-16 Olympus Corporation 画像処理装置、画像処理方法および画像処理プログラム
JP4631750B2 (ja) 2006-03-06 2011-02-16 トヨタ自動車株式会社 画像処理システム
JP5162103B2 (ja) * 2006-05-15 2013-03-13 トヨタ自動車株式会社 支援制御装置
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
EP1906339B1 (en) * 2006-09-01 2016-01-13 Harman Becker Automotive Systems GmbH Method for recognizing an object in an image and image recognition device
WO2008075438A1 (ja) * 2006-12-21 2008-06-26 Pioneer Corporation ナビゲーション装置、マップマッチング方法、及び、マップマッチングプログラム
JP2008287572A (ja) 2007-05-18 2008-11-27 Sumitomo Electric Ind Ltd 車両運転支援システム、運転支援装置、車両及び車両運転支援方法
JP2009259215A (ja) * 2008-03-18 2009-11-05 Zenrin Co Ltd 路面標示地図生成方法
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP5372680B2 (ja) * 2009-09-24 2013-12-18 日立オートモティブシステムズ株式会社 障害物検知装置
WO2012172741A1 (ja) * 2011-06-13 2012-12-20 パナソニック株式会社 ノイズパターン取得装置、および、それを備える位置検知装置
CN103210279B (zh) * 2011-11-15 2016-05-25 松下电器(美国)知识产权公司 位置推测装置、位置推测方法以及集成电路
US9797981B2 (en) * 2012-03-06 2017-10-24 Nissan Motor Co., Ltd. Moving-object position/attitude estimation apparatus and moving-object position/attitude estimation method

Also Published As

Publication number Publication date
EP3147629A1 (en) 2017-03-29
WO2015177865A1 (ja) 2015-11-26
JPWO2015177865A1 (ja) 2017-04-20
MX2016014733A (es) 2017-03-06
BR112016026372B1 (pt) 2022-03-03
US20170177958A1 (en) 2017-06-22
US9767372B2 (en) 2017-09-19
MX355397B (es) 2018-04-18
CN106461403B (zh) 2019-02-15
EP3147629A4 (en) 2017-04-05
BR112016026372A2 (ja) 2017-08-15
EP3147629B1 (en) 2019-07-10
RU2633641C1 (ru) 2017-10-16
CN106461403A (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
JP6222353B2 (ja) 物標検出装置及び物標検出方法
US11675084B2 (en) Determining yaw error from map data, lasers, and cameras
EP3324152B1 (en) Own-position estimating device and own-position estimating method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP6567659B2 (ja) レーン検出装置およびレーン検出方法
CN106463051B (zh) 信号机识别装置以及信号机识别方法
JP5966747B2 (ja) 車両走行制御装置及びその方法
WO2015111344A1 (ja) 特異走行箇所検出装置および特異走行箇所検出方法
JP6477883B2 (ja) 信号機認識装置及び信号機認識方法
JP2018028489A (ja) 位置推定装置、位置推定方法
JP2019191806A (ja) 異常検出装置および異常検出方法
JP6365103B2 (ja) 信号機検出装置及び信号機検出方法
WO2021262945A1 (en) Motion-based online calibration of a multi-camera
WO2016199225A1 (ja) 信号機検出装置及び信号機検出方法
JP2018032253A (ja) キャリブレーション装置、キャリブレーション方法、キャリブレーションプログラム
JP6704307B2 (ja) 移動量算出装置および移動量算出方法
JP7468075B2 (ja) 管制制御システム
KR101767169B1 (ko) 비전 센서 기반 자이로 드리프트 감소 장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R151 Written notification of patent or utility model registration

Ref document number: 6222353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151