JP7116613B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP7116613B2
JP7116613B2 JP2018136603A JP2018136603A JP7116613B2 JP 7116613 B2 JP7116613 B2 JP 7116613B2 JP 2018136603 A JP2018136603 A JP 2018136603A JP 2018136603 A JP2018136603 A JP 2018136603A JP 7116613 B2 JP7116613 B2 JP 7116613B2
Authority
JP
Japan
Prior art keywords
information
management
parking frame
update type
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018136603A
Other languages
English (en)
Other versions
JP2020011675A (ja
Inventor
康貴 岡田
純 金武
裕明 佐野
寛紀 森永
徹夫 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018136603A priority Critical patent/JP7116613B2/ja
Publication of JP2020011675A publication Critical patent/JP2020011675A/ja
Application granted granted Critical
Publication of JP7116613B2 publication Critical patent/JP7116613B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置および画像処理方法に関し、詳細には画像処理により駐車枠の認識および管理を行う技術に関する。
特許文献1には、カメラが撮影して得られた画像から白線を検出し、2つの白線間の領域を駐車スペースとして検知することが開示される。また、特許文献1には、検知した駐車スペースの情報を、車両運動取得部により出力された直前の処理周期から現在の処理周期までの車両の移動量を用いて更新することが開示される。
特開2017-87758号公報
特許文献1に開示される手法では、CANバスを介して車両の進行方向や速度に関する情報を取得して、当該情報により車両の移動量を求めて駐車スペースの現在位置を推定する。この構成では、車両の移動量の推定誤差が蓄積した場合に、駐車スペースの位置が適切な位置からずれる可能性がある。また、レンズの歪等の影響により、カメラから離れた位置において、撮影画像から白線の検出を適切に行うことができず、適切な駐車スペースを検知できないことがある。
本発明は、上記課題に鑑みて、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる技術を提供することを目的とする。
上記目的を達成するために本発明の画像処理装置は、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、を備え、前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する構成(第1の構成)になっている。
上記第1の構成の画像処理装置において、前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる構成(第2の構成)であることが好ましい。
上記第2の構成の画像処理装置において、前記管理部は、前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する構成(第3の構成)であることが好ましい。
上記第3の構成の画像処理装置において、前記管理情報の更新に際して、前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される構成(第4の構成)であることが好ましい。
上記第4の構成の画像処理装置において、前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する構成(第5の構成)であることが好ましい。
上記第1から第5のいずれかの構成の画像処理装置において、前記カメラは、前記車両の側方に設けられるサイドカメラであり、前記認識部は、前記撮影画像の一部の領域を用いて前記駐車枠を認識する構成(第6の構成)であることが好ましい。
上記目的を達成するために本発明の画像処理方法は、画像処理装置で実行される画像処理方法であって、車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、を備え、前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む構成(第7の構成)になっている。
本発明によれば、カメラの撮影画像に基づき得られる駐車枠に関する情報の信頼度を向上することができる。
駐車支援システムの一構成例を示す図 区画線の探索領域について説明するための模式図 駐車枠を構成する区画線の更新種別例を示す表 管理処理を例示するフローチャート 管理処理を説明するための模式図 図4に示す更新処理の具体例を示すフローチャート 区画線の現在の認識イメージと、過去の認識イメージとを比較して示す模式図 補正値の算出方法を説明するための模式図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からステアリングに向かう方向を「前方向」と呼ぶ。また、車両の直進進行方向であって、ステアリングから運転席に向かう方向を「後方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の右側から左側に向かう方向を「左方向」と呼ぶ。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転手の左側から右側に向かう方向を「右方向」と呼ぶ。また、本発明の画像処理装置を含む駐車支援システムを搭載している車両を「自車両」と呼ぶ。
<1.駐車支援システム>
本発明の画像処理装置は、例えば駐車支援システムに適用できる。図1は、本発明の画像処理装置1が適用される駐車支援システムの一構成例を示す図である。図1に示すように、駐車支援システムは、画像処理装置1と、撮影部2と、駐車制御ECU(Electronic Control Unit)3と、EPS(Electric Power Steering)-ECU4と、車載ネットワーク5と、を備える。
画像処理装置1は、撮影部2に接続されるとともに、駐車制御ECU3およびEPS-ECU4にCAN(Controller Area Network)などの車載ネットワーク5を介して接続される。画像処理装置1は、撮影部2で撮影される撮影画像に基づき駐車枠の認識と、認識した駐車枠の管理とを行う。すなわち、画像処理装置1は駐車枠管理装置として機能する。その他、画像処理装置1は、例えば、自車両が停止した時点で自車両に最も近い空き駐車枠を駐車すべき場所として目標駐車位置の算出を行う。画像処理装置1の詳細については後述する。
なお、画像処理装置1には、例えば、液晶ディスプレイ等の表示装置が接続されてよい。画像処理装置1は、撮影画像に目標駐車位置を示す指標を重畳した表示画像を生成して、表示装置に表示させる処理を行ってよい。
撮影部2は、自車両の周辺を撮影するカメラを備える。本実施形態では、カメラは魚眼レンズを有する。撮影部2は、自車両の側方に設けられるサイドカメラ20を備える。サイドカメラ20は、自車両の周辺を撮影するカメラに含まれ、例えば自車両のドアミラー等に設けられる。サイドカメラ20は、左サイドカメラと右サイドカメラとを含むことが好ましい。左サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の左方向を撮影する。右サイドカメラは、光軸が自車両の左右方向に沿っており、自車両の右方向を撮影する。なお、撮影部2は、サイドカメラ20の他に、自車両の前方を撮影するフロントカメラや、自車両の後方を撮影するバックカメラを備えることが好ましい。
駐車制御ECU3は、画像処理装置1から受信した目標駐車位置と、不図示のクリアランスソナーセンサの出力とに基づいてステアリング操舵量を算出し、ステアリング操舵量に関する情報をEPS-ECU4に送信する。
EPS-ECU4は、駐車制御ECU3から受け取ったステアリング操舵量に関する情報に基づいて自車両の駐車動作時に自動操舵を行う。なお、本実施形態では、アクセル操作及びブレーキ操作はドライバーが担う。
<2.画像処理装置>
図1に示すように、画像処理装置1は、制御部11と記憶部12とを備える。制御部11は、画像処理装置1の全体を制御する。制御部11は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)、及び、ROM(Read Only Memory)などを備えるコンピュータで構成される。記憶部12は、制御部11が動作するために必要なコンピュータプログラムおよびデータを不揮発的に記憶する。記憶部12としては、例えば、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュメモリ等を用いることができる。
図1に示す映像取得部111、探索部112、認識部113、および、管理部114は、記憶部12に記憶されるコンピュータプログラムの実行により実現される制御部11の機能である。換言すると、画像処理装置1は、映像取得部111と、探索部112と、認識部113と、管理部114とを備える。
なお、制御部11が備える各機能部111~114の少なくともいずれか1つは、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。また、制御部11が備える各機能部111~114は、概念的な構成要素である。1つの構成要素が実行する機能を複数の構成要素に分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてよい。
映像取得部111は、サイドカメラ20を含む撮影部2が備える各カメラからアナログ又はデジタルの撮影画像を所定の周期(例えば、1/30秒周期)で時間的に連続して取得する。そして、取得した時間的に連続した撮影画像(取得した映像)がアナログの場合には、映像取得部111は、そのアナログの撮影画像をデジタルの撮影画像に変換(A/D変換)する。
探索部112は、映像取得部111から出力されるサイドカメラ20の撮影画像に基づき駐車枠を構成する区画線を探索する。なお、サイドカメラ20が左サイドカメラと右サイドカメラとを含む場合、探索部112は、各カメラの撮影画像に対して区画線の探索を行う。
探索部112は、例えば自車両の車速が所定速度以下になった場合に区画線の探索を開始する。本実施形態では、探索部112は、サイドカメラ20の撮影画像から、エッジ抽出などの画像処理を利用して例えば100ms周期で区画線を検出する。なお、区画線は駐車場の舗装面に白線や黄線などで描かれる。
図2は、区画線の探索領域について説明するための模式図である。図2は、自車両Vが駐車場内に進入し、自車両Vの左側方に複数の区画線SLが存在する状態を示す。各区画線SLは左右方向に延びる。すなわち、各区画線SLは、左サイドカメラ20Lの光軸と平行な方向に延びる。複数の区画線SLは、前後方向に所定間隔をあけて並ぶ。図2において、破線で囲まれる領域Rは、自車両Vの左サイドカメラ20Lの撮影領域を模式的に示す。
左サイドカメラ20Lの撮影画像は、左サイドカメラ20Lの光軸に沿う正面方向において解像度が高く、光軸から前後方向に離れるにつれてレンズ歪の影響等により解像度が低下する。このために、図2にグラフで示すように、左サイドカメラ20Lの撮影画像の全領域から区画線SLを検出する場合、正面方向から検出される区画線SLの情報は信頼度が高いが、光軸から前後方向に離れた位置から検出される区画線SLの情報は信頼度が低くなる。このような傾向は、右サイドカメラの場合にも当てはまる。すなわち、サイドカメラ20の撮影画像の全領域から区画線SLを検出する構成では、信頼度の高い区画線SLの情報と、信頼度の低い区画線SLの情報とが混じる可能性がある。
この点を考慮して、本実施形態では、探索部112は、サイドカメラ20の撮影画像のうち、信頼度の高い区画線情報を取得することができる領域に絞って区画線SLの探索を行う構成としている。探索部112は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭い領域を探索領域として区画線SLの探索を行う。探索領域は、例えば、駐車枠Pを構成する区画線SLが3本程度入る広さを有する。
図1に戻って、認識部113は、探索部112で検出した区画線SLに関する情報に基づき駐車枠Pを認識する。換言すると、認識部113は、サイドカメラ20で得られた撮影画像に基づき駐車枠Pを認識する。認識部113は、2つの区画線SL間の平行度や区画線SL間の幅等を求め、これらの結果に基づき駐車枠を認識する。例えば、認識部113は、所定間隔をあけて平行配置される2本の区画線SL間の領域を駐車枠Pとして認識する。所定間隔は、例えば、駐車場に関する法令等で規定される一般公共用の標準的な駐車領域の幅である。
本実施形態では、上述のように、探索部112が、サイドカメラ20の撮影画像のうち、画像の信頼度の高い狭領域に絞って区画線SLの探索を行う。このために、認識部113は、サイドカメラ20の撮影画像の中心部を含む一部の領域を用いて駐車枠Pを認識する。詳細には、認識部113は、サイドカメラ20の撮影画像のうち、サイドカメラ20の光軸に沿う正面方向を中心とする狭領域の画像を用いて駐車枠Pの認識を行う。狭領域は、例えば、駐車枠Pが1枠から2枠程度入る広さを有する領域としてよく、本実施形態では、狭領域は駐車枠Pが2枠程度入る広さを有する領域である。これによれば、認識部113は、撮影画像のうち、画像の信頼度の高い領域から得られる区画線SLに絞って駐車枠Pを認識することができる。このために、認識部113によって認識される駐車枠Pの信頼度を向上することができる。
管理部114は、認識部113で認識された駐車枠Pに関する情報を管理情報121として時系列で管理する。管理情報121は、記憶部12に記憶され、適宜更新される。なお、管理部114は、過去に認識部113で認識された駐車枠の全てを管理する必要はなく、例えば、時間的に直近に認識された複数の駐車枠Pのみを管理し、古い駐車枠Pの情報は管理対象から適宜除外する構成としてよい。これにより、記憶部12に要求される記憶容量を低く抑えることができる。
本実施形態では、管理部114は、過去に認識された駐車枠Pの位置情報を含む管理情報121を、サイドカメラ20の現在の撮影画像から得られる駐車枠Pの位置情報を含む観測情報に基づき更新する。なお、駐車枠Pの位置情報には、駐車枠Pを構成する区画線SLの位置情報が含まれる。管理情報121は、駐車枠Pおよび区画線SLに関する位置情報を、例えば、複数の頂点座標の組み合わせとして有する。各駐車枠Pは、当該駐車枠Pを構成する区画線SLの頂点座標の組み合わせとして管理されてよい。
詳細には、管理部114は、管理情報121と観測情報とに基づき、管理対象となる駐車枠Pを構成する区画線SLごとに更新種別を分類する。管理部114は、更新種別の分類に基づき管理情報121を更新する。これによると、管理対象となる駐車枠Pを構成する各区画線SLに対して、分類に応じた適切な手法で更新処理を行うことができ、管理情報121の信頼度を向上することができる。
より詳細には、管理部114は、自車両Vの移動情報と管理情報121とに基づき駐車枠Pの位置情報を含む推定情報を求める処理を行う。推定情報は、自車両Vの移動により、管理情報121に含まれる各駐車枠Pの位置がいずれの位置に移動したかを推定するものである。推定情報には、駐車枠Pを構成する区画線SLに関する情報が含まれる。自車両Vの移動情報は、例えば、車載ネットワーク5から取得される自車両Vの舵角、車速、シフトなどの情報である。この場合、管理部114は、自車両Vの移動情報から自車両Vの移動量を推定し、当該推定移動量と管理情報121とに基づき、過去に認識した各駐車枠Pの現在位置を推定する。管理情報121に複数の駐車枠Pの情報が含まれている場合には、管理部114は、複数の駐車枠Pのそれぞれに対して現在位置の推定を行う。
なお、自車両Vの移動情報は、舵角や車速等の実測情報に限らず、例えば、自車両Vの推定移動量等の実測情報を加工した情報であってもよい。この場合、自車両Vの推定移動量は、例えば駐車制御ECU3によって求められてよい。そして、管理部114は、駐車制御ECU3から取得される自車両Vの推定移動量と、管理情報121として過去に記憶された駐車枠Pの情報とに基づき、現在の駐車枠Pの位置を推定してよい。
本実施形態では、駐車枠Pを構成する区画線SLの更新種別の分類は、推定情報と観測情報とに基づいて行われる。これによると、信頼度の高い観測情報の結果を優先して管理情報121の更新を行うことができ、管理情報121の信頼度を向上することができる。
図3は、駐車枠Pを構成する区画線SLの更新種別例を示す表である。図3において、観測値が「○」とは、観測情報の中に区画線情報が存在する区画線SLが対応する。図3において、観測値が「×」とは、観測情報の中に区画線情報が存在しない区画線SLが対応する。図3において、推定値が「○」とは、推定情報の中に区画線情報が存在する区画線SLが対応する。図3において、推定値が「×」とは、推定情報の中に区画線情報が存在しない区画線SLが対応する。
観測情報および推定情報の中に区画線情報が存在する区画線SLは、観測値「○」且つ推定値「○」となり、第1更新種別に分類される。観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線SLは、観測値「○」且つ推定値「×」となり、第2更新種別に分類される。観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線SLは、観測値「×」且つ推定値「○」となり、第3更新種別に分類される。なお、観測情報および推定情報の中に区画線情報が存在しない区画線SLは、処理対象とできないために更新種別が与えられない。
すなわち、管理部114は、観測情報と推定情報との両方に位置情報が含まれる区画線SLを第1更新種別に分類し、観測情報にのみ位置情報が含まれる区画線SLを第2更新種別に分類し、推定情報にのみ位置情報が含まれる区画線SLを第3更新種別に分類する。これによると、時系列で取得される複数の区画線SLの位置情報を適切に分類することができ、駐車枠Pの管理情報121を適切に更新することができる。
本実施形態では、管理部114は、これら3つの更新種別に基づき管理情報121の更新を行う。図4は、管理部114によって実行される管理処理を例示するフローチャートである。なお、図4に示す管理処理の説明に際し、理解を容易にするために、図5に示す模式的な例を適宜参照しながら説明を行う。
図5は、管理処理を説明するための模式図である。駐車場内に進入した自車両Vは、第1区画線SL1、第2区画線SL2、第3区画線SL3・・・という順番で各区画線SL1~SL10を通過する。自車両Vの前進に伴い、認識部113は、各区画線SL1~SL10を、左サイドカメラ20Lから順次取得される撮影画像に基づき駐車枠Pを構成する区画線として順次認識する。
図5に示す例では、第1区画線SL1から第9区画線SL9までは、認識部113によって駐車枠Pを構成する区画線SLとして既に認識され、これらの区画線情報は管理情報121に含まれている。すなわち、管理部114は、第1区画線SL1から第9区画線SL9について推定情報を求めることができる。また、第8区画線SL8から第10区画線SL10は、左サイドカメラ20Lの現在の撮影画像から駐車枠Pを構成する区画線として認識されている。
管理部114による管理処理(管理工程)は、例えば、認識部113によって現在の撮影画像に対する駐車枠Pの認識処理が完了した時点で開始される。まず、管理部114は観測情報を取得する(ステップS1)。図5に示す例では、管理部114は、ステップS1により第8~第10の3つの区画線SL8~SL10の情報を取得する。
次に、管理部114は推定情報を取得する(ステップS2)。管理部114は、現在の撮影画像より1つ前の撮影画像を取得した時点から現在の撮影画像を取得した時点までの自車両Vの推定移動量を算出する。そして、管理部114は、当該推定移動量と、現時点で記憶部12に記憶される管理情報121とに基づいて推定情報を求める。図5に示す例では、管理部114は、ステップS2により、第1~第9の9つの区画線SL1~SL9の推定位置を求める。なお、ステップS2は、ステップS1より先に行われてもよいし、ステップS1と並行して行われてもよい。
管理部114は、観測情報と推定情報とを取得すると、各区画線SLに対して更新種別の分類を行う(ステップS3)。詳細には、管理部114は、各区画線SLが、第1更新種別と、第2更新種別と、第3更新種別とのうちのいずれに属するかを判断する。
図5に示す例では、第8区画線SL8および第9区画線SL9は、観測情報および推定情報の中に区画線情報が存在する区画線に該当する。このために、第8区画線SL8および第9区画線SL9は、第1更新種別に分類される。第10区画線SL10は、観測情報の中に区画線情報が存在し、推定情報の中に区画線情報が存在しない区画線に該当する。このために、第10区画線SL10は、第2更新種別に分類される。第1~第7区画線SL1~SL7は、観測情報の中に区画線情報が存在せず、推定情報の中に区画線情報が存在する区画線に該当する。このために、第1~第7区画線SL1~SL7は、第3更新種別に分類される。
なお、管理部114は、観測情報に含まれる各区画線SLが過去に認識した区画線SLのいずれかと同じであるか否かは、観測情報から得られる位置と、推定情報から得られる位置とを比較することにより判断する。本実施形態では、観測情報から得られる位置と、推定情報から得られる位置とが完全に一致していなくても、位置の差が所定の閾値内であれば、同一の区画線SLであると判断する。
管理部114は、各区画線SLの更新種別を分類すると、当該分類結果に基づき記憶部12に現在記憶される管理情報121を更新する(ステップS4)。管理情報121の更新に際して、第1更新種別の区画線SLの位置情報は、観測情報の値に更新される(観測更新)。また、第2更新種別の区画線SLの位置情報は、観測情報の値で仮登録される(新規登録)。なお、仮登録の段階では、当該区画線SLは、更新種別の分類において過去に認識された区画線SLとして取り扱われず、後述の補正値の算出にも使用されない。仮登録が複数回されると、当該区画線SLは本登録となる。これにより、管理情報121の信頼度を更に向上することができる。ただし、1回目の観測で仮登録とすることなく本登録とする構成としてもよい。この場合には、第1更新種別と第2更新種別とを2つに分けず、同じ分類としてよい。更に、第3更新種別の区画線SLの位置情報は、推定情報の値を、観測情報と推定情報とに基づき得られる補正値で補正した値に更新される。
図5に示す例では、管理部114は、第8区画線SL8と第9区画線SL9の位置情報を観測情報の値に更新する。管理部114は、第10区画線SL10の位置情報を観測情報の値で仮登録する。管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定値を補正値で補正した値で更新する。これらの更新により、駐車枠Pの情報を含む管理情報121の更新が完了する。
本実施形態では、撮影画像の信頼度の高い領域を用いて観測情報が得られるために、観測情報に含まれる区画線情報の信頼度を高くすることができる。すなわち、観測値で更新される第1更新種別および第2更新種別の区画線の更新情報の信頼度を向上することができる。そして、撮影画像によって認識できず、自車両Vの移動量から推定した結果で更新する必要がある第3更新種別の区画線SLの位置情報について、観測情報から得られる補正値で推定値の補正を行って更新情報を得る構成になっている。このために、第3更新種別の区画線について、更新処理の際に車両の移動量推定の誤差が蓄積して本来の位置からずれることを抑制することができる。すなわち、本実施形態によれば、駐車枠Pの管理情報121の信頼度を向上することができる。
図4に示す更新処理(ステップS4)の具体例について説明する。図6は、図4に示す更新処理の具体例を例示するフローチャートである。管理部114は、各区画線SLの更新種別を分類すると、分類された更新種別の中に第1更新種別が存在するか否かを確認する(ステップS41)。図5に示す例では、2つの区画線SL8、SL9が第1更新種別に分類されるために、管理部114は、第1更新種別が存在すると判断する。
第1更新種別が存在すると判断すると(ステップS41Yes)、管理部114は、補正値の算出を行う(ステップS42)。補正値は、推定情報を補正するために用いられる。補正値の算出方法について、図7および図8を参照して説明する。
図7は、区画線SLの現在の認識イメージI(t)と、過去の認識イメージI(t-1)とを比較して示す模式図である。図7において、実線は現在の認識イメージI(t)であり、破線は過去の認識イメージI(t-1)である。現在の認識イメージI(t)は、自車両V(t)の左サイドカメラ20Lの撮影画像から取得されるものであり、過去の認識イメージI(t-1)は、自車両V(t-1)の左サイドカメラ20Lの撮影画像から取得されるものである。図7における過去とは、現在より1周期(カメラの撮影周期)前の時間を指す。図7に示すように、自車両Vの移動により、撮影画像によって認識される区画線SLの位置も移動している。また、自車両Vの移動により撮影画像によって認識される区画線SLの種類も変化している。すなわち、過去の認識イメージI(t-1)は、第7~第9の3つの区画線SL7~SL9が認識されていたが、現在の認識イメージI(t)では、第8~第10の3つの区画線SL8~SL10が認識されている。
図8は、補正値の算出方法を説明するための模式図である。図8は、図7の現在の認識イメージI(t)のみを抽出し、補正値の算出方法の説明に必要となる事項を書き加えた図である。管理部114は、補正値の算出に際して、観測情報に含まれる区画線情報と、推定情報に含まれる区画線情報とを比較する。
図8に示す例で具体的に説明する。管理部114は、第8区画線SL8および第9区画線SL9について、現在(t)の位置と、1周期前(t-1)の位置から推定される推定位置(一点鎖線で示す位置)とを比較し、位置の差分値Δを算出する。管理部14は、この差分値Δを補正値とする。
なお、第8区画線SL8を用いて求められる差分値Δと、第9区画線SL9を用いて求められる差分値Δとは同じである場合もあるし、同じとならない場合もある。値の異なる複数の差分値Δが取得された場合には、例えば、複数の差分値の平均値を補正値としてよい。また、別の手法として、複数の差分値Δのうち、信頼性が高いと判断される差分値Δを補正値としてもよい。例えば、撮影画像の中央で認識される区画線情報は中央からずれた位置で認識される区画線情報より信頼度が高いと推定される。このために、撮影画像の中央位置により近い位置から認識された区画線情報を信頼度が高いとして、当該区画線情報から得られる差分値Δを補正値としてよい。なお、本例では、求められる差分値の数が2つであるが、この数は適宜変わり、1つのこともあるし、3つ以上のこともある。
管理部114は、補正値を算出すると、補正処理を行う(ステップS43)。詳細には、管理部114は、第3更新種別の区画線SLの位置情報について、推定情報の値を補正値で補正した値とする。図8に示す例では、自車両Vの推定移動量Mが実際より小さく推定されていると判断され、推定移動量Mを大きくする補正が行われることになる。
なお、本実施形態では、管理部114は、複数の第3更新種別の区画線SLの位置情報を含む推定情報の値を同一の補正値で一括して補正する。図5に示す例では、管理部114は、第1~第7の7つの区画線SL1~SL7の位置情報について、各推定情報の値を同一の補正値で一括して補正した値とする。これによると、予測更新が行われる第3更新種別の区画線SLについて、効率良く信頼度の高い値に補正して更新を行うことができる。
管理部114は、補正処理を行うと、各区画線情報を各更新種別に応じて決まる更新値に更新し、駐車枠Pに関する管理情報121の更新登録を行う(ステップS44)。各更新種別に応じて決まる更新値の求め方は上述したので、ここでは省略する。
ところで、ステップS41で第1更新種別の区画線SLが存在しないと判断される場合、観測情報に基づいて補正値を算出することができない。このために、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合(ステップS41でNo)には、補正値をゼロとしステップS43に移行する。換言すると、管理部114は、第1更新種別の区画線SLが存在しないと判断される場合には、推定情報の補正処理を実質的に行わない。
なお、第1更新種別の区画線SLが存在しない状態は、観測情報の中に区画線SLの認識情報がない場合の他、観測情報の中に新規に認識された区画線情報のみが存在する場合がある。前者は、例えば、自車両Vが駐車枠Pの存在する領域を通り過ぎた場合や、区画線SLとサイドカメラ20との間に物体(静止物又は移動物)が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして区画線SLの認識ができない場合等が挙げられる。後者は、例えば、自車両Vが駐車枠Pの存在領域に接近し始めたばかりのタイミングである場合や、区画線SLとサイドカメラ20との間に物体が存在したり、区画線SLが影に覆われたり、区画線SLが消えかかったりして一部の区画線SLの認識ができない場合等が挙げられる。
また、第1更新種別の区画線SLが存在すると判断された場合でも、例えば物体や影等の存在によって、現在の撮影画像において認識されるべき区画線SLが認識されていない状態が起り得る。ただし、このような区画線SLは、第1更新種別の区画線SLの存在により、車両の移動量推定から求められる推定値を補正値で補正した値で更新登録することができる。
<3.留意事項>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。すなわち、上記実施形態は、全ての点で例示であって、制限的なものではないと考えられるべきであり、本発明の技術的範囲は、上記実施形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲と均等の意味及び範囲内に属する全ての変更が含まれると理解されるべきである。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
以上においては、認識部113がサイドカメラ20を用いて駐車枠Pの認識を行う場合を例に説明したが、本発明は、認識部113がサイドカメラ20以外のカメラ(例えばバックカメラ)を用いて駐車枠の認識を行う構成にも適用可能である。
1・・・画像処理装置
20・・・サイドカメラ(カメラの一例)
113・・・認識部
114・・・管理部
121・・・管理情報
P・・・駐車枠
SL・・・区画線
V・・・自車両(車両)

Claims (7)

  1. 車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識部と、
    過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理部と、
    を備え、
    前記管理部は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する、画像処理装置。
  2. 前記管理部は、前記車両の移動情報と前記管理情報とに基づき前記駐車枠の位置情報を含む推定情報を求める処理を行い、
    前記更新種別の分類は、前記推定情報と前記観測情報とに基づいて行われる、請求項1に記載の画像処理装置。
  3. 前記管理部は、
    前記観測情報と前記推定情報との両方に位置情報が含まれる前記区画線を第1更新種別に分類し、
    前記観測情報にのみ位置情報が含まれる前記区画線を第2更新種別に分類し、
    前記推定情報にのみ位置情報が含まれる前記区画線を第3更新種別に分類する、請求項2に記載の画像処理装置。
  4. 前記管理情報の更新に際して、
    前記第1更新種別の前記区画線の位置情報は、前記観測情報の値に更新され、
    前記第2更新種別の前記区画線の位置情報は、前記観測情報の値で仮登録され、
    前記第3更新種別の前記区画線の位置情報は、前記推定情報の値を、前記観測情報と前記推定情報とに基づき得られる補正値で補正した値に更新される、請求項3に記載の画像処理装置。
  5. 前記管理部は、複数の前記第3更新種別の前記区画線の位置情報を含む前記推定情報の値を同一の前記補正値で一括して補正する、請求項4に記載の画像処理装置。
  6. 前記カメラは、前記車両の側方に設けられるサイドカメラであり、
    前記認識部は、前記撮影画像の中心部を含む一部の領域を用いて前記駐車枠を認識する、請求項1から5のいずれか1項に記載の画像処理装置。
  7. 画像処理装置で実行される画像処理方法であって、
    車両の周辺を撮影するカメラで得られた撮影画像に基づき駐車枠を認識する認識工程と、
    過去に認識された前記駐車枠の位置情報を含む管理情報を、現在の撮影画像から得られる前記駐車枠の位置情報を含む観測情報に基づき更新する管理工程と、
    を備え、
    前記管理工程は、前記管理情報と前記観測情報とに基づき、管理対象となる前記駐車枠を構成する区画線ごとに更新種別を分類し、当該分類に基づき前記管理情報を更新する処理を含む、画像処理方法。
JP2018136603A 2018-07-20 2018-07-20 画像処理装置および画像処理方法 Active JP7116613B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (ja) 2018-07-20 2018-07-20 画像処理装置および画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018136603A JP7116613B2 (ja) 2018-07-20 2018-07-20 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2020011675A JP2020011675A (ja) 2020-01-23
JP7116613B2 true JP7116613B2 (ja) 2022-08-10

Family

ID=69169215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018136603A Active JP7116613B2 (ja) 2018-07-20 2018-07-20 画像処理装置および画像処理方法

Country Status (1)

Country Link
JP (1) JP7116613B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (ja) 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
WO2017104164A1 (ja) 2015-12-17 2017-06-22 日産自動車株式会社 駐車支援方法および装置
JP2017222309A (ja) 2016-06-17 2017-12-21 日産自動車株式会社 駐車支援方法および装置
JP2018036878A (ja) 2016-08-31 2018-03-08 アイシン精機株式会社 駐車支援装置
JP2018074411A (ja) 2016-10-31 2018-05-10 株式会社デンソーテン 物体検出装置及び物体検出方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013001366A (ja) 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
WO2017104164A1 (ja) 2015-12-17 2017-06-22 日産自動車株式会社 駐車支援方法および装置
JP2017222309A (ja) 2016-06-17 2017-12-21 日産自動車株式会社 駐車支援方法および装置
JP2018036878A (ja) 2016-08-31 2018-03-08 アイシン精機株式会社 駐車支援装置
JP2018074411A (ja) 2016-10-31 2018-05-10 株式会社デンソーテン 物体検出装置及び物体検出方法

Also Published As

Publication number Publication date
JP2020011675A (ja) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6670071B2 (ja) 車両用画像認識システム、及び対応法
US9794543B2 (en) Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
Fossati et al. Real-time vehicle tracking for driving assistance
US10007998B2 (en) Image processor, apparatus, and control system for correction of stereo images
JP6458384B2 (ja) 車線検出装置および車線検出方法
US10929986B2 (en) Techniques for using a simple neural network model and standard camera for image detection in autonomous driving
US10896336B2 (en) Parking compartment recognition apparatus
CN110167813B (zh) 行驶路径识别装置及行驶路径识别方法
CN105405319A (zh) 车辆的接近物体检测装置以及车辆的接近物体检测方法
US20200082181A1 (en) Method and system for sensing an obstacle, and storage medium
JP2018060422A (ja) 物体検出装置
JP7426174B2 (ja) 車両周囲画像表示システム及び車両周囲画像表示方法
JP2012166705A (ja) 車載カメラレンズ用異物付着判定装置
JP2007293672A (ja) 車両用撮影装置、車両用撮影装置の汚れ検出方法
JP2009139324A (ja) 車両用走行路面検出装置
JP6799030B2 (ja) 画像認識装置、画像認識方法、及び駐車支援システム
US20210190509A1 (en) Position estimating apparatus and position estimating method
KR101424636B1 (ko) 자동 후진 주차시스템
JP7116613B2 (ja) 画像処理装置および画像処理方法
JP7247772B2 (ja) 情報処理装置及び運転支援システム
JP2012073924A (ja) 車線推定装置
JP2019015570A (ja) 駐車位置情報取得装置及び自動駐車制御装置
US11157755B2 (en) Image processing apparatus
JP7134780B2 (ja) ステレオカメラ装置
JP2006036048A (ja) 車両ライト制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220729

R150 Certificate of patent or registration of utility model

Ref document number: 7116613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150