JP2018160732A - 画像処理装置、カメラずれ判定システム、及び画像処理方法 - Google Patents

画像処理装置、カメラずれ判定システム、及び画像処理方法 Download PDF

Info

Publication number
JP2018160732A
JP2018160732A JP2017055641A JP2017055641A JP2018160732A JP 2018160732 A JP2018160732 A JP 2018160732A JP 2017055641 A JP2017055641 A JP 2017055641A JP 2017055641 A JP2017055641 A JP 2017055641A JP 2018160732 A JP2018160732 A JP 2018160732A
Authority
JP
Japan
Prior art keywords
vehicle
camera
moves
feature point
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017055641A
Other languages
English (en)
Inventor
知之 藤本
Tomoyuki Fujimoto
知之 藤本
武生 松本
Takeo Matsumoto
武生 松本
康司 大西
Yasushi Onishi
康司 大西
隆幸 小笹
Takayuki Ozasa
隆幸 小笹
輝彦 上林
Teruhiko Kamibayashi
輝彦 上林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2017055641A priority Critical patent/JP2018160732A/ja
Publication of JP2018160732A publication Critical patent/JP2018160732A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車載カメラの位置ずれに関する判定を適切に行うことを可能とする技術を提供する。【解決手段】車載カメラで撮影された撮影画像を処理する画像処理装置は、検出部と、ずれ判定部と、を備える。前記検出部は、前記車載カメラを搭載する車両が所定の移動をしたときの前記撮影画像中の特徴点の動きを検出する。前記ずれ判定部は、前記検出部の検出結果に基づいて前記車載カメラの位置ずれに関する判定を行う。【選択図】図1

Description

本発明は、車載カメラの位置ずれを判定する技術に関する。
従来、車載カメラを用いて、例えば車両の駐車支援等の運転支援が行われている。車載カメラは、車両を工場から出荷する前に、車両に固定状態で取り付けられる。しかしながら、車載カメラは、例えば不意の接触や経年変化等によって、工場出荷時の取付状態から位置ずれを起こすことがある。車載カメラの位置(車両のボディに対する車載カメラの相対位置)がずれると、カメラ画像を利用して判断されるハンドルの操舵量等に誤差が生じるために、車載カメラの位置ずれを検出することは重要である。
特許文献1には、車載カメラの光軸ずれを検出する技術が開示される。特許文献1における車載カメラの光軸ずれ検出装置は、画像処理手段と判断手段とを備える。画像処理手段は、運転支援する車体部上のマーキングを含む範囲を撮影する車載カメラの撮影画像から該マーキングの位置情報を検出する。判断手段は、初期設定されたマーキング位置情報と、新たに検出されたマーキングの位置情報とを比較することにより、撮影光軸ずれを判断する。
特開2004−173037号公報
車載カメラの撮影画像には、車両周囲の風景等が映るために、例えばマーキングがボンネットの一部の特定形状である場合、当該特定形状を簡単に抽出できないことがある。当該特定形状が誤検出されると、車載カメラの光軸ずれが正確に判断されない可能性がある。
なお、車両周囲に大きさ、形状、及び車両との相対位置が既知のマーカーが存在する場合や走行車線に描かれている白線の消失点を検出できる場合には、これらの情報を使用することで車載カメラの位置ずれに関する判定が可能となる。しかしながら、例えばバレーパーキングにおいて車両の自動運転機能を利用して自動出庫を行うときのようなイグニッションスイッチがオンになった直後に自動運転を実施する状況を考えた場合、既知のマーカーに関する情報や白線の消失点に関する情報を取得することができない。
本発明は、上記課題に鑑みて、車載カメラの位置ずれに関する判定を適切に行うことを可能とする技術を提供することを目的とする。
本発明の画像処理装置は、車載カメラで撮影された撮影画像を処理する画像処理装置であって、前記車載カメラを搭載する車両が所定の移動をしたときの前記撮影画像中の特徴点の動きを検出する検出部と、前記検出部の検出結果に基づいて前記車載カメラの位置ずれに関する判定を行うずれ判定部と、を備える構成(第1の構成)である。
上記第1の構成の画像処理装置において、前記検出部は、前記車載カメラが撮影領域の水平方向または奥行き方向に移動するように前記車両が移動したときの、撮像領域を左右に均等分割する中心線付近にある、少なくとも一つの前記特徴点の動きを検出する構成(第2の構成)であってもよい。
上記第1又は第2の構成の画像処理装置において、前記車載カメラは前記車両の前方を撮影するカメラ又は前記車両の後方を撮影するカメラであって、前記検出部は、第1のモードにおいて、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときのみの前記特徴点の動きを検出し、第2のモードにおいて、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの前記特徴点の動き、及び、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときの前記特徴点の動きを検出する構成(第3の構成)であってもよい。また、上記第1又は第2の構成の画像処理装置において、前記車載カメラは前記車両の側方を撮影するカメラであって、前記検出部は、第1のモードにおいて、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときのみの前記特徴点の動きを検出し、第2のモードにおいて、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときの前記特徴点の動き、及び、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの前記特徴点の動きを検出する構成(第4の構成)であってもよい。
上記第1の構成の画像処理装置において、前記検出部は、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの、前記撮影領域の水平方向にずれて存在する複数の前記特徴点の動きを検出し、前記ずれ判定部は、前記検出部の検出結果に基づいて複数の前記特徴点の消失点を検出し、検出した前記消失点の位置に基づいて前記車載カメラの位置ずれに関する判定を行う構成(第5の構成)であってもよい。
上記第1の構成の画像処理装置において、前記検出部は、単一の前記特徴点について、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が第1の位置から移動したときの前記特徴点の動きを検出し、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が第2の位置から移動したときの前記特徴点の動きを検出し、前記第1の位置と前記第2の位置とは前記車載カメラの撮影領域の水平方向にずれており、前記ずれ判定部は、前記検出部の検出結果に基づいて単一の前記特徴点の消失点を検出し、検出した前記消失点の位置に基づいて前記車載カメラの位置ずれに関する判定を行う構成(第6の構成)であってもよい。
上記第1の構成の画像処理装置において、前記車両が前記所定の移動をしたときの前記車両の速度情報を取得する取得部を備え、前記ずれ判定部は、前記検出部の検出結果に基づいて前記車両の速度を推定し、推定した前記車両の速度と、前記取得部によって取得された前記車両の速度情報との比較結果に基づいて前記車載カメラの位置ずれに関する判定を行う構成(第7の構成)であってもよい。
本発明のカメラずれ判定システムは、上記第1〜第6いずれかの構成の画像処理装置と、ドライバーの運転操作によらずに前記車両に前記所定の移動を行わせる自動運転制御部と、を備える構成(第8の構成)である。
本発明の画像処理方法は、車載カメラで撮影された撮影画像を処理する画像処理方法であって、前記車載カメラを搭載する車両が所定の移動をしたときの前記撮影画像中の特徴点の動きを検出する検出工程と、前記検出工程の検出結果に基づいて前記車載カメラの位置ずれに関する判定を行うずれ判定工程と、を備える構成(第9の構成)である。
本発明によると、車載カメラの位置ずれに関する判定を適切に行うことを可能とする技術を提供できる。
カメラずれ判定システムの構成を示すブロック図 4つの車載カメラが車両に配置される位置を例示する図 カメラずれ判定システムによるカメラずれの検出フローの一例を示すフローチャート フロントカメラで撮影した画像の一例を示す模式図 車両と特徴点との位置関係を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 左サイドカメラで撮影した画像の一例を示す模式図 左サイドカメラで撮影した画像の一例を示す模式図 左サイドカメラで撮影した画像の一例を示す模式図 左サイドカメラで撮影した画像の一例を示す模式図 車両と特徴点との位置関係を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 フロントカメラで撮影した画像の一例を示す模式図 右サイドカメラで撮影した画像の一例を示す模式図
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。また、本明細書では、カメラの位置ずれのことを、単にカメラずれと表現する場合がある。
<1.カメラずれ判定システムの概略>
図1は、本実施の形態に係るカメラずれ判定システムSYS1の構成を示すブロック図である。カメラずれ判定システムSYS1は、車載カメラの位置ずれを判定するシステムである。カメラずれ判定システムSYS1は、画像処理装置1と、撮影部2と、センサ部3と、車両制御装置4と、を備える。
画像処理装置1は、車載カメラで撮影された撮影画像を処理する装置である。画像処理装置1は、車載カメラを搭載する車両ごとに備えられる。本実施の形態では、画像処理装置1は、撮影部2から撮影画像を取得して処理する。また、画像処理装置1は、センサ部3から情報を取得して、取得情報に基づいて画像処理に関する判断を行う。なお、センサ部3は、場合によっては、カメラずれ判定システムSYS1に含まれなくてもよい。
本実施の形態では、画像処理装置1は、撮影部2で撮影された撮影画像を処理して、カメラずれの検出を行う。
本実施の形態では、画像処理装置1は、表示装置5と運転支援装置6とに処理情報を出力する。なお、画像処理装置1は、これらの装置5、6から情報を受け取り、受け取った情報に基づいてカメラずれの判定処理を行ってもよい。この場合、これらの装置5、6もカメラずれ判定システムSYS1に含まれてよい。
表示装置5は、画像処理装置1から出力される情報を画面表示する装置であり、例えば液晶表示装置であってよい。表示装置5は、例えばタッチパネル方式等の入力部を備えて、外部から情報を入力できる構成であってよい。
運転支援装置6は、撮影部2で撮影された画像を用いて運転を支援する装置であり、例えば自動運転支援装置、自動駐車支援装置、自動緊急ブレーキ装置等を含んでよい。運転支援装置6は、例えば、エンジンの始動とともに自動的に運転支援を開始する構成であってよい。また、運転支援装置6は、例えば運転者によってボタン等が押された場合に運転支援を開始する構成であってよい。
撮影部2は、車両周辺の状況を監視する目的で設けられる。撮影部2は、4つのカメラ21〜24を備える。4つのカメラ21〜24は、車載カメラである。図2は、4つの車載カメラ21〜24が車両7に配置される位置を例示する図である。
車載カメラ21は車両7の前端に設けられる。このため、車載カメラ21をフロントカメラ21とも呼ぶ。フロントカメラ21の光軸21aは上からの平面視で車両7の前後方向に沿っている。フロントカメラ21は車両7の前方向を撮影する。車載カメラ22は車両7の後端に設けられる。このため、車載カメラ22をバックカメラ22とも呼ぶ。バックカメラ22の光軸22aは上からの平面視で車両7の前後方向に沿っている。バックカメラ22は車両7の後方向を撮影する。フロントカメラ21及びバックカメラ22の取付位置は、車両7の左右中央であることが好ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
車載カメラ23は車両7の左側ドアミラー71に設けられる。このため、車載カメラ23を左サイドカメラ23とも呼ぶ。左サイドカメラ23の光軸23aは上からの平面視で車両7の左右方向に沿っている。左サイドカメラ23は車両7の左方向を撮影する。車載カメラ24は車両7の右側ドアミラー72に設けられる。このため、車載カメラ24を右サイドカメラ24とも呼ぶ。右サイドカメラ24の光軸24aは上からの平面視で車両7の左右方向に沿っている。右サイドカメラ24は車両7の右方向を撮影する。なお、車両7がいわゆるドアミラーレス車である場合には、左サイドカメラ23は左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられ、右サイドカメラ24は右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。
各車載カメラ21〜24の水平方向の画角θは180度以上である。このため、車載カメラ21〜24によって、車両7の水平方向における全周囲を撮影することができる。また、車載カメラ21〜24によって撮影される画像には、車載カメラ21〜24を搭載する車両7のボディが映り込む。
なお、本実施の形態では、車載カメラの数を4つとしているが、この数は適宜変更されてよく、複数であっても単数であってもよい。例えば、車両7がバックで駐車することを支援する目的で車載カメラが搭載されている場合には、車載カメラは、バックカメラ22、左サイドカメラ23、右サイドカメラ24の3つで構成されてもよい。
図1に戻って、センサ部3は、車載カメラ21〜24が搭載される車両7に関する情報を検出する複数のセンサを有する。車両7に関する情報には、車両自体の情報と、車両周辺の情報とが含まれてよい。本実施の形態では、センサ部3は、例えば、車両の速度を検出する車速度センサ、ステアリングホイールの回転角を検出する舵角センサ、車両の変速装置のシフトレバーの操作位置を検出するシフトセンサ、車両周辺の照度を検出する照度センサ等を含む。本実施の形態では、センサ部3で検出された情報は、画像処理装置1に直接入力される構成としているが、これは例示にすぎない。例えば、センサ部3で検出された情報は、車両制御装置4又は運転支援装置6を介して画像処理装置1に入力されてもよい。
車両制御装置4は、車両の動作全般に関わる制御を行う。車両制御装置4は、例えばエンジンを制御するエンジンECU(Electronic Control Unit)、ステアリングを制御するステアリングECU、ブレーキを制御するブレーキECU、シフトを制御するシフトECU、電源制御用ECU、ライトを制御するライトECU、電動ミラーを制御するミラーECU等を含む。本実施の形態では、車両制御装置4は、画像処理装置1と情報をやり取りする。車両制御装置4は、ドライバーの運転操作によって車両の移動を制御する手動運転制御機能を有するだけでなく、ドライバーの運転操作によらずに車両の移動を制御する自動運転制御機能も有する。したがって、車両制御装置4は、自動運転制御機能を実現する自動運転制御部41を有する。
図3は、カメラずれ判定システムSYS1によるカメラずれの検出フローの一例を示すフローチャートである。図3に示すように、例えば自動車メーカー等の工場において、各車両7に対して4つの車載カメラ21〜24が取り付けられる(ステップS1)。各車載カメラ21〜24は、所定の向きに光軸21a〜24aが合された状態で、所定の取付位置に固定される。
また、工場においては、車載カメラの初期位置(車両のボディに対する車載カメラの相対初期位置)に関するデータが取得される(ステップS2)。車載カメラの初期位置に関するデータは、車載カメラ21〜24を搭載した車両7が市場に出された後において、車載カメラ21〜24の位置ずれが発生しているか否かの判定を行うために使用されるデータである。本実施の形態において、車載カメラの初期位置に関するデータは、画像処理装置1を用いて、各車載カメラ21〜24に対して取得される。取得された車載カメラの初期位置に関するデータは、画像処理装置1が備える後述の記憶部12に記憶される。
本実施の形態においては、車載カメラ21〜24を搭載した車両7が市場に出された後、画像処理装置1によってカメラずれに関する判定処理が行われる。カメラずれに関する判定処理は、各車載カメラ21〜24に対して行われる。画像処理装置1は、カメラずれに関する判定を開始するタイミングか否かを判断する(ステップS3)。画像処理装置1は、ステップS3でNoの場合、カメラずれに関する判定を開始するタイミングか否かの判断を繰り返す。
カメラずれに関する判定を開始するタイミングは、例えば車両7のエンジン始動を検出したタイミングであってもよい。これにより、運転支援装置6による車両7の運転支援が開始される前にカメラの状態を確認することができ、運転支援の安全性を向上することができる。また、カメラずれに関する判定を開始するタイミングは、例えばバレーパーキングにおいて車両の自動運転機能を利用して自動出庫を行うタイミングであってもよい。また、バレーパーキングにおいて車両の自動運転機能を利用して自動入庫を行うタイミング等も含み得る、車両停止状態から自動運転を開始するタイミングであってもよい。これにより、車両停止状態から自動運転が開始される前にカメラの状態を確認することができ、自動運転の安全性を向上することができる。
また、画像処理装置1は、例えば、表示装置5等から運転者が入力するカメラずれの検出指示によって、カメラずれの検出タイミングであることを認識してもよい。また、画像処理装置1は、車両制御装置4又は運転支援装置6からの指示によって、カメラずれの検出タイミングであることを認識してもよい。
画像処理装置1は、カメラずれに関する判定を開始するタイミングであると判断すると(ステップS3でYes)、車載カメラ21〜24による撮影画像を取得して車両7が所定の移動をしたときの撮影画像中の特徴点の動きを検出する(ステップS4)。ドライバーの負担を軽減する観点又はバレーパーキングにおいて車両の自動運転機能を利用して自動出庫若しくは自動入庫を行う場合等のドライバーが車内にいない場合でも車両の移動を可能とする観点から、ドライバーの運転操作によらずに車両制御部4の自動運転制御部41が車両7に所定の移動を行わせることが好ましい。特徴点とは、際立って検出できる点であり、例えば、建物のコーナー、駐車車両のコーナー、路面に描かれた白線のエッジ、路面上のヒビ、路面上のシミ、路面上の砂利等を挙げることができる。特徴点の動きの詳細については後述する。
特徴点の動きを抽出すると、画像処理装置1は、検出された特徴点の動きに基づいて車載カメラ21〜24の位置ずれに関する判定を行う(ステップS5)。位置ずれに関する判定を行うに際しては、前述の車載カメラの初期位置に関するデータも利用される。位置ずれに関する判定の詳細については後述する。
車載カメラ21〜24の位置ずれが発生していないと判定された場合(ステップS5でYes)、画像処理装置1は、ステップS3に戻り、次の判定開始タイミングを検出した場合にカメラずれに関する判定処理を繰り返す。カメラの位置ずれが発生していないと判定された場合、画像処理装置1は、例えば運転支援装置6等に車載カメラが正常であることを通知してもよい。
車載カメラ21〜24の位置ずれが発生していると判定された場合(ステップS5でNo)、画像処理装置1は、車載カメラ21〜24の位置ずれが発生したことを報知する(ステップS6)。本実施の形態では、画像処理装置1は、車載カメラ21〜24の位置ずれが発生したことを表示装置5によって報知する。カメラの位置ずれ発生の報知には、音声等が使用されてもよい。さらに、画像処理装置1は、車両7に搭載されている不図示の通信装置を利用して、ドライバーが所持するスマートフォン等の外部機器にカメラの位置ずれ発生を報知する表示信号や音声信号を送信してもよい。また、画像処理装置1は、運転支援装置6に車載カメラ21〜24の位置ずれの発生を通知して、運転支援装置6による運転支援を停止させる。なお、本実施の形態では、4つの車載カメラ21〜24が存在するが、4つの車載カメラ21〜24のうちの1つでも位置ずれが発生した場合には、上記報知処理及び停止処理が行われることが好ましい。
なお、車載カメラ21〜24の位置ずれが発生していると判定された場合(ステップS5でNo)、自動運転制御部41の制御によって、判定開始タイミングを検出した時点の位置に車両7を戻しておくことが好ましい。判定開始タイミングを検出した時点の位置が車両7の安全を確保できる場所(例えば駐車枠内)である可能性が高いからである。
カメラずれの発生に伴い、車両のユーザは、例えばディーラにカメラの取付調整を依頼する。これに応じて、ディーラは、車載カメラの取付調整を行う(ステップS7)。また、ディーラは、画像処理装置1を用いて、上述した車載カメラの初期位置に関するデータの再取得処理を行う(ステップS8)。この後は、ステップS3に戻って、画像処理装置1は、判定開始タイミングを検出すると、再取得した車載カメラの初期位置に関するデータに基づいて、カメラの位置ずれを判定する。
なお、本実施の形態では、カメラずれが発生していると判定された場合に、車載カメラの取付調整が行われる構成としているが、これは例示にすぎない。カメラずれが発生していると判定した場合に、画像処理装置1は、車載カメラの位置ずれを補正して撮影画像を用いる構成としてもよい。例えば、車載カメラの取付調整を前提とした、ずれ発生の報知処理や、運転支援の停止処理は、車載カメラのずれ状態が不明な場合にのみ行う構成としてもよい。カメラのずれ状態が不明とは、例えば、カメラがどの程度位置ずれや角度ずれを起しているかが不明な状態を指す。車載カメラのずれ状態が明確で補正して使用できる場合には、画像処理装置1は、ずれ発生の報知処理や、運転支援の停止処理を行わない構成としてよい。
<2.画像処理装置の詳細>
図1に戻って、画像処理装置1は、マイコン11及び記憶部12を含んで構成される。マイコン11は、不図示のCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部12は、不揮発性のメモリである。マイコン11は、記憶部12に記憶されたプログラムに基づいて情報の処理及び送受信を行う。マイコン11は、有線又は無線で、撮影部2、センサ部3、車両制御装置4、表示装置5、及び、運転支援装置6に接続される。
マイコン11は、検出部111と、ずれ判定部112と、を備える。マイコン11が備えるこれらの各部111、112の機能は、プログラムに従ってCPUが演算処理を行うことによって実現される。
検出部111は、車両7が所定の移動をしたときの車載カメラ21〜24で撮影された撮影画像中の特徴点の動き(オプティカルフロー)を検出する。本実施の形態では、車載カメラ21〜24の数は4つであり、検出部111による検出処理は、各車載カメラ21〜24ごとに行われる。
ずれ判定部112は、検出部111の検出結果に基づいて車載カメラ21〜24の位置ずれに関する判定を行う。本実施の形態では、車載カメラ21〜24の数は4つであり、ずれ判定部112による判定処理は、各車載カメラ21〜24ごとに行われる。
カメラの位置ずれには、カメラが鉛直軸回りに回転するPAN(パン)、カメラが水平軸回りに回転するTILT(チルト)、及びカメラが光軸又は光軸に平行な軸回りに回転するROLL(ロール)からなる3つの方向のずれが存在する。
図4は、フロントカメラ21で撮影した撮影画像P1の一例を示す模式図である。フロントカメラ21は、画角θが180度以上であり、図4に示すように、撮影画像P1には、車両7のボディ70が映り込む。図4(a)は、フロントカメラ21が初期位置のまま固定されている状態で撮影された画像である。すなわち、フロントカメラ21が正常な状態で撮影された画像である。図4(b)は、フロントカメラ21が初期位置からPAN方向にずれ光軸が車両の右側に傾いた状態で撮影された画像である。図4(c)は、フロントカメラ21が初期位置からTILT方向にずれ光軸が上向きに傾いた状態で撮影された画像である。図4(d)は、フロントカメラ21が初期位置からROLL方向にずれ撮影領域が反時計回りに回転した状態で撮影された画像である。
本実施の形態では、車両7が所定の移動をしたときの車載カメラ21〜24で撮影された撮影画像中の特徴点の動きが車載カメラ21〜24の位置ずれに応じて異なることを利用して、車両7が所定の移動をしたときの車載カメラ21〜24で撮影された撮影画像中の特徴点の動きに基づいて車載カメラ21〜24の位置ずれに関する判定が行われている。したがって、撮影画像中の特徴点が存在し、且つ、車両7が所定の移動を行うことができる場所に停車しているという条件さえ満たせば、ボンネットの特定形状を簡単に抽出できない場合、既知のマーカーに関する情報や白線の消失点に関する情報を取得することができない場合等でも、車載カメラの位置ずれに関する判定を適切に行うことが可能である。
次に、前述の検出処理及び判定処理について具体例を挙げて説明する。
(2−1.第1の具体例)
以下に説明する検出処理及び判定処理によって、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知することができる。
図5は、車両と特徴点との位置関係を示す模式図である。図5に示すように、判定開始タイミングを検出した時点で中央位置L0に停止していた車両7は、例えば、中央位置L0→前進移動位置L1→中央位置L0→左移動位置L2→中央位置L0→右移動位置L3の順番で、前進移動位置L1、左移動位置L2、及び右移動位置L3の3箇所に移動する。そして、前進移動位置L1、左移動位置L2、及び右移動位置L3それぞれで特徴点F1を含む撮影画像を撮影する。前進移動位置L1で撮影された撮影画像において、特徴点F1は撮影領域を左右に均等分割する中心線CL1付近に存在する(図6(a)及び図7(a)参照)。なお、特徴点F1を見失わないように、画像処理装置1は、中央位置L0で特徴点F1を検出した後、車両7の移動中も特徴点F1を追跡する。
フロントカメラ21がPAN方向及びROLL方向のいずれにもずれていない場合、例えば、前進移動位置L1、左移動位置L2、及び右移動位置L3それぞれでの撮影画像は図6(a)〜(c)となる。その結果、フロントカメラ21が撮影領域の水平方向左側に移動するように車両7が移動したときの特徴点F1のオプティカルフローOF1と、フロントカメラ21が撮影領域の水平方向右側に移動するように車両7が移動したときの特徴点F1のオプティカルフローOF2との関係は、車両7の左右対称移動に応じて図6(d)に示すように略左右対称になる。
一方、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれている場合、例えば、前進移動位置L1、左移動位置L2、及び右移動位置L3それぞれでの撮影画像は図7(a)〜(c)となる。その結果、フロントカメラ21が撮影領域の水平方向左側に移動するように車両7が移動したときの特徴点F1のオプティカルフローOF1と、フロントカメラ21が撮影領域の水平方向右側に移動するように車両7が移動したときの特徴点F1のオプティカルフローOF2との関係は、車両7が左右対称に移動しているにもかかわらず、図7(d)に示すように左右非対称になる。
図6(d)と図7(d)の比較から明らかなように、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているか否かを、車両7が左右方向に移動したときの特徴点F1の動きから判定することができる。
なお、中心線CL1付近に無い特徴点はカメラずれがあってもなくても動きは非対称になるが、カメラずれのある場合とカメラずれのない場合とで特徴点の動きが異なることから、カメラずれの有無を判定することは可能である。
中心線CL1付近に無い特徴点の動きからフロントカメラ21の位置ずれの有無を判定する場合は、カメラずれのない場合の特徴点の動きを正常値(フロントカメラ21の初期位置に関するデータ)として記憶部12が記憶しておき、車両7が左右方向に移動したときの特徴点の動きが記憶部12に記憶された正常値と異なっていればフロントカメラ21の位置ずれが生じていると判定すればよい。この中心線CL1付近に無い特徴点の動きからフロントカメラ21の位置ずれの有無を判定する手法と比較すると、上述した中心線CL1付近にある特徴点F1を用いてフロントカメラ21の位置ずれの有無を判定する手法は、正常値を記憶していなくてもフロントカメラ21の位置ずれの有無を判定できるというメリットを有している。
なお、バックカメラ22の場合は、前進移動位置L1、左移動位置L2、及び右移動位置L3それぞれで特徴点F2を含む撮影画像を撮影して同様の処理を行えばよい。
前述した例とは異なり、フロントカメラ21の場合は、図5に示す中央位置L0、中央左寄り位置L4、及び中央右寄り位置L5それぞれで特徴点F1を含む撮影画像を撮影してもよく、図5に示す後進位置L6、後方左寄り位置L7、及び後方右寄り位置L8それぞれで特徴点F1を含む撮影画像を撮影してもよい。また、バックカメラ22の場合は、図5に示す中央位置L0、中央左寄り位置L4、及び中央右寄り位置L5それぞれで特徴点F2を含む撮影画像を撮影してもよく、図5に示す後進位置L6、後方左寄り位置L7、及び後方右寄り位置L8それぞれで特徴点F2を含む撮影画像を撮影してもよい。
また、以下に説明する検出処理及び判定処理によっても、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知することができる。
図5に示すように、判定開始タイミングを検出した時点で中央位置L0に停止していた車両7は、例えば、中央位置L0→前進移動位置L1→後進移動位置L6の順番で、前進移動位置L1及び後進移動位置L6の2箇所に移動する。そして、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれで特徴点F1を含む撮影画像を撮影する。なお、特徴点F1を見失わないように、画像処理装置1は、中央位置L0で特徴点F1を検出した後、車両7の移動中も特徴点F1を追跡する。
フロントカメラ21がPAN方向及びROLL方向のいずれにもずれていない場合、例えば、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれでの撮影画像は図8(a)〜(c)となる。その結果、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が移動したときの、特徴点F1のオプティカルフローOF3は、図8(d)に示すように中心線CL1上に略位置している。
一方、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれている場合、例えば、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれでの撮影画像は図9(a)〜(c)となる。その結果、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が移動したときの、特徴点F1のオプティカルフローOF3は、図9(d)に示すように中心線CL1からずれている。
図8(d)と図9(d)の比較から明らかなように、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているか否かを、車両7が前後方向に移動したときの特徴点F1の動きから判定することができる。
なお、バックカメラ22の場合は、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれで特徴点F2を含む撮影画像を撮影して同様の処理を行えばよい。
前述した例とは異なり、前進移動位置L1及び後進移動位置L6のうちのいずれか1箇所にのみ移動してもよい。
以上、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知する手法について2つの例を説明した。ここで、2つの例を組み合わせて実施する場合の例について説明する。後述する第1のモードは車両7の移動容易性を重視したモードであり、後述する第2のモードは判定精度を重視したモードである。検出部111は、第1のモードと第2のモードを択一的に選択することができる。
第1モードでは、検出部111は、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が移動したときのみの特徴点の動きを検出する。これにより、車両7の移動量を低減することができるとともに、車両7の移動が直進のみですむため車両7の移動制御の容易性及び正確性が向上する。
一方、第2のモードでは、検出部111は、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が移動したときの特徴点の動き、及び、フロントカメラ21が撮影領域の水平方向に移動するように車両7が移動したときの特徴点の動きを検出する。そして、いずれかの特徴点の動きにおいてフロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれていることが検知された場合には、フロントカメラ21がPAN方向及びROLL方向の少なくとも一方にずれているとずれ判定部112が判定すればよい。これにより、フロントカメラ21の位置ずれが見過ごされることを低減できる。その結果、フロントカメラ21の位置ずれに関する判定精度が向上する。
バックカメラ22の場合も、上述したフロントカメラ21の場合と同様の組み合わせ方での実施が可能である。
(2−2.第2の具体例)
以下に説明する検出処理及び判定処理によって、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知することができる。
図5に示すように、判定開始タイミングを検出した時点で中央位置L0に停止していた車両7は、例えば、中央位置L0→前進移動位置L1→後進移動位置L6の順番で、前進移動位置L1及び後進移動位置L6の2箇所に移動する。そして、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれで特徴点F3を含む撮影画像を撮影する。中央位置L0で撮影された撮影画像において、特徴点F3は撮影領域を左右に均等分割する中心線CL1付近に存在する(図10(b)及び図11(b)参照)。なお、特徴点F3を見失わないように、画像処理装置1は、中央位置L0で特徴点F3を検出した後、車両7の移動中も特徴点F3を追跡する。
左サイドカメラ23がPAN方向及びROLL方向のいずれにもずれていない場合、例えば、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれでの撮影画像は図10(a)〜(c)となる。その結果、左サイドカメラ23が撮影領域の水平方向右側に移動するように車両7が移動したときの特徴点F3のオプティカルフローOF4と、左サイドカメラ23が撮影領域の水平方向左側に移動するように車両7が移動したときの特徴点F3のオプティカルフローOF5との関係は、車両7の前後対称移動に応じて図10(d)に示すように略左右対称になる。
一方、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれている場合、例えば、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれでの撮影画像は図11(a)〜(c)となる。その結果、左サイドカメラ23が撮影領域の水平方向右側に移動するように車両7が移動したときの特徴点F3のオプティカルフローOF4と、左サイドカメラ23が撮影領域の水平方向左側に移動するように車両7が移動したときの特徴点F3のオプティカルフローOF5との関係は、車両7が前後対称に移動しているにもかかわらず、図11(d)に示すように左右非対称になる。
図10(d)と図11(d)の比較から明らかなように、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているか否かを、車両7が前後方向に移動したときの特徴点F3の動きから判定することができる。
なお、中心線CL1付近に無い特徴点はカメラずれがあってもなくても動きは非対称になるが、カメラずれのある場合とカメラずれのない場合とで特徴点の動きが異なることから、カメラずれの有無を判定することは可能である。
中心線CL1付近に無い特徴点の動きから左サイドカメラ23の位置ずれの有無を判定する場合は、カメラずれのない場合の特徴点の動きを正常値(左サイドカメラ23の初期位置に関するデータ)として記憶部12が記憶しておき、車両7が前後方向に移動したときの特徴点の動きが記憶部12に記憶された正常値と異なっていれば左サイドカメラ23の位置ずれが生じていると判定すればよい。この中心線CL1付近に無い特徴点の動きから左サイドカメラ23の位置ずれの有無を判定する手法と比較すると、上述した中心線CL1付近にある特徴点F3を用いて左サイドカメラ23の位置ずれの有無を判定する手法は、正常値を記憶していなくても左サイドカメラ23の位置ずれの有無を判定できるというメリットを有している。
なお、右サイドカメラ24の場合は、前進移動位置L1、中央位置L0、及び後進移動位置L6それぞれで特徴点F4を含む撮影画像を撮影して同様の処理を行えばよい。
また、以下に説明する検出処理及び判定処理によっても、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知することができる。
図5に示すように、判定開始タイミングを検出した時点で中央位置L0に停止していた車両7は、例えば、中央位置L0→前進移動位置L1→中央左寄り位置L4→前進移動位置L1→中央右寄り位置L5の順番で、中央左寄り位置L4及び中央右寄り位置L5の2箇所に移動する。そして、中央左寄り位置L4、中央位置L0、及び中央右寄り位置L5それぞれで特徴点F3を含む撮影画像を撮影する。なお、特徴点F3を見失わないように、画像処理装置1は、中央位置L0で特徴点F3を検出した後、車両7の移動中も特徴点F3を追跡する。
左サイドカメラ23がPAN方向及びROLL方向のいずれにもずれていない場合、例えば、中央左寄り位置L4、中央位置L0、及び中央右寄り位置L5それぞれでの撮影画像は図12(a)〜(c)となる。その結果、左サイドカメラ23が撮影領域の奥行き方向に移動するように車両7が移動したときの、特徴点F3のオプティカルフローOF6は、図12(d)に示すように中心線CL1上に略位置している。
一方、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれている場合、例えば、中央左寄り位置L4、中央位置L0、及び中央右寄り位置L5それぞれでの撮影画像は図13(a)〜(c)となる。その結果、左サイドカメラ23が撮影領域の奥行き方向に移動するように車両7が移動したときの、特徴点F3のオプティカルフローOF6は、図13(d)に示すように中心線CL1からずれている。
図12(d)と図13(d)の比較から明らかなように、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているか否かを、車両7が左右方向に移動したときの特徴点F3の動きから判定することができる。
なお、右サイドカメラ24の場合は、中央左寄り位置L4、中央位置L0、及び中央右寄り位置L5それぞれで特徴点F4を含む撮影画像を撮影して同様の処理を行えばよい。
前述した例とは異なり、中央左寄り位置L4及び中央右寄り位置L5のうちのいずれか1箇所にのみ移動してもよい。
以上、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているか否かを検知する手法について2つの例を説明した。ここで、2つの例を組み合わせて実施する場合の例について説明する。後述する第1のモードは車両7の移動容易性を重視したモードであり、後述する第2のモードは判定精度を重視したモードである。検出部111は、第1のモードと第2のモードを択一的に選択することができる。
第1モードでは、検出部111は、左サイドカメラ23が撮影領域の水平方向に移動するように車両7が移動したときのみの特徴点の動きを検出する。これにより、車両7の移動量を低減することができるとともに、車両7の移動が直進のみですむため車両7の移動制御の容易性及び正確性が向上する。
一方、第2のモードでは、検出部111は、左サイドカメラ23が撮影領域の水平方向に移動するように車両7が移動したときの特徴点の動き、及び、左サイドカメラ23が撮影領域の奥行き方向に移動するように車両7が移動したときの特徴点の動きを検出する。そして、いずれかの特徴点の動きにおいて左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれていることが検知された場合には、左サイドカメラ23がPAN方向及びROLL方向の少なくとも一方にずれているとずれ判定部112が判定すればよい。これにより、左サイドカメラ23の位置ずれが見過ごされることを低減できる。その結果、左サイドカメラ23の位置ずれに関する判定精度が向上する。
右サイドカメラ24の場合も、上述した左サイドカメラ23の場合と同様の組み合わせ方での実施が可能である。
(2−3.第3具体例)
以下に説明する検出処理及び判定処理によって、車載カメラ21〜24がずれているか否かを検知することができる。なお、上述のように、4つの車載カメラ21〜24のそれぞれに対してずれているか否かが検知される。
図14は、車両と特徴点との位置関係を示す模式図である。特徴点F1と特徴点F1’とは、互いにフロントカメラ21及びバックカメラ22の撮影領域の水平方向にずれて存在している特徴点である。特徴点F2と特徴点F2’とは、互いにフロントカメラ21及びバックカメラ22の撮影領域の水平方向にずれて存在している特徴点である。特徴点F3と特徴点F3’とは、互いに左サイドカメラ23及び右サイドカメラ24の撮影領域の水平方向にずれて存在している特徴点である。特徴点F4と特徴点F4’とは、互いに左サイドカメラ23及び右サイドカメラ24の撮影領域の水平方向にずれて存在している特徴点である。
検出部111が、車載カメラ21〜24が撮影領域の奥行き方向に移動するように車両7が移動したときの、撮影領域の水平方向にずれて存在する複数の特徴点の動きを検出する。そして、ずれ判定部112が、検出部111の検出結果に基づいて複数の特徴点の消失点を検出し、検出した前記消失点の位置に基づいて前記車載カメラの位置ずれに関する判定を行う。例えば、フロントカメラ21の場合、図15に示すように、特徴点F1のオプティカルフローOF3の延長線と特徴点F1’のオプティカルフローOF7の延長線との交点である、特徴点F1及びF1’の消失点D1を検出すればよい。フロントカメラ21のPAN方向、ROLL方向、及びTILT方向のいずれにもずれていない場合の消失点D1の位置が把握できるデータを、フロントカメラ21の初期位置に関するデータとして記憶部112が記憶しておくことで、フロントカメラ21がPAN方向、ROLL方向、及びTILT方向の少なくとも一つの方向にずれているか否かを判定することができる。一例としては、消失点が画面の中心線から左または右方向に大きくずれているときは、少なくともPAN方向、ROLL方向にズレが発生していると判断できる。また、画面内における消失点の垂直方向の高さが、正常時の位置から大きくずれているときは少なくともTILT方向にずれが発生していると判断できる。
なお、検出部111が各撮影画像において特徴点を1つしか検出できない場合であっても、車両7の移動を工夫することによって検出部111は特徴点の消失点D1を検出することができる。例えば、図5に示すように、判定開始タイミングを検出した時点で中央位置L0に停止していた車両7は、例えば、中央位置L0→左移動位置L2→後方左寄り位置L7→右移動位置L3→後方右寄り位置L8の順番で移動する。そして、画像処理装置1は、中央位置L0で特徴点F1を検出した後、車両7の移動中も特徴点F1を追跡する。また、画像処理装置1は、中央位置L0で特徴点F4を検出した後、車両7の移動中も特徴点F4を追跡する。
図16に示すように、検出部111は、単一の特徴点F1について、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が左移動位置L2から移動したときの特徴点F1の動きを検出し、フロントカメラ21が撮影領域の奥行き方向に移動するように車両7が右移動位置L3から移動したときの特徴点F1の動きを検出することによって、特徴点F1のオプティカルフローOF8Lの延長線と特徴点F1のオプティカルフローOF8Rの延長線との交点である、特徴点F1の消失点D1を検出することができる。なお、図16中において符号F1の隣に車両7の位置を示す符号をかっこ書きで記載している。
図17に示すように、検出部111は、単一の特徴点F4について、右サイドカメラ24が撮影領域の奥行き方向に移動するように車両7が右移動位置L3から移動したときの特徴点F4の動きを検出し、右サイドカメラ24が撮影領域の奥行き方向に移動するように車両7が後方右寄り位置L8から移動したときの特徴点F4の動きを検出することによって、特徴点F4のオプティカルフローOF9Lの延長線と特徴点F4のオプティカルフローOF9Rの延長線との交点である、特徴点F4の消失点D1を検出することができる。なお、図17中において符号F4の隣に車両7の位置を示す符号をかっこ書きで記載している。
また、以下に説明する検出処理及び判定処理によっても、車載カメラ21〜24がTILT方向にずれているか否かを検知することができる。マイコン11が、車両7が所定の移動をしたときの車両7の速度情報をセンサ部3から取得する不図示の取得部を備える。そして、ずれ判定部112は、検出部111の検出結果、より具体的には特徴点のオプティカルフローに基づいて車両7の速度を推定し、推定した車両7の速度と、前述の取得部によって取得された車両7の速度情報との比較結果に基づいて車載カメラ21〜24の位置ずれに関する判定を行う。
ずれ判定部112は、推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度との大小関係によって、車載カメラ21〜24が下方に傾いているかそれとも上方に傾いているかを検知することができる。推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度より遅い場合、ずれ判定部112は、車載カメラ21〜24が下方に傾いていることを検知する。逆に、推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度より速い場合、ずれ判定部112は、車載カメラ21〜24が上方に傾いていることを検知する。推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度と一致している場合、ずれ判定部112は、車載カメラ21〜24にTILT方向の位置ずれが発生していないことを検知する。ここで、計算誤差等を考慮し、推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度との差が所定値未満である場合には、推定した車両7の速度とセンサ部3から取得した情報から求まる車両7の速度とが一致していなくても、ずれ判定部112は、車載カメラ21〜24にTILT方向の位置ずれが発生していないことを検知するようにしてもよい。
なお、車両7が所定の移動をしている期間の全てにおいて、車両7の車速が一定となるわけではないので、車両7が所定の移動をしている期間の中で車両7の車速が一定となっている区間を抽出し、その抽出した区間で上記の位置ずれ判定を行うことが好ましい。
<3.変形例等>
本明細書中に開示されている種々の技術的特徴は、上記実施形態のほか、その技術的創作の主旨を逸脱しない範囲で種々の変更を加えることが可能である。また、本明細書中に示される複数の実施形態及び変形例は可能な範囲で組み合わせて実施されてよい。
以上に示した実施形態では、プログラムに従ったCPUの演算処理によってソフトウェア的にマイコンの各種の機能が実現されていると説明したが、これらの機能のうちの少なくとも一部は電気的なハードウェア回路により実現されてもよい。また逆に、ハードウェア回路によって実現されるとした機能のうちの少なくとも一部は、ソフトウェア的に実現されてもよい。
また、図5及び図14においては、中央位置L0−前進移動位置L1間の距離と中央位置L0−後進移動位置L6間の距離とを等しくしているが、各距離間の比率が把握出来ていれば位置ずれの判定を正しく行うことができるので、中央位置L0−前進移動位置L1間の距離と中央位置L0−後進移動位置L6間の距離とは異なっていてもよい。同様に、図5及び図14においては、中央位置L0−中央左寄り位置L4間の距離と中央位置L0−中央右寄り位置L5間の距離とを等しくしているが、各距離間の比率が把握出来ていれば位置ずれの判定を正しく行うことができるので、中央位置L0−中央左寄り位置L4間の距離と中央位置L0−中央右寄り位置L5間の距離とは異なっていてもよい。
1 画像処理装置
7 車両
21 フロントカメラ(車載カメラ)
22 バックカメラ(車載カメラ)
23 左サイドカメラ(車載カメラ)
24 右サイドカメラ(車載カメラ)
41 自動運転制御部
111 検出部
112 ずれ判定部

Claims (9)

  1. 車載カメラで撮影された撮影画像を処理する画像処理装置であって、
    前記車載カメラを搭載する車両が所定の移動をしたときの前記撮影画像中の特徴点の動きを検出する検出部と、
    前記検出部の検出結果に基づいて前記車載カメラの位置ずれに関する判定を行うずれ判定部と、
    を備える、画像処理装置。
  2. 前記検出部は、前記車載カメラが撮影領域の水平方向または奥行き方向に移動するように前記車両が移動したときの、撮像領域を左右に均等分割する中心線付近にある、少なくとも一つの前記特徴点の動きを検出する、請求項1に記載の画像処理装置。
  3. 前記車載カメラは前記車両の前方を撮影するカメラ又は前記車両の後方を撮影するカメラであって、
    前記検出部は、
    第1のモードにおいて、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときのみの前記特徴点の動きを検出し、
    第2のモードにおいて、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの前記特徴点の動き、及び、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときの前記特徴点の動きを検出する、請求項1又は請求項2に記載の画像処理装置。
  4. 前記車載カメラは前記車両の側方を撮影するカメラであって、
    前記検出部は、
    第1のモードにおいて、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときのみの前記特徴点の動きを検出し、
    第2のモードにおいて、前記車載カメラが撮影領域の水平方向に移動するように前記車両が移動したときの前記特徴点の動き、及び、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの前記特徴点の動きを検出する、請求項1又は請求項2に記載の画像処理装置。
  5. 前記検出部は、前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が移動したときの、前記撮影領域の水平方向にずれて存在する複数の前記特徴点の動きを検出し、
    前記ずれ判定部は、前記検出部の検出結果に基づいて複数の前記特徴点の消失点を検出し、検出した前記消失点の位置に基づいて前記車載カメラの位置ずれに関する判定を行う、請求項1に記載の画像処理装置。
  6. 前記検出部は、
    単一の前記特徴点について、
    前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が第1の位置から移動したときの前記特徴点の動きを検出し、
    前記車載カメラが撮影領域の奥行き方向に移動するように前記車両が第2の位置から移動したときの前記特徴点の動きを検出し、
    前記第1の位置と前記第2の位置とは前記車載カメラの撮影領域の水平方向にずれており、
    前記ずれ判定部は、前記検出部の検出結果に基づいて単一の前記特徴点の消失点を検出し、検出した前記消失点の位置に基づいて前記車載カメラの位置ずれに関する判定を行う
    、請求項1に記載の画像処理装置。
  7. 前記車両が前記所定の移動をしたときの前記車両の速度情報を取得する取得部を備え、
    前記ずれ判定部は、前記検出部の検出結果に基づいて前記車両の速度を推定し、推定した前記車両の速度と、前記取得部によって取得された前記車両の速度情報との比較結果に基づいて前記車載カメラの位置ずれに関する判定を行う、請求項1に記載の画像処理装置。
  8. 請求項1〜7のいずれか一項に記載の画像処理装置と、
    ドライバーの運転操作によらずに前記車両に前記所定の移動を行わせる自動運転制御部と、を備える、カメラずれ判定システム。
  9. 車載カメラで撮影された撮影画像を処理する画像処理方法であって、
    前記車載カメラを搭載する車両が所定の移動をしたときの前記撮影画像中の特徴点の動きを検出する検出工程と、
    前記検出工程の検出結果に基づいて前記車載カメラの位置ずれに関する判定を行うずれ判定工程と、
    を備える、画像処理方法。
JP2017055641A 2017-03-22 2017-03-22 画像処理装置、カメラずれ判定システム、及び画像処理方法 Pending JP2018160732A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017055641A JP2018160732A (ja) 2017-03-22 2017-03-22 画像処理装置、カメラずれ判定システム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017055641A JP2018160732A (ja) 2017-03-22 2017-03-22 画像処理装置、カメラずれ判定システム、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2018160732A true JP2018160732A (ja) 2018-10-11

Family

ID=63796852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017055641A Pending JP2018160732A (ja) 2017-03-22 2017-03-22 画像処理装置、カメラずれ判定システム、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2018160732A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140478A (ja) * 2019-02-28 2020-09-03 株式会社デンソーテン 異常検出装置、および異常検出方法
JP2020198074A (ja) * 2019-05-29 2020-12-10 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
WO2021059765A1 (ja) * 2019-09-26 2021-04-01 ソニー株式会社 撮像装置、画像処理システム、画像処理方法及びプログラム
WO2023026626A1 (ja) * 2021-08-24 2023-03-02 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理システム、信号処理方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140478A (ja) * 2019-02-28 2020-09-03 株式会社デンソーテン 異常検出装置、および異常検出方法
JP7169227B2 (ja) 2019-02-28 2022-11-10 株式会社デンソーテン 異常検出装置、および異常検出方法
JP2020198074A (ja) * 2019-05-29 2020-12-10 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
JP7445415B2 (ja) 2019-05-29 2024-03-07 株式会社デンソーテン 姿勢推定装置、異常検出装置、補正装置、および、姿勢推定方法
WO2021059765A1 (ja) * 2019-09-26 2021-04-01 ソニー株式会社 撮像装置、画像処理システム、画像処理方法及びプログラム
JP7484924B2 (ja) 2019-09-26 2024-05-16 ソニーグループ株式会社 撮像装置、画像処理システム、画像処理方法及びプログラム
WO2023026626A1 (ja) * 2021-08-24 2023-03-02 ソニーセミコンダクタソリューションズ株式会社 信号処理装置、信号処理システム、信号処理方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6828501B2 (ja) 駐車支援装置
EP3357793A1 (en) Parking assist apparatus
CN109383377B (zh) 位置推测装置
JP2018160732A (ja) 画像処理装置、カメラずれ判定システム、及び画像処理方法
US20070124030A1 (en) Systems for determining movement amount
US10703275B2 (en) Image generation apparatus
JPWO2007043452A1 (ja) 車載撮影装置及び車載カメラの撮影可動範囲測定方法
CN107791951B (zh) 显示控制装置
US11017245B2 (en) Parking assist apparatus
JP2018127065A (ja) 駐車支援装置
JP2010215170A (ja) 駐車結果表示システム
JP2007221199A (ja) 車載カメラ表示装置及び画像処理装置
JP2016021712A (ja) 画像処理装置、及び、運転支援システム
JP6700502B2 (ja) 車両用表示制御装置および表示制御方法
JP6974192B2 (ja) カメラずれ検出装置およびカメラずれ検出方法
JP7137356B2 (ja) 車載用故障検出装置、及び故障検出方法
JP7081481B2 (ja) 車両用映像処理装置、車両用映像処理システム、車両用映像処理方法およびプログラム
WO2021005702A1 (ja) 顔検出処理装置および顔検出処理方法
JP2019135620A (ja) 走行支援装置
JP2019151307A (ja) 駐車エリア検知装置および駐車エリア検知方法
JP2017143482A (ja) 車両用画像表示装置
JP2021033570A (ja) 操作制御装置、操作制御方法、およびプログラム
JP7027712B2 (ja) 運転支援装置
JP2019120631A (ja) カメラずれ検出装置およびカメラずれ検出方法
JP7066378B2 (ja) 画像処理装置及び画像処理方法