JP4863922B2 - 運転支援システム並びに車両 - Google Patents

運転支援システム並びに車両 Download PDF

Info

Publication number
JP4863922B2
JP4863922B2 JP2007109206A JP2007109206A JP4863922B2 JP 4863922 B2 JP4863922 B2 JP 4863922B2 JP 2007109206 A JP2007109206 A JP 2007109206A JP 2007109206 A JP2007109206 A JP 2007109206A JP 4863922 B2 JP4863922 B2 JP 4863922B2
Authority
JP
Japan
Prior art keywords
image
vehicle
camera
calibration
conversion parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007109206A
Other languages
English (en)
Other versions
JP2008269139A (ja
Inventor
仁志 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007109206A priority Critical patent/JP4863922B2/ja
Priority to US12/104,999 priority patent/US20080309763A1/en
Publication of JP2008269139A publication Critical patent/JP2008269139A/ja
Application granted granted Critical
Publication of JP4863922B2 publication Critical patent/JP4863922B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、車両の運転を支援するための運転支援システムに関する。また、本発明は、それらを利用した車両に関する。
車両後部に取り付けた車載カメラの映像を運転席に装備した表示装置に表示することで運転者の視界を支援するシステムが多く開発されている。この種のシステムにおいて、車両の構造又はデザイン上の制約或いはカメラの取り付け誤差に起因し、カメラが車両後部中央からずれた位置に取り付けられたり(図3(b)参照)、カメラの光軸方向が車両進行方向からずれたりすることがある(図3(a)参照)。
カメラが車両後部中央からずれると、表示画面上で映像中心と車両中心の間にずれが生じ、光軸方向が車両進行方向からずれると、表示画面上で映像が傾いたように表示される(映像中心と車両中心の間のずれも生じる)。運転者は、このようなずれや傾きのある映像を見ながらの運転に違和感を覚えるため、十分な視界支援がなされない。
このような問題に対応するべく、車両中央からずれた位置にカメラが取り付けられている場合に生じる画像の偏りを補正する手法が、下記特許文献1に開示されている。この手法では、車両中央が画像の中心に位置するように且つ車両両端が画像の端部に位置するように、画像のラスタ毎のオフセット量に基づいて左右に分けたラスタデータを伸縮するようにしている。
特開2005−129988号公報
しかしながら、特許文献1に記載の手法の如く、左右に分けたラスタデータを伸縮すると左右の画像が不均一となり、画像が不自然となってしまう。また、この手法は、カメラの光軸方向と消失点(無限遠点)方向とが一致している状態で有効に機能するものであるため、光軸方向が車両進行方向とずれている場合には対応できない。更に、補正を行うためのパラメータの調整が容易ではないため、カメラの取り付け位置や取り付け角度を変更した時に再調整作業が煩雑となるという問題もある。
そこで本発明は、カメラの多様な設置に対応して良好な視界支援を実現する運転支援システムを提供することを目的とする。また本発明は、それを利用した車両を提供することを目的とする。
本発明に係る第1の運転支援システムは、車両に設置され、前記車両の周辺を撮影するカメラを備え、所定のパラメータ導出指示を受けて、2つの特徴点を含む、第1及び第2地点での前記カメラの撮影画像を夫々第1及び第2校正用画像として取得する運転支援システムであって、実空間において前記2つの特徴点は前記車両の進行方向における車体中心線に対して対称位置に配置され、前記第1及び第2地点は前記車両の移動によって互いに異なり、当該運転支援システムは、前記第1及び第2校正用画像に含まれる合計4つの特徴点の画像上の位置を検出する特徴点位置検出手段と、前記4つの特徴点の各位置に基づいて画像変換パラメータを導出する画像変換パラメータ導出手段と、前記カメラの各撮影画像を前記画像変換パラメータに従って画像変換して出力画像を生成し、該出力画像を表す映像信号を表示装置に出力する画像変換手段と、を備えたことを特徴とする。
これにより、カメラの設置位置ずれや光軸方向ずれ等があっても、それらのずれの影響を排除或いは抑制した画像を表示することが可能となる。つまり、カメラの多様な設置に対応した、良好な視界支援を実現することが可能となる。
つまり例えば、前記画像変換パラメータ導出手段は、前記出力画像において前記車体中心線と画像中心線とが一致するように、前記画像変換パラメータを導出するとよい。
具体的には例えば、前記パラメータ導出指示を受けた後、前記カメラに第1及び第2校正用画像の候補としての候補画像を撮影させて各候補画像内に互いに異なる第1及び第2領域を定義し、前記第1領域から前記2つの特徴点が抽出された前記候補画像を前記第1校正用画像として取り扱う一方、前記第2領域から前記2つの特徴点が抽出された前記候補画像を前記第2校正用画像として取り扱う。
また具体的には例えば、前記第1及び第2校正用画像間において共通の第1及び第2車線が、互いに平行に前記車両が配置された路面上に形成されており、各特徴点は各車線の端点であり、前記特徴点位置検出手段は、第1及び第2校正用画像の夫々における前記第1車線の一端点と第1及び第2校正用画像の夫々における前記第2車線の一端点を検出することにより、合計4つの特徴点の位置を検出する。
また例えば、前記第1若しくは第2校正用画像又は前記画像変換パラメータが導出された後の前記カメラの撮影画像を検証用入力画像とし、前記検証用入力画像から前記画像変換パラメータの正常又は異常を判別する検証手段を更に備え、前記検証用入力画像には前記第1及び第2車線が描画され、前記検証手段は、前記検証用入力画像を前記画像変換パラメータに従って画像変換することにより得られた検証用変換画像から前記第1及び第2車線を抽出し、前記検証用変換画像上における前記第1及び第2車線間の対称性に基づいて前記画像変換パラメータの正常又は異常を判別する。
これにより、導出した画像変換パラメータの正常/異常を判別でき、その結果をユーザに知らしめることが可能となる。異常であれば、再度、画像変換パラメータの導出をやり直すといった対応が可能となり、有益である。
本発明に係る第2の運転支援システムは、車両に設置され、前記車両の周辺を撮影するカメラを備え、所定のパラメータ導出指示を受けて、4つの特徴点を含む前記カメラの撮影画像を校正用画像として取得する運転支援システムであって、調整用指標と共に前記校正用画像を表示装置に表示させ、前記表示装置の表示画面上における前記調整用指標の表示位置と各特徴点の表示位置とを対応させるために外部から与えられた位置調整指令に従って前記調整用指標の表示位置を調整する調整手段と、その調整後の前記調整用指標の表示位置から前記校正用画像上における前記4つの特徴点の位置を検出する特徴点位置検出手段と、前記4つの特徴点の各位置に基づいて画像変換パラメータを導出する画像変換パラメータ導出手段と、前記カメラの各撮影画像を前記画像変換パラメータに従って画像変換して出力画像を生成し、該出力画像を表す映像信号を表示装置に出力する画像変換手段と、を備え、前記画像変換パラメータ導出手段は、前記出力画像において、前記車両の進行方向における車体中心線と画像中心線とが一致するように、前記画像変換パラメータを導出することを特徴とする。
これにより、カメラの設置位置ずれや光軸方向ずれ等があっても、それらのずれの影響を排除或いは抑制した画像を表示することが可能となる。
本発明に係る第3の運転支援システムは、車両に設置され、前記車両の周辺を撮影するカメラを備え、所定のパラメータ導出指示を受けて、4つの特徴点を含む前記カメラの撮影画像を校正用画像として取得する運転支援システムであって、前記校正用画像に含まれる前記4つの特徴点の画像上の位置を検出する特徴点位置検出手段と、前記4つの特徴点の各位置に基づいて画像変換パラメータを導出する画像変換パラメータ導出手段と、前記カメラの各撮影画像を前記画像変換パラメータに従って画像変換して出力画像を生成し、該出力画像を表す映像信号を表示装置に出力する画像変換手段と、を備え、前記画像変換パラメータ導出手段は、前記出力画像において、前記車両の進行方向における車体中心線と画像中心線とが一致するように、前記画像変換パラメータを導出することを特徴とする。
これにより、カメラの設置位置ずれや光軸方向ずれ等があっても、それらのずれの影響を排除或いは抑制した画像を表示することが可能となる。
具体的には例えば、上記第2又は第3の運転支援システムにおいて、前記4つの特徴点は第1、第2、第3及び第4特徴点から成り、実空間において第1及び第2特徴点を結ぶ直線及び第3及び第4特徴点を結ぶ直線は前記車体中心線と平行であり、実空間においてそれらの直線の中心を通る線と前記車体中心線とが重なるような状態で、前記校正用画像は取得される。
また例えば、上記第2又は第3の運転支援システムにおいて、各特徴点は、前記車両が配置された路面上に形成された互いに平行な2本の車線の各端点である。
本発明に係る車両は、上記の何れかに記載の運転支援システムが設置されていることを特徴とする。
本発明によれば、カメラの多様な設置に対応して良好な視界支援を実現することができる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第3実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1(a)は、自動車である車両100を上方から見た平面図である。図1(b)は、車両100を側方から見た平面図である。車両100は、路面上に配置されているものとする。車両100の後部には、車両100後方の安全確認を支援するためのカメラ1が設置されている。カメラ1は、車両100の後方側に視野を有するように車両100に設置される。符号105が付された破線扇型領域は、カメラ1の撮影領域(視野)を表している。カメラ1の視野に車両100付近の後方側路面が含まれるように、カメラ1は後方下向きに設置される。尚、車両100として普通乗用車を例示しているが、車両100は、普通乗用車以外(トラックなど)であってもよい。また、路面は水平面上にあるものとする。
今、車両100を基準にし、実空間(実際の空間)において、仮想軸であるXC軸及びYC軸を定義する。XC軸及びYC軸は、路面上の軸であり、XC軸とYC軸は互いに直交する。XC軸及びYC軸から成る二次元座標系において、XC軸は車両100の進行方向に平行であり、車両100の車体中心線はXC軸上にのる。説明の便宜上、車両100の進行方向とは、車両100の直進時における進行方向を意味するものとする。また、車体中心線とは、車両100の進行方向に平行な、車体の中心線を意味するものとする。より具体的には、車体中心線とは、車両100の右端を通り且つXC軸に平行な仮想線111と車両100の左端を通り且つXC軸に平行な仮想線112との間の中心を通る線である。また、車両100の前端を通り且つYC軸に平行な仮想線113と車両100の後端を通り且つYC軸に平行な仮想線114との間の中心を通る線はYC軸上にのる。仮想線111〜114は、路面上の仮想線であるとする。
尚、車両100の右端とは車両100の車体の右端と同義であり、車両100の左端等についても同様である。
図2に、本発明の実施形態に係る視界支援システムの概略ブロック図を示す。視界支援システムは、カメラ1、画像処理装置2、表示装置3及び操作部4を備える。カメラ1は、車両100の周辺に位置する被写体(路面を含む)を撮影し、撮影によって得られた画像を表す信号を画像処理装置2に送る。画像処理装置2は、送られてきた画像に対して座標変換を伴う画像変換を施し、表示装置3に対する出力画像を生成する。この出力画像を表す映像信号は表示装置3に与えられ、表示装置3は、該出力画像を映像として表示する。操作部4は、ユーザからの操作を受け付け、その操作内容に応じた信号を画像処理装置2に伝達する。視界支援システムを、車両100の運転を支援する運転支援システムとも呼ぶこともできる。
カメラ1として、例えばCCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。画像処理装置2は、例えば集積回路から形成される。表示装置3は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置及び操作部を、視界支援システムにおける表示装置3及び操作部4として流用しても良い。また、画像処理装置2は、カーナビゲーションシステムの一部として組み込まれうる。画像処理装置2、表示装置3及び操作部4は、例えば、車両100の運転席付近に設置される。
理想的には、カメラ1は、正確に車両後方を向けて車両後部中央に配置される。つまり、理想的には、カメラ1の光軸がXC軸を含む鉛直面上にのるように、カメラ1は車両100に設置される。このような理想的なカメラ1の設置状態を「理想設置状態」という。しかしながら、車両100の構造又はデザイン上の制約或いはカメラ1の取り付け誤差に起因して、図3(a)に示す如くカメラ1の光軸がXC軸を含む鉛直面と平行とならなかったり、図3(b)に示す如くカメラ1の光軸がXC軸を含む鉛直面に平行であっても該光軸が該鉛直面上にのらなかったりすることが多い。
説明の便宜上、カメラ1の光軸がXC軸を含む鉛直面(換言すれば車両100の進行方向)に平行とならないことを「カメラ方向ずれ」と呼び、カメラ1の光軸がXC軸を含む鉛直面上にのらないことを「カメラ位置オフセット」と呼ぶ。カメラ方向ずれやカメラ位置オフセットが生じると、カメラ1によって撮影された画像が車両100の進行方向に対して傾いたり、該画像の中心が車両100の中心からずれたりする。本実施形態に係る視界支援システムは、このような画像の傾きやずれを補償した画像を生成及び表示する機能を備える。
<<第1実施例>>
本発明の第1実施例について説明する。図4は、第1実施例に係る視界支援システムの構成ブロック図である。図4の画像処理装置2は、符号11〜14にて参照される各部位を備える。
レンズ歪み補正部11は、カメラ1の撮影によって得られた画像に対してレンズ歪み補正を行い、レンズ歪み補正後の画像を画像変換部12及び端点検出部13に出力する。レンズ歪み補正部11から出力されるレンズ歪み補正後の画像を、以下「入力画像」と呼ぶ。尚、レンズ歪みがない或いは無視できる程度に少ないカメラを、カメラ1として利用する場合は、レンズ歪み補正部11を省略することが可能である。この場合、カメラ1の撮影によって得られた画像を、直接、入力画像として画像変換部12及び端点検出部13に送ればよい。
画像変換部12は、画像変換パラメータ算出部14にて算出された画像変換パラメータを用いた画像変換を介して、入力画像から出力画像を生成し、その出力画像を表す映像信号を表示装置3に送る。
後述の説明から理解されるが、表示装置3に対する出力画像(及び後述する変換画像)は、入力画像を、理想設置状態にて車両100に設置された仮想カメラの視点から見た画像に変換したものである。また、路面に対する、この仮想カメラの光軸の傾きは、実際のカメラ1のそれと同じ(或いは略同じ)である。つまり、入力画像を路面に投影するような変換(即ち、鳥瞰図画像への変換)は行われない。端点検出部13及び画像変換パラメータ算出部14の機能については、後述の説明から明らかとなる。
図5を参照して画像変換パラメータの導出手順を説明する。図5は、この導出手順を表すフローチャートである。まず、ステップS10において、車両100周辺の校正環境が以下のように整備される。図6は、整備されるべき校正環境を表す、上方から見た車両100周辺の平面図である。但し、以下の構成環境は理想的なものであり、実際には誤差が含まれることになる。
車両100は、駐車場における1つの駐車区画内に配置される。車両100が駐車される駐車区画は、路面上に描かれた白線L1とL2によって他の駐車区画と区分けされている。路面上において、白線L1とL2は互いに平行であって且つ同じ長さを有する線分となっており、XC軸と白線L1及びL2とが平行になるように車両100は配置される。実空間において白線L1及びL2は一般的に10cm程度のYC軸方向の幅を有しており、XC軸方向に伸びる白線L1及びL2の中心線を、夫々、中心線161及び162と呼ぶ。中心線161及び162は、XC軸に平行となる。更に、XC軸と中心線161との距離とXC軸と中心線162との距離が一致するように、車両100を着目した駐車区画内の中央に配置する。符号163及び164は、着目した駐車区画の後端路面に固定された縁石を表している。
また、符号P1は車両100の後方側の白線L1の端点を表し、符号P2は車両100の後方側の白線L2の端点を表す。符号P3は車両100の前方側の白線L1の端点を表し、符号P4は車両100の前方側の白線L2の端点を表す。端点P1及びP3は中心線161上に位置し、端点P2及びP4は中心線162上に位置するものとする。このように、実空間において、白線L1の端点と白線L2の端点はXC軸(車両100の車体中心線)に対して対称位置に配置されている。また、端点P1とP2を通る直線及び端点P3とP4を通る直線は、XC軸に直交するものとする。
尚、中心線161上の点をP1と捉える必要は必ずしもなく、中心線161からずれた点をP1と捉えることも可能である。厳密には、白線L1の外形は長方形であり、例えば、その長方形の頂点をP1と捉えることも可能である(P2〜P4についても同様)。即ち例えば、図7に示す如く、白線L1の外形である長方形の4頂点の内、車両100の後方側であって且つ車両100に近い方に位置する頂点を頂点171aとし、車両100の後方側であって且つ車両100に遠い方に位置する頂点を頂点171bとする。更に、白線L2の外形である長方形の4頂点の内、車両100の後方側であって且つ車両100に近い方に位置する頂点を頂点172aとし、車両100の後方側であって且つ車両100に遠い方に位置する頂点を頂点172bとする。この場合において、角171a及び172aを夫々端点P1及びP2として捉えるようにしてもよいし、或いは、角171b及び172bを夫々端点P1及びP2として捉えるようにしてもよい。端点P3及びP4についても同様である。
第1実施例では、4つの端点P1〜P4の内、2つの端点P1及びP2をカメラ1の視野内に収めることを想定し、2つの端点P1及びP2に着目する。従って、以下の第1(及び第2)実施例の記述において、単に「白線L1の端点」及び「白線L2の端点」といった場合、それらは夫々「端点P1」及び「端点P2」を意味するものとする。
ステップS10において上述の如く校正環境が整備された後、ユーザは、画像変換パラメータの導出を指示するための所定の指示操作を操作部4に対して施す。この指示操作が操作部4に対して施されると、操作部4から或いは操作部4に接続された制御部(不図示)から所定の指令信号が画像処理装置2に送られる。
ステップS11では、この指令信号が画像処理装置2に入力されたか否かが判断される。この指令信号が画像処理装置2に入力されていない場合はステップS11の処理が繰り返し実行され、この指令信号が画像処理装置2に入力された場合はステップS12に移行する。
ステップS12では、端点検出部13が、レンズ歪み補正部11によるレンズ歪み補正を介した、現時点のカメラ1の撮影画像に基づく入力画像を読み込む。端点検出部13は、図8に示す如く、入力画像内の所定位置に互いに異なる第1検出領域と第2検出領域を定義する。図8において、符号200が付された矩形領域内画像は、端点検出部13に与えられる入力画像を表し、符号201及び202が付された波線矩形領域は、夫々、第1検出領域及び第2検出領域を表している。第1及び第2検出領域は、互いに重複する領域を有さず、入力画像の垂直方向に並んで配置されている。入力画像の左上隅を入力画像の原点Oとする。第1検出領域は、第2検出領域よりも原点Oに近い位置に配置されている。
入力画像において、下方側に位置する第1検出領域には車両100から比較的近い路面の画像が描画され、上方側に位置する第2検出領域には車両100から比較的遠い路面の画像が描画される。
ステップS12に続くステップS13において、端点検出部13は、ステップS12にて読み込んだ入力画像の第1検出領域内の画像から白線L1及びL2を検出し、更に白線L1及びL2の端点(図6における端点P1及びP2)を抽出する。画像内における白線を検出する手法及び白線の端点を検出する手法は公知であり、端点検出部13は、公知の如何なる手法をも採用可能である。例えば、特開昭63−142478号公報、特開平7−78234号公報又は国際公開番号WO00/7373号に記載された手法を用いればよい。例えば、入力画像に対してエッジ抽出処理を行った後、そのエッジ抽出結果に対して更にハフ変換などを利用した直線抽出処理を実施し、得られた直線の端点を白線の端点として抽出する。
ステップS13に続くステップS14では、ステップS13において入力画像の第1検出領域内の画像から白線L1及びL2の端点を検出できたか否かを判断し、2つの端点を検出できなかった場合はステップS12に戻ってステップS12〜S14の処理を繰り返す一方、2つの端点を検出できた場合はステップS15に移行する。
ステップS13において2つの端点を検出できた入力画像を、特に「第1校正用画像」とも呼ぶ。図9(a)に、この第1校正用画像を示す。図9(a)において、符号210が付された矩形領域内画像は、第1校正用画像を表している。符合L1a及びL2aは夫々第1校正用画像上における白線L1及びL2を表し、点P1a及びP2aは夫々第1校正用画像上における端点P1及びP2を表す。上述の処理から明らかなように、ステップS12にて読み込まれる入力画像は、第1校正用画像の候補と呼べる。
ステップS15では、端点検出部13が、レンズ歪み補正部11によるレンズ歪み補正を介した、現時点のカメラ1の撮影画像に基づく入力画像を読み込む。ところで、ステップS12〜S17の処理の実行時において、ユーザは、ステップS1における車両100の位置を基準として車両100を前進させる。つまり、ステップS12〜S17の処理の実行時において、XC軸と中心線161との距離とXC軸と中心線162との距離とが一致している状態及び中心線161及び162がXC軸と平行となっている状態を保ちつつ、ユーザは車両100を前方方向に走行させる(図6参照)。従って、ステップS12の実行時における車両100及びカメラ1の実空間上の位置(第1地点)とステップS15の実行時における車両100及びカメラ1の実空間上の位置(第2地点)とは異なる。
ステップS15に続くステップS16において、端点検出部13は、ステップS15にて読み込んだ入力画像の第2検出領域内の画像から白線L1及びL2を検出し、更に白線L1及びL2の端点(図6における端点P1及びP2)を抽出する。白線L1及びL2の検出手法及び端点の抽出手法は、ステップS13におけるそれと同様である。ステップS12〜S17の処理の実行時において車両100は前進しているため、ステップS15にて読み込んだ入力画像における白線L1及びL2の端点は、ステップS12におけるそれらと比して入力画像の上方側にシフトするはずである。従って、ステップS15にて読み込んだ入力画像の第2検出領域内に白線L1及びL2の端点は存在しうる。
尚、ステップS12の実行時とステップS15の実行時との間で車両100が移動していなければ、ステップS15以降の処理は無意味となる。従って、車両100の走行速度を特定可能な車速パルスなどの車両移動情報に基づいて車両100の移動状態を検出し、該移動状態を参照して図5の処理を実行するようにしてもよい。例えば、ステップS13にて2つの端点が検出された後、車両100の或る程度の移動が確認されるまでステップS15に移行しないようにしてもよい。また、異なる時間の撮影に基づく入力画像間の差分に基づいて、車両100の移動状態を検出することも可能である。
ステップS16に続くステップS17では、ステップS16において入力画像の第2検出領域内の画像から白線L1及びL2の端点を検出できたか否かを判断し、2つの端点を検出できなかった場合はステップS15に戻ってステップS15〜S17の処理を繰り返す一方、2つの端点を検出できた場合はステップS18に移行する。
ステップS16において2つの端点を検出できた入力画像を、特に「第2校正用画像」とも呼ぶ。図9(b)に、この第2校正用画像を示す。図9(b)において、符号211が付された矩形領域内画像は、第2校正用画像を表している。符合L1b及びL2bは夫々第2校正用画像上における白線L1及びL2を表し、点P1b及びP2bは夫々第2校正用画像上における端点P1及びP2を表す。上述の処理から明らかなように、ステップS15にて読み込まれる入力画像は、第2校正用画像の候補と呼べる。
端点検出部13は、ステップS13及びS16で検出された各端点の、第1及び第2校正用画像上における座標値を特定し、その座標値を画像変換パラメータ算出部14に送る。ステップS18において、画像変換パラメータ算出部14は、各端点を特徴点として捉え、端点検出部13から受けた各特徴点(各端点)の座標値に基づき、画像変換パラメータを算出する。
第1及び第2校正用画像を含む入力画像は、算出された画像変換パラメータによって画像変換(換言すれば座標変換)することができる。この画像変換後の入力画像を「変換画像」と呼ぶことにする。後にも説明するが、この変換画像から切り出された矩形画像が、画像変換部12の出力画像となる。
図10(a)は、図9(a)及び(b)に示される第1及び第2校正用画像上における各端点を、1つの画像面に配置した仮想入力画像である。「カメラ方向ずれ」や「カメラ位置オフセット」に起因し、画像上において、画像中心線231と車両100の車体中心線232が合致していないことが分かる。画像変換パラメータ算出部14は、画像変換パラメータに基づく画像変換によってこの仮想入力画像から図10(b)に示される仮想出力画像が得られるように、画像変換パラメータを算出する。
図11及び図12を参照しつつ、ステップS18の処理内容をより具体的に説明する。図11において、符号230が付された矩形画像は入力画像を表し、符号231が付された四角形画像は変換画像を表し、符号232が付された矩形画像は出力画像を表す。入力画像における各点の座標を(x,y)にて表し、変換画像における各点の座標を(X,Y)にて表す。x及びXは画像の水平方向の座標値であり、y及びYは画像の垂直方向の座標値である。
変換画像231の外形を形成する四角形の4頂点の座標値を、(Sa,Sb)、(Sc,Sd)、(Se,Sf)及び(Sg,Sh)とする。そうすると、入力画像における座標(x,y)と変換画像における座標(X,Y)との関係は、下記式(1a)及び(1b)によって表される。
Figure 0004863922
今、ステップS13にて検出された第1校正用画像上の端点P1a及びP2aの座標値を夫々(x1,y1)及び(x2,y2)とし、ステップS16にて検出された第2校正用画像上の端点P1b及びP2bの座標値を夫々(x3,y3)及び(x4,y4)とする(図9(a)及び(b)参照)。画像変換パラメータ算出部14は、(x1,y1)、(x2,y2)、(x3,y3)及び(x4,y4)を、入力画像上の4つの特徴点の座標値として取り扱う。また、画像変換パラメータ算出部14が予め認識している既知情報に従いつつ、入力画像上の4つの特徴点に対応する変換画像上の4つの特徴点の座標値を定める。定められた4つの座標値を(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)とする。
座標値(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)を予め固定的に定めておくようにしてもよいが、それらを、座標値(x1,y1)、(x2,y2)、(x3,y3)及び(x4,y4)に応じて設定するようにしてもよい。但し、最終的に図12に対応するような出力画像を得るべく、Y1=Y2且つY3=Y4且つ(X2−X1)/2=(X4−X3)/2、が成立するように、変換画像上における4つの特徴点の座標値は設定される。また更に、出力画像は鳥瞰図画像ではないため、X1−X3<0且つX2−X4>0、とされる。鳥瞰図画像とは、入力画像を車両上空から見たように座標変換して得られる画像であり、鳥瞰図画像は、入力画像を撮像面と平行でない路面に投影することにより得られる。
特徴点ごとに、(x,y)及び(X,Y)として座標値(xi,yi)及び(Xi,Yi)を上記式(1a)及び(1b)に代入すれば、式(1a)及び(1b)におけるSa、Sb、Sc、Sd、Se、Sf、Sg及びShの各値が求まり、一旦、それらの値が求まれば、入力画像上の任意の点を変換画像上の点に座標変換することが可能である(ここで、iは1〜4の各整数)。Sa、Sb、Sc、Sd、Se、Sf、Sg及びShの各値が、算出されるべき画像変換パラメータに相当する。
図11に示す如く、変換画像の外形は通常矩形とならず、図4の表示装置3に表示されるべき出力画像は、変換画像から切り出した矩形領域内の画像とされる。尚、変換画像の外形が矩形となっている場合などにおいて、切り出し処理を介して出力画像を形成するのではなく、変換画像をそのまま出力画像として表示装置3に出力することも可能ではある。
変換画像から切り出される矩形領域の位置及びサイズは、変換画像上における4つの特徴点の位置から特定する。例えば、変換画像上における4つの特徴点の座標値に従って矩形領域の位置及びサイズが一意に定まるように、矩形領域の設定法を予め定めておく。この際、出力画像を左右に二分する、画像の垂直方向に伸びる画像中心線(図12における線251)の水平方向の座標値を、(X2−X1)/2(=(X4−X3)/2)に合致させる。これにより、出力画像において、垂直方向の画像中心線と車両100の車体中心線とが合致するようになる。出力画像における車体中心線とは、実空間で定義される車体中心線を出力画像の画像面に配置したときに出力画像上に現れる仮想線を意味する。尚、切り出される矩形領域のサイズが最大化されるように、変換画像の画像形状に応じて矩形領域の位置及びサイズを決定するようにしても良い。
図13は、図4の視界支援システムの全体の動作手順を表すフローチャートである。ステップS1の校正処理では、図5のステップS10〜S18の各処理が実施され、画像変換パラメータが算出される。ステップS2〜S4は、視界支援システムの実稼動時の動作に対応し、ステップS1の校正処理の後、ステップS2〜S4の各処理は繰り返し実行される。
即ち、ステップS1の校正処理の後、ステップS2において、画像変換部12が、レンズ歪み補正部11によるレンズ歪み補正を介した、現時点のカメラ1の撮影画像に基づく入力画像を読み込む。続くステップS3において、画像変換部12は、読み込んだ入力画像をステップS1にて算出された画像変換パラメータに基づいて画像変換し、切り出し処理を介して出力画像を生成する。出力画像を表す映像信号は表示装置3に送られ、ステップS4において、表示装置3は出力画像を映像として表示する。ステップS4の処理の後、ステップS2に戻る。
尚、実際には例えば、ステップS1の後、画像変換パラメータの算出結果及び変換画像からの出力画像の切り出し方に従って、入力画像の各画素の座標値と出力画像の各画素の座標値との対応関係を示すテーブルデータを作成し、これを図示されないメモリ上のルックアップテーブル(LUT)に格納しておく。そして、このテーブルデータを用いて、順次、入力画像を出力画像に変換するようにする。勿論、入力画像が与えられる度に上記式(1a)及び(1b)に従う演算を実行することによって、出力画像を得るようにしてもよい。
図14に、画像変換パラメータの導出後の入力画像、変換画像及び出力画像の例を示す。図14は、図6に示す状態から車両100を前進させた時の撮影を想定している。入力画像270、変換画像271及び出力画像272において、斜線が付された領域が白線L1及びL2が描画された領域である(図6には示されている縁石163等の図示を省略)。
「カメラ方向ずれ」や「カメラ位置オフセット」に起因して、入力画像270では、垂直方向の画像中心線と車両100の車体中心線とがずれたり、傾いたりする。このため、車両100の中央が駐車区画の中央に合致するように車両100が駐車区画に正対しているのにも拘らず、入力画像270では2本の白線がずれたように現れるが、出力画像272では、これが補正されている。つまり、出力画像272では、垂直方向の画像中心線と車両100の車体中心線(画像上の車体中心線)とが合致し、「カメラ方向ずれ」や「カメラ位置オフセット」の影響が排除されている。このため、車両進行方向に合致した違和感のない画像が表示され、運転者の視界が良好に支援される。
また、車両100に対するカメラ1の取り付け位置や取り付け角度は変更されることも多いが、そのような変更があった場合でも、図5の各処理を実行するだけで適切な画像変換パラメータを容易に取得し直すことができる。
また、入力画像を路面に投影した鳥瞰図画像を表示するシステムでは、車両遠方領域の表示が困難となるが、本実施例(及び後述する他の各実施例)においては、このような投影を行うわけではないので、車両遠方領域の表示も可能となり車両遠方領域の視界も支援される。
以下に、第1実施例に係る上述の手法の変形手法を幾つか例示する。
上記式(1a)及び(1b)に基づく画像変換パラメータによる画像変換は非線形変換に相当するが、ホモグラフィ行列を用いた画像変換またはアフィン変換を行うようにしても良い。例として、ホモグラフィ行列を用いた画像変換を説明する。このホモグラフィ行列をHで表す。Hは、3行3列の行列であり、その行列の各要素をh1〜h9で表す。更に、h9=1であるとする(h9=1、となるように行列を正規化する)。そうすると、座標(x,y)と座標(X,Y)との関係は、下記式(2)よって表され、また、下記式(3a)及び(3b)によって表すこともできる。
Figure 0004863922
Figure 0004863922
入力画像と変換画像との間で4つの特徴点の座標値対応関係が分かれば、Hは一意に定まる。4点の座標値対応関係に基づきホモグラフィ行列H(射影変換行列)を求める手法として、公知の手法を用いればよい。例えば、特開2004−342067号公報に記載の手法(特に、段落[0059]〜[0069]に記載の手法を参照)を用いればよい。つまり、座標値(x1,y1)、(x2,y2)、(x3,y3)及び(x4,y4)が、夫々、座標値(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)に変換されるように、ホモグラフィ行列Hの要素h1〜h8を求める。実際には、この変換の誤差(特開2004−342067号公報における評価関数)が最小化されるように要素h1〜h8を求める。
一旦、ホモグラフィ行列Hが求まれば、上記式(3a)及び(3b)に従って入力画像上の任意の点を変換画像上の点に変換することが可能である。このホモグラフィ行列Hを画像変換パラメータとして利用することにより、入力画像から変換画像(及び出力画像)を生成することができる。
また、図5を参照して説明した上述の画像変換パラメータの算出法では、ステップS10の後、車両100を前進させることを想定しているが、勿論、車両100を後退させるようにしても同様の処理が可能である。勿論、前進を後退に変更するに伴って、上述の処理内容の一部が適切に変更される。
また、図5を参照して説明した上述の画像変換パラメータの算出法では、白線の端点P1及びP2(図6参照)を特徴点として捉えるようにしているが、図4の画像処理装置2が画像上で検出可能な第1及び第2のマーカ(不図示)を利用し、各マーカを特徴点として取り扱って画像変換パラメータを導出するようにしてもよい。マーカを利用した方が、より安定して良好な画像変換パラメータを算出できる。エッジ抽出処理などを利用することにより、画像上のマーカを検出することができる。例えば、第1及び第2のマーカを夫々端点P1及びP2と同じ位置に配置しておく(この場合、路面に白線が描かれている必要はない)。その上で、図5を参照して説明した上述の手法と同様の処理を行えば、端点P1及びP2を特徴点として利用する場合と同様の画像変換パラメータが得られる(端点P1及びP2が第1及び第2のマーカに置き換わるだけである)。
<<第2実施例>>
次に、本発明の第2実施例について説明する。図15は、第2実施例に係る視界支援システムの構成ブロック図である。図15の視界支援システムは、カメラ1、画像処理装置2a、表示装置3及び操作部4を備え、画像処理装置2aは、符号11〜15にて参照される各部位を備える。つまり、第2実施例に係る視界支援システムは、第1実施例に係るそれに対して画像変換検証部15を追加した構成を有し、画像変換検証部15が追加されている点を除いて両視界支援システムは同様である。従って、以下、画像変換検証部15の機能のみを説明する。第1実施例に記載した事項は、矛盾なき限り、第2実施例にも適用される。
図16は、第2実施例に係る、画像変換パラメータの導出手順を表すフローチャートである。図16の導出手順はステップS10〜S23の各処理から形成され、ステップS10〜S18の各処理は、図5のそれらと同様である。第2実施例では、ステップS18の処理の後、ステップS19に移行する。
ステップS19では、検証用入力画像を設定する。具体的には、第1校正用画像又は第2校正用画像を検証用入力画像とする。ステップS18の処理後における入力画像を検証用入力画像とすることも可能である。但し、この場合、そのステップS18の処理後における入力画像の撮影時において、第1又は第2校正用画像の撮影時と同様、XC軸と中心線161との距離とXC軸と中心線162との距離が一致し且つ中心線161及び162がXC軸と平行となっているものとする(図6参照)。そして、検証用入力画像には、白線L1及びL2が描画されているものとする。
ステップS19に続くステップS20において、画像変換検証部15(又は画像変換部12)は、検証用入力画像をステップS18で算出した画像変換パラメータに従って画像変換し変換画像を生成する。ここで生成された変換画像を、検証用変換画像と呼ぶ。
検証用変換画像が得られた後、ステップS21に移行する。ステップS21において、画像変換検証部15は、検証用変換画像内から白線L1及びL2を検出する。例えば、検証用変換画像に対してエッジ抽出処理を行った後、そのエッジ抽出結果に対して更にハフ変換などを利用した直線抽出処理を実施し、得られた2つの直線を、検証用変換画像内における白線L1及びL2とする。そして、画像変換検証部15は、その2つの直線(即ち、白線L1及びL2)が検証用変換画像において左右対称となっているか否かを判別する。
図17を参照して、この判別手法を例示する。図17に、検証用変換画像300を示す。検証用変換画像300内において、符号301及び302が付された各直線が、検証用変換画像300内から検出された白線L1及びL2である。尚、図17では、便宜上、検証用変換画像300の外形を長方形とし、白線L1及びL2の全体が検証用変換画像300内に描画されている場合を取り扱っている。
画像変換検証部15は、検証用変換画像の垂直ラインに対する直線301及び302の傾きを検出する。直線301及び302の傾き角度を、夫々θ1及びθ2で表す。直線301上の異なる2点の座標値から傾き角度θ1を算出可能である(傾き角度θ2についても同様)。検証用変換画像の垂直ラインから時計周り方向に見た直線301の傾き角度をθ1とし、検証用変換画像の垂直ラインから反時計周り方向に見た直線302の傾き角度をθ2とする。従って、0°<θ1<90°且つ0°<θ2<90°である。
そして、画像変換検証部15は、θ1とθ2を対比し、θ1とθ2の差が所定の基準角度未満である場合に、検証用変換画像内における白線L1及びL2(即ち、直線301及び302)が左右対称であると判断し、故にステップS18にて算出された画像変換パラメータが正常であると判断する(ステップS22)。この場合、図16における画像変換パラメータの算出は正常に終了し、以後、図13のステップS2〜S4の各処理が実施される。
一方、θ1とθ2の差が上記基準角度以上である場合、検証用変換画像内における白線L1及びL2(即ち、直線301及び302)が左右対称でないと判断し、故にステップS18にて算出された画像変換パラメータが異常であると判断する(ステップS23)。この場合、例えば、算出された画像変換パラメータが不適切であることに対応する報知を表示装置3などを用いてユーザに報知する。
画像変換検証部15を設けることにより、算出した画像変換パラメータが適切であるかを判断でき、その結果をユーザに知らしめることができる。算出した画像変換パラメータが不適切であることを知ったユーザは、適切な画像変換パラメータを得るべく、再度、校正処理を実行するといった対応が可能である。
<<第3実施例>>
次に、本発明の第3実施例について説明する。図18は、第3実施例に係る視界支援システムの構成ブロック図である。図18の視界支援システムは、カメラ1、画像処理装置2b、表示装置3及び操作部4を備え、画像処理装置2bは、符号11、12、14、15、21及び22にて参照される各部位を備える。
レンズ歪み補正部11、画像変換部12、画像変換パラメータ算出部14及び画像変換検証部15の各機能は、第1又は第2実施例で述べたものと同様である。
図19を参照して、本実施例に係る画像変換パラメータの導出手順を説明する。図19は、この導出手順を表すフローチャートである。まず、ステップS30において、車両100周辺の校正環境が以下のように整備される。図20は、整備されるべき校正環境を表す、上方から見た車両100周辺の平面図である。但し、以下の構成環境は理想的なものであり、実際には誤差が含まれることになる。
ステップS30において整備されるべき校正環境は、第1実施例のステップS10におけるそれと類似している。ステップS30では、ステップS10において整備されるべき校正環境を基準として車両100を前進させ、カメラ1の視野内に白線L1及びL2の夫々の両端点が含まれるようにする。それ以外は、ステップS10と同様である。従って、XC軸と中心線161との距離とXC軸と中心線162との距離は一致し且つ中心線161及び162はXC軸と平行となる。
ステップS30にて校正環境が整備されると、車両100から遠い側の白線L1及びL2の各端点はP1及びP2となり、車両100に近い側の白線L1及びL2の各端点はP3及びP4となる。また、ステップS30以降の画像変換パラメータの算出過程において、車両100は静止しているものとする。
ステップS30において上述の如く校正環境が整備された後、ユーザは、画像変換パラメータの導出を指示するための所定の指示操作を操作部4に対して施す。この指示操作が操作部4に対して施されると、操作部4から或いは操作部4に接続された制御部(不図示)から所定の指令信号が画像処理装置2bに送られる。
ステップS31では、この指令信号が画像処理装置2bに入力されたか否かが判断される。この指令信号が画像処理装置2bに入力されていない場合はステップS31の処理が繰り返し実行され、この指令信号が画像処理装置2に入力された場合はステップS32に移行する。
ステップS32では、調整用画像生成部21が、レンズ歪み補正部11によるレンズ歪み補正を介した、現時点のカメラ1の撮影画像に基づく入力画像を読み込む。ここで読み込んだ入力画像を校正用画像と呼ぶ。そして、ステップS33において、調整用画像生成部21は、この校正用画像に2本のガイドラインを重畳した画像を生成する。この画像を、調整用画像と呼ぶ。更に、調整用画像を表す映像信号を表示装置3に出力する。これにより、調整用画像が表示装置3の表示画面上に表示される。その後、ステップS34に移行し、ガイドライン調整処理が行われる。
図21(a)及び(b)に、表示される調整用画像の例を示す。図21(a)における符号400はガイドライン調整前の調整用画像を表し、図21(b)における符号401はガイドライン調整後の調整用画像を表す。図21(a)及び(b)において、符号411及び412が付された斜線領域は調整用画像上の白線L1及びL2の描画領域である。調整用画像上において、白線L1及びL2の全体が描画されている。調整用画像上に描画された符号421及び422が付された各線分は、調整用画像上のガイドラインである。ユーザが、操作部4に対して所定操作を施すことによりガイドライン調整信号が調整用画像生成部21に伝達される。調整用画像生成部21は、そのガイドライン調整信号に従って、ガイドライン421の端点431及び433とガイドライン422の端点432及び434の表示位置を個別に変更する。
上記所定操作に応じたガイドラインの端点の表示位置の変更が、ステップS34にて実行されるガイドライン調整処理である。ガイドライン調整処理は画像処理装置2bに調整終了信号が伝達されるまで実施される(ステップS35)。ユーザは、図21(b)に示す如く、表示画面上においてガイドライン421の端点431及び433の表示位置が白線411の両端点(即ち、表示画面上における白線L1の端点P1及びP3)の表示位置と一致するように且つガイドライン422の端点432及び434の表示位置が白線412の両端点(即ち、表示画面上における白線L2の端点P2及びP4)の表示位置と一致するように、操作部4を操作する。この操作が完了すると、ユーザは操作部4に対して所定の調整終了操作を施し、これによって調整終了信号が画像処理装置2bに伝達されて、ステップS36に移行する。
ステップS36において、特徴点検出部22は、画像処理装置2bに調整終了信号を伝達された時点における端点431〜434の表示位置から、その時点における端点431〜434の、校正用画像上の座標値を特定する。この4つの端点431〜434が校正用画像上の特徴点であり、ステップS36にて特定された、端点431及び432の座標値を夫々(x3,y3)及び(x4,y4)とし、端点433及び434の座標値を夫々(x1,y1)及び(x2,y2)とする。これらの座標値は、特徴点の座標値として画像変換パラメータ算出部14に送られ、ステップS37に移行する。
ステップS37では、画像変換パラメータ算出部14が、校正用画像上の4つの特徴点の座標値(x1,y1)、(x2,y2)、(x3,y3)及び(x4,y4)と、既知情報に基づく座標値(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)と、に基づいて画像変換パラメータを算出する。この算出法及び座標値(X1,Y1)、(X2,Y2)、(X3,Y3)及び(X4,Y4)の定め方は、第1実施例で説明したそれらと同じである(図12等参照)。入力画像を画像変換パラメータに従って画像変換することにより変換画像が得られ、この変換画像から矩形領域を切り出すことによって出力画像が生成されるが、矩形領域の切り出し方も第1実施例と同様とされる。これにより、第1実施例と同様、出力画像において、垂直方向の画像中心線と車両100の車体中心線(図12における線251)とが合致することになる。尚、第1実施例でも述べたが、変換画像をそのまま出力画像として表示装置3に出力することも可能ではある。
ステップS37の後、ステップS19に移行する。ステップS19〜S23の各処理は、第2実施例におけるそれらと同じである。本実施例において、ステップS19にて設定される検出用入力画像は上記の校正用画像となる。また、ステップS37の処理後における入力画像を検証用入力画像とすることも可能である。但し、検証用入力画像は、ステップS30にて整備されるべき校正環境の条件を満たした上で撮影されるものとする。
ステップS19に続くステップS20において、画像変換検証部15(又は画像変換部12)は、検証用入力画像をステップS37で算出した画像変換パラメータに従って画像変換し検証用変換画像を生成する。画像変換検証部15は、検証用変換画像内から白線L1及びL2を検出し、白線L1及びL2が検証用変換画像において左右対称となっているか否かを判別する(ステップS21)。そして、白線L1及びL2の対称性に基づきステップS37にて算出された画像変換パラメータの正常又は異常を判別する。その判別結果は、表示装置3などを用いてユーザに報知される。
図18の視界支援システムの全体の動作手順は、第1実施例において図13を参照して説明したそれと同様である。但し、本実施例では、図13のステップS1の校正処理が、図19のステップS30〜S37及びS19〜S23の各処理にて形成される。
本実施例のように視界支援システムを構成しても、校正処理後の出力画像において、垂直方向の画像中心線と車両100の車体中心線(画像上の車体中心線)とが合致するようになり、「カメラ方向ずれ」や「カメラ位置オフセット」の影響が排除される。その他の点においても、第1及び第2実施例と同様の効果が得られる。
以下に、第3実施例に係る上述の手法の変形手法を幾つか例示する。
図20等を参照して説明した上述の画像変換パラメータの算出法では、白線の端点P1〜P4を特徴点として捉えるようにしているが、図18の画像処理装置2bが画像上で検出可能な第1〜第4のマーカ(不図示)を利用し、各マーカを特徴点として取り扱って画像変換パラメータを導出するようにしてもよい。例えば、第1〜第4のマーカを夫々端点P1〜P4と同じ位置に配置しておく(この場合、路面に白線が描かれている必要はない)。その上で、図19を参照して説明した上述の手法と同様の処理を行えば、端点P1〜P4を特徴点として利用する場合と同様の画像変換パラメータが得られる(端点P1〜P4が第1〜第4のマーカに置き換わるだけである)。
また、図18の特徴点検出部22に白線検出機能を持たせるようにしてもよい。この場合、調整用画像生成部21を省略可能であり、調整用画像生成部21を利用した図19の処理の一部も省略可能である。つまり、この場合、特徴点検出部22に、校正用画像内に存在する白線L1及びL2を検出させ、更に、校正用画像上における白線L1及びL2の夫々の両端点の座標値(合計4つの座標値)を検出させる。そして、検出した各座標値を、特徴点の座標値として画像変換パラメータ算出部14に送れば、ガイドライン調整処理を必要とすることなく、上述のガイドラインを利用する場合と同様の画像変換パラメータが得ることができる。但し、ガイドラインを利用した方が画像変換パラメータの算出精度が安定する。
勿論、ガイドラインを利用しない手法は、上述の第1〜第4のマーカを利用して画像変換パラメータを導出する場合にも適用できる。この場合、特徴点検出部22に、エッジ抽出処理などを用いて校正用画像内に存在する第1〜第4のマーカを検出させ、更に、校正用画像上における各マーカの座標値(合計4つの座標値)を検出させる。そして、検出した各座標値を、特徴点の座標値として画像変換パラメータ算出部14に送れば、上述のガイドラインを利用する場合と同様の画像変換パラメータを得ることができる。尚、周知の如く、特徴点の個数は4以上であればよい。即ち、4以上の任意の個数の特徴点の座標値に基づいて上述のガイドラインを利用する場合と同様の画像変換パラメータを得ることができる。
また、図18の画像変換検証部15を省略し、図19の校正処理からステップS19〜S23の各処理を省略することも可能である。
<<変形等>>
或る実施例に説明した事項は、矛盾なき限り、他の実施例にも適用することができる。この適用の際、適宜、符号の相違(符号2と2aと2bの相違など)はないものとして解釈される。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈4を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
典型的な例として、路面上に白色にて形成された車線(即ち、白線)を利用して画像変換パラメータを導出する手法を上述したが、車線は必ずしも白線に分類されるものである必要はない。即ち、白線の代わりに、白色以外で形成された車線を利用して画像変換パラメータを導出するようにしてもよい。
[注釈2]
第3実施例において、表示画面上の白線の端点の表示位置を指定するための調整用指標としてガイドラインを用いる例を示したが、何らかのユーザ指令によって、表示画面上の白線の端点の表示位置を指定できる限り、任意の形態の調整用指標を用いることができる。
[注釈3]
図4、図15又は図18の画像処理装置2、2a又は2bの機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。画像処理装置2、2a又は2bにて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
[注釈4]
例えば、以下のように考えることができる。上述の各実施例において、運転支援システムは、カメラ1と画像処理装置(2、2a又は2b)を含み、更に表示装置3及び/又は操作部4を含みうる。
本発明の実施形態に係る視界支援システムが適用された車両を上方から見た平面図(a)と車両を側方から見た平面図(b)である。 本発明の実施形態に係る視界支援システムの概略ブロック図である。 車両に対するカメラの取り付け状態例を示す図である。 本発明の第1実施例に係る視界支援システムの構成ブロック図である。 本発明の第1実施例に係る、画像変換パラメータの導出手順を表すフローチャートである。 本発明の第1実施例に係り、整備されるべき校正環境を表す、上方から見た車両周辺の平面図である。 白線の端点の解釈手法に関する変形例を説明するための図である。 図4の端点検出部にて定義される、入力画像内の領域分割状態を示す図である。 本発明の第1実施例に係り、画像変換パラメータの導出の際に用いられる第1及び第2校正用画像を表す図である。 図9の第1及び第2校正用画像上における各端点を、1つの画像面に配置した仮想入力画像(a)と、それに対応する仮想出力画像(b)を表す図である。 入力画像と変形画像と出力画像の対応関係を示す図である。 画像変換パラメータの導出の際に想定される、仮想的な出力画像を示す図である。 図4の視界支援システムの全体の動作手順を表すフローチャートである。 図4の視界支援システムにおける、入力画像、変換画像及び出力画像の例を示す図である。 本発明の第2実施例に係る視界支援システムの構成ブロック図である。 本発明の第2実施例に係る、画像変換パラメータの導出手順を表すフローチャートである。 本発明の第2実施例に係る検証用変換画像を示す図である。 本発明の第3実施例に係る視界支援システムの構成ブロック図である。 本発明の第3実施例に係る、画像変換パラメータの導出手順を表すフローチャートである。 本発明の第3実施例に係り、整備されるべき校正環境を表す、上方から見た車両周辺の平面図である。 本発明の第3実施例に係り、表示装置に表示される調整用画像を示す図である。
符号の説明
1 カメラ
2、2a、2b 画像処理装置
3 表示装置
4 操作部
11 レンズ歪み補正部
12 画像変換部
13 端点検出部
14 画像変換パラメータ算出部
15 画像変換検証部
21 調整用画像生成部
22 特徴点検出部
L1、L2 白線
P1〜P4 端点
100 車両

Claims (5)

  1. 車両に設置され、前記車両の周辺を撮影するカメラを備え、
    所定のパラメータ導出指示を受けて、2つの特徴点を含む、第1及び第2地点での前記カメラの撮影画像を夫々第1及び第2校正用画像として取得する運転支援システムであって、
    実空間において前記2つの特徴点は前記車両の進行方向における車体中心線に対して対称位置に配置され、前記第1及び第2地点は前記車両の移動によって互いに異なり、
    当該運転支援システムは、
    前記第1及び第2校正用画像に含まれる合計4つの特徴点の画像上の位置を検出する特徴点位置検出手段と、
    前記4つの特徴点の各位置に基づいて画像変換パラメータを導出する画像変換パラメータ導出手段と、
    前記カメラの各撮影画像を前記画像変換パラメータに従って画像変換して出力画像を生成し、該出力画像を表す映像信号を表示装置に出力する画像変換手段と、を備えた
    ことを特徴とする運転支援システム。
  2. 前記画像変換パラメータ導出手段は、前記出力画像において前記車体中心線と画像中心線とが一致するように、前記画像変換パラメータを導出する
    ことを特徴とする請求項1に記載の運転支援システム。
  3. 前記パラメータ導出指示を受けた後、前記カメラに第1及び第2校正用画像の候補としての候補画像を撮影させて各候補画像内に互いに異なる第1及び第2領域を定義し、前記第1領域から前記2つの特徴点が抽出された前記候補画像を前記第1校正用画像として取り扱う一方、前記第2領域から前記2つの特徴点が抽出された前記候補画像を前記第2校正用画像として取り扱う
    ことを特徴とする請求項1または請求項2に記載の運転支援システム。
  4. 前記第1及び第2校正用画像間において共通の第1及び第2車線が、互いに平行に前記車両が配置された路面上に形成されており、各特徴点は各車線の端点であり、
    前記特徴点位置検出手段は、第1及び第2校正用画像の夫々における前記第1車線の一端点と第1及び第2校正用画像の夫々における前記第2車線の一端点を検出することにより、合計4つの特徴点の位置を検出する
    ことを特徴とする請求項1〜請求項3の何れかに記載の運転支援システム。
  5. 前記第1若しくは第2校正用画像又は前記画像変換パラメータが導出された後の前記カメラの撮影画像を検証用入力画像とし、前記検証用入力画像から前記画像変換パラメータの正常又は異常を判別する検証手段を更に備え、
    前記検証用入力画像には前記第1及び第2車線が描画され、
    前記検証手段は、前記検証用入力画像を前記画像変換パラメータに従って画像変換することにより得られた検証用変換画像から前記第1及び第2車線を抽出し、前記検証用変換画像上における前記第1及び第2車線間の対称性に基づいて前記画像変換パラメータの正常又は異常を判別する
    ことを特徴とする請求項4に記載の運転支援システム。
JP2007109206A 2007-04-18 2007-04-18 運転支援システム並びに車両 Expired - Fee Related JP4863922B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007109206A JP4863922B2 (ja) 2007-04-18 2007-04-18 運転支援システム並びに車両
US12/104,999 US20080309763A1 (en) 2007-04-18 2008-04-17 Driving Support System And Vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007109206A JP4863922B2 (ja) 2007-04-18 2007-04-18 運転支援システム並びに車両

Publications (2)

Publication Number Publication Date
JP2008269139A JP2008269139A (ja) 2008-11-06
JP4863922B2 true JP4863922B2 (ja) 2012-01-25

Family

ID=40048580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007109206A Expired - Fee Related JP4863922B2 (ja) 2007-04-18 2007-04-18 運転支援システム並びに車両

Country Status (2)

Country Link
US (1) US20080309763A1 (ja)
JP (1) JP4863922B2 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4450036B2 (ja) * 2007-09-10 2010-04-14 トヨタ自動車株式会社 複合画像生成装置、及びプログラム
JP5201356B2 (ja) * 2009-02-16 2013-06-05 株式会社リコー 車載カメラ装置のキャリブレーション支援方法及びキャリブレーション支援装置、並びに車載カメラ装置
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5316805B2 (ja) * 2009-03-16 2013-10-16 株式会社リコー 車載カメラ装置の画像調整装置及び車載カメラ装置
JP4831374B2 (ja) * 2009-03-27 2011-12-07 アイシン・エィ・ダブリュ株式会社 運転支援装置、運転支援方法、及び運転支援プログラム
KR101023275B1 (ko) 2009-04-06 2011-03-18 삼성전기주식회사 차량용 카메라 시스템의 캘리브레이션 방법 및 장치, 차량용 카메라 시스템의 각도상 오정렬을 판단하는 방법 및 이를 수행하는 전자 제어 유닛
JP4737317B2 (ja) 2009-04-14 2011-07-27 株式会社デンソー 車両周辺撮影表示システム
JP5464324B2 (ja) * 2009-06-26 2014-04-09 京セラ株式会社 駐車時における運転支援装置及び方法
JP5223811B2 (ja) * 2009-08-06 2013-06-26 株式会社日本自動車部品総合研究所 画像補正装置、画像補正方法、及びそれらに用いられる変換マップ作成方法
JP5341789B2 (ja) * 2010-01-22 2013-11-13 富士通テン株式会社 パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
JP5491235B2 (ja) * 2010-03-02 2014-05-14 東芝アルパイン・オートモティブテクノロジー株式会社 カメラキャリブレーション装置
JP5481337B2 (ja) * 2010-09-24 2014-04-23 株式会社東芝 画像処理装置
JP5717405B2 (ja) * 2010-11-12 2015-05-13 富士通テン株式会社 検知装置、及び、検知方法
JP5877376B2 (ja) * 2011-06-02 2016-03-08 パナソニックIpマネジメント株式会社 物体検出装置、物体検出方法および物体検出プログラム
JP6093517B2 (ja) * 2012-07-10 2017-03-08 三菱重工メカトロシステムズ株式会社 撮像装置の調整方法、撮像装置、及びプログラム
JP5952138B2 (ja) * 2012-08-29 2016-07-13 京セラ株式会社 撮像装置および領域決定方法
CN102923053B (zh) * 2012-10-10 2015-05-20 广东丰诺汽车安全科技有限公司 一种倒车引导***及其调整控制方法
JP5958366B2 (ja) * 2013-01-29 2016-07-27 株式会社日本自動車部品総合研究所 車載画像処理装置
KR101906951B1 (ko) * 2013-12-11 2018-10-11 한화지상방산 주식회사 차선 검출 시스템 및 차선 검출 방법
DE102014212819A1 (de) * 2014-07-02 2016-01-07 Zf Friedrichshafen Ag Ortspositionsabhängige Darstellung von Fahrzeugumfelddaten auf einer mobilen Einheit
KR102227855B1 (ko) * 2015-01-22 2021-03-15 현대모비스 주식회사 주차 가이드 시스템 및 그 제어방법
KR102066334B1 (ko) * 2015-04-07 2020-01-14 닛산 지도우샤 가부시키가이샤 주차 지원 시스템 및 주차 지원 장치
WO2017014012A1 (ja) * 2015-07-22 2017-01-26 本田技研工業株式会社 経路生成装置、経路生成方法、および経路生成プログラム
CN105564335B (zh) * 2016-01-29 2017-12-05 深圳市美好幸福生活安全***有限公司 车辆摄像头的矫正方法及装置
JP6541590B2 (ja) * 2016-02-03 2019-07-10 クラリオン株式会社 カメラキャリブレーション装置
JP6778620B2 (ja) * 2017-01-17 2020-11-04 株式会社デンソーテン 区画線検出装置、区画線検出システム、及び区画線検出方法
WO2019034916A1 (en) * 2017-08-17 2019-02-21 Harman International Industries, Incorporated SYSTEM AND METHOD FOR PRESENTING AND CONTROLLING VIRTUAL CAMERA IMAGE FOR A VEHICLE
JP6980346B2 (ja) * 2017-11-27 2021-12-15 アルパイン株式会社 表示制御装置および表示制御方法
JP6950538B2 (ja) * 2018-01-11 2021-10-13 トヨタ自動車株式会社 車両撮影支援装置及びプログラム
JP6895403B2 (ja) * 2018-03-20 2021-06-30 株式会社東芝 画像処理装置、運転支援システム、及び画像処理方法
CN110570475A (zh) * 2018-06-05 2019-12-13 上海商汤智能科技有限公司 车载摄像头自标定方法及装置和车辆驾驶方法及装置
JP6956051B2 (ja) * 2018-09-03 2021-10-27 株式会社東芝 画像処理装置、運転支援システム、画像処理方法及びプログラム
DE112019005747T5 (de) * 2018-11-15 2021-08-19 Panasonic Intellectual Property Management Co., Ltd. Kamerasystem und Fahrzeug
GB2579843A (en) * 2018-12-18 2020-07-08 Continental Automotive Gmbh Method and apparatus for calibrating the extrinsic parameter of an image sensor
JP7191671B2 (ja) * 2018-12-19 2022-12-19 フォルシアクラリオン・エレクトロニクス株式会社 キャリブレーション装置、キャリブレーション方法
CN111316337A (zh) * 2018-12-26 2020-06-19 深圳市大疆创新科技有限公司 车载成像装置的安装参数的确定与驾驶控制方法及设备
CN111791801B (zh) * 2019-04-04 2023-09-26 中科创达(重庆)汽车科技有限公司 实时校准动态倒车辅助线显示位置的方法、装置及电子设备
JP2023148817A (ja) * 2022-03-30 2023-10-13 パナソニックIpマネジメント株式会社 駐車支援システムおよび駐車支援方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3600378B2 (ja) * 1996-07-24 2004-12-15 本田技研工業株式会社 車両の外界認識装置
JP2002135765A (ja) * 1998-07-31 2002-05-10 Matsushita Electric Ind Co Ltd カメラキャリブレーション指示装置及びカメラキャリブレーション装置
DE60139236D1 (de) * 2000-05-12 2009-08-27 Toyota Jidoshokki Kariya Kk Hilfe beim rückwärtsfahren einen fahrzeugs
JP2002074368A (ja) * 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd 移動物体認識追跡装置
JP2003104145A (ja) * 2001-09-28 2003-04-09 Matsushita Electric Ind Co Ltd 運転支援表示装置
JP2003259357A (ja) * 2002-03-05 2003-09-12 Mitsubishi Electric Corp カメラのキャリブレーション方法及びカメラのアタッチメント
JP4604703B2 (ja) * 2004-12-21 2011-01-05 アイシン精機株式会社 駐車補助装置
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
JP4863791B2 (ja) * 2006-07-05 2012-01-25 アルパイン株式会社 車両周辺画像生成装置および画像切替方法
JP5003946B2 (ja) * 2007-05-30 2012-08-22 アイシン精機株式会社 駐車支援装置

Also Published As

Publication number Publication date
JP2008269139A (ja) 2008-11-06
US20080309763A1 (en) 2008-12-18

Similar Documents

Publication Publication Date Title
JP4863922B2 (ja) 運転支援システム並びに車両
JP4874280B2 (ja) 画像処理装置及び方法、運転支援システム、車両
JP5222597B2 (ja) 画像処理装置及び方法、運転支援システム、車両
JP4832321B2 (ja) カメラ姿勢推定装置、車両、およびカメラ姿勢推定方法
JP5108605B2 (ja) 運転支援システム及び車両
JP2009017462A (ja) 運転支援システム及び車両
JP2010246088A (ja) 車載カメラ装置の画像調整装置及び方法、並びに車載カメラ装置
EP2061234A1 (en) Imaging apparatus
JP2011182236A (ja) カメラキャリブレーション装置
KR101896715B1 (ko) 주변차량 위치 추적 장치 및 방법
JP2008187564A (ja) カメラ校正装置及び方法並びに車両
JP2009060499A (ja) 運転支援システム及び連結車両
WO2011090163A1 (ja) パラメータ決定装置、パラメータ決定システム、パラメータ決定方法、及び記録媒体
JP6177006B2 (ja) カメラ較正装置、およびカメラ較正方法
JP5875232B2 (ja) 物体検出装置、および、物体検出方法
JP2008181330A (ja) 画像処理装置及び画像処理方法
JP5178454B2 (ja) 車両周囲監視装置及び車両周囲監視方法
JP2008085710A (ja) 運転支援システム
KR101705558B1 (ko) Avm 시스템의 공차 보정 장치 및 방법
JP6956051B2 (ja) 画像処理装置、運転支援システム、画像処理方法及びプログラム
JP2008145364A (ja) 経路案内装置
JP4581512B2 (ja) 3次元画像処理装置、光軸調整方法、光軸調整支援方法
JP2009123131A (ja) 撮像装置
JP2009100261A (ja) 車両周囲画像提供装置及び広角画像の補正方法
JP2013062692A (ja) 車載カメラの較正装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111011

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees