JP2009017462A - 運転支援システム及び車両 - Google Patents

運転支援システム及び車両 Download PDF

Info

Publication number
JP2009017462A
JP2009017462A JP2007179743A JP2007179743A JP2009017462A JP 2009017462 A JP2009017462 A JP 2009017462A JP 2007179743 A JP2007179743 A JP 2007179743A JP 2007179743 A JP2007179743 A JP 2007179743A JP 2009017462 A JP2009017462 A JP 2009017462A
Authority
JP
Japan
Prior art keywords
bird
eye view
image
coordinates
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007179743A
Other languages
English (en)
Inventor
Nagateru Yo
長輝 楊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007179743A priority Critical patent/JP2009017462A/ja
Priority to US12/168,470 priority patent/US20090015675A1/en
Priority to EP08012316A priority patent/EP2015253A1/en
Publication of JP2009017462A publication Critical patent/JP2009017462A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30264Parking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】車速センサ及び舵角センサを必要とすることなく車両速度及び回転角を推定する。
【解決手段】車両に設置されたカメラのカメラ画像から特徴点を抽出し、該特徴点の追跡処理を行うことによって、時系列で並ぶカメラ画像間における前記特徴点の移動ベクトルを導出する。移動ベクトルを鳥瞰図座標上にマッピングし、鳥瞰図座標上における移動ベクトル(351,352)に基づいて車両の移動における回転角(Φ)を推定すると共に車両速度(ΦとRに比例)を推定する。そして、推定された回転角及び車両速度に基づいて車両の予想通過エリアに応じたガイドラインを作成し、鳥瞰図画像にガイドラインを重畳して表示する。
【選択図】図14

Description

本発明は、運転支援システムに関する。特に、移動体に取り付けられたカメラの撮影画像から移動体の移動速度及び回転角を推定する技術に関する。また本発明は、その運転支援システムを利用した車両に関する。
車両に設置されたカメラの撮影画像に車両の進行方向に対応するガイドラインを重畳して表示することにより、駐車等の運転操作を支援するシステムが提案されている。このようなシステムは、例えば、下記特許文献1に開示されている。ガイドラインを推定するためには車両速度及び車両の回転角情報が必要となるが、特許文献1の手法では、車両速度及び回転角情報を車速センサ及び舵角センサ等の特殊な測定装置から得なければならないため、システムの構築が煩雑となり実用性に欠ける。
尚、下記特許文献2には、2つの鳥瞰図画像間の差分画像に基づいて障害物領域を推定する手法が提案されている。
特許第3833241号公報 特開2006−268076号公報
そこで本発明は、システム構築の容易化に寄与する運転支援システムを提供することを目的とする。また、本発明は、それを利用した車両を提供することを目的とする。
本発明に係る運転支援システムは、移動体に取り付けられて前記移動体の周辺を撮影するカメラを備え、前記カメラから時系列で並ぶ複数のカメラ画像を取得して、前記カメラ画像から生成した表示用画像を表示装置に出力する運転支援システムにおいて、前記複数のカメラ画像の内の基準カメラ画像から特徴点を抽出するとともに各カメラ画像における前記特徴点の位置を追跡処理によって検出することにより、異なるカメラ画像間における前記特徴点の移動ベクトルを導出する移動ベクトル導出手段と、前記移動ベクトルに基づいて、前記移動体の移動速度と前記移動体の移動における回転角とを推定する推定手段と、を備え、前記カメラ画像と推定された前記移動速度及び回転角とに基づいて、前記表示用画像を生成することを特徴とする。
これにより、特殊な測定装置を必要とすることなく移動速度や回転角を推定することができるため、システムの構築が容易となる。
具体的には例えば、当該運転支援システムは、前記カメラ画像の座標上における前記特徴点及び前記移動ベクトルを座標変換によって所定の鳥瞰図座標上にマッピングするマッピング手段を更に備え、前記推定手段は、前記鳥瞰図座標上の前記特徴点の位置に従って配置された、前記鳥瞰図座標上の前記移動ベクトルに基づいて、前記移動速度と前記回転角を推定する。
より具体的には例えば、前記複数のカメラ画像は、順次訪れる第1、第2及び第3の時刻で取得される第1、第2及び第3のカメラ画像を含み、前記マッピング手段は、第1〜第3のカメラ画像の夫々における前記特徴点、並びに、第1及び第2のカメラ画像間における前記特徴点の移動ベクトル及び第2及び第3のカメラ画像間における前記特徴点の移動ベクトルを、前記鳥瞰図座標上にマッピングし、前記鳥瞰図座標上の、第1及び第2のカメラ画像間における前記特徴点の移動ベクトル及び第2及び第3のカメラ画像間における前記特徴点の移動ベクトルを、夫々、第1鳥瞰移動ベクトル及び第2鳥瞰移動ベクトルと呼んだ場合、前記マッピング手段によって、前記鳥瞰図座標上の前記第1の時刻における前記特徴点の位置に、第1鳥瞰移動ベクトルの始点が配置され、且つ、前記鳥瞰図座標上の前記第2の時刻における前記特徴点の位置に、第1鳥瞰移動ベクトルの終点及び第2鳥瞰移動ベクトルの始点が配置され、且つ、前記鳥瞰図座標上の前記第3の時刻における前記特徴点の位置に、第2鳥瞰移動ベクトルの終点が配置され、前記推定手段は、第1及び第2鳥瞰移動ベクトルと、前記鳥瞰図座標上における前記移動体の位置と、に基づいて、前記移動速度と前記回転角を推定する。
そして例えば、当該運転支援システムは、各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段と、推定された前記移動速度及び前記回転角と前記鳥瞰図座標上における前記移動体の位置に基づいて前記鳥瞰図座標上における前記移動体の予想通過エリアを推定する通過エリア推定手段と、を更に備え、前記予想通過エリアに応じた指標を前記鳥瞰図画像に重畳することによって前記表示用画像を生成する。
また例えば、当該運転支援システムは、各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段と、互いに異なる時刻で取得された2つのカメラ画像に基づく2つの鳥瞰図画像を画像マッチングによって位置合わせしてから両鳥瞰図画像間の差分をとることにより、高さのある立体物領域の、前記鳥瞰図座標上における位置を推定する立体物領域推定手段と、を更に備えている。
或いは例えば、当該運転支援システムは、各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段を更に備え、互いに異なる第1及び第2の時刻で取得された2つのカメラ画像に基づく2つの鳥瞰図画像を、第1及び第2の鳥瞰図画像と呼んだ場合、当該運転支援システムは、更に、座標変換手段を含む立体物領域推定手段を更に備え、前記座標変換手段は、推定された前記移動速度に基づく前記第1及び第2の時刻間における前記移動体の移動距離と、推定された第1及び第2の時刻に対応する前記回転角と、に基づいて、2つの鳥瞰図画像上の特徴点が重なるように第1及び第2の鳥瞰図画像の内の一方の座標を変換し、前記立体物領域推定手段は、座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分に基づいて、高さのある立体物領域の、前記鳥瞰図座標上における位置を推定する。
そして例えば、当該運転支援システムは、推定された前記移動速度及び前記回転角と前記鳥瞰図座標上における前記移動体の位置に基づいて前記鳥瞰図座標上における前記移動体の予想通過エリアを推定する通過エリア推定手段と、前記予想通過エリアと前記立体物領域とが重なるか否かを判断する立体物監視手段と、を更に備えている。
これにより、移動体と立体物との衝突危険性を監視することができる。
更に例えば、前記立体物監視手段は、前記予想通過エリアと前記立体物領域が重なると判断したとき、前記立体物領域の前記位置と前記移動体の前記位置と前記移動速度に基づいて、前記移動体と前記立体物領域に対応する立体物が衝突するまでの時間長さを推定するとよい。
また、本発明に係る車両には、上記の何れかに記載の運転支援システムが設置されている。
本発明によれば、システム構築の容易化に寄与する運転支援システムを提供することができる。
本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。
以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第4実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。
図1に、本発明の実施形態に係る運転支援システム(視界支援システム)の構成ブロック図を示す。図1の運転支援システムは、カメラ1と、画像処理装置2と、表示装置3と、を備える。カメラ1は、撮影を行い、撮影によって得られた画像(以下、撮影画像とも言う)を表す信号を画像処理装置2に出力する。画像処理装置2は、撮影画像を座標変換することによって鳥瞰図画像を生成し、更に鳥瞰図画像から表示用画像を生成する。但し、鳥瞰図画像の基となる撮影画像に対してレンズ歪み補正を施し、そのレンズ歪み補正後の撮影画像を鳥瞰図画像に変換するものとする。画像処理装置2は、生成した表示用画像を表す映像信号を表示装置3に出力し、表示装置3は、与えられた映像信号に従って表示用画像を映像として表示する。
以下、単に、撮影画像といった場合、それは、レンズ歪み補正後の撮影画像を意味するものとする。但し、レンズ歪み補正が不要な場合もある。また、撮影画像から鳥瞰図画像を生成するための座標変換を「鳥瞰変換」と呼ぶ。鳥瞰変換の手法については後述する。
図2は、図1の運転支援システムが適用される車両100の外観側面図である。図2に示すように、車両100の後部に後方斜め下向きにカメラ1が配置される。車両100は、例えばトラックである。水平面とカメラ1の光軸とのなす角は、図2にθで表される角度と、θ2で表される角度との2種類がある。角度θ2は、一般的には、見下ろし角または俯角と呼ばれている。今、角度θを、水平面に対するカメラ1の傾き角度として捉える。90°<θ<180°且つθ+θ2=180°、が成立する。
カメラ1は、車両100の周辺を撮影する。特に、車両100の後方側に視野を有するようにカメラ1は車両100に設置される。カメラ1の視野には、車両100の後方側に位置する路面が含まれる。尚、以下の説明において、地面は水平面上にあるものとし、「高さ」は、地面を基準とした高さを表すものとする。また、本実施形態において、地面と路面は同義である。
カメラ1として、例えばCCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。画像処理装置2は、例えば集積回路から形成される。表示装置3は、液晶ディスプレイパネル等から形成される。カーナビゲーションシステムなどに含まれる表示装置を、運転支援システムにおける表示装置3として流用しても良い。また、画像処理装置2は、カーナビゲーションシステムの一部として組み込まれうる。画像処理装置2及び表示装置3は、例えば、車両100の運転席付近に設置される。
[鳥瞰図画像の生成方法]
画像処理装置2は、カメラ1の撮影画像を鳥瞰変換によって鳥瞰図画像に変換する。この鳥瞰変換の手法について説明する。以下に示す、鳥瞰図画像を生成するための座標変換は、一般に透視投影変換と呼ばれる。
図3は、カメラ座標系XYZと、カメラ1の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。カメラ座標系XYZは、X軸、Y軸及びZ軸を座標軸とする三次元の座標系である。撮像面Sの座標系Xbubuは、Xbu軸及びYbu軸を座標軸とする二次元の座標系である。2次元地面座標系Xw wは、Xw軸及びZw軸を座標軸とする二次元の座標系である。世界座標系Xw wwは、Xw軸、Yw軸及びZw軸を座標軸とする三次元の座標系である。
以下、カメラ座標系XYZ、撮像面Sの座標系Xbubu、2次元地面座標系Xw w 及び世界座標系Xw w w を、夫々、単にカメラ座標系、撮像面Sの座標系、2次元地面座標系及び世界座標系と略記することがある。
カメラ座標系XYZでは、カメラ1の光学中心を原点Oとして、光軸方向にZ軸がとられ、Z軸に直交しかつ地面に平行な方向にX軸がとられ、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸がとられ、撮像面Sの縦方向にYbu軸がとられている。
世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸がとられ、カメラ座標系XYZのX軸と平行な方向にXw 軸がとられ、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。
w 軸とX軸との間の平行移動量はhであり、その平行移動の方向は鉛直線方向である。Zw 軸とZ軸との成す鈍角の角度は、傾き角度θと一致する。h及びθの値は予め設定され、画像処理装置2に与えられる。
カメラ座標系XYZにおける座標を(x,y,z)と表記する。x、y及びzは、夫々、カメラ座標系XYZにおける、X軸成分、Y軸成分及びZ軸成分である。
世界座標系系Xw w wにおける座標を(xw ,yw ,zw )と表記する。xw 、yw 及びzwは、夫々、世界座標系系Xw w wにおける、Xw軸成分、Yw軸成分及びZw軸成分である。
二次元地面座標系Xw w における座標を(xw ,zw )と表記する。xw及びzwは、夫々、二次元地面座標系Xw wにおける、XW軸成分及びZW軸成分であり、それらは世界座標系系Xw w wにおけるXW軸成分及びZW軸成分と一致する。
撮像面Sの座標系Xbubuにおける座標を(xbu,ybu)と表記する。xbu及びybuは、夫々、撮像面Sの座標系Xbubuにおける、Xbu軸成分及びYbu軸成分である。
カメラ座標系XYZの座標(x,y,z)と世界座標系Xw w w の座標(xw ,yw ,zw )との間の変換式は、次式(1)で表される。
Figure 2009017462
ここで、カメラ1の焦点距離をfとする。そうすると、撮像面Sの座標系Xbubuの座標(xbu,ybu)と、カメラ座標系XYZの座標(x,y,z)との間の変換式は、次式(2)で表される。
Figure 2009017462
上記式(1)及び(2)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)と二次元地面座標系Xw w の座標(xw ,zw )との間の変換式(3)が得られる。
Figure 2009017462
また、図3には示されていないが、鳥瞰図画像についての座標系である鳥瞰図座標系Xauauを定義する。鳥瞰図座標系Xauauは、Xau軸及びYau軸を座標軸とする二次元の座標系である。鳥瞰図座標系Xauauにおける座標を(xau,yau)と表記する。鳥瞰図画像は、二次元配列された複数の画素の画素信号によって表され、鳥瞰図画像上における各画素の位置は座標(xau,yau)によって表される。xau及びyauは、それぞれ鳥瞰図座標系XauauにおけるXau軸成分及びYau軸成分である。
鳥瞰図画像は、実際のカメラ1の撮影画像を仮想カメラの視点(以下、仮想視点という)から見た画像に変換したものである。より具体的には、鳥瞰図画像は、実際のカメラ1の撮影画像を、地上面を鉛直方向に見下ろした画像に変換したものである。この種の画像変換は、一般に、視点変換とも呼ばれる。
地面と一致する、二次元地面座標系Xw w が定義される平面は、鳥瞰図座標系Xauauが定義される平面と平行である。従って、二次元地面座標系Xw w から仮想カメラの鳥瞰図座標系Xauauへの投影は、平行投影によって行われる。仮想カメラの高さ(即ち、仮想視点の高さ)をHとすると、二次元地面座標系Xw w の座標(xw ,zw )と鳥瞰図座標系Xauauの座標(xau,yau)との間の変換式は、次式(4)で表される。仮想カメラの高さHは予め設定されている。更に、式(4)を変形することにより、下式(5)が得られる。
Figure 2009017462
Figure 2009017462
得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。
Figure 2009017462
上記式(6)から、撮像面Sの座標系Xbubuの座標(xbu,ybu)を、鳥瞰図座標系Xauauの座標(xau,yau)に変換するための次式(7)が得られる。
Figure 2009017462
撮像面Sの座標系Xbubuの座標(xbu,ybu)は、撮影画像における座標を表すため、上記式(7)を用いることによって撮影画像を鳥瞰図画像に変換することができる。
即ち、式(7)に従って、撮影画像の各画素の座標(xbu,ybu)を鳥瞰図座標系の座標(xau,yau)に変換することにより、鳥瞰図画像を生成することができる。鳥瞰図画像は、鳥瞰図座標系に配列された各画素から形成される。
実際には、式(7)に従って、撮影画像上の各画素の座標(xbu,ybu)と鳥瞰図画像上の各画素の座標(xau,yau)との対応関係を示すテーブルデータを作成しておき、これを図示されないメモリ(ルックアップテーブル)に予め格納しておく。そして、このテーブルデータを用いて撮影画像を鳥瞰図画像に変換するようにする。勿論、撮影画像が得られる度に式(7)に基づく座標変換演算を行って鳥瞰図画像を生成するようにしても構わない。
以下に、図1の運転支援システムの動作内容を更に詳細に説明する実施例として、第1〜第4実施例を説明する。或る実施例に記載した事項は、矛盾なき限り、他の実施例にも適用される。
<<第1実施例>>
まず、第1実施例について説明する。図1の画像処理装置2は、カメラ1から所定の周期にて撮影画像を取り込み、順次得られる撮影画像から表示用画像を順次生成して、最新の表示用画像を表示装置3に対して出力する。これにより、表示装置3には、最新の表示用画像が更新表示される。
図4を参照して、1つの表示用画像を生成するための動作の流れを説明する。図4は、この動作の流れを表すフローチャートである。図4に示すステップS11〜S17の各処理は、図1の画像処理装置2にて実行される。
本発明に係る特徴的な表示用画像を生成するためには、異なる時刻で撮影された複数の撮影画像が必要である。そこで、画像処理装置2は、異なる時刻に撮影された複数の撮影画像を取り込み、この複数の撮影画像を後段の処理にて参照する(ステップS11)。今、取り込んだ複数の撮影画像が、時刻t1に撮影された撮影画像(以下、単に、時刻t1の撮影画像ともいう)と、時刻t2に撮影された撮影画像(以下、単に、時刻t2の撮影画像ともいう)と、時刻t3に撮影された撮影画像(以下、単に、時刻t3の撮影画像ともいう)と、を含むものとする。時刻t1の後に時刻t2が訪れ、時刻t2の後に時刻t3が訪れるものとし、時刻t1と時刻t2との間の時間間隔及び時刻t2と時刻t3との間の時間間隔を、Δtにて表す(Δt>0)。
続くステップS12において、時刻t1の撮影画像から特徴点が抽出される。特徴点とは、周囲の点と区別できる、追跡の容易な点のことである。このような特徴点は、水平及び垂直方向における濃淡変化量が大きくなる画素を検出する、周知の特徴点抽出器(不図示)を用いて自動的に抽出することができる。特徴点抽出器とは、例えば、Harrisのコーナ検出器、SUSANのコーナ検出器である。抽出されるべき特徴点は、例えば、路面上に描かれた白線の交点又は端点や、路面上の汚れ又は亀裂などであり、路面上の高さのない不動点を想定している。
今、説明の具体化のため、車両100後方の路面上に長方形形状の図形が描かれており、その長方形の4頂点を4つの特徴点として取り扱う場合を想定する。そして、時刻t1の撮影画像から該4つの特徴点を抽出した場合を例にとる。4つの特徴点は、第1、第2、第3及び第4の特徴点から成るものとする。また、上記の長方形形状の図形は、駐車場における長方形形状の駐車枠であるとする。
本実施例では、車両100が真っ直ぐに後退していた場合を考える。図5(a)、(b)及び(c)の画像210、220及び230は、夫々、車両100が真っ直ぐに後退していた場合における、時刻t1、t2及びt3の撮影画像を表す。そして、図5(a)において、符号211〜214が付された4つの点は、画像210から抽出された4つの特徴点であり、点211、212、213及び214が、夫々、第1、第2、第3及び第4の特徴点に対応するとする。
尚、撮影画像、鳥瞰図画像及び表示用画像を表す各図面において、画像の下方向は、車両100が位置する方向に合致するものとする。また、車両100が真っ直ぐに前進又は後退している時における車両100の進行方向は、撮影画像、鳥瞰図画像及び表示用画像における垂直方向(上下方向)に合致するものとする。尚、鳥瞰図画像及び表示用画像において、垂直方向はZw軸に平行なYau軸の方向に合致する(図3参照)。
ステップS12に続くステップS13では、特徴点の追跡処理がなされる。特徴点の追跡処理として公知の手法を採用することができる。或る時刻に撮影された撮影画像を第1参照画像とし且つその時刻よりも後の時刻に撮影された撮影画像を第2参照画像とした場合、追跡処理は、第1及び第2参照画像を対比することによって行われる。より具体的には例えば、第1参照画像における特徴点の位置の近傍領域を特徴点探索領域とし、第2参照画像の特徴点探索領域内で画像マッチング処理を行うことにより第2参照画像の特徴点の位置を特定する。画像マッチング処理では、例えば、第1参照画像における特徴点の位置を中心とした矩形領域内の画像でテンプレートを形成し、そのテンプレートと第2参照画像の特徴点探索領域内の画像との類似度を計算する。計算された類似度から、第2参照画像の特徴点の位置が特定される。
時刻t1及びt2の撮影画像を夫々第1及び第2参照画像として取り扱って追跡処理を行えば、時刻t2の撮影画像における特徴点の位置が求まり、その後、時刻t2及びt3の撮影画像を夫々第1及び第2参照画像として取り扱って追跡処理を行えば、時刻t3の撮影画像における特徴点の位置が求まる。
このような追跡処理によって特定された、画像220上の第1〜第4の特徴点を、図5(b)では、夫々、点221、222、223及び224によって表し、画像230上の第1〜第4の特徴点を、図5(c)では、夫々、点231、232、233及び234によって表す。
ステップS13では、更に、時刻t1とt2の撮影画像間における各特徴点の移動ベクトル及び時刻t2とt3の撮影画像間における各特徴点の移動ベクトルを求める。2つの画像間における着目した特徴点の移動ベクトルは、その2つの画像間における該特徴点の移動の向き及び大きさを表す。
図6に、画像210と画像220間における第1〜第4の特徴点の移動ベクトルを、4つの矢印付き直線にて示す。カメラ1で車両100の後退中に駐車枠を撮影した場合、図6に示す如く、路面上で静止した各特徴点の移動ベクトルは互いに異なってくる。そこで、本実施例では、ステップS13に続くステップS14において、特徴点と特徴点の移動ベクトルを鳥瞰図座標上へマッピングする(投影する)。
撮影画像上の着目点の座標値を(xbu,ybu)で表し且つ該着目点の鳥瞰図座標上の座標値を(xau,yau)で表した場合、両座標値の関係は、上記の式(7)によって表される。従って、ステップS14では、時刻t1〜t3における各撮影画像の第1〜第4の特徴点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に変換するとともに、ステップS13にて求められた各移動ベクトルの終点及び始点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に座標変換することにより鳥瞰図座標上の各移動ベクトルを求める。尚、鳥瞰図座標上における各特徴点の座標値は、鳥瞰図座標上における各移動ベクトルの始点及び終点の座標値を表しているため、前者が求まれば自動的に後者も求まる或いは後者が求まれば自動的に前者も求まる、とも言える。
また、ステップS14では、ステップS11にて取り込んだ各撮影画像を、上記式(7)に従って鳥瞰図画像に変換する。時刻t1、t2及びt3の撮影画像に基づく鳥瞰図画像を、夫々、時刻t1、t2及びt3の鳥瞰図画像と呼ぶ。図7(a)、(b)及び(c)の画像210a、220a及び230aは、夫々、図5(a)、(b)及び(c)の画像210、220及び230に基づく、時刻t1、t2及びt3の鳥瞰図画像を表す。また、図8に、画像210aと画像220a間における第1〜第4の特徴点の移動ベクトル251〜254を示す。図8にも示すように、鳥瞰図画像上では、4つの特徴点の動きが一致する。尚、移動ベクトル251の始点及び終点の位置は、夫々、画像210a上における第1の特徴点の位置及び画像220a上における第1の特徴点の位置と合致する(移動ベクトル252〜254についても同様)。
この後、ステップS15において、ステップS14で求められた鳥瞰図座標上の特徴点と移動ベクトルから、車両100の移動速度と車両100の移動における回転角を推定する。以下、車両100の移動速度を、車両速度と呼ぶ。上記の回転角は、車両100の操舵角に対応する。
本実施例では、車両100が真っ直ぐ後退しているため、求められるべき回転角は0°である。具体的には、時刻t1及びt2の鳥瞰図画像間における第1の特徴点の移動ベクトルと、時刻t2及びt3の鳥瞰図画像間における第1の特徴点の移動ベクトルと、を対比し、両ベクトルの向きが同じである場合、回転角は0°であると推定する。或いは、図7の移動ベクトル251〜254の何れか、又は、移動ベクトル251〜254の平均ベクトルが、鳥瞰図画像の垂直方向を向いている場合に、回転角が0°であると推定するようにしてもよい。
車両速度の推定には、鳥瞰図座標が二次元地面座標をスケール変換したものであることを利用する(上記の式(4)又は(5)参照)。即ち、このスケール変換における変換率をKとし、鳥瞰図座標上における移動ベクトル251〜254の何れかの大きさ、又は、移動ベクトル251〜254の平均ベクトルの大きさをLとした場合、時刻t1−t2間における車両速度SPは、下記式(8)にて推定算出される。車両速度SPは、図3の2次元地面座標系Xw w で定義される速度であり、式(5)より、K=H/f、である。尚、上述したように、時刻t1−t2間の時間間隔はΔtである。
Figure 2009017462
ステップS15の後、ステップS16に移行する。ステップS16では、ステップS15にて推定された車両速度と回転角に基づいて鳥瞰図座標上における車両進行ガイドラインの位置を算出し、その後、ステップS17において、ステップS14にて得られた鳥瞰図画像に車両進行ガイドラインを重畳することにより表示用画像を生成する。表示用画像も、鳥瞰図画像と同様、鳥瞰図座標上における画像である。
表示用画像を生成するための鳥瞰図画像及び車両進行ガイドラインとして、最新の撮影画像に基づく鳥瞰図画像及び最新の車両進行ガイドラインを用いる。例えば、時刻t1〜t3の撮影画像の取得後、時刻t2−t3間の車両速度及び回転角を推定し、それらに基づいて最新の車両進行ガイドラインを推定した場合は、時刻t3の鳥瞰図画像にその最新の車両進行ガイドラインを重畳することにより最新の表示用画像を生成する。
図9に、生成された表示用画像270を示す。表示用画像270内において、符号280が付された水平方向に伸びる斜線領域は、カメラ1の実際の撮影に基づく車両100の後端部又は画像処理装置2が鳥瞰図画像に付加した車両100の後端部を表している。後端部280の左端281と右端282との間の長さは、鳥瞰図座標上における車両100の車幅を表している。また、左端281と右端282の中央点を符号283にて参照する。左端281、右端282及び中央点283は、表示用画像(又は鳥瞰図画像)の最も下側の水平ライン上に位置するものとする。
カメラ1を車両100に取り付ける時に実施されるカメラ校正処理において、鳥瞰図座標上における左端281、右端282、中央点283の位置は定められ、画像処理装置2は、それらの位置を表示用画像の生成を行う前に予め認識している(カメラ校正処理は、図4の動作実行に先立って実施される)。鳥瞰図座標(鳥瞰図画像又は表示用画像)上において、画像の垂直方向に平行な車両100の中心線は、中央点283を通る。
表示用画像に描画される車両進行ガイドラインは、車両100の両端部が通過することが予想される2つの端部ガイドラインと、車両100の中央部が通過することが予想される1つの中央ガイドラインと、を含む。表示用画像270では、2つの端部ガイドラインが破線271及び272によって表され、中央ガイドラインが一点鎖線273によって表されている。本実施例の如く車両100が真っ直ぐ後退している場合、端部ガイドラインを、車両100の車幅の延長線で表すことができる。つまり、表示用画像270では、左端281を通り且つ画像の垂直方向に平行な直線と右端281を通り且つ画像の垂直方向に平行な直線とが端部ガイドラインとされ、中央点283を通り且つ画像の垂直方向に平行な直線が中央ガイドラインとされる。2つの端部ガイドラインに挟まれたエリアは、車両100の車体が未来に通過することが予想される、鳥瞰図座標上における車両100の未来の通過エリア(予想通過エリア)に相当する。
表示用画像には、更に、車両100からの距離を表す第1及び第2の距離線が重畳される。表示用画像270においては、実線274及び275が、夫々、第1及び第2の距離線を表す。第1及び第2の距離線は、例えば、夫々、車両100の後端からの距離が1m及び2mの部分を示している。2次元地面座標系Xw w におけるZw 軸方向の座標値zwは、車両100からの距離を表しているので、画像処理装置2は、上記式(4)又は(5)から、表示用画像上における第1及び第2の距離線の位置を求めることが出来る。
<<第2実施例>>
次に、第2実施例について説明する。第2実施例では、車両100が曲がりながら後退している場合を想定し、表示用画像を生成するための動作の流れを説明する。この動作の流れを表すフローチャートは、第1実施例における図4と同様であるため、本実施例でも図4を参照する。第1実施例にて記載された内容は、矛盾なき限り、全て第1実施例にも適用される。
まず、ステップS11において、画像処理装置2は、異なる時刻に撮影された複数の撮影画像を取り込む(ステップS11)。第1実施例と同様、取り込んだ複数の撮影画像に、時刻t1〜t3の撮影画像が含まれるものとする。
続くステップS12において、時刻t1の撮影画像から特徴点を抽出する。第1実施例と同様、車両100後方の路面上に長方形形状の図形が描かれており、その長方形の4頂点を4つの特徴点として取り扱う場合を想定する。そして、時刻t1の撮影画像から該4つの特徴点を抽出した場合を例にとる。4つの特徴点は、第1、第2、第3及び第4の特徴点から成る。また、上記の長方形形状の図形は、駐車場における長方形形状の駐車枠であるとする。
図10(a)、(b)及び(c)の画像310、320及び330は、夫々、車両100が曲がりながら後退していた場合における、時刻t1、t2及びt3の撮影画像を表す。図10(a)において、符号311〜314が付された4つの点は、画像310から抽出された4つの特徴点であり、点311、312、313及び314が、夫々、第1、第2、第3及び第4の特徴点に対応するとする。
ステップS12に続くステップS13では、第1実施例と同様、特徴点の追跡処理を行うことにより、画像320及び330の夫々における、第1〜第4の特徴点の位置を求める。この追跡処理によって特定された、画像320上の第1〜第4の特徴点を、図10(b)では、夫々、点321、322、323及び324によって表し、画像330上の第1〜第4の特徴点を、図10(c)では、夫々、点331、332、333及び334によって表す。
ステップS13では、更に、時刻t1とt2の撮影画像間における各特徴点の移動ベクトル及び時刻t2とt3の撮影画像間における各特徴点の移動ベクトルを求める。図11に、求められた移動ベクトルの一部を示す。移動ベクトル341、342、343及び344は、夫々、画像310及び320間における第1の特徴点の移動ベクトル、画像320及び330間における第1の特徴点の移動ベクトル、画像310及び320間における第4の特徴点の移動ベクトル、画像320及び330間における第4の特徴点の移動ベクトルである。
続くステップS14では、第1実施例と同様、ステップS13で求められた各特徴点及び各移動ベクトルを鳥瞰図座標上へマッピングする(投影する)。即ち、時刻t1〜t3における各撮影画像の第1〜第4の特徴点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に変換するとともに、ステップS13にて求められた各移動ベクトルの終点及び始点の座標値(xbu,ybu)を式(7)に従って鳥瞰図座標上の座標値(xau,yau)に座標変換することにより鳥瞰図座標上の各移動ベクトルを求める。
更に、ステップS14では、ステップS11にて取り込んだ時刻t1〜t3の各撮影画像を、上記式(7)に従って鳥瞰図画像に変換する。図12(a)、(b)及び(c)の画像310a、320a及び330aは、夫々、図10(a)、(b)及び(c)の画像310、320及び330に基づく、時刻t1、t2及びt3の鳥瞰図画像を表す。また、図13に、ステップS14にて求められた、画像310aと画像320a間における第1の特徴点の移動ベクトル351及び画像320aと画像330a間における第1の特徴点の移動ベクトル352を示す。移動ベクトル351及び352は、鳥瞰図座標(鳥瞰図画像)上における移動ベクトルである。
この後、ステップS15において、ステップS14で求められた鳥瞰図座標上の特徴点と移動ベクトルから、車両100の移動速度と車両100の移動における回転角を推定する。この推定手法を、図14を参照して説明する。図14には、図13に示すものと同じ移動ベクトル351及び352が示されている。ステップS14におけるマッピングによって、移動ベクトル351の始点位置は、鳥瞰図座標上の時刻t1における第1の特徴点の位置(即ち、図12(a)の鳥瞰図画像310a上における第1の特徴点の位置)と合致し、移動ベクトル351の終点位置及び移動ベクトル352の始点位置は、鳥瞰図座標上の時刻t2における第1の特徴点の位置(即ち、図12(b)の鳥瞰図画像320a上における第1の特徴点の位置)と合致し、移動ベクトル352の終点位置は、鳥瞰図座標上の時刻t3における第1の特徴点の位置(即ち、図12(c)の鳥瞰図画像330a上における第1の特徴点の位置)と合致する。
図14では、説明の便宜上、1つの鳥瞰図画像360上に、移動ベクトル351及び352と、第1実施例で述べた車両100の後端部280、左端281、右端282及び中央点283と、を示している。移動ベクトル351と352が成す角度には、180度を超える角度と180未満の角度とが存在するが、これらの角度の内、180未満の角度をθAにより表す。そして、角度θAの補角をΦにて表す(即ち、θA+Φ=180°)。この補角Φが、ステップS15において推定されるべき車両100の回転角である。今の例の場合、回転角Φは、時刻t2−t3間(又は時刻t1−t2間)における車両100の回転角である。
更に、鳥瞰図画像360上における移動ベクトル351の終点を通り且つ角度θAを2等分する直線361と、車両100の後端部280を車幅方向に延長した線との交点をOAにて表す。車両100の後端部280を車幅方向に延長した線とは、車両100の最後端を通り且つ画像の水平方向に平行な線である。図14は、車両100の後端部280を車幅方向に延長した線が画像の最も下側の水平ライン上に存在している場合を想定している。画像処理装置2は、交点OAの位置を、鳥瞰図画像360上における車両100の回転中心の位置として推定する。以下、交点OAを回転中心OAと呼ぶ。
また、鳥瞰図画像360上において、回転中心OAと、Yau軸方向における車両100の中心線を通る中央点283と、の距離をRにて表す。そうすると、ステップS15では、時刻t2−t3間(又は時刻t1−t2間)における車両100の移動距離Dを下記式(9)にて、時刻t2−t3間(又は時刻t1−t2間)における車両速度SPを下記式(10)にて推定することができる。移動距離D及び車両速度SPは、図3の2次元地面座標系Xw w で定義される距離及び速度であり、Kは、上述したように、鳥瞰図座標と二次元地面座標との間のスケール変換の変換率である。
Figure 2009017462
Figure 2009017462
このように、鳥瞰図画像(鳥瞰図座標)360上における移動ベクトル351及び352並びに車両の位置情報から、移動距離D及び車両速度SP並びに回転角Φが求められる。車両の位置情報とは、鳥瞰図画像(鳥瞰図座標)360上における車両100の配置位置を表す情報であり、その位置情報は、鳥瞰図画像(鳥瞰図座標)360上における「車両100の後端部280を車幅方向に延長した線」並びに「左端281、右端282及び中央点283」の位置を特定する。このような位置情報は、例えばカメラ校正処理の段階において設定され、図4の動作に先立って予め画像処理装置2に与えられる。
また、鳥瞰図画像360上において、回転中心OAと左端281との距離をR1とし、回転中心OAと右端282との距離をR2とする。
ステップS15の後、ステップS16に移行する。ステップ16では、ステップS15にて推定された車両速度と回転角に基づいて、鳥瞰図座標上における車両進行ガイドラインの位置を算出し、その後、ステップS17において、ステップS14にて得られた鳥瞰図画像に車両進行ガイドラインを重畳することにより表示用画像を生成する。表示用画像も、鳥瞰図画像と同様、鳥瞰図座標上における画像である。
表示用画像を生成するための鳥瞰図画像及び車両進行ガイドラインとして、最新の撮影画像に基づく鳥瞰図画像及び最新の車両進行ガイドラインを用いる。例えば、時刻t1〜t3の撮影画像の取得後、時刻t2−t3間の車両速度及び回転角を推定し、それらに基づいて最新の車両進行ガイドラインを推定した場合は、時刻t3の鳥瞰図画像にその最新の車両進行ガイドラインを重畳することにより最新の表示用画像を生成する。
図15に、生成された表示用画像370を示す。表示用画像370内にも、図9と同様、車両100の後端部280の画像が描画される。第1実施例で述べたように、車両進行ガイドラインは、2つの端部ガイドラインと1つの中央ガイドラインを含む。表示用画像370では、2つの端部ガイドラインは破線371及び372によって表され、中央ガイドラインは一点鎖線373によって表されている。一方の端部ガイドライン371は左端281を起点として描かれ、他方の端部ガイドライン372は右端282を起点として描かれ、中央ガイドライン373は、中央点283を起点として描かれる。
端部ガイドライン371は、半径がR1であって回転中心OAを円心とする円弧とされる。この円弧は左端281を通り、左端281を通る垂直ラインは端部ガイドライン371に対応する円弧の接線となる。端部ガイドライン372は、半径がR2であって回転中心OAを円心とする円弧とされる。この円弧は右端282を通り、右端282を通る垂直ラインは端部ガイドライン372に対応する円弧の接線となる。中央ガイドライン373は、半径がRであって回転中心OAを円心とする円弧とされる。この円弧は中央点283を通り、中央点283を通る垂直ラインは中央ガイドライン373に対応する円弧の接線となる。また、第1実施例と同様にして、表示有画像370には、第1及び第2の距離線374及び375が重畳される。
本実施例によれば、車速センサや舵角センサなどの特殊な測定装置を必要とすることなく、車両速度と回転角を推定することができるため、運転支援システムの構築が容易である。また、上述のようにして得られた表示用画像を表示装置3に表示することにより、運転者の視界が支援され、運転の安全性向上が図られる。
尚、本実施例では、第1の特徴点についての移動ベクトルに基づいて車両速度及び回転角を推定し、それらに従って表示用画像を生成するようにしているが、他の特徴点についての移動ベクトルに基づいて車両速度及び回転角の推定等を行うようにしてもよい。また、複数の特徴点の移動ベクトルに基づいて車両速度及び回転角を推定するようにしてもよく、そのようにすれば、推定誤差を小さくすることも可能である。
<<第3実施例>>
第2実施例で算出された移動距離Dと回転角Φを用いて、鳥瞰図画像中における障害物領域(立体物領域)を推定することができる。この推定に関する実施例として、第3実施例を説明する。第3実施例は、第2実施例と組み合わせて実施される。第2実施例に記載された事項は、全て第3実施例に適用される。
障害物領域は、鳥瞰図画像上における障害物の描画領域に対応する。障害物とは、人物などの高さのある物体(立体物)である。地面を形成する路面などは、高さがないため障害物ではない。
鳥瞰変換では、鳥瞰図画像が地表面において連続性を有するように座標変換が行われる。従って、同一の障害物を互いに異なる2つの視点で撮影して2つの鳥瞰図画像を得た場合、原理上、両鳥瞰図画像間において、路面の画像は一致するが障害物の画像は一致しない(上記特許文献2参照)。第3実施例では、この特性を利用して、障害物領域を推定する。
図16を参照して、障害物領域の推定処理とそれに関与する処理の動作の流れを説明する。図16は、その動作の流れを表すフローチャートである。
第2実施例で想定した例を第3実施例にも適用する。更に、本実施例では、カメラ1の視野内に1つの障害物が存在している場合を想定する。まず、第2実施例で述べたステップS11〜S16の各処理(又は第2実施例で述べたステップS11〜S17の各処理)を終えてから、図16のステップS21に移行する。
ステップS21では、まず、図4のステップS14にて得られた2つの鳥瞰図画像の位置合わせを行う。説明の具体化のため、図7(b)及び(c)に示される時刻t2の鳥瞰図画像220aと時刻t3の鳥瞰図画像230aの位置合わせを行う場合を例にとり、ステップS21にて実施される位置合わせの動作説明を行う。
この位置合わせの際、図4のステップS15にて推定された時刻t2−t3間における車両100の回転角Φと、上記式(9)に従って推定された時刻t2−t3間における車両100の移動距離Dと、を用いる。つまり、回転角Φと移動距離Dに基づき、時刻t2の鳥瞰図画像220aを回転角Φと移動距離Dに相当する分だけ座標変換(回転と平行移動の座標変換)することによって、座標変換後の鳥瞰図画像220a上の第1〜第4の特徴点の位置と、鳥瞰図画像230a上の第1〜第4の特徴点の位置と、を一致させる。
その後、ステップS21では、座標変換後の鳥瞰図画像220aと、鳥瞰図画像230aと、の差分をとることにより、両画像の差分画像を生成し、この差分画像から鳥瞰図座標上における障害物領域を推定する。図17(a)の画像401は、座標変換後の鳥瞰図画像220a上における障害物の画像を表し、図17(b)の画像402は、鳥瞰図画像230a上における障害物の画像を表す。図17(c)は、上記の差分画像上における障害物の画像を表している。画像401と画像402は一部分において一致するが、画像401と画像402との間には不一致の部分が存在するため、その不一致の部分が差分画像上に現れる。その不一致の部分は、図17(c)において、斜線領域403で示されており、ステップS21では、この斜線領域403を障害物領域として抽出して鳥瞰図座標上における障害物領域の位置を特定する。
ステップS21の後、ステップS22に移行する。ステップS22では、ステップS21にて推定された障害物領域が車両100の通過エリア(予想通過エリア)と重なるか否かを判定する。上述したように、車両100の通過エリアは、2つの端部ガイドラインに挟まれたエリアである。従って、今の例の場合、推定された障害物領域が図15の端部ガイドライン371と372に挟まれたエリア(即ち、通過エリア)と重なるが否かを判断し、前者の全部又は一部が後者と重なる場合はステップS23に移行する一方、重ならない場合は図16の処理を終える。
ステップS23では、車両100の後端部と障害物との距離Lが推定される。図18は、図15の表示用画像370に障害物の画像を追加した表示用画像(鳥瞰図画像)を表し、この表示用画像(鳥瞰図画像)上における障害物領域の最下点411と回転中心OAとを結ぶ線と、車両100の後端部280を車幅方向に延長した線と、の成す角度をωで表す(但し、ω<180°)。最下点411は、障害物領域を形成する画素の内、最も車両100側に位置する画素(Yau軸方向の座標値yauが最も小さい画素)を意味する。
ステップS23では、角度ωを用い、上記の距離Lを下記式(11)に従って推定算出する。距離Lは、図3の2次元地面座標系Xw w で定義される距離であり、Kは、上述したように、鳥瞰図座標と二次元地面座標との間のスケール変換の変換率である。
Figure 2009017462
ステップS23の後に続くステップS24では、式(11)から得られる距離L及び式(10)から得られる車両速度SPに基づいて、車両100と障害物が衝突するまでの時間(時間長さ)を推定する。この時間の長さは、L/S、となる。即ち、現時点の車両速度SP及び回転角Φにて車両100が後退し続けた場合、L/Sで表される時間の経過後、車両100が障害物に衝突すると予測する。
続くステップS25では、ステップS24にて推定された時間(L/S)に応じた報知処理を行う。例えば、ステップS24にて推定された時間(L/S)と所定の閾値とを対比し、前者が後者以内であれば、危険であると判断して衝突危険性を喚起するための報知(危険報知)を行う。この報知は、映像又は音声など、任意の手法によって実現される。例えば、表示用画像上における障害物領域を点滅させることによって運転支援システムのユーザに注意を喚起する。或いは、図示されないスピーカ(不図示)からの音声出力によって、ユーザに注意を喚起する。
本実施例によれば、車両100近傍の障害物が自動的に検出されるとともに衝突に対する推測処理がなされ、運転の安全性が向上する。
尚、ステップ21において、時刻t2の鳥瞰図画像220aを座標変換することによって時刻t2とt3の鳥瞰図画像を位置合わせし、これによって障害物領域を推定する手法を例示したが、時刻t2の鳥瞰図画像220aの代わりに時刻t3の鳥瞰図画像230aを座標変換することによって時刻t2とt3の鳥瞰図画像の位置合わせを行うようにしても構わない。
また、回転角Φと移動距離Dに基づいて時刻t2とt3の鳥瞰図画像の位置合わせを行い、これによって障害物領域を推定する手法を例示したが、位置合わせの手法はこれに限定されない。即ち例えば、公知の画像マッチングを行うことにより、時刻t2とt3の鳥瞰図画像の位置合わせを行うようにしてもよい。これによっても、回転角Φ及び移動距離Dに基づく位置合わせと同様の結果が得られる。より具体的に例えば、時刻t2の鳥瞰図画像上の第1及び第2の特徴点と時刻t3の鳥瞰図画像上の第1及び第2の特徴点とが夫々重なるように両鳥瞰図画像の内の一方に対して座標変換を行い、これによって両鳥瞰図画像の位置合わせを行う。その後、位置合わせ後の両鳥瞰図画像の差分画像を求め、この差分画像から上述と同様にして障害物領域を抽出すればよい。
<<第4実施例>>
次に、第4実施例を説明する。第4実施例では、第1又は第2実施例と、第3実施例と、に対応する運転支援システムの機能ブロック図を例示する。図19は、第4実施例に係る運転支援システムの機能ブロック図である。第4実施例に係る運転支援システムは、符号11〜19にて参照される各部位を含み、符号11〜18にて参照される部位は図1の画像処理装置2内に設けられる。障害物監視部19は、画像処理装置2内又は画像処理装置2の外部に設けられる。
カメラ1の撮影画像(カメラ画像)は、特徴点抽出/追跡部11と鳥瞰変換部15に与えられる。特徴点抽出/追跡部11は、図4のステップS11〜S13の各処理を行い、撮影画像から特徴点を抽出して該特徴点の追跡を行う(移動ベクトルの算出も行う)。マッピング処理部12と鳥瞰変換部15とによって、図4のステップS14の処理が実行される。即ち、マッピング処理部12は、特徴点抽出/追跡部11によって抽出又は検出された特徴点及び移動ベクトルを鳥瞰図座標上にマッピングし、鳥瞰変換部15は、各撮影画像に対して鳥瞰変換を行って各撮影画像を鳥瞰図画像に変換する。説明の便宜上、マッピング処理部12と鳥瞰変換部15を別個の部位として示しているが、両部位の機能は類似しているので両部位を単一の部位に統合可能である。
車両速度/回転角推定部13は、図4のステップS15の処理を行う。即ち、マッピング処理部12のマッピングによって得られた鳥瞰図座標上における移動ベクトルに基づいて上述の車両速度及び回転角を推定する。車両進行ガイドライン作成部(通過エリア推定部)14は、図4のステップS16の処理を行う。即ち、車両速度/回転角推定部13によって推定された車両速度及び回転角並びに鳥瞰図座標上における車両の位置情報に基づいて、鳥瞰図座標上における車両進行ガイドラインの位置を算出する。車両進行ガイドラインは、鳥瞰図座標上における車両の未来の通過エリア(予想通過エリア)を表す指標として機能する。
そして、表示用画像生成部16は、図4のステップS17の処理を行う。即ち、車両進行ガイドライン作成部14によって算出された位置を有する車両進行ガイドラインを鳥瞰変換部15から得られた鳥瞰図画像に対して重畳することにより表示用画像を生成し、これを図1の表示装置3に対して出力する。
障害物領域推定部17は、図16のステップS21の処理を行って、上述の障害物領域を推定する。障害物領域推定部17内の座標変換部18は、障害物領域を推定するために必要な、2つの鳥瞰図画像間の位置合わせ用の座標変換を実行する。障害物監視部19は、障害物領域推定部17にて推定された障害物領域の位置と車両進行ガイドライン作成部14によって作成された車両進行ガイドラインの位置とを対比することにより、図16のステップS22の処理を実行し、更に、ステップS23〜S25の各処理も実行する。
<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈5を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
[注釈1]
上述の各実施例では、撮影画像から4つの特徴点を抽出又は検出する場合を例示したが、上述の説明からも明らかなように抽出又は検出されるべき特徴点の個数は1以上であればよい。
[注釈2]
透視投影変換によって撮影画像から鳥瞰図画像を得る手法を説明したが、平面射影変換によって撮影画像から鳥瞰図画像を得るようにしても構わない。この場合、撮影画像上の各画素の座標を鳥瞰図画像上の各画素の座標に変換するためのホモグラフィ行列(座標変換行列)をカメラ校正処理の段階にて求める。ホモグラフィ行列の求め方は公知である。そして、図4に示す動作を行う場合、ホモグラフィ行列に基づいて撮影画像を鳥瞰図画像に変換すればよい。この場合、図4のステップS14における特徴点及び移動ベクトルの鳥瞰図座標へのマッピングも、ホモグラフィ行列に基づいて行うことができる。
[注釈3]
上述の実施形態では、1つのカメラから得られた撮影画像に基づく表示用画像を表示装置3に表示するようにしているが、車両100に設置された複数のカメラ(不図示)から得られた複数の撮影画像に基づいて表示用画像を生成するようにしてもよい。例えば、カメラ1以外に他の1台以上のカメラを車両100に取り付け、その他のカメラの撮影画像に基づく画像をカメラ1の撮影画像に基づく画像(図9の表示用画像270や図15の表示用画像370)に合成し、この合成によって得られた合成画像を最終的に表示装置3に対する表示用画像とすることも可能である。この合成画像は、例えば、特開2006−287892号公報にも記載されているような全周鳥瞰図画像である。
[注釈4]
上述の実施形態では、車両の例として自動車(トラック)を例示しているが、自動車に分類されない車両に対しても本発明は適用可能であり、更に車両に分類されない移動体に対しても本発明は適用可能である。車両に分類されない移動体は、例えば、車輪を備えておらず、車輪以外の機構を用いて移動する。例えば、遠隔操作によって工場内を移動する、移動体としてのロボット(不図示)に対して、本発明を適用することも可能である。
[注釈5]
図1の画像処理装置2及び図19の各部位の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。図1の画像処理装置2及び図19の各部位にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。
本発明の実施形態に係る運転支援システムの構成ブロック図である。 図1の運転支援システムが適用される車両の外観側面図である。 本発明の実施形態に係り、カメラ座標系XYZと撮像面の座標系Xbubuと世界座標系Xw w w との関係を示す図である。 本発明の実施形態に係り、表示用画像を生成するための動作の流れを表すフローチャートである。 本発明の第1実施例に係り、図2の車両が真っ直ぐに後退していた場合における、時刻t1、t2及びt3の撮影画像を表す図である。 本発明の第1実施例に係り、撮影画像上における特徴点の時刻t1−t2間移動ベクトルを示す図である。 図5(a)(b)(c)に対応する、時刻t1、t2及びt3の鳥瞰図画像を表す図である。 本発明の第1実施例に係り、鳥瞰図画像上における特徴点の時刻t1−t2間移動ベクトルを示す図である。 本発明の第1実施例に係り、図2の車両が真っ直ぐに後退していた場合における表示用画像を示す図である。 本発明の第2実施例に係り、図2の車両が曲がりながら後退していた場合における、時刻t1、t2及びt3の撮影画像を表す図である。 本発明の第2実施例に係り、撮影画像上における特徴点の移動ベクトルを示す図である。 図10(a)(b)(c)に対応する、時刻t1、t2及びt3の鳥瞰図画像を表す図である。 本発明の第2実施例に係り、鳥瞰図画像上における特徴点の移動ベクトルを示す図である。 本発明の第2実施例に係り、鳥瞰図座標上における移動ベクトルから車両速度と回転角を推定する手法を説明するための図である。 本発明の第2実施例に係り、図2の車両が曲がりながら後退していた場合における表示用画像を示す図である。 本発明の第3実施例に係り、障害物領域の推定処理とそれに関与する処理の動作の流れを表すフローチャートである。 本発明の第3実施例に係り、座標変換後の時刻t2の鳥瞰図画像上における障害物の画像を示す図(a)と、時刻t3の鳥瞰図画像上における障害物の画像を示す図(b)と、両画像の差分から推定される障害物領域を示す図(c)である。 本発明の第3実施例に係り、鳥瞰図座標上における車両と障害物の位置関係を説明するための図である。 本発明の第4実施例に係る運転支援システムの機能ブロック図である。
符号の説明
1 カメラ
2 画像処理装置
3 表示装置
100 車両

Claims (9)

  1. 移動体に取り付けられて前記移動体の周辺を撮影するカメラを備え、前記カメラから時系列で並ぶ複数のカメラ画像を取得して、前記カメラ画像から生成した表示用画像を表示装置に出力する運転支援システムにおいて、
    前記複数のカメラ画像の内の基準カメラ画像から特徴点を抽出するとともに各カメラ画像における前記特徴点の位置を追跡処理によって検出することにより、異なるカメラ画像間における前記特徴点の移動ベクトルを導出する移動ベクトル導出手段と、
    前記移動ベクトルに基づいて、前記移動体の移動速度と前記移動体の移動における回転角とを推定する推定手段と、を備え、
    前記カメラ画像と推定された前記移動速度及び回転角とに基づいて、前記表示用画像を生成する
    ことを特徴とする運転支援システム。
  2. 前記カメラ画像の座標上における前記特徴点及び前記移動ベクトルを座標変換によって所定の鳥瞰図座標上にマッピングするマッピング手段を更に備え、
    前記推定手段は、前記鳥瞰図座標上の前記特徴点の位置に従って配置された、前記鳥瞰図座標上の前記移動ベクトルに基づいて、前記移動速度と前記回転角を推定する
    ことを特徴とする請求項1に記載の運転支援システム。
  3. 前記複数のカメラ画像は、順次訪れる第1、第2及び第3の時刻で取得される第1、第2及び第3のカメラ画像を含み、
    前記マッピング手段は、第1〜第3のカメラ画像の夫々における前記特徴点、並びに、第1及び第2のカメラ画像間における前記特徴点の移動ベクトル及び第2及び第3のカメラ画像間における前記特徴点の移動ベクトルを、前記鳥瞰図座標上にマッピングし、
    前記鳥瞰図座標上の、第1及び第2のカメラ画像間における前記特徴点の移動ベクトル及び第2及び第3のカメラ画像間における前記特徴点の移動ベクトルを、夫々、第1鳥瞰移動ベクトル及び第2鳥瞰移動ベクトルと呼んだ場合、
    前記マッピング手段によって、前記鳥瞰図座標上の前記第1の時刻における前記特徴点の位置に、第1鳥瞰移動ベクトルの始点が配置され、且つ、前記鳥瞰図座標上の前記第2の時刻における前記特徴点の位置に、第1鳥瞰移動ベクトルの終点及び第2鳥瞰移動ベクトルの始点が配置され、且つ、前記鳥瞰図座標上の前記第3の時刻における前記特徴点の位置に、第2鳥瞰移動ベクトルの終点が配置され、
    前記推定手段は、第1及び第2鳥瞰移動ベクトルと、前記鳥瞰図座標上における前記移動体の位置と、に基づいて、前記移動速度と前記回転角を推定する
    ことを特徴とする請求項2に記載の運転支援システム。
  4. 各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段と、
    推定された前記移動速度及び前記回転角と前記鳥瞰図座標上における前記移動体の位置に基づいて前記鳥瞰図座標上における前記移動体の予想通過エリアを推定する通過エリア推定手段と、を更に備え、
    前記予想通過エリアに応じた指標を前記鳥瞰図画像に重畳することによって前記表示用画像を生成する
    ことを特徴とする請求項1〜請求項3の何れかに記載の運転支援システム。
  5. 各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段と、
    互いに異なる時刻で取得された2つのカメラ画像に基づく2つの鳥瞰図画像を画像マッチングによって位置合わせしてから両鳥瞰図画像間の差分をとることにより、高さのある立体物領域の、前記鳥瞰図座標上における位置を推定する立体物領域推定手段と、を更に備えた
    ことを特徴とする請求項1に記載の運転支援システム。
  6. 各カメラ画像の座標を所定の鳥瞰図座標上に座標変換することにより、各カメラ画像を鳥瞰図画像に変換する鳥瞰変換手段を更に備え、
    互いに異なる第1及び第2の時刻で取得された2つのカメラ画像に基づく2つの鳥瞰図画像を、第1及び第2の鳥瞰図画像と呼んだ場合、
    当該運転支援システムは、更に、座標変換手段を含む立体物領域推定手段を更に備え、
    前記座標変換手段は、推定された前記移動速度に基づく前記第1及び第2の時刻間における前記移動体の移動距離と、推定された第1及び第2の時刻に対応する前記回転角と、に基づいて、2つの鳥瞰図画像上の特徴点が重なるように第1及び第2の鳥瞰図画像の内の一方の座標を変換し、
    前記立体物領域推定手段は、座標変換された一方の鳥瞰図画像と他方の鳥瞰図画像との差分に基づいて、高さのある立体物領域の、前記鳥瞰図座標上における位置を推定する
    ことを特徴とする請求項1に記載の運転支援システム。
  7. 推定された前記移動速度及び前記回転角と前記鳥瞰図座標上における前記移動体の位置に基づいて前記鳥瞰図座標上における前記移動体の予想通過エリアを推定する通過エリア推定手段と、
    前記予想通過エリアと前記立体物領域とが重なるか否かを判断する立体物監視手段と、を更に備えた
    ことを特徴とする請求項5または請求項6に記載の運転支援システム。
  8. 前記立体物監視手段は、前記予想通過エリアと前記立体物領域が重なると判断したとき、前記立体物領域の前記位置と前記移動体の前記位置と前記移動速度に基づいて、前記移動体と前記立体物領域に対応する立体物が衝突するまでの時間長さを推定する
    ことを特徴とする請求項7に記載の運転支援システム。
  9. 請求項1〜請求項8の何れかに記載の運転支援システムが設置された
    ことを特徴とする、移動体としての車両。
JP2007179743A 2007-07-09 2007-07-09 運転支援システム及び車両 Pending JP2009017462A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007179743A JP2009017462A (ja) 2007-07-09 2007-07-09 運転支援システム及び車両
US12/168,470 US20090015675A1 (en) 2007-07-09 2008-07-07 Driving Support System And Vehicle
EP08012316A EP2015253A1 (en) 2007-07-09 2008-07-08 Driving support system and vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007179743A JP2009017462A (ja) 2007-07-09 2007-07-09 運転支援システム及び車両

Publications (1)

Publication Number Publication Date
JP2009017462A true JP2009017462A (ja) 2009-01-22

Family

ID=39870356

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007179743A Pending JP2009017462A (ja) 2007-07-09 2007-07-09 運転支援システム及び車両

Country Status (3)

Country Link
US (1) US20090015675A1 (ja)
EP (1) EP2015253A1 (ja)
JP (1) JP2009017462A (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184527A (ja) * 2009-02-10 2010-08-26 Hitachi Ltd 列車の停止検知システム並びに列車の移動速度及び位置検出システム
WO2011013813A1 (ja) * 2009-07-30 2011-02-03 クラリオン株式会社 車載装置および画像処理プログラム
JP2012006587A (ja) * 2010-06-22 2012-01-12 Parrot 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法
JP2013125301A (ja) * 2011-12-13 2013-06-24 Alpine Electronics Inc 車両移動量推定装置および障害物検出装置
JP2014032666A (ja) * 2012-08-01 2014-02-20 Mitsubishi Electric Corp 周囲状況に対するカメラの姿勢を求めるための方法
WO2014034064A1 (ja) * 2012-08-30 2014-03-06 株式会社デンソー 画像処理装置、及び記憶媒体
JP2014081874A (ja) * 2012-10-18 2014-05-08 Fujitsu Ltd 画像処理装置及び画像処理方法
JP2014519444A (ja) * 2011-06-15 2014-08-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 駐車誘導用後付けセット
WO2015045567A1 (ja) * 2013-09-27 2015-04-02 日産自動車株式会社 予測進路提示装置及び予測進路提示方法
JP2015186085A (ja) * 2014-03-25 2015-10-22 富士通テン株式会社 移動量導出装置、及び、移動量導出方法
WO2016020718A1 (en) * 2014-08-07 2016-02-11 Hitachi Automotive Systems, Ltd. Method and apparatus for determining the dynamic state of a vehicle
JP2016173634A (ja) * 2015-03-16 2016-09-29 国立研究開発法人農業・食品産業技術総合研究機構 操舵制御装置および旋回状態推定方法
US20160358358A1 (en) 2015-06-05 2016-12-08 Fujitsu Ten Limited Driving support device and driving support method
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2017117386A (ja) * 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017139612A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 車載カメラ用校正システム
US9827906B2 (en) 2014-07-15 2017-11-28 Fujitsu Ten Limited Image processing apparatus
WO2017216998A1 (ja) * 2016-06-15 2017-12-21 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
KR20180083091A (ko) * 2017-01-12 2018-07-20 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
KR20180098945A (ko) * 2017-02-27 2018-09-05 주식회사 에스원 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
WO2019142660A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
KR20200047488A (ko) * 2017-01-12 2020-05-07 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
JP2020173211A (ja) * 2019-04-12 2020-10-22 俊雄 川口 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI336670B (en) * 2008-12-03 2011-02-01 Ind Tech Res Inst Method for determining the angular magnitude of imaging acquiring apparatus and vehicle collision warning system using thereof
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
US9206589B2 (en) * 2009-03-31 2015-12-08 Caterpillar Inc. System and method for controlling machines remotely
JP4858574B2 (ja) * 2009-05-19 2012-01-18 トヨタ自動車株式会社 物体検出装置
US8487993B2 (en) * 2009-07-29 2013-07-16 Ut-Battelle, Llc Estimating vehicle height using homographic projections
JP5503660B2 (ja) * 2009-09-24 2014-05-28 パナソニック株式会社 運転支援表示装置
TWI392366B (zh) * 2009-12-31 2013-04-01 Ind Tech Res Inst 全周鳥瞰影像距離介面產生方法與系統
CN102783142B (zh) * 2010-03-04 2016-06-22 松下知识产权经营株式会社 图像显示装置和图像显示方法
WO2012139636A1 (en) * 2011-04-13 2012-10-18 Connaught Electronics Limited Online vehicle camera calibration based on road surface texture tracking and geometric properties
US9760092B2 (en) 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
FR2990662B1 (fr) * 2012-05-16 2015-08-07 Renault Sa Camera de recul integree au logo
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
JP5959073B2 (ja) * 2014-09-30 2016-08-02 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 検出装置、検出方法、及び、プログラム
US10594934B2 (en) * 2016-11-17 2020-03-17 Bendix Commercial Vehicle Systems Llc Vehicle display
JP7058585B2 (ja) * 2017-12-25 2022-04-22 キヤノン株式会社 画像処理装置およびその制御方法
WO2019130827A1 (ja) * 2017-12-25 2019-07-04 キヤノン株式会社 画像処理装置およびその制御方法
US20220284599A1 (en) * 2019-09-04 2022-09-08 Nec Corporation Position estimating method, position estimating system, and position estimating apparatus
JP7398637B2 (ja) * 2020-05-28 2023-12-15 パナソニックIpマネジメント株式会社 表示制御装置、車両及び表示制御方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002283913A (ja) * 2001-03-29 2002-10-03 Denso Corp 車両周辺表示装置、プログラムおよび記録媒体
JP2004355324A (ja) * 2003-05-29 2004-12-16 Nissan Motor Co Ltd 車両用接触回避制御装置
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP2007140763A (ja) * 2005-11-16 2007-06-07 Nissan Motor Co Ltd 画像処理装置、および画像処理方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
FR2853121B1 (fr) * 2003-03-25 2006-12-15 Imra Europe Sa Dispositif de surveillance des alentours d'un vehicule
EP1641268A4 (en) 2004-06-15 2006-07-05 Matsushita Electric Ind Co Ltd MONITOR AND DEVICE FOR MONITORING THE VEHICLE ENVIRONMENT
GB0422504D0 (en) * 2004-10-11 2004-11-10 Delphi Tech Inc Obstacle recognition system for a motor vehicle
JP4596978B2 (ja) * 2005-03-09 2010-12-15 三洋電機株式会社 運転支援システム
US7138938B1 (en) * 2005-05-06 2006-11-21 Ford Global Technologies, Llc System and method for preemptively sensing an object and selectively operating both a collision countermeasure system and a parking assistance system aboard an automotive vehicle
JP4934308B2 (ja) * 2005-10-17 2012-05-16 三洋電機株式会社 運転支援システム
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002283913A (ja) * 2001-03-29 2002-10-03 Denso Corp 車両周辺表示装置、プログラムおよび記録媒体
JP2004355324A (ja) * 2003-05-29 2004-12-16 Nissan Motor Co Ltd 車両用接触回避制御装置
JP2006268076A (ja) * 2005-03-22 2006-10-05 Sanyo Electric Co Ltd 運転支援システム
JP2007140763A (ja) * 2005-11-16 2007-06-07 Nissan Motor Co Ltd 画像処理装置、および画像処理方法

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010184527A (ja) * 2009-02-10 2010-08-26 Hitachi Ltd 列車の停止検知システム並びに列車の移動速度及び位置検出システム
WO2011013813A1 (ja) * 2009-07-30 2011-02-03 クラリオン株式会社 車載装置および画像処理プログラム
JP2012006587A (ja) * 2010-06-22 2012-01-12 Parrot 無人機、特に自動操縦下でホバリング飛行を行うことができる無人機の水平速度を評価する方法
JP2014519444A (ja) * 2011-06-15 2014-08-14 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 駐車誘導用後付けセット
JP2013125301A (ja) * 2011-12-13 2013-06-24 Alpine Electronics Inc 車両移動量推定装置および障害物検出装置
JP2014032666A (ja) * 2012-08-01 2014-02-20 Mitsubishi Electric Corp 周囲状況に対するカメラの姿勢を求めるための方法
JP2014048803A (ja) * 2012-08-30 2014-03-17 Denso Corp 画像処理装置、及びプログラム
WO2014034064A1 (ja) * 2012-08-30 2014-03-06 株式会社デンソー 画像処理装置、及び記憶媒体
JP2014081874A (ja) * 2012-10-18 2014-05-08 Fujitsu Ltd 画像処理装置及び画像処理方法
WO2015045567A1 (ja) * 2013-09-27 2015-04-02 日産自動車株式会社 予測進路提示装置及び予測進路提示方法
JP6020736B2 (ja) * 2013-09-27 2016-11-02 日産自動車株式会社 予測進路提示装置及び予測進路提示方法
JP2015186085A (ja) * 2014-03-25 2015-10-22 富士通テン株式会社 移動量導出装置、及び、移動量導出方法
US9827906B2 (en) 2014-07-15 2017-11-28 Fujitsu Ten Limited Image processing apparatus
WO2016020718A1 (en) * 2014-08-07 2016-02-11 Hitachi Automotive Systems, Ltd. Method and apparatus for determining the dynamic state of a vehicle
JP2016173634A (ja) * 2015-03-16 2016-09-29 国立研究開発法人農業・食品産業技術総合研究機構 操舵制御装置および旋回状態推定方法
US20160358358A1 (en) 2015-06-05 2016-12-08 Fujitsu Ten Limited Driving support device and driving support method
JP2017004118A (ja) * 2015-06-05 2017-01-05 富士通テン株式会社 運転支援装置および運転支援方法
US10242475B2 (en) 2015-06-05 2019-03-26 Fujitsu Ten Limited Driving support device and driving support method
JP2017083232A (ja) * 2015-10-26 2017-05-18 富士通テン株式会社 車両状態判定装置、表示処理装置および車両状態判定方法
JP2017117386A (ja) * 2015-12-25 2017-06-29 学校法人千葉工業大学 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
JP2017139612A (ja) * 2016-02-03 2017-08-10 パナソニックIpマネジメント株式会社 車載カメラ用校正システム
WO2017216998A1 (ja) * 2016-06-15 2017-12-21 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
KR20200047488A (ko) * 2017-01-12 2020-05-07 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
KR20180083091A (ko) * 2017-01-12 2018-07-20 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
KR102466305B1 (ko) 2017-01-12 2022-11-10 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
KR102433824B1 (ko) * 2017-01-12 2022-08-17 현대모비스 주식회사 Avm 자동 공차 보정 시스템 및 그 방법
KR20180098945A (ko) * 2017-02-27 2018-09-05 주식회사 에스원 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
KR102010823B1 (ko) * 2017-02-27 2019-08-14 주식회사 에스원 고정형 단일 카메라를 이용한 차량 속도 감지 방법 및 장치
WO2019142660A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
JP2020173211A (ja) * 2019-04-12 2020-10-22 俊雄 川口 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム
JP7282578B2 (ja) 2019-04-12 2023-05-29 俊雄 川口 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム

Also Published As

Publication number Publication date
EP2015253A1 (en) 2009-01-14
US20090015675A1 (en) 2009-01-15

Similar Documents

Publication Publication Date Title
JP2009017462A (ja) 運転支援システム及び車両
JP4863922B2 (ja) 運転支援システム並びに車両
JP4596978B2 (ja) 運転支援システム
JP4193886B2 (ja) 画像表示装置
JP5729158B2 (ja) 駐車支援装置および駐車支援方法
JP2004198212A (ja) 移動体周辺監視装置
JP2009060499A (ja) 運転支援システム及び連結車両
CN107465890B (zh) 车辆的图像处理装置
JP2004198211A (ja) 移動体周辺監視装置
JP2008187564A (ja) カメラ校正装置及び方法並びに車両
JP2011182236A (ja) カメラキャリブレーション装置
WO2001021446A1 (en) Device for assisting automobile driver
JP2008271308A (ja) 画像処理装置及び方法並びに車両
JP4797877B2 (ja) 車両用映像表示装置及び車両周囲映像の表示方法
JP2008013015A (ja) 車両周辺画像生成装置および画像切替方法
JP2013209015A (ja) 駐車支援装置、及び駐車支援方法
JP2007198962A (ja) 車両用案内表示装置
JP2006268076A (ja) 運転支援システム
US20170259830A1 (en) Moving amount derivation apparatus
JP2008181330A (ja) 画像処理装置及び画像処理方法
JP6167824B2 (ja) 駐車支援装置
JP2012040883A (ja) 車両周囲画像生成装置
JP4154980B2 (ja) 移動体周辺監視装置
JP4679293B2 (ja) 車載パノラマカメラシステム
JP2004356845A (ja) 移動体周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120313