JP2010016805A - 画像処理装置、運転支援システム、及び画像処理方法 - Google Patents

画像処理装置、運転支援システム、及び画像処理方法 Download PDF

Info

Publication number
JP2010016805A
JP2010016805A JP2009131822A JP2009131822A JP2010016805A JP 2010016805 A JP2010016805 A JP 2010016805A JP 2009131822 A JP2009131822 A JP 2009131822A JP 2009131822 A JP2009131822 A JP 2009131822A JP 2010016805 A JP2010016805 A JP 2010016805A
Authority
JP
Japan
Prior art keywords
image
camera
image processing
dimensional object
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009131822A
Other languages
English (en)
Inventor
Keisuke Asari
圭介 淺利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009131822A priority Critical patent/JP2010016805A/ja
Publication of JP2010016805A publication Critical patent/JP2010016805A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/48Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for parking purposes
    • B60Q1/484Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for parking purposes for showing outline of vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/002Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle
    • B60Q9/004Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors
    • B60Q9/005Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for parking purposes, e.g. for warning the driver that his vehicle has contacted or is about to contact an obstacle using wave sensors using a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】運転者が視認しやすい運転支援用画像を生成する画像処理装置を提供する。
【解決手段】車両に搭載されたカメラ2の撮像画像をカメラ2から取得し、前記撮像画像上にガイドを重畳するガイド重畳部(ガイドライン描画位置補正部13及び合成部14)と、前記撮影画像に含まれ得る特定領域を検出する特定領域検出部(立体物検出部11)とを備え、前記特定領域検出部によって前記特定領域が検出された場合、前記ガイド重畳部が、前記ガイドの描画位置を補正することにより、前記特定領域上には前記ガイドを重畳しないことを特徴とする画像処理装置。
【選択図】図1

Description

本発明は、車両に搭載されたカメラ(以下、車載カメラともいう)の撮影画像を用いて運転支援用画像を生成する画像処理装置、当該画像処理装置を備えた運転支援システム、及び車載カメラの撮影画像を用いて運転支援用画像を生成する画像処理方法に関する。
近年の安全意識の高まりに伴って、カメラを搭載した車両が増加している。車両にカメラを搭載し、車両周辺の肉眼やミラー越しでは死角となる部分を表示することは運転者の安全支援に有用である。
従来、車載カメラの撮影画像を用いて車両の周辺を表示する表示方法として、車載カメラの撮影画像にガイド(あらかじめ設定した路面上の距離指標)を重畳した画像を表示する表示方法が知られている。このような表示方法は、ガイドにより運転者が障害物(例えば、車両の存在する路面より高さのある立体物や車両の存在する路面より低い部分)までの距離を視認し易くなるため、車両の駐車支援などに有効である。また、立体物の高さに応じたガイドを表示する表示方法も提案されている(特許文献1及び特許文献2参照)。これらの表示方法では、複数の高さのガイドを描画することで、立体物と自車両のバンパ高さなどとの距離把握を容易にしている。また、トレーラーの連結支援用ガイドを表示する表示方法として、対象トレーラーに取り付けたテンプレートが車載カメラの撮影画像内に存在するときのみガイドを表示する表示方法も提案されている(特許文献3参照)。
特開2002−314991号公報 特開2004―56219号公報 特開2005−112004号公報
車載カメラの撮影画像にガイドを重畳した画像を表示する従来の表示方法では、ガイドを常に表示するため、車載カメラの撮影画像中の立体物に対してガイドが重なって描画されてしまう(図18(a)及び(b)参照)。ガイドラインは、例えば、車両の右端の延長線、車両の左端の延長線、車両の後端から0.5mの位置を示す線、車両の後端から1.0mの位置を示す線、及び車両の後端から2.0mの位置を示す線によって構成されている。図18(a)では、車両の後端から1.0mの位置を示す線(ガイドライン)が立体部である自転車と重なっており、車両の右端の延長線、車両の左端の延長線、及び車両の後端から2.0mの位置を示す線(ガイドライン)が立体部である塀と重なっている。図18(b)では、車両の右端の延長線、車両の左端の延長線、車両の後端から1.0mの位置を示す線、及び車両の後端から2.0mの位置を示す線(ガイドライン)が立体部である塀と重なっている。尚、図18(a)において、斜線で埋められた線分は路面上に互いに描かれた白線を表している。
このように本来路面上の距離指標であるガイドが路面でない部分に描画されてしまうと、運転者にとって煩わしい表示となる。
本発明は、上記の状況に鑑み、運転者が視認しやすい運転支援用画像を生成する画像処理装置、当該画像処理装置を備えた運転支援システム、及び運転者が視認しやすい運転支援用画像を生成する画像処理方法を提供することを目的とする。
上記目的を達成するために本発明に係る画像処理装置は、車両に搭載された撮像装置の撮像画像を前記撮像装置から取得し、前記撮像画像上にガイドを重畳するガイド重畳部と、前記撮影画像に含まれ得る特定領域を検出する特定領域検出部とを備え、前記特定領域検出部によって前記特定領域が検出された場合、前記ガイド重畳部が、前記特定領域上には前記ガイドを重畳しないようにする。
前記特定領域は、例えば、前記車両の存在する路面より高さのある立体物としてもよく、前記車両の存在する路面より低い部分としてもよい。
前記特定領域検出部によって前記特定領域が検出された場合、前記特定領域上に警告表示図を重畳する警告表示図重畳部を備えるようにしてもよい。
上記目的を達成するために本発明に係る運転支援システムは、車両に搭載された撮像装置と、表示装置と、前記撮像装置の撮像画像に画像処理を施して前記表示装置に出力する上記いずれかの構成の画像処理装置とを備えるようにする。
上記目的を達成するために本発明に係る画像処理方法は、車両に搭載された撮像装置の撮像画像を前記撮像装置から取得する取得ステップと、前記撮影画像に含まれ得る特定領域を検出する検出ステップと、前記撮像画像上にガイドを重畳する重畳ステップとを有し、前記検出ステップにおいて前記特定領域が検出された場合、前記重畳ステップにおいて前記特定領域上には前記ガイドを重畳しないようにする。
本発明によると、路面上の距離指標であるガイドを特定領域上には重畳しないので、運転支援に必要最小限のガイドとなり、運転者が視認しやすい運転支援用画像を得ることができる。
本発明の第1実施形態に係る運転支援システムの構成を示すブロック図である。 図1の運転支援システムが車両に搭載された状態を示す図である。 本発明の第1実施形態に係る運転支援システムの画像処理装置が実行する処理を示すフローチャートである。 時刻t1及びt2の撮影画像を表す図である。 単眼カメラの映像から立体物を検出する方法の一例を示すフローチャートである。 撮影画像上の特徴点と当該特徴点の時刻t1−t2間の移動ベクトルを表す図である。 カメラ座標系と撮像面の座標系と世界座標系との関係を示す図である。 時刻t1及びt2の鳥瞰図画像を表す図である。 鳥瞰図画像上の特徴点と当該特徴点の時刻t1−t2間の移動ベクトルを表す図である。 カメラ移動情報を座標系で表現した図である。 時刻t1−t2間でのフレーム間差分画像を表す図である。 図11の差分画像に対して2値化処理を施すことで得られる2値画像を表す図である。 立体領域を抽出した画像を表す図である。 本発明の第1実施形態での運転支援用画像の例を表す図である。 本発明の第2実施形態に係る運転支援システムの構成を示すブロック図である。 本発明の第2実施形態での運転支援用画像の例を表す図である。 本発明の第3実施形態に係る運転支援システムの構成を示すブロック図である。 従来の運転支援用画像の例を表す図である。 本発明の第4実施形態での運転支援用画像の例を表す図である。
本発明の実施形態について図面を参照して以下に説明する。
<第1実施形態>
図1は、本発明の第1実施形態に係る運転支援システムの構成を示すブロック図である。図1の運転支援システムは、カメラ2の撮影画像を用いて運転支援用画像を生成して表示装置3に出力する画像処理装置1Aと、カメラ2と、表示装置3とを備えている。カメラ2には、例えばCCD(Charge Coupled Devices)を用いたカメラや、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたカメラが用いられる。
また、表示装置3には、例えば液晶モニターが用いられる。
画像処理装置1Aは、カメラ2の撮影画像から立体物を検出する立体物検出部11と、カメラ2の車両取り付け位置などのパラメータからガイドラインの描画位置を求めるガイドライン描画位置決定部12と、立体物検出部11の検出結果に基づいてガイドラインの描画位置を補正するガイドライン描画位置補正部13と、カメラ2の撮影画像とガイドラインとの合成画像である運転支援用画像を生成して表示装置3に出力する合成部14とを備えている。
図2は、図1の運転支援システムが車両に搭載された状態を示す図である。画像処理装置1A及び表示装置3は車両4の車室内に配置されており、例えば、車両4の運転席付近に設置される。また、カメラ2は車両4の後部に取り付けられ、その取り付け位置から斜め下方向を撮像する。
図3に示すフローチャートを参照して画像処理装置1Aが実行する処理について説明する。はじめにカメラ2から撮像画像を取得する(ステップS1)。例えば、時刻t1の撮影によって得られた撮影画像(以下、単に、時刻t1の撮影画像ともいう)と、時刻t2の撮影によって得られた撮影画像(以下、単に、時刻t2の撮影画像ともいう)とを取得する。また、時刻t1の後に時刻t2が訪れるものとし、時刻t1−t2間において、車両4が移動しているものとする。従って、時刻t1と時刻t2とで路面の見え方が異なる。
今、図4(a)に示す画像110が時刻t1の撮影画像として取得され、図4(b)に示す画像120が時刻t2の撮影画像として取得されたものとする。時刻t1及びt2において、カメラ2の視野には、路面上に互いに平行に描かれた第1及び第2の白線と、第1及び第2の白線間に位置する直方体状の立体物αと、が含まれていたとする。図4(a)において、斜線で埋められた線分111及び112は画像110内における第1及び第2の白線であり、図4(b)において、斜線で埋められた線分121及び122は画像120内における第1及び第2の白線である。図4(a)において、画像上の立体物113は画像110内における立体物αであり、図4(b)において、画像上の立体物123は画像120内における立体物αである。
続くステップS2では、立体物検出部11が、カメラ2から取得した撮像画像を用いて立体物を検出する。ここで、単眼カメラの映像から立体物を検出する方法の一例を図5に示すフローチャートを参照して以下に説明する。
ステップS201において、時刻t1の撮影画像から特徴点が抽出される。特徴点とは、周囲の点と区別できる、追跡の容易な点のことである。このような特徴点は、水平及び垂直方向における濃淡変化量が大きくなる画素を検出する、周知の特徴点抽出器(不図示)を用いて自動的に抽出することができる。特徴点抽出器とは、例えば、Harrisのコーナ検出器、SUSANのコーナ検出器である。抽出されるべき特徴点は、例えば、路面上に描かれた白線の交点又は端点や、路面上の汚れ又は亀裂、立体物の端部や汚れなどを想定している。
ステップS201に続くステップS202において、時刻t1の撮影画像と時刻t2の撮影画像を対比し、公知のブロックマッチング法や勾配法を用いて、時刻t1−t2間における撮影画像の座標上のオプティカルフローを求める。オプティカルフローは複数の移動ベクトルの集まりであり、ステップS202で求められるオプティカルフローには、ステップS201にて抽出された特徴点の移動ベクトルも含まれている。2つの画像間における着目した特徴点の移動ベクトルは、その2つの画像間における着目した特徴点の移動の向き及び大きさを表す。尚、移動ベクトルは、動きベクトルと同義である。
ステップS201において複数の特徴点が抽出され、ステップS202において複数の特徴点の夫々の移動ベクトルが求められるが、ここでは、説明の具体化のため、その複数の特徴点に含まれる2つの特徴点について注目する。この2つの特徴点は、第1及び第2の特徴点から成る。
図6に、時刻t1の撮影画像から抽出された第1及び第2の特徴点を、時刻t1の撮影画像に重畳して示す。図6において、点131及び点132は、時刻t1の撮影画像から抽出された第1及び第2の特徴点を表している。第1の特徴点は第1の白線の端点であり、第2の特徴点は立体物αの上面に位置する立体物αの端点である。図6に示す時刻t1の撮影画像には、第1の特徴点の移動ベクトルVA1及び第2の特徴点の移動ベクトルVA2も示されている。移動ベクトルVA1の始点は点131に合致し、移動ベクトルVA2の始点は点132に合致する。
ステップS202に続くステップS203では、時刻t1及びt2の撮影画像を、夫々、鳥瞰図画像に変換する。
以下、透視投影変換によって鳥瞰図画像を生成する手法について図7を参照して説明する。
図7は、カメラ座標系XYZと、カメラ2の撮像面Sの座標系Xbubuと、2次元地面座標系Xw w を含む世界座標系Xw w w との関係を示している。座標系Xbubuは、撮像画像が定義される座標系である。
カメラ座標系XYZは、X軸、Y軸及びZ軸を座標軸とする三次元の座標系である。撮像面Sの座標系Xbubuは、Xbu軸及びYbu軸を座標軸とする二次元の座標系である。2次元地面座標系Xw wは、Xw 軸及びZw軸を座標軸とする二次元の座標系である。世界座標系Xw w wは、Xw軸、Yw軸及びZw軸を座標軸とする三次元の座標系である。
以下、カメラ座標系XYZ、撮像面Sの座標系Xbubu、2次元地面座標系Xw w
び世界座標系Xw w w を、夫々、単にカメラ座標系、撮像面Sの座標系、2次元地面座標系及び世界座標系と略記することがある。
カメラ座標系XYZでは、カメラ2の光学中心を原点Oとして、光軸方向にZ軸がとられ、Z軸に直交しかつ地面に平行な方向にX軸がとられ、Z軸およびX軸に直交する方向にY軸がとられている。撮像面Sの座標系Xbubuでは、撮像面Sの中心に原点をとり、撮像面Sの横方向にXbu軸がとられ、撮像面Sの縦方向にYbuがとられている。
世界座標系Xw w w では、カメラ座標系XYZの原点Oを通る鉛直線と地面との交点を原点Ow とし、地面と垂直な方向にYw 軸がとられ、カメラ座標系XYZのX軸と平行な方向にXw 軸がとられ、Xw 軸およびYw 軸に直交する方向にZw 軸がとられている。
w軸とX軸との間の平行移動量はhであり、その平行移動の方向は鉛直線方向である
。Zw軸とZ軸との成す鈍角の角度は、傾き角度Θと一致する。h及びΘの値は予め設定
され、画像処理装置1Aに与えられる。
カメラ座標系XYZにおける画素の座標値を(x,y,z)と表記する。x、y及びzは、夫々、カメラ座標系XYZにおける、X軸成分、Y軸成分及びZ軸成分である。世界座標系Xw w wにおける画素の座標値を(xw ,yw ,zw )と表記する。xw、yw
及びzwは、夫々、世界座標系Xw w wにおける、Xw軸成分、Yw軸成分及びZw軸成
分である。二次元座標系Xw wにおける画素の座標値を(xw ,zw )と表記する。xw及びzwは、夫々、二次元座標系Xw wにおける、Xw軸成分及びZw軸成分であり、それらは世界座標系Xw w wにおけるXw軸成分及びZw軸成分と一致する。撮像面Sの座
標系Xbubuにおける画素の座標値を(xbu,ybu)と表記する。xbu及びybuは、夫
々、撮像面Sの座標系Xbubuにおける、Xbu軸成分及びYbu軸成分である。
カメラ座標系XYZの座標値(x,y,z)と世界座標系Xw w w の座標値(xw ,yw ,zw )との間の変換式は、次式(1)で表される。
Figure 2010016805
ここで、カメラ2の焦点距離をFとする。そうすると、撮像面Sの座標系Xbubuの座標値(xbu,ybu )と、カメラ座標系XYZの座標値を(x,y,z)との間の変換式
は、次式(2)で表される。
Figure 2010016805
上記式(1)及び(2)から、撮像面Sの座標系Xbubuの座標値(xbu,ybu)と二次元地面座標系Xw w の座標値(xw ,zw )との間の変換式(3)が得られる。
Figure 2010016805
また、図7には示されていないが、鳥瞰図画像についての座標系である鳥瞰図座標系Xauauを定義する。鳥瞰図座標系Xauauは、Xau軸及びYau軸を座標軸とする二次元の座標系である。鳥瞰図画像座標系Xauauにおける画素の座標値を(xau,yau )と表
記する。鳥瞰図画像は、二次元配列された複数の画素の画素信号によって表され、鳥瞰図画像上における各画素の位置は座標値(xau,yau )によって表される。xau及びyau は、それぞれ鳥瞰図画座標系XauauにおけるXau軸成分及びYau軸成分である。
鳥瞰図画像は、実際のカメラの撮影を介して得られた撮影画像を仮想カメラの視点(以下、仮想視点という)から見た画像に変換したものである。より具体的には、鳥瞰図画像は、撮影画像を、地上面を鉛直方向に見下ろした画像に変換したものである。この種の画像変換は、一般に、視点変換とも呼ばれている。
地面と一致する、二次元座標系Xw wが定義される平面は、鳥瞰図画像座標系Xauauが定義される平面と平行である。従って、二次元座標系Xw wから仮想カメラの鳥瞰図画像座標系Xauauへの投影は、平行投影によって行われる。仮想カメラの高さ(即ち、仮想視点の高さ)をHとすると、二次元座標系Xw wの座標値(xw ,zw )と鳥瞰図
画像座標系Xauauの座標値(xau,yau )との間の変換式は、次式(4)で表される
。仮想カメラの高さHは予め設定されている。更に、式(4)を変形することにより、下式(5)が得られる。
Figure 2010016805
Figure 2010016805
得られた式(5)を上記式(3)に代入すると、次式(6)が得られる。
Figure 2010016805
上記式(6)から、投影面Sの座標系Xbubuの座標値(xbu,ybu)を、鳥瞰図画
像座標系Xauauの座標値(xau,yau )に変換するための次式(7)が得られる。
Figure 2010016805
投影面Sの座標系Xbubuの座標値(xbu,ybu)は、投影画像における座標値を表
すため、上記式(7)を用いることによって撮影画像を鳥瞰図画像に変換することができる。
即ち、式(7)に従って、撮影画像の各画素の座標値(xbu,ybu )を鳥瞰図画像座
標系の座標値(xau,yau )に変換することにより、鳥瞰図画像を生成することができ
る。鳥瞰図画像は、鳥瞰図座標系に配列された各画素から形成される。
実際には、式(7)に従って、撮影画像上の各画素の座標値(xbu,ybu )と鳥瞰図
画像上の各画素の座標値(xau,yau )との対応関係を示すテーブルデータを作成して
おき、これをメモリ(不図示)に予め格納しておく。そして、このテーブルデータを用いて撮影画像を鳥瞰図画像に変換する透視投影変換を行うようにする。勿論、撮影画像が得られる度に、透視投影変換演算を行って鳥瞰図画像を生成するようにしてもよい。また、ここでは透視投影変換によって鳥瞰図画像を生成する手法について説明を行ったが、透視投影変換によって撮影画像から鳥瞰図画像を得るのではなく、平面射影変換によって撮影画像から鳥瞰図画像を得るようにしても構わない。
時刻t1及びt2の撮影画像に基づく鳥瞰図画像を、夫々、時刻t1及び時刻t2の鳥瞰図画像と呼ぶ。図8(a)及び(b)に示される画像210及び220は、夫々、図4(a)及び(b)の画像110及び120に基づく、時刻t1及びt2の鳥瞰図画像を表す。図8(a)において、斜線で埋められた線分211及び212は画像210内における第1及び第2の白線であり、図8(b)において、斜線で埋められた線分221及び222は画像220内における第1及び第2の白線である。図8(a)において、画像上の立体物213は画像210内における立体物αであり、図8(b)において、画像上の立体物223は画像220内における立体物αである。
ステップS203(図5参照)に続くステップS204では、ステップS201において時刻t1の撮影画像から抽出された特徴点と、ステップS202にて算出された移動ベクトルと、を鳥瞰図座標上にマッピングする(換言すれば、投影する)。図9は、時刻t1及びt2の鳥瞰図画像を重ね合わせた画像230に、マッピングされた特徴点及び移動ベクトルを重畳して示した図である。但し、図9では、図示の煩雑化防止のため、時刻t2の鳥瞰図画像における第1及び第2の白線を点線で示し、時刻t2の鳥瞰図画像における立体物αの外形を波線で示している。
図9において、点231及び232は、夫々、鳥瞰図座標上にマッピングされた、時刻t1における第1及び第2の特徴点である。図9において、ベクトルVB1及びVB2は、夫々、鳥瞰図座標上にマッピングされた、第1及び第2の特徴点の移動ベクトルである。移動ベクトルVB1の始点は点231に合致し、移動ベクトルVB2の始点は点232に合致する。点241及び242は、夫々、移動ベクトルVB1及びVB2の終点を表している。
ステップS204に続くステップS205では、車両4の移動に伴うカメラ2の移動に関する情報(以下、カメラ移動情報という)を用いて時刻t1の鳥瞰図画像を補正する。車両移動情報は、例えば、次のようにして得ることができる。
時刻t1及びt2の鳥瞰図画像での或る地面対応特徴点の座標を、夫々、(x1,y1)、(x2,y2)と表すと、或る地面対応特徴点の移動ベクトルは次式(11)のようになる。
(fxyT=(x22T−(x11T …(11)
時刻t1−t2間のカメラ移動情報を図10の座標系で表現すると、時刻t1及びt2の鳥瞰図画像での或る地面対応特徴点の関係として、次式(12)が得られる。但し、θはカメラ2の回転角度、Tx、Tyは、夫々、カメラ2のx方向移動量、カメラ2のy方向移動量である。
Figure 2010016805
ここで、θが微小であるとき(車両4が低速で移動する場合、又は、カメラ2のフレームサンプリングレートが高い場合)、cosθ=1、sinθ=θと近似することができるので、上記式(12)は次式(13)となる。
Figure 2010016805
上記式(11)を上記式(13)に代入して整理すると、次式(14)となる。
θ(y1 −x1T−(TxyT+(fxyT=0 …(14)
ここで、(fxyTと(y1 −x1Tは移動ベクトル計算時に得られ、θと(Tx
yTは未知数である。上記式(4)から、2つの地面対応特徴点についてその位置(x11Tとその移動ベクトル(fxyTの情報があれば、上記未知数を計算することができる。
そこで、時刻t1の鳥瞰図画像での2つの地面対応特徴点座標を(x1212Tと(
1111Tとし、対応する移動ベクトルを(fx1x1Tと(fx2y2Tとする
と、上記式(14)から、次式(15)及び(16)が得られる。
θ(y11 −x11T−(TxyT+(fx1y1T=0 …(15)
θ(y12 −x12T−(TxyT+(fx2y2T=0 …(16)
上記式(15)と(16)との差をとると、次式(17)が得られる。
Figure 2010016805
そして、上記式(17)より、次式(18)及び(19)が得られる。
θ=(fx2−fx1)/(y11−y12) …(18)
θ=(fy2−fy1)/(x12−x11) …(19)
そこで、上述した拘束式(上記式(15)、(16)、(18)及び(19))を用いて、下記の手順で地面対応特徴点を選択する。
(i)抽出した特徴点群の中から、特徴点の画像上の距離が或る閾値以上離れている2
つの特徴点を抽出する。
(ii)両特徴点の移動ベクトルの方向とサイズに差が或る閾値以上あれば、(i)に戻
る。
(iii)両特徴点の位置と移動ベクトルの情報を上記式(18)及び(19)に代入し
、結果をθ1とθ2とする。Δθ=|θ1−θ2|が設定した閾値より大きい場
合、(i)に戻る。
(iv)(iii)で計算したθ1とθ2をそれぞれ上記式(15)及び式(16)に代入
し、その結果を、(Tx1y1Tと(Tx2y2Tとする。
(Tx1−Tx22+(Ty1−Ty22が設定した閾値より大きい場合は(i)に戻
る。
(v) 選択した2つの特徴点を地面対応特徴点と判断し、各地面対応特徴点の移動量
の平均をカメラ移動情報とする。
このようにして得られたカメラ移動情報、即ちカメラ回転量θ及びカメラ並進移動量Tx、Tyを用いて、上記式(13)に従って、時刻t1の鳥瞰図画像を時刻t2の鳥瞰図画像と路面の見え方が同じになる鳥瞰図画像(以下、参照画像という)に変換する。
ステップS205(図5参照)に続くステップS206では、参照画像と時刻t2の鳥瞰図画像の差分を取ることで、図11に示すt1−t2間でのフレーム間差分画像を得る。そして、ステップS206に続くステップS207では、その差分画像に対して、あらかじめ閾値を設置し、2値化処理を行う。図12は2値化処理後の画像を表している。さらに、ステップS207に続くステップS208では、図12の2値化画像に対して、小領域除去処理と領域結合処理をして、立体物領域を抽出する。図13の白抜き枠で囲まれた部分が抽出された立体物領域である。なお、上述した図5のフローチャートの処理を行う際に用いられる各種閾値は立体物検出部11内のメモリ(不図示)にあらかじめ格納しておくとよい。
ここで、図3に戻り、ステップS2より後の処理について説明する。ステップS3では、ガイドライン描画位置決定部12が、ガイドラインの描画位置を求める。ガイドラインの描画位置はカメラ2の車両取り付け位置などのパラメータから予め求めることができるので、ガイドライン描画位置決定部12内のメモリ(不図示)にガイドラインの描画位置データをあらかじめ格納しておき、ステップS3ではメモリに格納されているそのデータを読み出すようにしてもよい。ガイドラインは、例えば、車両4の右端の延長線、車両4の左端の延長線、車両4の後端から0.5mの位置を示す線、車両4の後端から1.0mの位置を示す線、及び車両4の後端から2.0mの位置を示す線によって構成される。尚、カメラ2の車両取り付け位置がずれたためにカメラ2の撮像画像とガイドラインの描画位置とにずれが生じた場合のずれの修正や調整を容易にするために、鳥瞰図画像のパラメータに関してキャリブレーションを行った後、鳥瞰図画像及び鳥瞰図画像用ガイドラインの描画位置においてずれの修正や調整を行いその修正結果や調整結果がカメラ2の撮像画像とガイドラインの描画位置との位置関係に反映されるようにするとよい。例えば、図1の運転支援システムに入力部を設けた構成とし、カメラ2の撮像画像を鳥瞰図画像に変換し、鳥瞰図画像を表示している状態において、ユーザによるパラメータ変更操作によって図7及び上記式(1)のパラメータh或いはΘのキャリブレーションを行った後、ユーザによる回転操作及び水平移動操作によって鳥瞰図画像と鳥瞰図画像用ガイドラインの描画位置とのずれが無くなるように、ユーザによる回転操作に従って入力部から出力される信号に基づく回転量だけ当該鳥瞰図画像を回転させた画像(以下、回転処理済鳥瞰図画像という)を生成し、ユーザによる水平移動操作に従って入力部から出力される信号に基づく水平方向移動量だけ当該回転処理済鳥瞰図画像を水平方向に移動させた画像(以下、回転・水平移動処理済鳥瞰図画像という)を生成するようにする。このときの回転量を鳥瞰図画像の回転量としてガイドライン描画位置決定部12内のメモリに記憶するとともに、当該回転量からこの鳥瞰図画像に対応するカメラ2の撮像画像を出力する際の回転量も導出し、カメラ2の撮像画像の回転量としてガイドライン描画位置決定部12内のメモリに記憶する。また、このときの水平方向移動量を鳥瞰図画像の水平方向移動量としてガイドライン描画位置決定部12内のメモリに記憶するとともに、当該水平方向移動量からこの鳥瞰図画像に対応するカメラ2の撮像画像を出力する際の水平方向移動量も導出し、カメラ2の撮像画像の水平方向移動量としてガイドライン描画位置決定部12内のメモリに記憶する。
ステップS3に続くステップS4では、ガイドライン描画位置補正部13が、ステップS2で検出した立体物領域とガイドラインの描画位置との重なりを判定する。具体的には、ガイドラインの描画位置が、ステップS2で検出した立体物領域に含まれるか否かを、ガイドラインの描画位置の画素毎に判定する。
ステップS4に続くステップS5では、ガイドライン描画位置補正部13が、ガイドラインの描画位置の画素であって立体物領域に含まれない画素のみをガイドラインの描画位置の画素とする補正を行う。
ステップS5に続くステップS6では、合成部14が、補正後のガイドラインの描画位置に基づいて、ガイドラインとカメラ2の撮像画像とを合成する。そして、ステップS6に続くステップS7では、合成部14が、その合成画像を運転支援用画像として表示装置3に出力する。表示装置3によって表示される運転支援用画像の例を図14(a)及び(b)に示す。従来の運転支援用画像である図18(a)及び(b)とは異なり、図14(a)及び(b)では立体物と検出される自転車、塀にはガイドラインが重畳されていない。尚、図14(a)において、斜線で埋められた線分は路面上に互いに描かれた白線を表している。このように、あらかじめ設定した路面上の距離指標であるガイドラインが立体物上には重畳しないことにより、運転支援に必要最小限のガイドラインとなり、運転者が視認しやすい運転支援用画像を表示装置3に表示させることができる。
<第2実施形態>
図15は、本発明の第2実施形態に係る運転支援システムの構成を示すブロック図である。図15の運転支援システムは、カメラ2の撮影画像を用いて運転支援用画像を生成して表示装置3に出力する画像処理装置1Bと、カメラ2と、表示装置3とを備えている。画像処理装置1Bは、第1実施形態での画像処理装置1Aに警告表示図描画位置決定部15を追加した構成であるため、この追加構成によって第1実施形態と相違する点についてのみ説明を行う。
第2実施形態では、図3のフローチャートのステップS5とステップS6との間に、警告表示描画位置決定部15が、ステップS2で検出した立体物領域上にマーキングなどの警告表示図が重なるように、警告表示図の描画位置を決定する。そして、ステップS6では、合成部14が、ガイドラインとカメラ2の撮像画像に加えて、マーキングなどの警告表示図も合わせて合成する。
第2実施形態においても第1実施形態と同様に、あらかじめ設定した路面上の距離指標であるガイドラインが立体物上に重畳されないので、ガイドラインと立体物領域上の警告表示図とが重ならない(図16参照)。従来の運転支援用画像である図18(a)及び(b)とは異なり、図16(a)及び(b)では立体物と検出される自転車、塀にはガイドラインが重畳されていない、また、立体物と検出される自転車、塀に網掛けのマーキングが重畳されている。尚、図16(a)において、斜線で埋められた線分は路面上に互いに描かれた白線を表している。このようにガイドラインと立体物領域上の警告表示図とが重ならないので、煩雑な表示にならない。従って、ガイドラインの表示と警告表示図の表示とを両立することができる。
<第3実施形態>
図17は、本発明の第3実施形態に係る運転支援システムの構成を示すブロック図である。図17の運転支援システムは、カメラ2の撮影画像及び立体物検出センサ5の検出結果を用いて運転支援用画像を生成して表示装置3に出力する画像処理装置1Cと、カメラ2と、表示装置3と、立体物検出センサ5とを備えている。立体物検出センサ5としては、例えば、ミリ波レーダやレーザレーダなどを利用することができる。画像処理装置1Cは、第1実施形態での画像処理装置1Aから立体物検出部11を取り除きその代わりに立体物領域検出部16を設けた構成であるため、この構成変更によって第1実施形態と相違する点についてのみ説明を行う。
第3実施形態では、図3のフローチャートのステップS2において、立体物領域検出部16が、立体物検出センサ5の検出結果に基づいてカメラ2の撮影画像中の立体物領域を検出する。立体物検出センサによる立体物検出は、カメラ画像処理による立体物検出に比べて一般的に距離精度が高いため、第3実施形態では第1実施形態に比べて立体物の検出精度を向上することができる。
尚、第3実施形態と第1実施形態を組み合わせること、即ち、立体物検出センサによる立体物検出とカメラ画像処理による立体物検出画像処理とを併用することも可能である。また勿論、第3実施形態と第2実施形態を組み合わせることも可能である。
<第4実施形態>
本発明の第4実施形態に係る運転支援システムの構成は、図15に示す本発明の第2実施形態に係る運転支援システムの構成と同様である。ただし、第2実施形態と第4実施形態では警告表示描画位置決定部15の動作が異なる。
第2実施形態では図3のフローチャートのステップS5とステップS6との間に、警告表示描画位置決定部15が、ステップS2で検出した立体物領域上にマーキングなどの警告表示図が重なるように、警告表示図の描画位置を決定するステップを設ける。そして、ステップS6では、合成部14が、ガイドラインとカメラ2の撮像画像に加えて、マーキングなどの警告表示図も合わせて合成している。
これに対して、第4実施形態では、図3のフローチャートのステップS5とステップうS6の間に、警告表示描画位置決定部15が、ステップS2で検出した立体物領域のうち特定の立体物領域(本実施形態では塀の領域)を立体物領域の形状等に基づいて抽出し、その抽出した特定の立体物領域と非立体物領域との境界の少なくとも一部に警告ライン17が重なるように、警告ライン17の描画位置を決定するステップを設ける。そして、ステップS6では、合成部14がガイドラインとカメラ2の映像画像に加えて、警告ライン17も合わせて合成している。これにより、本実施形態の運転支援用画像は、図19(a)及び図19(b)のようになる。警告ライン17は、例えば、一般的な警告色である赤色のラインにするとよい。
尚、本実施形態では、カメラ画像処理による立体物検出画像処理を採用したが、カメラ画像処理による立体物検出処理に代えて上述した第3実施形態の立体物検出センサによる立体物検出とカメラ画像処理による立体物検出画像処理とを併用してもよい。
<変形等>
上述した実施系では、ガイドとして線状のガイドラインを用いたが、ガイドは他の形状であってもよい。
カメラ画像処理による立体物検出では、例えば、図5のステップS207における2値化処理の閾値の設定により、所定の高さ以下の立体物を立体物として検出しないようにすることができる。また、立体物検出センサによる立体物検出では、例えば、センシング方向の設定により、所定の高さ以下の立体物を立体物として検出しないようにすることができる。
また、上述した実施形態では、路面より高さのある立体物を検出したが、カメラ画像処理による立体物検出や立体物検出センサによる立体物検出の手法は路面より低い部分を検出する場合にも適用することができるので、路面より高さのある立体物の検出に代えて又はこれと併せて、路面より低い部分(土手や側溝などのように自車両の存在する路面より低い部分)の検出を行うようにし、路面より低い部分にガイドを重畳させないようにしてもよい。
また、上述した実施形態において、画像処理装置のブロック内メモリ(立体物検出部11内のメモリやガイドライン描画位置決定部12内のメモリ)をブロック毎に個別に設けるのではなく、複数のブロックでメモリを共有する構成にしても構わない。
1A 画像処理装置
2 カメラ
3 表示装置
4 車両
5 立体物検出センサ
11 立体物検出部
12 ガイドライン描画位置決定部
13 ガイドライン描画位置補正部
14 合成部
15 警告表示図描画位置決定部
16 立体物領域検出部
17 警告ライン

Claims (8)

  1. 車両に搭載された撮像装置の撮像画像を前記撮像装置から取得し、前記撮像画像上にガイドを重畳するガイド重畳部と、
    前記撮影画像に含まれ得る特定領域を検出する特定領域検出部とを備え、
    前記特定領域検出部によって前記特定領域が検出された場合、前記ガイド重畳部が、前記特定領域上には前記ガイドを重畳しないことを特徴とする画像処理装置。
  2. 前記特定領域が前記車両の存在する路面より高さのある立体物である請求項1に記載の画像処理装置。
  3. 前記特定領域が前記車両の存在する路面より低い部分である請求項1又は請求項2に記載の画像処理装置。
  4. 前記特定領域検出部によって前記特定領域が検出された場合、前記特定領域上に警告表示図を重畳する警告表示図重畳部を備える請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記特定領域検出部によって前記特定領域が検出された場合、前記特定領域と前記特定領域ではない領域との境界上の少なくとも一部に警告ラインを重畳する警告ライン重畳部をさらに備える請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 車両に搭載された撮像装置と、
    表示装置と、
    前記撮像装置の撮像画像に画像処理を施して前記表示装置に出力する請求項1〜5のいずれか1項に記載の画像処理装置とを備えることを特徴とする運転支援システム。
  7. 車両に搭載された撮像装置の撮像画像を前記撮像装置から取得する取得ステップと、
    前記撮影画像に含まれ得る特定領域を検出する検出ステップと、
    前記撮像画像上にガイドを重畳する重畳ステップとを有し、
    前記検出ステップにおいて前記特定領域が検出された場合、前記重畳ステップにおいて前記特定領域上には前記ガイドを重畳しないことを特徴とする画像処理方法。
  8. 前記検出ステップにおいて前記特定領域が検出された場合、前記特定領域と前記特定領域ではない領域との境界上の少なくとも一部に警告ラインを重畳する警告ライン重畳ステップをさらに有する請求項7記載の画像処理方法。
JP2009131822A 2008-06-04 2009-06-01 画像処理装置、運転支援システム、及び画像処理方法 Pending JP2010016805A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009131822A JP2010016805A (ja) 2008-06-04 2009-06-01 画像処理装置、運転支援システム、及び画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008146837 2008-06-04
JP2009131822A JP2010016805A (ja) 2008-06-04 2009-06-01 画像処理装置、運転支援システム、及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2010016805A true JP2010016805A (ja) 2010-01-21

Family

ID=41399801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009131822A Pending JP2010016805A (ja) 2008-06-04 2009-06-01 画像処理装置、運転支援システム、及び画像処理方法

Country Status (2)

Country Link
US (1) US8169309B2 (ja)
JP (1) JP2010016805A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018110328A (ja) * 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020161866A (ja) * 2019-03-25 2020-10-01 パナソニックIpマネジメント株式会社 画像生成装置、カメラ、表示システム及び車両

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4871909B2 (ja) * 2008-04-25 2012-02-08 日立オートモティブシステムズ株式会社 物体認識装置、および物体認識方法
EP2490198A4 (en) * 2009-10-02 2013-05-15 Mitsubishi Electric Corp PARK ASSIST DEVICE
US8456711B2 (en) * 2009-10-30 2013-06-04 Xerox Corporation SUSAN-based corner sharpening
WO2012066589A1 (ja) * 2010-11-15 2012-05-24 三菱電機株式会社 車載用画像処理装置
US8774556B2 (en) * 2011-11-30 2014-07-08 Microsoft Corporation Perspective correction using a reflection
JP5776546B2 (ja) * 2011-12-28 2015-09-09 富士通株式会社 路面調査プログラム及び路面調査装置
JP6369035B2 (ja) * 2013-02-05 2018-08-08 株式会社デンソー 物標検出装置
US9488483B2 (en) * 2013-05-17 2016-11-08 Honda Motor Co., Ltd. Localization using road markings
JP6506032B2 (ja) * 2015-01-28 2019-04-24 株式会社トプコン 測量データ処理装置、測量データ処理方法およびプログラム
US10368035B2 (en) 2015-03-20 2019-07-30 Nec Corporation Monitoring system, monitoring method, and monitoring program
WO2017033518A1 (ja) * 2015-08-27 2017-03-02 株式会社Jvcケンウッド 車両用表示装置および車両用表示方法
US11292398B2 (en) * 2020-04-20 2022-04-05 Hyundai Mobis Co., Ltd. Apparatus for displaying forward blind spot situation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7366595B1 (en) * 1999-06-25 2008-04-29 Seiko Epson Corporation Vehicle drive assist system
JP3624769B2 (ja) * 1999-09-30 2005-03-02 株式会社豊田自動織機 車両後方監視装置用画像変換装置
JP3427823B2 (ja) * 2000-02-29 2003-07-22 株式会社豊田自動織機 縦列駐車時の車両後退支援装置
JP3645196B2 (ja) * 2001-02-09 2005-05-11 松下電器産業株式会社 画像合成装置
JP3960153B2 (ja) 2002-07-16 2007-08-15 日産自動車株式会社 車両周辺監視装置
JP2004198211A (ja) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP3945467B2 (ja) 2003-10-02 2007-07-18 日産自動車株式会社 車両後退支援装置および方法
JP4414959B2 (ja) * 2005-11-16 2010-02-17 アイシン精機株式会社 駐車支援装置
JP2007235642A (ja) * 2006-03-02 2007-09-13 Hitachi Ltd 障害物検知システム
US7825785B2 (en) * 2008-05-06 2010-11-02 Shih-Hsiung Li Vehicle backup detector that indicates a distance from an obstruction
JP5124351B2 (ja) * 2008-06-04 2013-01-23 三洋電機株式会社 車両操作システム
US20110103651A1 (en) * 2008-07-31 2011-05-05 Wojciech Tomasz Nowak Computer arrangement and method for displaying navigation data in 3d

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018110328A (ja) * 2017-01-04 2018-07-12 株式会社デンソーテン 画像処理装置および画像処理方法
JP2020161866A (ja) * 2019-03-25 2020-10-01 パナソニックIpマネジメント株式会社 画像生成装置、カメラ、表示システム及び車両
WO2020194893A1 (ja) * 2019-03-25 2020-10-01 パナソニックIpマネジメント株式会社 画像生成装置、カメラ、表示システム及び車両
JP7209189B2 (ja) 2019-03-25 2023-01-20 パナソニックIpマネジメント株式会社 画像生成装置、カメラ、表示システム、車両及び画像生成方法
US11820300B2 (en) 2019-03-25 2023-11-21 Panasonic Intellectual Property Management Co., Ltd. Image generation device, camera, display system, and vehicle

Also Published As

Publication number Publication date
US20090303024A1 (en) 2009-12-10
US8169309B2 (en) 2012-05-01

Similar Documents

Publication Publication Date Title
JP2010016805A (ja) 画像処理装置、運転支援システム、及び画像処理方法
JP5615441B2 (ja) 画像処理装置及び画像処理方法
US7728879B2 (en) Image processor and visual field support device
JP4596978B2 (ja) 運転支援システム
JP5729158B2 (ja) 駐車支援装置および駐車支援方法
KR101491170B1 (ko) 차량 주위 화상 표시 시스템
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP2009060499A (ja) 運転支援システム及び連結車両
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP2006268076A (ja) 運転支援システム
JP2008085710A (ja) 運転支援システム
JP2008048094A (ja) 車両用映像表示装置及び車両周囲映像の表示方法
JP2020068515A (ja) 画像処理装置
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP4720446B2 (ja) 車両検出装置及びこれを用いた車両用表示装置
US8860810B2 (en) Method and device for extending a visibility area
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP5271186B2 (ja) 車両用画像表示装置
JP3988551B2 (ja) 車両周囲監視装置
JP5235843B2 (ja) 車両周辺監視装置および車両周辺監視方法
JP6032141B2 (ja) 走行路面標示検知装置および走行路面標示検知方法
KR101293263B1 (ko) 복수개의 영상을 합성한 합성 영상에서 거리 정보를 제공하는 기능을 구비하는 영상 처리 장치 및 방법
JP2009077022A (ja) 運転支援システム及び車両
JP6274936B2 (ja) 運転支援装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20091111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110203