JP4412380B2 - 運転支援装置、運転支援方法及びコンピュータプログラム - Google Patents

運転支援装置、運転支援方法及びコンピュータプログラム Download PDF

Info

Publication number
JP4412380B2
JP4412380B2 JP2007258641A JP2007258641A JP4412380B2 JP 4412380 B2 JP4412380 B2 JP 4412380B2 JP 2007258641 A JP2007258641 A JP 2007258641A JP 2007258641 A JP2007258641 A JP 2007258641A JP 4412380 B2 JP4412380 B2 JP 4412380B2
Authority
JP
Japan
Prior art keywords
image
vehicle
host vehicle
blind spot
spot area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007258641A
Other languages
English (en)
Other versions
JP2009083764A (ja
Inventor
英文 岡部
智之 国立
実 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2007258641A priority Critical patent/JP4412380B2/ja
Priority to CN200810145966.9A priority patent/CN101404122B/zh
Priority to EP08016123A priority patent/EP2045132B1/en
Priority to US12/232,414 priority patent/US8089512B2/en
Publication of JP2009083764A publication Critical patent/JP2009083764A/ja
Application granted granted Critical
Publication of JP4412380B2 publication Critical patent/JP4412380B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/25Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the sides of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/202Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used displaying a blind spot scene on the vehicle part responsible for the blind spot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両からの死角方向における視界を補完する運転支援装置、運転支援方法及びコンピュータプログラムに関する。
近年、ナビゲーションシステムの普及にともなって、車両の周辺の状況を車室内の表示装置に表示する画像表示システムを搭載する車両が増加している。車両の周辺の状況としては、例えば、他車の位置、障害物の状況、センターラインや停止線等の道路標示等がある。
ここで、車両には運転者から周囲の状況を視認することができない領域である所謂死角領域が存在する。例えば、車両の後方、フロントピラー方向及び前方のバンパー下等が車両の死角領域として存在する。そして、このような死角領域の状況は通常、運転者によって認識することが困難となっており、人や障害物が車両に接近していることに気付くのが遅れてしまう一因となっていた。そこで、これらの死角領域における周辺の状況を、車両に設置したカメラ等の撮像装置によって撮像し、車両の走行中又は停車中において車内に設置された表示装置に表示することにより、運転者の補助を行うことが行われている。
例えば、特開2005−184225号には、車両の天井を支えるピラーによってできる死角を含む景色をドアミラーに設置されたカメラで撮影し、撮影されたデータ、ドライバの眼球の座標、ピラーの座標、カメラの座標及び撮影方向に基づき画像の補正を行い、補正された画像をプロジェクタにより各ピラーに表示する技術について記載されている。
特開2005−184225号公報(第8頁〜第11頁、図6)
しかしながら、前記した特許文献1に記載された技術では、カメラで画像を撮像する時点と、撮像した画像を各ピラーに表示する時点との間にタイムラグが発生する。即ち、カメラの撮像処理、撮像した画像に対する画像処理、各ピラーへの表示処理を行うのには、少なくとも一定以上の時間が必要であり、カメラで撮像した画像を撮像したタイミングと同時には各ピラーに表示することができない。従って、実際に表示される画像は、運転者からの死角領域とは異なる領域の画像となってしまう。その結果、実際の死角領域と各ピラーに表示された画像領域とが相違することとなり、運転者の判断を誤らせる虞があった。
本発明は前記従来における問題点を解消するためになされたものであり、撮像した撮像画像の中から所定時間後の自車両の死角領域に相当する画像を抽出して出力するので、画像を撮像する時点と撮像した画像をディスプレイ等に表示する時点との間にタイムラグが生じる場合であっても、実際の自車両の死角領域を正確に表示することが可能な運転支援装置、運転支援方法及びコンピュータプログラムを提供することを目的とする。
前記目的を達成するため本願の請求項1に係る運転支援装置(1)は、自車両(2)の周辺環境を撮像する撮像手段(4)と、自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得手段(3)と、前記走行状況取得手段により取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測手段と、前記位置予測手段により予測された位置にある自車両の死角領域を算出する死角領域算出手段と、前記撮像手段によって撮像された撮像画像の内、前記死角領域算出手段により算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出手段(3)と、前記画像抽出手段で抽出された画像を出力する画像出力手段(3)と、を有することを特徴とする。
また、請求項2に係る運転支援装置(1)は、請求項1に記載の運転支援装置において、前記所定時間は、前記撮像手段(4)により周辺環境を撮像してから撮像画像を前記画像出力手段(3)により出力するまでの時間であることを特徴とする。
また、請求項3に係る運転支援装置(1)は、請求項1又は請求項2に記載の運転支援装置において、前記画像抽出手段(3)は自車両(2)のピラー(12)によって生じる死角領域に相当する画像を抽出し、前記画像出力手段(3)は前記画像抽出手段で抽出された画像を出力することにより、該画像を自車両のピラーの内側に表示することを特徴とする。
また、請求項4に係る運転支援方法は、自車両(2)の周辺環境を撮像する撮像ステップ(S1)と、自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得ステップ(S2、S3)と、前記走行状況取得ステップにより取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測ステップと、前記位置予測ステップにより予測された位置にある自車両の死角領域を算出する死角領域算出ステップと、前記撮像ステップによって撮像された撮像画像の内、前記死角領域算出ステップにより算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出ステップ(S4、S5)と、前記画像抽出ステップで抽出された画像を出力する画像出力ステップ(S7)と、を有することを特徴とする。
更に、請求項5に係るコンピュータプログラムは、コンピュータに搭載され、自車両(2)の周辺環境を撮像する撮像機能(S1)と、自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得機能(S2、S3)と、前記走行状況取得機能により取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測機能と、前記位置予測機能により予測された位置にある自車両の死角領域を算出する死角領域算出機能と、前記撮像機能によって撮像された撮像画像の内、前記死角領域算出機能により算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出機能(S4、S5)と、前記画像抽出機能で抽出された画像を出力する画像出力機能(S7)と、を実行させることを特徴とする。
前記構成を有する請求項1に記載の運転支援装置によれば、撮像した撮像画像の中から所定時間後の自車両の死角領域に相当する画像を抽出して出力するので、例えば画像を撮像する時点と撮像した画像をディスプレイ等に表示する時点との間にタイムラグが生じる場合であっても、実際の自車両の死角領域を正確に表示することが可能となる。それによって、実際の車両の周囲状況とディスプレイ等に表示された車両の周囲状況とが相違することなく、運転者に適切な判断を行わせることができる。
また、請求項1に記載の運転支援装置によれば、所定時間後の自車両の位置を予測し、その位置からの死角領域を算出するので、所定時間後の車両の周辺状況を撮像した画像を撮像画像から適切に抽出することが可能となる。
また、請求項2に記載の運転支援装置によれば、画像を撮像する時点と撮像した画像を出力する時点との間に生じるタイムラグを考慮することにより、実際の車両の周囲状況とディスプレイ等に表示された車両の周囲状況とを相違させることなく、画像を表示する現在時点での車両の周辺状況を適切に表示することが可能となる。
また、請求項3に記載の運転支援装置によれば、特に車両のピラーによって生じる死角領域について、その死角領域に相当する画像をピラーの内側に表示するので、運転者の視界を狭くすることなく運転環境を向上させる。また、運転者は投影された画像を視認することにより、死角に位置する対象物の状態をより正確に把握することが可能となる。
また、請求項4に記載の運転支援方法によれば、撮像した撮像画像の中から所定時間後の自車両の死角領域に相当する画像を抽出して出力するので、例えば画像を撮像する時点と撮像した画像をディスプレイ等に表示する時点との間にタイムラグが生じる場合であっても、実際の自車両の死角領域を正確に表示することが可能となる。それによって、実際の車両の周囲状況とディスプレイ等に表示された車両の周囲状況とが相違することなく、運転者に適切な判断を行わせることができる。
更に、請求項5に記載のコンピュータプログラムによれば、撮像した撮像画像の中から所定時間後の自車両の死角領域に相当する画像を抽出して出力させるので、例えば画像を撮像する時点と撮像した画像をディスプレイ等に表示する時点との間にタイムラグが生じる場合であっても、実際の自車両の死角領域を正確に表示させることが可能となる。それによって、実際の車両の周囲状況とディスプレイ等に表示された車両の周囲状況とが相違することなく、運転者に適切な判断を行わせることができる。
以下、本発明に係る運転支援装置について具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。ここで、以下に説明する本実施形態に係る運転支援装置1は、車両外壁に設置されたカメラで車両の死角領域に相当する画像を撮像し、車内で運転者に表示する装置であるが、本実施形態では特に車両の死角領域として、車両のフロントピラーによって生じる死角領域を対象とする。また、死角領域に相当する画像を表示する方法としては、本実施形態では特にフロントピラーの内側にプロジェクタで画像を投影することにより行う。
先ず、本実施形態に係る運転支援装置1の概略構成について図1及び図2を用いて説明する。図1は本実施形態に係る運転支援装置1を搭載した車両2の外観図、図2は本実施形態に係る運転支援装置1の制御系を模式的に示すブロック図である。
図1及び図2に示すように、本実施形態に係る運転支援装置1は、車両2に対して設置された運転支援ECU(走行状況取得手段、画像抽出手段、画像出力手段、位置予測手段、死角領域算出手段)3と、カメラ(撮像手段)4と、プロジェクタ5と、カメラパラメータDB6と、画像DB7と、頭部位置検出センサ8と、車速センサ9と、ステアリングセンサ10と、ジャイロセンサ11とから構成されている。
また、運転支援ECU(エレクトロニック・コントロール・ユニット)3は、カメラ4で撮像した撮像画像の内、特に右側フロントピラー12により生じる死角領域に相当する画像を抽出し、その抽出した画像をプロジェクタ5により右側フロントピラー12の内側に投影する画像投影処理(図6参照)等を行う電子制御ユニットである。尚、運転支援ECU3はナビゲーション装置の制御に使用するECUと兼用してもよい。また、運転支援ECU3の詳細な構成については後述する。
カメラ4は、例えばCCD等の固体撮像素子を用いたものであり、車両2の右側フロントピラー12の外側に取り付けられ、光軸方向Lを水平より所定角度下方に向けて設置される。また、図3に示すようにカメラ4の光軸方向Lは車両2の右前方に向けられ、光軸方向Lを中心とした所定範囲内をカメラ4により周辺環境を撮像可能な撮像領域15とする。そして、カメラ4は走行時及び停車時に車両2の右前方を撮像し、その撮像された撮像画像(図10参照)は画像DB7に一旦記憶される。その後に、後述のように右側フロントピラー12によって生じる死角領域に相当する範囲画像が撮像画像から抽出され、プロジェクタ5により右側フロントピラー12の内側に投影される(図11参照)。尚、本実施形態では、光軸方向Lは運転者16からの右側フロントピラー12の視認方向(即ち、運転者16から右側フロントピラー12により生じる死角領域の方向)と同一方向となるように設定される。
また、プロジェクタ5は、液晶パネルと投影用の光源から構成される所謂液晶プロジェクタである。そして、本実施形態に係る運転支援装置1では右側フロントピラー12の内側に対して、右側フロントピラー12により生じる死角領域を撮像した画像を投影する。ここで、図4はプロジェクタ5の投影構造を示した概略図、図5は右側フロントピラー12の内側を示した正面図である。
プロジェクタ5は、図1及び図4に示すように、ルーフ21内側であって、運転者16が着座するフロントシート22の鉛直方向上方付近に設置される。また、図5に示すように右側フロントピラー12の内側面には、ピラーの形状に合わせて切断されたスクリーン24が貼着されている。更に、プロジェクタ5の焦点は、このスクリーン24に合わせて調整され、プロジェクタ5の投影範囲がスクリーン24の被投影面に一致するように設定されている。そして、後述のようにプロジェクタ5による画像の投影を行うことによって、車両2の死角領域を形成する右側フロントピラー12に対して、右側フロントピラー12を透過した画像が表示される(図11参照)。尚、プロジェクタ5としては液晶プロジェクタの代わりに、DLPプロジェクタやLCOSプロジェクタを用いても良い。また、右側フロントピラー12の内側面がプロジェクタ5から出力された投影光を受光して鮮明な画像を表示できる材質及び形状からなる場合には、スクリーン24は省略しても良い。
また、カメラパラメータDB6は、カメラ4に関する各種パラメータが記憶された記憶手段である。例えば本実施形態ではカメラパラメータDB6に記憶される情報として、カメラ4の車両2に対する設置位置、設置角度、撮像範囲、カメラ撮像平面(図7参照)等が記憶される。そして、運転支援ECU3は、カメラパラメータDB6に記憶された各種パラメータを用いてカメラ4で撮像した撮像画像から、右側フロントピラー12により生じる死角領域に相当する画像を抽出する。
一方、画像DB7は、カメラ4によって撮像された撮像画像を記憶する記憶手段である。そして、運転支援ECU3は、画像DB7に記憶された撮像画像に対して所定の画像処理を施すことにより、プロジェクタ5で投影する投影データを作成する。
また、頭部位置検出センサ8は、複数の超音波センサから構成され、車両2の室内であってフロントシート22に着座した運転者16の周囲に、運転者16の頭部と略同じ高さか若干高い位置に取り付けられている。そして、頭部位置検出センサ8から発信された超音波が運転者16の頭部に反射した際に、運転支援ECU3は超音波を発信してから反射波を受信するまでの時間を計測し、頭部の位置を検出する。そして、本実施形態では、運転支援ECU3は頭部位置検出センサ8の検出結果に基づいて、車両の死角領域を算出する。
また、車速センサ9は、車両の移動距離や車速を検出する為のセンサであり、車両2の車輪の回転に応じてパルスを発生させ、パルス信号を運転支援ECU3に出力する。そして、運転支援ECU3は発生するパルスを計数することにより車輪の回転速度や移動距離を算出する。
また、ステアリングセンサ10は、ステアリング装置の内部に取り付けられており、ステアリングの回動角を検出可能とするセンサである。
ジャイロセンサ11は、車両2の旋回角を検出可能とするセンサである。また、ジャイロセンサ11によって検出された旋回角を積分することにより、自車方位を検出することができる。
次に、運転支援ECU3の詳細について図2を用いて説明すると、運転支援ECU3はCPU31を核として構成されており、CPU31には記憶手段であるROM32及びRAM33が接続されている。そして、ROM32には後述の画像投影処理プログラム(図6参照)、その他、カメラ4やプロジェクタ5等の制御上必要な各種のプログラム等が格納されている。また、RAM33はCPU31で演算された各種データを一時的に記憶しておくメモリである。
続いて、前記構成を有する本実施形態に係る運転支援装置1の運転支援ECU3が実行する画像投影処理プログラムについて図6に基づき説明する。図6は本実施形態に係る画像投影処理プログラムのフローチャートである。ここで、画像投影処理プログラムは、車両2のイグニションがONされた後又はユーザによって操作パネル(図示せず)で所定の操作が行われた後に所定間隔(例えば200ms毎)で繰り返し実行され、車両2の走行時又は停車時においてカメラ4で撮像した撮像画像の内、特に右側フロントピラー12により生じる死角領域に相当する画像を抽出し、その抽出した画像をプロジェクタ5により右側フロントピラー12の内側に投影する処理を行うプログラムである。尚、以下の図6にフローチャートで示されるプログラムは運転支援ECU3が備えているROM32やRAM33に記憶されており、CPU31により実行される。
画像投影処理プログラムでは、先ずステップ(以下、Sと略記する)1において、CPU31はカメラ4により車両の進行方向右前方の周辺環境を撮像し、撮像画像を取得する。そして、取得した撮像画像は画像DB7に一時的に記憶される。
次に、S2においてCPU31は、ステアリングセンサ10の検出結果に基づいて自車両の操舵角を取得する。更に、S3においてCPU31は、車速センサ9の検出結果に基づいて自車両の車速を取得する。尚、上記S2及びS3が走行状況取得手段の処理に相当する。
続いて、S4においてCPU31は前記S2及びS3で取得した自車両の走行状況を用いて、所定時間経過後の自車位置を予測し、更に、予測された位置にある自車両の死角領域を算出する。尚、所定時間はカメラ4により周辺環境を撮像してから撮像画像をプロジェクタ5により出力(即ち、撮像画像をスクリーン24に表示する)するまでに必要な時間であり、その値はカメラ4やCPU31の性能によって決定される。例えば本実施形態では100msとする。
以下に、上記S4で実行される所定時間経過後(即ち、撮像画像を表示する時点)の自車両の死角領域の算出処理について、図7〜図9を用いて詳細に説明する。尚、図7では車両2が直進する場合を示し、図8では車両2が右折する場合を示し、図9では車両2が左折する場合を示す。
先ず、S4でCPU31は、頭部位置検出センサ8を用いて運転者16の頭部位置を検出する。次に、前記S2及びS3で取得した自車両の走行状況から所定時間経過後の自車位置を予測する。更に、予測された自車位置に基づいて、所定時間経過後の運転者16の頭部位置について予測する。
そして、CPU31は所定時間経過後における運転者16の頭部位置の予測結果と、運転者16の頭部位置に対する右側フロントピラー12の位置と形状とに基づいて、所定時間経過後における運転者16の右側フロントピラー12により生じる死角領域を算出する。尚、図7〜図9に示すように、車両の現在位置(即ち、撮像画像を撮像した地点)から所定時間経過後の位置(即ち、撮像画像を表示する地点)の運転者16の右側フロントピラー12により生じる死角領域は、車両の走行軌跡によってそれぞれ異なる領域となる。また、上記S4が位置予測手段及び死角領域算出手段の処理に相当する。
その後、S5においてCPU31は、前記S1で撮像した撮像画像中から前記S4で算出した死角領域に相当する画像の範囲を特定し、特定された範囲の画像を抽出する。ここで、図10はカメラ4により撮像された撮像画像50を示した図である。
以下に、上記S5で実行される画像の抽出処理について、図7乃至図10を用いて詳細に説明する。
先ず、S5でCPU31は、図7〜図9に示すように前記S4で算出された所定時間経過後の運転者16の右側フロントピラー12により生じる死角領域に基づいて、所定時間経過後の仮想平面Xを設定する。ここで、仮想平面Xは、カメラ4からの視界と運転者16からの視界の歪みを補正するための平面であり、運転者16の視点を原点とし、運転者の視角に合わせて設定した仮想面である。尚、仮想平面Xは、運転者16の予測頭部位置と右側フロントピラー12の中心を結ぶ線Hに垂直であって、且つ車両2から所定距離(例えば10m)の位置に設定される。
その後、CPU31はカメラ撮影平面Yを取得する。尚、カメラ撮影平面Yは予めカメラ4の設計値(解像度や車体に対する設置角度等)等から決定されており、カメラパラメータDB6に記憶されている。また、カメラ4は前記S1でピントをカメラ撮影平面Yに合わせて撮像する。
続いて、CPU31は前記S4で算出した所定時間経過後の運転者16の死角領域と仮想平面Xとの重複領域P1〜P2を算出する。更に、算出された重複領域P1〜P2をカメラ4の視界と一致させた視界領域(即ち、カメラから見た所定時間経過後の運転者の死角領域)を算出し、算出した視界領域とカメラ撮影平面Yとの重複する領域Q1〜Q2を、所定時間後(撮像画像を表示する時点)の車両2の死角領域に相当する画像範囲51と特定する。
そして、図10に示すように特定された画像範囲51の画像を撮像画像50から抽出する。
尚、図10には、現在(即ち、カメラ撮像時点)位置での車両2の死角領域に相当する画像範囲52についても示す。図10に示すように、抽出される画像範囲は現在位置での車両2の死角領域とは異なる領域となっており、画像出力時点の実際の自車両の死角領域を正確に抽出することが可能となっている。また、上記S4及びS5が画像抽出手段の処理に相当する。
次に、S6でCPU31は、前記S5で抽出した画像を仮想平面に投影変換し、投影データを生成する。
以下に、上記S6で実行される画像変換処理について、図7〜図9を用いて詳細に説明する。
先ず、S6でCPU31は、前記S5で抽出した画像を、仮想平面Xに投影変換する。尚、この投影変換は、カメラ撮影平面Yの内、画像範囲51にある画像の各画素を、仮想平面Xの各画素に座標変換する処理であり、公知の座標変換を用いて行われる。
更に、仮想平面Xに投影変換した画像を、ROM32に記憶された右側フロントピラー12の形状に合わせて変換し、更に変換した該画像をプロジェクタ5により投影するために、プロジェクタ5の位置に合わせて座標変換する。ここで、プロジェクタ5から出力された光がピラー内側面に入射する角度によって、右側フロントピラー12の内側面に表示される画像は、歪んだり、拡大又は縮小される。従って、例えば、投影変換した上記画像の各画素の座標と、プロジェクタ5に対して出力する画像の各画素の座標とを予め関連付けたマップ等をメモリ等に予め格納しておき、該マップに基づき、投影変換した画像を、プロジェクタ5への出力画像として更に座標変換する。そして、座標変換した画像を、プロジェクタ5に対して出力するための投影データとする。
その後、S7でCPU31は、生成した投影データをプロジェクタ5によって出力することにより、右側フロントピラー12の内側面に設置されたスクリーン24に該ピラーによって遮られた領域の画像を投影する。その際、スクリーン24に表示された投影画像は、仮想平面Xに投影変換されているので、図11に示すようにその投影画像は、フロントウィンドウやドアウィンドウを介して視認される背景と、ずれたり傾いたりすることなく表示される。
従って、車両2の運転者16は右側フロントピラー12に隠れた位置に対して人や進入車両等の対象物が存在する場合でも、その存在を容易に把握することが可能となる。また、死角を形成する右側フロントピラー12を透過した画像をより現実に近い形で形成するので、死角に位置する対象物の状態をより正確に把握させることが可能となる。尚、上記S7が画像出力手段の処理に相当する。
以上詳細に説明した通り、本実施形態に係る運転支援装置1、運転支援装置1による運転支援方法及び運転支援装置1で実行されるコンピュータプログラムでは、カメラ4によって車両2の周囲環境を撮像し(S1)、車両2の走行状況を取得し(S2、S3)、カメラ4で撮像した撮像画像をプロジェクタ5により投影するまでのタイムラグを考慮して、所定時間経過後に右側フロントピラー12によって生じる運転者からの死角領域を算出し(S4)、算出された死角領域に相当する画像をカメラ4の撮像画像から抽出し(S5)、抽出した画像をプロジェクタ5により右側フロントピラー12の内側面に投影する(S7)ので、画像を撮像する時点と撮像した画像を表示する時点との間にタイムラグが生じる場合であっても、実際の自車両の死角領域を正確に表示することが可能となる。それによって、実際の車両2の周囲状況と右側フロントピラー12の内側面に表示された車両の周囲状況とが相違することなく、運転者に適切な判断を行わせることができる。
また、所定時間後の車両2の位置を予測し、その位置からの死角領域を算出するので、所定時間後の車両2の周辺状況を撮像した画像を撮像画像から適切に抽出することが可能となる。
更に、車両2の右側フロントピラー12によって生じる死角領域について、その死角領域に相当する画像を右側フロントピラー12の内側に表示するので、運転者の視界を狭くすることなく運転環境を向上させる。また、仮想平面Xへの投影変換を行うことにより、死角を形成する右側フロントピラー12を透過した画像をより現実に近い形で形成することが可能となる。従って、運転者は投影された画像を視認することにより、死角に位置する対象物の状態をより正確に把握することが可能となる。
尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では右側フロントピラー12によって生じる死角領域に相当する画像を、プロジェクタ5によって右側フロントピラー12の内側面に対して投影することにより、自車両からの死角における視界を補完するように構成しているが、死角領域に相当する画像を車内のピラー内側面に設置されたディスプレイに表示することにより、自車両からの死角における視界を補完するようにしても良い。
また、画像投影処理プログラム(図6)は車両2が交差点又はカーブに所定距離以内に接近した場合にのみ実行するようにしても良い。その際には、ナビゲーション装置によるマップマッチング処理を行うことにより、車両2が交差点又はカーブに所定距離以内に接近したことを判定することが望ましい。更に、交差点やカーブ以外にも駐車場の出入り口や高速道路の合流帯等の周囲環境の認識が重要となる状況下で実行するようにしても良い。
更に、本実施形態では運転手側にある右側フロントピラー12により生じる死角領域を右側フロントピラー12の内側面に表示しているが、助手席側にある左側フロントピラーにより生じる死角領域を表示するようにしても良い。その場合には、カメラを左側フロントピラーに設け、撮像した画像範囲から抽出した画像を左側フロントピラーの内側面に表示するように構成する。
本実施形態に係る運転支援装置を搭載した車両2の外観図である。 本実施形態に係る運転支援装置の制御系を模式的に示すブロック図である。 カメラの設置態様を示した図である。 プロジェクタの投影構造を示した模式図である。 車両の右側フロントピラーを示した図である。 本実施形態に係る画像投影処理プログラムのフローチャートである。 車両が直進する場合の車両の死角領域の変化を示した図である。 車両が右折する場合の車両の死角領域の変化を示した図である。 車両が左折する場合の車両の死角領域の変化を示した図である。 ステップ5で抽出される画像範囲を示した図である。 ステップ7の画像の投影処理を行った後における自車両の運転席からの視界風景を示した図である。
1 運転支援装置
2 車両
3 運転支援ECU
4 カメラ
5 プロジェクタ
12 右側フロントピラー
31 CPU
32 ROM
33 RAM

Claims (5)

  1. 自車両の周辺環境を撮像する撮像手段と、
    自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得手段と、
    前記走行状況取得手段により取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測手段と、
    前記位置予測手段により予測された位置にある自車両の死角領域を算出する死角領域算出手段と、
    前記撮像手段によって撮像された撮像画像の内、前記死角領域算出手段により算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出手段と、
    前記画像抽出手段で抽出された画像を出力する画像出力手段と、を有することを特徴とする運転支援装置。
  2. 前記所定時間は、前記撮像手段により周辺環境を撮像してから撮像画像を前記画像出力手段により出力するまでの時間であることを特徴とする請求項1に記載の運転支援装置。
  3. 前記画像抽出手段は自車両のピラーによって生じる死角領域に相当する画像を抽出し、
    前記画像出力手段は前記画像抽出手段で抽出された画像を出力することにより、該画像を自車両のピラーの内側に表示することを特徴とする請求項1又は請求項2に記載の運転支援装置。
  4. 自車両の周辺環境を撮像する撮像ステップと、
    自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得ステップと、
    前記走行状況取得ステップにより取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測ステップと、
    前記位置予測ステップにより予測された位置にある自車両の死角領域を算出する死角領域算出ステップと、
    前記撮像ステップによって撮像された撮像画像の内、前記死角領域算出ステップにより算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出ステップと、
    前記画像抽出ステップで抽出された画像を出力する画像出力ステップと、を有することを特徴とする運転支援方法。
  5. コンピュータに搭載され、
    自車両の周辺環境を撮像する撮像機能と、
    自車両に設置された車両の移動距離又は車速と車両の方位をそれぞれ検出するセンサの検出結果に基づいて自車両の走行状況を取得する走行状況取得機能と、
    前記走行状況取得機能により取得した自車両の走行状況を用いて、前記所定時間経過後の自車両の位置を予測する位置予測機能と、
    前記位置予測機能により予測された位置にある自車両の死角領域を算出する死角領域算出機能と、
    前記撮像機能によって撮像された撮像画像の内、前記死角領域算出機能により算出された所定時間経過後の自車両の死角領域に相当する画像を抽出する画像抽出機能と、
    前記画像抽出機能で抽出された画像を出力する画像出力機能と、
    を実行させることを特徴とするコンピュータプログラム。
JP2007258641A 2007-10-02 2007-10-02 運転支援装置、運転支援方法及びコンピュータプログラム Expired - Fee Related JP4412380B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007258641A JP4412380B2 (ja) 2007-10-02 2007-10-02 運転支援装置、運転支援方法及びコンピュータプログラム
CN200810145966.9A CN101404122B (zh) 2007-10-02 2008-08-14 驾驶支援装置以及驾驶支援方法
EP08016123A EP2045132B1 (en) 2007-10-02 2008-09-12 Driving support device, driving support method, and computer program
US12/232,414 US8089512B2 (en) 2007-10-02 2008-09-17 Driving support device, driving support method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007258641A JP4412380B2 (ja) 2007-10-02 2007-10-02 運転支援装置、運転支援方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2009083764A JP2009083764A (ja) 2009-04-23
JP4412380B2 true JP4412380B2 (ja) 2010-02-10

Family

ID=40091861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007258641A Expired - Fee Related JP4412380B2 (ja) 2007-10-02 2007-10-02 運転支援装置、運転支援方法及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US8089512B2 (ja)
EP (1) EP2045132B1 (ja)
JP (1) JP4412380B2 (ja)
CN (1) CN101404122B (ja)

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8547298B2 (en) * 2009-04-02 2013-10-01 GM Global Technology Operations LLC Continuation of exterior view on interior pillars and surfaces
US8502860B2 (en) * 2009-09-29 2013-08-06 Toyota Motor Engineering & Manufacturing North America (Tema) Electronic control system, electronic control unit and associated methodology of adapting 3D panoramic views of vehicle surroundings by predicting driver intent
DE102010015079A1 (de) * 2010-04-15 2011-10-20 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen eines Bildes auf einer Anzeigeeinrichtung in einem Fahrzeug. Fahrerassistenzsystem und Fahrzeug
DE102010034853A1 (de) * 2010-08-18 2012-02-23 Gm Global Technology Operations Llc (N.D.Ges.D. Staates Delaware) Kraftfahrzeug mit Digitalprojektoren
US8733938B2 (en) 2012-03-07 2014-05-27 GM Global Technology Operations LLC Virtual convertible tops, sunroofs, and back windows, and systems and methods for providing same
WO2015013311A1 (en) * 2013-07-22 2015-01-29 Johnson Controls Technology Company Vehicle imaging system
JP2015027852A (ja) * 2013-07-30 2015-02-12 トヨタ自動車株式会社 運転支援装置
US20160227098A1 (en) * 2013-09-27 2016-08-04 Nissan Motor Co., Ltd. Information Presentation System
JP6176039B2 (ja) * 2013-10-02 2017-08-09 トヨタ自動車株式会社 運転支援装置
JP6032219B2 (ja) * 2014-01-24 2016-11-24 トヨタ自動車株式会社 運転支援装置
JP2015154337A (ja) * 2014-02-17 2015-08-24 株式会社デンソー 対象範囲設定装置、および対象範囲設定プログラム
JP5920380B2 (ja) * 2014-02-26 2016-05-18 トヨタ自動車株式会社 画像投影装置及び運転支援装置
CN103818320B (zh) * 2014-03-14 2016-03-02 盛凯 驾驶舱用智能控制***及控制方法
GB201406405D0 (en) * 2014-04-09 2014-05-21 Jaguar Land Rover Ltd Apparatus and method for displaying information
GB2525653A (en) * 2014-05-01 2015-11-04 Jaguar Land Rover Ltd Apparatus and method for providing information within a vehicle
WO2016018320A1 (en) * 2014-07-30 2016-02-04 Johnson Controls Technology Company System for projecting an image within a vehicle interior
KR101596751B1 (ko) * 2014-09-26 2016-02-23 현대자동차주식회사 운전자 맞춤형 사각 영역 표시 방법 및 장치
CN107615757B (zh) * 2015-05-29 2018-10-09 日产自动车株式会社 信息呈现***
EP3334621A4 (en) * 2015-08-10 2019-03-13 Bayerische Motoren Werke Aktiengesellschaft SYSTEM, METHOD AND DEVICE FOR VEHICLE AND COMPUTER READABLE MEDIUM
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
US9902322B2 (en) 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts
WO2017077652A1 (ja) * 2015-11-06 2017-05-11 株式会社島津製作所 移動型x線装置
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization
JP6428665B2 (ja) * 2016-02-10 2018-11-28 三菱電機株式会社 空中映像表示装置
JP6728868B2 (ja) * 2016-03-28 2020-07-22 大日本印刷株式会社 表示装置、表示方法及び表示装置用プログラム
DE102016214046A1 (de) * 2016-07-29 2018-02-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems mit einer Datenbrille sowie ein Anzeigesystem mit einer Datenbrille
DE102016214316A1 (de) * 2016-08-03 2018-02-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Erkennen eines durch ein Fahrzeugteil zumindest teilverdeckten Objekts in einer Fahrzeugumgebung eines Kraftfahrzeugs
DE102016224510A1 (de) * 2016-12-08 2018-06-14 Audi Ag Verfahren zur Bereitstellung von Ergebnisdaten, die von einem Kraftfahrzeugumfeld abhängen
WO2018129310A1 (en) * 2017-01-08 2018-07-12 Shanghai Yanfeng Jinqiao Automotive Trim Systems Co. Ltd System and method for image display on vehicle interior component
DE102017205630A1 (de) * 2017-04-03 2018-10-04 Conti Temic Microelectronic Gmbh Kameravorrichtung und Verfahren zur Erfassung eines Umgebungsbereichs eines Fahrzeugs
KR102347689B1 (ko) * 2017-04-10 2022-01-05 현대자동차주식회사 차량의 사각존용 필러 디스플레이 장치
US10033978B1 (en) 2017-05-08 2018-07-24 International Business Machines Corporation Projecting obstructed content over touch screen obstructions
CN107264405A (zh) * 2017-06-26 2017-10-20 上汽依维柯红岩商用车有限公司 用于消除盲区的车载***及其控制方法
JP2019014450A (ja) * 2017-07-10 2019-01-31 トヨタ自動車株式会社 車両用表示装置
JP2019073091A (ja) * 2017-10-13 2019-05-16 トヨタ自動車株式会社 車両用表示装置
KR102022980B1 (ko) * 2017-12-01 2019-09-19 클릭트 주식회사 깊이데이터를 이용한 증강현실영상 제공방법 및 프로그램
CN111788088A (zh) * 2018-02-27 2020-10-16 三菱电机株式会社 车辆用显示控制装置和显示控制方法
US11353699B2 (en) 2018-03-09 2022-06-07 Evolution Optiks Limited Vision correction system and method, light field display and light field shaping layer and alignment therefor
US11693239B2 (en) 2018-03-09 2023-07-04 Evolution Optiks Limited Vision correction system and method, light field display and light field shaping layer and alignment therefor
CA3021636A1 (en) 2018-10-22 2020-04-22 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11244080B2 (en) 2018-10-09 2022-02-08 International Business Machines Corporation Project content from flexible display touch device to eliminate obstruction created by finger
US10636116B1 (en) 2018-10-22 2020-04-28 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US10860099B2 (en) 2018-10-22 2020-12-08 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and adjusted vision perception system and method using same addressing astigmatism or similar conditions
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US10936064B2 (en) 2018-10-22 2021-03-02 Evolution Optiks Limited Light field display, adjusted pixel rendering method therefor, and adjusted vision perception system and method using same addressing astigmatism or similar conditions
US10761604B2 (en) 2018-10-22 2020-09-01 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
CA3134744A1 (en) 2019-04-23 2020-10-29 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
WO2021038422A2 (en) 2019-08-26 2021-03-04 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
CN110901534A (zh) * 2019-11-14 2020-03-24 浙江合众新能源汽车有限公司 一种a柱透视实现方法及***
CN111391755B (zh) * 2020-03-10 2021-10-12 京东方科技集团股份有限公司 盲区图像的显示方法、装置及***
CN111522443B (zh) * 2020-04-13 2024-04-05 京东方科技集团股份有限公司 车辆a柱显示组件的显示方法、***、设备和存储介质
CN112172798B (zh) * 2020-09-28 2022-02-01 惠州华阳通用电子有限公司 一种基于积水环境的泊车方法及存储介质
CN112356826B (zh) * 2020-10-28 2022-02-01 惠州华阳通用电子有限公司 一种辅助泊车方法及存储介质
CN114268787B (zh) * 2021-12-20 2024-06-11 东软集团股份有限公司 基于ar-hud的延时补偿方法、装置、设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2410741A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
EP1167120B1 (en) * 2000-06-30 2014-08-27 Panasonic Corporation Rendering device for parking aid
US7212653B2 (en) 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
US6809704B2 (en) 2002-02-08 2004-10-26 Charles J. Kulas Reduction of blind spots by using display screens
JP2004312638A (ja) * 2003-04-10 2004-11-04 Mitsubishi Electric Corp 障害物検知装置
JP2005184225A (ja) 2003-12-17 2005-07-07 Denso Corp 車両用表示装置
JP4280648B2 (ja) 2004-01-16 2009-06-17 株式会社ホンダロック 車両の視界補助装置
WO2006027563A1 (en) * 2004-09-06 2006-03-16 Mch Technology Limited View enhancing system for a vehicle
JP4583883B2 (ja) 2004-11-08 2010-11-17 パナソニック株式会社 車両用周囲状況表示装置
JP4683272B2 (ja) * 2005-04-14 2011-05-18 アイシン・エィ・ダブリュ株式会社 車両外部表示方法及び表示装置
JP2006303583A (ja) 2005-04-15 2006-11-02 Aisin Aw Co Ltd 車体外部表示装置及び車両外部表示装置の初期化方法
JP2006311272A (ja) * 2005-04-28 2006-11-09 Denso Corp 車両用映像表示装置
US8179435B2 (en) * 2005-09-28 2012-05-15 Nissan Motor Co., Ltd. Vehicle surroundings image providing system and method
JP4497133B2 (ja) * 2006-07-12 2010-07-07 アイシン・エィ・ダブリュ株式会社 運転支援方法及び運転支援装置
JP4748082B2 (ja) * 2007-02-23 2011-08-17 トヨタ自動車株式会社 車両用周辺監視装置及び車両用周辺監視方法
US9126533B2 (en) * 2007-02-23 2015-09-08 Aisin Aw Co., Ltd. Driving support method and driving support device

Also Published As

Publication number Publication date
CN101404122A (zh) 2009-04-08
EP2045132B1 (en) 2012-06-20
JP2009083764A (ja) 2009-04-23
CN101404122B (zh) 2013-01-02
EP2045132A2 (en) 2009-04-08
EP2045132A3 (en) 2010-06-02
US20090086019A1 (en) 2009-04-02
US8089512B2 (en) 2012-01-03

Similar Documents

Publication Publication Date Title
JP4412380B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
RU2734643C1 (ru) Способ помощи при парковке для устройства помощи при парковке и устройство помощи при парковке
JP5421072B2 (ja) 接近物体検知システム
US8330816B2 (en) Image processing device
US8035575B2 (en) Driving support method and driving support apparatus
CN104185010B (zh) 在前方路缘观察***中的增强的立体视图生成
US10093247B2 (en) Enhanced front curb viewing system
JP5099451B2 (ja) 車両周辺確認装置
EP1961613B1 (en) Driving support method and driving support device
JP4530060B2 (ja) 駐車支援装置及び方法
JP4914458B2 (ja) 車両周辺表示装置
JP5471141B2 (ja) 駐車支援装置及び駐車支援方法
CN104185009A (zh) 前方路缘观察***中的增强的俯瞰视图生成
JP2013541915A (ja) 死角地帯の表示装置および方法
JP2008013015A (ja) 車両周辺画像生成装置および画像切替方法
JP2008296697A (ja) 駐車支援装置
JP2008222153A (ja) 合流支援装置
JP2004240480A (ja) 運転支援装置
JP2009211624A (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2010028803A (ja) 駐車補助のための画像表示方法
JP2010184604A (ja) 車両周辺表示装置
JP2017159687A (ja) 駐車領域表示システム及びそれを用いた自動駐車システム
JP2007124097A (ja) 車両周辺視認装置
KR20130072709A (ko) 영상인식 및 초음파 센서 기술 융합기반 주차 지원 시스템
JP5605764B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091027

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141127

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees