JP3661957B2 - Vehicle periphery monitoring device - Google Patents
Vehicle periphery monitoring device Download PDFInfo
- Publication number
- JP3661957B2 JP3661957B2 JP09991896A JP9991896A JP3661957B2 JP 3661957 B2 JP3661957 B2 JP 3661957B2 JP 09991896 A JP09991896 A JP 09991896A JP 9991896 A JP9991896 A JP 9991896A JP 3661957 B2 JP3661957 B2 JP 3661957B2
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- vehicle
- information
- range
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Feedback Control In General (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は車両周辺監視装置にかかり、より詳細には、自動車などの車両の周辺を監視して車両運転における運転者の安全確認を支援するのに有効に適用される車両周辺監視装置に関するものである。
【0002】
【従来の技術】
従来、自動車などの車両の周辺を監視する装置として、図14に示す構成を有するものがあった。同図において、1は車両周辺を撮像する撮像部、21はハンドルの舵角あるいは操舵輪の操舵角を検出し転回情報を出力する舵角検出部、3は撮像部1から得られる画像信号あるいは車両の形状情報等が保持された記憶部、4は予め格納されたプログラムに従って動作するコンピュータによって構成されるデータ処理部、5はディスプレイ装置51を備えた表示部、6は警報音あるいは音声ガイダンスを発生する音声指示部である。
【0003】
舵角検出部21はハンドル舵角を検出するハンドル舵角センサあるいは操舵輪の操舵角を検出する操舵角検出センサ(いずれも図示せず)を備え、車両の転回情報を出力している。そしてこの舵角検出部21には入力信号をデジタル変換して出力するA/Dコンバータ21aが付設されており、データ処理部4に対してデジタル変換された舵角情報を出力している。
【0004】
上記記憶部3は、撮像部1から得られる画像信号を一時的に蓄えるフレームメモリ31と、障害物がない平坦な地面の場合の画像データを参照データとして予め保持した参照データメモリ32と、車両の現在位置データ、車両の2次元あるいは3次元の形状データ及び車両内における撮像部1の取り付け位置である車両基準位置データを車両情報として保持する車両データメモリ33とを有している。
【0005】
上記データ処理部4は、動作プログラムが格納されたROM42と、この動作プログラムに従って動作するCPU41と、CPU41の動作時において必要な情報を一時格納するRAM43とを有している。
上記表示部5は、CPU41から出力された表示画像信号に基づいて、物体の車両との相対位置を表示したり、運転者に対するメッセージを表示したりする。
上記音声指示部6は、スピーカ61と、CPU41からの制御信号に基づいてブザー信号あるいは音声信号を生成し、この音声信号をスピーカ61に出力する駆動回路62とを有している。
【0006】
そして、上記撮像部1は、例えばレーザ光を利用したものあるいはステレオ式のものがある。
レーザ光を利用したものは、図15(a)に示すように、レーザ光源12と、レーザ光源12を駆動するレーザ光源駆動装置11と、レーザ光源12からレーザ光を入力し、この入力したレーザ光により監視領域に輝点マトリクス13aを投影するパターン光投影素子13と、一旦監視領域に投影された輝点マトリクス13bを撮像するCCDカメラ14とを有している。
【0007】
この構成においては、CCDカメラ14に撮像された画像すなわち監視領域内において障害物などによって乱された輝点マトリクス13bを画像情報としてフレームメモリ31に一時的に保持させる。そしてデータ処理部4は、このフレームメモリ31に保持された画像情報と上記参照データメモリ32に保持された参照データとを対比することにより、障害物の形状及び撮像部1との相対位置情報を取得する。
【0008】
一方、ステレオ式のものは、図15(b)に示すように、互いに所定距離dxaだけ離間して配設された右側CCDカメラ14R及び左側CCDカメラ14Lの2つのCCDカメラを有している。これに伴い、フレームメモリは右側フレームメモリ31Rと左側フレームメモリ31Lとの2つ設けられている。
【0009】
この構成においては、右側CCDカメラ14Rに撮像された画像を右側画像情報として右側フレームメモリ31Rに蓄え、左側CCDカメラ14Lに撮像された画像を左側画像情報として左側フレームメモリ31Lに蓄える。
そしてデータ処理部4は、例えば、フレームメモリ31Lに格納された左側画像情報の水平方向の微分を行い、得られた障害物などの物体のエッジを検出し、このエッジ点をきっかけ点すなわち基準点として、他方のフレームメモリ31Rに格納された右側画像情報の中から、上記エッジ点に対応するエッジ点を取得する。そして、このようにして取得した左右画像のエッジ点の画素上における位置の差、すなわち視差により物体の位置を検出する。
【0010】
このような撮像部1は、例えば図16に示すように、車両100の後側上方のほぼ中央部に地面の法線に対し角度θで取り付けられている。
これによりこの撮像部1は、車両100の後方、より詳細には同図に示すように後方近傍領域の監視領域100a内における障害物等を検出する。
そしてこの撮像部1の取付位置が、上述した車両位置基準情報として車両データメモリ33に格納されている。
【0011】
データ処理部4は、以上のように認識した障害物情報と車両データメモリ33に格納された車両の現在位置データ、車両の形状データ及び車両基準位置データといった車両情報とに基づいて車両と障害物との相対位置を算出するとともに算出した相対位置に基づいて車両と障害物の位置関係を表示部5のディスプレイ装置51に表示する。
また、データ処理部4は舵角検出部2から出力された転回情報に基づいて車両の進路を予測し、検出された障害物と車両とが衝突すると予測された場合は、音声指示手段6に音声信号を出力する。音声指示手段6はデータ処理部4から出力された音声信号に基づき、運転者に衝突を事前に知らせるブザー音や音声ガイダンスといった警報を発する。
【0012】
【発明が解決しようとする課題】
上記した従来装置では、図16にて説明したように、その監視領域100a内の障害物を検出し、そして監視領域100a内に存在している障害物に対して車両との衝突などを予測している。
従ってこの従来装置は、障害物がこの監視領域100a内に存在している限りにおいては、車両と障害物との相対位置を把握することができ有効である。
【0013】
しかしながら、障害物が一旦この監視領域100aから外れた場合においては、この監視領域外となった障害物については何等考慮されておらず、衝突などを予測することができないという問題点があった。
【0014】
例えば、車両100が大きくハンドルを切った状態すなわち操舵輪(前輪)の舵角が比較的大きい状態のまま後退した場合には、例えば図17に示すように、位置P1(図中点線にて示す)においてその監視領域100a(P1)内に存在していた障害物200は、車両100が舵角θ1 で後退して矢印で示す軌跡に沿って位置P2(図中一点鎖線にて示す位置)まで移動すると、この位置P2にて監視領域100a(P2)から外れる。これによりデータ処理部4はこの障害物200を監視対象から除外する。そして車両100がさらに後退することにより位置P3(図中実線にて示す位置)まで達すると、この障害物200は車両100の右前方側面部に位置して操舵輪と衝突してしまう。
このとき、データ処理部4は既にこの障害物200を監視対象から除外してしまっているので、衝突などの危険性があるにも関わらず警報は発せられない。
【0015】
また、車両100の側面部に障害物200が位置し、この状態から車両100が転回しながら後退した場合は、例えば図18に示すように、位置P4(図中点線にて示す位置)においてその監視領域100a(P4)内に存在していた障害物200は車両100の後退に伴ってその監視領域から外れ、車両100がさらに後退して位置P5(図中実線にて示す位置)に達すると障害物200は車両100の右側面部に位置する。
【0016】
この状態からハンドル操作により操舵輪の舵角をθ2 とした状態で車両100を後退させると、車両100は図中矢印で示す軌跡に沿って移動し、障害物200がその右前方側面部に衝突する。この場合においても、データ処理部4は、障害物200が監視領域100aから外れた時点で、この障害物200をその監視対象から外してしまうので、衝突などの危険性があるにも関わらず警報は発せられない。
【0017】
また、障害物が非常に小さいものであり、この障害物がCCDカメラ14(14R、14L)を構成するCCDセンサ(図示せず)の検出線同士の隙間に位置した場合には、障害物を検出することができず、障害物が監視領域100a内に存在するにも関わらず、この障害物の検出及び消滅が繰り返され、視認性が損なわれてしまうという問題点があった。
【0018】
なお、上述した問題点は、CCDカメラ14に限るものではなくビデオカメラ(図示せず)を用いた場合にも生じるものである。すなわち、障害物がビデオカメラの撮像領域から外れた場合においてはいうまでもなく、障害物が非常に小さいものであった場合においては、この障害物がビデオカメラの走査線同士の間に位置した場合に、障害物の検出及び消滅が繰り返されてしまう。
【0019】
よって本発明は、上述した従来の問題点に鑑み、障害物として認識したものについては監視領域外にあるものであってもその位置を知ることができ、車両との衝突といった危険性があれば、それを運転手に告知し、衝突等を未然に回避できるようにした使い勝手並びに安全性を向上させた車両周辺監視装置を提供することを課題とする。
また、監視領域内にて消滅した障害物についても車両との相対位置を認識可能とし、視認性の向上を図り使い勝手を向上させた車両周辺監視装置を提供することを他の課題とする。
【0020】
【課題を解決するための手段】
前記課題を解決するため本発明によりなされた車両周辺監視装置は、図1の基本構成図に示すように、車両に設置された撮像手段(1)からの画像データに基づいて車両の周辺を監視する車両周辺監視装置において、前記画像データから障害物を検出する障害物検出手段(41a)と、前記障害物検出手段(41a)により検出された障害物の位置情報を取得する障害物位置取得手段(41b)と、前記車両の走行状態を示す走行状態情報を検出し出力する走行状態情報出力手段(2)と、前記走行状態情報と前記障害物の位置情報とに基づいて、前記車両の移動に伴う、前記検出された障害物の前記車両との相対位置を予測する障害物位置予測手段(41c)と、前記障害物位置予測手段(41c)により予測された前記障害物の前記車両との相対位置を運転者に告知する告知手段(7)とを有することを特徴としている。(請求項1)
【0021】
上記請求項1の構成において、撮像手段は、車両周辺の画像を画像データとして取得し、障害物検出手段は、前記画像データから障害物を検出する。障害物位置取得手段は、検出された障害物の位置情報を取得し、障害物位置予測手段は、走行状態情報出力手段からの車両の走行状態を示す走行状態情報を取得するとともにこの走行状態情報と前記障害物位置取得手段により取得された障害物の位置情報とに基づいて、前記車両の移動に伴う、障害物の前記車両との相対位置を予測する。告知手段は、前記障害物位置予測手段により予測された前記車両との相対位置にて障害物の表示を行う。
【0022】
すなわち、この請求項1の構成においては、車両の走行状態情報に基づいて検出された障害物の車両との相対位置を予測するとともにこの予測された車両との相対位置にて障害物の表示を行うように構成したので、予測された車両との相対位置に基づく制御を行うことができ、使い勝手のよい車両周辺監視装置を提供することができる。
【0023】
また、前記障害物位置予測手段(41c)は、前記障害物が前記撮像手段(1)による撮像範囲から消滅した場合に、当該消滅した障害物に対する前記車両との相対位置の予測を行い、前記告知手段(7)は、前記消滅した障害物についての予測された前記車両との相対位置を告知することを特徴としている。(請求項2)
【0024】
上記請求項2の構成において、障害物位置予測手段及び告知手段が対象とする障害物は、撮像手段による撮像範囲から消滅した障害物とされる。
よって、この請求項2の構成においては、撮像範囲から消滅した障害物についての車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0025】
また、前記障害物位置取得手段(41b)は、前記障害物が前記撮像手段(1)による撮像範囲から外れて消滅した際に、当該消滅した障害物に関する情報を範囲外障害物情報として取得するとともに当該取得した範囲外障害物情報を範囲外障害物情報保持手段(34)に保持させ、前記障害物位置予測手段(41c)は、前記範囲外障害物情報に基づき消滅した障害物の前記車両との相対位置の予測を行うことを特徴としている。(請求項3)
【0026】
上記請求項3の構成において、障害物位置取得手段が取得する障害物の位置情報は、撮像手段の範囲外に移動することにより消滅した障害物とされ、この障害物の位置情報は、範囲外障害物情報として範囲外障害物情報保持手段に保持される。障害物位置予測手段は、範囲外障害物情報に基づき、消滅した障害物の車両との相対位置を予測する。
よって、この請求項3の構成においては、撮像手段による撮像範囲外に移動して消滅した障害物についても車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0027】
また、前記障害物位置取得手段(41b)は、前記障害物の前記撮像手段(1)による撮像範囲内における位置情報を範囲内障害物情報として取得し、前記障害物位置予測手段(41c)は、前記範囲内障害物情報に基づき障害物の前記車両との相対位置の予測を行うとともに当該予測した障害物の前記車両との相対位置を範囲内障害物移動位置保持手段(35)に格納し、前記告知手段(7)は、前記障害物が前記撮像手段(1)による撮像範囲内にて消滅した際に、当該消滅した障害物について、予測された障害物の前記車両との相対位置を告知することを特徴としている。(請求項4)
【0028】
上記請求項4の構成において、障害物位置取得手段が取得する障害物の位置情報は、撮像手段の撮像範囲内に存在する障害物の位置情報とされ、障害物位置予測手段は、この撮像範囲内に存在する障害物の位置情報と走行状態情報とに基づいて、障害物の車両との相対位置を予測する。告知手段は、撮像範囲内にて消滅した障害物に関し、障害物位置予測手段により予測された車両との相対位置を運転者に告知する。 よって、この請求項4の構成においては、撮像手段による撮像範囲内にて消滅した障害物についても車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0029】
また、前記障害物位置取得手段(41b)は、前記範囲内障害物情報を周期的に取得し、前記障害物位置予測手段(41c)は、前記周期毎に、前記範囲内障害物情報と走行状態情報とに基づいて前記障害物の前記車両との相対位置を予測するとともに当該予測した障害物の前記車両との相対位置を範囲内障害物移動位置保持手段(35)に格納することを特徴としている。(請求項5)
【0030】
上記請求項5の構成において、障害物位置取得手段は、撮像手段の撮像範囲内に存在する障害物の位置情報(範囲内障害物情報)を周期的に取得する。障害物位置予測手段は、周期毎に、取得した障害物の車両との相対位置を予測し、この予測した障害物の車両との相対位置を範囲内障害物移動位置保持手段に格納する。そして、告知手段は、撮像範囲内にて消滅した障害物に関し、障害物位置予測手段により予測された車両との相対位置を運転者に告知する。
よって、この請求項5の構成によれば、撮像手段による撮像範囲内にて消滅した障害物について、直ちに車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0031】
また、前記車両の進路を予測する車両進路予測手段(41d)を有し、前記告知手段(7)は、前記車両進路予測手段(41d)により予測された車両の進路と前記障害物位置予測手段により予測された障害物の前記車両との相対位置とを運転者に告知することを特徴としている。(請求項6)
【0032】
上記請求項6の構成において、告知手段は、車両進路予測手段により予測された車両の進路と障害物位置予測手段により予測された障害物の車両との相対位置とを運転者に告知するので、車両がこれから走行することが予測される進路上における障害物の存在を、撮像範囲から消滅した障害物についても知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0033】
また、前記車両進路予測手段(41d)は、前記撮像手段(1)からの画像情報に基づいて車両の転回方向を認識するとともに当該認識した転回方向に基づいて車両の進路を予測することを特徴としている。(請求項7)
【0034】
上記請求項7の構成において、車両進路予測手段は、撮像手段からの画像情報に基づいて車両の転回方向を認識するとともに認識した転回方向とから車両の進路を予測するので、特別な装置が不要となり装置の構成を簡単にすることができる。
【0035】
また、前記車両進路予測手段(41d)は、前記撮像手段(1)からの画像信号を保持する画像保持手段(31)内における着目画素の移動方向及び移動量に基づいて車両の転回方向を認識することを特徴としている。(請求項8)
【0036】
上記請求項8の構成において、車両進路予測手段は、撮像手段からの画像情報を保持する画像保持手段に保持された画像情報を参照し、この画像情報内における着目画素の移動方向及び移動量を検出する。そして、この検出された移動方向及び移動量に基づいて車両の移動方向を認識するとともに認識した移動方向から車両の進路を予測する。
よって、この構成によれば、車両の進路を予測する場合において、着目点についてのみ処理を行えば良いので、処理に要する演算ステップを簡略化できる。
【0037】
また、前記車両進路予測手段(41d)は、前記走行状態情報に基づいて前記車両の進路を予測することを特徴としている。(請求項9)
【0038】
上記請求項9の構成において、車両進路予測手段は、前記走行状態情報に基づいて車両の進路を予測するので、車両の進路の予測と障害物の車両との相対位置の予測とを共通の情報により行うことができ、装置構成を簡単にすることができる。
【0039】
また、前記走行状態情報出力手段(2)は、前記車両の走行距離を検出する走行距離検出手段(24)と、前記車両の転回方向を検出するとともに検出した転回方向を転回情報として出力する転回方向検出手段(21)とを有することを特徴としている。(請求項10)
【0040】
上記請求項10の構成において、走行状態情報出力手段は、車両の走行距離を検出する走行距離検出手段からの走行距離情報と車両に設けられた転回方向検出手段からの転回方向の情報とを走行状態情報として出力する。これらの走行距離情報と転回方向情報とは車両から直接読み取ることができるので、車両の進路を予測する場合において、処理を高速に行うことができる。
【0041】
また、前記転回方向検出手段(21)が、ハンドル舵角を検出するハンドル舵角センサ(22)、操舵輪の操舵角を検出する操舵角センサ(23)のいずれかであることを特徴としている。(請求項11)
【0042】
上記請求項11の構成において、転回方向検出手段は、ハンドル舵角を検出するハンドル舵角センサあるいは操舵輪の操舵角を検出する操舵角センサとして構成されているので、車両の転回方向の情報を確実に把握することができる。
【0043】
また、前記車両進路予測手段(41d)により予測された車両進路と前記障害物位置予測手段により予測された障害物の前記車両との相対位置とに基づいて、前記車両と前記障害物との衝突を予測する衝突予測手段(41e)を有し、前記告知手段(7)は、前記衝突予測手段(41e)が衝突を予測した場合に、当該衝突を告知することを特徴としている。(請求項12)
【0044】
上記請求項12の構成において、衝突予測手段は、予測された車両進路と予測された障害物の車両との相対位置とに基づいて車両が障害物に衝突するか否かを予測し、衝突すると予測された場合に告知手段が衝突の旨を告知する。
よって、この構成によれば、運転者は車両が現在の状態で移動した場合における車両と障害物との衝突可能性を事前に知ることができ、衝突を未然に防ぐことができ、より安全性を高めた車両周辺監視装置を提供することができる。
【0045】
また、前記告知手段(7)は、車両と障害物との相対距離及びメッセージを表示する表示手段(5)、あるいは、ブザー音や音声を発生する音声指示手段(6)の少なくとも一方であることを特徴としている。(請求項13)
【0046】
上記請求項13の構成において、告知手段は、車両と障害物との相対距離及びメッセージを表示する表示手段、あるいは、ブザー音や音声を発生する音声指示手段の一方あるいは双方であるので、運転者の視覚あるいは聴覚により車両と障害物との位置関係を伝達することができる。とりわけ、運転者に衝突などの危険を告知する場合には、双方を動作させることにより一層明確にその旨を告げることができる。
【0047】
また、前記撮像手段(1)は、前記車両の後方に当該車両の後方領域を撮像するように取り付けられていることを特徴としている。(請求項14)
【0048】
上記請求項14の構成において、撮像手段は、車両の後方に車両の後方領域を撮像するように取り付けられているので、運転者が視認し難い車両の後方近傍領域の障害物を運転者に認識させることができる。
【0049】
【発明の実施の形態】
以下、本発明の実施の形態の具体例を図面を参照して説明する。まず、本発明が適用された車両周辺監視装置の第1実施形態について説明する。
図2は本発明による車両周辺監視装置の構成を説明するブロック図で、同図において、先に説明したものと同一部には同一符号を付して示している。すなわち、1は撮像部、2は舵角検出部21を有する検出部、3は記憶部、4はデータ処理部、7は表示部5と音声指示部6とからなる告知部である。
【0050】
撮像部1は、撮像手段として機能し、図15(a)にて説明したレーザ光を利用したもの、あるいは、図15(b)にて説明したステレオ式のもののいずれかが適宜選択されて用いられている。この撮像部1については従来と同様なものであるので、その説明を省略する。
なお、上述したように、この撮像部1については、CCDカメラの他にビデオカメラも適用することができる。
【0051】
検出部2は、舵角検出部21と、走行距離検出部24とから構成されている。
舵角検出部21は、ハンドル舵角センサ22あるいは操舵角センサ23のいずれか一方あるいは双方が用いられている。これらのハンドル舵角センサ22及び操舵角センサ23は、車両100を操舵するステアリング機構に取り付けられている。
【0052】
図3(a)はハンドル舵角センサ22の取り付け態様を例示する図であり、110はステアリング機構、120はホイール(但しホイールの外周面のみを図示する)である。
このステアリング機構110は、運転者によって回転操作されるハンドル111と、このハンドル111の中心部にその上端が取り付けられたメインシャフト112と、このメインシャフト112の下端にジョイント118aを介して取り付けられた中間シャフト113と、その周面に歯面が形成されるとともに中間シャフト113の下端にジョイント118bを介して接続されたピニオン114と、このピニオン114と噛合する歯面が形成されたラック115と、このラック115の両端部(図では右端部だけを示す)にジョイント118cを介して接合された中間アーム116と、この中間アーム116の外側端部にジョイント118dを介して接合されたナックルアーム117とを有している。
そしてホイール120は、このナックルアーム117の外側端部の支持部117aにて回転自在に支持されている。
【0053】
このようなステアリング機構110においては、運転者がハンドル111を回転操作するとこのハンドル111の回転がメインシャフト112、中間シャフト113と順次伝達され、これによりピニオン114が回転する。そしてピニオン114の回転に伴い、このピニオン114と噛合しているラック115がその延長方向(図中左右方向)に移動する。
このラック115の移動は、中間アーム116及びナックルアーム117に伝達される。そしてナックルアーム117は転舵中心Cを支点に回転して、その支持部117aにて支持されたホイール120を実線と点線で示す角度に回転させる。
【0054】
ハンドル舵角センサ22は、例えば上記ピニオン114のように、ハンドル111の回転操作に伴って回転する部材に取り付けられている。同図にて例示したハンドル舵角センサ22は、図示しない発光受光素子対を2組備えた光センサ22aとその周面に反射面及び非反射面が交互に形成されたドラム部材22bとから構成されている。
ドラム部材22bはピニオン114に対しこのピニオン114とともに回転するように取り付けられている。光センサ22aはこのドラム部材22bの周面に対向するとともに発光受光素子対の各組がドラム部材22bの回転方向に対して僅かにずらされて配設されている。
【0055】
そして運転者がハンドル111を回転操作してピニオン114が回転するとドラム部材22bも回転する。このドラム部材22bの回転に伴って光センサ22aの目前を反射面及び非反射面が次々と通過し、光センサ22aはこの回転に応じたパルス信号を出力する。このとき光センサ22aの発光受光素子対の各組は僅かに位置をずらされているので、この光センサ22aからは位相がずれたパルス信号が出力される。そしてこのパルス信号における位相のずれ状態はドラム部材22bの回転方向によって異なる。
従って、このハンドル舵角センサ22は、光センサ22aからのパルス信号のパルス数を計数することによりハンドル111の操作量(回転量)を把握し、位相のずれ状態からハンドル111の回転方向すなわち車両の転回方向を把握する。
【0056】
操舵角センサ23は、例えば図3(b)に示すように、ステアリング機構110〔図3(a)参照〕のナックルアーム117に取り付けられている。この操舵角センサ23は、ローラ部材23aと、このローラ部材23aの回転に基づいてパルス信号を生成するパルス生成部23bとから構成されている。
そしてローラ部材23aは、ナックルアーム117の転舵中心Cに接するよう配設され、そしてローラ部材23はこのナックルアーム117の転舵中心Cが回転することにより自らも回転する構成となっている。パルス生成部23bは、例えば、ローラ部材23aとともに回転するスリット板とこのスリット板に配設された発光受光素子対とからなるいわゆるフォトインタラプタ(いずれも図示せず)として構成されており、ローラ部材23aの回転に応じてパルス信号を出力する構成となっている。
この操舵角センサ23においても、このパルス信号に基づいてハンドル111の操作量及び回転方向を把握する。
【0057】
そしてこれらのハンドル舵角センサ22あるいは操舵角センサ23からのパルス信号は、転回情報としてデータ処理部4のCPU41に供給される。
なお、ここではハンドル舵角センサ22あるいは操舵角センサ23として光センサを使用したものについて例示したが、これらの舵角センサ22、23については、例示したものに限るものではなくハンドル111の舵角あるいは操舵輪(ホイール120)の操舵角を検出するものであれば何でも良い。
【0058】
走行距離検出部24は、車両の走行距離を検出する機構で、車両のトランスミッションシャフト等に取付けられている。この走行距離検出部24は、例えば、トランスミッションシャフトに取付けられた磁石と、この磁石に隣接して配置されたホール素子と、このホール素子からの出力に応じて可変する比較電圧がその一方の端子(例えば+端子)に供給され、他方の端子(例えば−端子)に基準電圧が供給されたコンパレータとを備えている。
【0059】
このような走行検出部24においては、磁石は、トランスミッションシャフトが回転することにより回転し、ホール素子にN,S,N,S,…と磁界を加える。これによりホール素子は加えられた磁界に応じて所定の電圧を誘起し、そしてコンパレータの一方の端子に供給する比較電圧を増減する。コンパレータは、一方の端子に供給された比較電圧が他方の端子に供給された基準電圧より低い場合は「H」を、また高い場合は「L」なる電圧を出力する。従って、コンパレータ1は、磁石の回転に対応して「H」,「L」となる走行パルスを出力する。
すなわち、この走行検出部24は、単位距離走行する毎にパルス信号を出力するように構成されている。
【0060】
記憶部3は、従来装置で説明した撮像部1からの画像信号を蓄えるフレームメモリ31、障害物がない平坦な地面の場合の画像データを保持する参照データメモリ32及び車両の形状データなどを保持する車両データメモリ33の他に、撮像部1の監視領域100aの範囲外となった障害物に関するデータを範囲外障害物データとして保持する範囲外障害物メモリ34を有している。
【0061】
データ処理部4は、従来装置と同様に、動作プログラムが格納されたROM42と、この動作プログラムに従って動作するCPU41と、CPU41の動作時において必要な情報を一時格納するRAM43とを有している。
また、表示部5及び音声指示部6からなる告知部7についても従来装置と構成上の大きな差はない。ただし表示部5に関し、撮像部1が撮像した画像とデータ処理部によって生成した画像とを切換表示するためのスイッチ52が設けられている。
【0062】
次に、上述した構成を有する第1実施形態の動作について説明する。
本実施形態において、データ処理部4は、図4に示すフローチャートの処理を実行することにより、車両と障害物との相対位置の算出動作及び衝突回避のための警報動作を行う。
【0063】
まず、ステップS110において、この計測動作すなわちこのフローチャートの処理が初回であるか否かを判定する。このステップS110で初回の処理と判定された場合には、障害物が撮像手段1の監視領域100aの範囲外に移動したかを判定する必要はないので、ステップS120に移行する。
そして、このステップS110で初回でないと判定された場合には、ステップS111に移行する。
【0064】
ステップS111では、車両の移動位置の算出、すなわち前回の計測動作から今回の計測動作の期間内における車両の移動距離及びその移動方向といった車両の移動量を算出する。
このステップS111では、上記走行検出部24からのパルス信号に基づいて車両の走行距離を取得し、図3にて説明したハンドル舵角センサ22あるいは操舵角センサ23からの転回情報に基づいて車両の移動方向を取得する。そしてこれらの走行距離情報および転回情報を車両の相対移動量として保持(RAM43に格納)する。
【0065】
このステップS111では、走行検出部8からの走行距離情報及びハンドル舵角センサ22(操舵角センサ23)からの転回情報に基づいて、車両の相対移動量を算出するものを例示したが、これを図5に示すように、撮像部1からの画像情報を用いて算出するように構成することもできる。
【0066】
すなわち、図5(a)に示すように、フレームメモリ31に蓄えられた画像情報中に任意の指標物Bを設定し、この指標物Bにおける着目点の座標B1 を取得する。そしてこの着目点の座標が車両の移動に伴い、図5(b)に示すように座標B2 へ移動し、さらなる車両の移動により図5(c)に示すように座標B3 へと移動する。
【0067】
そしてこの着目点が座標B1 、座標B2 、座標B3 へ移動する際のフレームメモリ31における移動量dx1 及びdy1 や移動量dx2 及びdy2 に基づいて車両の相対移動量を算出するように構成してもよい。
この場合、三次元位置計算により着目点の高さを既知とし、この高さ既知の着目点に基づき上述した演算を実行する。
【0068】
また、他には、車両の速度を検出する車速センサを用い、この車速センサにて検出された車速と前回の計測動作から今回の計測動作までの経過時間とを積算して車両の移動距離を算出し、この移動距離情報に、ハンドル舵角センサ22などからの転回情報を加味して車両の相対移動量を取得するように構成してもよい。
【0069】
このステップS111における車両の相対移動量の算出は、図6の模式図にて示すように、車両100の撮像手段1の取付位置P100(x100,y100)を基準点として、この基準点の移動量として処理すると処理が高速化できて都合がよい。 この場合、後述する衝突予測ステップにおいては、記憶部3の車両データメモリ33に保持された車両情報すなわち、基準点P100、右側後端点P100a、左側後端点P100b、右側前端点P100c及び左側前端点P100dの各データをこの基準点P100に重畳することにより車両の位置及び形状を把握し衝突を予測する。
【0070】
このようにステップS111にて車両の相対移動量を算出すると、次いでステップS112に移行する。
このステップS112では、ステップS111にて算出した車両の相対移動量に基づき、前回までに検出された障害物について今回の計測動作時点における障害物の位置を推定する。これは、障害物が静止しているものとみなして、前回の計測動作時点での障害物の位置座標にステップS111にて算出した車両の相対移動量を加算することにより行われる。
【0071】
このステップS112における障害物の位置推定動作も、図6に示すように、障害物200の重心を基準点P200とし、この基準点P200の移動座標値として処理すると、処理を高速化することができる。
そしてこのように基準点を用いた場合、先の車両データのときと同様に後述する衝突予測ステップにおいては、障害物200の形状データP200rをこの基準点P200に重畳することにより、障害物の位置及び形状を把握し衝突を予測する。
【0072】
そして引き続くステップS113では、ステップS112で推定した障害物が、監視領域100aの範囲内であるか範囲外であるかを判定する。この判定は監視領域100a内にある障害物のそれぞれについて行う。そして「範囲外」と判定された障害物については、記憶部3の範囲外障害物メモリ43にその位置情報及び形状情報を格納する。
このステップS113における「範囲内」あるいは「範囲外」の判定は、障害物の重心を基準点として、この基準点が監視領域100a内にあるか否かを判定するように構成すると処理を高速化できる。
【0073】
すなわち、図6の模式図に示すように、障害物200の重心が前回の計測動作時点において基準点P200の位置にあって、そして車両100が移動したことによりその重心が基準点P200aまで移動した場合は、障害物200がP200 の位置にあるときはその重心が監視領域100a内にあるので、障害物200は「範囲内」と判定される。そして障害物200がP200aの位置にあるときはその重心が監視領域100aより外側に位置しているので障害物200は「範囲外」と判定される。
このように障害物200の重心を判定の基準とすることにより、演算処理を簡単にすることができる。
【0074】
以上のステップS111〜ステップS113により障害物が監視領域100a内にあるか否かを判定し、そして監視領域100aの範囲外と判定した障害物についてはその位置情報及び形状情報を記憶部3の範囲外障害物メモリ43に保持する。そしてステップS120に移行する。
【0075】
このステップS120では、今回計測時における車両位置での障害物の検出が行われる。すなわちこのステップS120では、撮像部1(図15参照)により、この時点における監視領域100a内に存在する障害物の有無の検出が行われる。
そしてステップS121では、上記ステップS120にて検出された障害物のそれぞれについて、2次元形状あるいは3次元形状といった形状情報の取得動作及び撮像部1との相対位置情報が算出される。このステップS121の相対位置情報の算出は、例えば、障害物の形状情報に基づいて当該障害物の重心を算出し、この重心と撮像部1との相対位置を算出することが行われる。
【0076】
そしてステップS122では、上記ステップS121で算出された障害物の相対位置情報及び形状情報を記憶する。これらの相対位置情報及び形状情報は、データ処理部4のRAM43に保持される。
以上のステップS120〜ステップS122の処理により、監視領域100a内における障害物が検出されるとともに検出された障害物と車両(撮像部1)との相対位置が算出される。
【0077】
次いでステップS130に移行する。このステップS130では、車両の進路が予測される。すなわち、このステップS130では、図3で説明した舵角検出部21(ハンドル舵角センサ22、操舵角センサ23)からの転回情報に基づいて車両の転回角度を算出するとともにこの転回角度に基づいて車両の予測進路を算出する。
【0078】
なお、このステップS130の処理に関し、上述したステップS111と同様に車両の進路をフレームメモリ31に記憶されたデータに対する画像処理にて算出できるのは、いうまでもない。
【0079】
そして引き続くステップS131では、上記ステップS113にて記憶した「範囲外」の障害物に関する位置情報及び形状情報と、上記ステップS122にて記憶した監視領域100a内(「範囲内」)の障害物に関する位置情報及び形状情報と、上記ステップS131にて算出した車両の予測進路とに基づき、「範囲内」及び「範囲外」の障害物と、予測進路上における車両との相対位置を算出するとともにこの算出した相対位置に基づいて障害物と車両とが衝突する(衝突の危険性がある)か否かを判定する。
【0080】
次のステップS140では上記ステップS131の判定結果に基づいて警報を発生するか否かがの判定が行われる。すなわち、上記ステップS131で「衝突しない」と判定された場合には上記ステップS110に移行して次の計測動作を行う。一方、上記ステップS131で「衝突する(危険性あり)」と判定された場合には引き続くステップS150に移行する。
【0081】
このステップS150では、上記CPU41は表示部5のディスプレイ装置51に対して「衝突する」旨のメッセージを表示するよう駆動信号を送出し、音声指示部6の駆動回路62に対して「衝突する」旨を知らせる音声ガイダンスあるいはブザー音を生成するための音声信号を送出する。CPU41からの駆動信号あるいは音声信号により、表示部5のディスプレイ装置はメッセージを表示し、音声指示部6のスピーカ61は音声あるいはブザー音を発生する。
【0082】
なお、このステップS140〜ステップS150においては、障害物と車両とが衝突する危険性がある場合に警告メッセージや警告音(音声ガイダンス、ブザー音)を発生する構成を例示したが、これを「範囲内」及び「範囲外」の障害物を常時ディスプレイ装置51に表示させておくようにし、運転者に車両との相対距離を認識させるよう構成してもよい。
【0083】
次に、上述した各ステップに基づく実際の処理について図18を参照して説明する。
車両100が位置P4(図中点線にて示す)にある場合においては、障害物200は車両100の監視領域100a内に存在している。従ってこの位置P4では障害物200は「範囲内」のものとして扱われる。そして車両100における撮像部1の取付位置P100(P4)と障害物200の重心P200との相対距離SP(P4)と、両者の位置関係を示すDX(P4)及びDY(P4)とが算出され、これらが相対位置データとして記憶される。
【0084】
この位置P4において車両の操舵輪(前輪)の操舵角は車両100の側面に平行な操舵角θ0 であるので、車両100はそのまま直進して後退する。CPU43は車両100の車両データとこの障害物200の形状データとを加味して車両100と障害物200とが衝突するか否かを判定する。この場合、図からも明らかなように両者は衝突しないので警報は発せられない。
【0085】
そして車両が位置P5(図中実線にて示す)まで移動した場合には、障害物200は監視領域100aから外れている。従ってこの位置P5においては障害物200は「範囲外」のものとして扱われ、その位置情報及び形状情報は記憶部3の範囲外障害物メモリ34に保持されている。そして車両100における撮像部1の取付位置P100(P5)と障害物200の重心P200との相対距離SP(P5)と、両者の位置関係を示すDX(P5)及びDY(P5)とが算出され、これらが相対位置データとして記憶される。
【0086】
この位置P5において車両の操舵輪(前輪)の操舵角は操舵角θ2 であるので、車両100は図中矢印で示す軌跡の上を弧を描いて後退する。CPU43は車両100の車両データとこの障害物200の形状データとを加味して車両100と障害物200とが衝突するか否かを判定する。この場合、図からも明らかなようにこの障害物200は車両100の右前端部P100cの軌跡の範囲内に存在するので、この場合CPU43は告知部7に対して警報を発生するよう信号を送出する。
このように本実施形態においては、監視領域100aの範囲外となった障害物についても車両との相対位置を算出するので、監視範囲外にある障害物であっても車両との衝突といった危険性があれば、それを運転手に告知する。
【0087】
以上説明した第1実施形態では、CCDカメラ14の撮像範囲内で検出された障害物が車両との相対移動により監視領域から外れた場合においても移動位置を知ることができる。
次に、CCDカメラ14の撮像範囲内で検出及び消滅を繰り返すような比較的小さい障害物について、移動位置を知ることができるように構成した第2実施形態について説明する。
【0088】
図7は、この第2実施形態の構成を説明するブロック図で、同図において、先に説明したものと同一部には同一符号を付して示している。この第2実施形態では、記憶部3に範囲内障害物移動位置メモリ35が設けられている点に構成上の相違がある。この範囲内障害物移動位置メモリ35は、第1実施形態における範囲外障害物メモリ34に代えて設けられている。
【0089】
また、この第2実施形態における撮像部1としては、一対のビデオカメラにより構成されたステレオ式(図15(b)参照)のものとされ、フレームメモリ31もまた左右一対設けられている。これにより、左右画像の視差から路面画像を消去することができるとともに高さのある画像(すなわち物体)のエッジ画像を取得することができる。
なお、この第2実施形態における他の構成については、先に説明した第1実施形態にて説明した構成と同様であるので、その説明を省略する。
【0090】
そして、範囲内障害物移動位置メモリ35は、図8に示すように、3つの保持領域すなわち第1保持領域35a、第2保持領域35b及び第3保持領域35cから構成されている。
【0091】
これらの保持領域の内、第1保持領域35aは、撮像部1による撮像画像、すなわち監視領域中に存在する障害物について、全ての特徴点の3次元位置データを記憶する領域とされている。
【0092】
そして、第2保持領域35bは、所定時間が経過した時点における障害物の特徴点の3次元位置データを記憶する領域とされている。
この第2保持領域35bに格納されるデータは、第1保持領域35aに格納された障害物の特徴点の3次元位置データと、走行距離検出部24から出力されるパルス信号の送出間隔に基づいて検出された車両の走行速度情報と、舵角検出部21により検出された車両の転回情報とに基づいて予測された、所定時間が経過した時点に存在すると予測される障害物の特徴点の3次元位置データとされる。
【0093】
また、第3保持領域35cには、第2保持領域35bに格納された障害物の特徴点の3次元位置データと、車両の走行速度情報と、車両の転回情報とに基づいて予測された、さらに所定時間が経過した時点に存在すると予測される障害物の特徴点の3次元位置データとされる。
【0094】
次に、上述した構成を有する第2実施形態の動作について説明する。
本実施形態において、データ処理部4は、図9に示すフローチャートの処理を実行することにより、車両と障害物との相対位置の算出動作及び衝突回避のための警報動作を行う。
【0095】
まず、ステップS200において、範囲内障害物移動位置メモリ35の第1保持領域35a、第2保持領域35b及び第3保持領域35cの保持内容をリセットする。
ステップS201では、周期カウンタのリセットを行う。この周期カウンタは、装置の動作周期を計時するものとされ、データ処理部4のRAM43に設定される。なお、本実施形態における周期カウンタの計時時間は、1フレームの画像を処理するのに要する時間として規定される。
そして、ステップS202では、周期カウンタによるカウント動作をスタートする。
【0096】
ステップS210では、撮像部1により撮像された監視領域100a(図16参照)内の画像をフレームメモリ31に取り込む。
ステップS211では、舵角検出部21からのハンドル舵角情報、及び、走行距離検出部24から出力されるパルス信号の送出間隔すなわち車速情報を取り込む。
【0097】
ステップS212では、障害物検出処理を行う。この障害物検出処理は、上記ステップS210にて取り込まれた撮像画像に対してなされる処理である。
この処理では、まず、路面画像(すなわち高さ「0」の画像)を除去し、この路面画像が除去された画像に対して水平方向及び垂直方向あるいは何れか一方向の微分処理を行なうことにより、物体の外観を表すエッジ画像を取得する。
【0098】
そして、取得したエッジ画像より、監視領域100a内に存在する物体(すなわち障害物)の形状を示す特徴点の3次元座標データを障害物のデータとして取得する。
ステップS213では、上記ステップS212で取得した特徴点の3次元座標データ(検出結果)を範囲内障害物移動位置メモリ35の第1保持領域35aに記憶させる。
【0099】
ステップS220では、範囲内障害物移動位置メモリ35の第2保持領域35bの保持内容を参照し、この第2保持領域35b内にデータが記憶されているか否かを判定する。そして、データが記憶されている場合(Y)にはステップS221に移行し、データが記憶されていない場合(N)には、ステップS225に移行する。
【0100】
ステップS221では、範囲内障害物移動位置メモリ35の第3保持領域35cの保持内容を参照し、この第3保持領域35c内にデータが記憶されているか否かを判定する。そして、データが記憶されている場合(Y)にはステップS222に移行し、データが記憶されていない場合(N)には、ステップS224に移行する。
【0101】
ステップS222では、範囲内障害物移動位置メモリ35の第1保持領域35a、第2保持領域35b及び第3保持領域35cに記憶されたデータを表示部5のディスプレイ装置51にて表示する。
【0102】
より詳細には、現動作周期にて撮像した画像から取得した障害物の特徴点の3次元位置データ(第1保持領域35a)、1動作周期前にて取得した障害物の特徴点の3次元位置データから予測した障害物の3次元位置データ(第2保持領域35b)、2動作周期前にて取得した障害物の3次元位置データから予測した障害物の3次元位置データ(第3保持領域35c)の表示を行う。
そして、このステップS222の処理が終了するとステップS223に移行して上述した周期カウンタのカウント値が規定時間に達しストップするまで待機する。
【0103】
一方、範囲内障害物移動位置メモリ35の第3保持領域35cにデータが記憶されておらず(S221で「N」)ステップS224に移行した場合には、このステップS224にて範囲内障害物移動位置メモリ35の第1保持領域35a(現動作周期のデータ)及び第2保持領域35b(1動作周期前のデータより予測されたデータ)をディスプレイ装置51にて表示する。
そして、ステップS223に移行して上述した周期カウンタのカウント値が規定時間に達しストップするまで待機する。
【0104】
また、範囲内障害物移動位置メモリ35の第2保持領域35cにデータが記憶されておらず(S220で「N」)ステップS225に移行した場合には、このステップS225にて範囲内障害物移動位置メモリ35の第1保持領域35a(現動作周期のデータ)のみをディスプレイ装置51にて表示する。そして、ステップS226に移行して上述した周期カウンタのカウントをストップした後にステップS232に移行する。
【0105】
そして、上記ステップS223の処理が終了しステップS230に移行した場合には、このステップS230にて次動作周期における障害物の位置予測を行う。
すなわち、このステップS230では、舵角検出部21からのハンドル舵角情報、走行距離検出部24からの車速情報及び周期カウンタ(RAM43)により規定された動作周期に基づき、次の動作周期時点の車両の相対移動量を算出するとともに範囲内障害物移動位置メモリ35の第2保持領域35bに記憶されたデータについて、次の動作周期時点における障害物(特徴点の3次元座標データ)の移動位置を算出(予測)する。
【0106】
引き続くステップS231では、上記ステップS230にて算出した障害物の移動位置を範囲内障害物移動位置メモリ35の第3保持領域35cに記憶させる。
【0107】
ステップS232では、現動作周期にて取得された障害物について次動作周期における障害物の位置予測を行う。
すなわち、このステップS232では、上記ステップS230の動作を範囲内障害物移動位置メモリ35の第1保持領域35aに記憶されたデータに対して行う。
引き続くステップS233では、上記ステップS232にて算出した障害物の移動位置を範囲内障害物移動位置メモリ35の第2保持領域35bに記憶させる。
そして、このステップS233の処理が終了すると、ステップS201に移行して、次周期における動作を実行する。
【0108】
次に、上述した各ステップに基づく実際の処理について図10〜図13を参照して説明する。図10は範囲内障害物移動位置メモリ35内の記憶内容を示す模式図、図11は車両100と障害物200Aの相対位置関係を説明する模式図、図12は撮像部1を構成するビデオカメラの走査線と、このビデオカメラにより撮像された障害物の関係を説明する模式図、図13は障害物200Aがディスプレイ装置51により表示される様子を説明する模式図である。
【0109】
図11に示すように、動作周期t1時点において停車中にある車両100(t1)が、この動作周期t1経過直後に後方へ移動を開始し、所定の動作周期tが経過した動作周期t2時点(符号100(t2)で示す位置に相当)にて画像を取得した場合について考える。
【0110】
この場合、まず、動作周期t1以前の停車時点において、範囲内障害物移動位置メモリ35の記憶内容をリセットする(S200)。そして、周期カウンタのカウント値をリセットし、周期カウンタによるカウントをスタートする(S201、S202)。
そして、撮像部1により監視領域100a内を撮像し、この画像データを動作周期t1時点の画像データとしてフレームメモリ31に取り込み(S210)、同時に、舵角検出部21からのハンドル舵角情報、及び、走行距離検出部24から出力されるパルス信号の送出間隔すなわち車速情報をRAM43に取り込む(S211)。なお、この時点における障害物200Aは、図12に示すように、ビデオカメラの走査線上に存在し、このビデオカメラによる検出が可能な状態となっている。
【0111】
続いて、フレームメモリ31に取り込まれた画像データより障害物の検出すなわち高さのある物体のエッジ画像の作成並びにこのエッジ画像に基づく特徴点(3次元位置座標データ、以下特徴点データという)の取得を行う(S212)。
そして、例示しているように、監視領域100a内に障害物200Aのみが存在する場合には、この障害物200Aの特徴点データが取得される。また、多数の障害物が存在した場合には、存在した全ての障害物の特徴点データが取得される。
【0112】
この取得した特徴点データは、範囲内障害物移動位置メモリ35の第1保持領域35aに記憶される(S213)。この場合、初回の動作周期であるので、取得した特徴点データは、図10における動作周期t1に示すように、第1保持領域35aに特徴点データP11として記憶される。
【0113】
続いて、範囲内障害物移動位置メモリ35の第2保持領域35b及び第3保持領域35cに過去分の特徴点データが記憶されているか否かを判定する(S220、S221)。
この場合には、第1保持領域35aのみに特徴点データが記憶されているので(S220で「N」)、この第1保持領域35aに記憶された特徴点データに基づく障害物をディスプレイ装置51にて表示する(S225、図13(a)参照)。
【0114】
そして、動作周期カウンタのカウント値が規定時間に達するまで待機し(S226)、ハンドル舵角情報及び車速情報を用いた演算動作により第1保持領域35aに記憶された特徴点データの次動作周期時点における移動位置を予測し(S232)、この予測した移動位置を第2保持領域35bに特徴点データP12として記憶させる(S233、図10における動作周期t2参照)。
【0115】
続いて、周期カウンタをリセットするとともに再度カウントをスタートし(S201、S202)、動作周期t2時点の画像、ハンドル舵角並びに車速を取り込む(S210、S211)。なお、この動作周期t2時点における障害物200Aは、図12に点線で示すように、ビデオカメラの走査線間に存在し、検出できない(消滅した)状態となっている。
【0116】
続いて、取り込まれた画像データより障害物の特徴点データの取得を行い(S212)、この取得した特徴点データP21を範囲内障害物移動位置メモリ35の第1保持領域35aに記憶させる(S213、図10の動作周期t2参照)。
【0117】
続いて、範囲内障害物移動位置メモリ35の第2保持領域35b及び第3保持領域35cに過去分の特徴点データが記憶されているか否かを判定(S220、S221)する。
この場合には、第1保持領域35a及び第2保持領域35bに特徴点データが記憶されているので(S221で「N」)、これらの第1保持領域35a及び第2保持領域35bに記憶された特徴点データに基づく障害物をディスプレイ装置51にて表示する(S224)。
【0118】
このとき、この障害物200A(t2)は、上述したように撮像画像上においては消滅しているが、第2保持領域35bに保持された特徴点データに基づいて表示を行うことができる(図13(b)参照)
【0119】
そして、動作周期カウンタのカウント値が規定時間に達するまで待機し(S223)、ハンドル舵角情報及び車速情報を用いた演算動作により第2保持領域35bに記憶された特徴点データP12の次動作周期時点における移動位置を予測し(S230)、この予測した移動位置を第3保持領域35cに特徴点データP13として記憶させる(S221、図10における動作周期t3参照)。
【0120】
さらに、同様な移動位置の予測動作を第1保持領域35aに記憶された特徴点データP21に対して行い(S232)、この予測した移動位置を第2保持領域35bに特徴点データP22として記憶させる(S233)。
その後、動作周期t3移行の処理を繰り返し実行する。
【0121】
そして、このような処理を継続して実行することにより、図10に示すように、範囲内障害物移動位置メモリ35には、撮像画像(現動作周期)に基づく特徴点データP11、P21、P31・・・、1動作周期前の撮像画像に基づく特徴点データP12、P22、P32・・・、及び、2動作周期前の撮像画像に基づく特徴点データP13、P23、P33・・・が記憶されるので、例示したように、障害物がビデオカメラの撮像画像にて検出、消滅を繰り返す場合においても、この障害物を連続して捕捉することができる。
【0122】
なお、以上説明した本実施形態においても、上述した第1実施形態の如く、車両の転回方向をフレームメモリ31内に記憶された画像の着目画素の移動量に基づいて検出してもよい。
同様に、障害物と車両の相対距離に基づき、両者が衝突する危険性がある場合に、その旨を告知手段を介して運転者に告知するように構成してもよい。
【0123】
また、本発明の基本構成と本実施形態とは、次の対応関係を有する。
すなわち、本発明の基本構成における撮像手段は本実施形態における撮像部1に対応し、走行状態情報出力手段は検出部2に対応し、告知手段は告知部7に対応している。転回方向検出手段は舵角検出部21に対応し、表示手段は表示部5に、音声指示手段は音声指示部6に対応している。範囲外障害物情報保持手段は範囲外障害物メモリ34に対応し、範囲内障害物移動位置保持手段は範囲内障害物移動位置メモリ35に対応し、画像保持手段はフレームメモリ31に対応している。
【0124】
また、障害物検出手段41aはフローチャートにおけるステップS120(第1実施形態)と、ステップS212(第2実施形態)とに対応し、障害物位置取得手段(41b)はステップS121(第1実施形態)と、ステップS212(第2実施形態)とに対応している。障害物位置予測手段41cはステップS130(第1実施形態)と、ステップS230及びS232(第1実施形態)とに対応している。車両進路予測手段41dは、ステップS130(第1実施形態)に対応している。
【0125】
【発明の効果】
以上詳細に説明したように、本発明によれば、次の効果を奏する。
すなわち、車両の走行状態情報に基づいて検出された障害物の車両との相対位置を予測するとともにこの予測された車両との相対位置にて障害物の表示を行うように構成したので、予測された車両との相対位置に基づく制御を行うことができ、使い勝手のよい車両周辺監視装置を提供することができる。
【0126】
また、障害物位置予測手段及び告知手段が対象とする障害物を撮像手段による撮像範囲から消滅した障害物としたので、撮像範囲から消滅した障害物についての車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0127】
また、障害物位置取得手段が取得する障害物の位置情報を撮像手段の範囲外に移動することにより消滅した障害物とし、障害物位置予測手段は、この障害物の情報(範囲外障害物情報)に基づき、消滅した障害物の車両との相対位置を予測するので、撮像手段による撮像範囲外に移動して消滅した障害物についても車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0128】
また、障害物位置取得手段が取得する障害物の位置情報を撮像手段の撮像範囲内に存在する障害物の位置情報とし、障害物位置予測手段は、この障害物の位置情報と走行状態情報とに基づいて、障害物の車両との相対位置を予測し、告知手段は、撮像範囲内にて消滅した障害物に関し、障害物位置予測手段により予測された車両との相対位置を運転者に告知するので、撮像手段による撮像範囲内にて消滅した障害物についても車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0129】
また、障害物位置取得手段は、撮像手段の撮像範囲内に存在する障害物の位置情報(範囲内障害物情報)を周期的に取得し、障害物位置予測手段は、周期毎に、取得した障害物の車両との相対位置を予測し、この予測した障害物の車両との相対位置を範囲内障害物移動位置保持手段に格納し、告知手段は、撮像範囲内にて消滅した障害物に関し、障害物位置予測手段により予測された車両との相対位置を運転者に告知するので、撮像手段による撮像範囲内にて消滅した障害物について、直ちに車両との相対位置を知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0130】
また、告知手段は、車両進路予測手段により予測された車両の進路と障害物位置予測手段により予測された障害物の車両との相対位置とを運転者に告知するので、車両がこれから走行することが予測される進路上における障害物の存在を、撮像範囲から消滅した障害物についても知ることができ、安全性を高めた使い勝手のよい車両周辺監視装置を提供することができる。
【0131】
また、車両進路予測手段は、撮像手段からの画像情報に基づいて車両の転回方向を認識するとともに認識した転回方向とから車両の進路を予測するので、特別な装置が不要となり装置の構成を簡単にすることができる。
【0132】
また、車両進路予測手段は、撮像手段からの画像情報を保持する画像保持手段に保持された画像情報を参照し、この画像情報内における着目画素の移動方向及び移動量を検出する。そして、この検出された移動方向及び移動量に基づいて車両の移動方向を認識するとともに認識した移動方向から車両の進路を予測するので、車両の進路を予測する場合において、着目点についてのみ処理を行えば良いので、処理に要する演算ステップを簡略化できる。
【0133】
また、車両進路予測手段は、前記走行状態情報に基づいて車両の進路を予測するので、車両の進路の予測と障害物の車両との相対位置の予測とを共通の情報により行うことができ、装置構成を簡単にすることができる。
【0134】
また、走行状態情報出力手段は、車両の走行距離を検出する走行距離検出手段からの走行距離情報と車両に設けられた転回方向検出手段からの転回方向の情報とを走行状態情報として出力するので、走行距離情報と転回方向情報とが車両から直接読み取ることができ、車両の進路を予測する場合において、処理を高速に行うことができる。
【0135】
また、転回方向検出手段は、ハンドル舵角を検出するハンドル舵角センサあるいは操舵輪の操舵角を検出する操舵角センサとして構成されているので、車両の転回方向の情報を確実に把握することができる。
【0136】
また、衝突予測手段は、予測された車両進路と予測された障害物の車両との相対位置とに基づいて車両が障害物に衝突するか否かを予測し、衝突すると予測された場合に告知手段が衝突の旨を告知するので、運転者は車両が現在の状態で移動した場合における車両と障害物との衝突可能性を事前に知ることができ、衝突を未然に防ぐことができ、より安全性を高めた車両周辺監視装置を提供することができる。
【0137】
また、告知手段は、車両と障害物との相対距離及びメッセージを表示する表示手段、あるいは、ブザー音や音声を発生する音声指示手段の一方あるいは双方であるので、運転者の視覚あるいは聴覚により車両と障害物との位置関係を伝達することができる。
【図面の簡単な説明】
【図1】本発明の基本構成図である。
【図2】第1実施形態の構成を説明するブロック図である。
【図3】舵角検出部21を説明する図である。
【図4】第1実施形態の動作を説明するフローチャートである。
【図5】フレームメモリ31に蓄えられた画像情報から車両の相対移動量を算出する方法を説明する図である。
【図6】障害物の位置を推定する動作、障害物の存在領域を判定する動作を説明する模式図である。
【図7】第2実施形態の構成を説明するブロック図である。
【図8】範囲内障害物移動位置メモリ35の構成を説明する図である。
【図9】第2実施形態の動作を説明するフローチャートである。
【図10】範囲内障害物移動位置メモリ35内の記憶内容を示す模式図である。
【図11】車両100と障害物200Aの相対位置関係を説明する模式図である。
【図12】撮像部1を構成するビデオカメラの走査線と、このビデオカメラにより撮像された障害物の関係を説明する模式図である。
【図13】障害物200Aがディスプレイ装置51により表示される様子を説明する模式図である。
【図14】従来装置の構成を説明するブロック図である。
【図15】撮像部1の構成を説明する図である。
【図16】撮像部1の取り付け態様を説明する図である。
【図17】車両100の動きと障害物200の関係を説明する図である。
【図18】車両100の動きと障害物200の関係を説明する図である。
【符号の説明】
1 撮像部
2 検出部
21 蛇角検出部
24 走行距離検出部
3 記憶部
31 フレームメモリ
34 範囲外障害物メモリ
35 範囲内障害物移動位置メモリ
4 データ処理部
41 CPU
42 ROM
43 RAM
5 表示部
6 音声指示部
7 告知部
100 車両
200、200A 障害物[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle periphery monitoring device, and more particularly to a vehicle periphery monitoring device that is effectively applied to monitor the periphery of a vehicle such as an automobile and assist the driver's safety confirmation in driving the vehicle. is there.
[0002]
[Prior art]
Conventionally, there has been a device having the configuration shown in FIG. 14 as a device for monitoring the periphery of a vehicle such as an automobile. In the figure,
[0003]
The
[0004]
The
[0005]
The
Based on the display image signal output from the CPU 41, the
The
[0006]
The
As shown in FIG. 15A, a laser beam is used by inputting laser light from a
[0007]
In this configuration, the image captured by the CCD camera 14, that is, the bright spot matrix 13b disturbed by an obstacle or the like in the monitoring area is temporarily stored in the
[0008]
On the other hand, as shown in FIG. 15B, the stereo type has two CCD cameras, that is, a right CCD camera 14R and a left CCD camera 14L that are spaced apart from each other by a predetermined distance dxa. Accordingly, two frame memories, a right frame memory 31R and a left frame memory 31L, are provided.
[0009]
In this configuration, an image captured by the right CCD camera 14R is stored in the right frame memory 31R as right image information, and an image captured by the left CCD camera 14L is stored in the left frame memory 31L as left image information.
For example, the
[0010]
For example, as shown in FIG. 16, such an
As a result, the
The mounting position of the
[0011]
Based on the obstacle information recognized as described above and the vehicle information such as the vehicle current position data, the vehicle shape data, and the vehicle reference position data stored in the vehicle data memory 33, the
Further, the
[0012]
[Problems to be solved by the invention]
In the conventional apparatus described above, as described with reference to FIG. 16, an obstacle in the
Therefore, as long as the obstacle exists in the
[0013]
However, once an obstacle has left the
[0014]
For example, when the
At this time, since the
[0015]
Further, when the
[0016]
From this state, the steering angle of the steered wheel is 2 When the
[0017]
Further, when the obstacle is very small and the obstacle is located in a gap between detection lines of a CCD sensor (not shown) constituting the CCD camera 14 (14R, 14L), the obstacle is In spite of the fact that the obstacle cannot be detected and the obstacle is present in the
[0018]
The above-described problems are not limited to the CCD camera 14 and also occur when a video camera (not shown) is used. That is, it goes without saying that when the obstacle is out of the imaging area of the video camera, the obstacle is located between the scanning lines of the video camera when the obstacle is very small. In this case, the detection and disappearance of the obstacle are repeated.
[0019]
Therefore, in view of the conventional problems described above, the present invention can know the position of an object recognized as an obstacle even if it is outside the monitoring area, and if there is a danger of a collision with the vehicle. It is an object of the present invention to provide a vehicle periphery monitoring device that notifies the driver of this and improves usability and safety so that a collision can be avoided.
Also, for obstacles that disappeared in the surveillance area Relative position with vehicle It is another object to provide a vehicle periphery monitoring device that can recognize the image and improve the usability by improving the visibility.
[0020]
[Means for Solving the Problems]
In order to solve the above problems, the vehicle periphery monitoring device according to the present invention monitors the periphery of a vehicle based on image data from an imaging means (1) installed in the vehicle as shown in the basic configuration diagram of FIG. In the vehicle periphery monitoring apparatus, the obstacle detection means (41a) for detecting the obstacle from the image data, and the obstacle position acquisition means for acquiring the position information of the obstacle detected by the obstacle detection means (41a) (41b), traveling state information output means (2) for detecting and outputting traveling state information indicating the traveling state of the vehicle, and the traveling state information and the position information of the obstacle. As the vehicle moves, Of the detected obstacle Relative position with respect to the vehicle Of the obstacle predicted by the obstacle position prediction means (41c) and the obstacle position prediction means (41c). Relative position with respect to the vehicle And a notification means (7) for notifying the driver. (Claim 1)
[0021]
In the configuration of the first aspect, the imaging unit acquires an image around the vehicle as image data, and the obstacle detection unit detects the obstacle from the image data. The obstacle position acquisition means acquires the position information of the detected obstacle, and the obstacle position prediction means acquires the traveling state information indicating the traveling state of the vehicle from the traveling state information output means and the traveling state information. And the position information of the obstacle acquired by the obstacle position acquisition means, As the vehicle moves, Obstruction Relative position with respect to the vehicle Predict. The notification means is predicted by the obstacle position prediction means. Relative position with respect to the vehicle Obstacles are displayed at.
[0022]
That is, in the configuration of
[0023]
In addition, the obstacle position predicting means (41c) applies to the disappeared obstacle when the obstacle disappears from the imaging range by the imaging means (1). Relative position with respect to the vehicle The notification means (7) predicts the disappeared obstacle. Relative position with respect to the vehicle It is characterized by announcing. (Claim 2)
[0024]
In the second aspect of the present invention, the obstacle targeted by the obstacle position prediction means and the notification means is an obstacle that disappears from the imaging range of the imaging means.
Therefore, in the configuration of
[0025]
The obstacle position acquisition means (41b) acquires information regarding the disappeared obstacle as out-of-range obstacle information when the obstacle disappears from the imaging range by the imaging means (1). In addition, the acquired out-of-range obstacle information is held in the out-of-range obstacle information holding means (34), and the obstacle position prediction means (41c) is an obstacle that disappears based on the out-of-range obstacle information. Relative position of the vehicle It is characterized by performing predictions. (Claim 3)
[0026]
In the configuration of
Therefore, in the configuration of
[0027]
The obstacle position acquisition means (41b) acquires position information of the obstacle in the imaging range by the imaging means (1) as in-range obstacle information, and the obstacle position prediction means (41c) Obstacles based on obstacle information in the range Relative position of the vehicle And predicting obstacles Relative position with respect to the vehicle Is stored in the in-range obstacle moving position holding means (35), and the notification means (7) is configured to display the obstacle that has disappeared when the obstacle disappears within the imaging range of the imaging means (1). About the predicted obstacles Relative position with respect to the vehicle It is characterized by announcing. (Claim 4)
[0028]
In the configuration of
[0029]
The obstacle position acquisition means (41b) periodically acquires the in-range obstacle information, and the obstacle position prediction means (41c) travels with the in-range obstacle information for each period. Based on the state information and the obstacle Relative position with respect to the vehicle And predicting obstacles Relative position with respect to the vehicle Is stored in the in-range obstacle movement position holding means (35). (Claim 5)
[0030]
In the configuration of the fifth aspect, the obstacle position acquisition unit periodically acquires the position information (in-range obstacle information) of the obstacle present in the imaging range of the imaging unit. Obstacle position prediction means Relative position with vehicle Predict this obstacle's Relative position with vehicle Is stored in the in-range obstacle movement position holding means. And the notification means is predicted by the obstacle position prediction means regarding the obstacle disappeared within the imaging range. Relative position with vehicle To the driver.
Therefore, according to the configuration of
[0031]
The vehicle course prediction means (41d) for predicting the course of the vehicle is provided, and the notification means (7) is a vehicle course predicted by the vehicle course prediction means (41d) and the obstacle position prediction means. Of obstacles predicted by Relative position with respect to the vehicle It is characterized by notifying the driver. (Claim 6)
[0032]
In the configuration of the sixth aspect, the notification means includes the vehicle course predicted by the vehicle course prediction means and the obstacle predicted by the obstacle position prediction means. Relative position with vehicle To the driver, it is possible to know the presence of obstacles on the path where the vehicle is expected to travel from now on, as well as obstacles that have disappeared from the imaging range, and it is easy to use with improved safety. A vehicle periphery monitoring device can be provided.
[0033]
The vehicle course prediction means (41d) recognizes the turning direction of the vehicle based on the image information from the imaging means (1) and predicts the course of the vehicle based on the recognized turning direction. It is said. (Claim 7)
[0034]
In the configuration of claim 7, the vehicle course prediction means recognizes the turning direction of the vehicle based on the image information from the imaging means and predicts the course of the vehicle from the recognized turning direction, so that no special device is required. Next, the configuration of the apparatus can be simplified.
[0035]
The vehicle course predicting means (41d) recognizes the turning direction of the vehicle based on the moving direction and moving amount of the pixel of interest in the image holding means (31) that holds the image signal from the imaging means (1). It is characterized by doing. (Claim 8)
[0036]
In the configuration of the
Therefore, according to this configuration, in the case of predicting the course of the vehicle, it is only necessary to perform the process on the point of interest, so that the calculation steps required for the process can be simplified.
[0037]
The vehicle course prediction means (41d) predicts the course of the vehicle based on the travel state information. (Claim 9)
[0038]
In the configuration of the ninth aspect, the vehicle course prediction means predicts the course of the vehicle based on the travel state information. Relative position with vehicle Prediction can be performed using common information, and the apparatus configuration can be simplified.
[0039]
The travel state information output means (2) is a travel distance detection means (24) that detects the travel distance of the vehicle, and a rotation that detects the turning direction of the vehicle and outputs the detected turning direction as turning information. And a direction detecting means (21). (Claim 10)
[0040]
In the configuration of claim 10, the traveling state information output means travels the traveling distance information from the traveling distance detecting means for detecting the traveling distance of the vehicle and the information on the turning direction from the turning direction detecting means provided in the vehicle. Output as status information. Since the travel distance information and the turning direction information can be directly read from the vehicle, the process can be performed at high speed when the course of the vehicle is predicted.
[0041]
Further, the turning direction detecting means (21) is any one of a steering angle sensor (22) for detecting a steering angle and a steering angle sensor (23) for detecting a steering angle of a steered wheel. . (Claim 11)
[0042]
In the configuration of
[0043]
The vehicle course predicted by the vehicle course predicting means (41d) and the obstacle predicted by the obstacle position predicting means Relative position with respect to the vehicle And a collision prediction means (41e) for predicting a collision between the vehicle and the obstacle, and the notification means (7), when the collision prediction means (41e) predicts a collision, It is characterized by announcing the collision. (Claim 12)
[0044]
In the configuration of
Therefore, according to this configuration, the driver can know in advance the possibility of a collision between the vehicle and an obstacle when the vehicle moves in the current state, and can prevent the collision in advance, thereby further improving safety. It is possible to provide a vehicle periphery monitoring device with improved height.
[0045]
The notification means (7) is at least one of a display means (5) for displaying a relative distance between the vehicle and the obstacle and a message, or a voice instruction means (6) for generating a buzzer sound or a voice. It is characterized by. (Claim 13)
[0046]
In the configuration of claim 13, the notification means is one or both of a display means for displaying a relative distance between the vehicle and the obstacle and a message, and a voice instruction means for generating a buzzer sound and a voice. The positional relationship between the vehicle and the obstacle can be transmitted by visual or auditory sense. In particular, when notifying the driver of a danger such as a collision, it can be more clearly notified by operating both.
[0047]
Moreover, the said imaging means (1) is attached so that the back area | region of the said vehicle may be imaged behind the said vehicle. (Claim 14)
[0048]
In the configuration of claim 14, the imaging means is attached to the rear of the vehicle so as to image the rear area of the vehicle, so that the driver recognizes an obstacle in the rear vicinity area of the vehicle that is difficult for the driver to visually recognize. Can be made.
[0049]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, specific examples of embodiments of the present invention will be described with reference to the drawings. First, a first embodiment of a vehicle periphery monitoring device to which the present invention is applied will be described.
FIG. 2 is a block diagram illustrating the configuration of the vehicle periphery monitoring device according to the present invention. In FIG. 2, the same parts as those described above are denoted by the same reference numerals. That is, 1 is an imaging unit, 2 is a detection unit having a steering
[0050]
The
As described above, a video camera can be applied to the
[0051]
The
As the steering
[0052]
FIG. 3A is a view exemplifying how the steering wheel
The
The
[0053]
In such a
The movement of the
[0054]
The handle
The
[0055]
When the driver rotates the
Therefore, the
[0056]
For example, as shown in FIG. 3B, the
The roller member 23a is disposed so as to be in contact with the turning center C of the
The
[0057]
The pulse signals from the steering
In addition, although what illustrated the thing using an optical sensor as the steering wheel
[0058]
The travel
[0059]
In such a
In other words, the
[0060]
The
[0061]
As in the conventional apparatus, the
Further, the notification unit 7 including the
[0062]
Next, the operation of the first embodiment having the above-described configuration will be described.
In the present embodiment, the
[0063]
First, in step S110, it is determined whether this measurement operation, that is, the process of this flowchart is the first time. If it is determined in step S110 that the process is the first time, it is not necessary to determine whether the obstacle has moved outside the range of the
And when it determines with it not being the first time in this step S110, it transfers to step S111.
[0064]
In step S111, the movement position of the vehicle, that is, the movement amount of the vehicle such as the movement distance and the movement direction of the vehicle within the period of the current measurement operation from the previous measurement operation is calculated.
In this step S111, the travel distance of the vehicle is acquired based on the pulse signal from the
[0065]
In this step S111, an example of calculating the relative movement amount of the vehicle based on the travel distance information from the
[0066]
That is, as shown in FIG. 5A, an arbitrary index object B is set in the image information stored in the
[0067]
And this point of interest is coordinate B 1 , Coordinate B 2 , Coordinate B Three Amount dx in the
In this case, the height of the target point is made known by the three-dimensional position calculation, and the above-described calculation is executed based on the target point with the known height.
[0068]
In addition, a vehicle speed sensor that detects the speed of the vehicle is used, and the vehicle speed detected by the vehicle speed sensor and the elapsed time from the previous measurement operation to the current measurement operation are integrated to obtain the travel distance of the vehicle. The relative movement amount of the vehicle may be obtained by calculating and adding the turning information from the
[0069]
As shown in the schematic diagram of FIG. 6, the calculation of the relative movement amount of the vehicle in this step S111 is based on the attachment position P100 (x100, y100) of the imaging means 1 of the
[0070]
When the relative movement amount of the vehicle is calculated in step S111 as described above, the process proceeds to step S112.
In step S112, based on the relative movement amount of the vehicle calculated in step S111, the position of the obstacle at the time of the current measurement operation is estimated for the obstacle detected so far. This is performed by assuming that the obstacle is stationary and adding the relative movement amount of the vehicle calculated in step S111 to the position coordinates of the obstacle at the time of the previous measurement operation.
[0071]
As shown in FIG. 6, the obstacle position estimation operation in step S112 can be performed at a higher speed by processing the center of gravity of the
When the reference point is used in this manner, the position of the obstacle is obtained by superimposing the shape data P200r of the
[0072]
In subsequent step S113, it is determined whether the obstacle estimated in step S112 is within or outside the range of the
The determination of “within range” or “out of range” in step S113 speeds up the processing if the center of gravity of the obstacle is used as a reference point to determine whether this reference point is within the
[0073]
That is, as shown in the schematic diagram of FIG. 6, the center of gravity of the
As described above, the calculation process can be simplified by using the center of gravity of the
[0074]
It is determined whether or not the obstacle is in the
[0075]
In step S120, an obstacle is detected at the vehicle position at the time of the current measurement. That is, in step S120, the imaging unit 1 (see FIG. 15) detects the presence or absence of an obstacle present in the
In step S121, for each of the obstacles detected in step S120, shape information acquisition operation such as a two-dimensional shape or a three-dimensional shape and relative position information with respect to the
[0076]
In step S122, the obstacle relative position information and shape information calculated in step S121 are stored. These relative position information and shape information are held in the RAM 43 of the
Through the processes in steps S120 to S122, the obstacle in the
[0077]
Next, the process proceeds to step S130. In step S130, the course of the vehicle is predicted. That is, in this step S130, the turning angle of the vehicle is calculated based on the turning information from the steering angle detection unit 21 (the steering wheel
[0078]
Needless to say, with regard to the processing in step S130, the course of the vehicle can be calculated by image processing on the data stored in the
[0079]
In subsequent step S131, position information and shape information related to the “out-of-range” obstacle stored in step S113, and a position related to the obstacle in the
[0080]
In the next step S140, it is determined whether or not an alarm is to be generated based on the determination result in step S131. That is, when it is determined that “no collision” in step S131, the process proceeds to step S110 and the next measurement operation is performed. On the other hand, if it is determined in step S131 that “collision occurs (dangerous)”, the process proceeds to the subsequent step S150.
[0081]
In this step S150, the CPU 41 sends a drive signal so as to display a message of “collision” to the
[0082]
Note that, in steps S140 to S150, a configuration in which a warning message or a warning sound (voice guidance, buzzer sound) is generated when there is a risk of collision between an obstacle and a vehicle is exemplified. Obstacles of “inside” and “out of range” may be displayed on the
[0083]
Next, actual processing based on the above steps will be described with reference to FIG.
When the
[0084]
At this position P4, the steering angle of the steering wheel (front wheel) of the vehicle is a steering angle θ parallel to the side surface of the
[0085]
When the vehicle moves to the position P5 (shown by a solid line in the figure), the
[0086]
At this position P5, the steering angle of the steering wheel (front wheel) of the vehicle is the steering angle θ. 2 Therefore, the
Thus, in this embodiment, since the relative position with respect to the vehicle is calculated even for an obstacle that is outside the range of the
[0087]
In the first embodiment described above, the moving position can be known even when an obstacle detected within the imaging range of the CCD camera 14 deviates from the monitoring area due to relative movement with the vehicle.
Next, a description will be given of a second embodiment configured so that the movement position of a relatively small obstacle that repeatedly detects and disappears within the imaging range of the CCD camera 14 can be known.
[0088]
FIG. 7 is a block diagram illustrating the configuration of the second embodiment. In FIG. 7, the same parts as those described above are denoted by the same reference numerals. In the second embodiment, there is a structural difference in that the in-range obstacle moving
[0089]
The
In addition, about the other structure in this 2nd Embodiment, since it is the same as that of the structure demonstrated in 1st Embodiment demonstrated previously, the description is abbreviate | omitted.
[0090]
The in-range obstacle
[0091]
Among these holding areas, the
[0092]
The
The data stored in the
[0093]
The
[0094]
Next, the operation of the second embodiment having the above-described configuration will be described.
In the present embodiment, the
[0095]
First, in step S200, the contents held in the
In step S201, the cycle counter is reset. This period counter measures the operation period of the apparatus and is set in the RAM 43 of the
In step S202, the counting operation by the cycle counter is started.
[0096]
In step S <b> 210, an image in the
In step S211, the steering angle information from the
[0097]
In step S212, an obstacle detection process is performed. This obstacle detection process is a process performed on the captured image captured in step S210.
In this process, first, a road surface image (that is, an image having a height of “0”) is removed, and a differential process in the horizontal direction and / or the vertical direction is performed on the image from which the road surface image has been removed. An edge image representing the appearance of the object is acquired.
[0098]
Then, from the acquired edge image, the three-dimensional coordinate data of the feature point indicating the shape of the object (that is, the obstacle) existing in the
In step S213, the three-dimensional coordinate data (detection result) of the feature point acquired in step S212 is stored in the
[0099]
In step S220, the content held in the
[0100]
In step S221, the content held in the
[0101]
In step S222, the data stored in the
[0102]
More specifically, the three-dimensional position data (first holding
Then, when the process of step S222 is completed, the process proceeds to step S223 and waits until the count value of the period counter reaches the specified time and stops.
[0103]
On the other hand, if no data is stored in the
And it transfers to step S223 and waits until the count value of the period counter mentioned above reaches the regulation time, and stops.
[0104]
If no data is stored in the
[0105]
When the process of step S223 ends and the process proceeds to step S230, the position of the obstacle in the next operation cycle is predicted in step S230.
That is, in this step S230, the vehicle at the next operation cycle is based on the steering wheel angle information from the
[0106]
In subsequent step S231, the obstacle movement position calculated in step S230 is stored in the
[0107]
In step S232, the position of the obstacle in the next operation cycle is predicted for the obstacle acquired in the current operation cycle.
That is, in step S232, the operation of step S230 is performed on the data stored in the
In subsequent step S233, the obstacle movement position calculated in step S232 is stored in the
Then, when the process of step S233 ends, the process proceeds to step S201, and the operation in the next cycle is executed.
[0108]
Next, actual processing based on the above-described steps will be described with reference to FIGS. 10 is a schematic diagram showing the contents stored in the in-range obstacle
[0109]
As shown in FIG. 11, the vehicle 100 (t1) that is stopped at the operation cycle t1 starts to move backward immediately after the operation cycle t1, and the operation cycle t2 at which the predetermined operation cycle t has passed ( Consider a case where an image is acquired at a position indicated by reference numeral 100 (t2).
[0110]
In this case, first, the stored contents of the in-range obstacle
Then, the
[0111]
Subsequently, an obstacle is detected from the image data captured in the
As illustrated, when only the
[0112]
The acquired feature point data is stored in the
[0113]
Subsequently, it is determined whether or not past feature point data is stored in the
In this case, since the feature point data is stored only in the
[0114]
Then, it waits until the count value of the operation cycle counter reaches a specified time (S226), and the next operation cycle time point of the feature point data stored in the
[0115]
Subsequently, the cycle counter is reset and the count is started again (S201, S202), and the image, steering angle and vehicle speed at the time of the operation cycle t2 are captured (S210, S211). It should be noted that the
[0116]
Subsequently, feature point data of the obstacle is acquired from the captured image data (S212), and the acquired feature point data P is acquired. twenty one Is stored in the
[0117]
Subsequently, it is determined whether or not past feature point data is stored in the
In this case, since the feature point data is stored in the
[0118]
At this time, the
[0119]
Then, it waits until the count value of the operation cycle counter reaches the specified time (S223), and the feature point data P stored in the
[0120]
Further, a similar movement position prediction operation is performed on the feature point data P stored in the
Thereafter, the process of shifting to the operation cycle t3 is repeatedly executed.
[0121]
Then, by continuously executing such processing, the feature point data P based on the captured image (current operation cycle) is stored in the in-range obstacle
[0122]
In the present embodiment described above, the turning direction of the vehicle may be detected based on the movement amount of the target pixel of the image stored in the
Similarly, based on the relative distance between the obstacle and the vehicle, when there is a risk of collision between the two, the driver may be notified via the notification means.
[0123]
The basic configuration of the present invention and this embodiment have the following correspondence.
That is, the imaging means in the basic configuration of the present invention corresponds to the
[0124]
The obstacle detection means 41a corresponds to step S120 (first embodiment) and step S212 (second embodiment) in the flowchart, and the obstacle position acquisition means (41b) corresponds to step S121 (first embodiment). And step S212 (second embodiment). The obstacle position prediction means 41c corresponds to step S130 (first embodiment) and steps S230 and S232 (first embodiment). The vehicle
[0125]
【The invention's effect】
As described in detail above, the present invention has the following effects.
That is, the obstacle detected based on the driving state information of the vehicle Relative position with vehicle Predict this and predict this Relative position with vehicle Predicted to display obstacles at Relative position with vehicle Therefore, it is possible to provide an easy-to-use vehicle periphery monitoring device.
[0126]
Also, since the obstacle targeted by the obstacle position prediction means and the notification means is the obstacle disappeared from the imaging range by the imaging means, the obstacle disappeared from the imaging range Relative position with vehicle Therefore, it is possible to provide an easy-to-use vehicle periphery monitoring device with improved safety.
[0127]
Further, the obstacle position acquisition means acquires the obstacle position information acquired by moving the obstacle position information out of the range of the imaging means, and the obstacle position prediction means uses the obstacle information (out-of-range obstacle information). ) Based on the disappearing obstacle Relative position with vehicle For obstacles that have disappeared after moving outside the imaging range of the imaging means Relative position with vehicle Therefore, it is possible to provide an easy-to-use vehicle periphery monitoring device with improved safety.
[0128]
Further, the position information of the obstacle acquired by the obstacle position acquisition means is set as the position information of the obstacle existing in the imaging range of the imaging means, and the obstacle position prediction means includes the position information of the obstacle, the traveling state information, Based on obstacles Relative position with vehicle The notification means predicts the obstacle disappeared within the imaging range by the obstacle position prediction means. Relative position with vehicle For obstacles that have disappeared within the imaging range of the imaging means. Relative position with vehicle Therefore, it is possible to provide an easy-to-use vehicle periphery monitoring device with improved safety.
[0129]
Further, the obstacle position acquisition unit periodically acquires position information (obstacle information within the range) of obstacles existing within the imaging range of the imaging unit, and the obstacle position prediction unit acquires for each cycle. Obstruction Relative position with vehicle Predict this obstacle's Relative position with vehicle Is stored in the obstacle movement position holding means within the range, and the notification means is predicted by the obstacle position prediction means regarding the obstacle that has disappeared within the imaging range. Relative position with vehicle The driver will be notified about obstacles that have disappeared within the imaging range of the imaging means. Relative position with vehicle Therefore, it is possible to provide an easy-to-use vehicle periphery monitoring device with improved safety.
[0130]
Further, the notification means includes a vehicle course predicted by the vehicle course prediction means and an obstacle predicted by the obstacle position prediction means. Relative position with vehicle To the driver, it is possible to know the presence of obstacles on the path where the vehicle is expected to travel from now on, as well as obstacles that have disappeared from the imaging range, and it is easy to use with improved safety. A vehicle periphery monitoring device can be provided.
[0131]
Further, since the vehicle course prediction means recognizes the turning direction of the vehicle based on the image information from the imaging means and predicts the course of the vehicle from the recognized turning direction, a special device is not required and the configuration of the apparatus is simplified. Can be.
[0132]
The vehicle course prediction means refers to the image information held in the image holding means that holds the image information from the imaging means, and detects the moving direction and the moving amount of the pixel of interest in the image information. Then, based on the detected moving direction and moving amount, the moving direction of the vehicle is recognized, and the course of the vehicle is predicted from the recognized moving direction. Since it only has to be performed, the calculation steps required for the processing can be simplified.
[0133]
Further, since the vehicle course prediction means predicts the course of the vehicle based on the travel state information, the vehicle course prediction means and the obstacle path Relative position with vehicle Prediction can be performed using common information, and the apparatus configuration can be simplified.
[0134]
Further, the traveling state information output means outputs the traveling distance information from the traveling distance detecting means for detecting the traveling distance of the vehicle and the information on the turning direction from the turning direction detecting means provided in the vehicle as the traveling state information. The travel distance information and the turning direction information can be directly read from the vehicle, and when the course of the vehicle is predicted, the processing can be performed at high speed.
[0135]
Further, since the turning direction detection means is configured as a steering angle sensor that detects the steering angle of the steering wheel or a steering angle sensor that detects the steering angle of the steering wheel, it is possible to reliably grasp information on the turning direction of the vehicle. it can.
[0136]
In addition, the collision predicting means includes a predicted vehicle course and a predicted obstacle. Relative position with vehicle Based on the above, the vehicle predicts whether or not the vehicle will collide with an obstacle, and when the vehicle is predicted to collide, the notification means notifies the collision, so that the driver can move the vehicle when the vehicle moves in the current state. It is possible to know in advance the possibility of a collision with an obstacle, to prevent a collision in advance, and to provide a vehicle periphery monitoring device with improved safety.
[0137]
Further, the notification means is one or both of a display means for displaying the relative distance between the vehicle and the obstacle and a message, and a voice instruction means for generating a buzzer sound and a voice. And the positional relationship between the obstacle and the obstacle can be transmitted.
[Brief description of the drawings]
FIG. 1 is a basic configuration diagram of the present invention.
FIG. 2 is a block diagram illustrating the configuration of the first embodiment.
FIG. 3 is a diagram for explaining a
FIG. 4 is a flowchart illustrating the operation of the first embodiment.
FIG. 5 is a diagram illustrating a method for calculating a relative movement amount of a vehicle from image information stored in a
FIG. 6 is a schematic diagram for explaining an operation of estimating the position of an obstacle and an operation of determining an obstacle existing area.
FIG. 7 is a block diagram illustrating a configuration of a second embodiment.
FIG. 8 is a diagram for explaining the configuration of an in-range obstacle
FIG. 9 is a flowchart illustrating the operation of the second embodiment.
10 is a schematic diagram showing the contents stored in an in-range obstacle moving
FIG. 11 is a schematic diagram for explaining the relative positional relationship between the
12 is a schematic diagram for explaining the relationship between the scanning lines of the video camera constituting the
FIG. 13 is a schematic diagram illustrating a state in which an
FIG. 14 is a block diagram illustrating a configuration of a conventional device.
15 is a diagram for describing a configuration of an
FIG. 16 is a diagram illustrating an attachment mode of the imaging unit.
FIG. 17 is a diagram illustrating the relationship between the movement of the vehicle and the obstacle.
FIG. 18 is a diagram for explaining the relationship between the movement of the
[Explanation of symbols]
1 Imaging unit
2 detector
21 Snake angle detector
24 Travel distance detector
3 storage unit
31 frame memory
34 Out-of-range obstacle memory
35 Obstacle movement position memory within range
4 Data processing section
41 CPU
42 ROM
43 RAM
5 display section
6 Voice instruction part
7 Notification Department
100 vehicles
200, 200A Obstacle
Claims (14)
前記画像データから障害物を検出する障害物検出手段と、
前記障害物検出手段により検出された障害物の位置情報を取得する障害物位置取得手段と、
前記車両の走行状態を示す走行状態情報を検出し出力する走行状態情報出力手段と、
前記走行状態情報と前記障害物の位置情報とに基づいて、前記車両の移動に伴う、前記検出された障害物の前記車両との相対位置を予測する障害物位置予測手段と、
前記障害物位置予測手段により予測された前記障害物の前記車両との相対位置を運転者に告知する告知手段とを有することを特徴とする車両周辺監視装置。In a vehicle periphery monitoring device that monitors the periphery of a vehicle based on image data from an imaging means installed in the vehicle,
Obstacle detection means for detecting an obstacle from the image data;
Obstacle position acquisition means for acquiring position information of the obstacle detected by the obstacle detection means;
Traveling state information output means for detecting and outputting traveling state information indicating the traveling state of the vehicle;
Obstacle position predicting means for predicting a relative position of the detected obstacle with the vehicle according to the movement of the vehicle based on the running state information and the position information of the obstacle;
A vehicle periphery monitoring device comprising notification means for notifying a driver of a relative position of the obstacle predicted by the obstacle position prediction means with respect to the vehicle.
前記告知手段は、前記消滅した障害物についての予測された前記車両との相対位置を告知することを特徴とする請求項1記載の車両周辺監視装置。The obstacle position prediction means predicts the relative position of the disappeared obstacle with the vehicle when the obstacle disappears from the imaging range of the imaging means,
2. The vehicle periphery monitoring device according to claim 1, wherein the notification means notifies the predicted relative position of the disappeared obstacle with the vehicle.
前記障害物位置予測手段は、前記範囲外障害物情報に基づき消滅した障害物の前記車両との相対位置の予測を行うことを特徴とする請求項1または2記載の車両周辺監視装置。The obstacle position obtaining unit obtains information regarding the extinguished obstacle as out-of-range obstacle information when the obstacle disappears from the imaging range of the imaging unit and disappears, and the obtained out-of-range obstacle Hold the information in the out-of-range obstacle information holding means,
The vehicle periphery monitoring device according to claim 1 or 2, wherein the obstacle position prediction means predicts a relative position of an obstacle that has disappeared based on the out-of-range obstacle information with respect to the vehicle.
前記障害物位置予測手段は、前記範囲内障害物情報に基づき障害物の前記車両との相対位置の予測を行うとともに当該予測した障害物の前記車両との相対位置を範囲内障害物移動位置保持手段に格納し、
前記告知手段は、前記障害物が前記撮像手段による撮像範囲内にて消滅した際に、当該消滅した障害物について、予測された障害物の前記車両との相対位置を告知することを特徴とする請求項1記載の車両周辺監視装置。The obstacle position acquisition means acquires position information within the imaging range of the obstacle by the imaging means as in-range obstacle information,
The obstacle position predicting means predicts a relative position of the obstacle with the vehicle based on the obstacle information within the range and holds the relative position of the predicted obstacle with the vehicle within the range. Stored in the means,
When the obstacle disappears within the imaging range of the imaging means, the notification means notifies the relative position of the predicted obstacle with respect to the vehicle with respect to the disappeared obstacle. The vehicle periphery monitoring apparatus according to claim 1.
前記障害物位置予測手段は、前記周期毎に、前記範囲内障害物情報と走行状態情報とに基づいて前記障害物の前記車両との相対位置を予測するとともに当該予測した障害物の前記車両との相対位置を範囲内障害物移動位置保持手段に格納することを特徴とする請求項4記載の車両周辺監視装置。The obstacle position acquisition means periodically acquires the in-range obstacle information,
The obstacle position prediction means, for each of the period, and the vehicle of the predicted obstacle with predicting the relative position of the vehicle of the obstacle based on the traveling state information and the range obstacle information The vehicle periphery monitoring device according to claim 4 , wherein the relative position of the vehicle is stored in the in-range obstacle moving position holding means.
前記告知手段は、前記車両進路予測手段により予測された車両の進路と前記障害物位置予測手段により予測された障害物の前記車両との相対位置とを運転者に告知することを特徴とする請求項3〜5の何れかに記載の車両周辺監視装置。Vehicle course prediction means for predicting the course of the vehicle,
The notification means notifies a driver of a vehicle path predicted by the vehicle path prediction means and a relative position of the obstacle predicted by the obstacle position prediction means with respect to the vehicle. Item 6. The vehicle periphery monitoring device according to any one of Items 3 to 5.
前記告知手段は、前記衝突予測手段が衝突を予測した場合に、当該衝突を告知することを特徴とする請求項6〜11の何れかに記載の車両周辺監視装置。Collision prediction for predicting a collision between the vehicle and the obstacle based on the vehicle course predicted by the vehicle course prediction unit and the relative position of the obstacle predicted by the obstacle position prediction unit with the vehicle. Having means,
The vehicle periphery monitoring device according to any one of claims 6 to 11, wherein the notification means notifies the collision when the collision prediction means predicts a collision.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09991896A JP3661957B2 (en) | 1995-06-09 | 1996-04-22 | Vehicle periphery monitoring device |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14331195 | 1995-06-09 | ||
JP7-143311 | 1995-06-09 | ||
JP09991896A JP3661957B2 (en) | 1995-06-09 | 1996-04-22 | Vehicle periphery monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0954898A JPH0954898A (en) | 1997-02-25 |
JP3661957B2 true JP3661957B2 (en) | 2005-06-22 |
Family
ID=26441007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP09991896A Expired - Fee Related JP3661957B2 (en) | 1995-06-09 | 1996-04-22 | Vehicle periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3661957B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4519957B2 (en) * | 1998-10-22 | 2010-08-04 | 富士通テン株式会社 | Vehicle driving support device |
US6999602B2 (en) | 2000-06-30 | 2006-02-14 | Matsushita Electric Industrial Co., Ltd. | Image generation for assistance of drivers of vehicles |
JP3625059B2 (en) * | 2000-06-30 | 2005-03-02 | 松下電器産業株式会社 | Drawing device |
JP2003132349A (en) * | 2001-10-24 | 2003-05-09 | Matsushita Electric Ind Co Ltd | Drawing device |
JP2005128722A (en) * | 2003-10-23 | 2005-05-19 | Matsushita Electric Works Ltd | Vehicle with obstruction avoidance function |
JP2009241925A (en) * | 2009-04-17 | 2009-10-22 | Fujitsu Ten Ltd | Vehicular driving support device |
WO2012010180A1 (en) * | 2010-07-17 | 2012-01-26 | Valeo Schalter Und Sensoren Gmbh | Method for warning a driver of a motor vehicle of an obstacle present in a side area next to a side flank of the vehicle and motor vehicle with a driver assistance system |
JP2013217309A (en) * | 2012-04-10 | 2013-10-24 | Mitsubishi Motors Corp | Safety control device of vehicle |
-
1996
- 1996-04-22 JP JP09991896A patent/JP3661957B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH0954898A (en) | 1997-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1452390B1 (en) | Apparatus and method for monitoring the immediate surroundings of a vehicle | |
JP4100026B2 (en) | Start support device | |
JP2001195699A (en) | Vehicle circumference monitor device and recording medium for stored with vehicle collision danger judgement processing program | |
JP2007221200A (en) | Vehicle periphery monitoring system | |
JPH03269315A (en) | Inter-vehicle distance detector for tracking leading vehicle | |
JP4374850B2 (en) | Moving object periphery monitoring device | |
JP3661957B2 (en) | Vehicle periphery monitoring device | |
JP2009040319A (en) | Driving assistant device | |
JP3838884B2 (en) | Vehicle periphery display device, program, and recording medium | |
WO2016183046A1 (en) | Predicted position display for vehicle | |
JP3744314B2 (en) | Vehicle collision prediction apparatus and collision prevention apparatus | |
US20200010018A1 (en) | Towing assistance apparatus | |
JP2013161440A (en) | Vehicle surroundings monitoring device | |
JP2015014948A (en) | Driving support device for vehicle | |
JP2004276807A (en) | Retreat parking support device for vehicle | |
JP2004349926A (en) | Obstacle detection apparatus and method, and program for obstacle detection | |
JPH10117341A (en) | Vehicle periphery monitoring device, obstacle detecting method to be used for the same and medium storing obstacle detection program to be used for the same | |
JP2008275380A (en) | Vehicle periphery monitoring device | |
JP2004221871A (en) | Device for monitoring periphery of vehicle | |
JP3790999B2 (en) | Obstacle detection device for vehicle | |
JP2004017702A (en) | Parking assisting device | |
WO2021176825A1 (en) | Sensing system | |
JP7400338B2 (en) | parking assist device | |
CN114312756A (en) | Parking assistance system, parking assistance device, parking assistance method, and recording medium | |
JPH09254726A (en) | Operation assisting device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040302 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050315 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20050318 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050318 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050318 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090401 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100401 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110401 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110401 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120401 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130401 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140401 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |