JPWO2003034738A1 - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JPWO2003034738A1 JPWO2003034738A1 JP2003537324A JP2003537324A JPWO2003034738A1 JP WO2003034738 A1 JPWO2003034738 A1 JP WO2003034738A1 JP 2003537324 A JP2003537324 A JP 2003537324A JP 2003537324 A JP2003537324 A JP 2003537324A JP WO2003034738 A1 JPWO2003034738 A1 JP WO2003034738A1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- processor
- image processing
- driving assistance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000000872 buffer Substances 0.000 claims description 30
- 238000002156 mixing Methods 0.000 claims description 14
- 230000005540 biological transmission Effects 0.000 claims description 10
- 206010039203 Road traffic accident Diseases 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 6
- 238000003672 processing method Methods 0.000 claims 2
- 238000003384 imaging method Methods 0.000 abstract description 91
- 238000010586 diagram Methods 0.000 description 22
- 238000000034 method Methods 0.000 description 13
- 238000013507 mapping Methods 0.000 description 10
- 239000000203 mixture Substances 0.000 description 9
- 239000013256 coordination polymer Substances 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 238000009434 installation Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/105—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/30—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/80—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
- B60R2300/8006—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
画像処理装置には、2種類の撮像装置が接続されている。一方の撮像装置は、車両の周囲の状況を撮影し、他方は、車両の室内の状況を撮影する。プロセッサは、撮像装置からの画像を使って、車両の周囲および室内の双方の状況を表す運転支援画像を作成する。これによって、より多くの情報をドライバに提供できる運転支援画像を作成する画像処理装置を提供することができる。
Description
技術分野
本発明は、画像処理装置に関し、より特定的には、車両に取り付けられた複数の撮像装置により取り込まれた画像を処理する画像処理装置に関する。
背景技術
上記の画像処理装置の一つして、多機能車載カメラシステムがある。多機能車載カメラシステムは、大略的に、第1〜第8の撮像装置と、画像処理部と、第1〜第3の表示装置とを備えている。
第1〜第8の撮像装置はそれぞれ、車両の周囲に取り付けられる。より具体的には、第1の撮像装置は、車両の前方エリアを撮影する。第2の撮像装置は、車両の左斜め前方のエリアを撮影する。第3の撮像装置は、車両の右斜め前方のエリアを撮影する。第4の撮像装置は、車両の左側にあるドアミラーに映るエリアと実質的に同じエリアを撮影する。第5の撮像装置は、車両の右側にあるドアミラーに映るエリアと実質的に同じエリアを撮影する。第6の撮像装置は、車両の左斜め後方のエリアを撮影する。第7の撮像装置は、車両の右斜め後方のエリアを撮影する。第8の撮像装置は、車両の後方エリアを撮影する。
画像処理部は、上記の第1〜第8の撮像装置の内、予め定められたものにより撮影された画像(以下、撮影画像と称する)を合成して、第1〜第3の表示装置のいずれかで表示される画像(以下、表示画像と称する)を作成する。表示画像として、上視点画像、パノラマ画像、全周画像、結合画像及び視野角限定画像の5種類が作成される。
上視点画像は、車両周囲のエリアを上から見下ろした時の画像である。また、パノラマ画像は、複数の撮影画像を繋ぎ合わせた超広角画像である。全周画像は、全撮像装置からの撮影画像を次々と繋ぎ合わせることにより作成され、車両周囲の様子を連続的に表示可能な画像である。結合画像は、不連続なエリアの状況を表す複数の撮影画像を繋ぎ合わせた画像である。なお、複数の撮影画像の境界は、ドライバが明確に視認可能に表現される。視野角限定画像は、第4及び第5の撮像装置による撮影画像から作成され、各ドアミラーと同程度の視野角を有する画像である。
第1〜第3の表示装置は、以上の5種類の画像を、車両の運転状況に応じた適切なタイミングで表示する。
以上のような処理により、多機能車載カメラシステムは、車両の安全運転を支援することができる。なお、以上の多機能車載カメラシステムは既に、欧州特許庁によって公開されており、公開番号はEP 1077161 A2である。
次に、以上の多機能車載カメラシステムが抱えている問題点について説明する。上述の5種類の画像は全て、車両周囲の状況を表している。従って、多機能車載カメラシステムは、車両の室内の状況をドライバに提供することができない。その結果、例えば、同乗者、特に、後部座席の同乗者がシートの正しい位置に座っているか、又はシートベルトを装着しているかを、ドライバは簡単に把握できないという問題点があった。
それ故に本発明の目的は、車内の状況も提供可能な画像処理装置を提供することである。
発明の開示
上記目的を達成するため、本発明の一局面は、画像処理装置であって、車両の周囲の様子を表す第1画像、及び車両の室内の様子を表す第2画像を格納する第1及び第2のバッファと、第1及び第2のバッファに格納された第1画像及び第2画像に基づいて、車両の周囲及び室内の双方の様子を表す運転支援画像を作成するプロセッサとを備える。
発明を実施するための最良の形態
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。図1において、運転支援装置ADAは、車両V(図3参照)に設置され、5台の撮像装置1〜5と、画像処理装置AIPと、表示装置6とを備えている。なお、図1では、都合上、撮像装置2〜4の図示を省略している。
次に、図2〜図4を参照して、撮像装置1〜5について詳細に説明する。図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV5を示す模式図である。図2において、各撮像装置1〜5は好ましくは、140°程度の視野角θVを有する。なお、視野角θVは、撮像装置1〜5の実用性及びコストを考慮して選ばれ、140°以外でも構わない。また、撮像装置1〜5の視野角θVは互いに異なっていても良いが、本実施形態では便宜上、全ての視野角θVは実質的に同じであると仮定する。また、以降の説明では、撮像装置1〜5の視野角θVの範囲内を、視野FV1〜FV5と称する。
また、図3は、路面SR上に静止する車両Vの斜視図であり、以降の説明で必要となる3次元空間座標系を説明するための図である。なお、説明の便宜のため、路面SRは水平面と仮定する。図3において、3次元空間座標系は、X軸、Y軸及びZ軸からなる。X軸は、鉛直面PVと路面SRとの交線からなる。鉛直面PVは、車両Vの縦中心面PLMに直交し、かつ車両Vの後端に接する平面である。縦中心面PLMは、直進姿勢にある車両Vの左右の車輪間の中点を通る鉛直面である。Y軸は、縦中心面PLMと鉛直面PVとの交線からなる。Z軸は、縦中心面PLMと路面SRとの交線からなる。
さらに、図4は、上記撮像装置1〜5を設置例を示す模式図である。また、図4には、説明の便宜のため、上記車両Vの上面(上段に図示)及び側面(下段に図示)が描かれている。図4に示すように、撮像装置1は好ましくは、車両Vの右後ろ角付近に設置される。より具体的には、撮像装置1のレンズ11の頂点が上記3次元空間座標系において、座標値(X1,Y1,0)に位置するように、撮像装置1は設置される。以上のレンズ11の頂点位置から、撮像装置1の光軸AP1は、車両Vの後方右側のエリアへと向かい、路面SRと交差する。より具体的には、光軸AP1は、Y−Z平面に対して角度α1で交差し、さらに、X−Z平面と角度β1で交差する。以上のような位置において、撮像装置1は、図1に示すように、車両Vの後方右側のエリアを撮影して画像(以下、撮影画像と称する)IC1を作成し、画像処理装置AIPに送る。
ここで、図5の(a)は、上記撮影画像IC1の模式図である。図5の(a)において、撮影画像IC1は、予め定められた個数の画素PC1からなる。各画素PC1の位置は、UC軸及びVC軸を有する第1の視平面座標系における座標値(UC,VC)により特定される。なお、説明の便宜上、撮影画像IC1は、図5(a)には代表的に、1つの画素PC1のみが図示されている。
次に、角度α1の好ましい値について説明する。車両Vの運転支援のために、撮像装置1は、ドライバの死角エリアを撮影することが要求される。もし角度α1が0°に近ければ、撮像装置1は、上記死角エリアとなる車両Vの後端直下のエリアを撮影できなくなる。逆に角度α1が90°に近ければ、撮像装置1は、上記死角エリアとなる車両Vの右側後方のエリアを撮影できなくなる。以上の点や、周囲の撮像装置2及び4の撮影エリアを考慮して、角度α1は適切な値に設定される。例えば、視野角θVが上述のように140°程度の場合には、α1は20°程度に設定されることが好ましい。
次に、角度β1の好ましい値について説明する。上述のように、撮像装置1はドライバの死角エリアを撮影することが要求される。もし角度β1が0°に近ければ、撮像装置1は車両Vから離れたエリアしか撮影することができない。つまり、撮像装置1は、車両Vの後端直下のエリアを撮影できなくなる。また、一般的に、ドライバは、車両Vの進路を遮る障害物を避けて運転するので、障害物は車両Vからある程度離れた位置に存在する。従って、角度β1が90°に近い場合、撮像装置1は車両Vに極めて近いエリアしか撮影することができない。つまり、この場合、撮像装置1は、障害物を撮影し難くなる。以上の点や、周囲の撮像装置2及び4の撮影エリアとを考慮して、角度β1は適切な値に設定される。視野角θVが上述のように140°程度の場合には、角度β1は30°〜70°程度に設定されることが好ましい。
また、図4に示すように、撮像装置2は好ましくは、車両Vの右側のドアミラーに設置される。より具体的には、撮像装置2のレンズ21の頂点が上記3次元空間座標において、座標値(X2,Y2,Z1)に位置するように、撮像装置2は設置される。以上のレンズ21の頂点位置から、撮像装置2の光軸AP2は、車両Vの右側後方のエリアへと向かい、Z−X平面(つまり、路面SR)と交差する。より具体的には、光軸AP2は、Y−Z平面と角度α2で交差し、さらに、X−Z平面と角度β2で交差する。ここで、角度α2及びβ2は、撮像装置2の設置位置等を考慮して設定され、角度α2は例えば、30°〜45°程度に設定される。また、角度β2は例えば、20°〜70°程度に設定される。以上のような位置において、撮像装置2は、車両Vの右側後方のエリアを撮影して、図5の(b)に示すような画像(以下、撮影画像と称する)IC2を作成し、画像処理装置AIPに送る。ここで、撮影画像IC2を構成する画素を、以下の説明では、画素PC2と称する。各画素PC2は、画素PC1の場合と同様に、第1の視平面座標系の座標値(UC,VC)で特定される。
なお、図4から明らかなように、撮像装置3は、Y−Z平面を基準にして、撮像装置2と面対称な位置に設置される。撮像装置4は、Y−Z平面を基準として、撮像装置1と面対称な位置に設置される。このような位置において、撮像装置3は、車両Vの左側後方のエリアを撮影して、図6の(a)に示すような画像(以下、撮影画像と称する)IC3を作成し、撮像装置4は、車両Vの後方右側のエリアを撮影して、図6の(b)に示すような画像(以下、撮影画像と称する)IC4を作成する。これら撮影画像IC3及びIC4もまた、画像処理装置AIPに送られる。
また、図4に示すように、撮像装置5は、車両Vの室内、より具体的にはルームミラー(インサイドミラー)に設置される。さらに具体的には、撮像装置5のレンズ51の頂点が上記3次元空間座標において、座標値(0,Y3,Z2)に位置するように、撮像装置5は設置される。以上のレンズ51の頂点位置から、撮像装置5の光軸AP5は、室内の後部座席の方向に向かい、Z−X平面と交差する。より具体的には、光軸AP5は、Y−Z平面と平行であり、かつX−Z平面と角度β5で交差する。ここで、角度β5は、撮像装置5が、車両Vの室内全体を撮影できるように、適切な値に設定される。上記のように、撮像装置5の視野角θVが140°程度の場合、角度β5は20°〜70°程度であることが好ましい。このような位置において、撮像装置5は、車両Vの室内全体を撮影して、図7(a)に示すような画像(以下、撮影画像と称する)IC5を作成し、画像処理装置AIPに送る。
画像処理装置AIPは、図1に示すように、プロセッサ8と、作業領域9と、プログラムメモリ10とを備えている。プロセッサ8は、プログラムメモリ10に格納されているコンピュータプログラム(以下、単にプログラムと称する)101に従って動作する。その結果、プロセッサ8は、上述の撮影画像IC1〜IC5を使って、運転支援画像IDAを作成する。
作業領域9は典型的には、ランダムアクセスメモリで構成され、運転支援画像IDAの作成時にプロセッサ8により使用される。作業領域9は、図8に示すように、撮影画像用のバッファ91〜95と、運転支援画像用のバッファ96とからなる。バッファ91は、撮像装置1に割り当てられており、撮像装置1の撮影画像IC1(図5の(a)参照)を格納する。つまり、バッファ91は、第1の視平面座標系の各座標値(UC,UC)毎に、撮影画像IC1を構成する各画素PC1の値を格納可能に構成される。同様に、バッファ92〜95は、撮像装置2〜5に割り当てられており、撮影画像IC2〜IC5を格納する。また、以上のバッファ91〜95には、それぞれを一意に特定できるよう、互いに重複しない識別番号IDが割り当てられる。本実施形態では、バッファ91〜95には、識別番号IDとして#1〜#5が割り当てられると仮定する。なお、バッファ91〜95は、撮像装置1〜5に割り当てられるので、識別番号IDとしての#1〜#5は撮像装置1〜5も一意に特定する。
また、運転支援画像IDAは、図7の(b)に示すように、仮想カメラCV(図9参照)から、車両Vの室内及び外部の双方の様子を表す。仮想カメラCVの位置は、車両Vの室内であればどこでも構わないが、本実施形態では、車両Vのルームミラー近傍に選ばれている。なお、仮想カメラCVの位置をルームミラー近傍にするのは、車両Vのドライバは、ルームミラーに映る像を見慣れていると想定できるので、運転支援画像IDAをドライバが受け入れ易いと想定できるからである。より具体的には、撮像装置5と実質的に同じ位置に、仮想カメラCVは置かれる。また、仮想カメラCVの光軸AVは、3次元座標空間におけるY−Z平面と平行であり、かつX−Z平面と角度β5で交差する。
また、単純に仮想カメラCVを位置及び向きを撮像装置5と同じにしただけでは、運転支援画像IDAは、撮影画像IC5と同じものになってしまう。つまり、運転支援画像IDAにおいて車両Vの周囲の状況は、ドアに代表される車両Vの構成により遮られて隠れてしまい、本願で設定された目的を十分に達成できない。そのため、後述するブレンディング処理により、運転支援画像IDAにおいて、車両Vの大部分は半透明で描かれ、これによって、運転支援画像IDAは、図7の(b)に示すように、車両Vの外部の状況をドライバに提供する事が可能になる。なお、以下の説明では、運転支援画像IDAにおいて、ブレンディング処理により半透明で描かれる領域を混合エリアRMX(左下がりの斜線領域)と定義し、そうでない領域を非混合エリアRNB(右下がりの斜線領域)と定義する。混合エリアRMXは、車両Vの外部及び室内の双方の様子が描かれるエリアであり、非混合エリアRNBは、車両Vの室内の様子のみが描かれるエリアである。このように非混合エリアRNBができてしまうのは、撮像装置1〜5は上述のように配置されるので、車両Vの全周囲を完全に撮影することはできないからである。例えば、車両Vのフロア直下については撮影できない。また、撮像装置1〜5の位置は決まっているので、混合エリアRMX及び非混合エリアRNBが運転支援画像IDAにおいてどの範囲を占めるかは、予め定まる。
また、図7の(b)において、運転支援画像IDAは、第2の視平面座標系の座標値(UDA,VDA)で特定される、(NU×NV)個の画素PDAから構成される。ここで、NU及びNVの双方は自然数である。また、便宜上、運転支援画像IDAは、UDA軸の方向にNU個の画素PDAが並び、VDA軸の方向にNV個の画素PDA軸上が並ぶ長方形状のものであると仮定する。
図8に示すバッファ96は、以上の運転支援画像IDAをプロセッサ8が作成する際に使用され、上述の(NU×NV)個の画素PDAの値を格納可能に構成される。
また、図1において、プログラムメモリ10は典型的には、リードオンリーメモリで構成され、少なくとも、上述のプログラム101と、マッピングテーブル102とを含んでいる。プログラム101には、プロセッサ8による画像処理の手順が少なくとも記述される。この処理手順については、図12及び図13を参照して、後で詳説する。
次に、マッピングテーブル102について詳説する。プロセッサ8は、後述するように、画像処理において、撮影画像IC1〜IC5から、いくつかの画素PC1〜PC5を選択し、選択した画素PC1〜PC5を使って運転支援画像IDAを作成する。この選択・作成時に、マッピングテーブル102が参照される。例えば、プロセッサ8は、マッピングテーブル102に従って、図10に示すように、撮影画像IC5における画素PC51の値から、上記非混合エリアRNBにおける、ある画素PDA1の値を決定する。同様にして、撮影画像IC2における画素PC21の値、及び撮影画像IC5における画素PC52の値が予め定められた比率RBRで混合されることで、上記混合エリアRMXにおける、他の画素PDA2の値が決定される。なお、以下の説明では、比率RBRのことを、ブレンド比RBRと称する。上述以外の画素PDAの値もまた、同じようにして決定される。
ここで注意を要するのは、上述のように運転支援画像IDAは、仮想カメラCV(図9参照)から見た時の車両Vの室内及び、車両Vの外部の様子を表しており、撮影画像IC1〜IC4は、撮像装置1〜4から車両Vの周囲を見た時の様子を表す。従って、撮影画像IC1〜IC4から、運転支援画像IDAを作成する際には、視点変換処理が行われる必要があるが、画像処理装置AIPでは、国際公開WO00/07373号公報に開示されている技術を応用する。その結果、マッピングテーブル102を参照して、プロセッサ8が画素PC1〜PC5の中からいくつかを選択すると同時に、視点変換処理が行われる。
各画素PDAの値を決定可能にするために、マッピングテーブル102には、各画素PDAの値が、どの画素PC1〜PC5の値を使って決定されるかが記述される。ここで、図11は、マッピングテーブル102の一構成例を示す模式図である。図11において、マッピングテーブル102は、(NU×NV)個の単位レコードURから構成される。単位レコードURのそれぞれは、互いに重複しない一つの画素PDAに一意に割り当てられ、レコード種別TURと、第2の視平面座標系の座標値(UDA,VDA)と、少なくとも1組の識別番号ID及び第1の視平面座標系の座標値(UDA,VDA)と、ブレンド比RBRとを含む。
レコード種別TURは、自身を含む単位レコードURの種類を典型的には、「1」及び「2」のいずれか一方の番号で示す。本実施形態では、便宜上、「1」は、上述のブレンディングが不要であることを示す、「2」は、ブレンディングが必要であることを示す。従って、上述の非混合エリアRNBに属する画素PDAに割り当てられる単位レコードURにおいて、レコード種別TURの欄には、「1」が記述される。また、混合エリアRMXに属するものの単位レコードURにおいて、レコード種別TURの欄には「2」が記述される。
座標値(UDA,VDA)は、自身を含む単位レコードURがどの画素PDAに割り当てられているかを示す。
識別番号ID及び座標値(UC,VC)については上述した通りである。ここで注意を要するのは、画素PDAの値は、同じ単位レコードURの識別番号ID及び座標値(UDA,VDA)の組み合わせにより一意に特定される、画素PC1〜PC5のいずれか1つ又は2つの値を使って決定される点である(図9参照)。他にも注意を要するのは、同じ単位レコードURのレコード種別TURが「1」の場合には、識別番号ID及び座標値(UC,VC)の組み数は1つであり、それが「2」の場合には、識別番号ID及び座標値(UC,VC)の組み数は2つである。
また、ブレンド比RBRは、その値を含む単位レコードURに記述される画素PDAの値を決定するためのパラメータである。本実施形態では、好ましい例として、ブレンド比RBRは、レコード種別TURが「2」である単位レコードURにのみ記述され、より具体的には、識別番号ID及び座標値(UDA,VDA)の組みの一方にのみ割り当てられる。ここで、割り当てられたブレンド比RBRをα(0<α<1)とおくと、識別番号ID及び座標値(UDA,VDA)の組みの他方のブレンド比RBRは(1−α)となる。
表示装置6は、画像処理装置AIPにより作成された運転支援画像IDAを表示する。
次に、図12のフローチャートを参照して、画像処理装置AIPの動作について説明する。運転支援装置ADAの起動後、プロセッサ8は、プログラムメモリ10内のプログラム101の実行を開始する。そして、所定のタイミング(例えば30ms毎)で、プロセッサ8は、好ましくは1つの撮像指示CICを作成し、全ての各撮像装置1〜5に送信する(ステップS1)。本実施形態では、撮像指示CICは、全撮像装置1〜5に対して撮像を指示するための命令である。各撮像装置1〜5は、撮像指示CICの受信に応答して、上述の撮影画像IC1〜IC5を作成して、作業領域9に転送する。その結果、バッファ91〜95には、撮影画像IC1〜IC5が格納される(ステップS2)。
なお、本実施形態では、各撮像装置1〜5は、撮像指示CICに応答して、撮影画像IC1〜IC5を作成し、それぞれをバッファ91〜95に格納する。しかし、これに限らず、各撮像装置1〜5は、予め定められたタイミングで、撮影画像IC1〜IC5を自発的又は能動的に作成して、バッファ91〜95に格納するようにしても良い。
次に、プロセッサ8は、プログラムメモリ10のマッピングテーブル102に従って画像処理を行う。つまり、プロセッサ8は、バッファ91〜95に格納されている撮影画像IC1〜IC5を使って、運転支援画像IDAをバッファ95上で作成する(ステップS3)。
ここで、図13は、ステップS3の詳細な処理手順を示すフローチャートである。図13において、プロセッサ8は、マッピングテーブル102の中から、未選択の単位レコードURを1つ選択し、選択したものから、レコード種別TURを取り出す(ステップS21)。そして、プロセッサ8は、今回取り出したものが「1」か否かを判断する(ステップS22)。
レコード種別TURが「1」の場合、上述したようにブレンディングは不要であり、今回選択した単位レコードURには、1組みの識別番号ID及び座標値(UC,VC)が記述されている。プロセッサ8は、ステップS22でレコード種別TURが「1」であると判断した場合、今回の単位レコードURから、識別番号ID及び座標値(UC,VC)を読み出す(ステップS23)。次に、プロセッサ8は、バッファ91〜95の中から、今回読み出した識別番号IDで特定されるものにアクセスし、さらに、今回アクセスしたもの(バッファ91〜95のいずれか)から、今回読み出した座標値(UC,VC)で特定される画素P(画素PC1〜PC5のいずれか)の値を取り出す(ステップS24)。次に、プロセッサ8は、今回の単位レコードURから、座標値(UDA,VDA)を読み出す(ステップS25)。そして、プロセッサ8は、画素PC1〜PC5の内、今回取り出した値を、今回選択した単位レコードURに記述される座標値(UDA,VDA)で特定される画素PDAの値とする。つまり、プロセッサ8は、バッファ96において座標値(UDA,VDA)で特定される画素PDAの値を格納する領域に、ステップS23で取り出した画素PC1〜PC5のいずれかをそのまま格納する(ステップS26)。
一方、ステップS22で、今回のレコード種別TURが「2」と判断した場合には、今回の単位レコードURから、識別番号ID及び座標値(UC,VC)と、それと同じ組みのブレンド比RBRとを読み出す(ステップS27)。次に、プロセッサ8は、バッファ91〜95の中から、今回読み出した識別番号IDで特定されるものにアクセスし、さらに、今回アクセスしたもの(バッファ91〜95のいずれか)から、今回読み出した座標値(UC,VC)で特定される画素P(画素PC1〜PC5のいずれか)の値を取り出す(ステップS28)。その後、プロセッサ8は、今回取り出した画素PC1〜PC5のいずれかに、今回読み出したブレンド比RBRを乗算し、その乗算値MP×Rを作業領域9で保持する(ステップS29)。次に、プロセッサ8は、今回選択した単位レコードURに、未選択の組み合わせ(識別番号ID及び座標値(UC,VC))が残っているか否かを判断する(ステップS210)。未選択の組み合わせがあれば、プロセッサ8は、それ及びブレンド比RBRを読み出して(ステップS211)、ステップS28を行う。それに対して、未選択の組み合わせがなければ、プロセッサ8は、ステップS212を行う。
プロセッサ8がステップS210で未選択の組み合わせが無いと判断した時点で、作業領域9には、複数の乗算値MP×Rが格納されていることになる。プロセッサ8は、複数の乗算値MP×Rの総計VSUMを計算し(ステップS212)、今回の単位レコードURから、座標値(UDA,VDA)を読み出す(ステップS213)。プロセッサ8は、ステップS212で算出した総計VSUMを、ステップS213で読み出した座標値(UDA,VDA)で特定される画素PDAの値とする。つまり、プロセッサ8は、バッファ96において、座標値(UDA,VDA)で特定される画素PDAの値を格納する領域に、今回算出した総計VSUMを格納する(ステップS214)。
以上のステップS26又はS214が終了すると、プロセッサ8は、未選択の単位レコードURが残っているか否かを判断し(ステップS215)、未選択のものが残っていれば、ステップS21を行い、運転支援画像IDAを構成する各画素PDAの値を決定していく。つまり、プロセッサ8は、全ての単位レコードURを選択し終えるまで、ステップS215までの処理を行う。その結果、バッファ96には、1フレームの運転支援画像IDAが完成し、プロセッサ8は、ステップS2から抜ける。
次に、プロセッサ8は、バッファ96上に作成された運転支援画像IDAを表示装置6に転送する(ステップS4)。表示装置6は、受信した運転支援画像IDAを表示する。画像処理装置AIPでは、以上のステップS1からS4までの一連の処理が繰り返し実行される。また、以上の運転支援画像IDAを見ることで、車両Vの室内の様子及び車両Vの外部の様子の双方をドライバは視認できる。より具体的には、ドライバは、車両Vの周囲において、自身の死角領域の状況を把握することができ、同時に、他の乗員が座席に安全な姿勢で座っているかを確認することが可能となる。これによって、従来よりも安全な運転を支援可能な運転支援画像IDAを作成できる画像処理装置AIPを提供することができる。
なお、以上の実施形態では好ましい例として、運転支援画像IDAは、仮想カメラCVから見たとき車両Vの外部及び内部の様子を表していた。これにより、例えば、車両Vの外部に障害物があったとしても、ドライバは、その障害物の車両Vに対する位置を直感的に理解することができる。しかし、画像処理装置AIPは、図7の(b)に示す以外にも、例えば、図14の(a)に示すように、車両Vの内部及び外部の様子が別々に描かれた運転支援画像IDAを作成しても良い。
また、以上の実施形態では好ましい例として、撮像装置1〜5は図4に示すように設置されていたが、これに限らず、別の位置に取り付けられても良い。また、撮像装置の台数も5台に限らず、5台を超えていても良いし、それ未満であっても良い。
次に、図15は、図1の運転支援装置ADAの変型例に係る運転支援装置ADA1の構成を示すブロック図である。図15において、運転支援装置ADA1は、運転支援装置ADAと比較すると、いくつかの着座センサ11及び/又はいくつかの装着センサ12をさらに備える点で相違する。それ以外に両運転支援装置ADA及びADA1の間に構成面での相違点は無いので、図15において、図1の構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
着座センサ11は、車両Vの各席に取り付けられ、プロセッサ8からの指示に応答して、自身が取り付けられている座席(以下、対象座席と称する)に乗員が座っているか否かを検出して、検出結果を通知するための通知信号DSTをプロセッサ8に送信する。
装着センサ12は、上述の対象座席用のシートベルトに1つずつ取り付けられ、プロセッサ8からの指示に応答して、自身が取り付けられているシートベルトが着用されているか否かを検出して、検出結果を通知するための通知信号DSBをプロセッサ8に送信する。
次に、図16のフローチャートを参照して、図15のプロセッサ8の動作を説明する。図16は、図12と比較すると、ステップS5〜S8をさらに含む点で相違する。それ以外に両フローチャートの間には相違点はないので、図16において、図12のステップに相当するものには、同じステップ番号を付けて、その説明を省略する。
図16において、ステップS3の終了後、プロセッサ8は、各着座センサ11から通知信号DSTを受け取る(ステップS5)。さらに、プロセッサ8は、各装着センサ12から通知信号DSBを受け取る(ステップS6)。
次に、プロセッサ8は、受け取った通知信号DSTおよびDSBを使って、乗員が座っているが、シートベルトが着用されていない座席(以下、警告対象座席と称する)の有無を判断する(ステップS7)。より具体的には、各通知信号DSTが示す検出結果から、プロセッサ8は、現在乗員が座っている座席(以下、使用座席と称する)を特定する。さらに、各通知信号DSBが示す検出結果から、プロセッサ8は、現在シートベルトが着用されていない座席(以下、非着用座席と称する)を特定する。プロセッサ8は、利用座席でありかつ非着用座席でもある警告対象座席があるか無いかを判断する。そして、プロセッサ8は、そのような警告対象座席がないと判断すると、ステップS8を行う事無く、ステップS4を行う。
それに対して、プロセッサ8は、ステップS7において、1つ以上の警告対象座席があると判断した場合、人間の顔に類似した形を表すマーク画像DMKを、運転支援画像IDAにおける所定位置に重畳し(ステップS8)、その結果、図14の(b)に示すような運転支援画像IDAが作成される。なお、マーク画像DMKの重畳位置は、運転支援画像IDAにおいて、警告対象座席に座る乗員の顔があると想定される位置を意味する。このような所定位置は、撮像装置1〜5が車両Vに固定されるので、予め導出しておくことが可能である。以上のステップS8が終了すると、プロセッサ8は、ステップS4を行う。
以上のように、本変型例では、運転支援画像IDA上にマーク画像DMKが重畳されるので、ドライバは、シートベルトを着用していない乗員を簡単に視認することができる。
次に、図17は、上述の画像処理装置AIPが組み込まれた車両用画像記録装置ARECの全体構成を示すブロック図である。図17において、画像記録装置ARECは、上述のの運転支援装置ADAと比較すると、外部記憶装置13と、タイマ14と、送信装置15と、ロケータ16と、衝撃センサ17とをさらに備える点で相違する。それ以外に、両者の間に構成面での相違点は無いので、図17において、図1の構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
外部記憶装置13は、不揮発性の記憶装置であり、画像処理装置AIPのバッファ96から転送されてくる運転支援画像IDAを、車両Vの室内状況及び周囲状況の双方を表す車両状況画像IVSとして格納する。さらに、外部記憶装置13には、車両状況画像IVSと共に、タイマ14により計時された現在時刻TCが日時情報Dddとして格納される。タイマ14は、プロセッサ8の指示に応答して、自身が計る現在時刻TCを画像処理装置AIPに送信する。以上の現在時刻TCは、本実施形態では、年月日も含むものとし、上述のように、車両状況画像IVSと共に外部記憶装置13に記録される。送信装置15は、典型的には携帯電話からなり、プロセッサ8の指示に応答して動作し、少なくとも、バッファ96に作成される運転支援画像IDAを、上述の車両状況画像IVSとして車両Vの外部に送信する。詳細は後述するが、車両状況画像IVSの送信先としては、警察署および/または救急センタに代表される施設が典型的である。ロケータ16は典型的には、GPS(Global Positioning System)の受信機からなり、車両Vの現在位置DCPを導出する。なお、本実施形態では、便宜上、ロケータ16はGPS受信機からなるとして説明を続けるが、周知のように、GPS受信機による現在位置DCPは誤差を含む。そのため、ロケータ16は、自律航法センサを含んでいても良い。以上の現在位置DCPは好ましくは、車両状況画像IVSと共に送信装置15から車両Vの外部に送信される。衝撃センサ17は典型的には、シートベルトを補助するSRS(Supplemental Restraint System)エアバッグシステムで使用される加速度センサであり、車両Vへの衝撃度を検出する。そして、衝撃センサ17は、検出した衝撃度が所定の基準値を超える場合に、車両Vが交通事故に巻き込まれたとみなして、そのことを示す通知信号DTAをプロセッサ8に送信する。
次に、図18のフローチャートを参照して、図17のプロセッサ8の動作について説明する。図18は、図12のフローチャートと比較すると、ステップS4の代わりにステップS9を含む点で相違する。それ以外に両フローチャートの間に相違点は無い。そのため、図18において、図12のステップに相当するものには同一の参照符号を付け、それぞれの説明を省略する。
ステップS3の次に、プロセッサ8はさらに、バッファ96に作成した運転支援画像IDAを、表示装置6及び外部記憶装置13に転送する(ステップS9)。表示装置6は、前述と同様、受信した運転支援画像IDAを表示する。また、外部記憶装置13は、受信した運転支援画像IDAを、車両状況画像IVSとしてを記憶する。以上の車両状況画像IVSの記録により、運転中における車両Vの周囲および室内の双方の状況が外部記憶装置13に記録されることになる。そのため、万が一、車両Vが交通事故に巻き込まれた場合に、旅客機のフライトレコーダと同じように、外部記憶装置13内の車両状況画像IVSを、その通事故の原因究明に役立てることができる。また、画像記録装置ARECでは、複数の撮像装置1〜5が作成した撮影画像IC1〜IC5をそのまま外部記憶装置13に格納するのでは無く、それらを1つにまとめた車両状況画像IVSを格納する。したがって、小容量の外部記憶装置13を画像記録装置ARECに組み込むことが可能となる。これによって、車両Vの室内という狭い空間を有効に利用できる。
なお、ステップS9において、より好ましくは、プロセッサ8は、まず、タイマ18から現在時刻TCを受け取る。その後、プロセッサ8は、バッファ96上の運転支援画像IDAに加えて、受信現在時刻TCを外部記憶装置13に転送する。外部記憶装置13は、受信した運転支援画像IDA及び現在時刻TCの双方を格納する。これによって、車両Vが巻き込まれた交通事故の発生時刻TCの特定に役立てることができる。
また、衝撃センサ17は、上述したように、自身が検出した衝撃度が所定の基準値を超える場合に、車両Vが交通事故に巻き込まれたことを示す通知信号DTAをプロセッサ8に送信する。プロセッサ8は、通知信号DTAの受信に応答して、図19に示すような割り込み処理を実行する。図19において、プロセッサ8は、ロケータ16から車両Vの現在位置DCPを受け取る(ステップS31)。その後、プロセッサ8は、その時点でバッファ96に格納されている車両状況画像IVS、および受信した現在位置DCPの双方を送信装置15に転送する(ステップS32)。送信装置15は、受信した車両状況画像IVS、および受信した現在位置DCPの双方を、車両Vの外部(遠隔)に位置する救急センタおよび/または警察署に送信する。救急センタおよび/または警察署には、車両状況画像IVS、の受信局および表示装置が設置されており、救急センタ等のオペレータは、受信した車両状況画像IVS、および受信した現在位置DCPの双方から、車両Vが巻き込まれた交通事故の発生を知ることができ、さらに、車両V内のけが人の様子および当該交通事故の発生場所を知ることができる。
産業上の利用可能性
本発明に係る画像処理装置は、車両の安全運転を支援する運転支援装置に組み込むことができる。
【図面の簡単な説明】
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。
図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV6を示す模式図である。
図3は、図1の運転支援装置ADAが設置される車両Vの斜視図である。
図4は、図1に示す撮像装置1〜5を設置例を示す模式図である。
図5は、図1に示す撮像装置1及び2による撮影画像IC1及びIC2を示す模式図である。
図6は、図1に示す撮像装置3及び4による撮影画像IC3及びIC4を示す模式図である。
図7は、図1に示す撮像装置5による撮影画像IC5及び、図1のプロセッサ8が作成する運転支援画像IDAを示す模式図である。
図8は、図1に示す作業領域9の詳細な構成を示す模式図である。
図9は、図7の(b)に示す運転支援画像IDAを作成するために必要となる仮想カメラCVの位置を示す模式図である。
図10は、図1のプロセッサ8が行う画像処理を説明するための模式図である。
図11は、マッピングテーブル102の一構成例を示す模式図である。
図12は、図1のプロセッサ8の処理手順を示すフローチャートである。
図13は、図12のステップS3の詳細な処理手順を示すフローチャートである。
図14は、図1のプロセッサ8が作成する運転支援画像IDAを他の例を示す模式図である。
図15は、図1の運転支援装置ADAの変型例に係る運転支援装置ADA1の構成を示すブロック図である。
図16は、図15のプロセッサ8の処理手順を示すフローチャートである。
図17は、図1の画像処理装置AIPが組み込まれた車両用画像記録装置ARECの全体構成を示すブロック図である。
図18は、図17のプロセッサ8の処理手順を示すフローチャートである。
図19は、図17のプロセッサ8の割り込み処理の手順を示すフローチャートである。
本発明は、画像処理装置に関し、より特定的には、車両に取り付けられた複数の撮像装置により取り込まれた画像を処理する画像処理装置に関する。
背景技術
上記の画像処理装置の一つして、多機能車載カメラシステムがある。多機能車載カメラシステムは、大略的に、第1〜第8の撮像装置と、画像処理部と、第1〜第3の表示装置とを備えている。
第1〜第8の撮像装置はそれぞれ、車両の周囲に取り付けられる。より具体的には、第1の撮像装置は、車両の前方エリアを撮影する。第2の撮像装置は、車両の左斜め前方のエリアを撮影する。第3の撮像装置は、車両の右斜め前方のエリアを撮影する。第4の撮像装置は、車両の左側にあるドアミラーに映るエリアと実質的に同じエリアを撮影する。第5の撮像装置は、車両の右側にあるドアミラーに映るエリアと実質的に同じエリアを撮影する。第6の撮像装置は、車両の左斜め後方のエリアを撮影する。第7の撮像装置は、車両の右斜め後方のエリアを撮影する。第8の撮像装置は、車両の後方エリアを撮影する。
画像処理部は、上記の第1〜第8の撮像装置の内、予め定められたものにより撮影された画像(以下、撮影画像と称する)を合成して、第1〜第3の表示装置のいずれかで表示される画像(以下、表示画像と称する)を作成する。表示画像として、上視点画像、パノラマ画像、全周画像、結合画像及び視野角限定画像の5種類が作成される。
上視点画像は、車両周囲のエリアを上から見下ろした時の画像である。また、パノラマ画像は、複数の撮影画像を繋ぎ合わせた超広角画像である。全周画像は、全撮像装置からの撮影画像を次々と繋ぎ合わせることにより作成され、車両周囲の様子を連続的に表示可能な画像である。結合画像は、不連続なエリアの状況を表す複数の撮影画像を繋ぎ合わせた画像である。なお、複数の撮影画像の境界は、ドライバが明確に視認可能に表現される。視野角限定画像は、第4及び第5の撮像装置による撮影画像から作成され、各ドアミラーと同程度の視野角を有する画像である。
第1〜第3の表示装置は、以上の5種類の画像を、車両の運転状況に応じた適切なタイミングで表示する。
以上のような処理により、多機能車載カメラシステムは、車両の安全運転を支援することができる。なお、以上の多機能車載カメラシステムは既に、欧州特許庁によって公開されており、公開番号はEP 1077161 A2である。
次に、以上の多機能車載カメラシステムが抱えている問題点について説明する。上述の5種類の画像は全て、車両周囲の状況を表している。従って、多機能車載カメラシステムは、車両の室内の状況をドライバに提供することができない。その結果、例えば、同乗者、特に、後部座席の同乗者がシートの正しい位置に座っているか、又はシートベルトを装着しているかを、ドライバは簡単に把握できないという問題点があった。
それ故に本発明の目的は、車内の状況も提供可能な画像処理装置を提供することである。
発明の開示
上記目的を達成するため、本発明の一局面は、画像処理装置であって、車両の周囲の様子を表す第1画像、及び車両の室内の様子を表す第2画像を格納する第1及び第2のバッファと、第1及び第2のバッファに格納された第1画像及び第2画像に基づいて、車両の周囲及び室内の双方の様子を表す運転支援画像を作成するプロセッサとを備える。
発明を実施するための最良の形態
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。図1において、運転支援装置ADAは、車両V(図3参照)に設置され、5台の撮像装置1〜5と、画像処理装置AIPと、表示装置6とを備えている。なお、図1では、都合上、撮像装置2〜4の図示を省略している。
次に、図2〜図4を参照して、撮像装置1〜5について詳細に説明する。図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV5を示す模式図である。図2において、各撮像装置1〜5は好ましくは、140°程度の視野角θVを有する。なお、視野角θVは、撮像装置1〜5の実用性及びコストを考慮して選ばれ、140°以外でも構わない。また、撮像装置1〜5の視野角θVは互いに異なっていても良いが、本実施形態では便宜上、全ての視野角θVは実質的に同じであると仮定する。また、以降の説明では、撮像装置1〜5の視野角θVの範囲内を、視野FV1〜FV5と称する。
また、図3は、路面SR上に静止する車両Vの斜視図であり、以降の説明で必要となる3次元空間座標系を説明するための図である。なお、説明の便宜のため、路面SRは水平面と仮定する。図3において、3次元空間座標系は、X軸、Y軸及びZ軸からなる。X軸は、鉛直面PVと路面SRとの交線からなる。鉛直面PVは、車両Vの縦中心面PLMに直交し、かつ車両Vの後端に接する平面である。縦中心面PLMは、直進姿勢にある車両Vの左右の車輪間の中点を通る鉛直面である。Y軸は、縦中心面PLMと鉛直面PVとの交線からなる。Z軸は、縦中心面PLMと路面SRとの交線からなる。
さらに、図4は、上記撮像装置1〜5を設置例を示す模式図である。また、図4には、説明の便宜のため、上記車両Vの上面(上段に図示)及び側面(下段に図示)が描かれている。図4に示すように、撮像装置1は好ましくは、車両Vの右後ろ角付近に設置される。より具体的には、撮像装置1のレンズ11の頂点が上記3次元空間座標系において、座標値(X1,Y1,0)に位置するように、撮像装置1は設置される。以上のレンズ11の頂点位置から、撮像装置1の光軸AP1は、車両Vの後方右側のエリアへと向かい、路面SRと交差する。より具体的には、光軸AP1は、Y−Z平面に対して角度α1で交差し、さらに、X−Z平面と角度β1で交差する。以上のような位置において、撮像装置1は、図1に示すように、車両Vの後方右側のエリアを撮影して画像(以下、撮影画像と称する)IC1を作成し、画像処理装置AIPに送る。
ここで、図5の(a)は、上記撮影画像IC1の模式図である。図5の(a)において、撮影画像IC1は、予め定められた個数の画素PC1からなる。各画素PC1の位置は、UC軸及びVC軸を有する第1の視平面座標系における座標値(UC,VC)により特定される。なお、説明の便宜上、撮影画像IC1は、図5(a)には代表的に、1つの画素PC1のみが図示されている。
次に、角度α1の好ましい値について説明する。車両Vの運転支援のために、撮像装置1は、ドライバの死角エリアを撮影することが要求される。もし角度α1が0°に近ければ、撮像装置1は、上記死角エリアとなる車両Vの後端直下のエリアを撮影できなくなる。逆に角度α1が90°に近ければ、撮像装置1は、上記死角エリアとなる車両Vの右側後方のエリアを撮影できなくなる。以上の点や、周囲の撮像装置2及び4の撮影エリアを考慮して、角度α1は適切な値に設定される。例えば、視野角θVが上述のように140°程度の場合には、α1は20°程度に設定されることが好ましい。
次に、角度β1の好ましい値について説明する。上述のように、撮像装置1はドライバの死角エリアを撮影することが要求される。もし角度β1が0°に近ければ、撮像装置1は車両Vから離れたエリアしか撮影することができない。つまり、撮像装置1は、車両Vの後端直下のエリアを撮影できなくなる。また、一般的に、ドライバは、車両Vの進路を遮る障害物を避けて運転するので、障害物は車両Vからある程度離れた位置に存在する。従って、角度β1が90°に近い場合、撮像装置1は車両Vに極めて近いエリアしか撮影することができない。つまり、この場合、撮像装置1は、障害物を撮影し難くなる。以上の点や、周囲の撮像装置2及び4の撮影エリアとを考慮して、角度β1は適切な値に設定される。視野角θVが上述のように140°程度の場合には、角度β1は30°〜70°程度に設定されることが好ましい。
また、図4に示すように、撮像装置2は好ましくは、車両Vの右側のドアミラーに設置される。より具体的には、撮像装置2のレンズ21の頂点が上記3次元空間座標において、座標値(X2,Y2,Z1)に位置するように、撮像装置2は設置される。以上のレンズ21の頂点位置から、撮像装置2の光軸AP2は、車両Vの右側後方のエリアへと向かい、Z−X平面(つまり、路面SR)と交差する。より具体的には、光軸AP2は、Y−Z平面と角度α2で交差し、さらに、X−Z平面と角度β2で交差する。ここで、角度α2及びβ2は、撮像装置2の設置位置等を考慮して設定され、角度α2は例えば、30°〜45°程度に設定される。また、角度β2は例えば、20°〜70°程度に設定される。以上のような位置において、撮像装置2は、車両Vの右側後方のエリアを撮影して、図5の(b)に示すような画像(以下、撮影画像と称する)IC2を作成し、画像処理装置AIPに送る。ここで、撮影画像IC2を構成する画素を、以下の説明では、画素PC2と称する。各画素PC2は、画素PC1の場合と同様に、第1の視平面座標系の座標値(UC,VC)で特定される。
なお、図4から明らかなように、撮像装置3は、Y−Z平面を基準にして、撮像装置2と面対称な位置に設置される。撮像装置4は、Y−Z平面を基準として、撮像装置1と面対称な位置に設置される。このような位置において、撮像装置3は、車両Vの左側後方のエリアを撮影して、図6の(a)に示すような画像(以下、撮影画像と称する)IC3を作成し、撮像装置4は、車両Vの後方右側のエリアを撮影して、図6の(b)に示すような画像(以下、撮影画像と称する)IC4を作成する。これら撮影画像IC3及びIC4もまた、画像処理装置AIPに送られる。
また、図4に示すように、撮像装置5は、車両Vの室内、より具体的にはルームミラー(インサイドミラー)に設置される。さらに具体的には、撮像装置5のレンズ51の頂点が上記3次元空間座標において、座標値(0,Y3,Z2)に位置するように、撮像装置5は設置される。以上のレンズ51の頂点位置から、撮像装置5の光軸AP5は、室内の後部座席の方向に向かい、Z−X平面と交差する。より具体的には、光軸AP5は、Y−Z平面と平行であり、かつX−Z平面と角度β5で交差する。ここで、角度β5は、撮像装置5が、車両Vの室内全体を撮影できるように、適切な値に設定される。上記のように、撮像装置5の視野角θVが140°程度の場合、角度β5は20°〜70°程度であることが好ましい。このような位置において、撮像装置5は、車両Vの室内全体を撮影して、図7(a)に示すような画像(以下、撮影画像と称する)IC5を作成し、画像処理装置AIPに送る。
画像処理装置AIPは、図1に示すように、プロセッサ8と、作業領域9と、プログラムメモリ10とを備えている。プロセッサ8は、プログラムメモリ10に格納されているコンピュータプログラム(以下、単にプログラムと称する)101に従って動作する。その結果、プロセッサ8は、上述の撮影画像IC1〜IC5を使って、運転支援画像IDAを作成する。
作業領域9は典型的には、ランダムアクセスメモリで構成され、運転支援画像IDAの作成時にプロセッサ8により使用される。作業領域9は、図8に示すように、撮影画像用のバッファ91〜95と、運転支援画像用のバッファ96とからなる。バッファ91は、撮像装置1に割り当てられており、撮像装置1の撮影画像IC1(図5の(a)参照)を格納する。つまり、バッファ91は、第1の視平面座標系の各座標値(UC,UC)毎に、撮影画像IC1を構成する各画素PC1の値を格納可能に構成される。同様に、バッファ92〜95は、撮像装置2〜5に割り当てられており、撮影画像IC2〜IC5を格納する。また、以上のバッファ91〜95には、それぞれを一意に特定できるよう、互いに重複しない識別番号IDが割り当てられる。本実施形態では、バッファ91〜95には、識別番号IDとして#1〜#5が割り当てられると仮定する。なお、バッファ91〜95は、撮像装置1〜5に割り当てられるので、識別番号IDとしての#1〜#5は撮像装置1〜5も一意に特定する。
また、運転支援画像IDAは、図7の(b)に示すように、仮想カメラCV(図9参照)から、車両Vの室内及び外部の双方の様子を表す。仮想カメラCVの位置は、車両Vの室内であればどこでも構わないが、本実施形態では、車両Vのルームミラー近傍に選ばれている。なお、仮想カメラCVの位置をルームミラー近傍にするのは、車両Vのドライバは、ルームミラーに映る像を見慣れていると想定できるので、運転支援画像IDAをドライバが受け入れ易いと想定できるからである。より具体的には、撮像装置5と実質的に同じ位置に、仮想カメラCVは置かれる。また、仮想カメラCVの光軸AVは、3次元座標空間におけるY−Z平面と平行であり、かつX−Z平面と角度β5で交差する。
また、単純に仮想カメラCVを位置及び向きを撮像装置5と同じにしただけでは、運転支援画像IDAは、撮影画像IC5と同じものになってしまう。つまり、運転支援画像IDAにおいて車両Vの周囲の状況は、ドアに代表される車両Vの構成により遮られて隠れてしまい、本願で設定された目的を十分に達成できない。そのため、後述するブレンディング処理により、運転支援画像IDAにおいて、車両Vの大部分は半透明で描かれ、これによって、運転支援画像IDAは、図7の(b)に示すように、車両Vの外部の状況をドライバに提供する事が可能になる。なお、以下の説明では、運転支援画像IDAにおいて、ブレンディング処理により半透明で描かれる領域を混合エリアRMX(左下がりの斜線領域)と定義し、そうでない領域を非混合エリアRNB(右下がりの斜線領域)と定義する。混合エリアRMXは、車両Vの外部及び室内の双方の様子が描かれるエリアであり、非混合エリアRNBは、車両Vの室内の様子のみが描かれるエリアである。このように非混合エリアRNBができてしまうのは、撮像装置1〜5は上述のように配置されるので、車両Vの全周囲を完全に撮影することはできないからである。例えば、車両Vのフロア直下については撮影できない。また、撮像装置1〜5の位置は決まっているので、混合エリアRMX及び非混合エリアRNBが運転支援画像IDAにおいてどの範囲を占めるかは、予め定まる。
また、図7の(b)において、運転支援画像IDAは、第2の視平面座標系の座標値(UDA,VDA)で特定される、(NU×NV)個の画素PDAから構成される。ここで、NU及びNVの双方は自然数である。また、便宜上、運転支援画像IDAは、UDA軸の方向にNU個の画素PDAが並び、VDA軸の方向にNV個の画素PDA軸上が並ぶ長方形状のものであると仮定する。
図8に示すバッファ96は、以上の運転支援画像IDAをプロセッサ8が作成する際に使用され、上述の(NU×NV)個の画素PDAの値を格納可能に構成される。
また、図1において、プログラムメモリ10は典型的には、リードオンリーメモリで構成され、少なくとも、上述のプログラム101と、マッピングテーブル102とを含んでいる。プログラム101には、プロセッサ8による画像処理の手順が少なくとも記述される。この処理手順については、図12及び図13を参照して、後で詳説する。
次に、マッピングテーブル102について詳説する。プロセッサ8は、後述するように、画像処理において、撮影画像IC1〜IC5から、いくつかの画素PC1〜PC5を選択し、選択した画素PC1〜PC5を使って運転支援画像IDAを作成する。この選択・作成時に、マッピングテーブル102が参照される。例えば、プロセッサ8は、マッピングテーブル102に従って、図10に示すように、撮影画像IC5における画素PC51の値から、上記非混合エリアRNBにおける、ある画素PDA1の値を決定する。同様にして、撮影画像IC2における画素PC21の値、及び撮影画像IC5における画素PC52の値が予め定められた比率RBRで混合されることで、上記混合エリアRMXにおける、他の画素PDA2の値が決定される。なお、以下の説明では、比率RBRのことを、ブレンド比RBRと称する。上述以外の画素PDAの値もまた、同じようにして決定される。
ここで注意を要するのは、上述のように運転支援画像IDAは、仮想カメラCV(図9参照)から見た時の車両Vの室内及び、車両Vの外部の様子を表しており、撮影画像IC1〜IC4は、撮像装置1〜4から車両Vの周囲を見た時の様子を表す。従って、撮影画像IC1〜IC4から、運転支援画像IDAを作成する際には、視点変換処理が行われる必要があるが、画像処理装置AIPでは、国際公開WO00/07373号公報に開示されている技術を応用する。その結果、マッピングテーブル102を参照して、プロセッサ8が画素PC1〜PC5の中からいくつかを選択すると同時に、視点変換処理が行われる。
各画素PDAの値を決定可能にするために、マッピングテーブル102には、各画素PDAの値が、どの画素PC1〜PC5の値を使って決定されるかが記述される。ここで、図11は、マッピングテーブル102の一構成例を示す模式図である。図11において、マッピングテーブル102は、(NU×NV)個の単位レコードURから構成される。単位レコードURのそれぞれは、互いに重複しない一つの画素PDAに一意に割り当てられ、レコード種別TURと、第2の視平面座標系の座標値(UDA,VDA)と、少なくとも1組の識別番号ID及び第1の視平面座標系の座標値(UDA,VDA)と、ブレンド比RBRとを含む。
レコード種別TURは、自身を含む単位レコードURの種類を典型的には、「1」及び「2」のいずれか一方の番号で示す。本実施形態では、便宜上、「1」は、上述のブレンディングが不要であることを示す、「2」は、ブレンディングが必要であることを示す。従って、上述の非混合エリアRNBに属する画素PDAに割り当てられる単位レコードURにおいて、レコード種別TURの欄には、「1」が記述される。また、混合エリアRMXに属するものの単位レコードURにおいて、レコード種別TURの欄には「2」が記述される。
座標値(UDA,VDA)は、自身を含む単位レコードURがどの画素PDAに割り当てられているかを示す。
識別番号ID及び座標値(UC,VC)については上述した通りである。ここで注意を要するのは、画素PDAの値は、同じ単位レコードURの識別番号ID及び座標値(UDA,VDA)の組み合わせにより一意に特定される、画素PC1〜PC5のいずれか1つ又は2つの値を使って決定される点である(図9参照)。他にも注意を要するのは、同じ単位レコードURのレコード種別TURが「1」の場合には、識別番号ID及び座標値(UC,VC)の組み数は1つであり、それが「2」の場合には、識別番号ID及び座標値(UC,VC)の組み数は2つである。
また、ブレンド比RBRは、その値を含む単位レコードURに記述される画素PDAの値を決定するためのパラメータである。本実施形態では、好ましい例として、ブレンド比RBRは、レコード種別TURが「2」である単位レコードURにのみ記述され、より具体的には、識別番号ID及び座標値(UDA,VDA)の組みの一方にのみ割り当てられる。ここで、割り当てられたブレンド比RBRをα(0<α<1)とおくと、識別番号ID及び座標値(UDA,VDA)の組みの他方のブレンド比RBRは(1−α)となる。
表示装置6は、画像処理装置AIPにより作成された運転支援画像IDAを表示する。
次に、図12のフローチャートを参照して、画像処理装置AIPの動作について説明する。運転支援装置ADAの起動後、プロセッサ8は、プログラムメモリ10内のプログラム101の実行を開始する。そして、所定のタイミング(例えば30ms毎)で、プロセッサ8は、好ましくは1つの撮像指示CICを作成し、全ての各撮像装置1〜5に送信する(ステップS1)。本実施形態では、撮像指示CICは、全撮像装置1〜5に対して撮像を指示するための命令である。各撮像装置1〜5は、撮像指示CICの受信に応答して、上述の撮影画像IC1〜IC5を作成して、作業領域9に転送する。その結果、バッファ91〜95には、撮影画像IC1〜IC5が格納される(ステップS2)。
なお、本実施形態では、各撮像装置1〜5は、撮像指示CICに応答して、撮影画像IC1〜IC5を作成し、それぞれをバッファ91〜95に格納する。しかし、これに限らず、各撮像装置1〜5は、予め定められたタイミングで、撮影画像IC1〜IC5を自発的又は能動的に作成して、バッファ91〜95に格納するようにしても良い。
次に、プロセッサ8は、プログラムメモリ10のマッピングテーブル102に従って画像処理を行う。つまり、プロセッサ8は、バッファ91〜95に格納されている撮影画像IC1〜IC5を使って、運転支援画像IDAをバッファ95上で作成する(ステップS3)。
ここで、図13は、ステップS3の詳細な処理手順を示すフローチャートである。図13において、プロセッサ8は、マッピングテーブル102の中から、未選択の単位レコードURを1つ選択し、選択したものから、レコード種別TURを取り出す(ステップS21)。そして、プロセッサ8は、今回取り出したものが「1」か否かを判断する(ステップS22)。
レコード種別TURが「1」の場合、上述したようにブレンディングは不要であり、今回選択した単位レコードURには、1組みの識別番号ID及び座標値(UC,VC)が記述されている。プロセッサ8は、ステップS22でレコード種別TURが「1」であると判断した場合、今回の単位レコードURから、識別番号ID及び座標値(UC,VC)を読み出す(ステップS23)。次に、プロセッサ8は、バッファ91〜95の中から、今回読み出した識別番号IDで特定されるものにアクセスし、さらに、今回アクセスしたもの(バッファ91〜95のいずれか)から、今回読み出した座標値(UC,VC)で特定される画素P(画素PC1〜PC5のいずれか)の値を取り出す(ステップS24)。次に、プロセッサ8は、今回の単位レコードURから、座標値(UDA,VDA)を読み出す(ステップS25)。そして、プロセッサ8は、画素PC1〜PC5の内、今回取り出した値を、今回選択した単位レコードURに記述される座標値(UDA,VDA)で特定される画素PDAの値とする。つまり、プロセッサ8は、バッファ96において座標値(UDA,VDA)で特定される画素PDAの値を格納する領域に、ステップS23で取り出した画素PC1〜PC5のいずれかをそのまま格納する(ステップS26)。
一方、ステップS22で、今回のレコード種別TURが「2」と判断した場合には、今回の単位レコードURから、識別番号ID及び座標値(UC,VC)と、それと同じ組みのブレンド比RBRとを読み出す(ステップS27)。次に、プロセッサ8は、バッファ91〜95の中から、今回読み出した識別番号IDで特定されるものにアクセスし、さらに、今回アクセスしたもの(バッファ91〜95のいずれか)から、今回読み出した座標値(UC,VC)で特定される画素P(画素PC1〜PC5のいずれか)の値を取り出す(ステップS28)。その後、プロセッサ8は、今回取り出した画素PC1〜PC5のいずれかに、今回読み出したブレンド比RBRを乗算し、その乗算値MP×Rを作業領域9で保持する(ステップS29)。次に、プロセッサ8は、今回選択した単位レコードURに、未選択の組み合わせ(識別番号ID及び座標値(UC,VC))が残っているか否かを判断する(ステップS210)。未選択の組み合わせがあれば、プロセッサ8は、それ及びブレンド比RBRを読み出して(ステップS211)、ステップS28を行う。それに対して、未選択の組み合わせがなければ、プロセッサ8は、ステップS212を行う。
プロセッサ8がステップS210で未選択の組み合わせが無いと判断した時点で、作業領域9には、複数の乗算値MP×Rが格納されていることになる。プロセッサ8は、複数の乗算値MP×Rの総計VSUMを計算し(ステップS212)、今回の単位レコードURから、座標値(UDA,VDA)を読み出す(ステップS213)。プロセッサ8は、ステップS212で算出した総計VSUMを、ステップS213で読み出した座標値(UDA,VDA)で特定される画素PDAの値とする。つまり、プロセッサ8は、バッファ96において、座標値(UDA,VDA)で特定される画素PDAの値を格納する領域に、今回算出した総計VSUMを格納する(ステップS214)。
以上のステップS26又はS214が終了すると、プロセッサ8は、未選択の単位レコードURが残っているか否かを判断し(ステップS215)、未選択のものが残っていれば、ステップS21を行い、運転支援画像IDAを構成する各画素PDAの値を決定していく。つまり、プロセッサ8は、全ての単位レコードURを選択し終えるまで、ステップS215までの処理を行う。その結果、バッファ96には、1フレームの運転支援画像IDAが完成し、プロセッサ8は、ステップS2から抜ける。
次に、プロセッサ8は、バッファ96上に作成された運転支援画像IDAを表示装置6に転送する(ステップS4)。表示装置6は、受信した運転支援画像IDAを表示する。画像処理装置AIPでは、以上のステップS1からS4までの一連の処理が繰り返し実行される。また、以上の運転支援画像IDAを見ることで、車両Vの室内の様子及び車両Vの外部の様子の双方をドライバは視認できる。より具体的には、ドライバは、車両Vの周囲において、自身の死角領域の状況を把握することができ、同時に、他の乗員が座席に安全な姿勢で座っているかを確認することが可能となる。これによって、従来よりも安全な運転を支援可能な運転支援画像IDAを作成できる画像処理装置AIPを提供することができる。
なお、以上の実施形態では好ましい例として、運転支援画像IDAは、仮想カメラCVから見たとき車両Vの外部及び内部の様子を表していた。これにより、例えば、車両Vの外部に障害物があったとしても、ドライバは、その障害物の車両Vに対する位置を直感的に理解することができる。しかし、画像処理装置AIPは、図7の(b)に示す以外にも、例えば、図14の(a)に示すように、車両Vの内部及び外部の様子が別々に描かれた運転支援画像IDAを作成しても良い。
また、以上の実施形態では好ましい例として、撮像装置1〜5は図4に示すように設置されていたが、これに限らず、別の位置に取り付けられても良い。また、撮像装置の台数も5台に限らず、5台を超えていても良いし、それ未満であっても良い。
次に、図15は、図1の運転支援装置ADAの変型例に係る運転支援装置ADA1の構成を示すブロック図である。図15において、運転支援装置ADA1は、運転支援装置ADAと比較すると、いくつかの着座センサ11及び/又はいくつかの装着センサ12をさらに備える点で相違する。それ以外に両運転支援装置ADA及びADA1の間に構成面での相違点は無いので、図15において、図1の構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
着座センサ11は、車両Vの各席に取り付けられ、プロセッサ8からの指示に応答して、自身が取り付けられている座席(以下、対象座席と称する)に乗員が座っているか否かを検出して、検出結果を通知するための通知信号DSTをプロセッサ8に送信する。
装着センサ12は、上述の対象座席用のシートベルトに1つずつ取り付けられ、プロセッサ8からの指示に応答して、自身が取り付けられているシートベルトが着用されているか否かを検出して、検出結果を通知するための通知信号DSBをプロセッサ8に送信する。
次に、図16のフローチャートを参照して、図15のプロセッサ8の動作を説明する。図16は、図12と比較すると、ステップS5〜S8をさらに含む点で相違する。それ以外に両フローチャートの間には相違点はないので、図16において、図12のステップに相当するものには、同じステップ番号を付けて、その説明を省略する。
図16において、ステップS3の終了後、プロセッサ8は、各着座センサ11から通知信号DSTを受け取る(ステップS5)。さらに、プロセッサ8は、各装着センサ12から通知信号DSBを受け取る(ステップS6)。
次に、プロセッサ8は、受け取った通知信号DSTおよびDSBを使って、乗員が座っているが、シートベルトが着用されていない座席(以下、警告対象座席と称する)の有無を判断する(ステップS7)。より具体的には、各通知信号DSTが示す検出結果から、プロセッサ8は、現在乗員が座っている座席(以下、使用座席と称する)を特定する。さらに、各通知信号DSBが示す検出結果から、プロセッサ8は、現在シートベルトが着用されていない座席(以下、非着用座席と称する)を特定する。プロセッサ8は、利用座席でありかつ非着用座席でもある警告対象座席があるか無いかを判断する。そして、プロセッサ8は、そのような警告対象座席がないと判断すると、ステップS8を行う事無く、ステップS4を行う。
それに対して、プロセッサ8は、ステップS7において、1つ以上の警告対象座席があると判断した場合、人間の顔に類似した形を表すマーク画像DMKを、運転支援画像IDAにおける所定位置に重畳し(ステップS8)、その結果、図14の(b)に示すような運転支援画像IDAが作成される。なお、マーク画像DMKの重畳位置は、運転支援画像IDAにおいて、警告対象座席に座る乗員の顔があると想定される位置を意味する。このような所定位置は、撮像装置1〜5が車両Vに固定されるので、予め導出しておくことが可能である。以上のステップS8が終了すると、プロセッサ8は、ステップS4を行う。
以上のように、本変型例では、運転支援画像IDA上にマーク画像DMKが重畳されるので、ドライバは、シートベルトを着用していない乗員を簡単に視認することができる。
次に、図17は、上述の画像処理装置AIPが組み込まれた車両用画像記録装置ARECの全体構成を示すブロック図である。図17において、画像記録装置ARECは、上述のの運転支援装置ADAと比較すると、外部記憶装置13と、タイマ14と、送信装置15と、ロケータ16と、衝撃センサ17とをさらに備える点で相違する。それ以外に、両者の間に構成面での相違点は無いので、図17において、図1の構成に相当するものには同一の参照符号を付け、それぞれの説明を省略する。
外部記憶装置13は、不揮発性の記憶装置であり、画像処理装置AIPのバッファ96から転送されてくる運転支援画像IDAを、車両Vの室内状況及び周囲状況の双方を表す車両状況画像IVSとして格納する。さらに、外部記憶装置13には、車両状況画像IVSと共に、タイマ14により計時された現在時刻TCが日時情報Dddとして格納される。タイマ14は、プロセッサ8の指示に応答して、自身が計る現在時刻TCを画像処理装置AIPに送信する。以上の現在時刻TCは、本実施形態では、年月日も含むものとし、上述のように、車両状況画像IVSと共に外部記憶装置13に記録される。送信装置15は、典型的には携帯電話からなり、プロセッサ8の指示に応答して動作し、少なくとも、バッファ96に作成される運転支援画像IDAを、上述の車両状況画像IVSとして車両Vの外部に送信する。詳細は後述するが、車両状況画像IVSの送信先としては、警察署および/または救急センタに代表される施設が典型的である。ロケータ16は典型的には、GPS(Global Positioning System)の受信機からなり、車両Vの現在位置DCPを導出する。なお、本実施形態では、便宜上、ロケータ16はGPS受信機からなるとして説明を続けるが、周知のように、GPS受信機による現在位置DCPは誤差を含む。そのため、ロケータ16は、自律航法センサを含んでいても良い。以上の現在位置DCPは好ましくは、車両状況画像IVSと共に送信装置15から車両Vの外部に送信される。衝撃センサ17は典型的には、シートベルトを補助するSRS(Supplemental Restraint System)エアバッグシステムで使用される加速度センサであり、車両Vへの衝撃度を検出する。そして、衝撃センサ17は、検出した衝撃度が所定の基準値を超える場合に、車両Vが交通事故に巻き込まれたとみなして、そのことを示す通知信号DTAをプロセッサ8に送信する。
次に、図18のフローチャートを参照して、図17のプロセッサ8の動作について説明する。図18は、図12のフローチャートと比較すると、ステップS4の代わりにステップS9を含む点で相違する。それ以外に両フローチャートの間に相違点は無い。そのため、図18において、図12のステップに相当するものには同一の参照符号を付け、それぞれの説明を省略する。
ステップS3の次に、プロセッサ8はさらに、バッファ96に作成した運転支援画像IDAを、表示装置6及び外部記憶装置13に転送する(ステップS9)。表示装置6は、前述と同様、受信した運転支援画像IDAを表示する。また、外部記憶装置13は、受信した運転支援画像IDAを、車両状況画像IVSとしてを記憶する。以上の車両状況画像IVSの記録により、運転中における車両Vの周囲および室内の双方の状況が外部記憶装置13に記録されることになる。そのため、万が一、車両Vが交通事故に巻き込まれた場合に、旅客機のフライトレコーダと同じように、外部記憶装置13内の車両状況画像IVSを、その通事故の原因究明に役立てることができる。また、画像記録装置ARECでは、複数の撮像装置1〜5が作成した撮影画像IC1〜IC5をそのまま外部記憶装置13に格納するのでは無く、それらを1つにまとめた車両状況画像IVSを格納する。したがって、小容量の外部記憶装置13を画像記録装置ARECに組み込むことが可能となる。これによって、車両Vの室内という狭い空間を有効に利用できる。
なお、ステップS9において、より好ましくは、プロセッサ8は、まず、タイマ18から現在時刻TCを受け取る。その後、プロセッサ8は、バッファ96上の運転支援画像IDAに加えて、受信現在時刻TCを外部記憶装置13に転送する。外部記憶装置13は、受信した運転支援画像IDA及び現在時刻TCの双方を格納する。これによって、車両Vが巻き込まれた交通事故の発生時刻TCの特定に役立てることができる。
また、衝撃センサ17は、上述したように、自身が検出した衝撃度が所定の基準値を超える場合に、車両Vが交通事故に巻き込まれたことを示す通知信号DTAをプロセッサ8に送信する。プロセッサ8は、通知信号DTAの受信に応答して、図19に示すような割り込み処理を実行する。図19において、プロセッサ8は、ロケータ16から車両Vの現在位置DCPを受け取る(ステップS31)。その後、プロセッサ8は、その時点でバッファ96に格納されている車両状況画像IVS、および受信した現在位置DCPの双方を送信装置15に転送する(ステップS32)。送信装置15は、受信した車両状況画像IVS、および受信した現在位置DCPの双方を、車両Vの外部(遠隔)に位置する救急センタおよび/または警察署に送信する。救急センタおよび/または警察署には、車両状況画像IVS、の受信局および表示装置が設置されており、救急センタ等のオペレータは、受信した車両状況画像IVS、および受信した現在位置DCPの双方から、車両Vが巻き込まれた交通事故の発生を知ることができ、さらに、車両V内のけが人の様子および当該交通事故の発生場所を知ることができる。
産業上の利用可能性
本発明に係る画像処理装置は、車両の安全運転を支援する運転支援装置に組み込むことができる。
【図面の簡単な説明】
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。
図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV6を示す模式図である。
図3は、図1の運転支援装置ADAが設置される車両Vの斜視図である。
図4は、図1に示す撮像装置1〜5を設置例を示す模式図である。
図5は、図1に示す撮像装置1及び2による撮影画像IC1及びIC2を示す模式図である。
図6は、図1に示す撮像装置3及び4による撮影画像IC3及びIC4を示す模式図である。
図7は、図1に示す撮像装置5による撮影画像IC5及び、図1のプロセッサ8が作成する運転支援画像IDAを示す模式図である。
図8は、図1に示す作業領域9の詳細な構成を示す模式図である。
図9は、図7の(b)に示す運転支援画像IDAを作成するために必要となる仮想カメラCVの位置を示す模式図である。
図10は、図1のプロセッサ8が行う画像処理を説明するための模式図である。
図11は、マッピングテーブル102の一構成例を示す模式図である。
図12は、図1のプロセッサ8の処理手順を示すフローチャートである。
図13は、図12のステップS3の詳細な処理手順を示すフローチャートである。
図14は、図1のプロセッサ8が作成する運転支援画像IDAを他の例を示す模式図である。
図15は、図1の運転支援装置ADAの変型例に係る運転支援装置ADA1の構成を示すブロック図である。
図16は、図15のプロセッサ8の処理手順を示すフローチャートである。
図17は、図1の画像処理装置AIPが組み込まれた車両用画像記録装置ARECの全体構成を示すブロック図である。
図18は、図17のプロセッサ8の処理手順を示すフローチャートである。
図19は、図17のプロセッサ8の割り込み処理の手順を示すフローチャートである。
【0003】
乗者がシートの正しい位置に座っているか、又はシートベルトを装着しているかを、ドライバは簡単に把握できないという問題点があった。
それ故に本発明の目的は、車内の状況も提供可能な画像処理装置を提供することである。
発明の開示
上記目的を達成するため、本発明の一局面は、画像処理装置であって、車両の周囲の様子を表す第1画像、及び室両の室内の様子を表す第2画像を格納する第1及び第2のバッファと、第1及び第2のバッファに格納された第1画像及び第2画像を所定の比率でブレンディングを行って、車両の周囲及び室内の双方の様子を表す運転支援画像を作成するプロセッサとを備える。
図面の簡単な説明
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。
図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV6を示す模式図である。
図3は、図1の運転支援装置ADAが設置される車両Vの斜視図である。
図4は、図1に示す撮像装置1〜5を設置例を示す模式図である。
図5は、図1に示す撮像装置1及び2による撮影画像I
乗者がシートの正しい位置に座っているか、又はシートベルトを装着しているかを、ドライバは簡単に把握できないという問題点があった。
それ故に本発明の目的は、車内の状況も提供可能な画像処理装置を提供することである。
発明の開示
上記目的を達成するため、本発明の一局面は、画像処理装置であって、車両の周囲の様子を表す第1画像、及び室両の室内の様子を表す第2画像を格納する第1及び第2のバッファと、第1及び第2のバッファに格納された第1画像及び第2画像を所定の比率でブレンディングを行って、車両の周囲及び室内の双方の様子を表す運転支援画像を作成するプロセッサとを備える。
図面の簡単な説明
図1は、本発明の一実施形態に係る画像処理装置AIPが組み込まれた運転支援装置ADAの全体構成を示すブロック図である。
図2は、各撮像装置1〜5の視野角θV及び視野FV1〜FV6を示す模式図である。
図3は、図1の運転支援装置ADAが設置される車両Vの斜視図である。
図4は、図1に示す撮像装置1〜5を設置例を示す模式図である。
図5は、図1に示す撮像装置1及び2による撮影画像I
Claims (12)
- 画像処理装置であって、
車両の周囲の様子を表す第1画像、及び車両の室内の様子を表す第2画像を格納する第1及び第2のバッファと、
前記第1及び第2のバッファに格納された第1画像及び第2画像に基づいて、前記車両の周囲及び室内の双方の様子を表す運転支援画像を作成するプロセッサとを備える、画像処理装置。 - 前記プロセッサは、前記車両に取り付けられた表示装置に、作成した運転支援画像を送信し、
前記表示装置は、受信した運転支援画像を表示する、請求の範囲第1項に記載の画像処理装置。 - 前記プロセッサは、予め定められた位置から前記車両の周囲及び室内の双方を見たときの運転支援画像を作成する、請求の範囲第1項に記載の画像処理装置。
- 前記プロセッサは、ブレンディングを行って、前記車両の室内が部分的に半透明で描かれた運転支援画像を作成する、請求の範囲第3項に記載の画像処理装置。
- 前記プロセッサは、前記車両に取り付けられた着座センサ及び装着センサのそれぞれから検出結果を受け取り、
前記着座センサは、前記車両の座席に乗員が座っているか否かを検出し、
前記装着センサは、前記車両のシートベルトが着用されているか否かを検出し、
前記プロセッサは、前記着座センサ及び前記装着センサから受け取った検出結果に基づいて、シートベルトを着用していない乗員を示すマーク画像を重畳した運転支援画像を作成する、請求の範囲第1項に記載の画像処理装置。 - 前記プロセッサは、前記車両に取り付けられた不揮発性の外部記憶装置に、作成した運転支援画像を格納する、請求の範囲第1項に記載の画像処理装置。
- 前記プロセッサは、前記車両に取り付けられたタイマから受け取った現在時刻をさらに、前記外部記憶装置に格納する、請求の範囲第6項に記載の画像処理装置。
- 前記プロセッサは、前記車両に取り付けられた送信装置に、作成した運転支援画像を転送し、
前記送信装置は、受信した運転支援画像を、前記車両の外部に送信する、請求の範囲第1項に記載の画像処理装置。 - 前記プロセッサは、前記車両に取り付けられたロケータから、前記車両の現在位置を受け取り、前記送信装置に転送し、
前記送信装置はさらに、受信した現在位置を、前記車両の外部に送信する、請求の範囲第8項に記載の記載の画像処理装置。 - 前記プロセッサには衝撃センサが接続されており、
前記衝撃センサは、前記車両に加わる衝撃を検出して、前記車両が交通事故に巻き込まれたか否かを示す通知信号を前記プロセッサに送信し、
前記プロセッサは、前記衝撃センサからの通知信号に基づいて、前記車両が交通事故に巻き込まれたと判断した場合に、作成した運転支援画像を前記送信装置に転送する、請求の範囲第8項に記載の画像処理装置。 - 画像処理方法であって、
車両の周囲の様子を表す第1画像、及び車両の室内の様子を表す第2画像を格納する格納ステップと、
前記格納ステップで格納された第1画像及び第2画像に基づいて、前記車両の周囲及び室内の双方の様子を表す運転支援画像を作成する作成ステップとを備える、画像処理方法。 - 画像処理プログラムであって、
車両の周囲の様子を表す第1画像、及び車両の室内の様子を表す第2画像を格納する格納ステップと、
前記格納ステップで格納された第1画像及び第2画像に基づいて、前記車両の周囲及び室内の双方の様子を表す運転支援画像を作成する作成ステップとを備える、画像処理プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001313032 | 2001-10-10 | ||
JP2001313032 | 2001-10-10 | ||
PCT/JP2002/010427 WO2003034738A1 (fr) | 2001-10-10 | 2002-10-08 | Unite de traitement d'images |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2003034738A1 true JPWO2003034738A1 (ja) | 2005-02-10 |
Family
ID=19131589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003537324A Withdrawn JPWO2003034738A1 (ja) | 2001-10-10 | 2002-10-08 | 画像処理装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20050002545A1 (ja) |
EP (1) | EP1441528A4 (ja) |
JP (1) | JPWO2003034738A1 (ja) |
CN (1) | CN1568618A (ja) |
WO (1) | WO2003034738A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1597699A2 (en) * | 2003-02-20 | 2005-11-23 | Intelligent Mechatronic Systems, Inc. | Adaptive visual occupant detection and classification system |
US20040220705A1 (en) * | 2003-03-13 | 2004-11-04 | Otman Basir | Visual classification and posture estimation of multiple vehicle occupants |
JP2006240383A (ja) * | 2005-03-01 | 2006-09-14 | National Univ Corp Shizuoka Univ | クルージング支援車載情報システム |
JP4772409B2 (ja) * | 2005-07-20 | 2011-09-14 | 株式会社オートネットワーク技術研究所 | 画像表示システム |
JP2008129948A (ja) * | 2006-11-22 | 2008-06-05 | Takata Corp | 乗員検出装置、作動装置制御システム、シートベルトシステム、車両 |
JP5360491B2 (ja) * | 2009-11-13 | 2013-12-04 | アイシン精機株式会社 | 多機能カメラシステム |
EP2420410A1 (en) * | 2010-08-19 | 2012-02-22 | Harman Becker Automotive Systems GmbH | Method for Presenting an Image in a Vehicle |
JP5988683B2 (ja) * | 2012-05-15 | 2016-09-07 | 日立建機株式会社 | 自走式産業機械の表示装置 |
KR101376211B1 (ko) * | 2012-06-01 | 2014-03-21 | 현대모비스 주식회사 | 용이한 뷰 모드 변경을 위한 어라운드 뷰 모니터 시스템용 영상 합성 장치 및 영상 합성 방법 |
DE102013002111B4 (de) * | 2013-02-08 | 2021-11-18 | Mekra Lang Gmbh & Co. Kg | Sichtsystem für Fahrzeuge, insbesondere Nutzfahrzeuge |
JP6127659B2 (ja) * | 2013-03-29 | 2017-05-17 | 富士通株式会社 | 運転支援装置及び運転支援方法 |
US10029621B2 (en) * | 2013-05-16 | 2018-07-24 | Ford Global Technologies, Llc | Rear view camera system using rear view mirror location |
GB2530649B (en) | 2014-08-18 | 2017-06-28 | Jaguar Land Rover Ltd | Display system and method |
US9987984B2 (en) * | 2016-03-23 | 2018-06-05 | Nissan North America, Inc. | Blind spot collision avoidance |
KR20180104235A (ko) * | 2017-03-10 | 2018-09-20 | 만도헬라일렉트로닉스(주) | 운전자 상태 모니터링 방법 및 장치 |
JP6658643B2 (ja) | 2017-03-24 | 2020-03-04 | トヨタ自動車株式会社 | 車両用視認装置 |
CN107330990A (zh) * | 2017-07-28 | 2017-11-07 | 广东兴达顺科技有限公司 | 一种通信方法及相关设备 |
JP7091796B2 (ja) * | 2018-04-12 | 2022-06-28 | 株式会社Jvcケンウッド | 映像制御装置、車両用撮影装置、映像制御方法およびプログラム |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US5680123A (en) * | 1996-08-06 | 1997-10-21 | Lee; Gul Nam | Vehicle monitoring system |
US6027138A (en) * | 1996-09-19 | 2000-02-22 | Fuji Electric Co., Ltd. | Control method for inflating air bag for an automobile |
JPH11298853A (ja) * | 1998-04-13 | 1999-10-29 | Matsushita Electric Ind Co Ltd | 運転状況記録装置 |
EP1115250B1 (en) | 1998-07-31 | 2012-06-06 | Panasonic Corporation | Method and apparatus for displaying image |
IT1302258B1 (it) * | 1998-09-23 | 2000-09-05 | Roaldo Alberton | Sistema elettronico per la documentazione in continuita' medianteimmagini degli avvenimenti coinvolgenti un veicolo motorizzato in |
JP2000225970A (ja) * | 1998-11-30 | 2000-08-15 | Tuner Kk | 車載用画像記録システム |
US6704434B1 (en) * | 1999-01-27 | 2004-03-09 | Suzuki Motor Corporation | Vehicle driving information storage apparatus and vehicle driving information storage method |
JP2001045438A (ja) * | 1999-08-04 | 2001-02-16 | Suzuki Motor Corp | 画像処理方法および画像処理装置 |
JP2000211557A (ja) * | 1999-01-27 | 2000-08-02 | Suzuki Motor Corp | 車両運転情報記憶装置 |
JP4287532B2 (ja) * | 1999-03-01 | 2009-07-01 | 矢崎総業株式会社 | 車両用後側方監視装置 |
JP2000264128A (ja) * | 1999-03-17 | 2000-09-26 | Tokai Rika Co Ltd | 車両室内監視装置 |
US7015954B1 (en) * | 1999-08-09 | 2006-03-21 | Fuji Xerox Co., Ltd. | Automatic video system using multiple cameras |
JP3298851B2 (ja) | 1999-08-18 | 2002-07-08 | 松下電器産業株式会社 | 多機能車載カメラシステムと多機能車載カメラの画像表示方法 |
US6917693B1 (en) * | 1999-12-20 | 2005-07-12 | Ford Global Technologies, Llc | Vehicle data acquisition and display assembly |
JP2002053080A (ja) * | 2000-06-01 | 2002-02-19 | Nippon Lsi Card Co Ltd | 自動車の内外状況監視装置及びシステム並びにこれら装置を用いた安全運転証明方法 |
GB2364192A (en) * | 2000-06-26 | 2002-01-16 | Inview Systems Ltd | Creation of a panoramic rear-view image for display in a vehicle |
US6369701B1 (en) * | 2000-06-30 | 2002-04-09 | Matsushita Electric Industrial Co., Ltd. | Rendering device for generating a drive assistant image for drive assistance |
JP3830025B2 (ja) * | 2000-06-30 | 2006-10-04 | 松下電器産業株式会社 | 描画装置 |
US6825779B2 (en) * | 2000-06-30 | 2004-11-30 | Matsushita Electric Industrial Co., Ltd. | Rendering device |
JP2001086492A (ja) * | 2000-08-16 | 2001-03-30 | Matsushita Electric Ind Co Ltd | 車載カメラ映像合成透視装置 |
DE10059313A1 (de) * | 2000-11-29 | 2002-06-13 | Bosch Gmbh Robert | Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs |
US7124007B2 (en) * | 2001-07-10 | 2006-10-17 | Siemens Aktiengesellschaft | System for monitoring the interior of a vehicle |
JP2003104145A (ja) * | 2001-09-28 | 2003-04-09 | Matsushita Electric Ind Co Ltd | 運転支援表示装置 |
JP3823927B2 (ja) * | 2003-02-14 | 2006-09-20 | 日産自動車株式会社 | シートベルト着用促進装置 |
US6930593B2 (en) * | 2003-02-24 | 2005-08-16 | Iteris, Inc. | Lane tracking system employing redundant image sensing devices |
-
2002
- 2002-10-08 WO PCT/JP2002/010427 patent/WO2003034738A1/ja not_active Application Discontinuation
- 2002-10-08 CN CNA028199782A patent/CN1568618A/zh active Pending
- 2002-10-08 JP JP2003537324A patent/JPWO2003034738A1/ja not_active Withdrawn
- 2002-10-08 US US10/492,214 patent/US20050002545A1/en not_active Abandoned
- 2002-10-08 EP EP02801499A patent/EP1441528A4/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
EP1441528A1 (en) | 2004-07-28 |
CN1568618A (zh) | 2005-01-19 |
US20050002545A1 (en) | 2005-01-06 |
EP1441528A4 (en) | 2005-01-12 |
WO2003034738A1 (fr) | 2003-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2003034738A1 (ja) | 画像処理装置 | |
EP1179958B1 (en) | Image processing device and monitoring system | |
CN102917205B (zh) | 车辆环绕视图*** | |
JP4497133B2 (ja) | 運転支援方法及び運転支援装置 | |
JP5439890B2 (ja) | 画像処理方法、画像処理装置及びプログラム | |
JP4883977B2 (ja) | 車両用画像表示装置 | |
JP4643860B2 (ja) | 車両用視覚支援装置及び支援方法 | |
JP2006180446A (ja) | 映像撮像装置及び映像撮像方法 | |
CN102371944A (zh) | 车辆用视觉辅助***以及具备该***的车辆 | |
CN212115515U (zh) | 一种全景环视显示*** | |
US20090295921A1 (en) | Vehicle-mounted photographing device and method of measuring photographable range of vehicle-mounted camera | |
CN111183458B (zh) | 记录再现装置、记录再现方法以及程序 | |
JP2009111946A (ja) | 車両周囲画像提供装置 | |
JP2010268343A (ja) | 撮影装置および撮影方法 | |
JP4329525B2 (ja) | 車外情報表示装置 | |
US20040212484A1 (en) | Control device and method for automatically adjusting view angle of rearview angle of outside camera in response to output of navigation system | |
JP3184656B2 (ja) | 車載用監視カメラ装置 | |
JP7168367B2 (ja) | 事故通報装置 | |
JP2010042727A (ja) | 車両用周囲状況提示装置 | |
JP2005269010A (ja) | 画像生成装置、画像生成プログラム、及び画像生成方法 | |
JP4449537B2 (ja) | 車外情報表示装置 | |
WO2009095989A1 (ja) | 画像取得装置、画像取得方法、画像取得プログラム及び記憶媒体 | |
JP2002293196A (ja) | 車載カメラの画像表示方法及びその装置 | |
JP2012096687A (ja) | 車室内カメラ装置 | |
JP2007158642A (ja) | 車両周辺画像提供装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050328 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20071031 |