JP2010221810A - 視認支援評価装置及びプログラム - Google Patents

視認支援評価装置及びプログラム Download PDF

Info

Publication number
JP2010221810A
JP2010221810A JP2009070399A JP2009070399A JP2010221810A JP 2010221810 A JP2010221810 A JP 2010221810A JP 2009070399 A JP2009070399 A JP 2009070399A JP 2009070399 A JP2009070399 A JP 2009070399A JP 2010221810 A JP2010221810 A JP 2010221810A
Authority
JP
Japan
Prior art keywords
image
visibility
evaluation
environment data
dimensional environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009070399A
Other languages
English (en)
Other versions
JP5493418B2 (ja
Inventor
Takashi Machida
貴史 町田
Tetsuo Kurahashi
哲郎 倉橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2009070399A priority Critical patent/JP5493418B2/ja
Publication of JP2010221810A publication Critical patent/JP2010221810A/ja
Application granted granted Critical
Publication of JP5493418B2 publication Critical patent/JP5493418B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視認支援によるドライバの視認性を客観的に評価する。
【解決手段】視認支援評価装置は、視認支援によって照明された仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成部2と、生成された2次元環境データに対して、ドライバの視認特性に応じた画像処理を行う画像処理部4と、画像処理された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、対象部分の視認性を評価する視認性評価部5と、を備えている。
【選択図】図1

Description

本発明は、視認支援評価装置及びプログラムに関する。
従来、ドライバの視覚を支援することで車両運転の安全性を向上させる様々な視覚支援装置が提案されている(例えば特許文献1を参照)。特許文献1の視覚支援装置は、可視光画像データと赤外光画像データとに基づいてドライバが視認できない視認不可能領域を抽出し、視認不可能領域で障害物を検出した場合に、この障害物に対してヘッドライトの配光パターンを変化させることで、障害物に対するドライバの視認性の向上を図っている。
特開2007−263704号公報
車両運転の安全性を向上させるためには、視覚支援装置がどの程度ドライバの視認性向上に役立っているか評価する必要がある。しかし、現状では、視覚支援装置を評価するものが存在していないため、その視覚支援装置がどの程度安全性の向上に寄与しているかを検証することができない。
本発明は、上述した課題を解決するために提案されたものであり、視認支援によるドライバの視認性を客観的に評価できる視認支援評価装置及びプログラムを提供することを目的とする。
本発明に係る視認支援評価装置は、視認支援によって照明された仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、前記2次元環境データ生成手段により生成された2次元環境データに対して、ドライバの視認特性に応じた画像処理を行う画像処理手段と、前記画像処理手段により画像処理された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価する視認性評価手段と、を備えている。
上記発明によれば、2次元環境データに対してドライバの視認特性に応じた画像処理を行い、画像処理された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価することにより、シミュレーションによりドライバの視認性を客観的に評価することができる。
本発明に係る視認支援評価装置は、視認支援によって照明された環境を検出して2次元環境データを生成する環境検出手段と、環境検出手段により生成された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価する視認性評価手段と、を備えている。
上記発明によれば、視認支援によって照明された環境を環境検出手段で検出し、検出された環境の2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価することにより、環境検出手段から検出された画像から、ドライバの視認性を客観的に評価することができる。
本発明に係る視認支援評価装置及びプログラムは、ドライバの視認性を客観的に評価することができる。
本発明の第1の実施形態に係る視認支援評価装置の構成を示すブロック図である。 (A)は偏りのない放射を示す図であり、(B)は偏りのある放射を示す図である。 視認性評価ルーチンを示すフローチャートである。 視認性が評価されるシーンにおけるシーン全体の画像A及び切り出された画像Bの一例を示す図である。 本発明の第2の実施形態に係る視認支援評価装置の構成を示すブロック図である。 第3の実施形態に係る2次元環境データ生成部2の構成を示すブロック図である。 (A)は前フレームを示す図、(B)は移動体(自動車)が移動することによってフォトンが隠される部分及び移動体で隠れていた部分を示す図、(C)はフォトンの差分部分を示す図、(D)は移動体が移動した後の現在フレームを示す図である。 バックグランド処理の更新タイミングを示す図である。
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る視認支援評価装置の構成を示すブロック図である。
第1の実施形態に係る視認支援評価装置は、仮想環境で視認支援されながら仮想車両を運転するドライバの視覚特性をシミュレーションし、そのシミュレーション結果に基づいてドライバの視認性を評価するものである。本実施形態では、仮想環境に光を照射する照明デバイスとして仮想車両のヘッドライトを例に挙げて説明する。
上記視認支援評価装置は、仮想環境を走行する仮想車両のヘッドライトの照明パラメータを設定する照明設定部1と、仮想車両が走行する環境映像の3次元環境データ等に基づいて2次元環境データを生成する2次元環境データ生成部2と、ドライバの視覚特性を設定する視覚特性設定部3と、を備えている。
さらに、視認支援評価装置は、2次元環境データ生成部2で生成された2次元環境データにドライバの視覚特性に応じた画像変換処理を行う画像処理部4と、画像処理部4により画像処理された画像データに基づいてドライバの視認性を評価する視認性評価部5と、を備えている。なお、視認支援評価装置は、警報出力の点を除き、所定のプログラムがインストールされたコンピュータによっても実現可能である。
照明設定部1は、照明パラメータとして、光の広がりに対して3次元の軸方向に調整するための幾何学的な放射パラメータ(例えば放射角θ[rad])と、光の色を示す色温度などの光学的な放射パラメータ(例えば色温度K[度])を設定する。また、幾何学的な放射パラメータとして、放射の偏りを表す係数もある。
図2(A)は偏りのない放射を示す図であり、(B)は偏りのある放射を示す図である。同図(A)に示すような通常のガウス分布ではなく、同図(B)に示すような偏りを持った放射が行われる。
x,y,zの各軸方向へのバイアスのかけ方として、以下のものがある。
式(1)〜(3)は、照射方向[x,y,z]に対してそれぞれ係数を掛け合わせることを示している。このように偏りなどのパラメータを設定することで、より忠実な照明の設計支援が可能となる。また、式(1)〜(3)はそれぞれ所定の範囲のみ適用してもよい。例えば、x軸方向では区間[x1,x2]で式(1)を適用し、y軸方向では区間[y1,y2]で式(2)を適用し、z軸方向では区間[z1,z2]で式(3)を適用してもよい。
2次元環境データ生成部2は、仮想環境の3次元環境データ、仮想環境の照度パラメータ(昼や夜などの時間帯に応じた照度を示すパラメータ、霧などの気象現象に応じた照度を示すパラメータ等)、及び照明設定部1で設定された照明パラメータを用いて、リアルタイムで仮想環境を描画して2次元環境データを生成する。ここでは、実際の車両が走行する環境の映像を忠実に再現した3次元環境データが使用されるのが好ましい。
なお、2次元環境データ生成部2は、フォトンマッピング法、レイトレーシング法等の公知のレンダリング技術を用いることができる。このとき、照明設定部1で設定された照明パラメータは、フォトンマッピング法の場合はフォトンの散布に適用され、レイトレーシング法の場合はレイの生成に適用される。
視覚特性設定部3は、オペレータの操作に従って、ドライバの視覚特性を特定するための係数a,bを設定する。なお、係数a,bは、実験により予め求められたものである。
画像処理部4は、2次元環境データ生成部2で生成された画像データに対して、視覚特性設定部3で設定されたドライバの視覚特性を考慮した画像処理を行う。ここでは、視覚特性設定部3は、ドライバが注視している箇所を基点にしてその周囲の輝度がぼやけていく視覚特性を再現する処理を行う。
具体的には、画像処理部4は、ドライバの視力をR、輝度をIとすると、式(4)に示すガウス関数を用いて、2次元環境データ生成部2で生成された画像データの各々の画素(x,y)の輝度をぼけさせる。
なお、画像処理部4により行われるドライバの視覚特性に応じた画像処理は、式(4)に示すような中心から周辺へのボケ処理に限らず、距離に応じたボケ処理であってもよい。
視認性評価部5は、画像処理部4で生成されたドライバの視覚特性が反映された画像を用いて、ドライバの視認性を評価する。ここでは、次の視認性評価ルーチンが実行される。
図3は、視認性評価部5で実行される視認性評価ルーチンを示すフローチャートである。ステップS1では、視認性評価部5は、例えばパターンマッチングを行って、シーン全体の画像Aから認識させたい画像Bを切り出し、画像Aと画像Bのそれぞれの濃度共起行列の差を算出する。
図4は、視認性が評価されるシーンにおけるシーン全体の画像A及び切り出された画像Bの一例を示す図である。
濃度共起行列とは、ある画素(x,y)の輝度iに対して、距離dだけ離れた他の画素の輝度jとの組合せをカウントした行列である。ここでは、濃度共起行列をS(i,j|d)と表す。そして、例えば2値画像を考えた場合、画素(0,0)の濃度が1、(1,0)の濃度が0と仮定すると、
S(1,0|1)=1
となる。このような各画素の組合せの数をカウントした濃度共起行列S(i,j|d)は、その画像の特徴を表すものとして以下のように用いられる。
図4の場合、シーン全体の画像Aと、画像Aから切り出された歩行者である画像Bと、がどの程度異なるかが判定される。ここでは、視認性評価部5は、画像Aの濃度共起行列S(i,j|d)と、画像Bの濃度共起行列S(i,j|d)とを用いて、以下の式(5)を演算する。
この差E{S(d)}の絶対値が大きければ、画像Aと画像Bとに差があることになる。
ステップS2では、視認性評価部5は、ステップS1で算出された濃度共起行列の差E{S(d)}が閾値以上であるか否かを判定し、閾値以上である場合はステップS1に戻り、閾値以上でない場合はステップS3に進む。
ここでは、差E{S(d)}が閾値以上である場合は、画像Aと画像Bの特徴が大きく異なっているので、ドライバは歩行者である画像Bを認知しやすい。そこで、ステップS1に戻って、次の新たな画像に対してステップS1以降の処理が行われる。
また、差E{S(d)}が閾値以上である場合は、画像Aと画像Bの特徴は大きく異なっていない。しかし、フレームの前後で画像が変化すると、ドライバは対象を認知しやすくなることがある。そこで、ステップS3以降の処理が行われる。
ステップS3では、視認性評価部5は、フレーム間の濃度共起行列の差を算出する。具体的には、視認性評価部5は、ステップS1で用いた画像の1フレーム前の画像を用いて、ステップS1と同様にして、式(2)を演算する。そして、視認性評価部5は、ステップS1で求めたE{S(d)}と、1フレーム前の画像から求められたE{S(d)}との差ΔEを算出して、ステップS4に進む。
ステップS4では、視認性評価部5は差ΔEが閾値以上であるかを判定し、閾値以上である場合はステップS1に戻り、閾値以上でない場合はステップS5に進む。
ここでは、差ΔEが閾値以上である場合は、現在のフレーム画像の特徴とその1つ前のフレーム画像の特徴が大きく異なっているので、ドライバはフレームの前後間で歩行者である画像Bを認知しやすい。そこで、ステップS1に戻って、次の新たな画像に対してステップS1以降の処理が行われる。
一方、差ΔEが閾値以上でない場合は、ドライバは、同一フレーム内で歩行者である画像Bを認知しにくく、更に、フレームの前後間でも画像Bを認知しにくい。そこで、次のステップS5の処理が行われる。
ステップS5では、視認性評価部5は、ドライバは歩行者である画像Bを認知しにくい状態であるので、警報装置から警報を出力する。そして、本ルーチンが終了する。なお、警報出力の例としては、スピーカによる警報音の出力、モニタによる警報画像の表示、ハンドルや座席による振動などが挙げられる。
以上のように、第1の実施形態に係る視認支援評価装置は、視認支援として、例えば外部環境の障害物に光が照射された場合をシミュレーションした2次元環境データを生成し、この2次元環境データに対してドライバの視覚特性を反映させる画像処理を行う。
そして、上記視認支援評価装置は、画像処理済みの画像全体の濃度共起行列と、画像全体のうちの対象となる部分の濃度共起行列と、を用いて対象部分が認知されやすいかを判定するので、客観的にドライバの視認性を評価することができる。
また、上記視認支援評価装置は、同一フレームの濃度共起行列だけでなく、他のフレームの濃度共起行列を用いて対象部分が認知されやすいかを判定するので、同一画面だけでは認知されにくい場合でも、時間的なパターン変化を考慮することで、より客観的にドライバの視認性を評価することができる。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。
図5は、本発明の第2の実施形態に係る視認支援評価装置の構成を示すブロック図である。第2の実施形態に係る視認支援評価装置は、外界センサ11の視認性を評価するものである。すなわち、視認支援評価装置は、外部環境についての2次元環境データを生成する外界センサ11と、外界センサ11により生成された2次元環境データに対してドライバの視認性を評価する視認性評価部5と、を備えている。なお、視認性評価部5は、警報出力の点を除き、所定のプログラムがインストールされたコンピュータによっても実現可能である。
外界センサ11は、視覚支援によって光が照らされた外部環境を検出し、その検出結果を示す2次元環境データを視認性評価部5に供給する。なお、外界センサ11としては、例えば、外部環境からの光に応じて2次元環境データを生成する撮像装置が該当する。そして、視認性評価部5は、外界センサ11からの2次元環境データに対して、第1の実施形態と同様に、図3に示す視認性評価ルーチンを実行する。
これにより、第2の実施形態に係る視認支援評価装置は、視覚支援によって光が照らされた外部環境において、外界センサ11により生成された2次元環境データに対しても、客観的な視認性評価を行うことができる。
[第3の実施形態]
つぎに、本発明の第3の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。第3の実施形態では、第1の実施形態で説明した2次元環境データ生成部2の具体的な構成について説明する。
図6は、第3の実施形態に係る2次元環境データ生成部2の構成を示すブロック図である。
2次元環境データ生成部2は、仮想環境の中を仮想移動体が移動する様子をグラフィックスで再現するための映像をリアルタイムで生成するものであり、3次元環境データに基づいて環境を再現する環境再現部10と、前フレームと現在フレームとの差分画像についてレンダリングする差分レンダリング部20と、を備えている。
(環境再現部10の構成)
環境再現部10は、例えば図示しない環境データ生成装置で生成された3次元環境データを用いて、フォトンマッピング法により移動体周辺の環境を再現する。なお、環境再現部10としては、例えばグラフィック・プロセッシング・ユニット(GPU:Graphics Processing Unit)が用いられる。GPUは、膨大なベクトルベータを高速に処理可能なグラフィックハードウェアであり、流体シミュレーションと非常によく適合する。
ここでは、環境中で反射・吸収を繰り返す粒子であるフォトンが使用される。また、環境中の物体は三角形ポリゴンで生成されているものとし、すべてのポリゴンとフォトンとの衝突が判定される。
なお、GPUは、データを画像として保存し、1回の演算で最大1億画素の演算が可能であるため、約3000万ポリゴンのデータを1回で演算できる。この数だけあれば十分な画質の環境を提供できる。
環境再現部10は、2パスのレンダリング方式であるフォトンマッピング法を用いて、1パス目にフォトンを散布する演算処理を行うフォトン散布演算部11と、2パス目にフォトンを回収する演算処理を行うフォトン回収演算部12と、を備えている。
フォトン散布演算部11は、環境データにより特定される環境において、環境内にある光源から位置情報(x,y,z)を有するフォトンを散布する演算処理を行う。フォトンは、散布されると、境内の物体でランダムに反射・吸収を繰り返し、ある物体上で衝突・停留する。そして、フォトン散布演算部11は、散布された各々のフォトンを追跡し、各フォトンの状況をフォトンマップに格納する。
フォトンマップは、対象となるフォトンについて、停留した物体上の3次元位置情報(x,y,z)、入射方向、フォトンの出力(RGB形式)、詳細度、探索距離、反射係数、反射係数などの情報を有している。
フォトン回収演算部12は、散布された各々のフォトンを回収して照度を計算する。具体的には、フォトン回収演算部12は、カメラ(定められた視点)からランダムに視線追跡を行い、3次元環境データを用いて、視線が到達する物体表面上の3次元位置情報を求める。そして、フォトン回収演算部12は、物体表面上の各々の位置(画素)において、カメラに届く照度をその位置にあるフォトンの数及びフォトンマップの情報を用いて演算する。
フォトン回収演算部12は、例えばフォトンの数をN、その場所の反射係数をPとすると、
I=N・P
で表される照度Iを演算する。これにより、光の直接照射・間接照射、影落ち度などが考慮された照度が得られる。そして、フォトン回収演算部12は、すべての画素について照度Pを演算する。
なお、環境再現部10は、最初のフレームに対して上述の処理を行い、2フレーム以降では所定の更新タイミングのときに上述の処理を行うとよい。
(差分レンダリング部20の構成)
差分レンダリング部20は、移動体の移動演算処理を行う移動体演算部21と、フォトンを検索するフォトン検索部22と、照度を計算する照度計算部23と、合成処理を行う合成処理部24と、を備えている。
移動体演算部21は、フレームが変わるごとに、移動体の3次元形状データ、移動方向データ、移動速度データに基づいて、移動体の位置を更新する。
フォトン検索部22は、移動体演算部21の演算処理に基づいて移動体がどの程度移動したかを検出し、前フレームに対する現在フレームにおいて、移動体が移動することによって出現する3次元位置のフォトン、隠蔽される3次元位置のフォトンを検索する。
なお、前フレームとは、現在フレームの直前(1つ前)にあるフレームであってもよいし、現在フレームより前にあるフレームであって環境再現部10により処理のされたフレームであってもよい。
そして、フォトン検索部22は、検索した各々のフォトンについて、元の位置P(x,y,z)から単位ベクトルd
d=[1/(x+y+z1/2]×(x,y,z)
に対して追跡を行う。このベクトルが物体と衝突すると、その部分のフォトンの位置情報が更新される。更新される位置情報をP’(x’,y’,z’)とすると、次の式が成り立つ。
P’(x’,y’,z’)=a×d+P(x,y,z)
この式は、前フレームで停留していた位置Pから、フォトンが放射された単位ベクトル方向dにaだけ引き伸ばす処理を意味する。その結果、フォトンが他の物体に衝突するかが計算される。
すなわち、フォトン検索部22は、新たに出現する又は隠蔽されるフォトンを検索すると、それらのフォトンを再度追跡し、それらのフォトンが停留したときに各フォトンについてのフォトンマップ(位置情報、入射方向、フォトンの出力(RGB形式)、反射係数など)を更新する。この場合では、フォトンの位置情報が更新されるだけでなく、フォトンの出力(赤(R)、緑(G)、青(B)の各色情報)、その他のパラメータも更新される。
照度計算部23は、視線が到達する物体表面上であって、移動体の移動により新たに現れる位置又は隠蔽される位置の3次元位置情報を求め、その各々の位置(画素)において、フォトン検索部22で検索された各フォトンの新たなフォトンマップを用いて、カメラに届く照度をその位置にあるフォトンの数及びフォトンマップの情報を用いて演算する。すなわち、照度計算部23は、移動体の移動により新たに現れる位置又は隠蔽される位置において、フォトンの数をN、その場所の反射係数をPとすると、
I=N・P
で表される照度Iを演算する。
合成処理部24は、環境再現部10により演算された照度Iと、照度計算部23により演算された照度Iとを合成する。具体的には、合成処理部24は、移動体の移動により新たに現れる位置又は隠蔽される位置については、照度計算部23により演算された照度Iを使用し、移動体の移動があっても変化のない位置については、環境再現部10により演算された照度Iを使用して、現在のフレーム画像全体の照度を演算する。
図7(A)は前フレームを示す図、(B)は移動体(自動車)が移動することによってフォトンが隠される部分及び移動体で隠れていた部分を示す図、(C)はフォトンの差分部分を示す図、(D)は移動体が移動した後の現在フレームを示す図である。フォトンの差分画像については差分レンダリング部20がレンダリング処理を行い、その他の部分については環境再現部10がレンダリング処理を行う。このとき、フォトンは10万〜20万個使用される。これは、通常の粒子シミュレーションに比べると、10%ほどの量である。
なお、差分レンダリング部20による差分計算による映像の更新は誤差が蓄積するおそれがある。そこで、差分レンダリング部20のバックグランド処理として、環境再現部10が通常のフォトンマッピング法を用いてフォトンの散布及び回収の演算処理を行うとよい。
図8は、バックグランド処理の更新タイミングを示す図である。なお、数値“1”のときが更新タイミングを示す。同図に示すように、差分レンダリング部20による差分処理の更新に対して、環境再現部10によるバックグランド処理の更新は遅くなっている。よって、バックグランド処理の更新が行われると、その次の差分更新のタイミングでフォトンの位置が更新される。
また、上記の処理は、光の影響が所定のサンプリング間隔(例えば10ms)では劇的に変化することがない状況を前提にしており、雷などのフラッシュ現象の場合は対象外である。フラッシュ現象の場合は、別途画像ベースのアルゴリズムで処理を行えばよい。
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。
1 照明設定部
2 2次元環境データ生成部
3 視覚特性設定部
4 画像処理部
5 視認性評価部
11 外界センサ

Claims (6)

  1. 視認支援によって照明された仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、
    前記2次元環境データ生成手段により生成された2次元環境データに対して、ドライバの視認特性に応じた画像処理を行う画像処理手段と、
    前記画像処理手段により画像処理された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価する視認性評価手段と、
    を備えた視認支援評価装置。
  2. 視認支援によって照明された環境を検出して2次元環境データを生成する環境検出手段と、
    環境検出手段により生成された2次元環境データの画像全体と、当該画像全体のうちの対象部分の画像と、のそれぞれの特徴量に基づいて、前記対象部分の視認性を評価する視認性評価手段と、
    を備えた視認支援評価装置。
  3. 前記視認性評価手段は、前記画像全体の濃度共起行列と、前記対象部分の画像の濃度共起行列との差である第1の値に基づいて、前記対象部分の視認性を評価する
    請求項1または請求項2に記載の視認支援評価装置。
  4. 前記視認性評価手段は、前記第1の差に基づいて前記対象部分の視認性が低いと評価された場合に、前記画像全体と異なるフレームの画像全体の濃度共起行列と、前記異なるフレームの前記対象部分の画像の濃度共起行列との差である第2の値を演算し、前記第1及び第2の値の差に基づいて、前記対象部分の視認性を評価する
    請求項3に記載の視認支援評価装置。
  5. コンピュータを、請求項1に記載の視認支援評価装置の2次元環境データ生成手段、画像処理手段、視認性評価手段として機能させるための視認支援評価プログラム。
  6. コンピュータを、請求項2に記載の視認支援評価装置の視認性評価手段として機能させるための視認支援評価プログラム。
JP2009070399A 2009-03-23 2009-03-23 視認支援評価装置及びプログラム Expired - Fee Related JP5493418B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009070399A JP5493418B2 (ja) 2009-03-23 2009-03-23 視認支援評価装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009070399A JP5493418B2 (ja) 2009-03-23 2009-03-23 視認支援評価装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2010221810A true JP2010221810A (ja) 2010-10-07
JP5493418B2 JP5493418B2 (ja) 2014-05-14

Family

ID=43039477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009070399A Expired - Fee Related JP5493418B2 (ja) 2009-03-23 2009-03-23 視認支援評価装置及びプログラム

Country Status (1)

Country Link
JP (1) JP5493418B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042781A1 (ja) 2010-09-30 2012-04-05 キヤノン株式会社 帯電部材及びその製造方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269264A (ja) * 1997-03-25 1998-10-09 Koito Mfg Co Ltd 灯具の照度に応じた色画像の生成及び表示方法
JP2004030212A (ja) * 2002-06-25 2004-01-29 Toyota Central Res & Dev Lab Inc 車両用情報提供装置
JP2006042147A (ja) * 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
JP2006311031A (ja) * 2005-04-27 2006-11-09 Sanyo Electric Co Ltd 移動体用撮像装置
JP2007013777A (ja) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc 撮像装置
JP2007060468A (ja) * 2005-08-26 2007-03-08 Secom Co Ltd 画像センサ
JP2007263704A (ja) * 2006-03-28 2007-10-11 Toyota Central Res & Dev Lab Inc 視認不可能領域抽出装置、及び視覚支援装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269264A (ja) * 1997-03-25 1998-10-09 Koito Mfg Co Ltd 灯具の照度に応じた色画像の生成及び表示方法
JP2004030212A (ja) * 2002-06-25 2004-01-29 Toyota Central Res & Dev Lab Inc 車両用情報提供装置
JP2006042147A (ja) * 2004-07-29 2006-02-09 Honda Motor Co Ltd 車両の認知支援装置
JP2006311031A (ja) * 2005-04-27 2006-11-09 Sanyo Electric Co Ltd 移動体用撮像装置
JP2007013777A (ja) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc 撮像装置
JP2007060468A (ja) * 2005-08-26 2007-03-08 Secom Co Ltd 画像センサ
JP2007263704A (ja) * 2006-03-28 2007-10-11 Toyota Central Res & Dev Lab Inc 視認不可能領域抽出装置、及び視覚支援装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042781A1 (ja) 2010-09-30 2012-04-05 キヤノン株式会社 帯電部材及びその製造方法

Also Published As

Publication number Publication date
JP5493418B2 (ja) 2014-05-14

Similar Documents

Publication Publication Date Title
US10504214B2 (en) System and method for image presentation by a vehicle driver assist module
Reiher et al. A sim2real deep learning approach for the transformation of images from multiple vehicle-mounted cameras to a semantically segmented image in bird’s eye view
CN112513712B (zh) 具有虚拟内容翘曲的混合现实***和使用该***生成虚拟内容的方法
JP3922245B2 (ja) 車両周辺監視装置および方法
US11330200B2 (en) Parallax correction using cameras of different modalities
US10068368B2 (en) Method, visualization device, and computer program product for visualizing a three-dimensional object
US11257390B2 (en) Evaluation of a simulated vehicle-related feature
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2010141836A (ja) 障害物検知装置
JP2007288657A (ja) 車両用表示装置、車両用表示装置の表示方法
JP2019510991A (ja) 適応焦点面を有して仮想現実をレンダリングする構成
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
CN114026603B (zh) 渲染计算机生成现实文本
US11938819B2 (en) Evaluation of a simulated vehicle-related feature
US20200335204A1 (en) Methods and systems for handling virtual 3d object surface interaction
JP6351917B2 (ja) 移動物体検出装置
JP2010070117A (ja) 画像照射システムおよび画像照射方法
JP5493418B2 (ja) 視認支援評価装置及びプログラム
Roessing et al. Intuitive visualization of vehicle distance, velocity and risk potential in rear-view camera applications
JP5871069B2 (ja) 立体物検出装置及び立体物検出方法
JP2009265915A (ja) シミュレーション装置及びプログラム
CN117255964A (zh) 具有降低的可检测性的外部照明
Zováthi et al. ST-DepthNet: A spatio-temporal deep network for depth completion using a single non-repetitive circular scanning Lidar
JP2009265916A (ja) センサ特性シミュレーション装置及びプログラム並びに視覚特性シミュレーション装置及びプログラム
JP2005310188A (ja) 画像生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R151 Written notification of patent or utility model registration

Ref document number: 5493418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees