JP2009265915A - シミュレーション装置及びプログラム - Google Patents
シミュレーション装置及びプログラム Download PDFInfo
- Publication number
- JP2009265915A JP2009265915A JP2008114268A JP2008114268A JP2009265915A JP 2009265915 A JP2009265915 A JP 2009265915A JP 2008114268 A JP2008114268 A JP 2008114268A JP 2008114268 A JP2008114268 A JP 2008114268A JP 2009265915 A JP2009265915 A JP 2009265915A
- Authority
- JP
- Japan
- Prior art keywords
- environment
- sensor
- detection data
- unit
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】センサの検出データに基づく画像処理のアルゴリズムを容易に検証する。
【解決手段】シミュレーション装置は、仮想環境を3次元で描画するための3次元環境データに基づいて、仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成部2と、仮想環境の状態を検出するカメラの特性を設定するカメラ特性設定部3と、2次元環境データ生成部2により生成された2次元環境データと、カメラ特性設定部3により設定されたカメラの特性と、に基づいて、カメラが仮想環境の状態を検出したときの検出データを生成する画像変換部4と、画像変換部4により生成された検出データを取り込み、取り込まれた検出データに基づいて所定の画像処理を行う画像処理プログラム実行部5と、を備えている。
【選択図】図1
【解決手段】シミュレーション装置は、仮想環境を3次元で描画するための3次元環境データに基づいて、仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成部2と、仮想環境の状態を検出するカメラの特性を設定するカメラ特性設定部3と、2次元環境データ生成部2により生成された2次元環境データと、カメラ特性設定部3により設定されたカメラの特性と、に基づいて、カメラが仮想環境の状態を検出したときの検出データを生成する画像変換部4と、画像変換部4により生成された検出データを取り込み、取り込まれた検出データに基づいて所定の画像処理を行う画像処理プログラム実行部5と、を備えている。
【選択図】図1
Description
本発明は、シミュレーション装置及びプログラムに関する。
車載型予防安全システムを開発する場合、仮想環境を忠実に再現し、その中でどのようなセンサやアルゴリズムが適用できるかを評価する必要があるものの、正確に評価するのは非常に困難である。従来、センサを開発した場合、そのセンサを実際の車両に搭載して使用することでそのセンサを評価していた。また、画像処理アルゴリズムを検証する場合、実データを計測してから検証を行っていた。しかし、このように評価・検証することは、時間的にも金銭的にもコストが非常にかかる問題があった。
そこで、仮想環境をドライバの視点で描画した画像を用いて人間の視行動を解析する技術が提案されている(特許文献1及び2を参照)。特許文献1には、仮想ドライバの知覚ミス、認識ミス、判断ミスによって交通事故が発生する場合に、演算すべき車両台数が増加してもハードウェアに対する負荷の増加が少なくてすむような交通流シミュレーション装置が開示されている。具体的には、特許文献1の技術は、位置情報を基にターゲットとなる移動体から見て死角となる位置関係にある物体を除去することによって移動体上のエージェントの知覚を模擬し、その情報に基づいて移動体を操作する。
また、特許文献2には、周辺状況の認知状態や判断を考慮して交通シミュレーションを行う交通シミュレーション装置が開示されている。具体的には、特許文献2の技術は、ドライバの認識(存在認識度、認識速度等)、判断(対向車の有無や衝突するかの判断)、操作(ブレーキ操作またはアクセル操作)を演算し、これらに基づいて各車両の挙動量を演算することで、交通をシミュレーションする。
特開2007−47972号公報
特開2007−72809号公報
特許文献1及び2の技術は、上述したように人間の視行動を観測するにとどまり、シミュレーション映像を生成するための対実環境プログラムに対しては何ら定義していない。また、仮想環境の映像を生成する映像生成装置が貧弱な場合、忠実に評価を行うことができず、その効果を検証できない問題もある。そのため、センサから得られるデータを忠実に模擬し、このデータを対実環境処理アルゴリズムの検証のために利用したいとの要請がある。また、センサの仕様を決定する際にも、様々なパラメータをどのように決定すればよいかを評価する技術も望まれている。
本発明は、上述した課題を解決するために提案されたものであり、センサの検出データに基づく画像処理のアルゴリズムを容易に検証できるシミュレーション装置及びプログラムを提供することを目的とする。
請求項1の発明であるシミュレーション装置は、仮想環境を3次元で描画するための3次元環境データに基づいて、前記仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、前記仮想環境の状態を検出するセンサの特性を設定するセンサ特性設定手段と、前記2次元環境データ生成手段により生成された2次元環境データと、センサ特性設定手段により設定されたセンサの特性と、に基づいて、前記センサが前記仮想環境の状態を検出したときの検出データを生成する検出データ生成手段と、前記検出データ生成手段により生成された検出データを取り込む取込手段前記取込手段により取り込まれた検出データに基づいて所定の画像処理を行う画像処理手段と、を備えている。
請求項2の発明は、請求項1に記載のシミュレーション装置であって、前記センサ特性設定手段は、撮像装置の幾何学的なゆがみ、光学的ノイズの少なくとも1つの特性を設定する。
請求項3の発明は、コンピュータを、仮想環境を3次元で描画するための3次元環境データに基づいて、前記仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、前記仮想環境の状態を検出するセンサの特性を設定するセンサ特性設定手段と、前記2次元環境データ生成手段により生成された2次元環境データと、センサ特性設定手段により設定されたセンサの特性と、に基づいて、前記センサが前記仮想環境の状態を検出したときの検出データを生成する検出データ生成手段と、前記検出データ生成手段により生成された検出データを取り込む取込手段前記取込手段により取り込まれた検出データに基づいて所定の画像処理を行う画像処理手段と、して機能させるためのシミュレーションプログラムである。
請求項1及び3の発明によれば、検出データ生成手段により生成された検出データを取り込む取込手段と、取込手段により取り込まれた検出データに基づいて所定の画像処理を行う画像処理手段と、を備えることで、検出データを用いて画像処理手段に所定の画像処理を実行させることができるので、画像処理手段のアルゴリズムを容易に検証することができる。
請求項2の発明によれば、センサ特性として、撮像装置の幾何学的なゆがみ、光学的ノイズの少なくとも1つの特性を設定することにより、撮像装置の特性を考慮した画像処理手段のアルゴリズムを容易に検証することができる。
以下、本発明の好ましい実施の形態について図面を参照しながら詳細に説明する。
[第1の実施形態]
図1は、本発明の実施の形態に係るシミュレーション装置の構成を示すブロック図である。上記シミュレーション装置は、照明デバイスによって光が照射された仮想環境をセンサが検出したときの映像を生成して表示する。本実施形態では、照明デバイスとして仮想移動体(例えば仮想車両)のヘッドライト、センサとして仮想車両に搭載され車両前方を撮像するカメラを例に挙げて説明する。
図1は、本発明の実施の形態に係るシミュレーション装置の構成を示すブロック図である。上記シミュレーション装置は、照明デバイスによって光が照射された仮想環境をセンサが検出したときの映像を生成して表示する。本実施形態では、照明デバイスとして仮想移動体(例えば仮想車両)のヘッドライト、センサとして仮想車両に搭載され車両前方を撮像するカメラを例に挙げて説明する。
上記シミュレーション装置は、仮想環境を走行する仮想車両のヘッドライトの照明パラメータを設定する照明設定部1と、仮想車両が走行する環境映像の3次元環境データ等に基づいて2次元環境データを生成する2次元環境データ生成部2と、カメラの特性を示すカメラ特性を設定するカメラ特性設定部3と、2次元環境データにカメラ特性に応じた画像変換処理を行う画像変換部4と、画像処理プログラムを実行する画像処理プログラム実行部5と、画像を表示する画像表示部6と、を備えている。
照明設定部1は、照明パラメータとして、光の広がりに対して3次元の軸方向に調整するための幾何学的な放射パラメータ(例えば放射角θ[rad])と、光の色を示す色温度などの光学的な放射パラメータ(例えば色温度K[度])を設定する。また、幾何学的な放射パラメータとして、放射の偏りを表す係数もある。
図2(A)は偏りのない放射を示す図であり、(B)は偏りのある放射を示す図である。同図(A)に示すような通常のガウス分布ではなく、同図(B)に示すような偏りを持った放射が行われる。
x,y,zの各軸方向へのバイアスのかけ方として、以下のものがある。
式(1)〜(3)は、照射方向[x,y,z]に対してそれぞれ係数を掛け合わせることを示している。このように偏りなどのパラメータを設定することで、より忠実な照明の設計支援が可能となる。また、式(1)〜(3)はそれぞれ所定の範囲のみ適用してもよい。例えば、x軸方向では区間[x1,x2]で式(1)を適用し、y軸方向では区間[y1,y2]で式(2)を適用し、z軸方向では区間[z1,z2]で式(3)を適用してもよい。
2次元環境データ生成部2は、仮想環境の3次元環境データ、仮想環境の照度パラメータ(昼や夜などの時間帯に応じた照度を示すパラメータ、霧などの気象現象に応じた照度を示すパラメータ等)、及び照明設定部1で設定された照明パラメータを用いて、リアルタイムで仮想環境を描画して2次元環境データを生成する。
ここでは、実際の車両が走行する環境の映像を忠実に再現した3次元環境データを使用するのが好ましい。これにより、カメラの感度、及びカメラの検出結果を用いた画像処理プログラムを正確に評価することができる。
なお、2次元環境データ生成部2は、フォトンマッピング法、レイトレーシング法等の公知のレンダリング技術を用いることができる。このとき、照明設定部1で設定された照明パラメータは、フォトンマッピング法の場合はフォトンの散布に適用され、レイトレーシング法の場合はレイの生成に適用される。
カメラ特性設定部3は、幾何学的なノイズや光学的なノイズを表すカメラ特性を設定する。幾何学的なゆがみは、画素の座標m=(x,y)に対して3次元位置M(x,y,z)とすると、式(4)で表される。
但し、Rは回転座標系におけるカメラの回転、tは回転座標系の原点に対するカメラの位置を表す。また、式(4)のAは次の式(5)の通りである。
a,bは画素の縦方向及び横方向のそれぞれの大きさであり、カメラの素子の大きさ(例えばCCD素子の大きさ)に比例したパラメータである。u,vは縦方向及び横方向のそれぞれの画像の中心、rは画像のゆがみを表す係数である。
光学的なノイズとしては、ガンマ特性、ホワイトバランス、絞り、シャッタースピードなどのパラメータがある。ガンマ特性はゆがみを表す係数rによって輝度が非線形に変化する。ホワイトバランスは環境の色温度に基づいて算出されたパラメータである。絞りはカメラレンズに届く光の量に関する係数であり、輝度を抑える働きがある。シャッタースピードは光を取り込む時間を表し、その時間内の光量を加算した値である。特に、シャッタースピードと絞りは実写に近い画像を生成する上で重要であり、通常のCG画像では得られない写実性を模擬するのに有効である。
ここで、3次元環境データの画素の輝度をY=[R,G,B]、求めるべき2次元環境データの画素の輝度をy=[r,g,b]とすると、ガンマ特性は式(6)、ホワイトバランスは式(7)、絞りは式(8)、シャッタースピードは式(9)となる。
画像変換部4は、2次元環境データ生成部2で生成された2次元環境データに対して、カメラ特性設定部3で設定されたカメラ特性に応じた画像変換処理を行う。例えば、画像変換部4は、2次元環境データの各画素(x,y)に対して式(4)及び(5)に基づく変換処理を行ったり、2次元環境データの各画素の輝度値に対して式(6)〜(9)に基づく変換処理を行ったりする。なお、画像変換部4は、式(4)〜(9)のすべての変換処理を行う必要はなく、任意の式を用いてもよい。
画像処理プログラム実行部5は、画像処理プログラムを実行するためのインタフェース群を定義しており、簡単な数行のコードをそのプログラム上に記述することで画像変換部4からのデータを得ることができる。画像処理プログラム実行部5は、例えば、インタフェース群に
get(image)
のコードが記述されると、画像変換部4で処理された2次元環境データを取り込むことができる。なお、上記コードは一例に過ぎず、画像変換部4で生成されたデータを取り込むコードであれば、コードの内容は特に限定されるものではない。
get(image)
のコードが記述されると、画像変換部4で処理された2次元環境データを取り込むことができる。なお、上記コードは一例に過ぎず、画像変換部4で生成されたデータを取り込むコードであれば、コードの内容は特に限定されるものではない。
画像処理プログラム実行部5は、例えばカメラの仕様、カメラ特性等が決定された2次元環境データを取得し、その2次元環境データを用いて画像処理プログラムを実行する。ここで、画像処理プログラムは、カメラで撮像された映像に基づいて所定の処理を行うものであり、例えば、障害物を検出する障害物検出プログラム、走行車線を検出する走行車線検出プログラム、他車両の光送信装置から送信された光信号を受信する光信号受信プログラム等があり、特に限定されるものではない。
画像表示部6は、画像変換部4で処理された画像を表示し、又は画像処理プログラム実行部5で実行された画像を表示する。これにより、ユーザは、画像表示部6に表示された画像を確認することにより、カメラの感度、画像処理プログラムの性能等を評価することができる。
以上のように、第1の実施形態に係るシミュレーション装置は、画像処理プログラム実行部5のインタフェース群に予め所定の定義文を挿入しておくだけで、仮想車両に搭載されたカメラが検出した画像を画像処理プログラムに取り込むことが可能になる。これにより、今まで時間的なコストがかかっていた画像処理プログラム実行部5の検証、つまり対実環境処理アルゴリズムの検証をすばやく行うことができる。
また、上記シミュレーション装置は、この処理に必要となるセンサの仕様策定や設計に関してカメラ特性設定部3で設定することができるので、仮想環境中の様々なパラメータを容易に設定することができる。
なお、本実施形態では、センサがカメラである場合を例を挙げて説明したが、その他、レンジファインダ、レーザレーダ装置であってもよい。
[第2の実施形態]
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。第2の実施形態では、第1の実施形態で説明した2次元環境データ生成部2の構成について説明する。
つぎに、本発明の第2の実施形態について説明する。なお、第1の実施形態と同一の部位には同一の符号を付し、重複する説明は省略する。第2の実施形態では、第1の実施形態で説明した2次元環境データ生成部2の構成について説明する。
図3は、第3の実施形態に係る2次元環境データ生成部2の構成を示すブロック図である。
2次元環境データ生成部2は、仮想環境の中を仮想移動体が移動する様子をグラフィックスで再現するための映像をリアルタイムで生成するものであり、3次元環境データに基づいて環境を再現する環境再現部10と、前フレームと現在フレームとの差分画像についてレンダリングする差分レンダリング部20と、を備えている。
(環境再現部10の構成)
環境再現部10は、例えば図示しない環境データ生成装置で生成された3次元環境データを用いて、フォトンマッピング法により移動体周辺の環境を再現する。なお、環境再現部10としては、例えばグラフィック・プロセッシング・ユニット(GPU:Graphics Processing Unit)が用いられる。GPUは、膨大なベクトルベータを高速に処理可能なグラフィックハードウェアであり、流体シミュレーションと非常によく適合する。
環境再現部10は、例えば図示しない環境データ生成装置で生成された3次元環境データを用いて、フォトンマッピング法により移動体周辺の環境を再現する。なお、環境再現部10としては、例えばグラフィック・プロセッシング・ユニット(GPU:Graphics Processing Unit)が用いられる。GPUは、膨大なベクトルベータを高速に処理可能なグラフィックハードウェアであり、流体シミュレーションと非常によく適合する。
ここでは、環境中で反射・吸収を繰り返す粒子であるフォトンが使用される。また、環境中の物体は三角形ポリゴンで生成されているものとし、すべてのポリゴンとフォトンとの衝突が判定される。
なお、GPUは、データを画像として保存し、1回の演算で最大1億画素の演算が可能であるため、約3000万ポリゴンのデータを1回で演算できる。この数だけあれば十分な画質の環境を提供できる。
環境再現部10は、2パスのレンダリング方式であるフォトンマッピング法を用いて、1パス目にフォトンを散布する演算処理を行うフォトン散布演算部11と、2パス目にフォトンを回収する演算処理を行うフォトン回収演算部12と、を備えている。
フォトン散布演算部11は、環境データにより特定される環境において、環境内にある光源から位置情報(x,y,z)を有するフォトンを散布する演算処理を行う。フォトンは、散布されると、境内の物体でランダムに反射・吸収を繰り返し、ある物体上で衝突・停留する。そして、フォトン散布演算部11は、散布された各々のフォトンを追跡し、各フォトンの状況をフォトンマップに格納する。
フォトンマップは、対象となるフォトンについて、停留した物体上の3次元位置情報(x,y,z)、入射方向、フォトンの出力(RGB形式)、詳細度、探索距離、反射係数、反射係数などの情報を有している。
フォトン回収演算部12は、散布された各々のフォトンを回収して照度を計算する。具体的には、フォトン回収演算部12は、カメラ(定められた視点)からランダムに視線追跡を行い、3次元環境データを用いて、視線が到達する物体表面上の3次元位置情報を求める。そして、フォトン回収演算部12は、物体表面上の各々の位置(画素)において、カメラに届く照度をその位置にあるフォトンの数及びフォトンマップの情報を用いて演算する。
フォトン回収演算部12は、例えばフォトンの数をN、その場所の反射係数をPとすると、
I=N・P
で表される照度Iを演算する。これにより、光の直接照射・間接照射、影落ち度などが考慮された照度が得られる。そして、フォトン回収演算部12は、すべての画素について照度Pを演算する。
I=N・P
で表される照度Iを演算する。これにより、光の直接照射・間接照射、影落ち度などが考慮された照度が得られる。そして、フォトン回収演算部12は、すべての画素について照度Pを演算する。
なお、環境再現部10は、最初のフレームに対して上述の処理を行い、2フレーム以降では所定の更新タイミングのときに上述の処理を行うとよい。
(差分レンダリング部20の構成)
差分レンダリング部20は、移動体の移動演算処理を行う移動体演算部21と、フォトンを検索するフォトン検索部22と、照度を計算する照度計算部23と、合成処理を行う合成処理部24と、を備えている。
差分レンダリング部20は、移動体の移動演算処理を行う移動体演算部21と、フォトンを検索するフォトン検索部22と、照度を計算する照度計算部23と、合成処理を行う合成処理部24と、を備えている。
移動体演算部21は、フレームが変わるごとに、移動体の3次元形状データ、移動方向データ、移動速度データに基づいて、移動体の位置を更新する。
フォトン検索部22は、移動体演算部21の演算処理に基づいて移動体がどの程度移動したかを検出し、前フレームに対する現在フレームにおいて、移動体が移動することによって出現する3次元位置のフォトン、隠蔽される3次元位置のフォトンを検索する。
なお、前フレームとは、現在フレームの直前(1つ前)にあるフレームであってもよいし、現在フレームより前にあるフレームであって環境再現部10により処理のされたフレームであってもよい。
そして、フォトン検索部22は、検索した各々のフォトンについて、元の位置P(x,y,z)から単位ベクトルd
d=[1/(x2+y2+z2)1/2]×(x,y,z)
に対して追跡を行う。このベクトルが物体と衝突すると、その部分のフォトンの位置情報が更新される。更新される位置情報をP’(x’,y’,z’)とすると、次の式が成り立つ。
d=[1/(x2+y2+z2)1/2]×(x,y,z)
に対して追跡を行う。このベクトルが物体と衝突すると、その部分のフォトンの位置情報が更新される。更新される位置情報をP’(x’,y’,z’)とすると、次の式が成り立つ。
P’(x’,y’,z’)=a×d+P(x,y,z)
この式は、前フレームで停留していた位置Pから、フォトンが放射された単位ベクトル方向dにaだけ引き伸ばす処理を意味する。その結果、フォトンが他の物体に衝突するかが計算される。
この式は、前フレームで停留していた位置Pから、フォトンが放射された単位ベクトル方向dにaだけ引き伸ばす処理を意味する。その結果、フォトンが他の物体に衝突するかが計算される。
すなわち、フォトン検索部22は、新たに出現する又は隠蔽されるフォトンを検索すると、それらのフォトンを再度追跡し、それらのフォトンが停留したときに各フォトンについてのフォトンマップ(位置情報、入射方向、フォトンの出力(RGB形式)、反射係数など)を更新する。この場合では、フォトンの位置情報が更新されるだけでなく、フォトンの出力(赤(R)、緑(G)、青(B)の各色情報)、その他のパラメータも更新される。
照度計算部23は、視線が到達する物体表面上であって、移動体の移動により新たに現れる位置又は隠蔽される位置の3次元位置情報を求め、その各々の位置(画素)において、フォトン検索部22で検索された各フォトンの新たなフォトンマップを用いて、カメラに届く照度をその位置にあるフォトンの数及びフォトンマップの情報を用いて演算する。すなわち、照度計算部23は、移動体の移動により新たに現れる位置又は隠蔽される位置において、フォトンの数をN、その場所の反射係数をPとすると、
I=N・P
で表される照度Iを演算する。
I=N・P
で表される照度Iを演算する。
合成処理部24は、環境再現部10により演算された照度Iと、照度計算部23により演算された照度Iとを合成する。具体的には、合成処理部24は、移動体の移動により新たに現れる位置又は隠蔽される位置については、照度計算部23により演算された照度Iを使用し、移動体の移動があっても変化のない位置については、環境再現部10により演算された照度Iを使用して、現在のフレーム画像全体の照度を演算する。
図4(A)は前フレームを示す図、(B)は移動体(自動車)が移動することによってフォトンが隠される部分及び移動体で隠れていた部分を示す図、(C)はフォトンの差分部分を示す図、(D)は移動体が移動した後の現在フレームを示す図である。フォトンの差分画像については差分レンダリング部20がレンダリング処理を行い、その他の部分については環境再現部10がレンダリング処理を行う。このとき、フォトンは10万〜20万個使用される。これは、通常の粒子シミュレーションに比べると、10%ほどの量である。
なお、差分レンダリング部20による差分計算による映像の更新は誤差が蓄積するおそれがある。そこで、差分レンダリング部20のバックグランド処理として、環境再現部10が通常のフォトンマッピング法を用いてフォトンの散布及び回収の演算処理を行うとよい。
図5は、バックグランド処理の更新タイミングを示す図である。なお、数値“1”のときが更新タイミングを示す。同図に示すように、差分レンダリング部20による差分処理の更新に対して、環境再現部10によるバックグランド処理の更新は遅くなっている。よって、バックグランド処理の更新が行われると、その次の差分更新のタイミングでフォトンの位置が更新される。
また、上記の処理は、光の影響が所定のサンプリング間隔(例えば10ms)では劇的に変化することがない状況を前提にしており、雷などのフラッシュ現象の場合は対象外である。フラッシュ現象の場合は、別途画像ベースのアルゴリズムで処理を行えばよい。
なお、本発明は、上述した実施の形態に限定されるものではなく、特許請求の範囲に記載された範囲内で設計上の変更をされたものにも適用可能であるのは勿論である。
1 照明設定部
2 2次元環境データ生成部
3 カメラ特性設定部
4 画像変換部
5 画像処理プログラム実行部
6 画像表示部
2 2次元環境データ生成部
3 カメラ特性設定部
4 画像変換部
5 画像処理プログラム実行部
6 画像表示部
Claims (3)
- 仮想環境を3次元で描画するための3次元環境データに基づいて、前記仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、
前記仮想環境の状態を検出するセンサの特性を設定するセンサ特性設定手段と、
前記2次元環境データ生成手段により生成された2次元環境データと、センサ特性設定手段により設定されたセンサの特性と、に基づいて、前記センサが前記仮想環境の状態を検出したときの検出データを生成する検出データ生成手段と、
前記検出データ生成手段により生成された検出データを取り込む取込手段と、
前記取込手段により取り込まれた検出データに基づいて所定の画像処理を行う画像処理手段と、
を備えたシミュレーション装置。 - 前記センサ特性設定手段は、撮像装置の幾何学的なゆがみ、光学的ノイズの少なくとも1つの特性を設定する
請求項1に記載のシミュレーション装置。 - コンピュータを、
仮想環境を3次元で描画するための3次元環境データに基づいて、前記仮想環境を2次元で描画するための2次元環境データを生成する2次元環境データ生成手段と、
前記仮想環境の状態を検出するセンサの特性を設定するセンサ特性設定手段と、
前記2次元環境データ生成手段により生成された2次元環境データと、センサ特性設定手段により設定されたセンサの特性と、に基づいて、前記センサが前記仮想環境の状態を検出したときの検出データを生成する検出データ生成手段と、
前記検出データ生成手段により生成された検出データを取り込む取込手段と、
前記取込手段により取り込まれた検出データに基づいて所定の画像処理を行う画像処理手段と、
して機能させるためのシミュレーションプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008114268A JP2009265915A (ja) | 2008-04-24 | 2008-04-24 | シミュレーション装置及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008114268A JP2009265915A (ja) | 2008-04-24 | 2008-04-24 | シミュレーション装置及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009265915A true JP2009265915A (ja) | 2009-11-12 |
Family
ID=41391701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008114268A Pending JP2009265915A (ja) | 2008-04-24 | 2008-04-24 | シミュレーション装置及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009265915A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020189081A1 (ja) * | 2019-03-19 | 2020-09-24 | 日立オートモティブシステムズ株式会社 | カメラシステムの評価装置及び評価方法 |
US11095871B2 (en) * | 2018-04-26 | 2021-08-17 | Canon Kabushiki Kaisha | System that generates virtual viewpoint image, method and storage medium |
-
2008
- 2008-04-24 JP JP2008114268A patent/JP2009265915A/ja active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11095871B2 (en) * | 2018-04-26 | 2021-08-17 | Canon Kabushiki Kaisha | System that generates virtual viewpoint image, method and storage medium |
WO2020189081A1 (ja) * | 2019-03-19 | 2020-09-24 | 日立オートモティブシステムズ株式会社 | カメラシステムの評価装置及び評価方法 |
JPWO2020189081A1 (ja) * | 2019-03-19 | 2021-10-28 | 日立Astemo株式会社 | カメラシステムの評価装置及び評価方法 |
US20220101500A1 (en) * | 2019-03-19 | 2022-03-31 | Hitachi Astemo, Ltd. | Evaluation apparatus for camera system and evaluation method |
JP7245318B2 (ja) | 2019-03-19 | 2023-03-23 | 日立Astemo株式会社 | カメラシステムの評価装置及び評価方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111448591B (zh) | 不良光照条件下用于定位车辆的***和方法 | |
US20200401136A1 (en) | Data synthesis for autonomous control systems | |
EP2531980B1 (en) | Depth camera compatibility | |
US20120155744A1 (en) | Image generation method | |
JP5778182B2 (ja) | デプスカメラの互換性 | |
JP2010141836A (ja) | 障害物検知装置 | |
CN109163889A (zh) | 一种前视摄像头adas算法的测试装置及方法 | |
Hospach et al. | Simulation of falling rain for robustness testing of video-based surround sensing systems | |
Wientapper et al. | A camera-based calibration for automotive augmented reality head-up-displays | |
Gruyer et al. | Modeling and validation of a new generic virtual optical sensor for ADAS prototyping | |
CN117269940B (zh) | 点云数据生成方法、激光雷达的感知能力验证方法 | |
Strigel et al. | Vehicle detection and tracking at intersections by fusing multiple camera views | |
JP2011254128A (ja) | 平面図生成装置及び平面図生成方法 | |
Guo et al. | Visibility detection approach to road scene foggy images | |
JP6351917B2 (ja) | 移動物体検出装置 | |
JP2009265915A (ja) | シミュレーション装置及びプログラム | |
US20230162442A1 (en) | Image processing apparatus, image processing method, and storage medium | |
Ponto et al. | Opportunities for utilizing consumer grade 3D capture tools for insurance documentation | |
JP5413502B2 (ja) | ハレーションシミュレーション方法、装置、及びプログラム | |
JP5493418B2 (ja) | 視認支援評価装置及びプログラム | |
CA3199763A1 (en) | Vehicle undercarriage imaging | |
JP2009265916A (ja) | センサ特性シミュレーション装置及びプログラム並びに視覚特性シミュレーション装置及びプログラム | |
EP2639771B1 (en) | Augmented vision in image sequence generated from a moving vehicle | |
US20210323471A1 (en) | Method and arrangement for generating a representation of surroundings of a vehicle, and vehicle having such an arrangement | |
JP2018066713A (ja) | 情報処理装置、情報処理方法、プログラム |