JP2010510559A - 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 - Google Patents
地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 Download PDFInfo
- Publication number
- JP2010510559A JP2010510559A JP2009534521A JP2009534521A JP2010510559A JP 2010510559 A JP2010510559 A JP 2010510559A JP 2009534521 A JP2009534521 A JP 2009534521A JP 2009534521 A JP2009534521 A JP 2009534521A JP 2010510559 A JP2010510559 A JP 2010510559A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- candidate
- orientation
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/02—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
- G01C11/025—Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3811—Point data, e.g. Point of Interest [POI]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30236—Traffic on road, railway or crossing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Instructional Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
Abstract
Description
車両の位置及び方位を検索することと、
注目領域に対応するレーザポイントを取得するため、車両の位置及び方位に依存してレーザスキャナデータをフィルタリングすることと、
車両の位置及び方位と関連するソース画像を検索することと、
認識マスクを生成するため、注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
注目領域を表す候補3D画像を取得するため、認識マスク及びソース画像を組み合わせることと、
候補3D画像からオブジェクトグループを検出することとを備えることを特徴とする。
中間候補画像を取得するため、認識マスクに依存してソース画像をセグメント化することと、
候補3D画像を取得するため、注目領域のレーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することとを含む。
前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状が既定値に従う場合、深さ情報に依存して候補3D画像の表面の深さ均一性を判定することと、
候補3D画像の表面の深さが均一な場合、深さ情報に依存して走行方向に対する候補3D画像の直角度を判定することと、
候補3D画像の表面の深さが不均一な場合、先行のソース画像に依存して走行方向に対する候補3D画像の直角度を判定することと、
直角度に依存して、候補3D画像をオブジェクトグループに追加することとを含む。
走行方向及びレーザスキャナデータの局所深さ均一性に依存して、注目領域内の表面に対応するレーザポイントを選択することを含み、組み合わせることは、
中間候補画像を取得するため、認識マスクに依存してソース画像をセグメント化することと、
候補3D画像を取得するため、表面に対応するレーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することとを含む。これらの特徴により、レーザサンプルのクラスタが注目オブジェクトに対応するか否かを非常に早い段階で判定できるため、処理するレーザポイントを更に減少できる。これにより、中間画像の量が後に減少する。これは特に、車両の走行方向に対する注目オブジェクトの表面の直角度を考慮することにより達成される。車両の走行方向は、道路の方向に対する近似として使用される。セグメントが限定された量の画素を含み、セグメント数が減少され且つ中間画像により表されるオブジェクトの方位の検証を実行する必要がないため、計算量は更に減少される。
前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状に依存して、候補3D画像をオブジェクトグループに追加することとを含む。この特徴により、本発明を実施する技術者は、候補3D画像を効率的に変倍してオブジェクトの実世界サイズ及び形状を取得できる。その後、形状は測定され、対応する形状及びサイズを有する候補3D画像のみがオブジェクトグループに追加される。そのグループはデータベースに格納可能である。一実施形態において、平面を有するオブジェクトのみが検出される。
車両の位置及び方位を検索することと、
第1の注目領域を取得するために対応するレーザポイントを取得するため、車両の位置及び方位に依存してレーザスキャナデータをフィルタリングすることと、
車両の位置及び方位と関連するソース画像を検索することと、
第1の認識マスクを生成するため、第1の注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
第1の注目領域を表す第1の候補3D画像を取得するため、第1の認識マスク及びソース画像を組み合わせることと、
走行方向に依存して、第1の候補3D画像から第1のオブジェクトグループを検出することと、
第2の注目領域に対応するレーザポイントを取得するため、車両の位置及び方位、並びにレーザスキャナデータの局所深さ均一性に依存してレーザスキャナデータをフィルタリングすることと、
第2の認識マスクを生成するため、第2の注目領域に対応するレーザポイントをソース画像の画像座標にマッピングすることと、
第2の注目領域を表す第2の候補3D画像を取得するため、第2の認識マスク及びソース画像を組み合わせることと、
第2の候補3D画像から第2のオブジェクトグループを検出することと、
第1のオブジェクトグループ及び第2のオブジェクトグループを組み合わせることとを備えることを特徴とする。本実施形態により、モバイルマッピングデータからのオブジェクトの検出率を向上できる。
・アンテナ28に接続され、複数の衛星SLi(i=1、2、3、...)と通信し且つ衛星SLiから受信する信号から位置信号を算出するように構成されるGPS(全地球測位システム)ユニット。GPSユニットは、マイクロプロセッサμPに接続される。GPSユニットから受信する信号に基づいて、マイクロプロセッサμPは、自動車1内のモニタ24に表示され且つ自動車が位置する場所及び場合によっては自動車が移動している方向を運転者に通知する適切な表示信号を判定してもよい。GPSユニットの代わりに、ディファレンシャルGPSユニットが使用可能である。ディファレンシャル全地球測位システム(DGPS)は全地球測位システム(GPS)の改良版であり、固定地上参照局のネットワークを使用して、衛星システムにより示される位置と既知の固定位置との間の差分を同報通信する。これらの局は、測定された衛星の擬似距離と実際の(内部で計算された)擬似距離との間の差分を同報通信し、受信局は、自身の擬似距離を同一量分補正してもよい。
・DMI(距離測定器)。この計器は、車輪22のうちの1つ以上の車輪の回転数を検知することにより、自動車21が移動した距離を測定する走行距離計である。GPSユニットからの出力信号から表示信号を算出する際にマイクロプロセッサμPがDMIにより測定された距離を考慮できるようにするため、DMIもマイクロプロセッサμPに接続される。
・IMU(慣性測定器)。そのようなIMUは、3つの直交方向に沿った回転加速度及び並進加速度を測定するように構成される3つのジャイロユニットとして実現可能である。GPSユニットからの出力信号から表示信号を算出する際にマイクロプロセッサμPがDMIによる測定値を考慮できるようにするため、IMUもマイクロプロセッサμPに接続される。IMUは、推測航法センサを更に含むことができる。
1.レーザ走査ポイントに対する注目領域を選択する
2.レーザ注目領域を画像にマッピングして、認識マスクを生成する
3.注目領域をセグメント化する
4.サイズ特性及び形状特性によりセグメントをフィルタリングする
5.セグメントが隠蔽されるかを判定する
5a.6自由度の方位系を使用して、任意の隠蔽されたセグメントの方位を算出する
5b.隠蔽されないセグメントの方位をレーザデータから算出する
6.垂直なセグメントをフィルタリングにより選択する
1.レーザ走査ポイントの注目領域を選択する
7.注目領域から垂直な表面を抽出する
8.垂直な表面を画像にマッピングする
9.表面に対応する画像に対して色分解を実行する
10.フィルタリングを用いて、サイズ及び形状により表面を選択する
動作1.レーザ走査ポイントに対する注目領域を選択する。
−モバイルマッピング車両の位置の左側及び/又は右側から10mより遠い位置にある全ポイント;
−路面から0.5m未満及び/又は6.0mより高い位置にある全ポイント;
−カメラ又はモバイルマッピング車両の前方0.5〜30mの距離の外側にある全ポイント。
動作2.レーザ注目領域を画像にマッピングして、認識マスクを生成する;
この動作において、認識を実行する必要のある各画像に対する注目領域のレーザポイントは、画像座標にマッピングされる。これは、各写真の焦点の位置が既知であり且つカメラの方位が既知である場合に実行可能である。カメラの画像空間は、観察軸、並びに水平及び垂直画角により定義される。図4は、カメラ空間へのレーザポイントの投影例を示す上面図である。カメラの画角内に存在するレーザポイントのみが画像空間内に投影される。図4において、左側から1つのポイント及び右側から3つのポイントは、画像空間に投影されないポイントである。図5は、レーザポイント(Xp,Yp,Zp)から画像画素(Xs,Ys)への変換を示す。(Xp,Yp,Zp)は、世界座標におけるレーザポイントの座標であり、(Xc,Yc,Zc)は、世界座標におけるカメラの焦点の座標であり、(Xs,Ys)は、画像空間における座標である。破線はカメラの観察軸に対応する。
動作3.注目領域をセグメント化する;
この動作において、動作2において生成されたマスクに対応するソース画像の画素が選択される。その後、選択画素をセグメント化するため、選択画素に対して「成長」アルゴリズムが実行される。成長アルゴリズムにより、当業界の技術者はセグメント又は候補3D画像を生成できる。その結果、ソース画像においてセグメントの隣接画素である全画素は既定の閾値外の色距離を有し、セグメントの全画素は既定の閾値内の色距離を有する。このステップにおいて、マスク画像は候補3D画像を生成するために使用され、この場合、各候補3D画像は1つのセグメントに対応する。例えば、80の制限速度を示す制限速度標識は、赤色境界線に対する1つのセグメント、数字の周囲の白色背景に対する1つのセグメント、数字の8の黒色範囲に対する1つのセグメント、数字の0の黒色範囲に対する1つの範囲、数字の8の中の白色範囲に対する2つのセグメント及び数字の0の中の白色範囲に対する1つのセグメントの7つのセグメントにセグメント化され、その結果、7つの候補3D画像が得られる。候補3D画像の各画素は、ソース画像からの色情報及びマスクからの関連する深さ情報を含む。文献において、そのような画素はボクセルと呼ばれる。
動作4.サイズ特性及び形状特性によりセグメントをフィルタリングする。
−算出が高速且つ容易なグループ
−オブジェクトをより正確に区別できるが、速度の遅いグループ
第2のグループからの2つの形状係数が判定されるのが好ましい。
S −候補3D画像の範囲
ri −形状の質量中心からのi番目の画素の距離
i −形状の画素指標
Haralickの形状係数は、次式により判定される:
di −形状の質量中心からのi番目の画素の距離
n −輪郭画素の数
i −形状の画素指標
形状係数により、円、三角形及び矩形の形態を有する形状を効果的に選択できる。
動作5.レーザスキャナデータにおいてセグメントが隠蔽されているかを判定する;
この動作は、候補3D画像の深さ均一性を判定するために動作4の後に実行される。候補3D画像は、異なる深さを有する画素を含んでもよく、又は深さ情報を全く含まない。異なる深さは、単純な周知のエッジ検出フィルタにより検出可能である。前記フィルタにより、深さ均一性が判定される。例えば樹木が、レーザ走査データにおいて道路標識を部分的に隠蔽するがソース画像において隠蔽しない場合、候補3D画像は異なる深さ情報を有することがある。その結果、候補3D画像の一部の範囲は深さ情報を含まないか、又は道路標識の背後のオブジェクトに対応する深さ情報を含むことがある。レーザスキャナと道路標識との間の大きな樹木によりレーザ光線が完全に遮られて道路標識に到達しない場合、候補3D画像が深さ情報を全く含まないこともある。
動作5a.隠蔽されたセグメントの方位を画像データから算出する;
このステップにおいて、画像処理技術は、モバイルマッピング車両の方位又は走行方向に対する候補3D画像の方位を判定するために使用される。6自由度の方位デバイスは、モバイルマッピング車両の方位及び走行方向を測定するために使用される。車両の測定された方位及び走行方向は、候補3D画像に対応するソース画像の取り込み時のカメラの方位及び絶対位置又は相対位置を算出するために使用される。オブジェクトの方位は、三角測量技術により取得可能である。候補3D画像に対応する元のソース画像が立体カメラから取得される場合、画像の立体ペアのその他の画像は、三角測量を実行し且つ候補3D画像の方位を判定するために使用可能である。別の実施形態において、元のソース画像に先行するソース画像は、距離を算出し且つオブジェクトの方位を判定するための三角測量を実行するために使用される。ソース画像は10mの距離毎に取り込まれる。従って、先行のソース画像は、現在のソース画像の10m前に取り込まれる。その結果、先行のソースは、10m手前であるため現在のソース画像内の表現より小さい候補3D画像の表現を含む。候補3D画像に対応するオブジェクトの方位は、三角測量により判定可能である。
動作5b.隠蔽されないセグメントの方位をレーザデータから算出する;
この動作は、候補3D画像の画素の深さ情報が平滑な表面、好ましくは既定の深さ均一性を有する平面に対応する場合に動作4の後に実行される。これは、候補3D画像の深さ情報が、モバイルマッピング車両の走行方向の方位に対するオブジェクトの方位において、隣接画素との間に深さ情報による大きな変動を含まない場合である。
動作6.垂直なセグメントをフィルタリングにより選択する。
動作1.レーザ走査ポイントの注目領域を選択する;
第1の実施形態と同様に、第1の動作1は、レーザデータ内の注目領域を取得するために実行される。図9aは、ある特定の絶対位置又は相対位置に対する既定の範囲内の収集された全レーザポイントの3次元表現の一例を表し、図9bは、動作1実行後の残りのレーザポイントを表す。地面付近の全レーザポイントが収集されたレーザポイントから除去されることが分かる。
7.注目領域から垂直な表面を抽出する;
このステップにおいて、注目領域の全レーザポイントは、隣接するレーザポイントが平滑な平面を形成するかを判定することにより深さ均一性を判定するために使用される。図9cは、図9bの結果において検出された平面に対応するレーザポイントの一例を示す。道路標識を検出する必要があるため、使用されるアルゴリズムは、モバイルマッピング車両の移動方向に対してほぼ垂直な表面を探し出す。アルゴリズムは、注目領域に割り当てられたレーザスキャナポイントにわたって実行される。RANSAC(Random Sample Consensus)アルゴリズムは、平面を発見するために使用される。アルゴリズムは、3つのレーザポイントをランダムに選択する。これらのポイントから平面式が生成される。その後アルゴリズムは、所定の許容範囲で平面に近接するレーザポイントを探し出し、近接レーザポイントの数をカウントする。ステップを繰り返すことにより、アルゴリズムは許容範囲内で最も多くのレーザポイントを有する平面を発見できる。この手順は、最も多くのレーザポイントを有する平面に対応するレーザポイントを除去し且つ残りのレーザポイントに対してアルゴリズムを繰り返すことにより反復可能である。このようにして、レーザデータ内の全候補平面を発見できる。RANSACアルゴリズムの有効性は、平面に属するレーザポイントと解析される注目領域に属するレーザポイントの総数との比率に依存する。関係は、次式により求められる。
pfailは、平面Aが発見されない確率であり、
pgは、ランダムなポイントが平面Aに含まれる確率(全ポイントに対する平面に近接するポイントの比率)であり、
Lは、ループの反復回数である。
動作8.垂直な表面を画像にマッピングする。
動作9.表面に対応する画像に対して色分解を実行する。
更に、セグメント数が限定されるため、動作9は、セグメントに対応する候補3D画像だけでなく、1つ以上のセグメントの組み合わせである候補3D画像も生成する。この動作の結果、図9eに示すレーザポイントに対応するマスク画像は、標識に対する1つの候補3D画像、標識上方の支柱に対する1つの候補3D画像、標識下方の支柱に対する1つの候補3D画像、標識及び標識の上方の支柱の組み合わせに対する候補3D画像、標識及び標識下方の支柱に対する候補3D画像等の候補3D画像になる。
動作10.フィルタリングを用いてサイズ及び形状により選択する。
図11は、上述の方法を実行するオブジェクト検出器を実現するために使用可能なコンピュータシステムの上位ブロック図を示す。
Claims (12)
- 地上モバイルマッピングデータからオブジェクトを検出する方法であり、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む方法であって、
前記車両の位置及び方位を検索することと、
注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
認識マスクを生成するため、注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
前記注目領域内の可能なオブジェクトを表す候補3D画像を取得するため、前記認識マスク及び前記ソース画像を組み合わせることと、
前記候補3D画像からオブジェクトグループを検出することと
を備えることを特徴とする方法。 - 組み合わせることは、
中間候補画像を取得するため、前記認識マスクに依存して前記ソース画像をセグメント化することと、
前記候補3D画像を取得するため、注目領域の前記レーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加することと
を備えることを特徴とする請求項1に記載の方法。 - 深さ情報を追加することは、
レーザポイント座標をソース画像の画像座標に正確に変換するため、前記モバイルマッピング車両の位置センサ及び方位センサにより取り込まれる前記位置データ及び前記方位データを使用することと、
前記レーザポイント座標及び前記位置データ及び前記方位データに依存して、前記画像座標に対する深さ情報を判定することと、
前記深さ情報を前記画像座標を有する画素に追加すること
とを備えることを特徴とする請求項2に記載の方法。 - 検出することは、候補3D画像毎に、
前記深さ情報に依存して、候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状が既定値に従う場合、前記深さ情報に依存して前記候補3D画像の表面の深さ均一性を判定することと、
候補3D画像の表面の深さが均一な場合、前記深さ情報に依存して前記走行方向に対する前記候補3D画像の前記方位を判定することと、
候補3D画像の表面の深さが不均一な場合、先行のソース画像に依存して前記走行方向に対する前記候補3D画像の前記方位を判定することと、
前記判定された方位に依存して、候補3D画像を前記オブジェクトグループに追加すること
とを備えることを特徴とする請求項2又は3に記載の方法。 - フィルタリングすることは、
前記走行方向及び前記レーザスキャナデータの前記局所深さ均一性に依存して、前記注目領域内の表面に対応するレーザポイントを選択することを含み、組み合わせることは、
中間候補画像を取得するため、前記認識マスクに依存して前記ソース画像をセグメント化することと、
前記候補3D画像を取得するため、前記表面に対応する前記レーザポイントに対応する深さ情報を前記中間候補画像の対応する画素に追加すること
とを備えることを特徴とする請求項1に記載の方法。 - 検出することは、候補3D画像毎に、
前記深さ情報に依存して、前記候補3D画像のサイズ及び形状を判定することと、
サイズ及び形状に依存して、候補3D画像を前記オブジェクトグループに追加すること
とを備えることを特徴とする請求項5に記載の方法。 - 表面の深さ均一性は、前記表面の平面度の尺度であることを特徴とする請求項4乃至6のいずれか1項に記載の方法。
- 地上モバイルマッピングデータからオブジェクトを検出する方法であり、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含む方法であって、
前記車両の位置及び方位を検索することと、
第1の注目領域を取得するために対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
第1の認識マスクを生成するため、前記第1の注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
前記第1の注目領域を表す第1の候補3D画像を取得するため、前記第1の認識マスク及び前記ソース画像を組み合わせることと、
前記走行方向に依存して、前記第1の候補3D画像から第1のオブジェクトグループを検出することと、
第2の注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位、並びに前記レーザスキャナデータの局所深さ均一性に依存して前記レーザスキャナデータをフィルタリングすることと、
第2の認識マスクを生成するため、前記第2の注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
前記第2の注目領域を表す第2の候補3D画像を取得するため、第2の認識マスク及び前記ソース画像を組み合わせることと、
前記第2の候補3D画像から第2のオブジェクトグループを検出することと、
前記第1のオブジェクトグループ及び前記第2のオブジェクトグループを組み合わせること
と備えることを特徴とする方法。 - 前記車両の前記位置データ及び前記方位データは、位置決めプラットフォームにより事前に判定されることを特徴とする請求項1又は8に記載の方法。
- 地図データベースで使用するためにオブジェクトを取り込む装置であって、
入力デバイスと、
プロセッサ可読記憶媒体と、
前記入力デバイス及び前記プロセッサ可読記憶媒体と通信するプロセッサと、
表示部との前記接続を可能にする出力デバイスとを具備し、
前記プロセッサ可読記憶媒体は、地上モバイルマッピングデータからのオブジェクトの検出を実行する前記プロセッサをプログラムするコードを格納し、前記地上モバイルマッピングデータは、道路を走行する走行方向を有する地上モバイルマッピング車両により取り込まれており、前記モバイルマッピングデータは、レーザスキャナデータ、少なくとも1つのカメラにより取得されるソース画像、並びに前記車両の位置データ及び方位データを含み、前記レーザスキャナデータは、各々が関連する位置データ及び方位データを有するレーザポイントを含み、各ソース画像は、関連する位置データ及び方位データを含み、方法は、
前記車両の位置及び方位を検索することと、
注目領域に対応するレーザポイントを取得するため、前記車両の前記位置及び前記方位に依存して前記レーザスキャナデータをフィルタリングすることと、
前記車両の前記位置及び前記方位と関連するソース画像を検索することと、
認識マスクを生成するため、注目領域に対応する前記レーザポイントを前記ソース画像の画像座標にマッピングすることと、
前記注目領域内の可能なオブジェクトを表す候補3D画像を取得するため、前記認識マスク及び前記ソース画像を組み合わせることと、
前記候補3D画像からオブジェクトグループを検出することと、
前記オブジェクトを特徴付けるため、前記オブジェクトグループを記憶媒体に格納すること
とを備えることを特徴とする装置。 - コンピュータ構成にロードされた場合に請求項1乃至9のいずれか1項に記載の方法を実行するように構成されるコンピュータプログラム。
- コンピュータ構成にロードされた場合に請求項1乃至9のいずれか1項に記載の方法を実行するように構成されるコンピュータプログラムを記憶するプロセッサ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NL2006050269 | 2006-10-30 | ||
PCT/NL2007/050520 WO2008054203A1 (en) | 2006-10-30 | 2007-10-30 | Method and apparatus for detecting objects from terrestrial based mobile mapping data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010510559A true JP2010510559A (ja) | 2010-04-02 |
JP2010510559A5 JP2010510559A5 (ja) | 2010-10-28 |
Family
ID=38180592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009534521A Pending JP2010510559A (ja) | 2006-10-30 | 2007-10-30 | 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8325979B2 (ja) |
EP (1) | EP2078286A1 (ja) |
JP (1) | JP2010510559A (ja) |
CN (1) | CN101523439A (ja) |
WO (1) | WO2008054203A1 (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011112644A (ja) * | 2009-11-24 | 2011-06-09 | Ind Technol Res Inst | マップ作成方法および装置とそのマップを利用した定位方法 |
JP2013064733A (ja) * | 2011-08-29 | 2013-04-11 | Hokkaido Univ | 柱状物体抽出方法、柱状物体抽出プログラム、及び柱状物体抽出装置 |
JP2013540985A (ja) * | 2010-07-26 | 2013-11-07 | コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション | 3次元走査ビーム・システムおよび方法 |
JP2014071655A (ja) * | 2012-09-28 | 2014-04-21 | Mitsubishi Heavy Ind Ltd | 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法 |
JP2014153336A (ja) * | 2013-02-13 | 2014-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 点群解析処理装置及び点群解析処理プログラム |
WO2014136976A1 (ja) * | 2013-03-04 | 2014-09-12 | 公益財団法人鉄道総合技術研究所 | 架線位置計測装置及び方法 |
JP2015212942A (ja) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | レーザー点クラウドを用いる物体検出のための方法及びシステム |
JP2016001182A (ja) * | 2015-07-21 | 2016-01-07 | コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション | 3次元走査ビーム・システムおよび方法 |
KR101743392B1 (ko) * | 2016-02-05 | 2017-06-02 | 최준석 | 안전성 평가를 위한 도로 기하구조 분석장치 및 그 분석방법 |
WO2020175438A1 (ja) * | 2019-02-27 | 2020-09-03 | 愛知製鋼株式会社 | 点群データの取得方法及び点群データ取得システム |
KR20210040217A (ko) * | 2019-10-02 | 2021-04-13 | 고려대학교 산학협력단 | 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법 |
Families Citing this family (70)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4876080B2 (ja) * | 2008-01-25 | 2012-02-15 | 富士重工業株式会社 | 環境認識装置 |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
US8325976B1 (en) * | 2008-03-14 | 2012-12-04 | Verint Systems Ltd. | Systems and methods for adaptive bi-directional people counting |
CN101953165A (zh) | 2008-04-18 | 2011-01-19 | 电子地图有限公司 | 使用激光扫描的点云来形成选择性压缩遮掩的方法 |
US8755997B2 (en) * | 2008-07-30 | 2014-06-17 | Honeywell International Inc. | Laser ranging process for road and obstacle detection in navigating an autonomous vehicle |
AT507618B1 (de) * | 2008-11-26 | 2012-01-15 | Riegl Laser Measurement Sys | Verfahren zum bestimmen der relativlage eines laserscanners zu einem referenzsystem |
JP2012511697A (ja) * | 2008-12-09 | 2012-05-24 | トムトム ノース アメリカ インコーポレイテッド | 測地参照データベースを生成する方法 |
WO2010068185A1 (en) * | 2008-12-09 | 2010-06-17 | Tele Atlas B.V. | Method of generating a geodetic reference database product |
US8385055B2 (en) | 2008-12-26 | 2013-02-26 | Industrial Technology Research Institute | Electric device and display panel thereof |
US8284250B2 (en) | 2009-01-16 | 2012-10-09 | Microsoft Corporation | Determining trigger rate for a digital camera |
US8699755B2 (en) | 2009-02-20 | 2014-04-15 | Navteq B.V. | Determining travel path features based on retroreflectivity |
JP5326920B2 (ja) * | 2009-08-07 | 2013-10-30 | 株式会社リコー | 画像処理装置、画像処理方法、及び、コンピュータプログラム |
CN102262733B (zh) * | 2010-05-28 | 2014-03-19 | 株式会社理光 | 激光点检测方法及装置 |
US9129523B2 (en) | 2013-05-22 | 2015-09-08 | Jaybridge Robotics, Inc. | Method and system for obstacle detection for vehicles using planar sensor data |
US9599715B2 (en) | 2010-08-03 | 2017-03-21 | Faro Technologies, Inc. | Scanner display |
US20120050477A1 (en) * | 2010-08-27 | 2012-03-01 | Jeyhan Karaoguz | Method and System for Utilizing Depth Information for Providing Security Monitoring |
US8867793B2 (en) * | 2010-12-01 | 2014-10-21 | The Trustees Of The University Of Pennsylvania | Scene analysis using image and range data |
WO2012097077A1 (en) * | 2011-01-11 | 2012-07-19 | Intelligent Technologies International, Inc. | Mobile mapping system for road inventory |
EP2517753A1 (en) | 2011-04-28 | 2012-10-31 | Acro Associates, Inc. | Tube dislodgement detection technology for solenoid actuators |
US8565958B1 (en) | 2011-06-02 | 2013-10-22 | Google Inc. | Removing extraneous objects from maps |
US9251562B1 (en) | 2011-08-04 | 2016-02-02 | Amazon Technologies, Inc. | Registration of low contrast images |
US9342916B2 (en) * | 2011-12-30 | 2016-05-17 | Intel Corporation | Coarse-to-fine multple disparity candidate stereo matching |
JP2013140515A (ja) * | 2012-01-05 | 2013-07-18 | Toyota Central R&D Labs Inc | 立体物検出装置及びプログラム |
FR2988504B1 (fr) * | 2012-03-23 | 2014-05-09 | Commissariat Energie Atomique | Procede de determination d'un plan du sol a partir d'une image de profondeur |
US9123152B1 (en) | 2012-05-07 | 2015-09-01 | Google Inc. | Map reports from vehicles in the field |
KR20130127822A (ko) * | 2012-05-15 | 2013-11-25 | 한국전자통신연구원 | 도로상 물체 분류 및 위치검출을 위한 이종 센서 융합처리 장치 및 방법 |
US9239965B2 (en) * | 2012-06-12 | 2016-01-19 | Electronics And Telecommunications Research Institute | Method and system of tracking object |
US9031281B2 (en) * | 2012-06-22 | 2015-05-12 | Microsoft Technology Licensing, Llc | Identifying an area of interest in imagery |
US8885151B1 (en) | 2012-09-04 | 2014-11-11 | Google Inc. | Condensing sensor data for transmission and processing |
KR101550972B1 (ko) | 2013-09-25 | 2015-09-07 | 현대자동차주식회사 | 레이저 스캐너를 이용하여 장애물을 인식하기 위한 특징점 추출 장치 및 방법 |
US20160349409A1 (en) * | 2013-11-15 | 2016-12-01 | Dow Global Technologies Llc | Photovoltaic shade impact prediction |
DE102014201238A1 (de) | 2014-01-23 | 2015-07-23 | Siemens Aktiengesellschaft | Verfahren und System zur Erstellung einer Vektorkarte |
US10735902B1 (en) | 2014-04-09 | 2020-08-04 | Accuware, Inc. | Method and computer program for taking action based on determined movement path of mobile devices |
US9418284B1 (en) * | 2014-04-09 | 2016-08-16 | Vortex Intellectual Property Holding LLC | Method, system and computer program for locating mobile devices based on imaging |
US9911190B1 (en) * | 2014-04-09 | 2018-03-06 | Vortex Intellectual Property Holding LLC | Method and computer program for generating a database for use in locating mobile devices based on imaging |
US10157189B1 (en) | 2014-04-09 | 2018-12-18 | Vortex Intellectual Property Holding LLC | Method and computer program for providing location data to mobile devices |
US9834207B2 (en) * | 2014-04-15 | 2017-12-05 | GM Global Technology Operations LLC | Method and system for detecting, tracking and estimating stationary roadside objects |
US9903950B2 (en) * | 2014-08-27 | 2018-02-27 | Leica Geosystems Ag | Multi-camera laser scanner |
US9519061B2 (en) * | 2014-12-26 | 2016-12-13 | Here Global B.V. | Geometric fingerprinting for localization of a device |
CN105806320B (zh) * | 2014-12-29 | 2020-04-21 | 同方威视技术股份有限公司 | 拍摄测量***以及拍摄测量方法 |
US10007996B2 (en) * | 2015-03-02 | 2018-06-26 | Lawrence Livermore National Security, Llc | System for detecting objects in streaming 3D images formed from data acquired with a medium penetrating sensor |
DE102015214743A1 (de) * | 2015-08-03 | 2017-02-09 | Audi Ag | Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung |
US9824453B1 (en) | 2015-10-14 | 2017-11-21 | Allstate Insurance Company | Three dimensional image scan for vehicle |
US9881378B2 (en) | 2016-02-12 | 2018-01-30 | Vortex Intellectual Property Holding LLC | Position determining techniques using image analysis of marks with encoded or associated position data |
US10824878B2 (en) | 2016-03-08 | 2020-11-03 | Accuware, Inc. | Method and arrangement for receiving data about site traffic derived from imaging processing |
US11601583B2 (en) | 2016-03-22 | 2023-03-07 | Johnson Controls Tyco IP Holdings LLP | System and method for controlling surveillance cameras |
US10764539B2 (en) | 2016-03-22 | 2020-09-01 | Sensormatic Electronics, LLC | System and method for using mobile device of zone and correlated motion detection |
US10665071B2 (en) | 2016-03-22 | 2020-05-26 | Sensormatic Electronics, LLC | System and method for deadzone detection in surveillance camera network |
US10733231B2 (en) | 2016-03-22 | 2020-08-04 | Sensormatic Electronics, LLC | Method and system for modeling image of interest to users |
US11216847B2 (en) | 2016-03-22 | 2022-01-04 | Sensormatic Electronics, LLC | System and method for retail customer tracking in surveillance camera network |
US10347102B2 (en) | 2016-03-22 | 2019-07-09 | Sensormatic Electronics, LLC | Method and system for surveillance camera arbitration of uplink consumption |
US9965680B2 (en) | 2016-03-22 | 2018-05-08 | Sensormatic Electronics, LLC | Method and system for conveying data from monitored scene via surveillance cameras |
US10475315B2 (en) | 2016-03-22 | 2019-11-12 | Sensormatic Electronics, LLC | System and method for configuring surveillance cameras using mobile computing devices |
US10318836B2 (en) * | 2016-03-22 | 2019-06-11 | Sensormatic Electronics, LLC | System and method for designating surveillance camera regions of interest |
CN106097444B (zh) * | 2016-05-30 | 2017-04-12 | 百度在线网络技术(北京)有限公司 | 高精地图生成方法和装置 |
US10074270B2 (en) | 2016-07-20 | 2018-09-11 | Harman Becker Automotive Systems Gmbh | Clustering observations of objects along roads for navigation-related operations |
GB2553148A (en) * | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
SG10201700299QA (en) * | 2017-01-13 | 2018-08-30 | Otsaw Digital Pte Ltd | Three-dimensional mapping of an environment |
US10078790B2 (en) | 2017-02-16 | 2018-09-18 | Honda Motor Co., Ltd. | Systems for generating parking maps and methods thereof |
EP3376213A1 (de) * | 2017-03-15 | 2018-09-19 | Siemens Aktiengesellschaft | Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln |
JP6722876B2 (ja) * | 2017-12-26 | 2020-07-15 | クモノスコーポレーション株式会社 | 三次元レーザー光走査装置 |
DE102018209607A1 (de) * | 2018-06-14 | 2019-12-19 | Volkswagen Aktiengesellschaft | Verfahren und Vorrichtung zum Bestimmen einer Position eines Kraftfahrzeugs |
FR3082643A1 (fr) * | 2018-06-18 | 2019-12-20 | Soletanche Freyssinet | Procede de geolocalisation et systeme pour sa mise en œuvre |
CN110827048B (zh) * | 2018-08-08 | 2023-05-23 | 菜鸟智能物流控股有限公司 | 基于路网的地理区域分割方法、装置以及电子设备 |
WO2020161646A2 (en) * | 2019-02-05 | 2020-08-13 | Rey Focusing Ltd. | Focus tracking system |
JP7233261B2 (ja) * | 2019-03-13 | 2023-03-06 | キヤノン株式会社 | 3次元測量装置、撮像装置、制御方法及びプログラム |
CN112907164A (zh) * | 2019-12-03 | 2021-06-04 | 北京京东乾石科技有限公司 | 物体定位方法和装置 |
CN114235012A (zh) * | 2022-02-25 | 2022-03-25 | 四川省安全科学技术研究院 | 一种车载移动测量***室外检校评定的方法及*** |
US12001024B2 (en) * | 2022-10-12 | 2024-06-04 | Snap Inc. | Energy-efficient adaptive 3D sensing |
CN115808126B (zh) * | 2023-02-03 | 2023-05-30 | 杭州百子尖科技股份有限公司 | 一种基于机器视觉扫描数据的锂电极片涂布边界定位方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003302470A (ja) * | 2002-04-05 | 2003-10-24 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | 歩行者検出装置および歩行者検出方法 |
JP2006072495A (ja) * | 2004-08-31 | 2006-03-16 | Fuji Heavy Ind Ltd | 立体物監視装置 |
-
2007
- 2007-10-30 CN CNA2007800376200A patent/CN101523439A/zh active Pending
- 2007-10-30 WO PCT/NL2007/050520 patent/WO2008054203A1/en active Application Filing
- 2007-10-30 EP EP07834650A patent/EP2078286A1/en not_active Withdrawn
- 2007-10-30 JP JP2009534521A patent/JP2010510559A/ja active Pending
- 2007-10-30 US US12/311,465 patent/US8325979B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003302470A (ja) * | 2002-04-05 | 2003-10-24 | Sogo Jidosha Anzen Kogai Gijutsu Kenkyu Kumiai | 歩行者検出装置および歩行者検出方法 |
JP2006072495A (ja) * | 2004-08-31 | 2006-03-16 | Fuji Heavy Ind Ltd | 立体物監視装置 |
Non-Patent Citations (1)
Title |
---|
PERROLLAZ MATHIAS: "Long Range Obstacle Detection Using Laser Scanner and Stereovision", INTELLIGENT VEHICLES SYMPOSIUM, 2006 IEEE, JPN6011069500, 11 September 2006 (2006-09-11), pages 182 - 187, ISSN: 0002112469 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8588471B2 (en) | 2009-11-24 | 2013-11-19 | Industrial Technology Research Institute | Method and device of mapping and localization method using the same |
JP2011112644A (ja) * | 2009-11-24 | 2011-06-09 | Ind Technol Res Inst | マップ作成方法および装置とそのマップを利用した定位方法 |
US9146315B2 (en) | 2010-07-26 | 2015-09-29 | Commonwealth Scientific And Industrial Research Organisation | Three dimensional scanning beam system and method |
JP2013540985A (ja) * | 2010-07-26 | 2013-11-07 | コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション | 3次元走査ビーム・システムおよび方法 |
JP2013064733A (ja) * | 2011-08-29 | 2013-04-11 | Hokkaido Univ | 柱状物体抽出方法、柱状物体抽出プログラム、及び柱状物体抽出装置 |
JP2014071655A (ja) * | 2012-09-28 | 2014-04-21 | Mitsubishi Heavy Ind Ltd | 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法 |
JP2014153336A (ja) * | 2013-02-13 | 2014-08-25 | Nippon Telegr & Teleph Corp <Ntt> | 点群解析処理装置及び点群解析処理プログラム |
WO2014136976A1 (ja) * | 2013-03-04 | 2014-09-12 | 公益財団法人鉄道総合技術研究所 | 架線位置計測装置及び方法 |
JP2014169939A (ja) * | 2013-03-04 | 2014-09-18 | Railway Technical Research Institute | 架線位置計測装置及び方法 |
JP2015212942A (ja) * | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | レーザー点クラウドを用いる物体検出のための方法及びシステム |
JP2017152049A (ja) * | 2014-04-25 | 2017-08-31 | グーグル インコーポレイテッド | レーザー点クラウドを用いる物体検出のための方法及びシステム |
JP2016001182A (ja) * | 2015-07-21 | 2016-01-07 | コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガナイゼーション | 3次元走査ビーム・システムおよび方法 |
KR101743392B1 (ko) * | 2016-02-05 | 2017-06-02 | 최준석 | 안전성 평가를 위한 도로 기하구조 분석장치 및 그 분석방법 |
WO2020175438A1 (ja) * | 2019-02-27 | 2020-09-03 | 愛知製鋼株式会社 | 点群データの取得方法及び点群データ取得システム |
JPWO2020175438A1 (ja) * | 2019-02-27 | 2020-09-03 | ||
US11933633B2 (en) | 2019-02-27 | 2024-03-19 | Aichi Steel Corporation | Point cloud data acquiring method and point cloud data acquiring system |
KR20210040217A (ko) * | 2019-10-02 | 2021-04-13 | 고려대학교 산학협력단 | 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법 |
KR102257610B1 (ko) * | 2019-10-02 | 2021-05-28 | 고려대학교 산학협력단 | 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법 |
Also Published As
Publication number | Publication date |
---|---|
US8325979B2 (en) | 2012-12-04 |
CN101523439A (zh) | 2009-09-02 |
US20100020074A1 (en) | 2010-01-28 |
EP2078286A1 (en) | 2009-07-15 |
WO2008054203A1 (en) | 2008-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8325979B2 (en) | Method and apparatus for detecting objects from terrestrial based mobile mapping data | |
US8280107B2 (en) | Method and apparatus for identification and position determination of planar objects in images | |
US8422736B2 (en) | Method of and apparatus for producing lane information | |
US8847982B2 (en) | Method and apparatus for generating an orthorectified tile | |
US20100086174A1 (en) | Method of and apparatus for producing road information | |
EP2195613B1 (en) | Method of capturing linear features along a reference-line across a surface for use in a map database | |
EP2208021B1 (en) | Method of and arrangement for mapping range sensor data on image sensor data | |
KR101319471B1 (ko) | 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체 | |
US20100118116A1 (en) | Method of and apparatus for producing a multi-viewpoint panorama | |
JP6950832B2 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
JP2005056186A (ja) | 交通状況観測システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120106 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120608 |