JP5133783B2 - 車載装置 - Google Patents
車載装置 Download PDFInfo
- Publication number
- JP5133783B2 JP5133783B2 JP2008142148A JP2008142148A JP5133783B2 JP 5133783 B2 JP5133783 B2 JP 5133783B2 JP 2008142148 A JP2008142148 A JP 2008142148A JP 2008142148 A JP2008142148 A JP 2008142148A JP 5133783 B2 JP5133783 B2 JP 5133783B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- unit
- state
- sampling
- state vectors
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 claims description 175
- 238000005070 sampling Methods 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 42
- 238000004364 calculation method Methods 0.000 claims description 23
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 3
- 240000004050 Pentaglottis sempervirens Species 0.000 description 7
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 7
- 239000002245 particle Substances 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/20—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/22—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
- B60R1/23—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
- B60R1/26—Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/60—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
- B60R2300/607—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Description
そこで、本発明は、自動車に搭載されるカメラの位置や姿勢等の配置を表す配置情報を、より簡便な構成において校正することを課題とする。
図1aに、本実施形態に係る周辺監視装置の構成を示す。
図示するように、周辺監視装置は、カメラ1、カメラ状態校正部2、俯瞰画像生成部3、表示装置4、制御部5、車両状態センサ6を備えている。
ただし、周辺監視装置は、ハードウエアとしては、マイクロプロセッサやメモリやその他の周辺装置を備えたコンピュータを用いて構成することもでき、この場合、カメラ状態校正部2や俯瞰画像生成部3は、マイクロプロセッサが所定のコンピュータプログラムを実行することにより実現されるものであってよい。
また、カメラ1は、図1bに示すように、車両後端に配置され、たとえば、図2aのように自動車が道路を走行中には、図2bに示すように自動車後方のレーンマーク(車線境界線)を含む映像を撮影する。
そして、俯瞰画像生成部3は、制御部5から俯瞰画像の生成及び表示を指示されたときに、カメラ1で撮影した自動車後方の画像に視点変換を施して、自動車上方の視点から自動車後方を撮影した場合に得られる画像である俯瞰画像を生成し、表示装置4に表示する。
すなわち、俯瞰画像生成部3は、たとえば、図3aに示すように自動車が駐車場内で後退しているときに制御部5からら俯瞰画像の生成及び表示を指示されたならば、カメラ1が撮影した図3bに示すような自動車後方の画像に視点変換を施して、図3cに示すような俯瞰画像を生成し、生成した俯瞰画像に、図3dに示すように、予め用意しておいた自車後端を表す図形301を合成して、表示装置4に表示する。
そして、カメラ状態校正部2は、各時点におけるカメラ1の位置、姿勢を算出し、俯瞰画像生成部3に通知する。
以下、このようなカメラ1の位置、姿勢の通知を行うカメラ状態校正部2の動作について説明する。
さて、カメラ状態校正部2は、カメラ1の位置、姿勢を、パーティカルフィルタを用いて算出するカメラ状態校正処理を行う。
図4に、このカメラ状態校正処理の手順を示す。
図示するように、この処理では、まず、i=1からi=NまでのN個の状態ベクトルχ(i)=(tx, ty, tz, rx, ry, rz, w, dy, da)を無作為に作成する(ステップ402)。
ここで、図5a、bに示すように、自動車の左右前後方向中心の地面高さの位置を原点500とし、自動車の前後方向軸をx軸、自動車の左右方向軸をy軸、高さ方向軸をz軸とする座標系を、座標系XYZとする。
そして、txは座標系XYZにおけるカメラ1のx座標、tyは座標系XYZにおけるカメラ1のy座標、 tzは座標系XYZにおけるカメラ1のz座標とし、これらの座標の値は、自動車へのカメラ1の取付位置によって定まる既知の固定値とする。また、図5cに示すように、rxは、カメラ1の撮影軸(カメラ1の撮影中心方向)510の座標系XYZにおけるx軸回りの回転量(ローリング量)、図5dに示すように、ryは、カメラ1の撮影軸510の座標系XYZにおけるy軸回りの回転量(ピッチング量)、図5eに示すように、rzは、カメラ1の撮影軸510の座標系XYZにおけるz軸回りの回転量(ヨーイング量)とする。
そして、各状態ベクトルχ(i)に所定のダイナミクスモデルに従って更新する(ステップ406)。ここでは、簡易的に、各状態ベクトルχ(i)の(rx, ry, rz, w, dy, da)の各要素に所定のホワイトノイズを各々加えることにより、各状態ベクトルχ(i)を更新させるものとする。ただし、(tx, ty, tz)を固定値としない場合には、各状態ベクトルχ(i)の(tx, ty, tz, rx, ry, rz, w, dy, da)の各要素にホワイトノイズを各々加えることにより、各状態ベクトルχ(i)を変動させるものとする。
ここで、ある状態ベクトルχ(k)についてのレーンマークエッジ位置とは、(tx, ty, tz, rx, ry, rz, w, dy, da)の各状態の値が、状態ベクトルχ(k)によって示される値であるときに、カメラ1によって撮影される画像中に含まれることになるレーンマークのエッジの位置を表すものであり、次のようにして求めることができる。
次に、求めたレーンマークのエッジの配置より、レーンマークのエッジの各位置が写り込む、カメラ1の撮影画像上の座標(up, vp)を、下式1によって求める。
但し、下式1において、k1, k2はカメラ1のレンズの半径方向の歪み係数、p1, p2はカメラ1のレンズの円周方向の歪み係数 fx, fyはカメラ1の焦点距離 cx, cyはカメラ1のレンズの画像中の光学的な中心であり、各々使用するカメラ1、レンズに対して予め定まる。
なお、カメラ状態ベクトルを受け取った俯瞰画像生成部3は、カメラ状態ベクトルの要素(tx, ty, tz, rx, ry, rz)をカメラ1の位置、姿勢として用いて前述のようにカメラ1の撮影した画像に視点変換を施して俯瞰画像を生成し、表示装置4に表示する。
また、次に、N個の状態ベクトルχ(i)の重みに応じて、新たなN個の状態ベクトルχ(i)を生成(リサンプリング)する(ステップ416)。このステップ416では、重みが小さい状態ベクトルχを消去し、重みが大きい状態ベクトルを複製して新たなN個の状態ベクトルχ(i)を生成する。すなわち、たとえば、まず、各状態ベクトルχ(i)の重みを、各重みが0または1/Nの整数倍となり、かつ、各状態ベクトルχ(i)の重みの合計が1となるように各状態ベクトルχ(i)の重みを量子化する。そして、重みが0の状態ベクトルを削除し、重みがL/N(L>2)倍の状態ベクトルを複製してL-1個の状態ベクトルを生成する。そして、削除しなかった重みが1/N以上の状態ベクトルと、複製して生成した状態ベクトルとを新たなN個の状態ベクトルχ(i)とする。
以上、カメラ状態校正部2が行うカメラ状態校正処理について説明した。
なお、以上のカメラ状態校正処理のステップ406は、制御部5が車両状態センサ6を用いて算出した自動車の挙動と自動車の所定のダイナミクスモデルより推定される、(rx, ry, rz, w, dy, da)の前回各状態ベクトルχ(i)を作成してから後の変動量に適当なホワイトノイズを加えた値を、各状態ベクトルχ(i)の(rx, ry, rz, w, dy, da)の各要素に各々加えることにより、各状態ベクトルχ(i)を更新させる処理としてもよい。ただし、(tx, ty, tz)を固定値としない場合には、各状態ベクトルχ(i)の(tx, ty, tz, rx, ry, rz, w, dy, da)の各要素に、前回各状態ベクトルχ(i)を作成してから後の変動量に適当なホワイトノイズを加えた値を各々加えることにより、各状態ベクトルχ(i)を変動させるようにする。
また、以上のカメラ状態校正処理は、処理を開始してから、ステップ404からステップ416のステップを所定回数繰り返すまでは、俯瞰画像生成部3にカメラ状態ベクトルを出力しないように構成してもよい。または、ステップ414で生成されたN個の状態ベクトルχ(i)の分散や標準偏差が所定のしきい値を下回っていない場合には、俯瞰画像生成部3にカメラ1の位置、姿勢を表すカメラ状態ベクトルを出力しないように構成してもよい。
このように本実施形態によれば、カメラ1の前記自動車の基準点に対する位置と、前記カメラ1の姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとの状態によって、前記カメラ1に写り込むレーンマークの形態が一義的に定まることを利用して、これら状態をパーティクルとし、パーティクルが真である場合に前記カメラ1で撮影した画像に含まれることになるレーンマークの画像中の形態とカメラ1で撮影した画像に含まれるレーンマークの形態との整合度を重みとしてパーティクルフィルタを適用することにより、自動車に搭載されるカメラ1の位置や姿勢等の配置を求めることができる。よって、レーザ装置等の特段の装置を必要としない簡便な構成において、自動車に搭載されるカメラ1の位置や姿勢等の配置を表す配置情報を校正することができる。
Claims (20)
- 自動車に搭載される車載装置であって、
前記自動車周辺を撮影するカメラと、
前記カメラの配置を表す配置情報を校正する校正部とを有し、
前記校正部は、
前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリング部と、
前記サンプリング部によってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新部と、
前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出部と、
前記重み算出部が重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成部とを有し、
前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報が表す前記カメラの配置は、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢との少なくとも一方を含むことを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記重み算出部は、前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中のエッジの位置に対応する、前記カメラで撮影した画像中の位置におけるエッジの有無に応じて、前記整合度を算出することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記自動車の走行状態を検出する走行状態検出部を備え、
前記更新部は、前記ダイナミクスモデルと前記走行状態検出部が検出した走行状態とに応じて、前記サンプリング部によってサンプリングされたN個の状態ベクトルを更新することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記カメラで撮影した画像に対して、前記校正部で生成された前記配置情報に基づく視点変換を施して、前記自動車周辺を上空から観察したようすを表す俯瞰画像を生成し表示する俯瞰画像表示部を有することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、前記更新部によって更新されたN個の状態ベクトルのうちの重みが小さい状態ベクトルを消去し、重みが大きい状態ベクトルを複製することにより、前記新たなN個の状態ベクトルをサンプリングすることを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記重み算出部が算出した重みが最大となる状態ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記重み算出部が算出した重みが最大となる状態ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記サンプリング部が所定回数のサンプリング処理を終了するまで、前記配置情報の生成を行わないことを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記配置情報生成部は、前記サンプリング部がサンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となるまで、前記配置情報の生成を行わないことを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記サンプリング部は、所定回数の前記サンプリング処理を終了したならば、前記サンプリング処理を終了することを特徴とする車載装置。 - 請求項1記載の車載装置であって、
前記サンプリング部は、サンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となったならば、前記サンプリング処理を終了することを特徴とする車載装置。 - 前記自動車周辺を撮影するカメラを備えた自動車に搭載されるコンピュータによって読みとられ実行されるコンピュータプログラムであって、
当該コンピュータプログラムは、前記コンピュータを、
前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリング部と、
前記サンプリング部によってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新部と、
前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出部と、
前記重み算出部が重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成部として機能させ、かつ、
前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とするコンピュータプログラム。 - 請求項17記載のコンピュータプログラムであって、
前記配置情報が表す前記カメラの配置は、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢との少なくとも一方を含むことを特徴とするコンピュータプログラム。 - 請求項17記載のコンピュータプログラムであって、
前記重み算出部は、前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中のエッジの位置に対応する、前記カメラで撮影した画像中の位置におけるエッジの有無に応じて、前記整合度を算出することを特徴とするコンピュータプログラム。 - 前記自動車周辺を撮影するカメラを備えた自動車に搭載される車載装置において、前記カメラの配置を表す配置情報を校正するカメラの配置情報の校正方法であって、
前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリングステップと、
前記サンプリングステップによってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新ステップと、
前記更新ステップによって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出ステップと、
前記重み算出ステップが重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成ステップとを有し、
前記サンプリングステップは、2回目以降のサンプリング処理では、前記重み算出ステップで算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とするカメラの配置情報の校正方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008142148A JP5133783B2 (ja) | 2008-05-30 | 2008-05-30 | 車載装置 |
US12/431,263 US8350909B2 (en) | 2008-05-30 | 2009-04-28 | Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008142148A JP5133783B2 (ja) | 2008-05-30 | 2008-05-30 | 車載装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009290645A JP2009290645A (ja) | 2009-12-10 |
JP5133783B2 true JP5133783B2 (ja) | 2013-01-30 |
Family
ID=41379291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008142148A Active JP5133783B2 (ja) | 2008-05-30 | 2008-05-30 | 車載装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8350909B2 (ja) |
JP (1) | JP5133783B2 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5068779B2 (ja) * | 2009-02-27 | 2012-11-07 | 現代自動車株式会社 | 車両周囲俯瞰画像表示装置及び方法 |
JP5113867B2 (ja) * | 2010-03-26 | 2013-01-09 | 本田技研工業株式会社 | 車両周辺監視装置 |
US9090263B2 (en) * | 2010-07-20 | 2015-07-28 | GM Global Technology Operations LLC | Lane fusion system using forward-view and rear-view cameras |
US8452771B2 (en) | 2011-01-03 | 2013-05-28 | Honda Motor Co., Ltd. | Method for differentiating traffic data obtained from probe vehicles |
EP2581268B2 (en) * | 2011-10-13 | 2019-09-11 | Harman Becker Automotive Systems GmbH | Method of controlling an optical output device for displaying a vehicle surround view and vehicle surround view system |
US8926454B2 (en) | 2012-05-07 | 2015-01-06 | Karsten Manufacturing Corporation | Fitting systems for golf equipment using camera image for measurement of individual, and related methods |
JP5904917B2 (ja) * | 2012-09-20 | 2016-04-20 | 三菱電機株式会社 | 移動体搭載端末の端末位置及び方向検知装置 |
JP2014110028A (ja) * | 2012-12-04 | 2014-06-12 | Sony Corp | 画像処理装置、画像処理方法およびプログラム |
KR102114386B1 (ko) * | 2013-11-21 | 2020-05-22 | 현대모비스 주식회사 | 차량용 미러리스 시스템 |
KR101558786B1 (ko) * | 2014-06-30 | 2015-10-07 | 현대자동차주식회사 | 차량의 주행차로 인식장치 및 방법 |
DE102015209186A1 (de) | 2015-05-20 | 2016-12-08 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens |
JP6565769B2 (ja) * | 2016-04-03 | 2019-08-28 | 株式会社デンソー | 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム |
KR101847113B1 (ko) * | 2016-05-25 | 2018-05-28 | 광주과학기술원 | 이미지를 이용하는 카메라의 방향과 관련한 정보 추정장치 및 추정방법 |
CN106657910B (zh) * | 2016-12-22 | 2018-10-09 | 国网浙江省电力公司杭州供电公司 | 一种电力变电站的全景视频监控方法 |
DE102020107016B4 (de) * | 2020-03-13 | 2024-06-20 | Mekra Lang Gmbh & Co. Kg | Verfahren zum Verifizieren eines indirekten Sichtsystems sowie indirektes Sichtsystem eines Fahrzeugs |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3776514B2 (ja) * | 1996-07-08 | 2006-05-17 | 株式会社日立製作所 | カメラ揺れ補正方法および画像監視システム |
JP3900415B2 (ja) | 2002-03-12 | 2007-04-04 | 株式会社デンソー | 車両周辺画像処理装置,プログラム及び記録媒体 |
JP4568223B2 (ja) | 2005-12-21 | 2010-10-27 | 株式会社デンソー | 推定装置 |
RU2010122599A (ru) * | 2007-12-03 | 2012-01-10 | Панасоник Корпорэйшн (Jp) | Устройство обработки изображений, устройство фотосъемки, устройство воспроизведения, интегральная схема и способ обработки изображений |
-
2008
- 2008-05-30 JP JP2008142148A patent/JP5133783B2/ja active Active
-
2009
- 2009-04-28 US US12/431,263 patent/US8350909B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US8350909B2 (en) | 2013-01-08 |
US20090295922A1 (en) | 2009-12-03 |
JP2009290645A (ja) | 2009-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5133783B2 (ja) | 車載装置 | |
US10620000B2 (en) | Calibration apparatus, calibration method, and calibration program | |
EP2485203B1 (en) | Vehicle-surroundings monitoring device | |
JP4193886B2 (ja) | 画像表示装置 | |
JP6003673B2 (ja) | 3次元位置推定装置、車両制御装置、および3次元位置推定方法 | |
JP2007263669A (ja) | 3次元座標取得装置 | |
JP2006252473A (ja) | 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム | |
KR20160119444A (ko) | 교정 방법, 교정 장치 및 컴퓨터 프로그램 제품 | |
JP6701532B2 (ja) | 画像処理装置および画像処理方法 | |
JP2006268076A (ja) | 運転支援システム | |
EP3113147A1 (en) | Local location computation device and local location computation method | |
JP6151535B2 (ja) | パラメータ取得装置、パラメータ取得方法及びプログラム | |
JP2003178309A (ja) | 移動量推定装置 | |
JP2008085710A (ja) | 運転支援システム | |
JP2018157496A (ja) | キャリブレーション装置 | |
CN109345591A (zh) | 一种车辆自身姿态检测方法和装置 | |
WO2020105499A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP7137464B2 (ja) | カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム | |
JP2013002883A (ja) | 測距装置 | |
CN112129313A (zh) | 基于惯性测量单元的ar导航补偿*** | |
JP5695405B2 (ja) | 車両用画像処理装置および車両用画像処理方法 | |
JP6768554B2 (ja) | キャリブレーション装置 | |
JP2021193340A (ja) | 自己位置推定装置 | |
JP2021148730A (ja) | 位置推定方法、位置推定装置、及び、プログラム | |
JP7019431B2 (ja) | カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121030 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151116 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 5133783 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |