JP5133783B2 - 車載装置 - Google Patents

車載装置 Download PDF

Info

Publication number
JP5133783B2
JP5133783B2 JP2008142148A JP2008142148A JP5133783B2 JP 5133783 B2 JP5133783 B2 JP 5133783B2 JP 2008142148 A JP2008142148 A JP 2008142148A JP 2008142148 A JP2008142148 A JP 2008142148A JP 5133783 B2 JP5133783 B2 JP 5133783B2
Authority
JP
Japan
Prior art keywords
camera
unit
state
sampling
state vectors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008142148A
Other languages
English (en)
Other versions
JP2009290645A (ja
Inventor
大志 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2008142148A priority Critical patent/JP5133783B2/ja
Priority to US12/431,263 priority patent/US8350909B2/en
Publication of JP2009290645A publication Critical patent/JP2009290645A/ja
Application granted granted Critical
Publication of JP5133783B2 publication Critical patent/JP5133783B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、自動車に搭載されたカメラの位置や姿勢などの配置を表す配置情報を校正する技術に関するものである。
自動車に搭載されたカメラの位置や姿勢などの配置を表す配置情報を校正する技術としては、自動車周辺をカメラによって撮影した画像を、自動車上方の視点から自動車周辺を撮影した場合に得られる画像に視点変換して合成することにより、自動車周辺を俯瞰的に表す俯瞰画像を生成し表示する装置において、自動車に搭載したレーザ装置から路面に投影したレーザ光による像をカメラで撮影し、撮影した像よりカメラの俯角を校正する技術が知られている(たとえば、特許文献1)。
特開2003-274394号公報
さて、前記特許文献1記載のカメラの俯角の変化を校正する技術によれば、自動車に、カメラの他にレーザ装置を別途備えなければならないという問題がある。
そこで、本発明は、自動車に搭載されるカメラの位置や姿勢等の配置を表す配置情報を、より簡便な構成において校正することを課題とする。
前記課題達成のために、本発明は、自動車に搭載される車載装置に、前記自動車周辺を撮影するカメラと、前記カメラの配置を表す配置情報を校正する校正部とを備えると共に、前記校正部を、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリング部と、前記サンプリング部によってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新部と、前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出部と、前記重み算出部が重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成部とより構成したものである。ただし、前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングするものである。また、前記配置情報が表す前記カメラの配置は、たとえば、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢との少なくとも一方を含むものである。
このような車載装置によれば、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとの状態によって、前記カメラに写り込むレーンマークの形態が一義的に定まることを利用して、これら状態をパーティクルとし、パーティクルが真である場合に前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態とカメラで撮影した画像に含まれるレーンマークの形態との整合度を重みとしてパーティクルフィルタを適用することにより、自動車に搭載されるカメラの位置や姿勢等の配置を求めることができるようになる。よって、レーザ装置等の特段の装置を必要としない簡便な構成において、自動車に搭載されるカメラの位置や姿勢等の配置を表す配置情報を校正することができる。
また、以上の車載装置の前記重み算出部における前記整合度の算定は、簡易的に、状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中のエッジの位置に対応する、前記カメラで撮影した画像中の位置におけるエッジの有無に応じて、前記整合度を算出することにより行うようにしてもよい。
また、前記車載装置に、前記自動車の走行状態を検出する走行状態検出部を備え、前記更新部において、前記ダイナミクスモデルと前記走行状態検出部が検出した走行状態に応じて、前記サンプリング部によってサンプリングされたN個の状態ベクトルを更新するようにすることも、状態ベクトルを真の状態に近似するように更新する上で好ましい。
なお、これらの車載装置の前記校正部で生成された前記配置情報は、カメラで撮影した画像を用いる各種処理に利用することができる。すなわち、たとえば、車載装置に、前記自動車周辺を上空から観察したようすを表す俯瞰画像を生成し表示する俯瞰画像表示部を設け、当該俯瞰画像表示部において、前記カメラで撮影した画像に対して、前記校正部で生成された前記配置情報に基づく視点変換を施して、前記俯瞰画像を生成するようにすれば、精度良く周辺を俯瞰的に表す俯瞰画像を生成することができる。
また、車載装置の前記サンプリング部における2回目以降のサンプリング処理は、より詳細には、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、前記更新部によって更新されたN個の状態ベクトルのうちの重みが小さい状態ベクトルを消去し、重みが大きい状態ベクトルを複製することにより、前記新たなN個の状態ベクトルをサンプリングすることにより行うようにしてもよい。
また、以上のような車載装置の前記配置情報生成部における、前記カメラの現在の配置の推定は、より詳細には、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定したり、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定したり、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定したり、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定したり、前記重み算出部が算出した重みが最大となる状態ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定したり、前記重み算出部が算出した重みが最大となる状態ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することにより行うことができる。
また、以上のような車載装置は、生成する前記配置情報の信頼度を確保するために、前記配置情報生成部において、前記サンプリング部が所定回数のサンプリング処理を終了するまで、前記配置情報の生成を行わないようにしたり、前記サンプリング部がサンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となるまで、前記配置情報の生成を行わないように構成してもよい。
また、以上のような車載装置において、静的な状況で前記配置情報の校正を行う場合には、前記サンプリング部において、所定回数の前記サンプリング処理を終了したならば、前記サンプリング処理を終了するように構成したり、前記サンプリング部において、サンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となったならば、前記サンプリング処理を終了するように構成してもよい。
以上のように、本発明によれば、自動車に搭載されるカメラの位置や姿勢等の配置を表す配置情報を、より簡便な構成において校正することができる。
以下、本発明の実施形態について説明する。
図1aに、本実施形態に係る周辺監視装置の構成を示す。
図示するように、周辺監視装置は、カメラ1、カメラ状態校正部2、俯瞰画像生成部3、表示装置4、制御部5、車両状態センサ6を備えている。
ただし、周辺監視装置は、ハードウエアとしては、マイクロプロセッサやメモリやその他の周辺装置を備えたコンピュータを用いて構成することもでき、この場合、カメラ状態校正部2や俯瞰画像生成部3は、マイクロプロセッサが所定のコンピュータプログラムを実行することにより実現されるものであってよい。
ここで、車両状態センサ6は、自動車の車速やパーキングブレーキの制動状態や舵角や角速度などの、自動車の各種状態を検出周辺監視装置するセンサである。
また、カメラ1は、図1bに示すように、車両後端に配置され、たとえば、図2aのように自動車が道路を走行中には、図2bに示すように自動車後方のレーンマーク(車線境界線)を含む映像を撮影する。
そして、俯瞰画像生成部3は、制御部5から俯瞰画像の生成及び表示を指示されたときに、カメラ1で撮影した自動車後方の画像に視点変換を施して、自動車上方の視点から自動車後方を撮影した場合に得られる画像である俯瞰画像を生成し、表示装置4に表示する。
すなわち、俯瞰画像生成部3は、たとえば、図3aに示すように自動車が駐車場内で後退しているときに制御部5からら俯瞰画像の生成及び表示を指示されたならば、カメラ1が撮影した図3bに示すような自動車後方の画像に視点変換を施して、図3cに示すような俯瞰画像を生成し、生成した俯瞰画像に、図3dに示すように、予め用意しておいた自車後端を表す図形301を合成して、表示装置4に表示する。
ここで、このような俯瞰画像生成部3における、カメラ1で撮影した画像から俯瞰画像への視点変換は、カメラ状態校正部2から通知されるカメラ1の位置、姿勢に基づいて求まる、カメラ1で撮影した画像中の各位置と、自動車周辺の地面上の各位置との対応に従って行う。
そして、カメラ状態校正部2は、各時点におけるカメラ1の位置、姿勢を算出し、俯瞰画像生成部3に通知する。
以下、このようなカメラ1の位置、姿勢の通知を行うカメラ状態校正部2の動作について説明する。
さて、カメラ状態校正部2は、カメラ1の位置、姿勢を、パーティカルフィルタを用いて算出するカメラ状態校正処理を行う。
図4に、このカメラ状態校正処理の手順を示す。
図示するように、この処理では、まず、i=1からi=NまでのN個の状態ベクトルχ(i)=(tx, ty, tz, rx, ry, rz, w, dy, da)を無作為に作成する(ステップ402)。
ここで、図5a、bに示すように、自動車の左右前後方向中心の地面高さの位置を原点500とし、自動車の前後方向軸をx軸、自動車の左右方向軸をy軸、高さ方向軸をz軸とする座標系を、座標系XYZとする。
そして、txは座標系XYZにおけるカメラ1のx座標、tyは座標系XYZにおけるカメラ1のy座標、 tzは座標系XYZにおけるカメラ1のz座標とし、これらの座標の値は、自動車へのカメラ1の取付位置によって定まる既知の固定値とする。また、図5cに示すように、rxは、カメラ1の撮影軸(カメラ1の撮影中心方向)510の座標系XYZにおけるx軸回りの回転量(ローリング量)、図5dに示すように、ryは、カメラ1の撮影軸510の座標系XYZにおけるy軸回りの回転量(ピッチング量)、図5eに示すように、rzは、カメラ1の撮影軸510の座標系XYZにおけるz軸回りの回転量(ヨーイング量)とする。
また、図5fに示すように、wは、自動車の左右のレーンマーク(車線境界線)520の間隔(車線幅)、dyは、自動車の左右のレーンマーク520の左右方向中央(車線の中央)からの座標系XYZの原点500の左右方向の変位量、 daは、自動車の左右のレーンマーク520の延伸方向(車線方向)と座標系XYZのx軸(自動車の前後方向)とが水平平面上で成す角とする。
そして、(tx, ty, tz)の要素の値として上述した既知の固定値を有し、(rx, ry, rz, w, dy, da)の各々の要素の値として、予め定めたrx, ry, rz, w, dy, daの各々が取り得る範囲中の任意の値を有する各状態ベクトルχ=(tx, ty, tz, rx, ry, rz, w, dy, da)を元とするベクトル空間をベクトル空間X(χ∈X)として、ステップ402では、ベクトル空間Xから、N個の状態ベクトルχを無作為に抽出して、N個の状態ベクトルχ(i)とする。ただし、(tx, ty, tz)の要素の値を固定値としないようにしてもよく、この場合には、(tx, ty, tz, rx, ry, rz, w, dy, da)の各々の要素の値として、予め定めたtx, ty, tz, rx, ry, rz, w, dy, daの各々が取り得る範囲中の任意の値を有する各状態ベクトルχ=(tx, ty, tz, rx, ry, rz, w, dy, da)を元とするベクトル空間をベクトル空間X(χ∈X)として、ステップ402では、ベクトル空間Xから、N個の状態ベクトルχを無作為に抽出して、N個の状態ベクトルχ(i)とする。
さて、このようにしてN個の状態ベクトルχ(i)を作成したならば(ステップ402)、次に、各状態ベクトルχ(i)の重みを1/Nに設定する(ステップ404)。
そして、各状態ベクトルχ(i)に所定のダイナミクスモデルに従って更新する(ステップ406)。ここでは、簡易的に、各状態ベクトルχ(i)の(rx, ry, rz, w, dy, da)の各要素に所定のホワイトノイズを各々加えることにより、各状態ベクトルχ(i)を更新させるものとする。ただし、(tx, ty, tz)を固定値としない場合には、各状態ベクトルχ(i)の(tx, ty, tz, rx, ry, rz, w, dy, da)の各要素にホワイトノイズを各々加えることにより、各状態ベクトルχ(i)を変動させるものとする。
そして、更新した各状態ベクトルχ(i)についてのレーンマークエッジ位置を参照状態ベクトルχr(i)として生成する(ステップ408)。
ここで、ある状態ベクトルχ(k)についてのレーンマークエッジ位置とは、(tx, ty, tz, rx, ry, rz, w, dy, da)の各状態の値が、状態ベクトルχ(k)によって示される値であるときに、カメラ1によって撮影される画像中に含まれることになるレーンマークのエッジの位置を表すものであり、次のようにして求めることができる。
すなわち、まず、状態ベクトルχ(k)によって示される(w, dy, da)より、座標系XYZにおける自動車の左右のレーンマークのエッジの配置を求める。
次に、求めたレーンマークのエッジの配置より、レーンマークのエッジの各位置が写り込む、カメラ1の撮影画像上の座標(up, vp)を、下式1によって求める。
但し、下式1において、k1, k2はカメラ1のレンズの半径方向の歪み係数、p1, p2はカメラ1のレンズの円周方向の歪み係数 fx, fyはカメラ1の焦点距離 cx, cyはカメラ1のレンズの画像中の光学的な中心であり、各々使用するカメラ1、レンズに対して予め定まる。
そして、このようにして、N個の状態ベクトルχ(i)に対して、N個の参照状態ベクトルχr(i)を求めたならば(ステップ408)、カメラ1が撮影した画像中のレーンマークのエッジの位置を観測ベクトルzとして、各参照状態ベクトルχr(i)と観測ベクトルzとの整合度を、状態ベクトルχ(i)の尤度として算出する。
すなわち、いま、たとえば、観測ベクトルzとして設定されたカメラ1で撮影された画像が図6aに示すものであり、i=1からi=nの各参照状態ベクトルχr(i)として算出されたレーンマークのエッジ位置が、図6b1、b2...bnに示すものであったとすると、ステップ408では、図6c1、c2...cnに示すように、観測ベクトルzが示すカメラ撮影画像600中のレーンマークのエッジ601と、各参照状態ベクトルχr(i)が位置を示すレーンマークのエッジ610とを比較し、両者のエッジが近似しているものほど、尤度が高くなるように、各状態ベクトルχ(i)の尤度を算出する。
なお、観測ベクトルzが示すカメラ撮影画像中のレーンマークのエッジと、各参照状態ベクトルχr(i)が位置を示すレーンマークのエッジとの比較による尤度の算出は、簡易的には、カメラ撮影画像中の、参照状態ベクトルχr(i)が位置を示すレーンマークのエッジの位置に、任意のエッジが存在するかどうかに応じて行うようにしてもよい。
すなわち、図6dに拡大して示すように、観測ベクトルzが示すカメラ撮影画像600の、参照状態ベクトルχr(i)が示すレーンマークのエッジ610上の各位置周辺611における、参照状態ベクトルχr(i)が示すレーンマークのエッジ610の延伸方向と垂直な方向612の輝度変化の勾配の大きさを求め、求めた輝度変化の勾配の大きさの平均値を、尤度として用いるようにしてもよい。
そして、各状態ベクトルχ(i)について算出した尤度に応じてベイズの定理に従って定まる事後確率を、各状態ベクトルχ(i)の重みとして設定する(ステップ412)。ここでは、各状態ベクトルχ(i)の重みの合計が1となり、かつ、算出した尤度が大きいものほど重みが大きくなるように各状態ベクトルχ(i)の重みを変更する。
そして、N個の状態ベクトルχ(i)の、ステップ412で算出した重みを重みとして用いた、重み付き平均状態ベクトルを俯瞰画像生成部3にカメラ1の位置、姿勢を表すカメラ状態ベクトルとして出力する(ステップ414)。
なお、カメラ状態ベクトルを受け取った俯瞰画像生成部3は、カメラ状態ベクトルの要素(tx, ty, tz, rx, ry, rz)をカメラ1の位置、姿勢として用いて前述のようにカメラ1の撮影した画像に視点変換を施して俯瞰画像を生成し、表示装置4に表示する。
また、次に、N個の状態ベクトルχ(i)の重みに応じて、新たなN個の状態ベクトルχ(i)を生成(リサンプリング)する(ステップ416)。このステップ416では、重みが小さい状態ベクトルχを消去し、重みが大きい状態ベクトルを複製して新たなN個の状態ベクトルχ(i)を生成する。すなわち、たとえば、まず、各状態ベクトルχ(i)の重みを、各重みが0または1/Nの整数倍となり、かつ、各状態ベクトルχ(i)の重みの合計が1となるように各状態ベクトルχ(i)の重みを量子化する。そして、重みが0の状態ベクトルを削除し、重みがL/N(L>2)倍の状態ベクトルを複製してL-1個の状態ベクトルを生成する。そして、削除しなかった重みが1/N以上の状態ベクトルと、複製して生成した状態ベクトルとを新たなN個の状態ベクトルχ(i)とする。
そして、ステップ402からの処理に戻る。
以上、カメラ状態校正部2が行うカメラ状態校正処理について説明した。
なお、以上のカメラ状態校正処理のステップ406は、制御部5が車両状態センサ6を用いて算出した自動車の挙動と自動車の所定のダイナミクスモデルより推定される、(rx, ry, rz, w, dy, da)の前回各状態ベクトルχ(i)を作成してから後の変動量に適当なホワイトノイズを加えた値を、各状態ベクトルχ(i)の(rx, ry, rz, w, dy, da)の各要素に各々加えることにより、各状態ベクトルχ(i)を更新させる処理としてもよい。ただし、(tx, ty, tz)を固定値としない場合には、各状態ベクトルχ(i)の(tx, ty, tz, rx, ry, rz, w, dy, da)の各要素に、前回各状態ベクトルχ(i)を作成してから後の変動量に適当なホワイトノイズを加えた値を各々加えることにより、各状態ベクトルχ(i)を変動させるようにする。
また、以上のカメラ状態校正処理のステップ414は、生成したN個の状態ベクトルχ(i)の重み付き平均状態ベクトルの最近所定時間長の時間平均を俯瞰画像生成部3にカメラ状態ベクトルとして出力する処理としてもよい。または、当該ステップ414は、ステップ412で設定した各状態ベクトルχ(i)のうちの重みが最大値となった状態ベクトルや、その最近所定時間長の時間平均を俯瞰画像生成部3にカメラ状態ベクトルとして出力する処理としてもよい。または、当該ステップ414は、ステップ412で設定した各状態ベクトルχ(i)の重み(事後確率)に基づいて、ベクトル空間X上での事後確率分布を内挿法などにより推定し、事後確率がピーク値をとる状態ベクトルや、その最近所定時間長の時間平均を俯瞰画像生成部3にカメラ状態ベクトルとして出力する処理としてもよい。
または、当該ステップ414に代えて、ステップ416でリサンプリングしたN個の状態ベクトルχ(i)の平均状態ベクトル、または、その最近所定時間長の時間平均を俯瞰画像生成部3にカメラ状態ベクトルとして出力する処理を設けるようにしてもよい。
また、以上のカメラ状態校正処理は、処理を開始してから、ステップ404からステップ416のステップを所定回数繰り返すまでは、俯瞰画像生成部3にカメラ状態ベクトルを出力しないように構成してもよい。または、ステップ414で生成されたN個の状態ベクトルχ(i)の分散や標準偏差が所定のしきい値を下回っていない場合には、俯瞰画像生成部3にカメラ1の位置、姿勢を表すカメラ状態ベクトルを出力しないように構成してもよい。
または、以上のカメラ状態校正処理を自動車が静的な状態にあるときに行う場合などには、カメラ状態校正処理は、ステップ404からステップ416のステップを所定回数繰り返したときや、ステップ414で生成されたN個の状態ベクトルχ(i)の分散や標準偏差が所定のしきい値を下回ったときに、その処理を終了するものとしてもよい。
以上、本発明の実施形態について説明した。
このように本実施形態によれば、カメラ1の前記自動車の基準点に対する位置と、前記カメラ1の姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとの状態によって、前記カメラ1に写り込むレーンマークの形態が一義的に定まることを利用して、これら状態をパーティクルとし、パーティクルが真である場合に前記カメラ1で撮影した画像に含まれることになるレーンマークの画像中の形態とカメラ1で撮影した画像に含まれるレーンマークの形態との整合度を重みとしてパーティクルフィルタを適用することにより、自動車に搭載されるカメラ1の位置や姿勢等の配置を求めることができる。よって、レーザ装置等の特段の装置を必要としない簡便な構成において、自動車に搭載されるカメラ1の位置や姿勢等の配置を表す配置情報を校正することができる。
なお、以上では、カメラ状態校正部2で算出したカメラ状態ベクトルを、俯瞰画像生成部3における俯瞰画像生成のための視点変換に用いる場合について説明したが、カメラ状態校正部2で算出したカメラ状態ベクトルは、各種処理においてカメラ1の位置、姿勢を特定するために用いることができる。すなわち、たとえば、カメラ1で撮影した画像に基づいて周辺障害物を検出する場合に、カメラ状態校正部2で算出したカメラ状態ベクトルが表すカメラ1の位置、姿勢を用いて、カメラ1が撮影した画像中に写り込んだ周辺障害物の位置や方向を算出するなどすることができる。
本発明の実施形態に係る周辺監視装置の構成を示すブロック図である。 本発明の実施形態においてカメラが撮影する画像を示す図である。 本発明の実施形態において表示する俯瞰画像を示す図である。 本発明の実施形態に係るカメラ状態校正処理を示すフローチャートである。 本発明の実施形態で用いる状態ベクトルの各要素を示す図である。 本発明の実施家形態に係るカメラ状態校正処理の処理例を示す図である。
符号の説明
1…カメラ、2…カメラ状態校正部、3…俯瞰画像生成部、4…表示装置、5…制御部、6…車両状態センサ。

Claims (20)

  1. 自動車に搭載される車載装置であって、
    前記自動車周辺を撮影するカメラと、
    前記カメラの配置を表す配置情報を校正する校正部とを有し、
    前記校正部は、
    前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリング部と、
    前記サンプリング部によってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新部と、
    前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出部と、
    前記重み算出部が重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成部とを有し、
    前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とする車載装置。
  2. 請求項1記載の車載装置であって、
    前記配置情報が表す前記カメラの配置は、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢との少なくとも一方を含むことを特徴とする車載装置。
  3. 請求項1記載の車載装置であって、
    前記重み算出部は、前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中のエッジの位置に対応する、前記カメラで撮影した画像中の位置におけるエッジの有無に応じて、前記整合度を算出することを特徴とする車載装置。
  4. 請求項1記載の車載装置であって、
    前記自動車の走行状態を検出する走行状態検出部を備え、
    前記更新部は、前記ダイナミクスモデルと前記走行状態検出部が検出した走行状態とに応じて、前記サンプリング部によってサンプリングされたN個の状態ベクトルを更新することを特徴とする車載装置。
  5. 請求項1記載の車載装置であって、
    前記カメラで撮影した画像に対して、前記校正部で生成された前記配置情報に基づく視点変換を施して、前記自動車周辺を上空から観察したようすを表す俯瞰画像を生成し表示する俯瞰画像表示部を有することを特徴とする車載装置。
  6. 請求項1記載の車載装置であって、
    前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、前記更新部によって更新されたN個の状態ベクトルのうちの重みが小さい状態ベクトルを消去し、重みが大きい状態ベクトルを複製することにより、前記新たなN個の状態ベクトルをサンプリングすることを特徴とする車載装置。
  7. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  8. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記重み算出部が算出した重みを用いた、前記N個の状態ベクトルの重み付き平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  9. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  10. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記サンプリング部によってサンプリングされたN個の状態ベクトルの平均ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  11. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記重み算出部が算出した重みが最大となる状態ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  12. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記重み算出部が算出した重みが最大となる状態ベクトルの、時間平均ベクトルが表す前記カメラの配置を、前記カメラの現在の配置として推定することを特徴とする車載装置。
  13. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記サンプリング部が所定回数のサンプリング処理を終了するまで、前記配置情報の生成を行わないことを特徴とする車載装置。
  14. 請求項1記載の車載装置であって、
    前記配置情報生成部は、前記サンプリング部がサンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となるまで、前記配置情報の生成を行わないことを特徴とする車載装置。
  15. 請求項1記載の車載装置であって、
    前記サンプリング部は、所定回数の前記サンプリング処理を終了したならば、前記サンプリング処理を終了することを特徴とする車載装置。
  16. 請求項1記載の車載装置であって、
    前記サンプリング部は、サンプリングしたN個の状態ベクトルの分散もしくは標準偏差が所定のしきい値以下となったならば、前記サンプリング処理を終了することを特徴とする車載装置。
  17. 前記自動車周辺を撮影するカメラを備えた自動車に搭載されるコンピュータによって読みとられ実行されるコンピュータプログラムであって、
    当該コンピュータプログラムは、前記コンピュータを、
    前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリング部と、
    前記サンプリング部によってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新部と、
    前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出部と、
    前記重み算出部が重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成部として機能させ、かつ、
    前記サンプリング部は、2回目以降のサンプリング処理では、前記重み算出部が算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とするコンピュータプログラム。
  18. 請求項17記載のコンピュータプログラムであって、
    前記配置情報が表す前記カメラの配置は、前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢との少なくとも一方を含むことを特徴とするコンピュータプログラム。
  19. 請求項17記載のコンピュータプログラムであって、
    前記重み算出部は、前記更新部によって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中のエッジの位置に対応する、前記カメラで撮影した画像中の位置におけるエッジの有無に応じて、前記整合度を算出することを特徴とするコンピュータプログラム。
  20. 前記自動車周辺を撮影するカメラを備えた自動車に搭載される車載装置において、前記カメラの配置を表す配置情報を校正するカメラの配置情報の校正方法であって、
    前記カメラの前記自動車の基準点に対する位置と、前記カメラの姿勢と、前記自動車の位置する車線の幅と、前記車線の幅方向の前記自動車の位置と、前記自動車の位置する車線の方向に対する当該自動車の向きとを要素とする状態ベクトルをN個サンプリングするサンプリング処理を繰り返すサンプリングステップと、
    前記サンプリングステップによってサンプリングされたN個の状態ベクトルを所定のダイナミクスモデルに基づいた量、もしくは、ランダムな量更新する更新ステップと、
    前記更新ステップによって更新されたN個の状態ベクトルの各々について、当該状態ベクトルの各要素の値が真であった場合に、前記カメラで撮影した画像に含まれることになるレーンマークの画像中の形態を算定して、算定したレーンマークの形態と、前記カメラで撮影した画像中のレーンマークの形態との整合度を、当該状態ベクトルの重みとして算出する重み算出ステップと、
    前記重み算出ステップが重みを算出した前記N個の状態ベクトル及び当該N個の状態ベクトルの重み、もしくは、前記サンプリング部によってサンプリングされたN個の状態ベクトルに基づいて、前記カメラの現在の配置を推定し、推定した配置を表す前記配置情報を生成する配置情報生成ステップとを有し、
    前記サンプリングステップは、2回目以降のサンプリング処理では、前記重み算出ステップで算出した前記N個の状態ベクトルの重みに基づいて、新たな前記N個の状態ベクトルをサンプリングすることを特徴とするカメラの配置情報の校正方法。
JP2008142148A 2008-05-30 2008-05-30 車載装置 Active JP5133783B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008142148A JP5133783B2 (ja) 2008-05-30 2008-05-30 車載装置
US12/431,263 US8350909B2 (en) 2008-05-30 2009-04-28 Method and in-vehicle device for correcting alignment information representative of the alignment of an in-vehicle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008142148A JP5133783B2 (ja) 2008-05-30 2008-05-30 車載装置

Publications (2)

Publication Number Publication Date
JP2009290645A JP2009290645A (ja) 2009-12-10
JP5133783B2 true JP5133783B2 (ja) 2013-01-30

Family

ID=41379291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008142148A Active JP5133783B2 (ja) 2008-05-30 2008-05-30 車載装置

Country Status (2)

Country Link
US (1) US8350909B2 (ja)
JP (1) JP5133783B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5113867B2 (ja) * 2010-03-26 2013-01-09 本田技研工業株式会社 車両周辺監視装置
US9090263B2 (en) * 2010-07-20 2015-07-28 GM Global Technology Operations LLC Lane fusion system using forward-view and rear-view cameras
US8452771B2 (en) 2011-01-03 2013-05-28 Honda Motor Co., Ltd. Method for differentiating traffic data obtained from probe vehicles
EP2581268B2 (en) * 2011-10-13 2019-09-11 Harman Becker Automotive Systems GmbH Method of controlling an optical output device for displaying a vehicle surround view and vehicle surround view system
US8926454B2 (en) 2012-05-07 2015-01-06 Karsten Manufacturing Corporation Fitting systems for golf equipment using camera image for measurement of individual, and related methods
JP5904917B2 (ja) * 2012-09-20 2016-04-20 三菱電機株式会社 移動体搭載端末の端末位置及び方向検知装置
JP2014110028A (ja) * 2012-12-04 2014-06-12 Sony Corp 画像処理装置、画像処理方法およびプログラム
KR102114386B1 (ko) * 2013-11-21 2020-05-22 현대모비스 주식회사 차량용 미러리스 시스템
KR101558786B1 (ko) * 2014-06-30 2015-10-07 현대자동차주식회사 차량의 주행차로 인식장치 및 방법
DE102015209186A1 (de) 2015-05-20 2016-12-08 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung einer Beschreibung eines Fahrstreifens
JP6565769B2 (ja) * 2016-04-03 2019-08-28 株式会社デンソー 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム
KR101847113B1 (ko) * 2016-05-25 2018-05-28 광주과학기술원 이미지를 이용하는 카메라의 방향과 관련한 정보 추정장치 및 추정방법
CN106657910B (zh) * 2016-12-22 2018-10-09 国网浙江省电力公司杭州供电公司 一种电力变电站的全景视频监控方法
DE102020107016B4 (de) * 2020-03-13 2024-06-20 Mekra Lang Gmbh & Co. Kg Verfahren zum Verifizieren eines indirekten Sichtsystems sowie indirektes Sichtsystem eines Fahrzeugs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3776514B2 (ja) * 1996-07-08 2006-05-17 株式会社日立製作所 カメラ揺れ補正方法および画像監視システム
JP3900415B2 (ja) 2002-03-12 2007-04-04 株式会社デンソー 車両周辺画像処理装置,プログラム及び記録媒体
JP4568223B2 (ja) 2005-12-21 2010-10-27 株式会社デンソー 推定装置
RU2010122599A (ru) * 2007-12-03 2012-01-10 Панасоник Корпорэйшн (Jp) Устройство обработки изображений, устройство фотосъемки, устройство воспроизведения, интегральная схема и способ обработки изображений

Also Published As

Publication number Publication date
US8350909B2 (en) 2013-01-08
US20090295922A1 (en) 2009-12-03
JP2009290645A (ja) 2009-12-10

Similar Documents

Publication Publication Date Title
JP5133783B2 (ja) 車載装置
US10620000B2 (en) Calibration apparatus, calibration method, and calibration program
EP2485203B1 (en) Vehicle-surroundings monitoring device
JP4193886B2 (ja) 画像表示装置
JP6003673B2 (ja) 3次元位置推定装置、車両制御装置、および3次元位置推定方法
JP2007263669A (ja) 3次元座標取得装置
JP2006252473A (ja) 障害物検出装置、キャリブレーション装置、キャリブレーション方法およびキャリブレーションプログラム
KR20160119444A (ko) 교정 방법, 교정 장치 및 컴퓨터 프로그램 제품
JP6701532B2 (ja) 画像処理装置および画像処理方法
JP2006268076A (ja) 運転支援システム
EP3113147A1 (en) Local location computation device and local location computation method
JP6151535B2 (ja) パラメータ取得装置、パラメータ取得方法及びプログラム
JP2003178309A (ja) 移動量推定装置
JP2008085710A (ja) 運転支援システム
JP2018157496A (ja) キャリブレーション装置
CN109345591A (zh) 一种车辆自身姿态检测方法和装置
WO2020105499A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP7137464B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
JP2013002883A (ja) 測距装置
CN112129313A (zh) 基于惯性测量单元的ar导航补偿***
JP5695405B2 (ja) 車両用画像処理装置および車両用画像処理方法
JP6768554B2 (ja) キャリブレーション装置
JP2021193340A (ja) 自己位置推定装置
JP2021148730A (ja) 位置推定方法、位置推定装置、及び、プログラム
JP7019431B2 (ja) カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151116

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5133783

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150