JP4800163B2 - 位置測定装置及びその方法 - Google Patents

位置測定装置及びその方法 Download PDF

Info

Publication number
JP4800163B2
JP4800163B2 JP2006267073A JP2006267073A JP4800163B2 JP 4800163 B2 JP4800163 B2 JP 4800163B2 JP 2006267073 A JP2006267073 A JP 2006267073A JP 2006267073 A JP2006267073 A JP 2006267073A JP 4800163 B2 JP4800163 B2 JP 4800163B2
Authority
JP
Japan
Prior art keywords
unit
image
feature point
feature
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006267073A
Other languages
English (en)
Other versions
JP2008089314A (ja
Inventor
伸夫 高地
哲治 穴井
仁志 大谷
宏一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Topcon Corp
Original Assignee
Topcon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38961476&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP4800163(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Topcon Corp filed Critical Topcon Corp
Priority to JP2006267073A priority Critical patent/JP4800163B2/ja
Priority to EP07019031.9A priority patent/EP1906140B2/en
Priority to US11/905,404 priority patent/US7860273B2/en
Publication of JP2008089314A publication Critical patent/JP2008089314A/ja
Application granted granted Critical
Publication of JP4800163B2 publication Critical patent/JP4800163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • G01C11/10Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken using computers to control the position of the pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Description

本発明は位置測定装置及びその方法に関する。詳しくは、撮影対象物に対して撮影装置が相対的に移動する場合の動的画像を追跡して、撮影装置又は撮影対象物の座標を測定する位置測定装置及びその方法に関する。
相対的な移動をしながら、撮影対象物を連続的に撮影して、撮影装置の位置を測定する技術はあった。しかしながら、実際に自動車等の移動体に撮影装置を搭載して撮影を行うと、自動車の揺動のため、必ずしも安定した画像が得られるものではなく、フレーム毎に上下動、傾き等を修正する必要があり、また、撮影装置と撮影対象物の間に例えば他の自動車、飛鳥、落葉等が入って、特徴点がその陰に隠れて消滅したり、再度復活したりする場合もある。したがって、このような撮影装置の揺動の処理や消失・再現する特徴点の処理が必要となっている。他方、静止した撮影対象物を静止した撮影装置で撮影する場合には、高精度、自動的に対応点探索、計測を行う三次元計測技術が開示されている。(特許文献1参照)
特願2002−64094号公報(段落0018〜0073、図1〜図11等)
そこで、上記静止した撮影対象物を静止した撮影装置で撮影する技術を、そのいずれか一方又は双方が移動する場合に発展適用させて、撮影装置の揺動の処理や消失・再現する特徴点の処理が必要とされるような場合においても、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる技術を提供することが要望されている。
本発明は、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる技術を提供することを目的とする。
上記課題を解決するために、請求項1に記載の位置測定装置100は、例えば図2に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部2と、画像取得部2の位置移動及び姿勢変化を測定する位置関係測定部9と、画像取得部2で得られた撮影画像から特徴点を抽出する特徴抽出部3と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡部4と、位置関係測定部9での測定結果に基づき一連の撮影画像から処理対象画像を選択する画像選択部61と、画像選択部61で選択された処理対象画像に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定部7とを備える。
ここにおいて、相対的位置移動を伴いながら撮影画像を取得するとは、典型的には撮影対象物又は画像取得部(カメラなどの撮影装置)のいずれか一方が移動し他方が静止した状態で撮影画像を取得するが、両者が相対的に移動する状態で撮影画像を取得しても良い。また、連続的に変化する撮影画像とは、時間的又は空間的に連続的に変化する撮影画像であり、典型的にはビデオカメラで連続的に撮影された動画像が該当する。また、少しずつ変化する撮影画像とは、時間的又は空間的に順次少しずつ変化する撮影画像であり、隣り合う画像の大部分で撮影対象物が共通であることを意味する。例えばビデオカメラで連続的に撮影された動画像を少量の時間間隔又はフレーム間隔で抽出した画像でも良く、単体カメラで時間又は場所を少しずつ変えて順次撮影しても良い。また、画像取得部は典型的には自己の撮影装置(カメラ)から撮影画像を取得するが、他の撮影装置から通信により撮影画像を取得しても良い(例えば遠隔にある位置測定装置が自動車に搭載したカメラから通信で撮影画像を取得する場合を含む)。また、特徴点の追跡とは、特徴点から始めて、対応する候補対応点(確定される前の対応点)、対応点を順次探索していくのであるが、広義の意味では候補対応点、対応点もまとめて特徴点といえるので、このような表現としており、特徴点をこのように広義の意味で用いる場合もある。
このように構成すると、不適切な画像を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定装置を提供できる。
また、請求項2に記載の位置測定装置100は、例えば図2に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部2と、画像取得部2の位置移動及び姿勢変化を測定する位置関係測定部9と、画像取得部で得られた撮影画像から特徴点を抽出する特徴抽出部3と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡部4と、位置関係測定部9での測定結果に基づき撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択部62と、特徴点選択部62で選択された処理対象特徴点に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定部とを備える。
このように構成すると、不適切な特徴点を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定装置を提供できる。
また、請求項3に記載の位置測定装置は、例えば図2に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部2と、撮影対象物の位置移動及び姿勢変化を測定する位置関係測定部9と、画像取得部2で得られた撮影画像から特徴点を抽出する特徴抽出部3と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡部4と、位置関係測定部9での測定結果に基づき一連の撮影画像から処理対象画像を選択する画像選択部61と、画像選択部61で選択された処理対象画像に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定部7とを備える。
このように構成すると、不適切な画像を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定装置を提供できる。
また、請求項4に記載の位置測定装置は、例えば図2に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部2と、撮影対象物の位置移動及び姿勢変化を測定する位置関係測定部9と、画像取得部2で得られた撮影画像から特徴点を抽出する特徴抽出部3と、複数の撮影画像について特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡部4と、位置関係測定部9での測定結果に基づき撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択部62と、特徴点選択部62で選択された処理対象特徴点に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定部7とを備える。
このように構成すると、不適切な特徴点を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定装置を提供できる。
また、請求項5に記載の発明は、請求項1又は請求項3に記載の位置測定装置において、画像選択部61は、位置関係測定部9での移動方向又は/及び移動量の測定データに基づいて処理対象画像を選択する。このように構成すると、移動方向又は/及び移動量の揃った画像を用いて位置測定でき、位置精度を向上できる。
また、請求項6に記載の発明は、請求項2又は請求項4に記載の位置測定装置において、例えば図7、図8に示すように、特徴点選択部62は、特徴点追跡部4での追跡データから得られた移動方向と移動量が、位置関係測定部9での移動方向と移動量を含む所定範囲内にある特徴点を処理対象特徴点として選択する。ここにおいて、所定範囲内とは典型的にはステレオ法による位置測定精度が十分とれる範囲をいうが、例えば±10%、±10度に選定できる。このように構成すると、移動ベクトルの揃った特徴点を用いて位置測定でき、位置精度を向上できる。
また、請求項7に記載の発明は、請求項2又は請求項4に記載の位置測定装置において、例えば図9に示すように、特徴点選択部62は、位置関係測定部9での測定データに基づいて求められた画像取得部2と特徴点間の概算距離が所定範囲内にある特徴点を処理対象特徴点として選択する。ここにおいて、所定範囲内とは典型的にはステレオ法による位置測定精度が十分とれる範囲をいうが、例えば±10%に選定できる。このように構成すると、撮影装置からの距離の揃った特徴点を用いて位置測定でき、位置精度を向上できる。
また、請求項8に記載の発明は、請求項6又は請求項7に記載の位置測定装置において、位置関係測定部9での測定結果に基づき一連の撮影画像から処理対象画像を選択する画像選択部61を有し、画像選択部61は、処理対象特徴点を比較的多く含む画像を処理対象画像として選択する。ここにおいて比較的多く含むとは、近隣の撮影画像と比較して多いという意味である。このように構成すると、移動ベクトルの揃った特徴点又は撮影装置からの距離の揃った特徴点の多い画像を用いて位置測定でき、位置精度を向上できる。
また、請求項9に記載の発明は、請求項5に記載の位置測定装置において、例えば図13、図14に示すように、画像選択部61は、画像取得部2による撮影画像の取得と特徴抽出部3による特徴点の抽出との間に処理対象画像を選択する。このように構成すると、早い段階で不適切な撮影画像を排除でき、位置測定の処理効率を高められる。
また、請求項10に記載の発明は、請求項6に記載の位置測定装置において、例えば図7、図8に示すように、特徴点選択部62は、特徴点追跡部4による特徴点の追跡中又は特徴点追跡部4による特徴点の追跡と位置測定部7による位置測定との間に処理対象特徴点を選択する。ここにおいて、特徴点の追跡中とは、ある撮影画像の特徴点を抽出してから次の撮影画像を取得するまでに特徴点追跡と画像選択処理又は特徴点選択処理を終えられればリアルタイム処理が可能となるので、このような意味である。このように構成すると、特徴点の追跡中に処理対象特徴点を選択すれば、リアルタイム処理ができ好適であり、特徴点の追跡後に処理対象特徴点を選択すれば、位置精度を高くできる。
また、請求項11に記載の発明は、請求項7に記載の位置測定装置において、例えば図9に示すように、特徴点選択部62は、特徴点追跡部4による特徴点の追跡中、特徴抽出部3による特徴点の抽出と特徴点追跡部4による特徴点の追跡との間又は特徴点追跡部4による特徴点の追跡と位置測定部7による位置測定との間のいずれかにおいて処理対象特徴点を選択する。このように構成すると、特徴点の追跡前又は追跡中に処理対象特徴点を選択すれば、リアルタイム処理ができ好適であり、特徴点の追跡後に処理対象特徴点を選択すれば、位置精度を高くできる。
また、請求項12に記載の発明は、請求項1乃至請求項11のいずれか1項に記載の位置測定装置において、位置関係測定部9は、ジャイロスコープ、加速度計及び地磁気センサを含む。このように構成すると、移動方向と移動量を的確に測定できる。
また、請求項13に記載の発明は、請求項1乃至請求項12のいずれか1項に記載の位置測定装置において、例えば図20に示すように、特徴点追跡部4は、特徴点の追跡に際し、探索幅の方向又は探索幅の大きさを調整可能である。このように構成すると、特徴点の追跡処理時間を短縮でき、位置測定のリアルタイム処理を可能にする。
また、請求項14に記載の発明は、請求項1乃至請求項13のいずれか1項に記載の位置測定装置において、例えば図2に示すように、特徴点追跡部4の追跡結果から、撮影画像における特徴点の移動方向及び移動速度を画面に表示する表示部10を備える。このように構成すると、操作者が表示部で確認しつつ処理対象画像や処理対象特徴点を選択できる。
また、請求項15に記載の発明は、請求項1乃至請求項14のいずれか1項に記載の位置測定装置において、例えば図2に示すように、位置測定部7で測定された撮影位置と撮影姿勢の情報又は撮影対象物の位置情報と、位置関係測定部9で求められた撮影位置と撮影姿勢の情報又は撮影対象物の位置情報とを比較する比較部8を備える。このように構成すると、比較データを用いて測定位置を補正でき、位置精度を向上できる。
上記課題を解決するために、請求項16に記載の位置測定方法は、例えば図3に示すように、画像取得部で撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程S10と、画像取得部2の位置移動及び姿勢変化を測定する位置関係測定工程S90と、画像取得工程S10で得られた撮影画像から特徴点を抽出する特徴抽出工程S11と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡工程S12と、位置関係測定工程90での測定結果に基づき一連の撮影画像から処理対象画像を選択する画像選択工程S20Aと、画像選択工程S20Aで選択された処理対象画像に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定工程S30とを備える。
このように構成すると、不適切な特徴点を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定方法を提供できる。
また、請求項17に記載の位置測定方法は、例えば図3に示すように、画像取得部2で撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程S10と、画像取得部2の位置移動及び姿勢変化を測定する位置関係測定工程S90と、画像取得工程S10で得られた撮影画像から特徴点を抽出する特徴抽出工程S11と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡工程S12と、位置関係測定工程S90での測定結果に基づき撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択工程S20Bと、特徴点選択工程S20Bで選択された処理対象特徴点に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定工程S30とを備える。
このように構成すると、不適切な画像を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定方法を提供できる。
また、請求項18に記載の位置測定方法は、例えば図3に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程S10と、撮影対象物の位置移動及び姿勢変化を測定する位置関係測定工程S90と、撮影画像取得工程S10で得られた撮影画像から特徴点を抽出する特徴抽出工程S11と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡工程S12と、位置関係測定工程S90での測定結果に基づき一連の撮影画像から処理対象画像を選択する画像選択工程S20Aと、画像選択工程S20Aで選択された処理対象画像に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定工程S30とを備える。
このように構成すると、不適切な特徴点を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定方法を提供できる。
また、請求項19に記載の位置測定方法は、例えば図3に示すように、撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程S10と、撮影対象物の位置移動及び姿勢変化を測定する位置関係測定工程S90と、撮影画像取得工程S10で得られた撮影画像から特徴点を抽出する特徴抽出工程S11と、複数の撮影画像について特徴点に対応する対応点を探索し、特徴点の追跡を行う特徴点追跡工程S12と、位置関係測定工程S90での測定結果に基づき撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択工程S20Bと、特徴点選択工程S20Bで選択された処理対象特徴点に基づき画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を測定する位置測定工程S30とを備える。
このように構成すると、不適切な画像を除いて位置測定するので、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる位置測定方法を提供できる。
本発明によれば、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢又は撮影対象物の座標を精度良く計測できる技術を提供できる。
以下に図面に基づき本発明の実施の形態について説明する。
[第1の実施の形態]
図1は本実施の形態における概念を説明するための図である。自動車にカメラを装着し、自動車の位置を少しずつ変えて撮影対象物である市街地を撮影し、これら複数の撮影画像における追跡結果から、カメラの位置座標すなわち自動車の軌跡を求める例である。なお、撮影を連続的に行い、適当なフレーム間隔で画像を抽出し追跡処理しても良い。これによりカーナビゲーションに自動車の位置を連続的に表示可能になるが、GPS(Global Positioning System:全地球測位システム)電波を受信できない区間で補完的に利用される意義も大きい。動きのある特徴点や揺らぎの大きい特徴点については、カメラの位置座標を求めるのに不適切であるため除去する。
第1の実施の形態では、自動車に撮影装置と共に慣性センサを有する位置関係測定部が搭載される例を説明する。また特徴点追跡部による特徴点の追跡後に特徴点選択部で処理対象特徴点を選択する例を説明する。本実施の形態では自動車に撮影装置と慣性センサを搭載する例に示すが、自動車に代えて船や飛行機などの移動体を用いても良く、また、人が携帯可能なビデオカメラやCCDカメラあるいは携帯電話機等のカメラに慣性センサを装着し、位置推定や三次元計測を行っても良い。
図2に本実施の形態における位置測定装置100の構成例を示す。図において、1は位置測定装置100の各部を制御して、位置測定装置として機能せしめる操作部であり、具体的には、画像取得部2への撮影開始・停止の指示、特徴抽出部3の設定変更、特徴点追跡部4の設定変更、開始、停止の指示、動画像処理部5への選択開始指示、標定実行指示等を行なう。なお、動画像処理部5への選択開始指示、標定実行指示等については、画像取得部2で所定枚数の画像を取得したら処理を自動的に開始するようにしても良い。
2は動画像等の撮影画像を順次取得する画像取得部であり、撮影画像の取得の他に特徴抽出部3への出力、動画像メモリ12への撮影画像の保存等を行う。なお、撮影画像の撮影を行なわず、他の撮影装置から通信により撮影画像を取得しても良い。
3は順次取得した少しずつ異なる撮影画像から特徴点を抽出する特徴抽出部であり、画像取得部2より入力された撮影画像からの特徴点の抽出、抽出された特徴点の特徴点追跡部4及び動画像処理部5への出力等を行う。
4は特徴抽出部3より入力された特徴点に対応する候補対応点を探索し、特徴点の追跡を行う特徴点追跡部であり、追跡処理の他に、追跡結果の動画像処理部5への出力、候補対応点の配置の判断と特徴抽出部3への特徴点の新設指示等を行う。
9は位置関係測定部で慣性センサ91を用いて撮影位置及び撮影姿勢を測定し、測定データを動画像処理部5に提供するもので、慣性センサ91と推定部92を有する。慣性センサ91は、例えば、ジャイロスコープ(角速度)、加速度計、地磁気センサ等から構成され、慣性測定により撮像装置の位置及び向きを測定する。これらセンサの組合せはこれに限られず、様々な組合せがある。推定部92は例えばカルマンフィルタで構成され、慣性測定の精度を向上でき、慣性測定のデータを用いて、撮影装置の姿勢、方向、位置を推定計算できる。ジャイロスコープはコリオリの力を利用する機械式(回転型、振動型)、流体式(ガス型)でも良く、サニャック効果を用いる光学式(リングレーザジャイロスコープ、光ファイバジャイロスコープ)でも良く、あるいは小型軽量であるMEMS(Micro Electro Mechanical Systems)型のものでも良い。加速度計は移動体の加速度を検出し、これより、撮影装置(カメラ)の移動速度、移動距離を演算可能である。加速度計として例えば圧電型三軸加速度計、サーボ加速度計を使用できる。
5は動画像処理部で、画像・特徴点選択部6と位置測定部7を有する。画像・特徴点選択部6は、画像取得部2で取得された一連の撮影画像、特徴抽出部3で得られた特徴点や特徴点追跡部4における追跡結果から得られた特徴点に対して、位置関係測定部9での測定結果に基づいて処理対象画像及び処理対象特徴点を選択し、位置測定に適切なステレオ画像を決定し、位置測定部7に供給する。
画像・特徴点選択部6は画像選択部61と特徴点選択部62を有する。画像選択部61は、位置関係測定部9での測定結果に基づき一連の撮影画像から処理対象画像を選択する。例えば、動きの無い或いは異常な画像を排除したり、処理対象特徴点が少ない画像を排除する。特徴点選択部62は、位置関係測定部9での測定結果に基づき撮影画像から抽出された特徴点から位置測定に不適切な特徴点を排除し、処理対象特徴点を選択する。例えば、カメラとの距離が所定範囲の特徴点、カメラの動きに良く追随する特徴点を選択する。
7は位置測定部で、画像・特徴点選択部6で選択された画像及び選択された特徴点を用いて標定計算、三次元計測を実行するもので、その他に、動画像メモリ12からの撮影画像の取得、対応点情報メモリ11からの候補対応点情報の取得、標定結果及び三次元計測結果の表示部10への出力、対応点情報メモリ11への反映、比較部8や表示部10への標定結果及び三次元計測結果の出力等を行う。
8は比較部で、位置測定部7で測定された撮影位置と撮影姿勢の情報又は撮影対象物の位置情報と、位置関係測定部9で求められた撮影位置と撮影姿勢の情報(外部標定要素:三軸の傾き(姿勢)と三次元位置など)又は撮影対象物の位置情報とを比較する。これにより位置測定部7での測定値を補正可能であり、測定精度を向上できる。また、動画像解析の過程、すなわち、画像取得、特徴点抽出、特徴点追跡の過程で得られた画像や特徴点の位置、傾きデータと位置関係測定部9で求められた撮影位置と撮影姿勢の情報とを比較し、これらの比較データを画像・特徴点選択部6に提供する。画像・特徴点選択部6では、これらの比較データに基づいて、撮影位置が移動中であるのに、位置変化のない画像や特徴点、周囲の多くの画像や特徴点と異なる動きをする画像や特徴点など、位置測定に不適切な画像や特徴点を排除する。
10は動画像処理部により標定処理又は三次元計測された撮影対象物の画像を表示する表示部であり、移動方向及び移動速度も表示可能である。11は特徴点とその対応点(候補対応点を含む)に関する情報を記憶する対応点情報メモリ、12は撮影画像を記憶する動画メモリである。
図3に第1の実施の形態における位置測定方法のフロー例を示す。構成については図2を参照されたい。まず、画像取得部2で撮影画像を取得する(S10)。典型的には、自己の撮影装置(カメラ)を有し、撮影した画像を取得する。他の撮影装置から撮影画像を送信してもらい取得しても良いが、本実施の形態では自己のカメラで撮影するものとする。画像取得(S10)後に、特徴抽出部3で特徴点抽出(S11)、特徴点追跡部4で特徴点追跡(S12)を行なう。自動車などの移動体の位置を少しずつ変えて撮影対象物を撮影し、隣り合う画像同士に対して、自動的に順次、特徴点の対応付けが行われ、対応点が抽出される。さらに追跡を継続することにより、対応点が確定する。次に、画像・特徴点選択部6において、三次元計測に適する画像と特徴点を選択し(S20)、充分な基線長を有するステレオ画像のペアの決定を行なう。
他方、位置関係測定部9において、画像取得部2のカメラの位置移動及び姿勢変化を測定し、測定データを動画像処理部5に提供する(S90)。動画像処理部5はこの測定データに基づいて、画像・特徴点選択部6において処理対象画像の選択又は処理対象特徴点の選択(S20:処理対象画像の選択(S20A)、処理対象特徴点の選択(S20B))を行う。これは、画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)の前後、途中の様々な段階でおこなわれる。本実施の形態では、特徴点追跡後に特徴点選択と画像選択を行なう。そして、位置測定部7では、画像・特徴点選択部6において選択された処理対象画像と処理対象特徴点を用いて位置測定を行なう(S30)。すなわち、相互標定が行われ(S32)、カメラの位置座標、姿勢、さらに三次元座標が求められる(S34)。
比較部8において、位置測定部7で求められた撮影位置と撮影姿勢の情報又は撮影対象物の位置情報は、位置関係測定部9で求められた撮影位置と撮影姿勢の情報又は撮影対象物の位置情報と比較され(S50)、位置測定データの精度向上に寄与する。また、比較部8は、画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)で得られた特徴点の位置情報、撮影画像の傾きと位置関係測定部9で求められたカメラの撮影位置、撮影姿勢の情報とを比較し、画像や特徴点の選択(S20)に寄与する。表示部10は、画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)、画像・特徴点選択(S20)、位置測定(S30)で得られた位置情報、姿勢情報や位置関係測定部9で求められた位置情報、姿勢情報等を文字、図表や画像等で表示する(S60)。例えば、特徴点追跡部の追跡結果から、撮影画像における特徴点の移動方向及び移動速度を画面に表示し、併せて位置関係測定部9の測定によるカメラの移動方向(ジャイロスコープの向き)を表示する。
[動画像解析]
図4に、動画像解析すなわち画像取得、特徴点抽出及び特徴点追跡のフロー例を示す。ここではリアルタイム処理のフロー例を示す。動画像及び少しずつ変化する撮影画像を順次処理する。まず、画像取得部2において撮影画像を取得する。少しずつ変化する一連の撮影画像の変化の程度は、変化が小さい程特徴点追跡の精度を高くできるが、動画像処理の時間を要するので、経験に基づいて適切な範囲に設定するのが良い。例えば0.01秒〜10秒間隔に撮影画像を取得する。操作部1は撮影画像から少しずつ変化する撮影画像を順次特徴抽出部3に供給する。本実施の形態では自動車に撮影装置を装着し、移動しながら撮影するので、少しずつ変化する撮影画像とは、時間的又は空間的に少しずつ変化する撮影画像であり、隣り合う画像の大部分で撮影対象物が共通であることを意味する。特徴抽出部3では各撮影画像から特徴点を抽出する(S11)。また、ノイズ除去、特徴点の選点を行う。
次に、特徴点追跡部4では、特徴抽出処理により選点された各特徴点を追跡処理する(S12)。すなわち、特徴点に対応する候補対応点を求め、特徴点の移動ベクトル及び画面相対移動量を求め、さらに、これらを連結して移動軌跡を求める。画面相対移動量とは撮影装置と撮影対象(特徴点を含む)間の画面上での相対的移動量であり、移動ベクトルとは二次元の撮影画像上における各特徴点の相対的移動ベクトルをいう。特徴点の追跡にあたり、まず、隣接撮影画像についてテンプレートマッチングを行い(S13)、特徴点に対応する候補対応点を求める。これにより各特徴点の移動ベクトルが求められる。また、移動ベクトルの良否を判断する(S14)。すなわち、隣接撮影画像を用いて射影変換することにより(S15)、撮影装置に対する画面相対移動量が求められる。次に、各特徴点の移動ベクトルをフレーム間の画面相対移動量と比較し、移動ベクトルの良否を判断する。そして、異常な動きを示す誤対応と思われる候補対応点を削除する(S16)。工程S15とS16を繰り返すことにより射影変換の精度が向上する。
次に、候補対応点の配置判断を行う(S17)。すなわち、撮影画像上での特徴点、候補対応点の配置を確認する。もし、特徴点の配置が極端に偏ってしまって空白部分が生じた場合などには、新たに生じた空白部分に存在する点を新たな特徴点として特徴抽出部3に新設を指示する。そして、再度特徴点抽出(S11)に戻り、順次新たな隣接画像について特徴点抽出(S11)と追跡処理(S12)をリアルタイムに繰り返す。もし、一連の撮影画像について特徴点抽出が済んでいれば、テンプレートマッチング(S13)に戻り、順次新たな隣接画像について追跡処理(S12)が一括して行われる。
[特徴点抽出]
特徴点抽出(S11)は特徴抽出部3において行なわれる。典型的には初期フレームでは全画面から抽出を行い、次のフレームからは、初期フレームと重複しない新たな画面領域から抽出が行われる。本実施の形態では、初期フレームにおける特徴点の抽出には、例えばMORAVECオペレータ(H.P.Moravec.Towards Automatic Visual Obstacle Avoidance.Proc.5th International Joint Conference on Artificial Intelligence,pp.584,1977.)や、Hariss,Pressy,Susanなどのオペレータを適宜採用できる。
特徴抽出オペレータは、どのようなものを利用しても、画像上のわずかなノイズ(エッジ上のノイズなど)に反応しやすいという問題がある。この性質の改善のために、特徴抽出オペレータを使用する前に画像のノイズ除去処理を平均値フィルターなどのノイズフィルターを用いて行なう。
しかし、ノイズ除去を行なっても、撮影対象によっては、画像上のある部分(木や芝など)に特徴点が集中し、後述のテンプレートマッチングなどに悪影響を及ぼすことがある。これを避けるために選点処理を行なう。選点処理には例えば、各特徴点の点間距離を制限するなどの手法が用いられる。また、特徴点の最大数が予め指定される場合には、画像全体に均等に配置した場合の点間距離をもとめ、この距離を下回らないよう配置する。このように特徴点を全体に均等に配置することにより、相互標定を確実にする。
[追跡処理]
特徴点追跡部4では、特徴抽出処理により選点された各特徴点を追跡処理する(S12)。すなわち、特徴点に対応する候補対応点を求め、特徴点の移動ベクトル及び画面相対移動量を求め、さらに、これらを連結して移動軌跡を求める。
[テンプレートマッチング]
本実施の形態では特徴点の追跡に、テンプレートマッチングを使用する(S13)。取得された撮影画像から隣接画像を順次選択してステレオペアとし、例えばSSDA法(逐次残差法)などの手法によりステレオマッチングを行い、候補対応点を求める。SSDA法(逐次残差法)とは、残差を用いて類似度を決定するもので、部分的な行列の残差が最小となる位置が候補対応点として求められる。SSDAテンプレートマッチングは、テンプレートマッチングとしては比較的高速であり、ハード化も容易と考えられる。また、正規化相関法などの他の方式を採用することもできる。テンプレートマッチングには、テンプレートサイズと探索範囲を最適に選択することが大事であり、探索範囲については、ビデオカメラのフレームレート、移動速度などを基に最適な設定とする。
[移動ベクトルの良否判断]
テンプレートマッチングより、各特徴点の候補対応点が求められるが、ミスマッチングも多く発生する。例えばSSDAテンプレートマッチングの値があまりに高い(精度は悪い)場合にはその点はミスマッチングをおこしたと判定する。なお、テンプレートマッチングの結果、特徴点同士が、重なってしまった場合は相関値の結果から精度のいいものを優先する。
また、テンプレートマッチングで求められた候補対応点より、各特徴点の移動ベクトルが求められるが、移動ベクトルの良否、候補対応点の適性を判断し、ミスマッチングで発生した候補対応点を除去する(S14)。まず、各特徴点の移動ベクトルをフレーム間の画面相対移動量と比較し、異常値を示す誤対応と思われる候補対応点を削除する。この場合に閾値を決めて削除しても良い。画面相対移動量は、撮影装置と撮影対象(特徴点を含む)間の画面上での相対的移動量であるが、同一撮影対象においても、撮影装置との距離、方向により変化するので、当該特徴点周囲の大部分の特徴点(ほぼ同様に移動する)の移動量で比較すれば良い。
本実施の形態では、候補対応点の除去に射影変換を利用する。フレーム間の全体的な移動は、時間的に非常に短いことから、射影変換によりほぼ近時できるものとの仮定をおき、射影変換により画面相対移動量を推定する(S15)。すなわち、移動の推定に射影変換による推定を行ない、各特徴点についての移動ベクトルを画面相対移動量と比較し、異常値を示す候補対応点をリジェクトする(S16)。
また、自動車などの移動体の揺動に伴い撮影画像も揺動するため、射影変換を用いてローテーションやカメラ位置の揺らぎについて補正を行なうことにより、ローテーションやカメラの位置揺れを除去した移動ベクトル、画面相対移動量を求めることができる。この、画面相対移動量を推定し、同時に、誤対応と思われる候補対応点を削除する。また、誤対応点の削除後に再度射影変換を行なうことにより候補対応点の信頼性が向上する。また、ローテーションやカメラの位置揺れが補正された候補対応点を用いることによるテンプレートマッチングの精度を高めることができ、移動ベクトルの信頼性も高めることができる。
撮影画面中に、走行中の自動車、飛鳥、落葉などの動くものに特徴点が付与された場合、またカメラの揺動が激しい場合などに誤対応点が生じ得る。カメラの揺動については射影変換で補正可能である。他方、撮影対象物と異なる動きをするものは誤対応点を生じさせる。したがって物体などの動きにより生じた誤対応点を除去することにより、特徴点(対応点、候補対応点を含む)の信頼性を向上し、ミスマッチングの判定の精度を向上し、ビデオカメラの大きな動揺にも対応が可能となる。
[対応点の配置判断]
次に、対応点の配置判断を行う(S17)。ここでは、不良なものが除去されて残った候補対応点について、その配置が確認される。なお、この配置判断時には、特徴点の新設指示や候補対応点の復活も行なう。
図5に対応点マッチングにおける特徴点と候補対応点の例を模式的に示す。左画像と右画像は物体の位置が少し異なる。左画像には特徴点が多数とられているが、右画像では、これに対応する候補対応点の数が少なく描かれている。これは、不良な候補対応点が除去されることを模式的に示したものである。
図6に特徴点新設の例を示す。例えば、画面上の特徴点の配置範囲が、画面幅、高さの50パーセント以下の範囲にない場合、あるいは、その中心位置が、画面の中心から付近にない場合は、特徴抽出部3に指示して、特徴抽出オペレータにより特徴点の新設処理を実施させる。この基準によれば図6(a)では特徴点の配置が右上に偏り、中心位置が上記範囲外にあるので、特徴点が新設され、図6(b)では中心位置が上記範囲内にあるので、特徴点が新設されない。特徴点の数が所定数以下になった場合にも安定した標定解析等のために特徴点の新設指示が行われる。
また、一度画面外に消失した候補対応点が、再度画面内に現れていないかを調べ、現れていれば回復させる。具体的には画面外への消失であるとして消去された候補対応点に対し、現在のフレーム上に残されている点によるアフィン変換によって、現在のフレーム上での対応箇所を推測する。推測された箇所において再度テンプレートマッチングを行い良好な結果を得た候補対応点を復活させる。
また、配置判断において、候補対応点が不良でなく、候補対応点の配置が射影変換による推定値と良く一致した場合は、特徴点抽出(S11)に戻り、当該候補対応点を有するフレームの当該候補対応点に対して次のフレームの対応する候補対応点を探索する。この作業を、動画像等の撮影画像の最終フレームまで繰り返し、追跡を継続する。
[動画像処理]
次に、図3に戻る。また、構成については図2を参照されたい。位置関係測定部9では、撮影位置及び撮影姿勢を測定し、測定データを動画像処理部5に提供する(S90)。動画像処理部5では画像・特徴点選択部6においてこれら測定データに基づいて画像又は特徴点の選択(S20)、すなわち、処理対象画像の選択(S20A)又は処理対象特徴点の選択(S20B)を行う。これら測定データの提供と処理対象画像の選択又は処理対象特徴点の選択は、動画像解析における画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)の前後、途中の様々な段階で行なわれる。本実施の形態では、特徴点追跡後に特徴点選択と画像選択を行なう。次に、位置測定部7において位置測定が行なわれる(S30)。すなわち、相互標定が行われ(S32)、カメラの位置座標、姿勢、さらに三次元座標が求められる(S34)。
比較部8では上記位置関係測定部9で求められた撮影位置と撮影姿勢の情報と、上記位置測定部7で測定された撮影位置と撮影姿勢の情報とを比較する(S50)。表示部10では、画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)、画像・特徴点選択(S20)、位置測定(S30)で得られた位置情報、姿勢情報や位置関係測定部9で求められた位置情報、姿勢情報等を文字、図表や画像等で表示する(S60)。
図7に特徴点追跡後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す。基本フローは図3と同じであり、特徴点選択及び画像選択の時期が特定される。位置関係測定部9において、方向、速度、移動量などのデータを測定し(S90)、特徴点追跡(S12)と位置測定(S30)の間に又はその前に画像・特徴点選択部6に送信する(S92)。画像・特徴点選択部6では、特徴点追跡(S12)と位置測定(S30)の間に、画像取得(S10)、特徴点抽出(S11)、特徴点追跡(S12)の過程で得られた画像及び特徴点の位置情報、姿勢情報のデータと、位置関係測定(S90)で得られたカメラの位置情報、姿勢情報のデータとを比較し、処理対象画像及び処理対象特徴点を選択する。画像選択部61では一連の撮影画像から処理対象画像を選択し(S20A)、特徴点選択部62では撮影画像から抽出された特徴点から処理対象特徴点を選択する(S20B)。例えば、図8で説明するように、まず、特徴点選択部62で各特徴点の移動ベクトルをジャイロスコープの向きや大きさと比較し、所定の範囲に入らない特徴点を不適切として排除する。画像選択部61では、処理対象特徴点が比較的多い画像を処理対象画像として判定し、処理対象特徴点が比較的少ない画像は不適切として排除する。なお、選択されなかった画像及び特徴点は排除される(S24A,S24B)。画像が排除された場合は他の画像を選択するため、画像取得(S10)に戻る。処理対象画像及び処理対象特徴点が選択されれば位置測定(S30)に供される。なお、画像の排除(S24A)は処理対象画像の選択(S20A)に、特徴点の排除(S24B)は処理対象特徴点の選択(S20B)に含まれる。なお、特徴点抽出(S11)と位置測定(S30)は毎回行なわなくても良い。
図8は画像選択及び特徴点選択の判定画面の表示例を示す。表示は表示部10が行なう。画面中の丸印(〇)は特徴点を、矢印(→)は移動ベクトル、すなわち、特徴点の移動方向と移動量を示す。具体的には所定時間前又は所定枚前のフレームからの移動量を示すが、両画像間の変化が少しでありかつ移動量の差異が目で判別できる程度であることが好ましい。また、右下にカメラと共に例えば自動車に搭載されたジャイロスコープの向きを示す。ここで、ジャイロスコープの向きは、位置関係測定部9の慣性センサ91で測定された自動車の移動方向(反対向き)を示す。ここで反対向きを表示したのは、ジャイロスコープに作用するコリオリの力が慣性を維持する向きに働くことを反映したものであるが、移動の向きを示すように表示しても良い。さらに、移動量、速度、加速度、姿勢などを併せて表示しても良い。これらは数値や時系列化したグラフで表示しても良い。
比較部8において、ジャイロスコープが安定していない場合も想定されるので、まず、ジャイロスコープの向きを画面上の移動ベクトルと比較し、大部分の移動ベクトルの向きと一致していればジャイロスコープが安定していると見なして、個々の特徴点の移動ベクトルと比較する。この時、特徴点選択部62では、移動ベクトルの向きがジャイロスコープの向きとほぼ一致する、すなわち向きが所定の範囲内の特徴点を残し、それ以外の特徴点を排除すべきものと判断する。また、大部分の移動ベクトルに比して移動量がほぼ一致する、すなわち移動量が所定の範囲内の特徴点を残し、それ以外の特徴点を排除すべきものと判断する。例えば移動量の小さい特徴点は動きの無い特徴点と見なして排除すべきものと判断する。また、遠い点及び極端に近い点は標定及び三次元計測に不適切と見なして排除すべきものと判断する。所定範囲内とは典型的にはステレオ法による位置測定精度が十分とれる範囲をいうが、例えば±10%、±10度に選定できる。この時、表示部10では、例えば特徴点選択部62で不適切で排除すべきと判断した特徴点を赤で表示し、適当と判断した特徴点を緑で表示する。図8では赤を●、緑を〇で示す。操作者が確認したのち、確認ボタンをクリックすると特徴点選択部62は赤で表示された特徴点を排除し、表示部10は画面から赤で表示された特徴点とその移動ベクトルを消去し、緑で表示された特徴点とその移動ベクトルを残す。あるいは、これらの処理を自動化しても良いが、この場合に操作者は緑や赤で表示された特徴点と移動ベクトルを事後的に確認するだけでも、現在のシーンにおける測定値が適切であるか、信頼度の高いものかなど、視覚的に確認できるという利点がある。
図9に特徴点追跡後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す。基本フローは図3と同じであり、特徴点選択の時期が特定される。図7のフローと図9のフローを独立に実施することも可能であるが、両者を組合せると精度が向上するので1つの実施の形態でまとめて説明することとした。位置関係測定部9において、位置、姿勢データを測定し(S90)、特徴点追跡(S12)と位置測定(S30)の間に又はその前に、位置、姿勢データを画像選択部に送信する(S92)。特徴点選択部62では、特徴点追跡(S12)と位置測定(S30)の間に慣性センサ91で検出されたカメラの移動距離、カメラの位置と傾きのデータを用いて、前方交会法により撮影対象物までの概略位置を計算し(S22)、各特徴点とカメラとの概算距離を計算し、概算距離が所定の範囲内の特徴点を処理対象特徴点として判定し(S23)、範囲外の特徴点は不適切として排除する(S24)。画像選択部61では、処理対象特徴点が比較的多い画像を処理対象画像として判定し、処理対象特徴点が比較的少ない画像は不適切として排除する。所定範囲内とは典型的にはステレオ法による位置測定精度が十分とれる範囲をいうが、例えば±10%に選定できる。この判定の結果、概算距離が所定の範囲外の特徴点の色を赤として、図8に反映すれば、図7のフローにさらに図9のフローによる不適当な特徴点を除去でき、位置測定の精度を向上できる。なお、特徴点概略位置計算(S22)から不適切な特徴点排除(S24)までが処理対象特徴点の選択(S20B)に含まれ、処理対象画像の判定と不適切な画像の排除が処理対象画像の選択(S20A)に含まれる。なお、図7のフローと図9のフローを組合せる際に、S20からS24のフローは別々に行なった後に統合し、他のフローは共通フローとなる。S20からS24のフローはどちらを先に行っても良く、並列に行っても良い。その後、処理対象画像からステレオペアが選択され、位置測定へと進む。ここで、概算距離の計算は、位置関係測定部9から送られてくる位置、姿勢データをモデル座標系として、次の[標定処理/三次元計測]で説明される式(3)及び式(4)に代入することにより、特徴点の3次元座標が求められ、さらに特徴点の3次元座標を式(5)に代入することにより、モデル座標を計算し概算距離が求められる。
[標定処理/三次元計測]
次に、位置測定部7で相互標定と三次元計測が行なわれる。ステレオペア選択された各画像について、特徴点と対応点の座標を用いて、標定処理を行う。標定処理により、撮影したカメラの位置、傾き、対応点の三次元位置を求めることができる。標定処理は、ステレオペア選択された撮影画像の対応付けに関しては相互標定で行ない、複数または全画像間の標定に関してはバンドル調整にて行う。このステレオペア選択を行う場合には、位置測定部において、画像取得部で得られた複数の画像から、適切な基線長と推定される画像の組を選択することにより、適切な標定処理や三次元測定を行うことができる。
[相互標定処理]
図10は標定を説明するための図である。ステレオ画像におけるモデル画像座標系XYZとカメラ座標系x1y1z1、x2y2z2の関係の説明図である。モデル画像座標系の原点を左側の投影中心にとり、右側の投影中心を結ぶ線をX軸にとるようにする。縮尺は、基線長Bx(カメラ座標原点間の距離)を単位長さにとる。このとき求めるパラメータは、左側のカメラのZ軸の回転角κ1、Y軸の回転角φ1、X軸の回転角ω1、右側のカメラのZ軸の回転角κ2、Y軸の回転角φ2、X軸の回転角ω2の6つの回転角となる。標定計算処理により、これらの回転角を求め、これを用いてカメラの精密な三次元座標、姿勢や撮影対象物の三次元座標が演算される。また、これら標定および三次元計測は自動化が可能である(特許文献1参照)。
まず、以下の共面条件式(1)により、左右カメラの位置を定めるのに必要とされるパラメータを求める。なお、画面距離Cは焦点距離fと等価である。
上述の条件にすると、共面条件式(1)は式(2)のように変形され、式(2)を解けば各パラメータが求まる。
ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式(3)、(4)が成り立つ。
モデル座標系の点の座標は、
X=(X1+X2)/2、Y=(Y1+Y2)/2 とする。
これと、位置関係測定部9で求めた撮影装置の位置、X0,Y0,Z0から距離を求める。
距離=√((X−X0)+(Y−Y0)) ……(5)
これらの式を用いて、次の手順により、未知パラメータを求める。
(i)パラメータ(κ1、φ1、κ2、φ2、ω2)の初期近似値は通常0とする。
(ii)共面条件式(2)を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を式(3)、(4)により求め、観測方程式をたてる。
(iii)最小二乗法を適用して、近似値に対する補正量を求める。
(iv)近似値を補正する。
(v)補正された近似値を用いて(ii)〜(v)までの操作を収束するまで繰り返す。
収束した場合、更に接続標定を行なう。これは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。
この処理を行なう場合、以下の式であらわされる接続較差を算出する。
ΔXj=(Xjr−Xjl)/(Z0−Zjl)
ΔYj=(Yjr−Yjl)/(Z0−Zjl)
ΔZj=(Zjr−Zjl)/(Z0−Zjl)
ΔDj=√(ΔXj2+ΔYj2)
(ΔXjlΔYjlΔZjl):統一された座標系の第j番目の左モデル
(ΔXjrΔYjrΔZjr):統一された座標系の第j番目の右モデル
ΔZjおよびΔDjが0.0005(1/2000)以下なら接続標定が正常に行われたとみなされる。正常に行われなかった場合は、標定結果表示でエラーを出力しどこの画像が悪いか表示する。この場合、画像上に別の標定点があれば変更して(ii)〜(v)までの上記計算を繰り返す。だめなら標定点の配置変更を行なう。これら計算は、特徴点追跡データから計算することもできるし、位置関係測定部9の各種データを初期値として取り入れ計算することも可能である。
[偏位修正処理]
また、偏位修正処理により、エピポーララインが左右の水平ライン上に一致するように画像が修正され、ステレオ法が成立する画像に変換される。また、標定処理及び偏位修正処理で得られた画像データを用いて三次元計測がなされる。
図11に対応特徴点の三次元座標位置とカメラ位置の関係を示す。撮影対象物Aの計測点PをステレオカメラC1,C2でステレオ撮影する(図11にカメラ位置をC1,C2で示す)。撮影画像(原画像)Iはカメラの傾きや位置の揺らぎが反映されて取得されるが、偏位修正処理された偏位修正画像Mはカメラの傾き及び位置の揺らぎが修正され、エピポーララインが揃った距離計測に適した画像となる。また、カメラの基線長Bは、相互標定処理により求めた2つの撮影位置から計算で容易に求められ、撮影距離Hは、三次元計測で算出された特徴点の三次元座標位置とカメラの位置から求めることができる。
[ステレオ法]
次に各特徴点(候補対応点)の三次元座標を算出する。例えばステレオ法から三次元座標を算出する。
図12はステレオ法を説明するための図である。同じ仕様の2台のカメラC1,C2を使用し、それぞれの光軸は平行でカメラレンズの主点からCCD面までの距離cが等しく、CCDは光軸に直角に置かれているものとする。2台のカメラC1,C2の光軸間距離(基線長)をBとする。
物体上の点P1(x1、y1)、P2(x2、y2)の座標の間には、以下のような関係がある。

x1=cx/z −−−(6)
y1=y2=cy/z −−−(7)
x2−x1=cB/z −−−(8)

但し、全体の座標系(x、y、z)の原点をカメラC1のレンズ主点にとるものとする。

(8)式よりzを求め、これを用いて(6)式、(7)式よりx、yが求められる。

ステレオ法の説明からわかるように、カメラC1、カメラC2の撮影距離(倍率)や撮影の向き、基線長Bが変わると、幾何学的に本原理が成立しづらくなり、結果として安定した精度の解を求め難くなる。なお、偏位修正処理を行わずに、エピポーラライン上の特徴点の対応点を探索し、ステレオ法により三次元座標を求めることもできる。
また、三次元座標の計測にあたり、比較部8において、位置関係測定部9で求められた撮影位置と撮影姿勢の情報と、位置測定部7で測定された撮影位置と撮影姿勢の情報とを比較し、三次元座標値を補正することにより、三次元計測の精度をさらに正確にできる。
以上第1の実施の形態によれば、動画像又は順次少しずつ変化する撮影画像から、その撮影装置の撮影位置、姿勢の座標を精度良く計測できる技術を提供できる。また、動画像の処理をコンピュータで実現可能であり、既に自動化されている標定、三次元計測を含め画像処理方法の工程の自動化も可能である。また、撮影装置の三次元座標を高い精度で安定して求められる。
[第2の実施の形態]
第1の実施の形態では特徴点抽出後に特徴点選択と画像選択を行なう例を説明したが、本実施の形態では画像取得後に画像選択を行なう例を説明する。
図13に画像取得後に画像選択を行なう場合の処理フローを示す。基本フローは図3と同じであり、画像選択の時期が特定される。位置関係測定部9で、センサ出力データ(例えばジャイロスコープの向き、角速度、加速度)を取得し、画像取得(S10)と特徴点抽出(S11)の間に又はその前に、画像選択部61に提供する(S92)。画像選択部61では、センサ出力の検出が無い場合、もしくは0に近いときは、カメラが動いていないものとして処理を行わないので、このような画像を不適切と判定し(S20A)、捨象する(S24A)。また、センサ出力が動画像処理の処理スピードを超える量の動きや振動などにより所定の閾値を超える場合、例えば撮影画像にぶれや流れが検出された場合には、画像処理に不適切な画像と判定して(S20A)、当該画像を捨象する(S24A)。なお、不適切な画像の排除(S24A)は処理対象画像の選択(S20A)に含まれる。その後、特徴点抽出、特徴点追跡、位置測定へと進む。なお、特徴点抽出と位置測定は毎回行なわなくても良い。
図14に静止している画像の例を示す。ジャイロスコープの向きが0で移動がない。なお、特徴点抽出や特徴点追跡がされていれば、移動ベクトルの大きさは0である。かかる画像は不適切な画像として捨象される。
[第3の実施の形態]
第1の実施の形態では特徴点抽出後に特徴点選択と画像選択を行なう例を説明したが、本実施の形態では特徴点抽出後に特徴点選択と画像選択を行なう例を説明する。
図15に特徴点抽出後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す。基本フローは図3と同じであり、特徴点選択の時期が特定される。位置関係測定部9において、方向、速度、移動量などのデータを測定し(S90)、特徴点抽出(S11)と特徴点追跡の間に又はその前に、これらのデータを画像・特徴点選択部6に送信する(S92)。画像・特徴点選択部6では、特徴点抽出(S11)と特徴点追跡の間に、姿勢(3軸の向き)、撮影位置(三次元位置)のデータと、特徴点の画像座標を用いて前方後交法により特徴点の三次元座標(概略位置)を計算し(S22)、各特徴点とカメラとの概算距離を計算し、距離が所定の範囲内の特徴点を処理対象特徴点として判定し(S23)、範囲外の特徴点を不適切として排除する(S24)。画像選択部61では、処理対象特徴点が比較的多い画像を処理対象画像として選択し、処理対象特徴点が比較的少ない画像は不適切として排除する。なお、特徴点概略位置計算(S22)から不適切な特徴点排除(S24)までが処理対象特徴点の選択(S20B)に含まれ、処理対象画像の判定と不適切な画像の排除が処理対象が押の選択(S20A)に含まれる。その後、処理対象画像からステレオペアが選択され、位置測定へと進む。
図16は概算距離による特徴点選択を説明するための図である。工程は図15を参照されたい。Q1〜Q4は撮影対象物、C1〜C2はカメラ位置を示す。特徴点選択部62では、カメラ位置C1,C2により撮影対象物の特徴点の概略位置を求め(S22)、カメラと特徴点間の距離が所定の範囲内の特徴点を処理対象特徴点として判定し(S23)、範囲外のものは不適切として排除する(S24)。図において、撮影対象物Q1,Q3上の特徴点は選択されるが、撮影対象物Q2,Q4上の特徴点は不適切な点として排除される。
図17に概算距離による特徴点選択を行なう画面の例を示す。例えば、距離が所定の範囲内の特徴点を緑で表示し、範囲外(遠い点、近い点)の特徴点を赤で表示する。緑の特徴点は選択され、赤の特徴点は排除される。図17では赤を●、緑を○で示す。なお、概算距離による判定を、図8で説明したような各特徴点の移動ベクトルをジャイロスコープの向きや大きさと比較し、所定の範囲に入らない特徴点を不適切として排除する判定と組合せて実施可能であり、その場合に位置精度を向上できる。
図18は概算距離による画像選択を説明するための図である。Q5〜Q7は撮影対象物、C3〜C5はカメラ位置を示す。慣性センサ91でカメラの移動距離を検出し、画像選択部61では、カメラの位置と傾きのデータを用いて前方交会法により撮影対象物までの概略位置を計算する。各カメラ位置C3,C4,C5より撮影対象物の距離を求め、距離が所定の範囲内の画像を処理対象画像として判定し、範囲外のものは不適切として排除する。図において、撮影対象物Q5,Q7を撮影した画像は選択されるが、撮影対象物Q6を撮影した画像は不適切として排除される。その後、処理対象画像からステレオペアが選択され、位置測定へと進む。
[第4の実施の形態]
第1の実施の形態では特徴点抽出後に特徴点選択と画像選択を行なう例を説明したが、本実施の形態では特徴点追跡中に特徴点選択と画像選択を行なう例を説明する。
図19に特徴点追跡中に特徴点選択を行なう場合の処理フロー例を示す。基本フローは図3と同じであり、特徴点選択の時期が特定される。位置関係測定部9において、方向、速度、移動量などのデータを測定し(S90)、特徴点追跡(S12)中に方向、速度、移動量などのデータを画像・特徴点選択部6に送信する(S92)。画像・特徴点選択部6では特徴点追跡中に、姿勢(3軸の向き)、撮影位置(三次元位置)のデータと、特徴点の画像座標を用いて前方後交法により特徴点の三次元座標(概略位置)を計算し、各特徴点とカメラとの概算距離を計算し(S22、図では省略)、距離が所定の範囲内の特徴点を処理対象特徴点として判定し(S23、図では省略)、範囲外の特徴点を不適切として排除する(S24、図では省略)。画像選択部61では、処理対象特徴点が比較的多い画像を処理対象画像として選択し、処理対象特徴点が比較的少ない画像は不適切として排除する。特徴点追跡中なので、特徴点追跡処理の高速化が求められる。なお、概算距離による判定を、図8で説明したような各特徴点の移動ベクトルをジャイロスコープの向きや大きさと比較し、所定の範囲に入らない特徴点を不適切として排除する判定と組合せて実施可能であり、その場合に位置精度を向上できる。
図20は高速の特徴点追跡処理を説明するための図である。慣性センサの移動方向データから特徴点の移動方向が推測されるので、特徴点追跡部4では、例えば図20(a),(b)に示すように特徴点P3,P4について左上方向のみを探索する、また、慣性センサの移動量、速度データから特徴点の移動量が推測されるので、例えば図20(c),(d)に示すように特徴点P3,P4について一定の探索幅のみを探索する。このように探索範囲を小さくすることによって、画像処理に要する時間をかなり削減できるので、特徴点追跡中にリアルタイムで画像及び特徴点の選択が可能になる。
[第5の実施の形態]
第1の実施の形態では、自動車にカメラと共に慣性センサを有する位置関係測定部が搭載される例を説明したが、本実施の形態では、カメラが静止し、撮影対象物が移動し、撮影対象物に慣性センサを有する位置関係測定部が搭載される例を説明する。その他の構成は第1の実施の形態と同様である。この場合においても、本来の撮影対象物の他に、撮影装置と撮影対象物の間に動くものが割り込んだり、撮影装置に揺動が生じる場合があり、特徴点を追跡し、動画像又は順次少しずつ変化する撮影画像における撮影対象物に係る特徴点の三次元座標を求める意味がある。この場合、位置関係測定部9は移動している撮影対象物(例えば自動車、電車、船)の方向や向きを検出し、検出データを動画像処理部5に送信し、表示画面には撮影対象物の移動ベクトルと共に移動方向(ジャイロの向きと逆)が表示されるが、動画像処理部5では画像取得部2で取得した画像と上記検出データを用いて、第1の実施の形態と同様に、画像・特徴点選択部6で画像と特徴点を選択し、位置測定部7では撮影対象物の位置を求めることができる。
[第6の実施の形態]
第1の実施の形態では、自動車にカメラと共に慣性センサを有する位置関係測定部が搭載される例を説明したが、本実施の形態では、カメラと共に撮影対象物が移動し、カメラを搭載する自動車及び撮影対象物の双方に慣性センサを有する位置関係測定部が搭載される例を説明する。その他の構成は第1の実施の形態と同様である。
図21は第5の実施の形態の概念を説明するための図である。撮影対象物及びカメラを搭載する自動車に位置関係測定部9が搭載され、自動車にカメラを有する画像取得部2、位置測定部7が搭載され、撮影対象物及びカメラが共に移動する状態を示す。
双方が移動している場合に、位置関係測定部9は移動しているカメラ及び撮影対象物の方向や向きを検出し、検出データを動画像処理部5に送信し、表示画面にはカメラと撮影対象物との相対的移動ベクトルと共にカメラと撮影対象物両者の移動方向(ジャイロの向きと逆)が表示されるが、動画像処理部5では画像取得部2で取得した画像と上記検出データを用いて、第1の実施の形態と同様に、画像・特徴点選択部6で画像と特徴点を選択し、位置測定部7では画像取得部2の撮影位置と撮影姿勢又は撮影対象物の位置を求める。処理の結果、お互いの相対的位置の検出及び、移動している撮影対象物の三次元座標が求まる。この場合、移動の無い背景を捨象し、移動している撮影対象物のみ抽出して、三次元座標を求めることも可能である。また、撮影対象物側から、絶対座標が送信されれば、移動体すなわち位置測定装置本体の絶対座標位置が求まる。なお、移動方向(ジャイロの向きと逆)はカメラと撮影対象物の相対的移動方向を1つ表示するものであっても良い。
また、本発明は、以上の実施の形態に記載の画像処理方法をコンピュータに実行させるためのプログラムとしても実現可能である。プログラムは操作部1の内蔵メモリに蓄積して使用してもよく、システム内外の記憶装置に蓄積して使用してもよく、インターネットからダウンロードして使用しても良い。また、当該プログラムを記録した記録媒体としても実現可能である。
以上、本発明の実施の形態について説明したが、本発明は以上の実施の形態に限定されるものではなく、実施の形態に種々変更を加えられることは明白である。
例えば、以上の実施の形態では、撮影対象物及び撮影装置が共に1つの例を説明したが、複数の場合でも1対1に分解すれば本発明を適用可能であり、複数の撮影対象物と複数の撮影装置をリレー式に繋げていくことも可能である。また、三次元座標については直交座標の例を説明したが、撮影対象物と撮影装置の状況に応じて、円筒座標、球座標を用いることも可能である。また、特徴点の抽出にMORAVECオペレータを、テンプレートマッチングにSSDAテンプレートマッチングを使用する例を説明したが、他のオペレータ、テンプレートマッチング法を使用しても良い。また、画面相対移動量を求めるための射影変換を使用する例を説明したが、アフィン変換、フェルマート変換などの射影変換を使用しても良い。
また、以上の実施の形態では、画像選択処理と特徴点選択処理の一方や双方を行なう例、時期を変えて行なう例を説明したが、複数の時期を組み合わせて行なっても良い。勿論、一方のみ処理を行っても良く、双方の処理を行なっても良い。また、第1の実施の形態では図7のフローと図9のフローを組合せた実施の形態を説明したが、一方のみを行なう実施の形態も可能である。また、第1の実施の形態ではジャイロスコープの向きを画面表示する例を説明したが、ジャイロスコープの向きを表示せず、撮影画面中で移動ベクトルの方向と大きさが揃った特徴点のみを処理対象特徴点として判定することも可能である。また、画像選択処理と特徴点選択処理を行わず、位置測定部で測定された撮影位置と撮影姿勢の情報又は撮影対象物の位置情報と、位置関係測定部で求められた撮影位置と撮影姿勢の情報又は撮影対象物の位置情報とを比較し、補正することのみに位置関係測定部の測定データを用いることも可能である。また、第1、第4の実施の形態では位置関係測定部の移動方向と移動量の測定データに基づいてまず処理対象特徴点を選択する例を説明したが、この場合に、位置関係測定部の移動方向と移動量の測定データに基づいて、まず処理対象画像を選択しても良い。また、以上の実施の形態では、位置関係測定部の測定データから移動方向と移動量を動画像処理に供給する例を説明したが、移動速度、加速度などのデータも供給可能である。また、以上の実施の形態では特徴点概略位置の計算を動画像処理部で行なう例を説明したが、位置関係測定部の推定部で動画像処理部をから特徴点のデータを得て特徴点概略位置の計算を行ない、動画像処理部に計算結果を提供することも可能である。また、以上の実施の形態では、画像取得部は典型的には自己のカメラから撮影画像を取得する例を説明したが、遠隔にある位置測定装置が自動車に搭載したカメラから通信で撮影画像を取得しても良い。また、特徴点選択処理における移動量、移動方向の範囲、少しずつ変化する一連の撮影画像の変化の程度、抽出する特徴点数等は経験に基づいて様々に決定できる。
本発明は動画像を用いた撮影装置又は撮影対象の位置座標の計測等に使用される。
本発明の概念を説明するための図である。 第1の実施の形態における位置測定装置の構成例を示すブロック図である。 第1の実施の形態における位置測定方法のフロー例を示す図である。 特徴点抽出及び特徴点追跡のフロー例を示す図である。 対応点マッチングの例を示す図である。 特徴点新設の例を示す図である。 特徴点追跡後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す図である。 特徴点選択の判定画面の表示例を示す図である。 特徴点追跡後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す図である。 標定を説明するための図である。 対応特徴点の三次元座標位置とカメラ位置の関係を示す図である。 ステレオ法を説明するための図である。 画像取得後に画像選択を行なう場合の処理フロー例を示す図である。 静止している画像の例を示す図である。 特徴点抽出後に特徴点選択及び画像選択を行なう場合の処理フロー例を示す図である。 概算距離による特徴点選択を説明するための図である。 概算距離による特徴点選択を行なう画面の例を示す図である。 概算距離による画像選択を説明するための図である。 特徴点追跡中に特徴点選択を行なう場合の処理フロー例を示す図である。 高速の特徴点追跡処理を説明するための図である。 第6の実施の形態の概念を説明するための図である。
符号の説明
1 操作部
2 画像取得部
3 特徴抽出部
4 特徴点追跡部
5 動画像処理部
6 画像・特徴点選択部
7 位置測定部
8 比較部
9 位置関係測定部
10 表示部
11 対応点情報メモリ
12 動画像メモリ
61 画像選択部
62 特徴点選択部
91 慣性センサ
92 推定部
100 位置測定装置

Claims (19)

  1. 撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部と;
    前記画像取得部の位置移動及び姿勢変化を測定する位置関係測定部と;
    前記画像取得部で得られた撮影画像から特徴点を抽出する特徴抽出部と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡部と;
    前記位置関係測定部での測定結果に基づき前記一連の撮影画像から処理対象画像を選択する画像選択部と;
    前記画像選択部で選択された前記処理対象画像に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定部とを備える;
    位置測定装置。
  2. 撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部と;
    前記画像取得部の位置移動及び姿勢変化を測定する位置関係測定部と;
    前記画像取得部で得られた撮影画像から特徴点を抽出する特徴抽出部と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡部と;
    前記位置関係測定部での測定結果に基づき前記撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択部と;
    前記特徴点選択部で選択された前記処理対象特徴点に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定部とを備える;
    位置測定装置。
  3. 撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部と;
    前記撮影対象物の位置移動及び姿勢変化を測定する位置関係測定部と;
    前記画像取得部で得られた撮影画像から特徴点を抽出する特徴抽出部と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡部と;
    前記位置関係測定部での測定結果に基づき前記一連の撮影画像から処理対象画像を選択する画像選択部と;
    前記画像選択部で選択された前記処理対象画像に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定部とを備える;
    位置測定装置。
  4. 撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得部と;
    前記撮影対象物の位置移動及び姿勢変化を測定する位置関係測定部と;
    前記画像取得部で得られた撮影画像から特徴点を抽出する特徴抽出部と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡部と;
    前記位置関係測定部での測定結果に基づき前記撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択部と;
    前記特徴点選択部で選択された前記処理対象特徴点に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定部とを備える;
    位置測定装置。
  5. 前記画像選択部は、前記位置関係測定部での移動方向又は/及び移動量の測定データに基いて前記処理対象画像を選択する;
    請求項1又は請求項3に記載の位置測定装置。
  6. 前記特徴点選択部は、前記特徴点追跡部での追跡データから得られた移動方向と移動量が、前記位置関係測定部での移動方向と移動量を含む所定範囲内にある特徴点を前記処理対象特徴点として選択する;
    請求項2又は請求項4に記載の位置測定装置。
  7. 前記特徴点選択部は、前記位置関係測定部での測定データに基づいて求められた前記画像取得部と前記特徴点間の概算距離が所定範囲内にある特徴点を前記処理対象特徴点として選択する;
    請求項2又は請求項4に記載の位置測定装置。
  8. 前記位置関係測定部での測定結果に基づき前記一連の撮影画像から処理対象画像を選択する画像選択部を有し;
    前記画像選択部は、前記処理対象特徴点を比較的多く含む画像を前記処理対象画像として選択する;
    請求項6又は請求項7に記載の位置測定装置。
  9. 前記画像選択部は、前記画像取得部による撮影画像の取得と前記特徴抽出部による特徴点の抽出との間に前記処理対象画像を選択する;
    請求項5に記載の位置測定装置。
  10. 前記特徴点選択部は、前記特徴点追跡部による特徴点の追跡中又は前記特徴点追跡部による特徴点の追跡と前記位置測定部による位置測定との間に前記処理対象特徴点を選択する;
    請求項6に記載の位置測定装置。
  11. 前記特徴点選択部は、前記特徴点追跡部による特徴点の追跡中、前記特徴抽出部による特徴点の抽出と前記特徴点追跡部による特徴点の追跡との間又は前記特徴点追跡部による特徴点の追跡と前記位置測定部による位置測定との間のいずれかにおいて前記処理対象特徴点を選択する;
    請求項7に記載の位置測定装置。
  12. 前記位置関係測定部は、ジャイロスコープ、加速度計及び地磁気センサを含む;
    請求項1乃至請求項11のいずれか1項に記載の位置測定装置。
  13. 前記特徴点追跡部は、特徴点の追跡に際し、探索幅の方向又は探索幅の大きさを調整可能である;
    請求項1乃至請求項12のいずれか1項に記載の位置測定装置。
  14. 前記特徴点追跡部の追跡結果から、前記撮影画像における特徴点の移動方向及び移動速度を画面に表示する表示部を備える;
    請求項1乃至請求項13のいずれか1項に記載の位置測定装置。
  15. 前記位置測定部で測定された撮影位置と撮影姿勢の情報又は前記撮影対象物の位置情報と、前記位置関係測定部で求められた撮影位置と撮影姿勢の情報又は前記撮影対象物の位置情報とを比較する比較部を備える;
    請求項1乃至請求項14のいずれか1項に記載の位置測定装置。
  16. 画像取得部で撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程と;
    前記画像取得部の位置移動及び姿勢変化を測定する位置関係測定工程と;
    前記画像取得工程で得られた撮影画像から特徴点を抽出する特徴抽出工程と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡工程と;
    前記位置関係測定工程での測定結果に基づき前記一連の撮影画像から処理対象画像を選択する画像選択工程と;
    前記画像選択工程で選択された前記処理対象画像に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定工程とを備える;
    位置測定方法。
  17. 画像取得部で撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程と;
    前記画像取得部の位置移動及び姿勢変化を測定する位置関係測定工程と;
    前記画像取得工程で得られた撮影画像から特徴点を抽出する特徴抽出工程と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡工程と;
    前記位置関係測定工程での測定結果に基づき前記撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択工程と;
    前記特徴点選択工程で選択された前記処理対象特徴点に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定工程とを備える;
    位置測定方法。
  18. 撮影対象物との相対位置的移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程と;
    前記撮影対象物の位置移動及び姿勢変化を測定する位置関係測定工程と;
    前記画像取得工程で得られた撮影画像から特徴点を抽出する特徴抽出工程と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡工程と;
    前記位置関係測定工程での測定結果に基づき前記一連の撮影画像から処理対象画像を選択する画像選択工程と;
    前記画像選択工程で選択された前記処理対象画像に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定工程とを備える;
    位置測定方法。
  19. 撮影対象物との相対的位置移動を伴いながら連続的に変化する又は少しずつ変化する一連の撮影画像を取得する画像取得工程と;
    前記撮影対象物の位置移動及び姿勢変化を測定する位置関係測定工程と;
    前記画像取得工程で得られた撮影画像から特徴点を抽出する特徴抽出工程と;
    複数の前記撮影画像について前記特徴点に対応する対応点を探索し、前記特徴点の追跡を行う特徴点追跡工程と;
    前記位置関係測定工程での測定結果に基づき前記撮影画像から抽出された特徴点から処理対象特徴点を選択する特徴点選択工程と;
    前記特徴点選択工程で選択された前記処理対象特徴点に基づき前記画像取得部の撮影位置と撮影姿勢又は前記撮影対象物の位置を測定する位置測定工程とを備える;
    位置測定方法。
JP2006267073A 2006-09-29 2006-09-29 位置測定装置及びその方法 Active JP4800163B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006267073A JP4800163B2 (ja) 2006-09-29 2006-09-29 位置測定装置及びその方法
EP07019031.9A EP1906140B2 (en) 2006-09-29 2007-09-27 Device and method for position measurement
US11/905,404 US7860273B2 (en) 2006-09-29 2007-09-28 Device and method for position measurement

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006267073A JP4800163B2 (ja) 2006-09-29 2006-09-29 位置測定装置及びその方法

Publications (2)

Publication Number Publication Date
JP2008089314A JP2008089314A (ja) 2008-04-17
JP4800163B2 true JP4800163B2 (ja) 2011-10-26

Family

ID=38961476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006267073A Active JP4800163B2 (ja) 2006-09-29 2006-09-29 位置測定装置及びその方法

Country Status (3)

Country Link
US (1) US7860273B2 (ja)
EP (1) EP1906140B2 (ja)
JP (1) JP4800163B2 (ja)

Families Citing this family (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8229166B2 (en) * 2009-07-07 2012-07-24 Trimble Navigation, Ltd Image-based tracking
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
US8350916B2 (en) * 2007-12-03 2013-01-08 Panasonic Corporation Image processing device, photographing device, reproducing device, integrated circuit, and image processing method
JP2009236811A (ja) * 2008-03-28 2009-10-15 Fujifilm Corp 画像処理装置および画像処理方法並びにプログラム
JP5451593B2 (ja) * 2008-06-09 2014-03-26 パナソニック株式会社 撮像装置、撮像方法
JP5027747B2 (ja) * 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
JP5027746B2 (ja) * 2008-07-01 2012-09-19 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
WO2010001940A1 (ja) 2008-07-01 2010-01-07 株式会社トプコン 位置測定方法、位置測定装置、およびプログラム
US8259998B2 (en) * 2008-09-30 2012-09-04 Mazda Motor Corporation Image processing device for vehicle
US20100079508A1 (en) 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
CN102171726B (zh) * 2008-10-01 2014-06-18 索尼电脑娱乐公司 信息处理装置、信息处理方法、程序以及信息存储介质
US8548742B2 (en) * 2008-10-21 2013-10-01 National Oilwell Varco L.P. Non-contact measurement systems for wireline and coiled tubing
US8428341B2 (en) 2008-12-08 2013-04-23 Electronics And Telecommunications Research Institute Apparatus for calculating 3D spatial coordinates of digital images and method thereof
KR101205961B1 (ko) 2008-12-08 2012-11-28 한국전자통신연구원 디지털 영상의 3차원 공간좌표 계산이 가능한 디지털 촬영 장치
JP5267100B2 (ja) * 2008-12-18 2013-08-21 株式会社豊田中央研究所 運動推定装置及びプログラム
JP5219847B2 (ja) * 2009-01-09 2013-06-26 キヤノン株式会社 画像処理装置及び画像処理方法
US20100316282A1 (en) * 2009-06-16 2010-12-16 Hope Clinton B Derivation of 3D information from single camera and movement sensors
US8442305B2 (en) * 2009-06-30 2013-05-14 Mitsubishi Electric Research Laboratories, Inc. Method for determining 3D poses using points and lines
JP5251779B2 (ja) * 2009-08-04 2013-07-31 ソニー株式会社 携帯型電子機器、制御方法、プログラム、撮像システム
JP5279654B2 (ja) * 2009-08-06 2013-09-04 キヤノン株式会社 画像追尾装置、画像追尾方法、及びコンピュータプログラム
US20110039573A1 (en) * 2009-08-13 2011-02-17 Qualcomm Incorporated Accessing positional information for a mobile station using a data code label
JP4560128B1 (ja) * 2009-08-13 2010-10-13 株式会社パスコ 地図画像統合データベース生成システム及び地図画像統合データベース生成プログラム
KR101594048B1 (ko) * 2009-11-09 2016-02-15 삼성전자주식회사 카메라들의 협력을 이용하여 3차원 이미지를 생성하는 방법 및 상기 방법을 위한 장치
US8855929B2 (en) * 2010-01-18 2014-10-07 Qualcomm Incorporated Using object to align and calibrate inertial navigation system
JP2011163900A (ja) * 2010-02-09 2011-08-25 Casio Computer Co Ltd 画像処理装置、画像処理プログラム、及び画像処理方法
JP5394296B2 (ja) * 2010-03-25 2014-01-22 富士フイルム株式会社 撮像装置及び画像処理方法
FR2960082B1 (fr) * 2010-05-17 2012-08-10 Commissariat Energie Atomique Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position
US9229089B2 (en) 2010-06-10 2016-01-05 Qualcomm Incorporated Acquisition of navigation assistance information for a mobile station
EP2400261A1 (de) 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
CN103119611B (zh) * 2010-06-25 2016-05-11 天宝导航有限公司 基于图像的定位的方法和设备
JP5554286B2 (ja) * 2010-06-28 2014-07-23 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 環境における3次元(3d)オブジェクトの3d姿勢を求めるための方法
JP2012034196A (ja) * 2010-07-30 2012-02-16 Olympus Corp 撮像端末、データ処理端末、撮像方法、及びデータ処理方法
JP4978725B2 (ja) * 2010-10-21 2012-07-18 カシオ計算機株式会社 撮影装置、撮影装置の制御方法およびプログラム
WO2012063468A1 (ja) * 2010-11-11 2012-05-18 パナソニック株式会社 画像処理装置、画像処理方法、およびプログラム
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8274552B2 (en) * 2010-12-27 2012-09-25 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US10200671B2 (en) * 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
JP2012185111A (ja) * 2011-03-08 2012-09-27 Seiko Epson Corp 測位装置、測位方法
US10235577B1 (en) 2011-03-17 2019-03-19 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
US9342746B1 (en) * 2011-03-17 2016-05-17 UtopiaCompression Corporation Maneuverless passive range estimation using monocular image sequences
CN103562791A (zh) * 2011-04-18 2014-02-05 眼见360股份有限公司 用于与移动计算设备一起进行全景视频成像的装置和方法
JP2012235435A (ja) * 2011-05-06 2012-11-29 Sasaki Boring Industry Co Ltd 画像センサー深度計を内蔵した一体型ボアホールスキャン画像記録装置
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
JP5766564B2 (ja) * 2011-09-15 2015-08-19 株式会社東芝 顔認証装置及び顔認証方法
KR101381439B1 (ko) 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
JP5898475B2 (ja) * 2011-11-28 2016-04-06 クラリオン株式会社 車載カメラシステム及びその較正方法、及びその較正プログラム
JP5915130B2 (ja) * 2011-12-07 2016-05-11 富士通株式会社 三次元座標測定装置、三次元座標測定方法、及びプログラム
JP5728399B2 (ja) * 2012-01-19 2015-06-03 株式会社東芝 計測装置、方法及びプログラム
US8646690B2 (en) 2012-02-06 2014-02-11 Cognex Corporation System and method for expansion of field of view in a vision system
US9027838B2 (en) 2012-02-06 2015-05-12 Cognex Corporation System and method for expansion of field of view in a vision system
US11966810B2 (en) 2012-02-06 2024-04-23 Cognex Corporation System and method for expansion of field of view in a vision system
US9892298B2 (en) 2012-02-06 2018-02-13 Cognex Corporation System and method for expansion of field of view in a vision system
RU2604166C2 (ru) 2012-06-22 2016-12-10 Ф.Хоффманн-Ля Рош Аг Способ и устройство для определения аналита в физиологической жидкости
US9299160B2 (en) * 2012-06-25 2016-03-29 Adobe Systems Incorporated Camera tracker target user interface for plane detection and object creation
US10154177B2 (en) 2012-10-04 2018-12-11 Cognex Corporation Symbology reader with multi-core processor
US8794521B2 (en) 2012-10-04 2014-08-05 Cognex Corporation Systems and methods for operating symbology reader with multi-core processor
US10219449B2 (en) 2013-03-07 2019-03-05 Blue River Technology Inc. System and method for plant dislodgement
JP6087218B2 (ja) * 2013-06-14 2017-03-01 株式会社ジオ技術研究所 画像解析装置
US9609859B2 (en) * 2013-09-13 2017-04-04 Palo Alto Research Center Incorporated Unwanted plant removal system having a stabilization system
US9609858B2 (en) 2013-09-13 2017-04-04 Palo Alto Research Center Incorporated Unwanted plant removal system having variable optics
US9565848B2 (en) 2013-09-13 2017-02-14 Palo Alto Research Center Incorporated Unwanted plant removal system
TWI534453B (zh) * 2014-02-18 2016-05-21 原相科技股份有限公司 相對位置定位系統與追蹤系統
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
DE102014102727B3 (de) * 2014-02-28 2015-07-30 Lars Geißler Kamerabasierter Positionssensor und Verfahren zur Positionsbestimmung
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
JP6441586B2 (ja) * 2014-04-25 2018-12-19 国立大学法人 東京大学 情報処理装置および情報処理方法
US20160178754A1 (en) * 2014-12-18 2016-06-23 Javad Gnss, Inc. Portable gnss survey system
US10309797B2 (en) * 2014-12-19 2019-06-04 Here Global B.V. User interface for displaying navigation information in a small display
CN104580912B (zh) * 2015-01-19 2018-01-09 宇龙计算机通信科技(深圳)有限公司 一种拍摄方法、装置及终端
KR101725478B1 (ko) * 2015-05-21 2017-04-11 주식회사 맥스트 3d 점군 인식 기반의 증강 현실 출력 방법과 이를 수행하기 위한 장치 및 시스템
JPWO2017042995A1 (ja) * 2015-09-07 2018-06-28 パナソニックIpマネジメント株式会社 車載用ステレオカメラ装置、およびその補正方法
KR102457617B1 (ko) * 2015-09-16 2022-10-21 한화테크윈 주식회사 영상 움직임 추정 방법 및 장치, 영상 안정화 방법 및 장치, 및 컴퓨터 기록매체
KR101973917B1 (ko) * 2016-01-20 2019-04-29 미쓰비시덴키 가부시키가이샤 3차원 계측 장치 및 그 계측 지원 처리 방법
JP6708730B2 (ja) * 2016-02-23 2020-06-10 株式会社日立製作所 移動体
KR102498893B1 (ko) * 2016-03-03 2023-02-13 주식회사 케이티 감시카메라를 이용한 대상물 추적 방법, 시스템 및 장치
KR101885356B1 (ko) * 2016-05-04 2018-08-03 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
JP6702543B2 (ja) * 2016-05-31 2020-06-03 株式会社東芝 情報処理装置、方法およびプログラム
JP6685847B2 (ja) 2016-06-14 2020-04-22 株式会社東芝 情報処理装置、および、情報処理方法
US10474148B2 (en) * 2016-07-27 2019-11-12 General Electric Company Navigating an unmanned aerial vehicle
KR101823774B1 (ko) 2016-08-10 2018-01-31 국방과학연구소 동체 고정형 영상탐색기 기반의 적응 유도필터를 이용한 표적의 기하 정보 추정 방법
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings
JP6647246B2 (ja) 2017-06-28 2020-02-14 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP6861592B2 (ja) * 2017-07-14 2021-04-21 三菱電機株式会社 データ間引き装置、測量装置、測量システム及びデータ間引き方法
JP6604998B2 (ja) * 2017-07-20 2019-11-13 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP7009107B2 (ja) * 2017-08-03 2022-01-25 キヤノン株式会社 撮像装置およびその制御方法
JP6826010B2 (ja) 2017-08-09 2021-02-03 株式会社東芝 カメラ運動推定装置、カメラ運動推定方法及びプログラム
US10916062B1 (en) * 2019-07-15 2021-02-09 Google Llc 6-DoF tracking using visual cues
KR102316994B1 (ko) * 2019-10-31 2021-10-27 한국전력공사 위치 측정 단말기의 제어방법
CN110887470B (zh) * 2019-11-25 2023-06-09 天津大学 基于微透镜阵列二维光学编码标识定向的位姿测量方法
US11435756B2 (en) * 2019-12-01 2022-09-06 Nvidia Corporation Visual odometry in autonomous machine applications
US11276156B2 (en) * 2020-01-07 2022-03-15 GM Global Technology Operations LLC Gaussian image quality analysis tool and method for operation
CN111238450B (zh) * 2020-02-27 2021-11-30 北京三快在线科技有限公司 视觉定位方法及装置
CN111783611B (zh) * 2020-06-28 2023-12-29 阿波罗智能技术(北京)有限公司 无人车的定位方法、装置、无人车及存储介质
EP4203188A4 (en) * 2020-10-12 2024-03-20 Samsung Electronics Co Ltd ELECTRONIC DEVICE WITH UWB ANTENNA AND 6DOF IMPLEMENTATION METHOD

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002091302A2 (en) * 2001-05-04 2002-11-14 Legend Films, Llc Image sequence enhancement system and method
JPH0797031B2 (ja) * 1987-01-30 1995-10-18 富士電機株式会社 移動ロボットの位置測定装置
US5012270A (en) * 1988-03-10 1991-04-30 Canon Kabushiki Kaisha Image shake detecting device
CA2190596C (en) 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
KR100414629B1 (ko) 1995-03-29 2004-05-03 산요덴키가부시키가이샤 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
JP2002532770A (ja) 1998-11-20 2002-10-02 ジオメトリックス インコーポレイテッド 映像に関連してカメラポーズを決定する方法及びシステム
EP1139062B1 (en) * 2000-03-30 2006-11-22 Kabushiki Kaisha Topcon Stereo image measuring device
DE50114781D1 (de) * 2000-04-03 2009-05-07 Elesta Relays Gmbh Relais
US20010045980A1 (en) * 2000-05-26 2001-11-29 Jacques Leonard Calibration method for digital camera and printer
JP2002010297A (ja) * 2000-06-26 2002-01-11 Topcon Corp ステレオ画像撮影システム
JP4593730B2 (ja) * 2000-06-26 2010-12-08 株式会社トプコン ステレオ画像の測定装置
JP2002064094A (ja) 2000-08-21 2002-02-28 Fuji Electric Co Ltd 酸化物薄膜素子の製造方法
JP3784289B2 (ja) * 2000-09-12 2006-06-07 松下電器産業株式会社 メディア編集方法及びその装置
US7126630B1 (en) * 2001-02-09 2006-10-24 Kujin Lee Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method
FR2836215B1 (fr) 2002-02-21 2004-11-05 Yodea Systeme et procede de modelisation et de restitution tridimensionnelle d'un objet
JP4166993B2 (ja) 2002-03-08 2008-10-15 株式会社トプコン 立体画像表示装置及び方法
ATE375687T1 (de) * 2002-03-08 2007-10-15 Topcon Corp Vorrichtung und verfahren zur stereoskopischen bildwiedergabe
JP2003296740A (ja) * 2002-04-08 2003-10-17 Victor Co Of Japan Ltd オブジェクト監視方法及びオブジェクト監視カメラ装置
JP4147059B2 (ja) * 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
JP4046186B2 (ja) * 2003-02-03 2008-02-13 学校法人明治大学 自己位置計測方法及び装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
WO2006002322A2 (en) 2004-06-22 2006-01-05 Sarnoff Corporation Method and apparatus for visual odometry
JP4488804B2 (ja) * 2004-06-23 2010-06-23 株式会社トプコン ステレオ画像の関連付け方法及び3次元データ作成装置
JP2006252275A (ja) * 2005-03-11 2006-09-21 Japan Science & Technology Agency カメラ運動及び物体形状の復元システム
EP1881450A1 (en) * 2005-05-10 2008-01-23 Olympus Corporation Image processing apparatus, image processing method, and image processing program
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
EP1796039B1 (en) * 2005-12-08 2018-11-28 Topcon Corporation Device and method for image processing
JP4889351B2 (ja) * 2006-04-06 2012-03-07 株式会社トプコン 画像処理装置及びその処理方法
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法

Also Published As

Publication number Publication date
JP2008089314A (ja) 2008-04-17
US20080095402A1 (en) 2008-04-24
EP1906140B2 (en) 2019-03-20
EP1906140A2 (en) 2008-04-02
EP1906140B1 (en) 2015-07-08
EP1906140A3 (en) 2012-09-19
US7860273B2 (en) 2010-12-28

Similar Documents

Publication Publication Date Title
JP4800163B2 (ja) 位置測定装置及びその方法
JP5362189B2 (ja) 画像処理装置及びその処理方法
JP4889351B2 (ja) 画像処理装置及びその処理方法
JP5087264B2 (ja) 画像処理装置及びその方法
JP4851239B2 (ja) 画像処理装置及びその処理方法
JP5100360B2 (ja) 画像処理装置
JP3833786B2 (ja) 移動体の3次元自己位置認識装置
JP5027747B2 (ja) 位置測定方法、位置測定装置、およびプログラム
DK3144881T3 (en) PROCEDURE FOR 3D PANORAMA MOSAIC CREATION OF A SCENE
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5084374B2 (ja) 位置計測装置及び位置計測方法
JPWO2004113836A1 (ja) 撮影映像表示方法
JP4874693B2 (ja) 画像処理装置及びその処理方法
JP6506032B2 (ja) 測量データ処理装置、測量データ処理方法およびプログラム
JP5184830B2 (ja) 位置計測装置及び位置計測方法
JP2016138826A5 (ja)
Huai et al. Real-time large scale 3D reconstruction by fusing Kinect and IMU data
JP4809134B2 (ja) 画像処理装置及びその処理方法
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
JP5363878B2 (ja) ステレオ画像撮影装置及びその方法
JP2007323616A (ja) 画像処理装置及びその処理方法
JP6506031B2 (ja) 測量データ処理装置、測量データ処理方法およびプログラム
JP4813263B2 (ja) 画像処理装置及びその処理方法
JP4027294B2 (ja) 移動体検出装置、移動体検出方法及び移動体検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090818

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110803

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4800163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250