JP7188798B2 - 座標算出装置、座標算出方法、及びプログラム - Google Patents

座標算出装置、座標算出方法、及びプログラム Download PDF

Info

Publication number
JP7188798B2
JP7188798B2 JP2020557788A JP2020557788A JP7188798B2 JP 7188798 B2 JP7188798 B2 JP 7188798B2 JP 2020557788 A JP2020557788 A JP 2020557788A JP 2020557788 A JP2020557788 A JP 2020557788A JP 7188798 B2 JP7188798 B2 JP 7188798B2
Authority
JP
Japan
Prior art keywords
images
image
coordinate calculation
cloud data
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020557788A
Other languages
English (en)
Other versions
JPWO2020111139A1 (ja
Inventor
喜宏 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Publication of JPWO2020111139A1 publication Critical patent/JPWO2020111139A1/ja
Application granted granted Critical
Publication of JP7188798B2 publication Critical patent/JP7188798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30132Masonry; Concrete
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Architecture (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、対象物の特定箇所の座標を点群データ上で算出するための、座標算出装置及び座標算出方法に関し、更には、これらを実現するためのプログラムに関する。
近年、橋梁等の構造物の外観に現れた欠陥を、構造物の画像から検出することが行われている。例えば、特許文献1は、カメラで撮影した構造物の画像から、構造物の表面に発生した微細なひび等の欠陥を検出する装置を開示している。
具体的には、特許文献1に開示された装置は、まず、カメラで撮影した画像に対して画像解析を実行して、構造物の表面に発生した欠陥を検出し、更に、測距計によって欠陥までの距離を測定する。続いて、特許文献1に開示された装置は、画像に対応付けられた座標データと測定された距離とを用いて、検出された欠陥のグローバル座標系での座標を算出する。
従って、特許文献1に開示された装置によれば、構造物の画像から、構造物の表面に発生した欠陥を検出できるとともに、グローバル座標系での欠陥の座標も算出できるので、構造物の管理者は、欠陥の位置を把握することができる。
国際公開第2017/103982号
しかしながら、欠陥の位置は、座標によって、即ち、数値によって示されているに過ぎず、そして、実際の構造物に座標軸が付加されている訳ではないので、管理者にとって、実際の欠陥の位置を特定することは簡単ではない。
本発明の目的の一例は、上記問題を解消し、対象物の特定箇所が映った2次元画像から、特定箇所の3次元モデル上での位置を特定し得る、座標算出装置、座標算出方法、及びプログラムを提供することにある。
上記目的を達成するため、本発明の一側面における第1の座標算出装置は、
対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、画像選択部と、
選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、3次元座標算出部と、
前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示部と、
を備えている、
ことを特徴とする。
上記目的を達成するため、本発明の一側面における第2の座標算出装置は、
対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、特徴点抽出部と、
前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、3次元座標算出部と、
前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示部と、
を備えている、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における第1の座標算出方法は、
(a)対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、ステップと、
(b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、ステップと、
(c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を有する、
ことを特徴とする。
また、上記目的を達成するため、本発明の一側面における第2の座標算出方法は、
(a)対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、ステップと、
(b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、ステップと、
(c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を有する、
ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面における第1のプログラムは、
コンピュータに、
(a)対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、ステップと、
(b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、ステップと、
(c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を実行させる、ことを特徴とする。
更に、上記目的を達成するため、本発明の一側面における第2のプログラムは、
コンピュータに、
(a)対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、ステップと、
(b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、ステップと、
(c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を実行させる、ことを特徴とする。
以上のように本発明によれば、欠陥部分等が映った2次元画像から、欠陥部分等の3次元モデル上での位置を特定することができる。
図1は、本発明の実施の形態1における座標算出装置の概略構成を示すブロック図である。 図2は、本発明の実施の形態1において座標算出の対象となる対象物の一例を示す斜視図である。 図3(a)及び(b)は、本発明の実施の形態1において3次元座標算出部で行われる処理を示す説明図であり、それぞれ一連の処理を示している。 図4は、図3(a)及び(b)に示された処理の後に、3次元座標算出部で行われる処理を示す説明図である。 図5は、本発明の実施の形態1における座標算出装置の動作を示すフロー図である。 図6は、本発明の実施の形態2における座標算出装置の概略構成を示すブロック図である。 図7は、本発明の実施の形態2における座標算出装置の構成を具体的に示すブロック図である。 図8は、本発明の実施の形態2において特徴点抽出部で行われる処理を示す説明図である。 図9は、本発明の実施の形態2における座標算出装置の動作を示すフロー図である。 図10は、点群データの作成のために選択されたペア画像の一例を示す図である。 図11は、カメラ行列から求められる、初期ペア画像のカメラの3次元座標と回転行列との一例を示す図である。 図12は、初期ペア画像の選択後に新たに選択された画像とそれから抽出された特徴点のペアの一例を示す図である。 図13は、特定の領域に存在する地物の3次元モデルの一例を示す図である。 図14は、図13に示す地物の1つの詳細な3次元モデルの一例を示す図である。 図15は、本発明の実施の形態1または2における座標算出装置を実現するコンピュータの一例を示すブロック図である。
(実施の形態1)
以下、本発明の実施の形態1における、座標算出装置、座標算出方法、及びプログラムについて、図1~図6を参照しながら説明する。
[装置構成]
最初に、本実施の形態1における座標算出装置の構成について説明する。図1は、本発明の実施の形態1における座標算出装置の概略構成を示すブロック図である。
図1に示す、本実施の形態1における座標算出装置10は、対象物において指定された特定箇所の位置を算出し、算出した位置を対象物の3次元モデル上で表示する装置である。図1に示すように、座標算出装置10は、画像選択部11と、3次元座標算出部12と、3次元モデル表示部13とを備えている。
画像選択部11は、対象物において特定箇所が指定された場合に、対象物を撮影した画像(2次元画像)の中から、特定箇所を含む画像を2以上選択する。3次元座標算出部12は、まず、選択された画像それぞれ毎に、特定箇所において互いに対応する点の位置を特定する。そして、3次元座標算出部12は、画像それぞれ毎に特定された点の位置と、画像それぞれ毎に予め算出されているカメラ行列とを用いて、指定された特定箇所の3次元座標を算出する。
また、3次元モデル表示部13は、対象物の点群データを用いて、対象物の3次元モデルを、表示装置又は別の端末装置等の画面上に表示する。更に、3次元モデル表示部13は、算出された3次元座標に基づいて、指定された特定箇所を3次元モデル上で表示する。
また、対象物の点群データは、対象物の表面に存在する特徴点の3次元座標の集合で構成されたデータである。点群データは、対象物50を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築することができる。
このように、本実施の形態1では、特定箇所を含む複数の画像から、カメラ行列を用いて、特定箇所の3次元座標が算出され、そして、特定箇所は、算出された3次元座標に基づいて、対象物の3次元モデル上で表示される。つまり、本実施の形態1によれば、対象物の特定箇所が映った2次元画像から、特定箇所の3次元モデル上での位置を特定することが可能となる。
続いて、図2~図4を用いて、本実施の形態1における座標算出装置の構成及び機能をより具体的に説明する。図2は、本発明の実施の形態1において座標算出の対象となる対象物の一例を示す斜視図である。図3(a)及び(b)は、本発明の実施の形態1において3次元座標算出部で行われる処理を示す説明図であり、それぞれ一連の処理を示している。図4は、図3(a)及び(b)に示された処理の後に、3次元座標算出部で行われる処理を示す説明図である。
図2に示すように、本実施の形態1では、対象物50は、建築物である。図2の例では、対象物50の画像が示されている。画像選択部11は、本実施の形態1では、予め、対象物50が写った多数の画像の画像データを取得する。そして、画像選択部11は、対象物50において指定された特定箇所の入力を受け付け、受け付けた特定の箇所を含むペア画像を選択する。
例えば、対象物50の管理者等が、端末装置の画面に、図2に示すように、対象物50の画像を表示させ、その表示された画像上で、特定箇所を指定したとする。この場合、端末装置は、指定された特定箇所の画像データを、画像選択部11に入力する。図2において指定された特定箇所は破線で示されている。
画像選択部11は、指定された特定箇所の画像データが入力されると、この入力を受け付け、予め取得している多数の画像から、指定された特定の箇所を含む画像を、例えば2枚特定し、特定した2枚の画像をペア画像として選択する。
また、特定の箇所は、別の装置によって自動的に指定されても良い。例えば、別の装置が、対象物50の欠陥部分を機械学習によって学習し、学習した欠陥部分を特定の箇所として、画像選択部11に入力することもできる。
3次元座標算出部12は、本実施の形態1では、ペア画像が選択されると、図3(a)~(c)に示す処理を行って、ペア画像に映っている特定箇所の3次元座標を算出する。以下に具体的に説明する。
図3(a)に示すように、3次元座標算出部12は、まず、ペア画像の一方、例えば、画像Aにおいて、指定された箇所の中心の座標(x,y)を特定し、更に、画像Aにおける、中心からの距離がrからrの範囲にある環状の領域内において、3個の特徴点を抽出する。図3(a)において、画像Aから抽出された各特徴点の座標は、それぞれ、(x,y)、(x,y)、(x,y)である。なお、抽出される特徴点の個数は、3個に限定されるものではない。
続いて、図3(b)に示すように、3次元座標算出部12は、ペア画像の他方である画像Bから、画像Aで抽出された各特徴点に対応する特徴点を抽出する。図3(b)において、画像Bから抽出された各特徴点の座標は、それぞれ、(x’,y’)、(x’,y’)、(x’,y’)である。
そして、画像Aから抽出した各特徴点を、画像Bから抽出した各特徴点に変換するための、相関変換行列として、3次元座標算出部12は、下記の数1を満たす回転行列J(J=(J, J,J))と並進行列t(t=(t,t,t))とを算出する。なお、i=0,1,2である。
Figure 0007188798000001
そして、3次元座標算出部12は、上記数1に従い、画像Aにおける特定箇所の中心の座標(x,y)に、算出した回転行列Rを乗算し、得られた値に、並進行列tを加算する。これにより、画像Bにおける特定箇所の中心の座標(x’,y’)が算出される。なお、本実施の形態では、上述の算出方法以外の方法によって、画像Bにおける特定箇所の中心の座標が算出されていても良い。
また、上述の例では、ペア画像それぞれの特定箇所の3次元座標として、特定箇所の中心の3次元座標が抽出されているが、本実施の形態1は、この態様に限定されるものではない。本実施の形態1では、特定箇所の中心以外の点の3次元座標が算出されていても良い。
次に、図4に示すように、3次元座標算出部12は、画像Aにおける特定箇所の中心点の座標と、画像Bにおける特定箇所の中心点の座標と、画像Aについて算出されているカメラ行列Pと、画像Bについて算出されているカメラ行列P’とを用いて、特定箇所の中心点の3次元座標Xを算出する。
具体的には、3次元座標算出部12は、下記の数2を解くことで3次元座標Xを算出する。また、数2における行列Aは数3で示される。数3において、piTは、カメラ行列Pの行であり、p’iTは、カメラ行列P’の行である。
Figure 0007188798000002
Figure 0007188798000003
[装置動作]
次に、本発明の実施の形態1における座標算出装置10の動作について図5を用いて説明する。図5は、本発明の実施の形態1における座標算出装置の動作を示すフロー図である。以下の説明においては、適宜図1~図5を参照する。また、本実施の形態1では、座標算出装置10を動作させることによって、座標算出方法が実施される。よって、本実施の形態1における座標算出方法の説明は、以下の座標算出装置10の動作説明に代える。
図5に示すように、最初に、画像選択部11が、対象物50において特定箇所が指定されると、指定された特定箇所の入力を受け付ける(ステップA1)。
続いて、画像選択部11は、対象物50が写った多数の画像の中から、ステップA1で入力を受け付けた特定箇所を含むペア画像を選択する(ステップA2)。なお、選択される画像はペアには限定されず、3以上であっても良い。また、ステップA2では、画像選択部11は、選択した画像の画像データを3次元座標算出部12に入力する。
次に、3次元座標算出部12は、ステップA2で選択されたペア画像それぞれ毎に、特定箇所において互いに対応する特徴点を特定する(ステップA3)。具体的には、ステップA3では、3次元座標算出部12は、図3(a)及び図3(b)に示すように、ペア画像の一方における特定箇所の中心点の座標(x,y)を特定し、これらから、ペア画像の他方における特定箇所の中心点の座標(x’,y’)を算出する。
次に、3次元座標算出部12は、ペア画像それぞれにおける特定箇所の中心点の座標と、ペア画像それぞれについて算出されているカメラ行列とを用いて、特定箇所の中心点の3次元座標Xを算出する(ステップA4)。具体的には、ステップA4では、3次元座標算出部12は、上述した数8を解くことで3次元座標Xを算出する。
次に、3次元モデル表示部13は、対象物50の点群データを用いて、対象物50の3次元モデルを、表示装置等の画面上に表示し、更に、ステップA4で算出された3次元座標Xに基づいて、指定された特定箇所を3次元モデル上に表示する(ステップA5)。
[実施の形態1における効果]
以上のように本実施の形態1では、指定された特定箇所が写った複数枚の画像から、この特定箇所の3次元座標が算出され、更に、算出された3次元座標は、対象物の3次元モデル上で表示される。このため、対象物が構造物であり、欠陥が発生した箇所が指定されている場合は、構造物の管理者は、簡単に、構造物の3次元モデル上で欠陥が発生した箇所を把握することができる。
[プログラム]
本実施の形態1におけるプログラムは、コンピュータに、図5に示すステップA1~A5を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における座標算出装置と座標算出方法とを実現することができる。この場合、コンピュータのプロセッサは、画像選択部11、3次元座標算出部12、及び3次元モデル表示部13として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、画像選択部11、3次元座標算出部12、及び3次元モデル表示部13のいずれかとして機能しても良い。
(実施の形態2)
最初に、本実施の形態2における座標算出装置の概略構成について説明する。図6は、本発明の実施の形態2における座標算出装置の概略構成を示すブロック図である。
図6に示す、本実施の形態2における座標算出装置20も、図1に示した実施の形態1における座標算出装置10と同様に、対象物において指定された特定箇所の位置を算出し、算出した位置を対象物の3次元モデル上で表示する装置である。図6に示すように、座標算出装置20は、特徴点抽出部21と、3次元座標算出部22と、3次元モデル表示部23とを備えている。
特徴点抽出部21は、対象物において特定箇所が指定された場合に、対象物を含む複数の画像から、2以上の画像に含まれ、且つ、指定された特定箇所に関連する特徴点を抽出する。3次元座標算出部22は、上述の複数の画像を用いて構築された対象物の点群データを用いて、抽出された特徴点の3次元座標を求め、求めた3次元座標を指定された特定箇所の3次元座標とする。
また、3次元モデル表示部23は、図1に示した3次元モデル表示部13と同様の機能を備えている。3次元モデル表示部23は、対象物の点群データを用いて、対象物の3次元モデルを、表示装置又は別の端末装置等の画面上に表示する。更に、3次元モデル表示部23は、算出された3次元座標に基づいて、指定された特定箇所を3次元モデル上で表示する。
また、対象物の点群データは、実施の形態1でも述べたように、対象物の表面に存在する特徴点の3次元座標の集合で構成されたデータである。
このように、本実施の形態2では、対象物の点群データを用いることによって、特定箇所の3次元座標が算出され、そして、特定箇所は、算出された3次元座標に基づいて、対象物の3次元モデル上で表示される。つまり、本実施の形態2においても、実施の形態1と同様に、対象物の特定箇所が映った2次元画像から、特定箇所の3次元モデル上での位置を特定することが可能となる。
続いて、図7~図10を用いて、本実施の形態2における座標算出装置20の構成及び機能をより具体的に説明する。図7は、本発明の実施の形態2における座標算出装置の構成を具体的に示すブロック図である。図8は、本発明の実施の形態2において特徴点抽出部で行われる処理を示す説明図である。
まず、本実施の形態2においても、対象物は建築物であるとする(図2参照)。また、図7に示すように、本実施の形態2における座標算出装置20は、上述した特徴点特定部21、3次元座標算出部22、及び3次元モデル表示部23に加えて、対象物の点群データを作成する点群データ作成部24を備えている。
点群データ作成部24は、まず、対象物を含む複数の画像それぞれにおいて、その画像以外の画像との間で対応する特徴点が抽出されている場合に、特徴点が抽出されている画像の中から、ペア画像を選択する。次に、点群データ作成部24は、選択されたペア画像それぞれ毎に、その画像を撮影したカメラについて予め算出されているカメラ行列から、その画像を撮影したカメラの位置の3次元座標と回転行列とを求める。
続いて、点群データ作成部24は、カメラの位置の3次元座標と回転行列とを用いて、選択したペア画像それぞれの両者に対応する特徴点の3次元座標を算出する。そして、点群データ作成部24は、3次元座標が算出された特徴点を用いて、点群データを作成する。
特徴点抽出部21は、本実施の形態2では、まず、対象物50において指定された特定箇所の入力を受け付ける。具体的には、特徴点抽出部21は、実施の形態1における画像選択部11と同様に、管理者等の端末装置又は外部の別の装置から、指定された特定箇所の画像データが入力されると、その入力を受け付ける。
続いて、特徴点抽出部21は、点群データの生成に用いられた複数の画像の中から、入力された特定箇所を含む2以上の画像を選択し、選択した2以上の画像それぞれから、特定箇所に関連する特徴点を抽出する。具体的には、特徴点抽出部21は、例えば、図8に示すように、特定箇所に関連する特徴点として、特定箇所の中心点から一定距離内に存在する、最大の特徴量を有する特徴点を抽出する。なお、この場合の中心点は特徴点を抽出るための基準であり、基準は中心点以外の点であっても良い。
3次元座標算出部22は、本実施の形態2では、特徴点抽出部21によって抽出された特徴点と、点群データ作成部24で作成された点群データを構成している各特徴点とを比較する。そして、3次元座標算出部22は、点群データを構成している各特徴点のうち、特徴点抽出部21によって抽出された特徴点に一致する特徴点を特定し、特定した特徴点の3次元座標を、特徴点抽出部21によって抽出された特徴点の3次元座標とする。
続いて、3次元座標算出部22は、特徴点抽出部21によって抽出された特徴点の3次元座標を算出する。
[装置動作]
次に、本発明の実施の形態2における座標算出装置20の動作について図9を用いて説明する。図9は、本発明の実施の形態2における座標算出装置の動作を示すフロー図である。以下の説明においては、適宜図7及び図8を参照する。また、本実施の形態2では、座標算出装置20を動作させることによって、座標算出方法が実施される。よって、本実施の形態2における座標算出方法の説明は、以下の座標算出装置20の動作説明に代える。
図9に示すように、最初に、点群データ作成部24が、対象物が写っている複数の画像を用いて、点群データを作成する(ステップB1)。なお、ステップB1は、後述のステップB2が実行される前に行われていれば良く、ステップB1の実行時とステップB2の実行時との間に一定の期間があっても良い。
次に、特徴点抽出部21は、対象物50において特定箇所が指定されると、指定された特定箇所の入力を受け付ける(ステップB2)。
続いて、特徴点抽出部21は、点群データの生成に用いられた複数の画像の中から、入力された特定箇所を含む2以上の画像を選択し、選択した2以上の画像それぞれから、特定箇所に関連する特徴点を抽出する。(ステップB3)。
次に、3次元座標算出部22は、ステップB3で抽出された特徴点と、点群データ作成部24で作成された点群データを構成している各特徴点とを比較する。そして、3次元座標算出部22は、点群データを構成している各特徴点のうち、特徴点抽出部21によって抽出された特徴点に一致する特徴点を特定し、特定した特徴点の3次元座標を、ステップB3で抽出された特徴点の3次元座標とする(ステップB4)。
そして、ステップB4で得られた3次元座標は、特定箇所に関連した特徴点の3次元座標であるので、3次元座標算出部22は、ステップB4で得られた3次元座標を、特定箇所の3次元座標として抽出する(ステップB5)。
次に、3次元モデル表示部23は、対象物50の点群データを用いて、対象物の3次元モデルを、表示装置等の画面上に表示し、更に、ステップB5で算出された3次元座標に基づいて、指定された特定箇所を3次元モデル上に表示する(ステップB6)。
ここで、図10~図12を用いて、点群データ作成部24による点群データの作成処理(ステップB1)について具体的に説明する。図10は、点群データの作成のために選択されたペア画像の一例を示す図である。図11は、カメラ行列から求められる、初期ペア画像のカメラの3次元座標と回転行列との一例を示す図である。図12は、初期ペア画像の選択後に新たに選択された画像とそれから抽出された特徴点のペアの一例を示す図である。
図10に示すように、点群データ作成部24は、最初のペア画像(初期ペア画像)として画像31と画像32とを選択する。そして、この場合、画像31から抽出されている特徴点(m~m)と、画像32から抽出されている特徴点(m’~m’)とは対応している。mとm’、mとm’、mとm’、mとm’、mとm’は、それぞれ特徴点ペアである。また、図10例では、画像31はカメラ41によって撮影され、画像32はカメラ42によって撮影されている。図3において、M(M~M)は、各特徴点に対応する対象物上の3次元座標である。
続いて、点群データ作成部24は、初期ペア画像それぞれから抽出された特徴点ペア(m~m、m’~m’)を用いて、画像31を撮影したカメラ41のカメラ行列Pと、画像32を撮影したカメラ42のカメラ行列P’とを算出する。また、カメラ行列P及びカメラ行列P’は、カメラ41の位置を原点とすると、それぞれ下記の数4及び数5によって表すことができる。
Figure 0007188798000004
Figure 0007188798000005
上記数4において、Iは、カメラ41の回転行列である。図11に示すように、カメラ41の位置が原点となるので、I=(1,1,1)となる。また、上記数12において、Rは、カメラ42の回転行列である(R=(R,R,R))。tは、上述したように並進行列であり、カメラ42の位置の3次元座標に相当する(t=(t,t,t))。
従って、この場合は、カメラ行列P及びカメラ行列P’から逆算することによって、R及びtを算出することが出来る。
具体的には、点群データ作成部24は、各特徴点の座標を用いて、下記の数6~数8に示す方程式を解くことによって、R及びtを算出する。数6~数8において、mハットは、m(m~m)を正規化して得られた画像A上の座標である。同様に、m’ハットは、m’(m’~m’)を正規化して得られた画像B上の座標である。Eは、Essential行列、Kはカメラのキャリブレーション行列である。
Figure 0007188798000006
Figure 0007188798000007
Figure 0007188798000008
また、キャリブレーション行列Kは、下記の数9及び数10から求めることができる。なお、o、oは、カメラの中心座標である。
Figure 0007188798000009
Figure 0007188798000010
次に、点群データ作成部24は、各カメラの位置の3次元座標と回転行列とを用いて、抽出された特徴点の3次元座標M(M~M)を算出する。具体的には、点群データ作成部24は、実施の形態1で示した上記数2を解くことで3次元座標Mを算出する。なお、この場合は、XがMと読み替えられる。また、この場合も、数2における行列Aは数3で示される。
次に、図12に示すように、点群データ作成部24は、初期ペア画像以外の画像の中から、1つの画像33を新たに選択し、新たに選択した画像33と初期ペア画像の1つとを新たなペア画像とする。画像33は、カメラ43によって撮影されている。
そして、点群データ作成部24は、画像32の特徴点に対応する画像33の特徴点(m’’~m’’)を特定し、画像32の特徴点と画像33との特徴点とを特徴点ペアとする。そして、点群データ作成部24は、画像33を撮影したカメラ43のカメラ行列Pnを算出する。カメラ行列Pnは、下記の数11によって表すことができる。
Figure 0007188798000011
具体的には、点群データ作成部24は、画像33の特定された特徴点を用いて、下記の数12に示す方程式を解くことによって、カメラ43のカメラ行列PnのRn及びtnを算出する。
Figure 0007188798000012
数12において、Mは、新たに選択された画像33における画像32と共通する特徴点の3次元座標である。mハットは、新たに選択された画像33における特徴点の正規化された座標である。diは、下記の数13に示すように、画像53を撮影したカメラ43とmハットとの距離を示している。
Figure 0007188798000013
次に、点群データ作成部24は、算出したカメラ43のカメラ行列PnのRn及びtnを用いて、画像33の特定された特徴点(m’’~m’’)の3次元座標Mを算出する。具体的には、点群データ作成部24は、上記数2を解くことで、特徴点の3次元座標M(M~M)を算出する。以上の処理により、点群データ作成部24は、対象物の点群データを作成することができる。
[実施の形態2における効果]
以上のように本実施の形態2においても、指定された特定箇所が写った複数枚の画像から、この特定箇所の3次元座標が算出され、更に、算出された3次元座標は、対象物の3次元モデル上で表示される。このため、対象物が構造物であり、欠陥が発生した箇所が指定されている場合は、構造物の管理者は、簡単に、構造物の3次元モデル上で欠陥が発生した箇所を把握することができる。
[プログラム]
本実施の形態2におけるプログラムは、コンピュータに、図9に示すステップB1~B6を実行させるプログラムであれば良い。このプログラムをコンピュータにインストールし、実行することによって、本実施の形態における座標算出装置と座標算出方法とを実現することができる。この場合、コンピュータのプロセッサは、特徴点特定部21、3次元座標算出部22、3次元モデル表示部23、及び点群データ作成部24として機能し、処理を行なう。
また、本実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、特徴点特定部21、3次元座標算出部22、3次元モデル表示部23、及び点群データ作成部24のいずれかとして機能しても良い。
(応用例)
続いて、図13及び図14を用いて、上述した実施の形態1及び2の応用例について説明する。図13は、特定の領域に存在する地物の3次元モデルの一例を示す図である。図14は、図13に示す地物の1つの詳細な3次元モデルの一例を示す図である。本応用例では、図13に示す3次元モデルに、図14に示す3次元モデルを結合する例について説明する。
図13に示すように、領域60に存在する多数の地物61~69の3次元モデル(以下「広範囲3次元モデル」と表記する)が構築されている。また、この広範囲3次元モデルは、領域60全体を含む多数の画像から点群データを作成することによって構築されている。
また、図14に示すように、図13に示された地物61~69のうち、地物61については、図13に示された3次元モデルよりも詳細な3次元モデル(以下「詳細3次元モデル」と表記する)が構築されている。図14に示す地物61の詳細3次元モデルは、地物61のみの多数の画像から点群データを作成することによって構築されている。
図13に示す3次元モデルと、図14に示す3次元モデルとが存在する場合において、上述した実施の形態1及び2における座標算出装置によれば、前者に後者を結合することができる。以下に詳細に説明する。
最初に、図13に示すように、座標算出装置は、広範囲3次元モデルの生成に使用した多数の画像の中から、地物61が映っているペア画像を選択する。次いで、座標算出装置は、選択したペア画像から、3個以上n個以下の地物61の特徴点ペアを抽出する。nは3以上の自然数である。
図13の例では、3つの特徴点ペア (x10,y10)(x’10,y’10)、(x11,y11)(x’11,y’11)、及び(x12,y12)(x’12,y’12)が抽出されている。そして、座標算出装置は、抽出した特徴点ペアを用いて、地物61上の各特徴点の3次元座標X10,X11、及びX12を算出する。
続いて、図14に示すように、座標算出装置は、地物61の詳細3次元モデルの生成に使用した多数の画像の中から、図13で抽出された特徴点と同じ点を含むペア画像を選択する。次いで、座標算出装置は、選択したペア画像から、図13で抽出された特徴点と同じ点とを、対応する点のペアとして抽出する。
図14の例では、3つの対応する点のペア (x20,y20)(x’20,y’20)、(x21,y21)(x’21,y’21)、及び(x22,y22)(x’22,y’22)が抽出されている。そして、座標算出装置は、抽出した対応する点のペアを用いて、地物61上の各対応する点の3次元座標X20,X21、及びX22を算出する。
次いで、座標算出装置は、数14に示す連立方程式を解いて、広範囲3次元モデルから算出した3次元座標と、詳細3次元モデルから算出した3次元座標とを満足する、回転行列Rと並進行列tとを算出する。
Figure 0007188798000014
その後、座標算出装置は、算出した回転行列Rと並進行列tとを用いて、詳細3次元モデルの元になった点群データの座標系を、広範囲3次元モデルの元になった点群データ座標系に変換する。これにより、広範囲3次元モデルに、詳細3次元モデルを結合することが可能となる。
(物理構成)
ここで、実施の形態1及び2におけるプログラムを実行することによって、座標算出装置を実現するコンピュータについて図15を用いて説明する。図15は、本発明の実施の形態1または2における座標算出装置を実現するコンピュータの一例を示すブロック図である。
図15に示すように、コンピュータ110は、CPU111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)を備えていても良い。
CPU111は、記憶装置113に格納された、本実施の形態におけるプログラム(コード)をメインメモリ112に展開し、これらを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。また、本実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。
また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。
データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。
また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact Disk Read Only Memory)などの光学記録媒体が挙げられる。
なお、本実施の形態における座標算出装置は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェアを用いることによっても実現可能である。更に、座標算出装置は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。
上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記12)によって表現することができるが、以下の記載に限定されるものではない。
(付記1)
対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、画像選択部と、
選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、3次元座標算出部と、
前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示部と、
を備えている、
ことを特徴とする座標算出装置。
(付記2)
付記1に記載の座標算出装置であって、
前記対象物の点群データが、前記対象物を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築されている、
ことを特徴とする座標算出装置。
(付記3)
対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、特徴点抽出部と、
前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、3次元座標算出部と、
前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示部と、
を備えている、
ことを特徴とする座標算出装置。
(付記4)
付記3に記載の座標算出装置であって、
前記対象物の点群データを作成する、点群データ作成部を更に備え、
前記点群データ作成部は、前記対象物を含む前記複数の画像それぞれにおいて、当該画像以外の画像との間で対応する特徴点が抽出されている場合に、前記特徴点が抽出されている前記画像の中から、ペア画像を選択し、
選択された前記ペア画像それぞれ毎に、当該画像を撮影したカメラについて予め算出されているカメラ行列から、当該画像を撮影したカメラの位置の3次元座標と回転行列とを求め、更に、前記カメラの位置の3次元座標と前記回転行列とを用いて、前記ペア画像それぞれの両者に対応する前記特徴点の3次元座標を算出し、
前記3次元座標が算出された前記特徴点を用いて、前記点群データを作成する、
ことを特徴とする座標算出装置。
(付記5)
(a)対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、ステップと、
(b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、ステップと、
(c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を有する、
ことを特徴とする座標算出方法。
(付記6)
付記5に記載の座標算出方法であって、
前記対象物の点群データが、前記対象物を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築されている、
ことを特徴とする座標算出方法。
(付記7)
(a)対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、ステップと、
(b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、ステップと、
(c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を有する、
ことを特徴とする座標算出方法。
(付記8)
付記7に記載の座標算出方法であって、
(d)前記対象物の点群データを作成する、ステップを更に有し、
前記(d)のステップにおいて、前記対象物を含む前記複数の画像それぞれにおいて、当該画像以外の画像との間で対応する特徴点が抽出されている場合に、前記特徴点が抽出されている前記画像の中から、ペア画像を選択し、
選択された前記ペア画像それぞれ毎に、当該画像を撮影したカメラについて予め算出されているカメラ行列から、当該画像を撮影したカメラの位置の3次元座標と回転行列とを求め、更に、前記カメラの位置の3次元座標と前記回転行列とを用いて、前記ペア画像それぞれの両者に対応する前記特徴点の3次元座標を算出し、
前記3次元座標が算出された前記特徴点を用いて、前記点群データを作成する、
ことを特徴とする座標算出方法。
(付記9)
コンピュータに、
(a)対象物において特定箇所が指定された場合に、前記対象物を撮影した画像の中から、前記特定箇所を含む画像を2以上選択する、ステップと、
(b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、ステップと、
(c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を実行させる、プログラム。
(付記10)
付記9に記載のプログラムであって、
前記対象物の点群データが、前記対象物を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築されている、
ことを特徴とするプログラム
(付記11)
コンピュータに、
(a)対象物において特定箇所が指定された場合に、前記対象物を含む複数の画像から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、ステップと、
(b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、ステップと、
(c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
を実行させる、プログラム。
(付記12)
付記11に記載のプログラムであって、
記コンピュータに、
(d)前記対象物の点群データを作成する、ステップを更に実行させ、
前記(d)のステップにおいて、前記対象物を含む前記複数の画像それぞれにおいて、当該画像以外の画像との間で対応する特徴点が抽出されている場合に、前記特徴点が抽出されている前記画像の中から、ペア画像を選択し、
選択された前記ペア画像それぞれ毎に、当該画像を撮影したカメラについて予め算出されているカメラ行列から、当該画像を撮影したカメラの位置の3次元座標と回転行列とを求め、更に、前記カメラの位置の3次元座標と前記回転行列とを用いて、前記ペア画像それぞれの両者に対応する前記特徴点の3次元座標を算出し、
前記3次元座標が算出された前記特徴点を用いて、前記点群データを作成する、
ことを特徴とするプログラム
以上、実施の形態を参照して本願発明を説明したが、本願発明は上記実施の形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2018年11月29日に出願された日本出願特願2018-224015を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上のように本発明によれば、欠陥部分等が映った2次元画像から、欠陥部分等の3次元モデル上での位置を特定することができる。本発明は、構造物の維持及び管理、特定の領域における捜索等に利用できる。
10 座標算出装置(実施の形態1)
11 画像選択部
12 3次元座標算出部
20 座標算出装置(実施の形態2)
21 特徴点特定部
22 3次元座標算出部
23 3次元モデル表示部
24 点群データ作成部
31、32、33 画像
41、42、43 カメラ
50 対象物
60 領域
61~69 地物
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス

Claims (10)

  1. 対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、前記特定箇所を含む画像を2以上選択する、画像選択手段と、
    選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、3次元座標算出手段と、
    前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示手段と、
    を備えている、
    ことを特徴とする座標算出装置。
  2. 請求項1に記載の座標算出装置であって、
    前記対象物の点群データが、前記対象物を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築されている、
    ことを特徴とする座標算出装置。
  3. 対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、特徴点抽出手段と、
    前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、3次元座標算出手段と、
    前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、3次元モデル表示手段と、
    を備えている、
    ことを特徴とする座標算出装置。
  4. 請求項3に記載の座標算出装置であって、
    前記対象物の点群データを作成する、点群データ作成手段を更に備え、
    前記点群データ作成手段は、前記対象物を含む前記複数の画像それぞれにおいて、当該画像以外の画像との間で対応する特徴点が抽出されている場合に、前記特徴点が抽出されている前記画像の中から、ペア画像を選択し、
    選択された前記ペア画像それぞれ毎に、当該画像を撮影したカメラについて予め算出されているカメラ行列から、当該画像を撮影したカメラの位置の3次元座標と回転行列とを求め、更に、前記カメラの位置の3次元座標と前記回転行列とを用いて、前記ペア画像それぞれの両者に対応する前記特徴点の3次元座標を算出し、
    前記3次元座標が算出された前記特徴点を用いて、前記点群データを作成する、
    ことを特徴とする座標算出装置。
  5. (a)対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、前記特定箇所を含む画像を2以上選択し、
    (b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出し、
    (c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、
    ことを特徴とする座標算出方法。
  6. 請求項5に記載の座標算出方法であって、
    前記対象物の点群データが、前記対象物を撮影した複数の画像それぞれから、特徴点を抽出し、抽出した各特徴点を用いて構築されている、
    ことを特徴とする座標算出方法。
  7. (a)対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出し、(b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とし、
    (c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、
    ことを特徴とする座標算出方法。
  8. 請求項7に記載の座標算出方法であって、
    更に、(d)前記対象物の点群データを作成し、
    前記(d)において、前記対象物を含む前記複数の画像それぞれにおいて、当該画像以外の画像との間で対応する特徴点が抽出されている場合に、前記特徴点が抽出されている前記画像の中から、ペア画像を選択し、
    選択された前記ペア画像それぞれ毎に、当該画像を撮影したカメラについて予め算出されているカメラ行列から、当該画像を撮影したカメラの位置の3次元座標と回転行列とを求め、更に、前記カメラの位置の3次元座標と前記回転行列とを用いて、前記ペア画像それぞれの両者に対応する前記特徴点の3次元座標を算出し、
    前記3次元座標が算出された前記特徴点を用いて、前記点群データを作成する、
    ことを特徴とする座標算出方法。
  9. コンピュータに、
    (a)対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、前記特定箇所を含む画像を2以上選択する、ステップと、
    (b)選択された前記画像それぞれ毎に、前記特定箇所において互いに対応する点の位置を特定し、そして、前記画像それぞれ毎に特定された前記点の位置と、前記画像それぞれ毎に予め算出されているカメラ行列とを用いて、前記特定箇所の3次元座標を算出する、ステップと、
    (c)前記対象物の点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
    を実行させる、プログラム。
  10. コンピュータに、
    (a)対象物を撮影した画像上で、前記対象物特定箇所が指定された場合に、予め取得している複数の画像の中から、2以上の前記画像に含まれ、且つ、指定された前記特定箇所に関連する特徴点を抽出する、ステップと、
    (b)前記複数の画像を用いて構築された前記対象物の点群データを用いて、抽出された前記特徴点の3次元座標を求め、求めた前記3次元座標を指定された前記特定箇所の3次元座標とする、ステップと、
    (c)前記点群データを用いて、前記対象物の3次元モデルを画面上に表示し、更に、算出された前記3次元座標に基づいて、指定された前記特定箇所を前記3次元モデル上で表示する、ステップと、
    を実行させる、プログラム。
JP2020557788A 2018-11-29 2019-11-27 座標算出装置、座標算出方法、及びプログラム Active JP7188798B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018224015 2018-11-29
JP2018224015 2018-11-29
PCT/JP2019/046420 WO2020111139A1 (ja) 2018-11-29 2019-11-27 座標算出装置、座標算出方法、及びコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JPWO2020111139A1 JPWO2020111139A1 (ja) 2021-10-07
JP7188798B2 true JP7188798B2 (ja) 2022-12-13

Family

ID=70853014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020557788A Active JP7188798B2 (ja) 2018-11-29 2019-11-27 座標算出装置、座標算出方法、及びプログラム

Country Status (4)

Country Link
US (1) US11922659B2 (ja)
JP (1) JP7188798B2 (ja)
CN (1) CN113167568B (ja)
WO (1) WO2020111139A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187732B (zh) * 2022-09-05 2022-12-23 江西省云眼大视界科技有限公司 一种图像数据采集与传输装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006618A (ja) 2001-06-27 2003-01-10 Minolta Co Ltd 3次元モデルの生成方法および装置並びにコンピュータプログラム
JP2009075117A (ja) 2007-02-16 2009-04-09 Mitsubishi Electric Corp 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
WO2014171418A1 (ja) 2013-04-19 2014-10-23 凸版印刷株式会社 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2016121917A (ja) 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003223158B2 (en) * 2002-01-09 2008-01-17 Emisphere Technologies, Inc. Polymorphs of sodium 4-[(4-chloro-2-hydroxybenzoyl)amino]butanoate
US7280685B2 (en) * 2002-11-14 2007-10-09 Mitsubishi Electric Research Laboratories, Inc. Object segmentation from images acquired by handheld cameras
WO2006083297A2 (en) * 2004-06-10 2006-08-10 Sarnoff Corporation Method and apparatus for aligning video to three-dimensional point clouds
JP4743538B2 (ja) 2006-11-17 2011-08-10 アイシン精機株式会社 カメラ校正装置
US7697125B2 (en) * 2007-05-11 2010-04-13 Rosemount Aerospace Inc. Scanning ladar with adjustable operational parameters
US8224097B2 (en) * 2008-06-12 2012-07-17 Sri International Building segmentation for densely built urban regions using aerial LIDAR data
KR101319471B1 (ko) * 2008-08-29 2013-10-17 미쓰비시덴키 가부시키가이샤 부감 화상 생성장치, 부감 화상 생성방법 및 기록매체
JP5715735B2 (ja) 2012-06-29 2015-05-13 富士フイルム株式会社 3次元測定方法、装置、及びシステム、並びに画像処理装置
JP5745178B2 (ja) 2012-06-29 2015-07-08 富士フイルム株式会社 3次元測定方法、装置及びシステム、並びに画像処理装置
JP6435750B2 (ja) 2014-09-26 2018-12-12 富士通株式会社 3次元座標算出装置、3次元座標算出方法および3次元座標算出プログラム
WO2016103621A1 (ja) 2014-12-24 2016-06-30 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法
JP6654649B2 (ja) 2015-12-14 2020-02-26 株式会社ニコン・トリンブル 欠陥検出装置及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006618A (ja) 2001-06-27 2003-01-10 Minolta Co Ltd 3次元モデルの生成方法および装置並びにコンピュータプログラム
JP2009075117A (ja) 2007-02-16 2009-04-09 Mitsubishi Electric Corp 道路地物計測装置、地物識別装置、道路地物計測方法、道路地物計測プログラム、計測装置、計測方法、計測プログラム、計測位置データ、計測端末装置、計測サーバ装置、作図装置、作図方法、作図プログラムおよび作図データ
WO2014171418A1 (ja) 2013-04-19 2014-10-23 凸版印刷株式会社 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2016121917A (ja) 2014-12-24 2016-07-07 パナソニックIpマネジメント株式会社 3次元情報復元装置、3次元情報復元システム、及び3次元情報復元方法

Also Published As

Publication number Publication date
CN113167568A (zh) 2021-07-23
US11922659B2 (en) 2024-03-05
JPWO2020111139A1 (ja) 2021-10-07
WO2020111139A1 (ja) 2020-06-04
US20220005223A1 (en) 2022-01-06
CN113167568B (zh) 2023-04-28

Similar Documents

Publication Publication Date Title
US9251582B2 (en) Methods and systems for enhanced automated visual inspection of a physical asset
US10354402B2 (en) Image processing apparatus and image processing method
KR102038127B1 (ko) 무인비행체를 이용한 시설물 관리 장치 및 방법
EP3016071B1 (en) Estimating device and estimation method
JP6264834B2 (ja) ガイド方法、情報処理装置およびガイドプログラム
GB2556976A (en) Methods circuits assemblies devices systems platforms and fuctionally associated machine executable code for computer vision assisted construction site
JP6160290B2 (ja) 情報処理装置、判定方法および判定プログラム
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US11170246B2 (en) Recognition processing device, recognition processing method, and program
TW201616451A (zh) 點雲套索選取系統及方法
US20170109932A1 (en) Content projection apparatus, content projection method, and computer readable storage medium
CN107832771B (zh) 气象数据处理装置、方法、***及记录介质
CN113744268B (zh) 一种裂纹检测方法、电子设备及可读存储介质
CN109544516B (zh) 图像检测方法及装置
US10600202B2 (en) Information processing device and method, and program
CN115439543A (zh) 孔洞位置的确定方法和元宇宙中三维模型的生成方法
JP2015184061A (ja) 抽出装置、方法及びプログラム
JP7188798B2 (ja) 座標算出装置、座標算出方法、及びプログラム
JP6980208B2 (ja) 構造物維持管理業務支援システム
JP6938201B2 (ja) 情報処理装置、情報処理方法およびプログラム
US9563816B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
US20170069138A1 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
Al-Sabbag et al. Real-Time quantitative visual inspection using extended reality
JP6963030B2 (ja) 情報処理装置および計測可能領域模擬方法
JP6227801B2 (ja) 図面作成システム及び図面作成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221124

R151 Written notification of patent or utility model registration

Ref document number: 7188798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151