JP2004037396A - Three-dimensional data acquiring apparatus - Google Patents

Three-dimensional data acquiring apparatus Download PDF

Info

Publication number
JP2004037396A
JP2004037396A JP2002197898A JP2002197898A JP2004037396A JP 2004037396 A JP2004037396 A JP 2004037396A JP 2002197898 A JP2002197898 A JP 2002197898A JP 2002197898 A JP2002197898 A JP 2002197898A JP 2004037396 A JP2004037396 A JP 2004037396A
Authority
JP
Japan
Prior art keywords
data
image data
distance
dimensional
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002197898A
Other languages
Japanese (ja)
Other versions
JP4247371B2 (en
Inventor
Ryosuke Shibazaki
柴崎 亮介
Masafumi Nakagawa
中川 雅史
Tomohito Noso
野宗 智仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foundation for the Promotion of Industrial Science
Original Assignee
Foundation for the Promotion of Industrial Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foundation for the Promotion of Industrial Science filed Critical Foundation for the Promotion of Industrial Science
Priority to JP2002197898A priority Critical patent/JP4247371B2/en
Publication of JP2004037396A publication Critical patent/JP2004037396A/en
Application granted granted Critical
Publication of JP4247371B2 publication Critical patent/JP4247371B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional data acquiring apparatus for performing measurement, being easily carried, and suitably used for creating a three-dimensional model. <P>SOLUTION: A video camera 2 is capable of continuously picking up images by changing its location and attitude and acquiring image data on an image pickup area 4. A laser measuring device 3 for measuring the distance to a point of measurement 6 by laser 9 is rotatably mounted to the video camera 2 and is capable of scanning the area 4 with the laser 9 at predetermined intervals. The distance L between the laser measuring device 3 and the point of measurement 6 is acquired as distance data, and the angle of the measuring device 3 to the video camera 2 is acquired as angle data. Characteristic points are set on the basis of them. By computing changes in the relative location and attitude of the video camera 2 at image pickup and converting each image data into image data viewed from a set reference location, it is possible to create a three-dimensional point cloud model which expresses an object of image pickup by point expression. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、対象物を点表現で表した三次元点群モデルを作製可能な三次元データ取得装置に関するものである。
【0002】
【従来の技術】
従来、対象物を点表現で表した三次元点群モデルを作製する三次元データ取得装置が開発されている。この三次元データ取得装置としては、対象物の距離と角度を測定できるトータルステーションに、レーザーによる距離測定手段を組み付けた固定式のものが知られている。これによれば、対象物の距離と角度を同時に測定できるほか、その測定結果を自動的に記録することが可能である。また、平面的に対象物を高速に走査できるレーザースキャナを3脚の上に設置したシステムもある。これも対象物の距離と角度を同時に測定できる。さらに、簡易なものとしては、ビデオカメラだけを利用して対象物の画像を移動しながら撮像し、画像データから3次元点群データを算出するシステムがある。しかし、精度が不安定であるため実用的ではなく、さらに精度を高める工夫としてジャイロを装着したシステムもある。これはジャイロにより3次元データ取得装置の位置や姿勢変化を検出して、3次元点群モデルを作成するものである。
【0003】
【発明が解決しようとする課題】
しかし、このような三次元データ取得装置はトータルステーションや大型の平面走査型レーザースキャナ、あるいは高精度ジャイロを備えているため大型化し、前記取得装置の運搬に手間や費用がかかり、組立にも手間がかかるという問題があった。特に、測定対象が遠方(例えば離島など)にある場合には、その問題が顕著であった。
【0004】
また、測定対象が他の物や測定対象自身の形状により一部掩蔽されている場合には、取得装置の位置や姿勢を変えて測定を行う必要があるが、測定を行うには前記取得装置を地面に三脚等で固定する必要があったため、足場などの条件により取得装置の設置が制限されてしまい、三次元点群モデルを作製するのに十分なデータを得られないおそれがあるという問題があった。
本発明は、このような事情に鑑みてなされたもので、測定や運搬を容易に行うことができ、三次元モデルを作製するのに好適に用いることができる三次元データ取得装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、請求項1に記載した発明は、位置や姿勢を変化させて連続的に撮像可能とし、撮像対象となる撮像エリアの画像データを取得可能な撮像手段に、レーザーにより測定点までの距離を測定する距離測定手段を回動可能に組み付けて、前記撮像エリアに所定間隔でレーザーを走査可能とし、前記距離測定手段と測定点との距離を距離データとして取得するとともに、前記距離測定手段の撮像手段に対する角度を角度データとして取得し、前記撮像手段の位置や角度を変えて撮像された複数の画像データから、撮像エリアの少なくとも一部が共通している画像データの組を選定し、この組を構成する各画像データにおいて、距離データおよび角度データが取得されている部位を含むように、共通の特徴点を設定し、前記共通の特徴点の各画像上の位置データから、前記組を構成する画像データを撮像した撮像手段の相対的位置姿勢変化を見いだして、同時に、特徴点の距離データおよび角度データから撮像手段の相対的位置姿勢変化の縮尺を算出して、設定された基準位置からみた画像データに各画像データおよび測定点データを変換することで、前記撮像対象を点表現で表した三次元点群モデルを作製可能としたことを特徴とする三次元データ取得装置である。
【0006】
この発明によれば、前記撮像手段に前記距離測定手段を組み付けることで、取得された画像データ、距離データおよび角度データから撮像手段の相対的位置変化を算出しているため、撮像対象の三次元点群モデルを作製することができる。これにより、前記取得装置にトータルステーションや大型の平面走査型レーザースキャナが不要となるため、取得装置のコンパクト化を図ることができ携帯に適したものとすることができる。したがって、取得装置の設置に適した足場でなくても撮像を行うことが可能となり、測定や運搬の手間を大きく低減することができる。
【0007】
請求項2に記載した発明は、請求項1に記載したものであって、前記撮像手段がビデオカメラであることを特徴とする三次元データ取得装置である。
この発明によれば、レーザーの発振周期に追従させて画像データを取得することができ、また、ビデオカメラにより取得した画像データを用いてテクスチャ情報をも取得することができるため、前記取得装置を大型化することなく、前記三次元点群モデルにテクスチャ情報を合成することができ、利便性を高めることができる。
【0008】
請求項3に記載した発明は、請求項1または請求項2に記載したものであって、前記組を構成する各画像データのうち、一の画像データにおいて、前記相対的位置変化の算出に用いた特徴点以外の特徴点を含むエリアを指定エリアとし、この指定エリアを前記三次元点群モデルに投影して投影エリアとするとともに、この投影エリアを他の画像データに対応させて探索エリアとし、該探索エリア内にて特徴点を探索し、特徴点の三次元座標を算出することを特徴とする三次元データ取得装置である。
【0009】
この発明によれば、特徴点の探索を、画像データのみならず距離データを用いて行うため、探索精度を高めることができるとともに、探索された特徴点に基づいて三次元点群モデルを修正することができ、三次元点群モデルの精度を高めることができる。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態における三次元データ取得装置を図面と共に説明する。
図1は本発明の実施の形態における三次元データ取得装置(以下、適宜「取得装置」という)1の概略構成図である。同図に示したように、前記取得装置1は、撮像手段であるビデオカメラ2にレーザー距離測定器3を回動可能に組み付けて一体化した構造となっている。
【0011】
前記ビデオカメラ2は、位置や姿勢を変化させて連続的に撮像可能(例えば一秒間に30フレーム程度)であり、撮像対象となる撮像エリア4を画像データとして取得することが可能である。また、前記レーザー距離測定器3は、前記ビデオカメラ2に回動可能に取り付けられ、前記撮像エリア4内の測定点6の距離を距離データとして、また測定点6、6間の角度を角度データとして取得することが可能である。
【0012】
このようにビデオカメラ2とレーザー距離測定器3とを用いることにより、撮像対象11の画像データ5と、撮像対象11までの距離データ7とを同時に取得することができる。本実施の形態においては、撮像手段として連続的に撮像可能なビデオカメラ2を用いているため、レーザー9の発振周期(例えば10Hz)に追従させて画像データ5を取得することができる。また、詳細を後述するように、前記画像データ5からテクスチャ情報を取得することができる。
【0013】
図2は図1に示したビデオカメラ2による撮像工程を示した説明図である。図2に示したように、ビデオカメラ2の移動経路12が略直線状となるように移動させながら連続的に撮像エリア4を撮像して画像データ5を取得している。本実施の形態においては、ビデオカメラ2の移動速度を、連続して撮像される撮像エリア4(例えば4A、4B)の少なくとも一部が重なるように調整している。
【0014】
図3は図1に示したレーザー距離測定器3による距離測定工程を示した説明図である。レーザー距離測定器3は前記ビデオカメラ2と一体的に移動するとともに、ビデオカメラ2に対して上下方向に回動可能に設けられている。このため、前記撮像エリア4を縦断するようにレーザー9を走査させて、これらの測定点6の距離を測定し、この測定した距離のデータを距離データとして取得できるようにしている。また、図3においては省略しているが、前記レーザー距離測定器3は各撮像エリア4(4A、4B、、)において幅方向(矢印12に沿う方向)に所定時間間隔ずらして略扇形(図3参照)に走査することができるようにしている。これにより、前記連続して撮像される2つの撮像エリア4同士が重なる共通エリア8内において、距離データ7が取得される測定点6を設けることが可能となる。この2つの撮像エリア4において距離データ7が取得された測定点6を特徴点15とする(これについては後述する)。
【0015】
図4は図3に示したレーザー距離測定器3の距離測定工程のより詳細な説明図である。図4(a)はレーザー距離測定器3を用いて、測定点6までの距離Lを取得する工程を示した説明図である。また、図4(b)は基準点Oを原点とした三次元座標系xyzであり、図4(c)はこの三次元座標系xyzにおけるレーザー距離測定器3の三次元座標(X0、Y0、Z0)と対象点6の三次元座標(X、Y、Z)、レーザー距離測定器3の向きである方向ベクトル(α、β、γ)を示している。撮像対象11を構成する各点の基準点Oからの三次元座標を求めることができれば、三次元点群モデル10を作製することができる。以下に三次元点群モデル10の作製工程について説明する。
【0016】
図5は図1に示した三次元データ取得装置1による三次元点群モデル10の作製工程を示した全体説明図である。まず、三次元点群モデル10を作製するのに必要なデータの取得を行う(ステップS1)。
【0017】
より具体的には、以下のように行う。図6は図1に示した三次元データ取得装置1による三次元データ取得工程を示す説明図である。図7は図6に示した三次元データ取得工程のより詳細な説明図である。これらの図に示したように、取得装置1は、撮影対象11に対して略直線状(緩やかな曲線状)に移動していく。
【0018】
このとき、前記ビデオカメラ2により連続的に画像データ5を取得する(ステップS3)とともにレーザー距離測定器3により距離データ7を取得していく(ステップS2)。また、連続する画像データ5は撮像対象11が入るように移動させるとともに撮像エリア4に共通エリア8を含むように移動させていく。これらの距離データ7および画像データ5から、連続して撮像された画像データ(すなわち共通エリア8を含んでいる画像データ)5を一組(3つ)ずつ選定する。
【0019】
本実施の形態における三次元データ取得装置1は、従来の設置型の三次元データ取得装置とは異なり、移動しながら撮像を行うことができる。このため、三次元点群モデル10を作製するには、三次元データ取得装置1の移動経路12のデータ、つまり平行移動と姿勢角度変化のデータが必要となる。この移動経路12のデータを画像データ5を基に空間後方解を利用して算出する。そして、連続して撮像された画像データ5から、共通エリア8を含んだ隣接する3枚一組の画像データ5を取り出し、各組において上述した特徴点15を用いて相互標定を行う。これらの画像データ5に含まれる3枚の画像から3つのペアを生成できるが、その3つのペア全てに対して相互標定を行うことにより、隣接する3枚の画像をそれぞれ撮像した時点でのビデオカメラ2の相対的な位置姿勢変化を算出するのである(ステップS4)。
【0020】
相互標定とは、ある同一の地上点に対応するそれぞれの両像上の点において、その光束が交会するという射影幾何学の原理を用いるものである。この2枚の画像データ5の回転パラメータと移動パラメータを導く、求められる外部標定要素を三次元データ取得装置1の位置姿勢変化とするのである。
【0021】
相互標定を行うにあたっては、2枚の画像データ5上において対応する特徴点15を抽出する必要があるが、本実施の形態においては、ステレオマッチング法を用いることにより、特徴点15の抽出の自動化を図っている。
図8は基準座標系における特徴点15の座標とこれを撮像した取得装置1の2つの座標系との関係を示した説明図である。図8において、選択される座標系とそれに対応する変量のとり方としては、左側のビデオカメラ2(取得装置1)の座標系を固定する方法を用いる。
【0022】
図8において、モデル座標系をビデオカメラ2の左の座標系にとる。このとき、左側のビデオカメラ2の投影中心は(0、0、0)であり、ビデオカメラ2の傾きはない。従って、標定要素は右側のビデオカメラ2投影中心(Bx、By、Bz)およびビデオカメラ2の傾き(ω、φ、κ)である。Bxを単位長にし、by=By/Bx、bz=Bz/Bxの変量をとれば、これに傾きの3つの変量を加えて5つの独立な変量となる。
【0023】
ここで、共面条件式は次のようになる。
【数1】

Figure 2004037396
ここで、(X1、Y1、Z1)(X2、Y2、Z2)は次の値をとる。
【数2】
Figure 2004037396
標定要素の近似値をκ、φ、ω、by、bzとし、その補正量をΔκ、Δφ、Δω、Δby、Δbzとすると、上記の共面条件式は次のように近似値のまわりにテーラー展開され、線形化される。
【数3】
Figure 2004037396
上式の微係数および定数項は(X1、Y1、Z1)(X2、Y2、Z2)を用いて計算する。この計算により次の観測方程式が得られる。
【数4】
Figure 2004037396
上式に最小二乗法をあてはめ、微小補正量Δκ、Δφ、Δω、Δby、Δbzを求め、次の式に近似値を補正し、収束するまで計算を繰り返す。
【数5】
Figure 2004037396
以上で標定要素の解を求めることができる。
【0024】
このようにして、隣接する3枚一組の画像をそれぞれ撮像した時点でのビデオカメラ2の相対的な回転、平行移動経路をそれぞれ算出し、算出した相対的な回転、平行移動経路を、それぞれの共通する時点でオーバーラップさせながら始点から順に連結していくことで、ビデオカメラ2の位置姿勢軌跡(移動経路12および姿勢変化13)を導くことができる(ステップS5)。なお、算定された測量器の一連の位置姿勢変化は、実際の計測対象物の大きさに対する縮尺係数が決まっていない。そのため、距離データも取得された特徴点について、レーザーにより取得された実距離データを測量器の位置姿勢変化から算定される特徴点までの距離で除する(割る)ことによって、縮尺係数を決定する(ステップS6)。そして、三次元点群モデル10を作製する(ステップS7)。
【0025】
ここで、前記連続した画像データ5における特徴点15を用いて取得装置1の位置姿勢変化を導くには、取得装置1の移動経路12は撮像対象11に対し直線状または略扇型の曲線状であることが望まれる。移動経路12が極端に変動すると、特徴点の座標も極端に変化するため、特徴点15の軌跡を捉えることが困難となる。本実施の形態においては、上述したように、移動経路12の角度変化が20度以内の扇形(略直線状)になるように移動しており、これにより、特徴点15の座標変化が緩やかになるようにしている。
【0026】
また、上述したように、本実施の形態においては、撮像手段としてビデオカメラ2を用いているため、画像データ5からテクスチャ情報を取得して(ステップS8)、三次元点群モデル10にテクスチャ情報を合成することができる。これにより、前記取得装置1を大型化することなく、前記三次元点群モデル10にテクスチャ情報を合成することができ、利便性を高めることができる。
【0027】
図10〜図13は実施の形態における相互標定による位置姿勢算出手法の精度の検証結果を示している。これらの図において、検証は、ビデオカメラ2の回転軸を固定し、平行移動のみさせながら記録した画像データ5を用いた。
このとき、ビデオカメラ2の回転パラメータの真値は(ω、φ、κ)=(0.0、0.0、0.0)である。この真値に対して、本実施の形態で行った位置姿勢算出方法を実施例としてその精度を検証した。また、比較例としてビデオカメラ2に3軸姿勢センサジャイロを装着し、直接的に測量器の位置姿勢変化を検出した場合を検証した。なお、用いたジャイロ自体の精度は、ロール角及びピッチ角は±1.5×(計測角度)×10%であり、ヨー角においては、(計測角度)×10%+(ドリフト毎秒2°以下)である。図10はビデオカメラ2のロール角ωの精度を実施例と比較例とにおける検証結果を示し、図11はピッチ角φの精度を実施例と比較例とにおける検証結果を示し、図12はヨー角κの精度を実施例と比較例とにおける検証結果を示している。これらの図において、線Aは比較例を示し、線Bは実施例を示し、線Cは真値を示している。
【0028】
これらの図からわかるように、本実施例における位置姿勢変化の算出手法は比較例であるジャイロを用いた位置姿勢変化と同程度の位置姿勢算出が可能である。つまり、本実施例の画像データ5を用いた位置姿勢算出手法は、ジャイロのような位置姿勢センサを必要としない点で三次元データ取得装置1を軽量化し、携帯性を高めることができる。また、三次元点群モデル10に合成するテクスチャデータを画像データ5から同時に取得できるため、利便性が増す。
【0029】
また、上述の検証結果から、ビデオカメラ2のω角に誤差が出やすいことが示された。つまり、位置姿勢算出手法において、探索時間が長時間であったり、探索距離が長距離であったり、もしくは多くの連続画像を使う場合には、ビデオカメラ2のω角の誤差を最小限にすることが必要となる。これは、画像データ5上のどの点をステレオマッチングに使うか(すなわちどの点を特徴点15として設定するか)に大きく影響される。
【0030】
図9は実際の点を写真座標に表した時の関係を示した説明図である。図9に示したように、2枚の写真l1、l2において、奥の点の写真座標P1、P’1はあまり変化しないが、手前の点の写真座標P2、P’2は大きく変化することがわかる。したがって、この図からわかるように、ステレオマッチングに用いる点(特徴点15)は、三次元座標上において、ビデオカメラ2の主点から奥行き方向に近い点と遠い点の両方を用いれば、ω角を精度よく算出することができる。また、ステレオマッチングに用いる点の分布は一様な平面上ではなく、なるべく奥行き方向に分散するように選ぶのがよい。この点の数としては一組の画像データ5において最小6つの点を設定すれば、ビデオカメラ2の位置姿勢変化を算出することができるが、精度を高めるために12個以上の点を設定することが望ましい。
【0031】
また、ステレオマッチングにより三次元点群モデル10の形状を修正することができる(ステップS9)。これについて説明する。図13は画像データ5のみを用いた特徴点15の求める場合(比較例)を示した説明図である。図13に示したように、この場合には、特徴点15を求めるために、探索エリア17を幅広く設定する必要がある。図14(a)、図14(b)は比較例における特徴点15の探索工程を示した説明図である。これらの図に示したように、画像データ5A、5Bに共通する特徴点15を含むエリア(指定エリア)14を画像データ5Aにおいて指定しても、画像データ5Bにおいて指定エリア14を探索するためには、探索エリア17を幅広く設定する必要があり、探索時間がかかってしまう。また、誤差も大きくなることを避けられない。
【0032】
これに対し、画像データ5のみならず、レーザー9による距離データ7を用いることによって、特徴点15の探索を容易にすることができるとともに精度を高めることができる。これについて図15、図14(c)、図14(d)を用いて説明する。図15は作製した三次元点群モデル10とレーザー9の距離データとの関係を示した説明図である。図14(c)、図14(d)は実施例における特徴点15の探索工程を示した説明図である。すなわち、図14(d)に示したように、画像データ5Aにおいて、特徴点15を探索し、その周辺のエリアを指定エリア14として指定するとともに、三次元点群モデル10において前記指定エリア14を投影させた投影エリア18を求める。そして、画像データ5Bにおいて、この投影エリア18に対応するエリアを探索エリア16とすることにより、比較例における探索エリア17を探索する場合に比べて容易に探索を行うことができるとともに探索精度を高めることができる。また、このようにして探索した特徴点15を三次元点群モデル10に反映させることにより、三次元点群モデル10の精度をさらに高めることができる。
【0033】
図16は実施例(レーザー併用のマッチング)と比較例(画像のみでのマッチング)におけるマッチング成功率と計算時間を示した説明図である。この図に示したように、マッチングの成功率を30%も高めることができるとともに、計算時間を略半分に低減することができる。
【0034】
また、取得装置1の移動時に、時間とともに移動した様子を印にし、ビデオカメラ2に計測される時間とその印を利用してフレーム間のX軸方向の移動距離を求めることにより、三次元点群モデル10の精度を高めることができる。また、一度に長距離を測定するのではなく、細かく移動距離や測定距離を分割して、間に中継点を作ることによって、始点と中継点との距離でそれぞれセットごとにモデル10を幾何補正することによっても三次元点群モデル10の精度を高めることができる。
【0035】
以上説明したように、本実施の形態における三次元データ取得装置1においては、大型のトータルステーションやジャイロを用いずに構成しているため、小型化や軽量化を図ることができ、携帯に適した構造にすることができる。よって、取得装置1の設置に適した足場でなくても撮像を行うことが可能となり、測定や運搬の手間を大きく低減することができる。
【0036】
なお、上述した実施の形態においては、撮像手段としてビデオカメラを用いた場合について説明したが、本発明はこれに限らず、例えばデジタルカメラを用いて行ってもよい。
【0037】
【発明の効果】
以上説明したように、請求項1に記載した発明によれば、取得装置のコンパクト化を図ることができ携帯に適したものとすることができる。したがって、取得装置の設置に適した足場でなくても撮像を行うことが可能となり、測定や運搬の手間を大きく低減することができる。
【0038】
請求項2に記載した発明によれば、レーザーの発振周期に追従させて画像データを取得することができるとともに、前記取得装置を大型化することなく、前記三次元点群モデルにテクスチャ情報を合成することができ、利便性を高めることができる。
【0039】
請求項3に記載した発明によれば、特徴点の探索精度を高めることができるとともに、探索された特徴点に基づいて精度を三次元点群モデルを修正することができ、三次元点群モデルの精度を高めることができる。
【図面の簡単な説明】
【図1】図1は本発明の実施の形態における三次元データ取得装置の概略説明図である。
【図2】図1に示したビデオカメラによる撮像工程を示した説明図である。
【図3】図1に示したレーザー距離測定器による距離測定工程を示した説明図である。
【図4】図3に示したレーザー距離測定器の距離測定工程のより詳細な説明図である。
【図5】図1に示した三次元データ取得装置による三次元モデル作製工程を示した全体説明図である。
【図6】図1に示した三次元データ取得装置による三次元データ取得工程を示す説明図である。
【図7】図6に示した三次元データ取得工程のより詳細な説明図である。
【図8】基準座標系における特徴点の座標とこれを撮像した取得装置の2つの座標系との関係を示した説明図である。
【図9】実際の点を写真座標に表した時の関係を示した説明図である。
【図10】角度ωの精度を実施例と比較例とで比較した検証結果を示した図である。
【図11】角度φの精度を実施例と比較例とで比較した検証結果を示した図である。
【図12】角度κの精度を実施例と比較例とで比較した検証結果を示した図である。
【図13】比較例における特徴点の求め方を示した説明図である。
【図14】特徴点の探索範囲を実施例と比較例とで比較した説明図である。
【図15】実施例における特徴点の求め方を示した説明図である。
【図16】実施例と比較例におけるマッチング成功率と計算時間を示した説明図である。
【符号の説明】
1 三次元データ取得装置
2 ビデオカメラ
3 レーザー距離測定器
4 撮像エリア
5 画像データ
6 測定点
7 距離データ
8 共通エリア
9 レーザー
10 三次元点群モデル
11 撮像対象
12 移動経路
13 姿勢変化
14 指定エリア
15 特徴点
16、17 探索エリア
18 投影エリア[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a three-dimensional data acquisition device capable of producing a three-dimensional point cloud model representing an object in a point representation.
[0002]
[Prior art]
Conventionally, a three-dimensional data acquisition device for producing a three-dimensional point cloud model representing an object in a point expression has been developed. As this three-dimensional data acquisition device, there is known a fixed type in which a total distance station capable of measuring a distance and an angle of an object is combined with a distance measuring means using a laser. According to this, the distance and the angle of the object can be measured simultaneously, and the measurement result can be automatically recorded. There is also a system in which a laser scanner that can scan an object at high speed in a plane is installed on three legs. This also allows the distance and angle of the object to be measured simultaneously. Further, as a simple system, there is a system in which an image of an object is captured while moving using only a video camera, and three-dimensional point cloud data is calculated from the image data. However, it is not practical because the accuracy is unstable, and there is a system equipped with a gyro as a device for further improving the accuracy. This is to generate a three-dimensional point group model by detecting a change in the position or posture of the three-dimensional data acquisition device using a gyro.
[0003]
[Problems to be solved by the invention]
However, since such a three-dimensional data acquisition device is equipped with a total station, a large flat-scanning laser scanner, or a high-precision gyro, it is large-sized, and it takes time and money to transport the acquisition device, and also takes time to assemble. There was such a problem. In particular, when the object to be measured is at a distant place (for example, at a remote island), the problem is remarkable.
[0004]
Further, when the measurement target is partially obscured by another object or the shape of the measurement target itself, it is necessary to change the position and orientation of the acquisition device and perform measurement. Because it was necessary to fix the camera to the ground with a tripod, etc., the installation of the acquisition device was limited by conditions such as scaffolding, and there was a possibility that sufficient data could not be obtained to create a three-dimensional point cloud model. was there.
The present invention has been made in view of such circumstances, and provides a three-dimensional data acquisition apparatus that can easily perform measurement and transportation and can be suitably used for producing a three-dimensional model. With the goal.
[0005]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the invention according to claim 1 enables a continuous imaging by changing a position or a posture, and a laser to an imaging unit capable of acquiring image data of an imaging area to be imaged. A distance measuring means for measuring the distance to the measurement point is rotatably assembled, laser can be scanned at predetermined intervals in the imaging area, and the distance between the distance measuring means and the measurement point is obtained as distance data, A set of image data in which at least a part of an imaging area is common from a plurality of image data obtained by changing an angle of the distance measurement unit with respect to an imaging unit as angle data and changing a position and an angle of the imaging unit. Is selected, and a common feature point is set so as to include a part where distance data and angle data have been acquired in each image data constituting the set. From the position data of each feature point on each image, a relative position and orientation change of the imaging unit that has captured the image data constituting the set is found, and at the same time, the relative position of the imaging unit is calculated from the distance data and the angle data of the feature points. By calculating the scale of the change of the target position and posture, and converting each image data and measurement point data into image data viewed from a set reference position, a three-dimensional point cloud model representing the imaging target in a point representation is created. A three-dimensional data acquisition device characterized in that it is made possible.
[0006]
According to this invention, since the relative position change of the imaging unit is calculated from the acquired image data, distance data, and angle data by assembling the distance measurement unit with the imaging unit, the three-dimensional A point cloud model can be created. This eliminates the need for a total station or a large flat-scanning laser scanner in the acquisition device, so that the acquisition device can be made more compact and suitable for carrying. Therefore, it is possible to perform imaging without using a scaffold suitable for installing the acquisition device, and it is possible to greatly reduce labor for measurement and transportation.
[0007]
According to a second aspect of the present invention, there is provided the three-dimensional data acquisition apparatus according to the first aspect, wherein the imaging unit is a video camera.
According to the present invention, image data can be obtained by following the oscillation cycle of the laser, and texture information can also be obtained using image data obtained by a video camera. Texture information can be combined with the three-dimensional point cloud model without increasing the size, and convenience can be improved.
[0008]
The invention described in claim 3 is the invention described in claim 1 or 2, wherein one of the image data constituting the set is used for calculating the relative position change in one image data. An area including a feature point other than the specified feature point is defined as a designated area, and the designated area is projected onto the three-dimensional point cloud model to form a projection area, and the projection area is defined as a search area corresponding to other image data. A three-dimensional data acquisition apparatus for searching for a feature point in the search area and calculating three-dimensional coordinates of the feature point.
[0009]
According to the present invention, since the search for the feature point is performed using not only the image data but also the distance data, the search accuracy can be improved, and the three-dimensional point group model is corrected based on the searched feature point. And the accuracy of the three-dimensional point cloud model can be improved.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a three-dimensional data acquisition device according to an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic configuration diagram of a three-dimensional data acquisition device (hereinafter, appropriately referred to as an “acquisition device”) 1 according to an embodiment of the present invention. As shown in the figure, the acquisition device 1 has a structure in which a laser distance measuring device 3 is rotatably mounted on a video camera 2 as an image pickup means.
[0011]
The video camera 2 is capable of continuously capturing images while changing its position and orientation (for example, about 30 frames per second), and is capable of acquiring an image capturing area 4 to be captured as image data. The laser distance measuring device 3 is rotatably attached to the video camera 2, and the distance between the measuring points 6 in the imaging area 4 is used as distance data, and the angle between the measuring points 6 and 6 is used as angle data. It is possible to get as.
[0012]
By using the video camera 2 and the laser distance measuring device 3 in this manner, the image data 5 of the imaging target 11 and the distance data 7 to the imaging target 11 can be obtained at the same time. In the present embodiment, since the video camera 2 capable of continuously capturing images is used as the image capturing means, the image data 5 can be obtained by following the oscillation cycle of the laser 9 (for example, 10 Hz). Further, as will be described in detail later, texture information can be obtained from the image data 5.
[0013]
FIG. 2 is an explanatory diagram showing an imaging step by the video camera 2 shown in FIG. As shown in FIG. 2, the image data 5 is obtained by continuously imaging the imaging area 4 while moving the moving path 12 of the video camera 2 so as to be substantially linear. In the present embodiment, the moving speed of the video camera 2 is adjusted so that at least a part of the imaging area 4 (for example, 4A, 4B) where images are continuously captured overlaps.
[0014]
FIG. 3 is an explanatory diagram showing a distance measuring process by the laser distance measuring device 3 shown in FIG. The laser distance measuring device 3 is provided so as to move integrally with the video camera 2 and to be rotatable up and down with respect to the video camera 2. For this reason, the laser 9 is scanned so as to traverse the imaging area 4 to measure the distance between these measurement points 6, and data of the measured distance can be obtained as distance data. Although not shown in FIG. 3, the laser distance measuring device 3 is substantially sector-shaped (FIG. 3) shifted in the width direction (direction along the arrow 12) in each imaging area 4 (4A, 4B,. 3). This makes it possible to provide a measurement point 6 from which distance data 7 is acquired in the common area 8 where the two imaging areas 4 that are continuously imaged overlap each other. The measurement point 6 at which the distance data 7 is obtained in the two imaging areas 4 is defined as a feature point 15 (this will be described later).
[0015]
FIG. 4 is a more detailed explanatory view of the distance measuring step of the laser distance measuring device 3 shown in FIG. FIG. 4A is an explanatory diagram showing a process of acquiring the distance L to the measurement point 6 using the laser distance measuring device 3. FIG. 4B is a three-dimensional coordinate system xyz with the reference point O as the origin, and FIG. 4C is a three-dimensional coordinate system (X0, Y0, Y0) of the laser distance measuring device 3 in the three-dimensional coordinate system xyz. Z0), the three-dimensional coordinates (X, Y, Z) of the target point 6 and the direction vector (α, β, γ) that is the direction of the laser distance measuring device 3 are shown. If the three-dimensional coordinates of each point constituting the imaging target 11 from the reference point O can be obtained, the three-dimensional point group model 10 can be manufactured. Hereinafter, a manufacturing process of the three-dimensional point cloud model 10 will be described.
[0016]
FIG. 5 is an overall explanatory diagram showing a production process of the three-dimensional point cloud model 10 by the three-dimensional data acquisition device 1 shown in FIG. First, data necessary for producing the three-dimensional point cloud model 10 is obtained (step S1).
[0017]
More specifically, it is performed as follows. FIG. 6 is an explanatory diagram showing a three-dimensional data acquisition step by the three-dimensional data acquisition device 1 shown in FIG. FIG. 7 is a more detailed explanatory diagram of the three-dimensional data acquisition step shown in FIG. As shown in these drawings, the acquisition device 1 moves substantially linearly (slowly curved) with respect to the imaging target 11.
[0018]
At this time, the image data 5 is continuously acquired by the video camera 2 (step S3), and the distance data 7 is acquired by the laser distance measuring device 3 (step S2). Further, the continuous image data 5 is moved so that the imaging target 11 is included, and is moved so that the imaging area 4 includes the common area 8. From the distance data 7 and the image data 5, image data 5 (that is, image data including the common area 8) 5 continuously imaged are selected one by one (three).
[0019]
The three-dimensional data acquisition device 1 according to the present embodiment can perform imaging while moving, unlike a conventional stationary three-dimensional data acquisition device. For this reason, in order to produce the three-dimensional point cloud model 10, data of the movement path 12 of the three-dimensional data acquisition device 1, that is, data of parallel movement and attitude angle change is required. The data of the movement route 12 is calculated based on the image data 5 by using a spatial backward solution. Then, a set of three sets of adjacent image data 5 including the common area 8 is extracted from the image data 5 continuously captured, and mutual orientation is performed using the above-described feature point 15 in each set. Although three pairs can be generated from the three images included in the image data 5, by performing mutual orientation on all three pairs, the video at the time when the three adjacent images are respectively captured is obtained. The relative position / posture change of the camera 2 is calculated (step S4).
[0020]
Mutual orientation uses the principle of projective geometry, in which the luminous flux intersects at a point on each of the two images corresponding to a certain ground point. The obtained external orientation element for deriving the rotation parameter and the movement parameter of the two pieces of image data 5 is the change in the position and orientation of the three-dimensional data acquisition device 1.
[0021]
In performing the mutual orientation, it is necessary to extract corresponding feature points 15 on the two pieces of image data 5. In the present embodiment, the stereo matching method is used to automate the extraction of the feature points 15. I am planning.
FIG. 8 is an explanatory diagram showing the relationship between the coordinates of the feature point 15 in the reference coordinate system and the two coordinate systems of the acquisition device 1 that has captured the image. In FIG. 8, a method of fixing the coordinate system of the video camera 2 (acquisition device 1) on the left side is used as a coordinate system to be selected and a variable corresponding thereto.
[0022]
In FIG. 8, the model coordinate system is set to the left coordinate system of the video camera 2. At this time, the projection center of the left video camera 2 is (0, 0, 0), and the video camera 2 does not tilt. Therefore, the orientation elements are the right video camera 2 projection center (Bx, By, Bz) and the inclination (ω, φ, κ) of the video camera 2. If Bx is set to the unit length and the variables of by = By / Bx and bz = Bz / Bx are taken, three variables of the slope are added to obtain five independent variables.
[0023]
Here, the coplanar conditional expression is as follows.
(Equation 1)
Figure 2004037396
Here, (X1, Y1, Z1) (X2, Y2, Z2) take the following values.
(Equation 2)
Figure 2004037396
Assuming that the approximate values of the orientation elements are κ 0 , φ 0 , ω 0 , by 0 , bz 0 and the correction amounts are Δκ, Δφ, Δω, Δby, Δbz, the above coplanar conditional expression is approximated as follows. It is tailored and linearized around the value.
[Equation 3]
Figure 2004037396
The differential coefficients and constant terms in the above equation are calculated using (X1, Y1, Z1) (X2, Y2, Z2). By this calculation, the following observation equation is obtained.
(Equation 4)
Figure 2004037396
The least squares method is applied to the above equation to obtain the small correction amounts Δκ, Δφ, Δω, Δby, and Δbz, the approximate values are corrected to the following equations, and the calculation is repeated until convergence.
(Equation 5)
Figure 2004037396
Thus, the solution of the orientation element can be obtained.
[0024]
In this way, the relative rotation and parallel movement path of the video camera 2 at the time of capturing each set of three adjacent images are calculated, and the calculated relative rotation and parallel movement path are respectively calculated. The position and orientation trajectory (movement path 12 and posture change 13) of the video camera 2 can be derived by sequentially connecting from the start point while overlapping at the same point in time (step S5). In the calculated series of changes in the position and orientation of the surveying instrument, the scale factor for the actual size of the measurement target is not determined. Therefore, for a feature point for which distance data has also been acquired, the scale factor is determined by dividing (dividing) the actual distance data acquired by the laser by the distance to the feature point calculated from the change in the position and orientation of the surveying instrument. (Step S6). Then, a three-dimensional point cloud model 10 is created (step S7).
[0025]
Here, in order to guide the change in the position and orientation of the acquisition device 1 using the feature points 15 in the continuous image data 5, the moving path 12 of the acquisition device 1 has a linear or substantially fan-shaped curve with respect to the imaging target 11. It is desired that If the movement route 12 fluctuates extremely, the coordinates of the feature points also change extremely, making it difficult to capture the trajectory of the feature points 15. In the present embodiment, as described above, the movement path 12 is moved so that the angle change becomes a sector shape (substantially linear shape) within 20 degrees, whereby the coordinate change of the feature point 15 is moderate. I am trying to become.
[0026]
Also, as described above, in the present embodiment, since the video camera 2 is used as the imaging means, texture information is obtained from the image data 5 (step S8), and the texture information is stored in the three-dimensional point group model 10. Can be synthesized. Thereby, the texture information can be synthesized with the three-dimensional point cloud model 10 without increasing the size of the acquisition device 1, and the convenience can be improved.
[0027]
10 to 13 show verification results of the accuracy of the position and orientation calculation method based on mutual orientation in the embodiment. In these figures, the verification used the image data 5 recorded while fixing the rotation axis of the video camera 2 and performing only translation.
At this time, the true values of the rotation parameters of the video camera 2 are (ω, φ, κ) = (0.0 0 , 0.0 0 , 0.0 0 ). The accuracy of this true value was verified using the position and orientation calculation method performed in the present embodiment as an example. As a comparative example, a case where a three-axis attitude sensor gyro was attached to the video camera 2 and a change in the position and attitude of the surveying instrument was directly detected was verified. The accuracy of the gyro used was as follows: roll angle and pitch angle were ± 1.5 × (measurement angle) × 10%, and yaw angle was (measurement angle) × 10% + (drift 2 ° or less per second or less) ). 10 shows the verification results of the roll angle ω of the video camera 2 in the embodiment and the comparative example, FIG. 11 shows the verification results of the pitch angle φ in the embodiment and the comparative example, and FIG. The results of verification of the accuracy of the angle κ in the example and the comparative example are shown. In these figures, line A shows a comparative example, line B shows an example, and line C shows a true value.
[0028]
As can be seen from these figures, the position and orientation change calculation method according to the present embodiment can calculate a position and orientation similar to the position and orientation change using a gyro as a comparative example. That is, the position and orientation calculation method using the image data 5 according to the present embodiment can reduce the weight of the three-dimensional data acquisition device 1 and improve portability in that a position and orientation sensor such as a gyro is not required. Further, since the texture data to be synthesized with the three-dimensional point cloud model 10 can be simultaneously obtained from the image data 5, the convenience is improved.
[0029]
Further, the above-described verification results show that an error easily occurs in the ω angle of the video camera 2. That is, in the position and orientation calculation method, when the search time is long, the search distance is long, or when many continuous images are used, the error of the ω angle of the video camera 2 is minimized. It is necessary. This is greatly affected by which point on the image data 5 is used for stereo matching (that is, which point is set as the feature point 15).
[0030]
FIG. 9 is an explanatory diagram showing a relationship when an actual point is represented by photographic coordinates. As shown in FIG. 9, in the two photographs l1 and l2, the photograph coordinates P1 and P'1 of the back point do not change much, but the photograph coordinates P2 and P'2 of the point in front change greatly. I understand. Therefore, as can be seen from this figure, the point (feature point 15) used for stereo matching can be obtained by using both a point close to and far from the principal point in the depth direction from the principal point of the video camera 2 on the three-dimensional coordinates. Can be accurately calculated. The distribution of points used for stereo matching is preferably selected not to be distributed on a uniform plane but to be distributed in the depth direction as much as possible. As for the number of points, if a minimum of six points are set in one set of image data 5, the change in the position and orientation of the video camera 2 can be calculated. However, in order to increase the accuracy, 12 or more points are set. It is desirable.
[0031]
Further, the shape of the three-dimensional point group model 10 can be corrected by stereo matching (step S9). This will be described. FIG. 13 is an explanatory diagram showing a case where a feature point 15 is obtained using only the image data 5 (comparative example). As shown in FIG. 13, in this case, it is necessary to set the search area 17 widely in order to obtain the feature point 15. FIGS. 14A and 14B are explanatory diagrams showing a search process of the feature point 15 in the comparative example. As shown in these figures, even if an area (designated area) 14 including a feature point 15 common to the image data 5A and 5B is designated in the image data 5A, it is necessary to search for the designated area 14 in the image data 5B. Requires that the search area 17 be set broadly, which takes a long search time. In addition, it is inevitable that the error also increases.
[0032]
On the other hand, by using not only the image data 5 but also the distance data 7 by the laser 9, the search for the feature point 15 can be facilitated and the accuracy can be improved. This will be described with reference to FIGS. 15, 14C and 14D. FIG. 15 is an explanatory diagram showing the relationship between the produced three-dimensional point cloud model 10 and the distance data of the laser 9. FIG. 14C and FIG. 14D are explanatory diagrams showing a search process of the feature point 15 in the embodiment. In other words, as shown in FIG. 14D, a feature point 15 is searched in the image data 5A, an area around the feature point 15 is designated as the designated area 14, and the designated area 14 is designated in the three-dimensional point group model 10. A projected projection area 18 is obtained. By setting the area corresponding to the projection area 18 as the search area 16 in the image data 5B, the search can be performed more easily and the search accuracy can be improved as compared with the case of searching the search area 17 in the comparative example. be able to. In addition, by reflecting the feature points 15 searched in the three-dimensional point cloud model 10, the accuracy of the three-dimensional point cloud model 10 can be further improved.
[0033]
FIG. 16 is an explanatory diagram showing the matching success rate and the calculation time in the embodiment (matching with laser combined use) and the comparative example (matching with images only). As shown in this figure, the success rate of matching can be increased by as much as 30%, and the calculation time can be reduced to approximately half.
[0034]
When the acquisition device 1 moves, the movement of the acquisition device 1 with time is marked, and the time measured by the video camera 2 and the mark are used to determine the movement distance in the X-axis direction between the frames. The accuracy of the group model 10 can be improved. Also, instead of measuring long distances at once, the distance between the starting point and the relay point is geometrically corrected for each set by dividing the moving distance and the measurement distance finely and creating a relay point between them. By doing so, the accuracy of the three-dimensional point cloud model 10 can be improved.
[0035]
As described above, since the three-dimensional data acquisition device 1 according to the present embodiment is configured without using a large total station or a gyro, it can be reduced in size and weight and is suitable for carrying. Can be structured. Therefore, it is possible to perform imaging even if the scaffold is not suitable for installation of the acquisition device 1, and it is possible to greatly reduce labor for measurement and transportation.
[0036]
In the above-described embodiment, a case has been described in which a video camera is used as an imaging unit. However, the present invention is not limited to this, and may be performed using, for example, a digital camera.
[0037]
【The invention's effect】
As described above, according to the first aspect of the present invention, it is possible to reduce the size of the acquisition device and make it suitable for carrying. Therefore, it is possible to perform imaging without using a scaffold suitable for installing the acquisition device, and it is possible to greatly reduce labor for measurement and transportation.
[0038]
According to the invention described in claim 2, it is possible to acquire image data by following the oscillation cycle of the laser, and to synthesize texture information with the three-dimensional point cloud model without increasing the size of the acquisition device. And convenience can be improved.
[0039]
According to the invention described in claim 3, it is possible to improve the accuracy of searching for a feature point, and to correct the accuracy of the three-dimensional point cloud model based on the searched feature points. Accuracy can be improved.
[Brief description of the drawings]
FIG. 1 is a schematic explanatory diagram of a three-dimensional data acquisition device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an imaging step by the video camera shown in FIG.
FIG. 3 is an explanatory view showing a distance measuring step by the laser distance measuring device shown in FIG. 1;
FIG. 4 is a more detailed explanatory view of a distance measuring step of the laser distance measuring device shown in FIG. 3;
FIG. 5 is an overall explanatory diagram showing a three-dimensional model production process by the three-dimensional data acquisition device shown in FIG.
FIG. 6 is an explanatory diagram showing a three-dimensional data acquisition step by the three-dimensional data acquisition device shown in FIG.
FIG. 7 is a more detailed explanatory diagram of the three-dimensional data acquisition step shown in FIG. 6;
FIG. 8 is an explanatory diagram showing the relationship between the coordinates of a feature point in a reference coordinate system and two coordinate systems of an acquisition device that has captured the feature point.
FIG. 9 is an explanatory diagram showing a relationship when an actual point is represented by photographic coordinates.
FIG. 10 is a diagram showing a verification result of comparing the accuracy of the angle ω between the embodiment and the comparative example.
FIG. 11 is a diagram showing a verification result of comparing the accuracy of the angle φ between the embodiment and the comparative example.
FIG. 12 is a diagram showing a verification result of comparing the accuracy of an angle κ between an example and a comparative example.
FIG. 13 is an explanatory diagram showing how to obtain feature points in a comparative example.
FIG. 14 is an explanatory diagram comparing a search range of a feature point between an embodiment and a comparative example.
FIG. 15 is an explanatory diagram showing how to find a feature point in the embodiment.
FIG. 16 is an explanatory diagram showing a matching success rate and calculation time in an example and a comparative example.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 3D data acquisition apparatus 2 Video camera 3 Laser distance measuring device 4 Imaging area 5 Image data 6 Measurement point 7 Distance data 8 Common area 9 Laser 10 3D point group model 11 Imaging target 12 Moving path 13 Attitude change 14 Designated area 15 Feature points 16, 17 Search area 18 Projection area

Claims (3)

位置や姿勢を変化させて連続的に撮像可能とし、撮像対象となる撮像エリアの画像データを取得可能な撮像手段に、レーザーにより測定点までの距離を測定する距離測定手段を回動可能に組み付けて、前記撮像エリアに所定間隔でレーザーを走査可能とし、
前記距離測定手段と測定点との距離を距離データとして取得するとともに、前記距離測定手段の撮像手段に対する角度を角度データとして取得し、
前記撮像手段の位置や角度を変えて撮像された複数の画像データから、撮像エリアの少なくとも一部が共通している画像データの組を選定し、この組を構成する各画像データにおいて、距離データおよび角度データが取得されている部位を含むように、共通の特徴点を設定し、
前記共通の特徴点の各画像上の位置データから、前記組を構成する画像データを撮像した撮像手段の相対的位置姿勢変化を見いだして、
同時に、特徴点の距離データおよび角度データから撮像手段の相対的位置姿勢変化の縮尺を算出して、
設定された基準位置からみた画像データに各画像データおよび測定点データを変換することで、
前記撮像対象を点表現で表した三次元点群モデルを作製可能としたことを特徴とする三次元データ取得装置。
A distance measuring unit that measures the distance to a measurement point by a laser is rotatably assembled to an imaging unit that enables continuous imaging by changing the position and orientation and that can acquire image data of the imaging area to be imaged. The laser can be scanned at a predetermined interval in the imaging area,
Acquiring the distance between the distance measurement unit and the measurement point as distance data, and acquiring the angle of the distance measurement unit with respect to the imaging unit as angle data,
From a plurality of image data obtained by changing the position and the angle of the image pickup means, a set of image data having at least a part of an image pickup area common is selected, and distance data is set in each image data constituting the set. And a common feature point so as to include the part where the angle data has been acquired,
From the position data of each of the common feature points on each image, find the relative position and orientation change of the imaging unit that has captured the image data that constitutes the set,
At the same time, the scale of the relative position and orientation change of the imaging means is calculated from the distance data and the angle data of the feature points,
By converting each image data and measurement point data to image data viewed from the set reference position,
3. A three-dimensional data acquisition apparatus, wherein a three-dimensional point cloud model representing the object to be imaged in a point representation can be produced.
前記撮像手段がビデオカメラであることを特徴とする請求項1に記載の三次元データ取得装置。The three-dimensional data acquisition device according to claim 1, wherein the imaging unit is a video camera. 前記組を構成する各画像データのうち、一の画像データにおいて、前記相対的位置変化の算出に用いた特徴点以外の特徴点を含むエリアを指定エリアとし、
この指定エリアを前記三次元点群モデルに投影して投影エリアとするとともに、この投影エリアを他の画像データに対応させて探索エリアとし、該探索エリア内にて特徴点を探索し、特徴点の三次元座標を算出することを特徴とする請求項1または請求項2に記載の三次元データ取得装置。
Of each image data constituting the set, in one image data, an area including a feature point other than the feature point used for calculating the relative position change is defined as a designated area,
The designated area is projected onto the three-dimensional point cloud model to form a projection area, and the projection area is set as a search area corresponding to other image data, and a feature point is searched in the search area. The three-dimensional data acquisition device according to claim 1 or 2, wherein the three-dimensional coordinates are calculated.
JP2002197898A 2002-07-05 2002-07-05 3D data acquisition device Expired - Fee Related JP4247371B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002197898A JP4247371B2 (en) 2002-07-05 2002-07-05 3D data acquisition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002197898A JP4247371B2 (en) 2002-07-05 2002-07-05 3D data acquisition device

Publications (2)

Publication Number Publication Date
JP2004037396A true JP2004037396A (en) 2004-02-05
JP4247371B2 JP4247371B2 (en) 2009-04-02

Family

ID=31705540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002197898A Expired - Fee Related JP4247371B2 (en) 2002-07-05 2002-07-05 3D data acquisition device

Country Status (1)

Country Link
JP (1) JP4247371B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007064723A (en) * 2005-08-30 2007-03-15 Hitachi Ltd Image input apparatus and calibration method
EP1903304A2 (en) 2006-09-22 2008-03-26 Kabushiki Kaisha Topcon Position measuring system, position measuring method and position measuring program
JP2010014693A (en) * 2008-06-03 2010-01-21 Shimizu Corp Reinforcing bar inspecting device and method for inspecting reinforcing bar
US7705291B2 (en) 2007-11-02 2010-04-27 Woundmatrix, Inc. Apparatus and method for wound diagnosis
WO2010089938A1 (en) * 2009-02-09 2010-08-12 日本電気株式会社 Rotation estimation device, rotation estimation method, and storage medium
US8022344B2 (en) 2004-04-26 2011-09-20 Ntt Docomo, Inc. Optical wavefront control pattern generating apparatus and optical wavefront control pattern generating method
WO2012020696A1 (en) * 2010-08-11 2012-02-16 株式会社トプコン Device for processing point group position data, system for processing point group position data, method for processing point group position data and program for processing point group position data
US8310653B2 (en) 2008-12-25 2012-11-13 Kabushiki Kaisha Topcon Laser scanner, laser scanner measuring system, calibration method for laser scanner measuring system and target for calibration
US8638449B2 (en) 2010-07-16 2014-01-28 Kabushiki Kaisha Topcon Measuring device having multiple light emitting sources
US8643828B2 (en) 2010-10-27 2014-02-04 Kabushiki Kaisha Topcon Laser surveying instrument
CN103644896A (en) * 2013-12-30 2014-03-19 中国水电顾问集团成都勘测设计研究院有限公司 Three-dimensional laser scanning-based engineering geological mapping method
CN103994755A (en) * 2014-05-29 2014-08-20 清华大学深圳研究生院 Space non-cooperative target pose measurement method based on model
CN104019765A (en) * 2014-06-25 2014-09-03 山东理工大学 Multi-site point cloud integral orientation method based on laser beam process block adjustment
CN104391340A (en) * 2014-11-26 2015-03-04 中国电建集团成都勘测设计研究院有限公司 Hydropower environment side slope dangerous rock body geologic detection method
JP2016057079A (en) * 2014-09-05 2016-04-21 三菱電機株式会社 Modeling data calculation method and modeling data calculation device
CN106091923A (en) * 2016-05-30 2016-11-09 武汉理工大学 The central point rapid assay methods of industrial bolt circular hole based on three-dimensional laser scanning technique
JP2017090551A (en) * 2015-11-04 2017-05-25 キヤノン株式会社 Imaging device and control method of the same, as well as program, and recording medium
US9998724B2 (en) 2014-12-15 2018-06-12 Canon Kabushiki Kaisha Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects
CN109143255A (en) * 2018-07-04 2019-01-04 厦门大学 A kind of articulated wheel loader attitude prediction method
CN110223373A (en) * 2019-04-23 2019-09-10 北京建筑大学 The determination method, device and equipment of bolt sphere geometry parameter information
CN111678447A (en) * 2020-06-04 2020-09-18 中建八局轨道交通建设有限公司 Shield tail clearance automatic measuring method and system
CN114998414A (en) * 2022-06-02 2022-09-02 华侨大学 Point cloud data-based part three-dimensional size measuring method, device and medium
CN115900644A (en) * 2023-01-06 2023-04-04 西安华创马科智能控制***有限公司 Hydraulic support robot working face bottom plate laser scanning imaging method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105444687B (en) * 2015-11-30 2017-06-16 中国人民解放军国防科学技术大学 Based on to the relative pose variation measuring method regarding videographic measurment and laser ranging

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8022344B2 (en) 2004-04-26 2011-09-20 Ntt Docomo, Inc. Optical wavefront control pattern generating apparatus and optical wavefront control pattern generating method
JP4533824B2 (en) * 2005-08-30 2010-09-01 株式会社日立製作所 Image input device and calibration method
JP2007064723A (en) * 2005-08-30 2007-03-15 Hitachi Ltd Image input apparatus and calibration method
EP1903304A2 (en) 2006-09-22 2008-03-26 Kabushiki Kaisha Topcon Position measuring system, position measuring method and position measuring program
JP2008076303A (en) * 2006-09-22 2008-04-03 Topcon Corp System, method and program for position measurement
EP1903304B1 (en) * 2006-09-22 2015-11-04 Kabushiki Kaisha TOPCON Position measuring system, position measuring method and position measuring program
US8218131B2 (en) 2006-09-22 2012-07-10 Kabushiki Kaisha Topcon Position measuring system, position measuring method and position measuring program
US7705291B2 (en) 2007-11-02 2010-04-27 Woundmatrix, Inc. Apparatus and method for wound diagnosis
US7989757B2 (en) 2007-11-02 2011-08-02 Woundmatrix, Inc. Apparatus and method for wound diagnosis
JP2010014693A (en) * 2008-06-03 2010-01-21 Shimizu Corp Reinforcing bar inspecting device and method for inspecting reinforcing bar
US8310653B2 (en) 2008-12-25 2012-11-13 Kabushiki Kaisha Topcon Laser scanner, laser scanner measuring system, calibration method for laser scanner measuring system and target for calibration
US8355118B2 (en) 2008-12-25 2013-01-15 Kabushiki Kaisha Topcon Laser scanner, laser scanner measuring system, calibration method for laser scanner measuring system and target for calibration
JP2010181366A (en) * 2009-02-09 2010-08-19 Nec Corp Rotation estimating device, rotation estimation method, and program
WO2010089938A1 (en) * 2009-02-09 2010-08-12 日本電気株式会社 Rotation estimation device, rotation estimation method, and storage medium
US8638449B2 (en) 2010-07-16 2014-01-28 Kabushiki Kaisha Topcon Measuring device having multiple light emitting sources
WO2012020696A1 (en) * 2010-08-11 2012-02-16 株式会社トプコン Device for processing point group position data, system for processing point group position data, method for processing point group position data and program for processing point group position data
JP2012037491A (en) * 2010-08-11 2012-02-23 Topcon Corp Point group position data processing apparatus, point group position data processing system, point group position data processing method, and point group position data processing program
US9251624B2 (en) 2010-08-11 2016-02-02 Kabushiki Kaisha Topcon Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program
US8643828B2 (en) 2010-10-27 2014-02-04 Kabushiki Kaisha Topcon Laser surveying instrument
CN103644896A (en) * 2013-12-30 2014-03-19 中国水电顾问集团成都勘测设计研究院有限公司 Three-dimensional laser scanning-based engineering geological mapping method
CN103994755A (en) * 2014-05-29 2014-08-20 清华大学深圳研究生院 Space non-cooperative target pose measurement method based on model
CN104019765A (en) * 2014-06-25 2014-09-03 山东理工大学 Multi-site point cloud integral orientation method based on laser beam process block adjustment
JP2016057079A (en) * 2014-09-05 2016-04-21 三菱電機株式会社 Modeling data calculation method and modeling data calculation device
CN104391340A (en) * 2014-11-26 2015-03-04 中国电建集团成都勘测设计研究院有限公司 Hydropower environment side slope dangerous rock body geologic detection method
US9998724B2 (en) 2014-12-15 2018-06-12 Canon Kabushiki Kaisha Image processing apparatus and method for processing three-dimensional data that describes a space that includes physical objects
JP2017090551A (en) * 2015-11-04 2017-05-25 キヤノン株式会社 Imaging device and control method of the same, as well as program, and recording medium
CN106091923A (en) * 2016-05-30 2016-11-09 武汉理工大学 The central point rapid assay methods of industrial bolt circular hole based on three-dimensional laser scanning technique
CN109143255A (en) * 2018-07-04 2019-01-04 厦门大学 A kind of articulated wheel loader attitude prediction method
CN110223373A (en) * 2019-04-23 2019-09-10 北京建筑大学 The determination method, device and equipment of bolt sphere geometry parameter information
CN110223373B (en) * 2019-04-23 2023-08-01 北京建筑大学 Determination method, device and equipment for geometric parameter information of bolt ball
CN111678447A (en) * 2020-06-04 2020-09-18 中建八局轨道交通建设有限公司 Shield tail clearance automatic measuring method and system
CN114998414A (en) * 2022-06-02 2022-09-02 华侨大学 Point cloud data-based part three-dimensional size measuring method, device and medium
CN115900644A (en) * 2023-01-06 2023-04-04 西安华创马科智能控制***有限公司 Hydraulic support robot working face bottom plate laser scanning imaging method and device

Also Published As

Publication number Publication date
JP4247371B2 (en) 2009-04-02

Similar Documents

Publication Publication Date Title
JP4247371B2 (en) 3D data acquisition device
EP3392831B1 (en) Three-dimensional sensor system and three-dimensional data acquisition method
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
JP5027747B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
Morgan Epipolar resampling of linear array scanner scenes
JP5027746B2 (en) POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE, AND PROGRAM
WO2010001940A1 (en) Position measurement method, position measurement device, and program
JP4851239B2 (en) Image processing apparatus and processing method thereof
US11544860B2 (en) Combined point cloud generation using a stationary laser scanner and a mobile scanner
CN104363438B (en) Full-view stereo making video method
KR101342393B1 (en) Georeferencing Method of Indoor Omni-Directional Images Acquired by Rotating Line Camera
JP2009017480A (en) Camera calibration device and program thereof
CN103106339A (en) Synchronous aerial image assisting airborne laser point cloud error correction method
EA031929B1 (en) Apparatus and method for three dimensional surface measurement
KR101252680B1 (en) Drawing system of an aerial photograph
JP4960941B2 (en) Camera calibration device for zoom lens-equipped camera of broadcast virtual studio, method and program thereof
JP4809134B2 (en) Image processing apparatus and processing method thereof
JP4764896B2 (en) Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program
US11927692B2 (en) Correcting positions after loop closure in simultaneous localization and mapping algorithm
JP4851240B2 (en) Image processing apparatus and processing method thereof
Wu Photogrammetry: 3-D from imagery
JP4813263B2 (en) Image processing apparatus and processing method thereof
KR101663642B1 (en) Method and Apparatus for constructing Whiskbroom Sensor Model Using Direct Georeferencing and Adjustable Parameter
Barazzetti et al. Stitching and processing gnomonic projections for close-range photogrammetry
JP4282361B2 (en) Photogrammetry method and photogrammetry program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071228

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees