JP2004085551A - Surveying system - Google Patents
Surveying system Download PDFInfo
- Publication number
- JP2004085551A JP2004085551A JP2003182028A JP2003182028A JP2004085551A JP 2004085551 A JP2004085551 A JP 2004085551A JP 2003182028 A JP2003182028 A JP 2003182028A JP 2003182028 A JP2003182028 A JP 2003182028A JP 2004085551 A JP2004085551 A JP 2004085551A
- Authority
- JP
- Japan
- Prior art keywords
- surveying
- image
- survey
- point
- overview image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、測設測量等をともなう測量システムに関する。
【0002】
【従来の技術】
従来、路線測量や用地測量のように杭打等の測設測量をともなう測量は、測設機能を備えた測量機を操作する作業者と、ターゲット(例えばプリズム等)を保持し測設点を探索して移動する作業者との二人一組で行われる。すなわち、トータルステーション等の測量機には、予め位置が知られている複数の予点と、杭打が行われる測設点の位置データが入力されており、例えば第1の予点を後視方向として測量機は第2の予点に配置される。測量機には第1の予点に対する測設点の水平角と器械点からの水平距離が表示される。プリズムを保持した作業者は目的とする測設点付近に立ち、測量機を操作する作業者はプリズムの位置を測量機で測定し測設点からのズレを確認するとともに、プリズムを保持した作業者に無線や手振り等の合図で移動方向を指示する。この作業を繰り返し、プリズムの位置が測設点に対して予め設定された制限値内に達した位置において杭打が行われる。また、最近開発された自動視準を備えた測量機では、1人の杭打作業者により測設測量を行なうことができる。すなわち測量機は、杭打作業者が保持するプリズムに対して自動視準を行うとともに、測定データを無線で杭打作業者に通知、あるいは光信号により移動方向を指示する。杭打作業者はこの測定データあるいは光信号を参照してプリズムを移動し、測設点を探索する。
【0003】
【発明が解決しようとする課題】
しかし、二人一組で行なう測設測量では、言葉、手振り等の指示により杭打作業者を測設点へ誘導するため測設点の位置が判りづらく、作業時間が掛かるとともに作業が煩雑であった。自動視準を行なう測量機においても、なお視覚的、空間的に測設点の位置を把握することができないので、測設点の探索は容易ではない。また、測設点の数が多いと、測量が終了した測設点とこれから測量を行なう測設点とを間違えるという問題も発生する。
【0004】
本発明は、測設測量における作業効率を向上させることを目的としている。更に詳しくは、測量機で得られる測量情報とカメラで得られる画像情報とを簡便かつ効率的に関連付けることにより、測設点の視覚的・空間的な認識を容易にし、測設測量における位置誘導の作業効率を高めることを目的としている。
【0005】
【課題を解決するための手段】
本発明の測量システムは、測点の測量情報が基準とする座標系と測設点を含む測量現場の概観画像との間の位置関係を算出する位置関係算出手段と、この位置関係から、測設点の3次元的な位置情報(所与の設計値等)を、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて、測設点の位置を概観画像上に重畳して出力する画像出力手段とを備えたことを特徴としている。
【0006】
測量システムは、例えば、測点及び測設点の測量情報を得るための測量手段を有する。また対応付け手段は、測点の測量情報を、それぞれ対応する概観画像上の2次元的な位置情報に対応付け、画像出力手段は、測点の位置を概観画像上に重畳して表示可能である。測点の測量情報は、既知の測量情報であってもよく、この場合、既知の測量情報として、例えば所与の地理データ(例えば、国土地理院の三角点や市販の地図デ−タ等)を用いてもよく、画像出力手段には、所与の地理データの位置が表示された概観画像が出力可能である。また測量手段による測量情報と既知の測量情報を混合して基準点に使用、画像上に表示してもよい。(但し、各所与の地理デ−タの座標系がそれぞれ違う場合には座標変換により座標系を統一して行なことがよい。これは、測点を概観画像上に表示する場合や基準点の測量情報により対応づけを行なう場合共である。)
【0007】
より簡便・迅速に測設点の位置を視覚的・空間的に把握するには、画像出力手段がLCDやCRT等の画像表示手段を備えることが好ましく、画像表示手段には測設点の位置が表示された概観画像が表示される。また、画像出力手段は例えば印刷手段を備え、測設点の位置が表示された概観画像が印刷される。これにより杭打作業者は紙等に印刷された概観画像を持ち歩いて参照したり、書き込みを加えたりすることができる。
【0008】
画像出力手段は好ましくは、測設点に対する測設作業のために測量されたターゲットの位置を概観画像上に表示し、ターゲットの位置と測設点の位置との間の距離、測設作業のためにターゲットを移動すべき方向を表示する。これにより、杭打作業者は、現在のターゲットの測設点に対する位置を視覚的・空間的に把握できるため測設点の探索が極めて容易になる。また、測設が終了した測設点とこれから測設を行なう測設点の区別を容易かつ確実に認識できるようにするには、概観画像上に表示された測設点のうち、測設作業が終了した測設点を測設作業が未だ行なわれていない測設点の表示と異なる表示方法により表示する(例えば表示記号の色や形状を替える)ことが好ましい。
【0009】
画像出力手段は、複数の測設点の間の相対的な位置関係に基づき算出される測量情報を概観画像上に表示する。また、画像出力手段は、測点の位置を概観画像上に表示し、測設点と測点との間の相対的な位置関係に基づき算出される測量情報を概観画像上に表示する。このとき画像出力手段は画像表示手段を備え、測量システムは画像表示手段における画像上の位置を指定するための入力手段を備えることが好ましく、測量情報に係わる測設点又は測点は、この入力手段により概観画像上に表示された測設点又は測点の位置を指定することにより決定される。これにより、様々な測量情報を、測設点や測点が表示された概観画像上の点を指定することにより得ることができるので、作業者は、ポインティングデバイスを用いて視覚的かつ簡便な操作により測設点や測点に係る測量解析情報(距離、面積、体積、角度等)を導き出すことができる。
【0010】
また、本発明の測量システムは、概観画像を撮影するカメラが非測定用のカメラであることや、焦点調整やズーミング操作等により内部定位要素が明らかでない場合等においても精度よく対応付を行なうために、概観画像内において任意に指定される複数の基準点の測量手段により測定される3次元的な位置情報と、基準点の概観画像上の2次元的な位置情報との対応から、概観画像を撮影したカメラの内部定位要素を算出する内部標定手段とを備えることが好ましい。このとき基準点の位置が画像表示手段の任意の位置を指定することができる入力手段を用いて、概観画像上の任意の位置を指定することにより決定されることが好ましい。これにより補助器具等を用いることなく極めて簡便な操作で内部標定を行なうことが可能となる。また、同様に、概観画像と測量手段との間の位置関係(外部標定要素)は、測量手段により測定された基準点の3次元的な測量情報や既知の測量情報と、基準点の概観画像上の2次元的な位置情報との関係から算出される。
【0011】
測量手段は例えば、概観画像よりも高倍率の拡大画像を撮影可能な撮像手段を備え、撮像手段により測量手段の視準方向の拡大画像を概観画像上に表示することができる。これにより、より容易に測設点とターゲットのズレを視覚的・空間的に把握することが可能となる。また、視覚的のみならずデータとして正確(計量的)に測設点の位置を確認するには、画像出力手段は、測設点の3次元的な位置情報を表示することが好ましい。更に画像出力手段は、概観画像を撮影した位置と、測設点、又は測点、あるいは測量手段の位置との関係を平面図として表示可能であることが好ましい。これにより、測設点や測点同士、あるいは測量手段との間の空間的な配置をより容易に認識することが可能となる。
【0012】
また、測設点や測点に関する情報の参照を容易なものとするには、測設点及び測点に関連する測量情報を概観画像の画像データと関連付けて記録可能なデータ記録手段を備えることが好ましい。更に、測量システムは携帯端末を有し、携帯端末が画像出力手段を備えることが好ましい。これにより、杭打作業者は携帯端末の画像出力を参照しながら測設作業を行なうことができる。
【0013】
本発明の携帯端末は、上記測量システムにおいて用いられるものである。
【0014】
また、本発明のデジタルカメラは、測量機を用いて測設される測設点を含む測量現場の概観画像を撮影可能な撮像手段と、概観画像内において任意に指定される複数の基準点の2次元的な位置情報と測量機により測定される複数の基準点の3次元的な測量情報に基づいて、概観画像と測量機との間の位置関係を算出する位置関係算出手段と、位置関係から、測量機により測定される測点の3次元的な測量情報と、測設点の3次元的な位置情報とを、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて測設点の位置を概観画像上に表示する画像表示手段とを備えたことを特徴としている。
【0015】
本発明の測量支援装置は、測量機を用いて測設される測設点を含む測量現場の概観画像と測量機との間の位置関係を算出する位置関係算出手段と、位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と測設点の3次元的な位置情報とを、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて、測設点の位置を概観画像上に表示する画像表示手段とを備えたことを特徴としている。
【0016】
本発明の測量支援プログラムは、コンピュータに、測設点を含む測量現場の概観画像と測量機との間の位置関係を算出する手順と、位置関係に基づいて測量機により測定される測点の3次元的な位置情報と測設点の3次元的な位置情報とをそれぞれ対応する概観画像上の2次元的な位置情報に対応付ける手順と、対応付けに基づいて測設点の位置を概観画像上に表示する手順とを実行させること特徴としている。
【0017】
また本発明の測設測量の方法は、測設点を含む測量現場の概観画像を撮影するステップと、概観画像と測量機との間の位置関係を算出するステップと、位置関係に基づいて、測設点の位置を概観画像上に表示するステップと、測量機により測設点に対する測設作業のためにターゲットの3次元的な位置情報を測定するステップと、ターゲットを測設点に誘導するために、上記位置関係に基づいてターゲットの位置を概観画像上に表示するステップとを備えたことを特徴としている。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の第1の実施形態である測量機とカメラを用いた測量システムの概略を示すブロック図である。
【0019】
測量機10は例えばトータルステーション等であり、測距部11と測角部12とを備える。測距部11は視準された測点までの斜距離を例えば光波測距により検出し、測角部12はこのときの水平角、高度角等を検出する。測距部11及び測角部12はそれぞれシステムコンロール回路13に接続されており、システムコントロール回路13からの指令に基づき制御される。例えば測距部11はシステムコントロール回路13の指令に基づいて測距を行い、測定値をシステムコントロール回路13に送出する。一方、測角部12は常時角度を測定しておりシステムコントロール回路13からの要求に応じて測定値をシステムコントロール回路13へ送出する。検出された斜距離、水平角、高度角等の測定値はシステムコントロール回路13において処理される。システムコントロール回路13には、インターフェース回路16が接続されており、インターフェース回路16は、例えばインターフェースケーブルを介して例えばデジタルスチルカメラ(DSC)20等に接続される。なお、インターフェース回路16は、例えばデータコレクタ(図示せず)やコンピュータ等の周辺機器にも接続可能である。
【0020】
また、測量機10には、CCD等の撮像素子18が設けられており、撮像レンズ17を介して視準点近傍の画像が撮影可能である。撮像素子18からの画像信号は、画像信号処理回路19においてホワイトバランス補正、ガンマ補正等の所定の画像処理が施され、システムコントロール回路13を介して表示器15に例えばシースルー画像として表示される。なお撮像素子18の駆動は、システムコントロール回路13からの駆動信号により制御される。また、システムコントロール回路13には、スイッチ群14が接続されており、作業者のスイッチ操作に基づいてシステムコントロール回路13での各種処理が行なわれる。
【0021】
なお、測距・測角に用いられる視準望遠鏡10a(図3参照)の光学系を撮像レンズ17の光学系に用いてもよい。この場合、撮像素子18で撮影される画像は、視準望遠鏡10aの視野と略一致する。
【0022】
デジタルスチルカメラ20には、CCD等の撮像素子21が設けられており、撮像レンズ22を介して被写体の映像を撮像可能である。すなわち、撮像素子21では被写体の映像が画像信号として検出され、画像信号処理回路23へ出力される。画像信号処理回路23では、入力された画像信号に対してRGBゲイン補正、ホワイトバランス補正、ガンマ補正やスーパインポーズ(重畳)等の所定の画像処理が施される。画像処理が施された画像信号は例えば表示部(例えばLCD等の画像表示手段)24に送出されシースルー画像として表示される。また、システムコントロール回路26に接続されたスイッチ群29に設けられたシャッターボタン(図示せず)が押下されると、被写体の映像がデジタル画像として画像メモリ25に一時的に記憶される。
【0023】
画像メモリ25に記憶されたデジタル画像は、画像信号処理回路23を介して表示部24に表示可能であるとともに、システムコントロール回路26を介して記録媒体(ICカードや光学的あるいは磁気的な記録媒体等)27に記録可能である。記録媒体27に記録された画像はシステムコントロール回路26により表示部24に表示することが可能である。また、デジタルスチルカメラ20をコンピュータ等の周辺機器にインターフェース回路28を介して接続し、撮像された画像を画像データとして伝送し表示することも可能である。
【0024】
デジタルスチルカメラ20は、更にデータ送信回路32を備え、データ送信回路32は、電波や光信号等を用いて携帯端末(PDA)50等との間でデータ通信を行なう。すなわち、データ送信回路32からは、画像表示部(図示せず)を備える携帯端末50に対してシステムコントロール回路26を介した画像メモリ25の画像データ等を送信することができる。
【0025】
システムコントロール回路26には、ポインティングデバイス30が接続されており、これにより表示部24の画面上の任意の位置を指定することが可能である。ポインティングデバイス30としては、例えば十字キー、トラックボール、ジョイスティック、タッチスクリーン等が用いられる。また、システムコントロール回路26にはメモリ31が接続されている。
【0026】
次に図1、図2、図3を参照して第1の実施形態の測量システムにおける単写真標定処理について説明する。図2は、第1の実施形態の測量システムにおける単写真標定処理のフローチャートであり、図3は第1の実施形態の測量システムにおける測量機およびカメラの配置を概念的に示す図である。
【0027】
まずステップS101において、オペレータはデジタルスチルカメラ(DSC)20により測量現場の概観を撮影する。撮影された1枚のデジタル画像(概観画像)には、測量されるべき測点が複数含まれる。ステップS102では、撮影された概観画像が例えばデジタルスチルカメラ20の表示部24に表示され、表示された概観画像において3次元的に配置された複数の点(画素)がオペレータによりポインティングデバイス30を用いて選択され、選択された画素に対応する実空間内の物点が基準点Pi(i=1,2,・・・,n)(基準点は概観画像と測量情報の位置関係計算のために任意選択した測点の事)として指定される。このとき指定された各基準点Piに対応する撮像面上の像点Pi’の位置が、それぞれ2次元の画像座標(xpi’,ypi’)として求められる。なお画像座標系は、画像左上を原点としたy軸下向きが正の2次元座標系である。また、基準点の数nは3次元的に配置された例えば11以上の数である。
【0028】
ステップS103では、ステップS102において指定された各基準点Piの斜距離及び(高度、水平)角度が測量機10を用いてオペレータにより測定され、測定値はインターフェースを介してデジタルスチルカメラ20のシステムコントロール回路26へ伝送される。システムコントロール回路26では、各基準点Piの3次元座標(Xpi,Ypi,Zpi)が所定の測量座標系において算出される。このとき各基準点Piの測量座標(Xpi,Ypi,Zpi)は、それぞれ像点Pi’の画像座標(xpi’,ypi’)に対応付けられる。なお、測量座標系としては、例えば測量機10に設けられた視準望遠鏡10a(図3参照)の高度角、水平角の回転中心を原点として用いてもよいし、国土地理院等で規定している絶対座標を用いてもよい。また、測量機が測量座標計算を行い、その値がデジタルカメラ20のシステムコントロール回路26へ伝送されるように構成してもよい。
【0029】
ステップS104では後に詳述するように、各基準点Piに対する測量座標と画像座標との対応から概観画像を撮影したときのデジタルスチルカメラ20の位置および傾き等を表わす外部標定要素と、レンズディスト−ションや主点の画像中心からの偏心による共線条件のズレを補正するための内部定位要素が、例えば空間後方交会法により算出される。すなわち、デジタルスチルカメラ20に固定された3次元カメラ座標系の原点の測量座標系における位置(XO,YO,ZO)と、撮影時のカメラ座標系のx軸、y軸、z軸回りの回転角(ω,φ,κ)が外部標定要素として求められるとともに、カメラの内部定位要素(f:レンズ投影中心から像面までの距離(画像距離);D2、D4、D6:ディスト−ション2次、4次、6次成分;N1、N2:ディスト−ションの非対称成分;XC、YC:主点の画像中心からの偏心量)が求められる。これにより、画像座標と測量座標との射影関係が確立される。なお、内部定位要素を上記(f,D2,D4,D6,N1,N2,XC,YC)に設定した場合、外部標定要素及び内部定位要素を算出するのに必要な基準点の数は7点以上である。このうち、外部標定要素(XO,YO,ZO,ω,φ,κ)を算出するのに必要な基準点の数は3点以上である。なお、本実施形態では、外部標定及び内部標定を行なうための基準点として11点(以上)指定している。
【0030】
なお、カメラ座標系は、レンズ中心(投影中心)Oを原点とした左手座標系であり、そのz軸、y軸はスクリーン座標系のs’軸、t’軸と平行であり、x軸は撮像面と垂直で、像面とは反対の方向に向けて定義される。すなわち、撮像面上の点は(−f,y,z)で表さられる。ここでスクリーン座標系は、主点を原点とした撮像面上の2次元座標系であり、s’軸は撮像素子21の水平ライン方向に、t’軸は垂直ライン方向に対応する(図4参照)。
【0031】
以上、ステップS101〜ステップS104の処理により本実施形態の単写真標定処理は終了する。
【0032】
次に図4、図5を参照して本実施形態におけるデジタルスチルカメラ20の空間後方交会法による外部標定要素及び内部定位要素の算出方法(ステップS104)の原理について説明する。
【0033】
図4は、3つの基準点P1、P2、P3とこれらの撮像面Sにおける像点P1’、P2’、P3’との関係を模式的に示している。図5は図2のステップS104におけるデジタルスチルカメラ20の位置および傾きを表す外部標定要素(XO,YO,ZO,ω,φ,κ)及びカメラの内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)を算出する空間後方交会法のプログラムのフローチャートであり、その算出には最小二乗法を用いた逐次近似法が用いられる。なお、本実施形態では、上述したように基準点の数は7点以上であればいくつあってもよいが、ここでは、基準点が11点指定された場合を例に説明を行なう。また、図4にはその内の3点P1、P2、P3のみが示される。
【0034】
まず、ステップS201においてカメラの位置および傾きを表す外部標定要素(XO,YO,ZO,ω,φ,κ)及び内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)に近似値として適当な初期値(XGO,YGO,ZGO,ωG,φG,κG)及び(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を与える。次にステップS202では、与えられた外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を用いて11個の基準点Pi(i=1,2,・・・,11)の測量座標(Xpi,Ypi,Zpi)から各基準点Piに対応する像点Pi’の近似的な画像座標(xpGi’,ypGi’)を算出する。
【0035】
すなわち、基準点Pi(i=1,2,・・・,11)のカメラ座標系における座標(xpi,ypi,zpi)は、測量座標系における座標(Xpi,Ypi,Zpi)から次の(1)式により求まるので、近似的な外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)、及び基準点Piの測量座標(Xpi,Ypi,Zpi)を(1)式に代入することにより、基準点Piの近似的なカメラ座標(xpGi,ypGi,zpGi)を求めることができる。
【数1】
ここで行列{Tjk}は回転行列であり、各成分Tjkは例えば次式で表される。
T11=cosφ・cosκ
T12=cosω・sinκ+sinω・sinφ・cosκ
T13=sinω・sinκ−cosω・sinφ・cosκ
T21=−cosφ・sinκ
T22=cosω・cosκ−sinω・sinφ・sinκ
T23=sinω・cosκ+cosω・sinφ・sinκ
T31=sinφ
T32=−sinω・cosφ
T33=cosω・cosφ
【0036】
また基準点Piに対応する像点Pi’の内部定位要素による補正前のスクリーン座標(spi’,tpi’)は、撮影された基準点、投影中心、およびその像点が同一直線上にあるという共線条件から外部標定要素(XO,YO,ZO,ω,φ,κ)、及び基準点Piのカメラ座標(xpi,ypi,zpi)を用いて次の(2)式により求められる。
【数2】
【0037】
補正前のスクリーン座標(spi’,tpi’)は、ディスト−ション等の影響を受けているが、これらは、(3)式に、各々の像点のPi’のスクリーン座標(spi’,tpi’)及び近似的な内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を代入することにより補正される。すなわち、(3)式により補正後の近似的なスクリーン座標(scpGi’,tcpGi’)が算出される。
【数3】
【0038】
像点Pi’の近似的な画像座標(xpGi’,ypGi’)は補正された近似的なスクリーン座標(scpGi’,tcpGi’)を次の(4)式に代入することにより求められる。
【数4】
ここで、Px、PyはそれぞれCCDの水平、垂直方向の画素ピッチであり、W、Hはそれぞれ画像の水平、垂直方向のピクセル数である。
【0039】
ステップS203では、近似的に与えられた外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値が適切か否かを判定するためのメリット関数Φが計算される。メリット関数Φは例えば(5)式で定義される。
【数5】
すなわち、本実施形態においてメリット関数Φは概観画像上で指定された基準点Piの像点Pi’の画像座標(xpi’,ypi’)と、測量により求められた基準点Piの測量座標(Xpi,Ypi,Zpi)および近似的に与えられた外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)から求められた像点Pi’の近似的な画像座標(xpGi’,ypGi’)との間の距離の2乗に対応している。
【0040】
次にステップS204において、メリット関数Φが所定値よりも小さいか否かが判定される。すなわち、近似的に与えられた外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)による像点Pi’の近似的な画像座標(xpGi’,ypGi’)が、概観画像上で指定された基準点Piの像点Pi’の画像座標(xpi’,ypi’)に十分近いか否かが判定される。Φ<所定値の場合にはこの処理は終了し、現在与えられている外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値を、概観画像撮影時のカメラの位置、傾きを表す外部標定要素、及び内部定位要素であるとする。
【0041】
一方、ステップS204においてΦ≧所定値であると判定された場合には、ステップS205において近似的に与えられた外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)に対する補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD2,δD4,δD6,δN1,δN2,δXC,δYC)が例えば最小二乗法により求められる。すなわち、共線条件である(2)式の(spi’,tpi’)に(3)式の(scpi’,tcpi’)を代入し、近似値である外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の周りにテイラー展開し高次の項を省いて線形化する。この線形化された式において補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD2,δD4,δD6,δN1,δN2,δXC,δYC)を未知量とする正規方程式を作成し、適正な補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD2,δD4,δD6,δN1,δN2,δXC,δYC)を求める。
【0042】
ステップS206では、ステップS205において算出された補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD2,δD4,δD6,δN1,δN2,δXC,δYC)に基づいて近似値である外部標定要素(XGO,YGO,ZGO,ωG,φG,κG)及び内部定位要素(fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値が更新される。すなわち、(XGO,YGO,ZGO,ωG,φG,κG,fG,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の各値は、それぞれ(XGO+δX,YGO+δY,ZGO+δZ,ωG+δω,φG+δφ,κG+δκ,fG+δf,D2G+δD2,D4G+δD4,D6G+δD6,N1G+δN1,N2G+δN2,XCG+δXC,YCG+δYC)に置き換えられカメラの位置及び内部定位が更新される。その後処理はステップS202へ戻り、ステップS204においてΦ<所定値と判定されるまでステップS202〜ステップS206が繰り返し実行される。
【0043】
次に図1、図6〜図7を参照して、第1の実施形態の測量システムを用いた測設測量について説明する。
【0044】
図6は、本実施形態における測設測量の手順を示すフローチャートである。まず、ステップS301において、図2のフローチャートの単写真標定処理が行なわれる。なお、図2のステップS101で撮影される概観画像は、測設点が含まれる範囲で撮影される。単写真標定処理により求められた、概観画像撮影時のデジタルスチルカメラ20の外部標定要素(XO,YO,ZO,ω,φ,κ)及び内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)は、ステップS302において例えば記録媒体27やメモリ31に記録される。
【0045】
記録媒体27あるいはメモリ31には、設計値等である測設点(Q1、Q2、・・・、Q7)の位置データが記録されており(位置データは、キー入力等により作業者がその都度入力してもよい)、ステップS303では外部標定要素(XO,YO,ZO,ω,φ,κ)と内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)の値から測設点の位置データに対応する画像座標が算出され、概観画像上に測設点の位置を表わす記号(例えば円形記号)と例えば識別名(番号等)が図7のように表示される。また測設点を表す記号は、それ以外の測定点を表す記号の色、形状、大きさを区別して表示する事もできる(例えば、測設点を白色円形、測定点を白色三角形、基準点を白色2重丸等で表示)。また、測設点の位置データを測設点の記号の傍に表示するモードを設けてもよい。なお、測量機の位置と測設点の位置データとの関係は、予め位置が知られている予点(境界杭等)の位置データから求められる。例えば測設点と予点の位置データは、同じ座標系で表わされており、少なくとも2つの予点(又は、1つの予点と方位)と測量機との関係が測量等により求められれば、測設点の位置データを測量座標系で表わすことができ、外部標定要素との関係が求まる。
【0046】
ステップS304では、表示部24に表示された概観画像が、データ送信回路32により杭打作業者が携帯する携帯端末50に送信され、携帯端末50の画像表示部には、送信された概観画像が表示される。杭打作業者は、携帯端末に表示された概観画像を参照して、探索しようとしている測設点の近くにターゲット(例えばプリズム)を持って移動する。
【0047】
ステップS305では、測設点探索のためのモード選択が行われる。本実施形態では、測設点の探索を支援する方法として以下に説明するモード1とモード2を備えており、作業者は、例えばスイッチ群29の所定のモード選択スイッチ(図示せず)を操作してモード1、モード2の何れかを選択する。
【0048】
ステップS305において作業者がモード1を選択した場合、処理はステップS306に進む。ステップS306では、測量機10を杭打作業者が保持するターゲットに視準してターゲットの位置を測定する。ターゲットの測定データは測量機10からデジタルスチルカメラ20に送られ、概観画像上にはターゲットの位置を表わす記号Tが対応する位置にスーパインポーズされ、同時に現在探索している測設点(例えばQ2)とターゲットとの間の距離(例えば500)が所定の単位(例えばmm)で表示される。また、ターゲットの移動方向(杭打作業者の移動方向)が、例えばターゲットTと測設点Q2を結ぶ矢印等の記号を表示することにより表わされる。更に、測設点やターゲットの位置データを所定の座標系(測量座標や絶対座標等)を用いて、各記号の傍に表示してもよい。また、ターゲットの測量は任意時間間隔毎(連続)に行い概観画像表示位置に常時フィードバックをかけてもよい。
【0049】
これらの概観画像上の表示は、携帯端末50に伝送され画像表示される。杭打作業者は、各記号がスーパインポーズされた概観画像を参照して測設点を探索してターゲットを更に移動し、測設点とターゲットの距離が制限値内となるまでこの作業を繰り返す。なお、自動視準機能を備えた測量機では、ステップS306におけるターゲットへの視準は自動的に行なわれ、測量機は杭打作業者が保持するターゲットを自動追尾する。自動視準機能を備えない測量機では、2人1組で作業が行なわれ、測量機を操作する作業者がターゲットへの視準を随時行なう。
【0050】
ステップS306において、ターゲットと測設点との間の距離が制限値内に達し、測設点の探索が終了したと判断された場合には、ステップS307においてスイッチ群29の所定のスイッチを操作し、測設が終了し、例えば杭打ちが行なわれた測設点の記号の色や、形状、大きさ等が変更される(例えば測設点Q1のように白色丸から赤色丸のように色変更し、又図示しないが○から△のように形状変更してもよい)。また、制限値内に入った場合、測量機10からの信号により自動的に変更してもよい。また、デジカメスチルカメラ20側にて、任意範囲画素範囲内に入った場合に自動的に変更してもよい。さらに、測設点の設計値と実際に測設した位置には精度範囲内において誤差が発生する。測設終了時に表示位置は設計位置のままで色・形状・大きさを変更してもよいし、実際に測設した値に基づいた位置で色・形状・大きさを変更して表示してもよい。これにより、測設作業が終了した測設点を概観画像上で視覚的に確認することができる。ステップS308では、概観画像にスーパインポーズされた測設点の3次元的な位置や画面上の2次元的な位置等の測量情報や、測設が終了したか否かを表わすフラッグ等の情報が、必要に応じて概観画像の画像データと対応付けて記録媒体27の1つのファイル、あるいはグループとして関連付けられた複数のファイルに記録される。以上で測設測量の作業は終了する。
【0051】
一方、ステップS305において、モード2が選択された場合には、処理はステップS309に進む。ステップS309では、ステップS306と同様に、測量機10を杭打作業者が保持するターゲットに視準してターゲットの位置を測定するとともに測量機10に搭載された撮像素子18により視準された方向のターゲットと探索中の測設点を含む画像が撮影される。撮影された画像データ及びターゲットの測定データは測量機10からデジタルスチルカメラ20に送られる。表示部24の概観画像上にはターゲットの位置を表わす記号Tが対応する位置にスーパインポーズされるとともに、測量機10で撮影された画像Sが概観画像上にスーパインポーズされる。図8に、このときに表示部24に表示される概観画像の一例を示す。画像Sは、ターゲット周辺を望遠撮影した画像であり、画像S内には現在探索している測設点(例えばQ2)とターゲットとの間の距離(例えば50)が所定の単位(例えばmm)で拡大されて表示される。また、ターゲットの移動方向(杭打作業者の移動方向)が、例えばターゲットTと測設点Q2を結ぶ矢印等の記号を表示することにより表わされる。更に、測設点やターゲットの位置データを所定の座標系(測量座標や絶対座標等)を用いて、各記号の傍に表示してもよい。
【0052】
ステップS306と同様に、これらの画像は杭打作業者が携帯する携帯端末50に送信され表示される。杭打作業者はこの画像や位置データを参照して、測設点を探索する。ターゲットと測設点との間の距離が制限値内に達し、測設点の探索が終了したと判断された場合には、ステップS307においてスイッチ群29の所定のスイッチを操作し、測設が終了し、例えば杭打ちが行なわれた測設点の記号の色や、形状、大きさ等が変更される(例えば測設点Q1のように白色丸から赤色丸のように色変更し、又図示しないが○から△のように形状変更してもよい)。
【0053】
また、制限値内に入った場合、測量機10からの信号により自動的に変更してもよい。また、デジカメスチルカメラ20側にて、任意範囲画素範囲内に入った場合に自動的に変更してもよい。さらに、測設点の設計値と実際に測設した位置には精度範囲内において誤差が発生する。測設終了時に表示位置は設計位置のままで色・形状・大きさを変更してもよいし、実際に測設した値に基づいた位置で色・形状・大きさを変更して表示してもよい。以下上述したステップS308が実行され、この測設測量作業は終了する。なお、他の測設点に対する測設作業を行なう場合は、ステップS304以下を繰り返す。
【0054】
本発明はノンプリズム測距儀、プリズム使用測距儀のどちらに適用することも可能である。ノンプリズム測距儀の場合、ステップS306、S309以外は同様な作業内容にて、以下のような測設点の視準ガイドとして使用することで作業性をあげることもできる。
【0055】
例えば、図6のフロ−のモ−ド1を選択した場合、ステップS305において任意視準点の測量(例えば地面の反射を使用して測量)を行いその測点を概観画像上に表示させ、測設点マ−クとのずれを確認しTSの視準のガイドとして作業性をUPする事ができる。また、測量を任意時間間隔毎(連続測量)に行い、その測量位置を概観画像上に表示して、視準ガイドとしてもよい。さらにノンプリ測距儀はレ−ザポインタ機能を備えているものがあり、その機能を使用することもできる。すなわち測設点付近まで移動している杭打作業者はレーザでポイントされたポインタ位置を探して杭を打つ事が可能となる。モ−ド2を選んだ場合には、TSに組み込まれたCCD画像を使用しさらに拡大した画像を使用できる以外は上記と同様に行う事ができる。なお、本実施形態においては、概観画像上の測設点マ−クと測点マ−クを区別するため測点を+記号等で表すように色・形状・大きさ等をかえて表示する事が必要である。
【0056】
なお、本実施形態の測量システムでは、図7に示されるように、ステップS306、ステップS309において、ターゲットTのみならず測量機10を用いて任意の測点(R1、R2等)を測量し、その位置を概観画像上に表示することができる。また、ステップS306、ステップS309で画像表示される、測設点(Q1、・・・、Q7)、ターゲット(T)、測点(R1、R2)等の位置データは、水平角θh、高度角θv、距離Lであってもよく、この場合、水平角θhは、例えばポインティングデバイス30等の入力デバイスを用いて任意に指定される基準線(水平角基準線)Hに基づいて表わされる。
【0057】
本実施形態では、測設点や、測定された測点の3次元座標(測量座標等)は、概観画像の画像座標と対応付けられている。したがって、本実施形態の測量システムでは、これらの対応関係を利用して、例えば、ポインティングデバイス30を用いて任意に選択される2つの測設点間の距離(例えばQ1とQ5の距離)や、測設点と測点の間の距離(例えばQ3とR2の距離)等、複数の点の間の相対関係を表わすデータを計算・表示させる機能を備える。なお、距離としては、斜距離の他にも、例えば水平距離、高低差等の測量情報を表示可能である。また、2点間の距離の他にも、連続する複数の測設点や測点間の合計距離や、3点以上の点により指定される領域の面積・体積や角度等の測量解析情報を表示する機能も備える。
【0058】
また、本実施形態の測量システムは、概観画像を撮影したカメラ位置、測量機の位置、測設点・測点の位置等の相互位置関係を図9のように水平面内の位置として表示する機能を備える。このとき、測量機(TS)10に対するカメラ(DSC)20の外部標定要素を画面上に表示してもよい。なお、図9の平面画像は、例えば、ステップS306、S309等において、スイッチ群29の所定のスイッチや、携帯端末50で所定の操作されると、概観画像に替えて画面上に表示される。また、ステップS308において、この平面画像を記録媒体27に記録することも可能である。なお平面画像は、例えば概観画像と同グループのファイルとして記録される。
【0059】
以上のように、本発明の第1の実施形態によれば、測量機で得られる測量情報をカメラで撮影される概観画像内の位置に、簡便にかつ正確に対応付けることができるため、測設点に対するターゲットの位置を概観画像や平面画像を用いて、視覚的・空間的に容易に把握することができる。したがって、測設作業を極めて効率的に進めることができる。また、測設点や測定された測点との間の様々な関係である測量解析情報(距離、面積、体積、角度等)を画面上で測設点や測点を指定することにより、簡便に求めることができる。
【0060】
更に、第1の実施形態によれば、使用したデジタルスチルカメラが非測定用カメラである場合や、ズーム機能やピント調整等により内部定位が不明なカメラにおいても、カメラの外部標定要素及び内部定位要素を簡便・迅速に算出することができる。
【0061】
なお、デジタルスチルカメラにプリンタを接続し、本実施形態で画像表示された概観画像や平面画像を印刷し、これを参照することにより測設測量の作業を行なってもよい。
【0062】
なお、概観画像の撮影に望遠等の焦点距離が長いレンズを使用する場合には、内部定位要素の一つであるディスト−ションは小さく、実質的に無視できる場合がある。すなわち、内部定位要素のうち(D2,D4,D6,N1,N2)は無視することができ、未知の内部定位要素は(f,XC,YC)のみとなる。内部定位要素(f,XC,YC)を求めるには、3次元的に配置された5点以上の基準点Piがあれば足りる。また、主点の画像中心からの偏心が無視でき、ディスト−ションの非対称性成分、ディスト−ション4次、6次成分が無視できる場合には、求める内部定位要素は(f,D2)となり、内部標定のための基準点の数は4点で足りる。以上のように求めるべき内部標定要素の数が少ない場合には、内部標定のための基準点の数を少なくすることができるので、測定の手間・時間を節約できる。
【0063】
なお、本実施形態では、測量機10に対してデジタルカメラ20が任意に配置される場合を例に説明を行なったが、例えば、測量機10にカメラを取付けるための器具を設けるなどして、デジタルカメラ20を測量機10の視準望遠鏡10a(図3参照)と光学的に等価な位置に配置してもよく、この場合、外部標定要素の未知数の数を減らすことができるので、基準点の数を減らすことができる。なお、デジタルカメラを視準望遠鏡10aと光学的に等価な位置に配置する場合には、測量機はセオドライト等の角度のみの計測を行なう機器であってもよい。
【0064】
次に、図10を参照して本発明における第2の実施形態の測量システムについて説明する。第2の実施形態は第1の実施形態と略同様であるので、第1の実施形態とは異なる構成についてのみ説明する。なお第1の実施形態と共通の構成には同一参照符号を用いる。
【0065】
図10は、第2の実施形態における測量システムの概略的な構成を示すブロック図である。第2の実施形態では、測量現場の概観画像の撮影に例えば通常市販されているデジタルスチルカメラ20’が用いられる。まず、デジタルスチルカメラ20’は、インターフェースケーブルを介して例えばノート型パソコン(PC)等のコンピュータ40に接続され、撮影された測量現場の概観画像は、コンピュータ40に伝送される。その後コンピュータ40はインターフェースケーブルを介して測量機10に接続される。コンピュータにはマウス、トラックボール、ジョイスティック、キーボード等の入力装置41や、ハードディスク、DVD、MO、ICカード等の記録媒体42、LCD、CRT等の画像表示装置(画像表示手段)43、及び電波や光を用いた通信装置であるデータ送信装置44が接続されている。データ送信装置44からは、画像データ等が杭打作業者が携帯する携帯端末(PDA)50に送信される。
【0066】
コンピュータ40に伝送された概観画像の画像データは、例えば記録媒体42に記録される。概観画像はコンピュータ40にインストールされている測量支援プログラムにより画像表示装置43に表示される。以下図2のステップS102以降の処理と同様の処理がコンピュータ40の測量支援プログラムにより測量機10とコンピュータ40との間において行なわれ、概観画像に対する単写真標定が行なわれる。すなわち、オペレータは画像表示装置43に表示された概観画像において、3次元的に配置された複数の点(画素)を基準点Piとして入力装置41のポインティングデバイスを用いて指定し、指定された基準点Piの位置を測量機10により測定する。測量支援プログラムは基準点Piに対応する像点Pi’の画像座標と測定値から算出された基準点Piの測量座標とから概観画像撮影時のデジタルスチルカメラ20’の外部標定要素(XO,YO,ZO,ω,φ,κ)と内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)を算出し、画像座標と測量座標との射影関係を確立する。測量支援プログラムは測量機10から測点の測定データを取得して、確立された射影関係に基づいて画像表示装置43に表示された概観画像上に測点の位置を示すマークや測定値を表示する。また、測量データ、画像データ、内部定位要素、外部標定要素等は関連付けられて記録媒体42に記録される。
【0067】
コンピュータ40では、更に、第1の実施形態と同様に図6のステップS302以降の処理が測量機10と間のデータ通信に基づいて行なわれ、作成された画像データは、携帯端末50に送信される。
【0068】
以上のように、第2の実施形態においても第1の実施形態と略同様の効果を得ることができる。また、第2の実施形態では、市販のデジタルカメラを用いることができる。更に第2の実施形態のコンピュータを測量を支援するための専用の装置として構成してもよいが、本実施形態の測量支援プログラムを汎用のノート型パソコンにインストールして用いることができるので、より簡略にかつ低コストで上記測量システムを提供することができる。
【0069】
なお、本実施形態では、概観画像上においてポインティングデバイスを用いて任意に基準点を指定したが、撮影範囲内に例えば寸法が既知の基準尺や、任意に配置できる基準マーク等を配置し、これらを基準点として外部標定要素を求めてもよい。この場合、概観画像上において基準尺や基準マークの位置がポインティングデバイス等を用いて選択される。また基準尺や基準マークが用いられる場合には、例えば画像処理を用いて基準点の概観画像上の位置を自動的に検出してもよい。
【0070】
本実施形態では、測量機として斜距離と(高度、水平)角度を測定可能なトータルステーションをあげたが、セオドライトに光波測距儀等組み合わせた装置等の所定の座標系における測点の3次元座標を算出可能な測量機であれば他の測量機であってもよく、例えばGPS(global positioning system)等を利用した測量機であってもよい。また、測量機において測定される角度は、高度角、水平角以外の角度であってもよく、例えば斜平面内の2点の間の角度であってもよい。当然、国土地理院の絶対座標でもよいし、任意座標でもよい。
【0071】
また第2の実施形態では、測量機に接続されたコンピュータを用いたが、第2の実施形態におけるコンピュータの機能を測量機に一体的に持たせてもよい。
【0072】
本実施形態では、測量機からデジタルスチルカメラ、またはコンピュータへの測量データの伝送は、インターフェース回路を介して行なわれたが、例えばオペレータがキーボード等の入力装置を用いてデジタルスチルカメラやコンピュータに測量データを入力してもよい。
【0073】
【発明の効果】
以上のように、本発明によれば、測設測量における作業効率を向上させることができる。更に詳しくは、本発明によれば、測量機で得られる測量情報とカメラで得られる画像情報とを簡便かつ効率的に関連付けることにより、測設点の視覚的・空間的な認識を容易にし、測設測量における位置誘導の作業効率を高めることができる。
【図面の簡単な説明】
【図1】本発明における第1の実施形態である測量システムの構成を概略的に示すブロック図である。
【図2】第1の実施形態の測量システムにおける単写真標定処理のフローチャートである。
【図3】第1の実施形態の測量システムにおける測量機およびカメラの配置を概念的に示す図である。
【図4】3つの基準点P1、P2、P3と撮像面Sにおける像点P1’、P2’、P3’との関係を模式的に示す図である。
【図5】デジタルスチルカメラの位置および傾きを表す外部標定要素(XO,YO,ZO,ω,φ,κ)及びカメラの内部定位要素(f,D2,D4,D6,N1,N2,XC,YC)を算出する空間後方交会法のプログラムのフローチャートである。
【図6】第1の実施形態の測量システムにおける測設測量の手順を示すフローチャートである。
【図7】モード1を用いて測設測量を行なった場合における概観画像の画像表示の一例である。
【図8】モード2を用いて測設測量を行なった場合における概観画像の画像表示の一例である。
【図9】測設点、測点、測量機及び概観画像を撮影したカメラ位置を平面図上で表わした画像表示の一例である。
【図10】第2の実施形態における測量システムの概略的な構成を示すブロック図である。
【符号の説明】
10 測量機
16、28 インターフェース回路
20 デジタルスチルカメラ
24 表示部
26 システムコントロール回路
27、42 記録媒体
30 ポインティングデバイス
40 コンピュータ
41 入力装置
43 画像表示装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a surveying system with surveying and surveying.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, surveying with surveying such as pile driving, such as route surveying or land surveying, involves a worker operating a surveying instrument having a surveying function, a target (for example, a prism, etc.) and a surveying point. It is performed in pairs with workers who search and move. That is, a surveying instrument such as a total station receives a plurality of preliminary points whose positions are known in advance and the position data of the survey setting points at which stakeout is performed. The surveying instrument is located at the second preliminary point. The surveying instrument displays the horizontal angle of the survey setting point with respect to the first preliminary point and the horizontal distance from the instrument point. The worker holding the prism stands near the target surveying point, and the operator who operates the surveying instrument measures the prism position with the surveying instrument to check the deviation from the surveying point, and holds the prism. The user is instructed on the moving direction by a signal such as a radio wave or a hand gesture. This operation is repeated, and staking is performed at a position where the position of the prism has reached a preset limit value with respect to the measuring point. Also, a surveying instrument with automatic collimation developed recently can perform surveying and surveying by one pile driver. That is, the surveying instrument performs automatic collimation on the prism held by the stakeout operator, wirelessly notifies the stakeout operator of the measurement data, or instructs the moving direction by an optical signal. The stake driver moves the prism with reference to the measurement data or the optical signal and searches for a measuring point.
[0003]
[Problems to be solved by the invention]
However, in surveying and surveying conducted in pairs, it is difficult to understand the position of the surveying point because the pile driving operator is guided to the surveying point by instructions such as words and hand gestures, and it takes time and is complicated. there were. Even with a surveying instrument that performs automatic collimation, it is still not possible to visually and spatially determine the position of a survey setting point, and thus searching for a survey setting point is not easy. In addition, when the number of surveying points is large, there is a problem that a surveying point for which surveying has been completed is mistaken for a surveying point to be surveyed.
[0004]
An object of the present invention is to improve work efficiency in surveying and surveying. More specifically, by easily and efficiently associating survey information obtained by a surveying instrument with image information obtained by a camera, visual and spatial recognition of survey points is facilitated, and position guidance in survey surveying is performed. The aim is to increase the work efficiency of.
[0005]
[Means for Solving the Problems]
The surveying system of the present invention comprises: a positional relationship calculating means for calculating a positional relationship between a coordinate system based on surveying information of a surveying point and an overview image of a surveying site including a surveying point; Based on the associating means for associating the three-dimensional position information (given design value and the like) of the set point with the corresponding two-dimensional position information on the corresponding overview image, based on the associating of the associating means. Image output means for outputting the position of the set point superimposed on the overview image.
[0006]
The surveying system has, for example, surveying means for obtaining surveying information on survey points and survey setting points. The associating means associates the survey information of the survey points with the corresponding two-dimensional position information on the overview image, and the image output means can superimpose and display the position of the survey point on the overview image. is there. The surveying information of the survey points may be known surveying information. In this case, the known surveying information includes, for example, given geographic data (for example, a triangular point of the Geographical Survey Institute or commercially available map data, etc.). May be used, and an overview image in which the position of given geographic data is displayed can be output to the image output means. Also, the surveying information by the surveying means and the known surveying information may be mixed and used as a reference point, and displayed on an image. (However, when the coordinate system of each given geographical data is different, it is better to unify the coordinate system by coordinate conversion. This is the case when the measurement point is displayed on the overview image or the reference point is used. This is also the case when the correspondence is made based on the survey information.)
[0007]
In order to more easily and quickly grasp the position of the measuring point visually and spatially, it is preferable that the image output means includes an image display means such as an LCD or a CRT. Is displayed. The image output unit includes, for example, a printing unit, and prints an overview image in which the positions of the survey setting points are displayed. This allows the stakeout operator to carry and refer to the overview image printed on paper or the like, or to add notes.
[0008]
The image output means preferably displays, on the overview image, the position of the target surveyed for the surveying operation on the surveying point, and displays the distance between the target position and the position of the surveying operation, Display the direction to move the target. Accordingly, the stakeout operator can visually and spatially grasp the current position of the target with respect to the stake-out point, so that the search for the stake-out point becomes extremely easy. In addition, in order to be able to easily and reliably recognize the distinction between a surveyed surveying point and a surveying surveying point to be surveyed from among surveying points displayed on the overview image, It is preferable to display the staking points for which the staking has been completed by a different display method from the display of the staking points for which the staking work has not yet been performed (for example, by changing the color or shape of the display symbol).
[0009]
The image output means displays the survey information calculated based on the relative positional relationship between the plurality of survey points on the overview image. The image output means displays the position of the survey point on the overview image, and displays survey information calculated based on the relative positional relationship between the survey setting point and the survey point on the overview image. At this time, the image output means preferably includes an image display means, and the surveying system preferably includes an input means for designating a position on the image on the image display means. It is determined by designating the surveying point or the position of the surveying point displayed on the overview image by the means. Thus, various survey information can be obtained by designating a surveying point or a point on the overview image on which the surveying point is displayed, so that the operator can perform a visual and simple operation using a pointing device. Thus, surveying analysis information (distance, area, volume, angle, and the like) relating to the surveying points and the surveying points can be derived.
[0010]
In addition, the surveying system of the present invention performs accurate correspondence even when the camera that captures the overview image is a camera for non-measurement, or when the internal localization element is not clear due to focus adjustment, zooming operation, etc. In addition, the correspondence between the three-dimensional position information measured by the surveying means for a plurality of reference points arbitrarily designated in the overview image and the two-dimensional position information on the reference point on the overview image is used to generate an overview image. It is preferable to include an internal orientation unit that calculates an internal orientation element of the camera that has captured the image. At this time, it is preferable that the position of the reference point is determined by designating an arbitrary position on the overview image using input means capable of designating an arbitrary position of the image display means. As a result, the internal orientation can be performed by an extremely simple operation without using an auxiliary device or the like. Similarly, the positional relationship (external orientation element) between the overview image and the surveying means includes three-dimensional survey information or known survey information of the reference point measured by the surveying means, and an overview image of the reference point. It is calculated from the relationship with the above two-dimensional position information.
[0011]
The surveying means includes, for example, an imaging means capable of capturing an enlarged image with a higher magnification than the overview image, and the imaging means can display an enlarged image in the collimating direction of the surveying means on the overview image. Thereby, it is possible to visually and spatially grasp the deviation between the measurement setting point and the target. Further, in order to confirm the position of the stake-out point not only visually but also accurately as data, the image output means preferably displays three-dimensional position information of the stake-out point. Further, it is preferable that the image output means can display, as a plan view, the relationship between the position at which the overview image is captured and the position of the survey setting point, the survey point, or the surveying means. Thereby, it is possible to more easily recognize the spatial arrangement between the survey setting points, the survey points, or the surveying means.
[0012]
In addition, in order to facilitate reference of the survey points and the information on the survey points, a data recording unit capable of recording the survey information related to the survey points and the survey points in association with the image data of the overview image is provided. Is preferred. Further, it is preferable that the surveying system has a portable terminal, and the portable terminal includes an image output unit. Thereby, the stake driver can perform the measuring work while referring to the image output of the mobile terminal.
[0013]
A portable terminal according to the present invention is used in the surveying system.
[0014]
Further, the digital camera of the present invention includes an imaging unit capable of capturing an overview image of a survey site including a surveying point measured using a surveying instrument, and a plurality of reference points arbitrarily designated in the overview image. A positional relationship calculating unit configured to calculate a positional relationship between the overview image and the surveying instrument based on the two-dimensional location information and the three-dimensional surveying information of a plurality of reference points measured by the surveying instrument; Means for associating three-dimensional survey information of a survey point measured by a surveying instrument and three-dimensional position information of a survey setting point with two-dimensional position information on a corresponding overview image, respectively. And image display means for displaying the position of the survey setting point on the overview image based on the association of the association means.
[0015]
The surveying support device of the present invention is based on the positional relationship calculating means for calculating the positional relationship between the surveying site and the survey image including the surveying points measured using the surveying device, and the surveying device, based on the positional relationship. Associating means for associating the three-dimensional survey information of the survey points measured by the surveying instrument and the three-dimensional position information of the survey setting points with the corresponding two-dimensional position information on the overview image, respectively; Image display means for displaying the position of the survey setting point on the overview image based on the association of the association means.
[0016]
The surveying support program according to the present invention is a computer which calculates a positional relationship between an overview image of a surveying site including a surveying point and a surveying instrument, and a surveying point measured by the surveying instrument based on the positional relationship. A procedure for associating the three-dimensional position information and the three-dimensional position information of the stake-out point with the corresponding two-dimensional position information on the overview image, and an overview image of the position of the stake-out point based on the correspondence The procedure shown above is executed.
[0017]
Further, the surveying and surveying method of the present invention is a step of taking an overview image of a surveying site including a surveying point, a step of calculating a positional relationship between the overview image and the surveying instrument, based on the positional relationship, Displaying the position of the surveying point on the overview image, measuring the three-dimensional position information of the target for the surveying operation on the surveying point by the surveying instrument, and guiding the target to the surveying point Displaying the position of the target on the overview image based on the positional relationship.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram schematically showing a surveying system using a surveying instrument and a camera according to a first embodiment of the present invention.
[0019]
The surveying
[0020]
Further, the surveying
[0021]
The optical system of the
[0022]
The digital
[0023]
The digital image stored in the
[0024]
The digital
[0025]
A
[0026]
Next, a single photo orientation process in the surveying system of the first embodiment will be described with reference to FIGS. 1, 2, and 3. FIG. FIG. 2 is a flowchart of a single photo orientation process in the surveying system of the first embodiment, and FIG. 3 is a diagram conceptually showing the arrangement of surveying instruments and cameras in the surveying system of the first embodiment.
[0027]
First, in step S101, the operator takes an overview of the survey site using the digital still camera (DSC) 20. One taken digital image (overview image) includes a plurality of measurement points to be measured. In step S102, the photographed overview image is displayed on, for example, the
[0028]
In step S103, each reference point P specified in step S102 i The oblique distance and the (altitude, horizontal) angle are measured by the operator using the surveying
[0029]
In step S104, each reference point P i , An external orientation element representing the position and inclination of the digital
[0030]
Note that the camera coordinate system is a left-handed coordinate system having the origin at the lens center (projection center) O. The z axis and the y axis are parallel to the s ′ axis and the t ′ axis of the screen coordinate system, and the x axis is It is defined perpendicular to the imaging plane and in a direction opposite to the image plane. That is, a point on the imaging surface is represented by (−f, y, z). Here, the screen coordinate system is a two-dimensional coordinate system on the imaging surface with the principal point as the origin, and the s ′ axis corresponds to the horizontal line direction of the
[0031]
As described above, the single photo orientation processing of the present embodiment is completed by the processing of steps S101 to S104.
[0032]
Next, with reference to FIGS. 4 and 5, the principle of the method of calculating the external orientation elements and the internal orientation elements (step S104) of the digital
[0033]
FIG. 4 shows three reference points P 1 , P 2 , P 3 And the image point P on these imaging surfaces S 1 ', P 2 ', P 3 'Schematically shows the relationship with'. FIG. 5 shows an external orientation element (X) representing the position and inclination of the digital
[0034]
First, in step S201, an external orientation element (X O , Y O , Z O , Ω, φ, κ) and internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ), An initial value (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG )give. Next, in step S202, the given external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Using 11 reference points P i (I = 1, 2,..., 11) survey coordinates (Xp i , Yp i , Zp i ) To each reference point P i Image point P corresponding to i 'Image coordinates (xp Gi ', Yp Gi ').
[0035]
That is, the reference point P i (I = 1, 2,..., 11) in the camera coordinate system (xp i , Yp i , Zp i ) Indicates coordinates (Xp) in the survey coordinate system. i , Yp i , Zp i ) Can be obtained from the following equation (1), so that the approximate external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And reference point P i Survey coordinates (Xp i , Yp i , Zp i ) Into equation (1), the reference point P i Approximate camera coordinates (xp Gi , Yp Gi , Zp Gi ).
(Equation 1)
Where the matrix {T jk } Is a rotation matrix, and each component T jk Is represented, for example, by the following equation.
T 11 = Cosφ · cosκ
T 12 = Cosω · sinκ + sinω · sinφ · cosκ
T Thirteen = Sinω · sinκ−cosω · sinφ · cosκ
T 21 = −cosφ · sinκ
T 22 = cosω ・ cosκ-sinω ・ sinφ ・ sinκ
T 23 = sinω ・ cosκ + cosω ・ sinφ ・ sinκ
T 31 = Sinφ
T 32 = −sinω · cosφ
T 33 = cosω ・ cosφ
[0036]
The reference point P i Image point P corresponding to i 'Screen coordinates (sp i ', Tp i ') Indicates the external orientation element (X O , Y O , Z O , Ω, φ, κ) and the reference point P i Camera coordinates (xp i , Yp i , Zp i ) Is obtained by the following equation (2).
(Equation 2)
[0037]
Screen coordinates before correction (sp i ', Tp i ') Are affected by distortion and the like, and these are given by the equation (3). i 'Screen coordinates (sp i ', Tp i ') And an approximate internal localization element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is corrected. That is, the approximate screen coordinates (scp Gi ', Tcp Gi ') Is calculated.
[Equation 3]
[0038]
Image point P i 'Image coordinates (xp Gi ', Yp Gi ') Is the corrected approximate screen coordinates (scp Gi ', Tcp Gi ') Into the following equation (4).
(Equation 4)
Here, Px and Py are the horizontal and vertical pixel pitches of the CCD, respectively, and W and H are the horizontal and vertical pixel numbers of the image, respectively.
[0039]
In step S203, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is calculated to determine whether the value of () is appropriate. The merit function Φ is defined by, for example, equation (5).
(Equation 5)
That is, in the present embodiment, the merit function Φ is the reference point P specified on the overview image. i Image point P i 'Image coordinates (xp i ', Yp i ') And the reference point P obtained by surveying i Survey coordinates (Xp i , Yp i , Zp i ) And approximately given external orientation elements (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Obtained from the image point P i 'Image coordinates (xp Gi ', Yp Gi ') Corresponds to the square of the distance between
[0040]
Next, in step S204, it is determined whether the merit function Φ is smaller than a predetermined value. That is, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) The image point P i 'Image coordinates (xp Gi ', Yp Gi ') Is the reference point P specified on the overview image i Image point P i 'Image coordinates (xp i ', Yp i It is determined whether it is close enough to '). If Φ <predetermined value, this processing ends, and the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Are an external orientation element and an internal orientation element representing the position and inclination of the camera at the time of capturing the overview image.
[0041]
On the other hand, if it is determined in step S204 that Φ ≧ predetermined value, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ), The correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ) Is obtained by, for example, the least squares method. That is, (sp) of the equation (2), which is the collinear condition, i ', Tp i ') In (3) i ', Tcp i ') And substitute the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is linearized without Taylor expansion around higher order terms. In this linearized equation, the correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ) Is defined as an unknown quantity, and appropriate correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ).
[0042]
In step S206, the correction amounts calculated in step S205 (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ), An external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is updated. That is, (X GO , Y GO , Z GO , Ω G , Φ G , Κ G , F G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is (X GO + ΔX, Y GO + ΔY, Z GO + ΔZ, ω G + Δω, φ G + Δφ, κ G + Δκ, f G + Δf, D 2G + ΔD 2 , D 4G + ΔD 4 , D 6G + ΔD 6 , N 1G + ΔN 1 , N 2G + ΔN 2 , X CG + ΔX C , Y CG + ΔY C ) Is updated and the camera position and the internal orientation are updated. Thereafter, the process returns to step S202, and steps S202 to S206 are repeatedly executed until it is determined in step S204 that Φ <predetermined value.
[0043]
Next, the surveying and surveying using the surveying system of the first embodiment will be described with reference to FIGS.
[0044]
FIG. 6 is a flowchart showing the procedure of the surveying and surveying in this embodiment. First, in step S301, the single photo orientation process of the flowchart of FIG. 2 is performed. Note that the overview image captured in step S101 in FIG. 2 is captured in a range including the survey setting point. An external orientation element (X) of the digital
[0045]
The
[0046]
In step S304, the overview image displayed on the
[0047]
In step S305, a mode selection for searching for a survey setting point is performed. In the present embodiment, a mode 1 and a mode 2 described below are provided as a method for supporting the search for the survey setting point. The operator operates a predetermined mode selection switch (not shown) of the
[0048]
If the operator selects mode 1 in step S305, the process proceeds to step S306. In step S306, the position of the target is measured by collimating the surveying
[0049]
The display on these overview images is transmitted to the
[0050]
If it is determined in step S306 that the distance between the target and the staking point has reached the limit value and the search for the staking point has been completed, a predetermined switch of the
[0051]
On the other hand, when mode 2 is selected in step S305, the process proceeds to step S309. In step S309, similarly to step S306, the position of the target is measured by collimating the surveying
[0052]
As in step S306, these images are transmitted to the
[0053]
Further, when the value falls within the limit value, it may be automatically changed by a signal from the surveying
[0054]
The present invention can be applied to both a non-prism rangefinder and a prism-based rangefinder. In the case of a non-prism ranging finder, except for steps S306 and S309, workability can be improved by using the same work content as a collimation guide of a measurement point as follows.
[0055]
For example, when mode 1 of the flow of FIG. 6 is selected, in step S305, surveying of an arbitrary collimation point (for example, surveying using reflection of the ground) is performed, and the surveying point is displayed on the overview image. The workability can be improved as a guide for TS collimation by confirming the deviation from the measurement point mark. Further, the survey may be performed at an arbitrary time interval (continuous survey), and the survey position may be displayed on the overview image to serve as a collimation guide. Furthermore, some non-pre-ranging meters have a laser pointer function, and that function can also be used. That is, the pile driving operator who has moved to the vicinity of the survey setting point can search for the pointer position pointed by the laser and hit the pile. When the mode 2 is selected, the same operation can be performed as described above, except that a further enlarged image can be used by using the CCD image incorporated in the TS. In the present embodiment, in order to distinguish the measurement point mark from the measurement point mark on the overview image, the measurement points are displayed in different colors, shapes, sizes, and the like so that the measurement points are represented by + signs or the like. Things are necessary.
[0056]
In the surveying system of this embodiment, as shown in FIG. 7, in steps S306 and S309, not only the target T but also the survey 1 , R 2 ), And its position can be displayed on the overview image. Further, the measurement points (Q 1 , ..., Q 7 ), Target (T), measurement point (R 1 , R 2 ) Is the horizontal angle θ h , Altitude angle θ v , The distance L, in which case the horizontal angle θ h Is represented based on a reference line (horizontal angle reference line) H arbitrarily specified using an input device such as the
[0057]
In the present embodiment, the measurement points and the three-dimensional coordinates (surveying coordinates and the like) of the measured measurement points are associated with the image coordinates of the overview image. Therefore, in the surveying system of the present embodiment, the distance between two surveying points arbitrarily selected using the pointing device 30 (for example, Q 1 And Q 5 Distance) or the distance between the measurement points (for example, Q 3 And R 2 And a function of calculating and displaying data representing a relative relationship between a plurality of points, such as a distance of a plurality of points. As the distance, survey information such as a horizontal distance and a height difference can be displayed in addition to the oblique distance. In addition to the distance between two points, survey analysis information such as the total distance between a plurality of continuous survey setting points and measurement points, and the area, volume, and angle of a region designated by three or more points is also provided. It also has a display function.
[0058]
Further, the surveying system according to the present embodiment has a function of displaying the mutual positional relationship between the camera position at which the overview image is captured, the position of the surveying instrument, the positions of the surveying points and the surveying points, as positions in a horizontal plane as shown in FIG. Is provided. At this time, an external orientation element of the camera (DSC) 20 with respect to the surveying instrument (TS) 10 may be displayed on the screen. 9 is displayed on the screen instead of the overview image when a predetermined switch of the
[0059]
As described above, according to the first embodiment of the present invention, the survey information obtained by the surveying instrument can be simply and accurately associated with the position in the overview image photographed by the camera. The position of the target with respect to the point can be easily grasped visually and spatially using the overview image and the planar image. Therefore, the measurement work can be performed extremely efficiently. In addition, by specifying surveying analysis information (distance, area, volume, angle, etc.), which is various relations between surveying points and measured surveying points, it is easy to specify the surveying points and surveying points on the screen. Can be sought.
[0060]
Further, according to the first embodiment, even when the digital still camera used is a non-measurement camera, or a camera whose internal localization is unknown due to a zoom function, focus adjustment, or the like, the external localization element and the internal localization of the camera are used. Elements can be calculated easily and quickly.
[0061]
Note that a printer may be connected to the digital still camera, the overview image or the planar image displayed in the present embodiment may be printed, and the surveying and surveying operation may be performed by referring to the image.
[0062]
When a lens having a long focal length such as telephoto is used for photographing the overview image, the distortion, which is one of the internal localization elements, is small and may be substantially negligible. That is, (D 2 , D 4 , D 6 , N 1 , N 2 ) Can be ignored and the unknown internal localization element is (f, X C , Y C ) Only. Internal localization elements (f, X C , Y C ) Is obtained by determining five or more reference points P three-dimensionally arranged. i Is enough. If the eccentricity of the principal point from the center of the image can be ignored and the asymmetry component of the distortion and the fourth and sixth order components of the distortion can be ignored, the internal localization element to be obtained is (f, D 2 ), And the number of reference points for the internal orientation is four. As described above, when the number of internal orientation elements to be obtained is small, the number of reference points for internal orientation can be reduced, so that labor and time for measurement can be saved.
[0063]
In the present embodiment, the case where the
[0064]
Next, a surveying system according to a second embodiment of the present invention will be described with reference to FIG. Since the second embodiment is substantially the same as the first embodiment, only the configuration different from the first embodiment will be described. Note that the same reference numerals are used for configurations common to the first embodiment.
[0065]
FIG. 10 is a block diagram illustrating a schematic configuration of a survey system according to the second embodiment. In the second embodiment, for example, a digital
[0066]
The image data of the overview image transmitted to the
[0067]
In the
[0068]
As described above, substantially the same effects as in the first embodiment can be obtained in the second embodiment. In the second embodiment, a commercially available digital camera can be used. Furthermore, the computer according to the second embodiment may be configured as a dedicated device for supporting surveying, but since the surveying support program according to the present embodiment can be installed and used on a general-purpose notebook personal computer, The above surveying system can be provided simply and at low cost.
[0069]
In the present embodiment, the reference point is arbitrarily specified on the overview image using a pointing device. May be used as a reference point to determine an external orientation element. In this case, the position of the reference scale or the reference mark on the overview image is selected using a pointing device or the like. When a reference scale or a reference mark is used, the position of the reference point on the overview image may be automatically detected using, for example, image processing.
[0070]
In the present embodiment, a total station capable of measuring an oblique distance and an (altitude, horizontal) angle has been described as a surveying instrument. Any other surveying instrument may be used as long as the surveying instrument can calculate, for example, a surveying instrument using a GPS (global positioning system) or the like. Further, the angle measured by the surveying instrument may be an angle other than the altitude angle and the horizontal angle, and may be, for example, an angle between two points on an oblique plane. Naturally, the coordinates may be absolute coordinates of the Geographical Survey Institute or arbitrary coordinates.
[0071]
Further, in the second embodiment, the computer connected to the surveying instrument is used, but the function of the computer in the second embodiment may be integrally provided in the surveying instrument.
[0072]
In this embodiment, the transmission of the survey data from the surveying instrument to the digital still camera or the computer is performed via the interface circuit. Data may be input.
[0073]
【The invention's effect】
As described above, according to the present invention, it is possible to improve work efficiency in surveying and surveying. More specifically, according to the present invention, by easily and efficiently associating survey information obtained by a surveying instrument with image information obtained by a camera, it is easy to visually and spatially recognize survey setting points, The work efficiency of the position guidance in the surveying and surveying can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of a survey system according to a first embodiment of the present invention.
FIG. 2 is a flowchart of a single photo orientation process in the surveying system of the first embodiment.
FIG. 3 is a diagram conceptually showing an arrangement of a surveying instrument and a camera in the surveying system of the first embodiment.
FIG. 4 shows three reference points P 1 , P 2 , P 3 And image point P on imaging surface S 1 ', P 2 ', P 3 FIG. 6 is a diagram schematically showing the relationship with '.
FIG. 5 shows an external orientation element (X) representing the position and inclination of the digital still camera. O , Y O , Z O , Ω, φ, κ) and the camera's internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C 4 is a flowchart of a program of a spatial backcrossing method for calculating (i).
FIG. 6 is a flowchart illustrating a procedure of surveying and surveying in the surveying system of the first embodiment.
FIG. 7 is an example of an image display of an overview image in a case where surveying and surveying is performed using mode 1;
FIG. 8 is an example of an image display of an overview image when surveying and surveying is performed using mode 2;
FIG. 9 is an example of an image display in which a survey point, a survey point, a surveying instrument, and a camera position at which an overview image is captured are displayed on a plan view.
FIG. 10 is a block diagram illustrating a schematic configuration of a surveying system according to a second embodiment.
[Explanation of symbols]
10 Surveying instrument
16, 28 Interface circuit
20 Digital Still Camera
24 Display
26 System control circuit
27, 42 Recording medium
30 pointing device
40 Computer
41 Input device
43 Image display device
Claims (36)
前記位置関係から、前記測設点の3次元的な位置情報を、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて、前記測設点の位置を前記概観画像上に重畳して出力する画像出力手段と
を備えることを特徴とする測量システム。Positional relationship calculating means for calculating the positional relationship between the coordinate system used as the reference by the surveying information of the surveying points and the overview image of the surveying site including the surveying points,
Associating means for associating three-dimensional position information of the survey setting point with corresponding two-dimensional position information on the overview image, from the positional relationship,
A surveying system comprising: an image output unit that superimposes and outputs the position of the survey setting point on the overview image based on the association of the association unit.
前記概観画像内において任意に指定される複数の基準点の2次元的な位置情報と前記測量機による前記複数の基準点の3次元的な測量情報、又は既知の測量情報に基づいて、前記概観画像と前記測量機との間の位置関係を算出する位置関係算出手段と、
前記位置関係から、前記測量機による測点の3次元的な測量情報と、前記測設点の3次元的な位置情報とを、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて前記測点及び測設点の位置を前記概観画像上に表示する画像表示手段と
を備えることを特徴とするデジタルカメラ。Imaging means capable of taking an overview image of a survey site including a surveying point to be surveyed using a surveying instrument,
The overview is performed based on two-dimensional position information of a plurality of reference points arbitrarily designated in the overview image and three-dimensional survey information of the plurality of reference points by the surveying instrument or known survey information. A positional relationship calculating means for calculating a positional relationship between the image and the surveying instrument,
From the positional relationship, the three-dimensional survey information of the survey points by the surveying instrument and the three-dimensional position information of the survey points are respectively associated with the corresponding two-dimensional position information on the overview image. Correspondence means,
A digital camera, comprising: image display means for displaying the positions of the measurement points and the measurement setting points on the overview image based on the association of the association means.
前記位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と前記測設点の3次元的な位置情報とを、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて、前記測点及び測設点の位置を前記概観画像上に表示する画像表示手段と
を備えることを特徴とする測量支援装置。Positional relationship calculating means for calculating a positional relationship between the survey image and the surveying site including a surveying point to be surveyed using a surveying instrument,
The three-dimensional survey information of the survey point measured by the surveying instrument based on the positional relationship and the three-dimensional position information of the survey setting point are respectively corresponded to two-dimensional positions on the overview image. Associating means for associating with information;
A surveying support device, comprising: image display means for displaying the positions of the measurement points and the measurement setting points on the overview image based on the correspondence of the association means.
前記位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と前記測設点の3次元的な位置情報とをそれぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける手順と、
前記対応付けに基づいて前記測設点の位置を前記概観画像上に表示する手順と
を実行させるための測量支援プログラム。A computer for calculating a positional relationship between the survey image and the surveying site including the survey points,
Two-dimensional position information on the overview image corresponding to three-dimensional survey information of a survey point measured by the surveying instrument based on the positional relationship and three-dimensional position information of the survey setting point, respectively. And the steps to map to
Displaying the position of the survey setting point on the overview image based on the association.
前記概観画像と測量機との間の位置関係を算出するステップと、
前記位置関係に基づいて、前記測設点の位置を前記概観画像上に表示するステップと、
前記測量機により前記測設点に対する測設作業のためにターゲットの3次元的な測量情報を測定するステップと、
前記ターゲットの前記測設点に誘導するために、前記位置関係に基づいて前記ターゲットの位置を前記概観画像上に表示するステップと
を備えることを特徴とする測設測量の方法。Taking an overview image of the survey site including the stake out points;
Calculating a positional relationship between the overview image and the surveying instrument,
Displaying the position of the survey setting point on the overview image based on the positional relationship;
Measuring three-dimensional survey information of a target for the survey work on the survey point by the survey instrument;
Displaying the position of the target on the overview image based on the positional relationship, in order to guide the user to the surveying point of the target.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003182028A JP4359083B2 (en) | 2002-06-26 | 2003-06-26 | Surveying system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002185686 | 2002-06-26 | ||
JP2003182028A JP4359083B2 (en) | 2002-06-26 | 2003-06-26 | Surveying system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004085551A true JP2004085551A (en) | 2004-03-18 |
JP4359083B2 JP4359083B2 (en) | 2009-11-04 |
Family
ID=32071649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003182028A Expired - Lifetime JP4359083B2 (en) | 2002-06-26 | 2003-06-26 | Surveying system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4359083B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008032700A (en) * | 2006-07-03 | 2008-02-14 | Pentax Industrial Instruments Co Ltd | Survey instrument |
WO2010047146A1 (en) * | 2008-10-21 | 2010-04-29 | 株式会社 ソキア・トプコン | Manual type surveying instrument having collimation assisting device |
US20140320603A1 (en) * | 2011-12-06 | 2014-10-30 | Hexagon Technology Center Gmbh | Method and device for determining 3d coordinates of an object |
JP2015507749A (en) * | 2012-01-17 | 2015-03-12 | ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG | Laser tracker with the ability to provide a target with graphics |
JP2017223540A (en) * | 2016-06-15 | 2017-12-21 | 株式会社トプコン | Measuring system |
JP2021043217A (en) * | 2020-11-27 | 2021-03-18 | 株式会社トプコン | Surveying system |
WO2023008305A1 (en) * | 2021-07-27 | 2023-02-02 | 株式会社トプコン | Survey setting point editing method, survey setting point editing device, and survey setting point editing program |
-
2003
- 2003-06-26 JP JP2003182028A patent/JP4359083B2/en not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008032700A (en) * | 2006-07-03 | 2008-02-14 | Pentax Industrial Instruments Co Ltd | Survey instrument |
WO2010047146A1 (en) * | 2008-10-21 | 2010-04-29 | 株式会社 ソキア・トプコン | Manual type surveying instrument having collimation assisting device |
US8225518B2 (en) | 2008-10-21 | 2012-07-24 | Sokkia Topcon Co. Ltd. | Manual surveying instrument having collimation assisting device |
CN102159921B (en) * | 2008-10-21 | 2012-12-26 | 株式会社索佳拓普康 | Manual type surveying instrument having collimation assisting device |
JP5384512B2 (en) * | 2008-10-21 | 2014-01-08 | 株式会社 ソキア・トプコン | Manual surveying instrument with collimation assist device |
US9995567B2 (en) * | 2011-12-06 | 2018-06-12 | Hexagon Technology Center Gmbh | Method and device for determining 3D coordinates of an object |
US20140320603A1 (en) * | 2011-12-06 | 2014-10-30 | Hexagon Technology Center Gmbh | Method and device for determining 3d coordinates of an object |
JP2015507749A (en) * | 2012-01-17 | 2015-03-12 | ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG | Laser tracker with the ability to provide a target with graphics |
US9612331B2 (en) | 2012-01-17 | 2017-04-04 | Leica Geosystems Ag | Laser tracker with functionality for graphical target preparation |
JP2017223540A (en) * | 2016-06-15 | 2017-12-21 | 株式会社トプコン | Measuring system |
JP2021043217A (en) * | 2020-11-27 | 2021-03-18 | 株式会社トプコン | Surveying system |
JP7001800B2 (en) | 2020-11-27 | 2022-01-20 | 株式会社トプコン | Surveying system |
WO2023008305A1 (en) * | 2021-07-27 | 2023-02-02 | 株式会社トプコン | Survey setting point editing method, survey setting point editing device, and survey setting point editing program |
Also Published As
Publication number | Publication date |
---|---|
JP4359083B2 (en) | 2009-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7098997B2 (en) | Surveying system | |
US7218384B2 (en) | Surveying system | |
EP2098820B1 (en) | Geographical data collecting device | |
US9322652B2 (en) | Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera | |
CN101932906B (en) | Localization of surveying instrument in relation to ground mark | |
US7933001B2 (en) | Geographic data collecting system | |
JP4263549B2 (en) | Survey guidance device | |
JP4944462B2 (en) | Geographic data collection device | |
JP2007017406A (en) | Geographic data collection device | |
US7075634B2 (en) | Surveying system | |
US7177016B2 (en) | Electronic surveying apparatus | |
JP4359083B2 (en) | Surveying system | |
JP2004317237A (en) | Surveying apparatus | |
JP4359084B2 (en) | Surveying system | |
JP4167509B2 (en) | Surveying system | |
JP4212951B2 (en) | Surveying instrument | |
JP4217083B2 (en) | Surveying system | |
JP4276900B2 (en) | Automatic survey system | |
JP2004085555A (en) | Surveying system | |
JP6954830B2 (en) | Target device, surveying method, surveying device and surveying program | |
JP2006350879A (en) | Information providing system | |
JP2006003104A (en) | Survey work guidance device | |
JPH0523025U (en) | Position detection means for position measurement plotter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060515 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080425 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090324 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090804 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090807 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120814 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4359083 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120814 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130814 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |