JP2004085551A - Surveying system - Google Patents

Surveying system Download PDF

Info

Publication number
JP2004085551A
JP2004085551A JP2003182028A JP2003182028A JP2004085551A JP 2004085551 A JP2004085551 A JP 2004085551A JP 2003182028 A JP2003182028 A JP 2003182028A JP 2003182028 A JP2003182028 A JP 2003182028A JP 2004085551 A JP2004085551 A JP 2004085551A
Authority
JP
Japan
Prior art keywords
surveying
image
survey
point
overview image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003182028A
Other languages
Japanese (ja)
Other versions
JP4359083B2 (en
Inventor
Masami Shirai
白井 雅実
Shinobu Uesono
上園 忍
Koji Tsuda
津田 浩二
Atsumi Kaneko
金子 敦美
Ryota Ogawa
小川 良太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Pentax Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pentax Corp filed Critical Pentax Corp
Priority to JP2003182028A priority Critical patent/JP4359083B2/en
Publication of JP2004085551A publication Critical patent/JP2004085551A/en
Application granted granted Critical
Publication of JP4359083B2 publication Critical patent/JP4359083B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To facilitate the recognition of a survey point visually and spatially and improve the work efficiency in surveying by associating survey information obtained from a surveying device with image information on a survey site obtained from a camera easily and efficiently. <P>SOLUTION: An overview image of a survey site including survey points Q<SB>1</SB>to Q<SB>7</SB>is taken by a digital camera. Reference points P<SB>1</SB>to P<SB>3</SB>are specified on the overview image and positions of the reference points P<SB>1</SB>to P<SB>3</SB>are surveyed by a survey device. A position/inclination of the digital camera against the survey device is calculated from the positions of the surveyed reference points P<SB>1</SB>to P<SB>3</SB>on the actual space and the positions of the reference points on the overview image. The survey points Q<SB>1</SB>to Q<SB>7</SB>are displayed on the overview image from the position data of the survey points. A piling worker holds a target T close to the survey point Q<SB>2</SB>to be searched for by referring to the overview image. The position of the target T is surveyed and the position is displayed on the overview image. The distance (500) of the target T and the survey point Q<SB>2</SB>are displayed and the moving direction is displayed with an arrow. The survey point Q<SB>1</SB>for which the survey has been completed is displayed with a different color. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、測設測量等をともなう測量システムに関する。
【0002】
【従来の技術】
従来、路線測量や用地測量のように杭打等の測設測量をともなう測量は、測設機能を備えた測量機を操作する作業者と、ターゲット(例えばプリズム等)を保持し測設点を探索して移動する作業者との二人一組で行われる。すなわち、トータルステーション等の測量機には、予め位置が知られている複数の予点と、杭打が行われる測設点の位置データが入力されており、例えば第1の予点を後視方向として測量機は第2の予点に配置される。測量機には第1の予点に対する測設点の水平角と器械点からの水平距離が表示される。プリズムを保持した作業者は目的とする測設点付近に立ち、測量機を操作する作業者はプリズムの位置を測量機で測定し測設点からのズレを確認するとともに、プリズムを保持した作業者に無線や手振り等の合図で移動方向を指示する。この作業を繰り返し、プリズムの位置が測設点に対して予め設定された制限値内に達した位置において杭打が行われる。また、最近開発された自動視準を備えた測量機では、1人の杭打作業者により測設測量を行なうことができる。すなわち測量機は、杭打作業者が保持するプリズムに対して自動視準を行うとともに、測定データを無線で杭打作業者に通知、あるいは光信号により移動方向を指示する。杭打作業者はこの測定データあるいは光信号を参照してプリズムを移動し、測設点を探索する。
【0003】
【発明が解決しようとする課題】
しかし、二人一組で行なう測設測量では、言葉、手振り等の指示により杭打作業者を測設点へ誘導するため測設点の位置が判りづらく、作業時間が掛かるとともに作業が煩雑であった。自動視準を行なう測量機においても、なお視覚的、空間的に測設点の位置を把握することができないので、測設点の探索は容易ではない。また、測設点の数が多いと、測量が終了した測設点とこれから測量を行なう測設点とを間違えるという問題も発生する。
【0004】
本発明は、測設測量における作業効率を向上させることを目的としている。更に詳しくは、測量機で得られる測量情報とカメラで得られる画像情報とを簡便かつ効率的に関連付けることにより、測設点の視覚的・空間的な認識を容易にし、測設測量における位置誘導の作業効率を高めることを目的としている。
【0005】
【課題を解決するための手段】
本発明の測量システムは、測点の測量情報が基準とする座標系と測設点を含む測量現場の概観画像との間の位置関係を算出する位置関係算出手段と、この位置関係から、測設点の3次元的な位置情報(所与の設計値等)を、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて、測設点の位置を概観画像上に重畳して出力する画像出力手段とを備えたことを特徴としている。
【0006】
測量システムは、例えば、測点及び測設点の測量情報を得るための測量手段を有する。また対応付け手段は、測点の測量情報を、それぞれ対応する概観画像上の2次元的な位置情報に対応付け、画像出力手段は、測点の位置を概観画像上に重畳して表示可能である。測点の測量情報は、既知の測量情報であってもよく、この場合、既知の測量情報として、例えば所与の地理データ(例えば、国土地理院の三角点や市販の地図デ−タ等)を用いてもよく、画像出力手段には、所与の地理データの位置が表示された概観画像が出力可能である。また測量手段による測量情報と既知の測量情報を混合して基準点に使用、画像上に表示してもよい。(但し、各所与の地理デ−タの座標系がそれぞれ違う場合には座標変換により座標系を統一して行なことがよい。これは、測点を概観画像上に表示する場合や基準点の測量情報により対応づけを行なう場合共である。)
【0007】
より簡便・迅速に測設点の位置を視覚的・空間的に把握するには、画像出力手段がLCDやCRT等の画像表示手段を備えることが好ましく、画像表示手段には測設点の位置が表示された概観画像が表示される。また、画像出力手段は例えば印刷手段を備え、測設点の位置が表示された概観画像が印刷される。これにより杭打作業者は紙等に印刷された概観画像を持ち歩いて参照したり、書き込みを加えたりすることができる。
【0008】
画像出力手段は好ましくは、測設点に対する測設作業のために測量されたターゲットの位置を概観画像上に表示し、ターゲットの位置と測設点の位置との間の距離、測設作業のためにターゲットを移動すべき方向を表示する。これにより、杭打作業者は、現在のターゲットの測設点に対する位置を視覚的・空間的に把握できるため測設点の探索が極めて容易になる。また、測設が終了した測設点とこれから測設を行なう測設点の区別を容易かつ確実に認識できるようにするには、概観画像上に表示された測設点のうち、測設作業が終了した測設点を測設作業が未だ行なわれていない測設点の表示と異なる表示方法により表示する(例えば表示記号の色や形状を替える)ことが好ましい。
【0009】
画像出力手段は、複数の測設点の間の相対的な位置関係に基づき算出される測量情報を概観画像上に表示する。また、画像出力手段は、測点の位置を概観画像上に表示し、測設点と測点との間の相対的な位置関係に基づき算出される測量情報を概観画像上に表示する。このとき画像出力手段は画像表示手段を備え、測量システムは画像表示手段における画像上の位置を指定するための入力手段を備えることが好ましく、測量情報に係わる測設点又は測点は、この入力手段により概観画像上に表示された測設点又は測点の位置を指定することにより決定される。これにより、様々な測量情報を、測設点や測点が表示された概観画像上の点を指定することにより得ることができるので、作業者は、ポインティングデバイスを用いて視覚的かつ簡便な操作により測設点や測点に係る測量解析情報(距離、面積、体積、角度等)を導き出すことができる。
【0010】
また、本発明の測量システムは、概観画像を撮影するカメラが非測定用のカメラであることや、焦点調整やズーミング操作等により内部定位要素が明らかでない場合等においても精度よく対応付を行なうために、概観画像内において任意に指定される複数の基準点の測量手段により測定される3次元的な位置情報と、基準点の概観画像上の2次元的な位置情報との対応から、概観画像を撮影したカメラの内部定位要素を算出する内部標定手段とを備えることが好ましい。このとき基準点の位置が画像表示手段の任意の位置を指定することができる入力手段を用いて、概観画像上の任意の位置を指定することにより決定されることが好ましい。これにより補助器具等を用いることなく極めて簡便な操作で内部標定を行なうことが可能となる。また、同様に、概観画像と測量手段との間の位置関係(外部標定要素)は、測量手段により測定された基準点の3次元的な測量情報や既知の測量情報と、基準点の概観画像上の2次元的な位置情報との関係から算出される。
【0011】
測量手段は例えば、概観画像よりも高倍率の拡大画像を撮影可能な撮像手段を備え、撮像手段により測量手段の視準方向の拡大画像を概観画像上に表示することができる。これにより、より容易に測設点とターゲットのズレを視覚的・空間的に把握することが可能となる。また、視覚的のみならずデータとして正確(計量的)に測設点の位置を確認するには、画像出力手段は、測設点の3次元的な位置情報を表示することが好ましい。更に画像出力手段は、概観画像を撮影した位置と、測設点、又は測点、あるいは測量手段の位置との関係を平面図として表示可能であることが好ましい。これにより、測設点や測点同士、あるいは測量手段との間の空間的な配置をより容易に認識することが可能となる。
【0012】
また、測設点や測点に関する情報の参照を容易なものとするには、測設点及び測点に関連する測量情報を概観画像の画像データと関連付けて記録可能なデータ記録手段を備えることが好ましい。更に、測量システムは携帯端末を有し、携帯端末が画像出力手段を備えることが好ましい。これにより、杭打作業者は携帯端末の画像出力を参照しながら測設作業を行なうことができる。
【0013】
本発明の携帯端末は、上記測量システムにおいて用いられるものである。
【0014】
また、本発明のデジタルカメラは、測量機を用いて測設される測設点を含む測量現場の概観画像を撮影可能な撮像手段と、概観画像内において任意に指定される複数の基準点の2次元的な位置情報と測量機により測定される複数の基準点の3次元的な測量情報に基づいて、概観画像と測量機との間の位置関係を算出する位置関係算出手段と、位置関係から、測量機により測定される測点の3次元的な測量情報と、測設点の3次元的な位置情報とを、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて測設点の位置を概観画像上に表示する画像表示手段とを備えたことを特徴としている。
【0015】
本発明の測量支援装置は、測量機を用いて測設される測設点を含む測量現場の概観画像と測量機との間の位置関係を算出する位置関係算出手段と、位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と測設点の3次元的な位置情報とを、それぞれ対応する概観画像上の2次元的な位置情報に対応付ける対応付手段と、対応付手段の対応付けに基づいて、測設点の位置を概観画像上に表示する画像表示手段とを備えたことを特徴としている。
【0016】
本発明の測量支援プログラムは、コンピュータに、測設点を含む測量現場の概観画像と測量機との間の位置関係を算出する手順と、位置関係に基づいて測量機により測定される測点の3次元的な位置情報と測設点の3次元的な位置情報とをそれぞれ対応する概観画像上の2次元的な位置情報に対応付ける手順と、対応付けに基づいて測設点の位置を概観画像上に表示する手順とを実行させること特徴としている。
【0017】
また本発明の測設測量の方法は、測設点を含む測量現場の概観画像を撮影するステップと、概観画像と測量機との間の位置関係を算出するステップと、位置関係に基づいて、測設点の位置を概観画像上に表示するステップと、測量機により測設点に対する測設作業のためにターゲットの3次元的な位置情報を測定するステップと、ターゲットを測設点に誘導するために、上記位置関係に基づいてターゲットの位置を概観画像上に表示するステップとを備えたことを特徴としている。
【0018】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の第1の実施形態である測量機とカメラを用いた測量システムの概略を示すブロック図である。
【0019】
測量機10は例えばトータルステーション等であり、測距部11と測角部12とを備える。測距部11は視準された測点までの斜距離を例えば光波測距により検出し、測角部12はこのときの水平角、高度角等を検出する。測距部11及び測角部12はそれぞれシステムコンロール回路13に接続されており、システムコントロール回路13からの指令に基づき制御される。例えば測距部11はシステムコントロール回路13の指令に基づいて測距を行い、測定値をシステムコントロール回路13に送出する。一方、測角部12は常時角度を測定しておりシステムコントロール回路13からの要求に応じて測定値をシステムコントロール回路13へ送出する。検出された斜距離、水平角、高度角等の測定値はシステムコントロール回路13において処理される。システムコントロール回路13には、インターフェース回路16が接続されており、インターフェース回路16は、例えばインターフェースケーブルを介して例えばデジタルスチルカメラ(DSC)20等に接続される。なお、インターフェース回路16は、例えばデータコレクタ(図示せず)やコンピュータ等の周辺機器にも接続可能である。
【0020】
また、測量機10には、CCD等の撮像素子18が設けられており、撮像レンズ17を介して視準点近傍の画像が撮影可能である。撮像素子18からの画像信号は、画像信号処理回路19においてホワイトバランス補正、ガンマ補正等の所定の画像処理が施され、システムコントロール回路13を介して表示器15に例えばシースルー画像として表示される。なお撮像素子18の駆動は、システムコントロール回路13からの駆動信号により制御される。また、システムコントロール回路13には、スイッチ群14が接続されており、作業者のスイッチ操作に基づいてシステムコントロール回路13での各種処理が行なわれる。
【0021】
なお、測距・測角に用いられる視準望遠鏡10a(図3参照)の光学系を撮像レンズ17の光学系に用いてもよい。この場合、撮像素子18で撮影される画像は、視準望遠鏡10aの視野と略一致する。
【0022】
デジタルスチルカメラ20には、CCD等の撮像素子21が設けられており、撮像レンズ22を介して被写体の映像を撮像可能である。すなわち、撮像素子21では被写体の映像が画像信号として検出され、画像信号処理回路23へ出力される。画像信号処理回路23では、入力された画像信号に対してRGBゲイン補正、ホワイトバランス補正、ガンマ補正やスーパインポーズ(重畳)等の所定の画像処理が施される。画像処理が施された画像信号は例えば表示部(例えばLCD等の画像表示手段)24に送出されシースルー画像として表示される。また、システムコントロール回路26に接続されたスイッチ群29に設けられたシャッターボタン(図示せず)が押下されると、被写体の映像がデジタル画像として画像メモリ25に一時的に記憶される。
【0023】
画像メモリ25に記憶されたデジタル画像は、画像信号処理回路23を介して表示部24に表示可能であるとともに、システムコントロール回路26を介して記録媒体(ICカードや光学的あるいは磁気的な記録媒体等)27に記録可能である。記録媒体27に記録された画像はシステムコントロール回路26により表示部24に表示することが可能である。また、デジタルスチルカメラ20をコンピュータ等の周辺機器にインターフェース回路28を介して接続し、撮像された画像を画像データとして伝送し表示することも可能である。
【0024】
デジタルスチルカメラ20は、更にデータ送信回路32を備え、データ送信回路32は、電波や光信号等を用いて携帯端末(PDA)50等との間でデータ通信を行なう。すなわち、データ送信回路32からは、画像表示部(図示せず)を備える携帯端末50に対してシステムコントロール回路26を介した画像メモリ25の画像データ等を送信することができる。
【0025】
システムコントロール回路26には、ポインティングデバイス30が接続されており、これにより表示部24の画面上の任意の位置を指定することが可能である。ポインティングデバイス30としては、例えば十字キー、トラックボール、ジョイスティック、タッチスクリーン等が用いられる。また、システムコントロール回路26にはメモリ31が接続されている。
【0026】
次に図1、図2、図3を参照して第1の実施形態の測量システムにおける単写真標定処理について説明する。図2は、第1の実施形態の測量システムにおける単写真標定処理のフローチャートであり、図3は第1の実施形態の測量システムにおける測量機およびカメラの配置を概念的に示す図である。
【0027】
まずステップS101において、オペレータはデジタルスチルカメラ(DSC)20により測量現場の概観を撮影する。撮影された1枚のデジタル画像(概観画像)には、測量されるべき測点が複数含まれる。ステップS102では、撮影された概観画像が例えばデジタルスチルカメラ20の表示部24に表示され、表示された概観画像において3次元的に配置された複数の点(画素)がオペレータによりポインティングデバイス30を用いて選択され、選択された画素に対応する実空間内の物点が基準点P(i=1,2,・・・,n)(基準点は概観画像と測量情報の位置関係計算のために任意選択した測点の事)として指定される。このとき指定された各基準点Pに対応する撮像面上の像点P’の位置が、それぞれ2次元の画像座標(xp’,yp’)として求められる。なお画像座標系は、画像左上を原点としたy軸下向きが正の2次元座標系である。また、基準点の数nは3次元的に配置された例えば11以上の数である。
【0028】
ステップS103では、ステップS102において指定された各基準点Pの斜距離及び(高度、水平)角度が測量機10を用いてオペレータにより測定され、測定値はインターフェースを介してデジタルスチルカメラ20のシステムコントロール回路26へ伝送される。システムコントロール回路26では、各基準点Pの3次元座標(Xp,Yp,Zp)が所定の測量座標系において算出される。このとき各基準点Pの測量座標(Xp,Yp,Zp)は、それぞれ像点P’の画像座標(xp’,yp’)に対応付けられる。なお、測量座標系としては、例えば測量機10に設けられた視準望遠鏡10a(図3参照)の高度角、水平角の回転中心を原点として用いてもよいし、国土地理院等で規定している絶対座標を用いてもよい。また、測量機が測量座標計算を行い、その値がデジタルカメラ20のシステムコントロール回路26へ伝送されるように構成してもよい。
【0029】
ステップS104では後に詳述するように、各基準点Pに対する測量座標と画像座標との対応から概観画像を撮影したときのデジタルスチルカメラ20の位置および傾き等を表わす外部標定要素と、レンズディスト−ションや主点の画像中心からの偏心による共線条件のズレを補正するための内部定位要素が、例えば空間後方交会法により算出される。すなわち、デジタルスチルカメラ20に固定された3次元カメラ座標系の原点の測量座標系における位置(X,Y,Z)と、撮影時のカメラ座標系のx軸、y軸、z軸回りの回転角(ω,φ,κ)が外部標定要素として求められるとともに、カメラの内部定位要素(f:レンズ投影中心から像面までの距離(画像距離);D、D、D:ディスト−ション2次、4次、6次成分;N、N:ディスト−ションの非対称成分;X、Y:主点の画像中心からの偏心量)が求められる。これにより、画像座標と測量座標との射影関係が確立される。なお、内部定位要素を上記(f,D,D,D,N,N,X,Y)に設定した場合、外部標定要素及び内部定位要素を算出するのに必要な基準点の数は7点以上である。このうち、外部標定要素(X,Y,Z,ω,φ,κ)を算出するのに必要な基準点の数は3点以上である。なお、本実施形態では、外部標定及び内部標定を行なうための基準点として11点(以上)指定している。
【0030】
なお、カメラ座標系は、レンズ中心(投影中心)Oを原点とした左手座標系であり、そのz軸、y軸はスクリーン座標系のs’軸、t’軸と平行であり、x軸は撮像面と垂直で、像面とは反対の方向に向けて定義される。すなわち、撮像面上の点は(−f,y,z)で表さられる。ここでスクリーン座標系は、主点を原点とした撮像面上の2次元座標系であり、s’軸は撮像素子21の水平ライン方向に、t’軸は垂直ライン方向に対応する(図4参照)。
【0031】
以上、ステップS101〜ステップS104の処理により本実施形態の単写真標定処理は終了する。
【0032】
次に図4、図5を参照して本実施形態におけるデジタルスチルカメラ20の空間後方交会法による外部標定要素及び内部定位要素の算出方法(ステップS104)の原理について説明する。
【0033】
図4は、3つの基準点P、P、Pとこれらの撮像面Sにおける像点P’、P’、P’との関係を模式的に示している。図5は図2のステップS104におけるデジタルスチルカメラ20の位置および傾きを表す外部標定要素(X,Y,Z,ω,φ,κ)及びカメラの内部定位要素(f,D,D,D,N,N,X,Y)を算出する空間後方交会法のプログラムのフローチャートであり、その算出には最小二乗法を用いた逐次近似法が用いられる。なお、本実施形態では、上述したように基準点の数は7点以上であればいくつあってもよいが、ここでは、基準点が11点指定された場合を例に説明を行なう。また、図4にはその内の3点P、P、Pのみが示される。
【0034】
まず、ステップS201においてカメラの位置および傾きを表す外部標定要素(X,Y,Z,ω,φ,κ)及び内部定位要素(f,D,D,D,N,N,X,Y)に近似値として適当な初期値(XGO,YGO,ZGO,ω,φ,κ)及び(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を与える。次にステップS202では、与えられた外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を用いて11個の基準点P(i=1,2,・・・,11)の測量座標(Xp,Yp,Zp)から各基準点Pに対応する像点P’の近似的な画像座標(xpGi’,ypGi’)を算出する。
【0035】
すなわち、基準点P(i=1,2,・・・,11)のカメラ座標系における座標(xp,yp,zp)は、測量座標系における座標(Xp,Yp,Zp)から次の(1)式により求まるので、近似的な外部標定要素(XGO,YGO,ZGO,ω,φ,κ)、及び基準点Pの測量座標(Xp,Yp,Zp)を(1)式に代入することにより、基準点Pの近似的なカメラ座標(xpGi,ypGi,zpGi)を求めることができる。
【数1】

Figure 2004085551
ここで行列{Tjk}は回転行列であり、各成分Tjkは例えば次式で表される。
11=cosφ・cosκ
12=cosω・sinκ+sinω・sinφ・cosκ
13=sinω・sinκ−cosω・sinφ・cosκ
21=−cosφ・sinκ
22=cosω・cosκ−sinω・sinφ・sinκ
23=sinω・cosκ+cosω・sinφ・sinκ
31=sinφ
32=−sinω・cosφ
33=cosω・cosφ
【0036】
また基準点Pに対応する像点P’の内部定位要素による補正前のスクリーン座標(sp’,tp’)は、撮影された基準点、投影中心、およびその像点が同一直線上にあるという共線条件から外部標定要素(X,Y,Z,ω,φ,κ)、及び基準点Pのカメラ座標(xp,yp,zp)を用いて次の(2)式により求められる。
【数2】
Figure 2004085551
【0037】
補正前のスクリーン座標(sp’,tp’)は、ディスト−ション等の影響を受けているが、これらは、(3)式に、各々の像点のP’のスクリーン座標(sp’,tp’)及び近似的な内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)を代入することにより補正される。すなわち、(3)式により補正後の近似的なスクリーン座標(scpGi’,tcpGi’)が算出される。
【数3】
Figure 2004085551
【0038】
像点P’の近似的な画像座標(xpGi’,ypGi’)は補正された近似的なスクリーン座標(scpGi’,tcpGi’)を次の(4)式に代入することにより求められる。
【数4】
Figure 2004085551
ここで、Px、PyはそれぞれCCDの水平、垂直方向の画素ピッチであり、W、Hはそれぞれ画像の水平、垂直方向のピクセル数である。
【0039】
ステップS203では、近似的に与えられた外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値が適切か否かを判定するためのメリット関数Φが計算される。メリット関数Φは例えば(5)式で定義される。
【数5】
Figure 2004085551
すなわち、本実施形態においてメリット関数Φは概観画像上で指定された基準点Pの像点P’の画像座標(xp’,yp’)と、測量により求められた基準点Pの測量座標(Xp,Yp,Zp)および近似的に与えられた外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)から求められた像点P’の近似的な画像座標(xpGi’,ypGi’)との間の距離の2乗に対応している。
【0040】
次にステップS204において、メリット関数Φが所定値よりも小さいか否かが判定される。すなわち、近似的に与えられた外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)による像点P’の近似的な画像座標(xpGi’,ypGi’)が、概観画像上で指定された基準点Pの像点P’の画像座標(xp’,yp’)に十分近いか否かが判定される。Φ<所定値の場合にはこの処理は終了し、現在与えられている外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値を、概観画像撮影時のカメラの位置、傾きを表す外部標定要素、及び内部定位要素であるとする。
【0041】
一方、ステップS204においてΦ≧所定値であると判定された場合には、ステップS205において近似的に与えられた外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)に対する補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD,δD,δD,δN,δN,δX,δY)が例えば最小二乗法により求められる。すなわち、共線条件である(2)式の(sp’,tp’)に(3)式の(scp’,tcp’)を代入し、近似値である外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の周りにテイラー展開し高次の項を省いて線形化する。この線形化された式において補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD,δD,δD,δN,δN,δX,δY)を未知量とする正規方程式を作成し、適正な補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD,δD,δD,δN,δN,δX,δY)を求める。
【0042】
ステップS206では、ステップS205において算出された補正量(δX,δY,δZ,δω,δφ,δκ,δf,δD,δD,δD,δN,δN,δX,δY)に基づいて近似値である外部標定要素(XGO,YGO,ZGO,ω,φ,κ)及び内部定位要素(f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の値が更新される。すなわち、(XGO,YGO,ZGO,ω,φ,κ,f,D2G,D4G,D6G,N1G,N2G,XCG,YCG)の各値は、それぞれ(XGO+δX,YGO+δY,ZGO+δZ,ω+δω,φ+δφ,κ+δκ,f+δf,D2G+δD,D4G+δD,D6G+δD,N1G+δN,N2G+δN,XCG+δX,YCG+δY)に置き換えられカメラの位置及び内部定位が更新される。その後処理はステップS202へ戻り、ステップS204においてΦ<所定値と判定されるまでステップS202〜ステップS206が繰り返し実行される。
【0043】
次に図1、図6〜図7を参照して、第1の実施形態の測量システムを用いた測設測量について説明する。
【0044】
図6は、本実施形態における測設測量の手順を示すフローチャートである。まず、ステップS301において、図2のフローチャートの単写真標定処理が行なわれる。なお、図2のステップS101で撮影される概観画像は、測設点が含まれる範囲で撮影される。単写真標定処理により求められた、概観画像撮影時のデジタルスチルカメラ20の外部標定要素(X,Y,Z,ω,φ,κ)及び内部定位要素(f,D,D,D,N,N,X,Y)は、ステップS302において例えば記録媒体27やメモリ31に記録される。
【0045】
記録媒体27あるいはメモリ31には、設計値等である測設点(Q、Q、・・・、Q)の位置データが記録されており(位置データは、キー入力等により作業者がその都度入力してもよい)、ステップS303では外部標定要素(X,Y,Z,ω,φ,κ)と内部定位要素(f,D,D,D,N,N,X,Y)の値から測設点の位置データに対応する画像座標が算出され、概観画像上に測設点の位置を表わす記号(例えば円形記号)と例えば識別名(番号等)が図7のように表示される。また測設点を表す記号は、それ以外の測定点を表す記号の色、形状、大きさを区別して表示する事もできる(例えば、測設点を白色円形、測定点を白色三角形、基準点を白色2重丸等で表示)。また、測設点の位置データを測設点の記号の傍に表示するモードを設けてもよい。なお、測量機の位置と測設点の位置データとの関係は、予め位置が知られている予点(境界杭等)の位置データから求められる。例えば測設点と予点の位置データは、同じ座標系で表わされており、少なくとも2つの予点(又は、1つの予点と方位)と測量機との関係が測量等により求められれば、測設点の位置データを測量座標系で表わすことができ、外部標定要素との関係が求まる。
【0046】
ステップS304では、表示部24に表示された概観画像が、データ送信回路32により杭打作業者が携帯する携帯端末50に送信され、携帯端末50の画像表示部には、送信された概観画像が表示される。杭打作業者は、携帯端末に表示された概観画像を参照して、探索しようとしている測設点の近くにターゲット(例えばプリズム)を持って移動する。
【0047】
ステップS305では、測設点探索のためのモード選択が行われる。本実施形態では、測設点の探索を支援する方法として以下に説明するモード1とモード2を備えており、作業者は、例えばスイッチ群29の所定のモード選択スイッチ(図示せず)を操作してモード1、モード2の何れかを選択する。
【0048】
ステップS305において作業者がモード1を選択した場合、処理はステップS306に進む。ステップS306では、測量機10を杭打作業者が保持するターゲットに視準してターゲットの位置を測定する。ターゲットの測定データは測量機10からデジタルスチルカメラ20に送られ、概観画像上にはターゲットの位置を表わす記号Tが対応する位置にスーパインポーズされ、同時に現在探索している測設点(例えばQ)とターゲットとの間の距離(例えば500)が所定の単位(例えばmm)で表示される。また、ターゲットの移動方向(杭打作業者の移動方向)が、例えばターゲットTと測設点Qを結ぶ矢印等の記号を表示することにより表わされる。更に、測設点やターゲットの位置データを所定の座標系(測量座標や絶対座標等)を用いて、各記号の傍に表示してもよい。また、ターゲットの測量は任意時間間隔毎(連続)に行い概観画像表示位置に常時フィードバックをかけてもよい。
【0049】
これらの概観画像上の表示は、携帯端末50に伝送され画像表示される。杭打作業者は、各記号がスーパインポーズされた概観画像を参照して測設点を探索してターゲットを更に移動し、測設点とターゲットの距離が制限値内となるまでこの作業を繰り返す。なお、自動視準機能を備えた測量機では、ステップS306におけるターゲットへの視準は自動的に行なわれ、測量機は杭打作業者が保持するターゲットを自動追尾する。自動視準機能を備えない測量機では、2人1組で作業が行なわれ、測量機を操作する作業者がターゲットへの視準を随時行なう。
【0050】
ステップS306において、ターゲットと測設点との間の距離が制限値内に達し、測設点の探索が終了したと判断された場合には、ステップS307においてスイッチ群29の所定のスイッチを操作し、測設が終了し、例えば杭打ちが行なわれた測設点の記号の色や、形状、大きさ等が変更される(例えば測設点Qのように白色丸から赤色丸のように色変更し、又図示しないが○から△のように形状変更してもよい)。また、制限値内に入った場合、測量機10からの信号により自動的に変更してもよい。また、デジカメスチルカメラ20側にて、任意範囲画素範囲内に入った場合に自動的に変更してもよい。さらに、測設点の設計値と実際に測設した位置には精度範囲内において誤差が発生する。測設終了時に表示位置は設計位置のままで色・形状・大きさを変更してもよいし、実際に測設した値に基づいた位置で色・形状・大きさを変更して表示してもよい。これにより、測設作業が終了した測設点を概観画像上で視覚的に確認することができる。ステップS308では、概観画像にスーパインポーズされた測設点の3次元的な位置や画面上の2次元的な位置等の測量情報や、測設が終了したか否かを表わすフラッグ等の情報が、必要に応じて概観画像の画像データと対応付けて記録媒体27の1つのファイル、あるいはグループとして関連付けられた複数のファイルに記録される。以上で測設測量の作業は終了する。
【0051】
一方、ステップS305において、モード2が選択された場合には、処理はステップS309に進む。ステップS309では、ステップS306と同様に、測量機10を杭打作業者が保持するターゲットに視準してターゲットの位置を測定するとともに測量機10に搭載された撮像素子18により視準された方向のターゲットと探索中の測設点を含む画像が撮影される。撮影された画像データ及びターゲットの測定データは測量機10からデジタルスチルカメラ20に送られる。表示部24の概観画像上にはターゲットの位置を表わす記号Tが対応する位置にスーパインポーズされるとともに、測量機10で撮影された画像Sが概観画像上にスーパインポーズされる。図8に、このときに表示部24に表示される概観画像の一例を示す。画像Sは、ターゲット周辺を望遠撮影した画像であり、画像S内には現在探索している測設点(例えばQ)とターゲットとの間の距離(例えば50)が所定の単位(例えばmm)で拡大されて表示される。また、ターゲットの移動方向(杭打作業者の移動方向)が、例えばターゲットTと測設点Qを結ぶ矢印等の記号を表示することにより表わされる。更に、測設点やターゲットの位置データを所定の座標系(測量座標や絶対座標等)を用いて、各記号の傍に表示してもよい。
【0052】
ステップS306と同様に、これらの画像は杭打作業者が携帯する携帯端末50に送信され表示される。杭打作業者はこの画像や位置データを参照して、測設点を探索する。ターゲットと測設点との間の距離が制限値内に達し、測設点の探索が終了したと判断された場合には、ステップS307においてスイッチ群29の所定のスイッチを操作し、測設が終了し、例えば杭打ちが行なわれた測設点の記号の色や、形状、大きさ等が変更される(例えば測設点Qのように白色丸から赤色丸のように色変更し、又図示しないが○から△のように形状変更してもよい)。
【0053】
また、制限値内に入った場合、測量機10からの信号により自動的に変更してもよい。また、デジカメスチルカメラ20側にて、任意範囲画素範囲内に入った場合に自動的に変更してもよい。さらに、測設点の設計値と実際に測設した位置には精度範囲内において誤差が発生する。測設終了時に表示位置は設計位置のままで色・形状・大きさを変更してもよいし、実際に測設した値に基づいた位置で色・形状・大きさを変更して表示してもよい。以下上述したステップS308が実行され、この測設測量作業は終了する。なお、他の測設点に対する測設作業を行なう場合は、ステップS304以下を繰り返す。
【0054】
本発明はノンプリズム測距儀、プリズム使用測距儀のどちらに適用することも可能である。ノンプリズム測距儀の場合、ステップS306、S309以外は同様な作業内容にて、以下のような測設点の視準ガイドとして使用することで作業性をあげることもできる。
【0055】
例えば、図6のフロ−のモ−ド1を選択した場合、ステップS305において任意視準点の測量(例えば地面の反射を使用して測量)を行いその測点を概観画像上に表示させ、測設点マ−クとのずれを確認しTSの視準のガイドとして作業性をUPする事ができる。また、測量を任意時間間隔毎(連続測量)に行い、その測量位置を概観画像上に表示して、視準ガイドとしてもよい。さらにノンプリ測距儀はレ−ザポインタ機能を備えているものがあり、その機能を使用することもできる。すなわち測設点付近まで移動している杭打作業者はレーザでポイントされたポインタ位置を探して杭を打つ事が可能となる。モ−ド2を選んだ場合には、TSに組み込まれたCCD画像を使用しさらに拡大した画像を使用できる以外は上記と同様に行う事ができる。なお、本実施形態においては、概観画像上の測設点マ−クと測点マ−クを区別するため測点を+記号等で表すように色・形状・大きさ等をかえて表示する事が必要である。
【0056】
なお、本実施形態の測量システムでは、図7に示されるように、ステップS306、ステップS309において、ターゲットTのみならず測量機10を用いて任意の測点(R、R等)を測量し、その位置を概観画像上に表示することができる。また、ステップS306、ステップS309で画像表示される、測設点(Q、・・・、Q)、ターゲット(T)、測点(R、R)等の位置データは、水平角θ、高度角θ、距離Lであってもよく、この場合、水平角θは、例えばポインティングデバイス30等の入力デバイスを用いて任意に指定される基準線(水平角基準線)Hに基づいて表わされる。
【0057】
本実施形態では、測設点や、測定された測点の3次元座標(測量座標等)は、概観画像の画像座標と対応付けられている。したがって、本実施形態の測量システムでは、これらの対応関係を利用して、例えば、ポインティングデバイス30を用いて任意に選択される2つの測設点間の距離(例えばQとQの距離)や、測設点と測点の間の距離(例えばQとRの距離)等、複数の点の間の相対関係を表わすデータを計算・表示させる機能を備える。なお、距離としては、斜距離の他にも、例えば水平距離、高低差等の測量情報を表示可能である。また、2点間の距離の他にも、連続する複数の測設点や測点間の合計距離や、3点以上の点により指定される領域の面積・体積や角度等の測量解析情報を表示する機能も備える。
【0058】
また、本実施形態の測量システムは、概観画像を撮影したカメラ位置、測量機の位置、測設点・測点の位置等の相互位置関係を図9のように水平面内の位置として表示する機能を備える。このとき、測量機(TS)10に対するカメラ(DSC)20の外部標定要素を画面上に表示してもよい。なお、図9の平面画像は、例えば、ステップS306、S309等において、スイッチ群29の所定のスイッチや、携帯端末50で所定の操作されると、概観画像に替えて画面上に表示される。また、ステップS308において、この平面画像を記録媒体27に記録することも可能である。なお平面画像は、例えば概観画像と同グループのファイルとして記録される。
【0059】
以上のように、本発明の第1の実施形態によれば、測量機で得られる測量情報をカメラで撮影される概観画像内の位置に、簡便にかつ正確に対応付けることができるため、測設点に対するターゲットの位置を概観画像や平面画像を用いて、視覚的・空間的に容易に把握することができる。したがって、測設作業を極めて効率的に進めることができる。また、測設点や測定された測点との間の様々な関係である測量解析情報(距離、面積、体積、角度等)を画面上で測設点や測点を指定することにより、簡便に求めることができる。
【0060】
更に、第1の実施形態によれば、使用したデジタルスチルカメラが非測定用カメラである場合や、ズーム機能やピント調整等により内部定位が不明なカメラにおいても、カメラの外部標定要素及び内部定位要素を簡便・迅速に算出することができる。
【0061】
なお、デジタルスチルカメラにプリンタを接続し、本実施形態で画像表示された概観画像や平面画像を印刷し、これを参照することにより測設測量の作業を行なってもよい。
【0062】
なお、概観画像の撮影に望遠等の焦点距離が長いレンズを使用する場合には、内部定位要素の一つであるディスト−ションは小さく、実質的に無視できる場合がある。すなわち、内部定位要素のうち(D,D,D,N,N)は無視することができ、未知の内部定位要素は(f,X,Y)のみとなる。内部定位要素(f,X,Y)を求めるには、3次元的に配置された5点以上の基準点Pがあれば足りる。また、主点の画像中心からの偏心が無視でき、ディスト−ションの非対称性成分、ディスト−ション4次、6次成分が無視できる場合には、求める内部定位要素は(f,D)となり、内部標定のための基準点の数は4点で足りる。以上のように求めるべき内部標定要素の数が少ない場合には、内部標定のための基準点の数を少なくすることができるので、測定の手間・時間を節約できる。
【0063】
なお、本実施形態では、測量機10に対してデジタルカメラ20が任意に配置される場合を例に説明を行なったが、例えば、測量機10にカメラを取付けるための器具を設けるなどして、デジタルカメラ20を測量機10の視準望遠鏡10a(図3参照)と光学的に等価な位置に配置してもよく、この場合、外部標定要素の未知数の数を減らすことができるので、基準点の数を減らすことができる。なお、デジタルカメラを視準望遠鏡10aと光学的に等価な位置に配置する場合には、測量機はセオドライト等の角度のみの計測を行なう機器であってもよい。
【0064】
次に、図10を参照して本発明における第2の実施形態の測量システムについて説明する。第2の実施形態は第1の実施形態と略同様であるので、第1の実施形態とは異なる構成についてのみ説明する。なお第1の実施形態と共通の構成には同一参照符号を用いる。
【0065】
図10は、第2の実施形態における測量システムの概略的な構成を示すブロック図である。第2の実施形態では、測量現場の概観画像の撮影に例えば通常市販されているデジタルスチルカメラ20’が用いられる。まず、デジタルスチルカメラ20’は、インターフェースケーブルを介して例えばノート型パソコン(PC)等のコンピュータ40に接続され、撮影された測量現場の概観画像は、コンピュータ40に伝送される。その後コンピュータ40はインターフェースケーブルを介して測量機10に接続される。コンピュータにはマウス、トラックボール、ジョイスティック、キーボード等の入力装置41や、ハードディスク、DVD、MO、ICカード等の記録媒体42、LCD、CRT等の画像表示装置(画像表示手段)43、及び電波や光を用いた通信装置であるデータ送信装置44が接続されている。データ送信装置44からは、画像データ等が杭打作業者が携帯する携帯端末(PDA)50に送信される。
【0066】
コンピュータ40に伝送された概観画像の画像データは、例えば記録媒体42に記録される。概観画像はコンピュータ40にインストールされている測量支援プログラムにより画像表示装置43に表示される。以下図2のステップS102以降の処理と同様の処理がコンピュータ40の測量支援プログラムにより測量機10とコンピュータ40との間において行なわれ、概観画像に対する単写真標定が行なわれる。すなわち、オペレータは画像表示装置43に表示された概観画像において、3次元的に配置された複数の点(画素)を基準点Pとして入力装置41のポインティングデバイスを用いて指定し、指定された基準点Pの位置を測量機10により測定する。測量支援プログラムは基準点Pに対応する像点P’の画像座標と測定値から算出された基準点Pの測量座標とから概観画像撮影時のデジタルスチルカメラ20’の外部標定要素(X,Y,Z,ω,φ,κ)と内部定位要素(f,D,D,D,N,N,X,Y)を算出し、画像座標と測量座標との射影関係を確立する。測量支援プログラムは測量機10から測点の測定データを取得して、確立された射影関係に基づいて画像表示装置43に表示された概観画像上に測点の位置を示すマークや測定値を表示する。また、測量データ、画像データ、内部定位要素、外部標定要素等は関連付けられて記録媒体42に記録される。
【0067】
コンピュータ40では、更に、第1の実施形態と同様に図6のステップS302以降の処理が測量機10と間のデータ通信に基づいて行なわれ、作成された画像データは、携帯端末50に送信される。
【0068】
以上のように、第2の実施形態においても第1の実施形態と略同様の効果を得ることができる。また、第2の実施形態では、市販のデジタルカメラを用いることができる。更に第2の実施形態のコンピュータを測量を支援するための専用の装置として構成してもよいが、本実施形態の測量支援プログラムを汎用のノート型パソコンにインストールして用いることができるので、より簡略にかつ低コストで上記測量システムを提供することができる。
【0069】
なお、本実施形態では、概観画像上においてポインティングデバイスを用いて任意に基準点を指定したが、撮影範囲内に例えば寸法が既知の基準尺や、任意に配置できる基準マーク等を配置し、これらを基準点として外部標定要素を求めてもよい。この場合、概観画像上において基準尺や基準マークの位置がポインティングデバイス等を用いて選択される。また基準尺や基準マークが用いられる場合には、例えば画像処理を用いて基準点の概観画像上の位置を自動的に検出してもよい。
【0070】
本実施形態では、測量機として斜距離と(高度、水平)角度を測定可能なトータルステーションをあげたが、セオドライトに光波測距儀等組み合わせた装置等の所定の座標系における測点の3次元座標を算出可能な測量機であれば他の測量機であってもよく、例えばGPS(global positioning system)等を利用した測量機であってもよい。また、測量機において測定される角度は、高度角、水平角以外の角度であってもよく、例えば斜平面内の2点の間の角度であってもよい。当然、国土地理院の絶対座標でもよいし、任意座標でもよい。
【0071】
また第2の実施形態では、測量機に接続されたコンピュータを用いたが、第2の実施形態におけるコンピュータの機能を測量機に一体的に持たせてもよい。
【0072】
本実施形態では、測量機からデジタルスチルカメラ、またはコンピュータへの測量データの伝送は、インターフェース回路を介して行なわれたが、例えばオペレータがキーボード等の入力装置を用いてデジタルスチルカメラやコンピュータに測量データを入力してもよい。
【0073】
【発明の効果】
以上のように、本発明によれば、測設測量における作業効率を向上させることができる。更に詳しくは、本発明によれば、測量機で得られる測量情報とカメラで得られる画像情報とを簡便かつ効率的に関連付けることにより、測設点の視覚的・空間的な認識を容易にし、測設測量における位置誘導の作業効率を高めることができる。
【図面の簡単な説明】
【図1】本発明における第1の実施形態である測量システムの構成を概略的に示すブロック図である。
【図2】第1の実施形態の測量システムにおける単写真標定処理のフローチャートである。
【図3】第1の実施形態の測量システムにおける測量機およびカメラの配置を概念的に示す図である。
【図4】3つの基準点P、P、Pと撮像面Sにおける像点P’、P’、P’との関係を模式的に示す図である。
【図5】デジタルスチルカメラの位置および傾きを表す外部標定要素(X,Y,Z,ω,φ,κ)及びカメラの内部定位要素(f,D,D,D,N,N,X,Y)を算出する空間後方交会法のプログラムのフローチャートである。
【図6】第1の実施形態の測量システムにおける測設測量の手順を示すフローチャートである。
【図7】モード1を用いて測設測量を行なった場合における概観画像の画像表示の一例である。
【図8】モード2を用いて測設測量を行なった場合における概観画像の画像表示の一例である。
【図9】測設点、測点、測量機及び概観画像を撮影したカメラ位置を平面図上で表わした画像表示の一例である。
【図10】第2の実施形態における測量システムの概略的な構成を示すブロック図である。
【符号の説明】
10 測量機
16、28 インターフェース回路
20 デジタルスチルカメラ
24 表示部
26 システムコントロール回路
27、42 記録媒体
30 ポインティングデバイス
40 コンピュータ
41 入力装置
43 画像表示装置[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a surveying system with surveying and surveying.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, surveying with surveying such as pile driving, such as route surveying or land surveying, involves a worker operating a surveying instrument having a surveying function, a target (for example, a prism, etc.) and a surveying point. It is performed in pairs with workers who search and move. That is, a surveying instrument such as a total station receives a plurality of preliminary points whose positions are known in advance and the position data of the survey setting points at which stakeout is performed. The surveying instrument is located at the second preliminary point. The surveying instrument displays the horizontal angle of the survey setting point with respect to the first preliminary point and the horizontal distance from the instrument point. The worker holding the prism stands near the target surveying point, and the operator who operates the surveying instrument measures the prism position with the surveying instrument to check the deviation from the surveying point, and holds the prism. The user is instructed on the moving direction by a signal such as a radio wave or a hand gesture. This operation is repeated, and staking is performed at a position where the position of the prism has reached a preset limit value with respect to the measuring point. Also, a surveying instrument with automatic collimation developed recently can perform surveying and surveying by one pile driver. That is, the surveying instrument performs automatic collimation on the prism held by the stakeout operator, wirelessly notifies the stakeout operator of the measurement data, or instructs the moving direction by an optical signal. The stake driver moves the prism with reference to the measurement data or the optical signal and searches for a measuring point.
[0003]
[Problems to be solved by the invention]
However, in surveying and surveying conducted in pairs, it is difficult to understand the position of the surveying point because the pile driving operator is guided to the surveying point by instructions such as words and hand gestures, and it takes time and is complicated. there were. Even with a surveying instrument that performs automatic collimation, it is still not possible to visually and spatially determine the position of a survey setting point, and thus searching for a survey setting point is not easy. In addition, when the number of surveying points is large, there is a problem that a surveying point for which surveying has been completed is mistaken for a surveying point to be surveyed.
[0004]
An object of the present invention is to improve work efficiency in surveying and surveying. More specifically, by easily and efficiently associating survey information obtained by a surveying instrument with image information obtained by a camera, visual and spatial recognition of survey points is facilitated, and position guidance in survey surveying is performed. The aim is to increase the work efficiency of.
[0005]
[Means for Solving the Problems]
The surveying system of the present invention comprises: a positional relationship calculating means for calculating a positional relationship between a coordinate system based on surveying information of a surveying point and an overview image of a surveying site including a surveying point; Based on the associating means for associating the three-dimensional position information (given design value and the like) of the set point with the corresponding two-dimensional position information on the corresponding overview image, based on the associating of the associating means. Image output means for outputting the position of the set point superimposed on the overview image.
[0006]
The surveying system has, for example, surveying means for obtaining surveying information on survey points and survey setting points. The associating means associates the survey information of the survey points with the corresponding two-dimensional position information on the overview image, and the image output means can superimpose and display the position of the survey point on the overview image. is there. The surveying information of the survey points may be known surveying information. In this case, the known surveying information includes, for example, given geographic data (for example, a triangular point of the Geographical Survey Institute or commercially available map data, etc.). May be used, and an overview image in which the position of given geographic data is displayed can be output to the image output means. Also, the surveying information by the surveying means and the known surveying information may be mixed and used as a reference point, and displayed on an image. (However, when the coordinate system of each given geographical data is different, it is better to unify the coordinate system by coordinate conversion. This is the case when the measurement point is displayed on the overview image or the reference point is used. This is also the case when the correspondence is made based on the survey information.)
[0007]
In order to more easily and quickly grasp the position of the measuring point visually and spatially, it is preferable that the image output means includes an image display means such as an LCD or a CRT. Is displayed. The image output unit includes, for example, a printing unit, and prints an overview image in which the positions of the survey setting points are displayed. This allows the stakeout operator to carry and refer to the overview image printed on paper or the like, or to add notes.
[0008]
The image output means preferably displays, on the overview image, the position of the target surveyed for the surveying operation on the surveying point, and displays the distance between the target position and the position of the surveying operation, Display the direction to move the target. Accordingly, the stakeout operator can visually and spatially grasp the current position of the target with respect to the stake-out point, so that the search for the stake-out point becomes extremely easy. In addition, in order to be able to easily and reliably recognize the distinction between a surveyed surveying point and a surveying surveying point to be surveyed from among surveying points displayed on the overview image, It is preferable to display the staking points for which the staking has been completed by a different display method from the display of the staking points for which the staking work has not yet been performed (for example, by changing the color or shape of the display symbol).
[0009]
The image output means displays the survey information calculated based on the relative positional relationship between the plurality of survey points on the overview image. The image output means displays the position of the survey point on the overview image, and displays survey information calculated based on the relative positional relationship between the survey setting point and the survey point on the overview image. At this time, the image output means preferably includes an image display means, and the surveying system preferably includes an input means for designating a position on the image on the image display means. It is determined by designating the surveying point or the position of the surveying point displayed on the overview image by the means. Thus, various survey information can be obtained by designating a surveying point or a point on the overview image on which the surveying point is displayed, so that the operator can perform a visual and simple operation using a pointing device. Thus, surveying analysis information (distance, area, volume, angle, and the like) relating to the surveying points and the surveying points can be derived.
[0010]
In addition, the surveying system of the present invention performs accurate correspondence even when the camera that captures the overview image is a camera for non-measurement, or when the internal localization element is not clear due to focus adjustment, zooming operation, etc. In addition, the correspondence between the three-dimensional position information measured by the surveying means for a plurality of reference points arbitrarily designated in the overview image and the two-dimensional position information on the reference point on the overview image is used to generate an overview image. It is preferable to include an internal orientation unit that calculates an internal orientation element of the camera that has captured the image. At this time, it is preferable that the position of the reference point is determined by designating an arbitrary position on the overview image using input means capable of designating an arbitrary position of the image display means. As a result, the internal orientation can be performed by an extremely simple operation without using an auxiliary device or the like. Similarly, the positional relationship (external orientation element) between the overview image and the surveying means includes three-dimensional survey information or known survey information of the reference point measured by the surveying means, and an overview image of the reference point. It is calculated from the relationship with the above two-dimensional position information.
[0011]
The surveying means includes, for example, an imaging means capable of capturing an enlarged image with a higher magnification than the overview image, and the imaging means can display an enlarged image in the collimating direction of the surveying means on the overview image. Thereby, it is possible to visually and spatially grasp the deviation between the measurement setting point and the target. Further, in order to confirm the position of the stake-out point not only visually but also accurately as data, the image output means preferably displays three-dimensional position information of the stake-out point. Further, it is preferable that the image output means can display, as a plan view, the relationship between the position at which the overview image is captured and the position of the survey setting point, the survey point, or the surveying means. Thereby, it is possible to more easily recognize the spatial arrangement between the survey setting points, the survey points, or the surveying means.
[0012]
In addition, in order to facilitate reference of the survey points and the information on the survey points, a data recording unit capable of recording the survey information related to the survey points and the survey points in association with the image data of the overview image is provided. Is preferred. Further, it is preferable that the surveying system has a portable terminal, and the portable terminal includes an image output unit. Thereby, the stake driver can perform the measuring work while referring to the image output of the mobile terminal.
[0013]
A portable terminal according to the present invention is used in the surveying system.
[0014]
Further, the digital camera of the present invention includes an imaging unit capable of capturing an overview image of a survey site including a surveying point measured using a surveying instrument, and a plurality of reference points arbitrarily designated in the overview image. A positional relationship calculating unit configured to calculate a positional relationship between the overview image and the surveying instrument based on the two-dimensional location information and the three-dimensional surveying information of a plurality of reference points measured by the surveying instrument; Means for associating three-dimensional survey information of a survey point measured by a surveying instrument and three-dimensional position information of a survey setting point with two-dimensional position information on a corresponding overview image, respectively. And image display means for displaying the position of the survey setting point on the overview image based on the association of the association means.
[0015]
The surveying support device of the present invention is based on the positional relationship calculating means for calculating the positional relationship between the surveying site and the survey image including the surveying points measured using the surveying device, and the surveying device, based on the positional relationship. Associating means for associating the three-dimensional survey information of the survey points measured by the surveying instrument and the three-dimensional position information of the survey setting points with the corresponding two-dimensional position information on the overview image, respectively; Image display means for displaying the position of the survey setting point on the overview image based on the association of the association means.
[0016]
The surveying support program according to the present invention is a computer which calculates a positional relationship between an overview image of a surveying site including a surveying point and a surveying instrument, and a surveying point measured by the surveying instrument based on the positional relationship. A procedure for associating the three-dimensional position information and the three-dimensional position information of the stake-out point with the corresponding two-dimensional position information on the overview image, and an overview image of the position of the stake-out point based on the correspondence The procedure shown above is executed.
[0017]
Further, the surveying and surveying method of the present invention is a step of taking an overview image of a surveying site including a surveying point, a step of calculating a positional relationship between the overview image and the surveying instrument, based on the positional relationship, Displaying the position of the surveying point on the overview image, measuring the three-dimensional position information of the target for the surveying operation on the surveying point by the surveying instrument, and guiding the target to the surveying point Displaying the position of the target on the overview image based on the positional relationship.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram schematically showing a surveying system using a surveying instrument and a camera according to a first embodiment of the present invention.
[0019]
The surveying instrument 10 is, for example, a total station or the like, and includes a distance measuring unit 11 and an angle measuring unit 12. The distance measuring unit 11 detects an oblique distance to the collimated measuring point by, for example, lightwave distance measurement, and the angle measuring unit 12 detects a horizontal angle, an altitude angle, and the like at this time. The distance measuring unit 11 and the angle measuring unit 12 are connected to a system control circuit 13 and are controlled based on a command from the system control circuit 13. For example, the distance measuring unit 11 measures the distance based on a command from the system control circuit 13 and sends the measured value to the system control circuit 13. On the other hand, the angle measuring unit 12 constantly measures the angle, and sends a measured value to the system control circuit 13 in response to a request from the system control circuit 13. The measured values of the detected oblique distance, horizontal angle, altitude angle and the like are processed in the system control circuit 13. An interface circuit 16 is connected to the system control circuit 13, and the interface circuit 16 is connected to, for example, a digital still camera (DSC) 20 or the like via an interface cable, for example. The interface circuit 16 can also be connected to peripheral devices such as a data collector (not shown) and a computer.
[0020]
Further, the surveying instrument 10 is provided with an image pickup device 18 such as a CCD, and can photograph an image near the collimation point via the image pickup lens 17. The image signal from the image sensor 18 is subjected to predetermined image processing such as white balance correction and gamma correction in an image signal processing circuit 19, and is displayed as a see-through image on the display 15 via the system control circuit 13. The driving of the image sensor 18 is controlled by a driving signal from the system control circuit 13. Further, a switch group 14 is connected to the system control circuit 13, and various processes in the system control circuit 13 are performed based on a switch operation by an operator.
[0021]
The optical system of the collimating telescope 10a (see FIG. 3) used for distance measurement and angle measurement may be used for the optical system of the imaging lens 17. In this case, the image captured by the image sensor 18 substantially matches the field of view of the collimating telescope 10a.
[0022]
The digital still camera 20 is provided with an imaging device 21 such as a CCD, and can capture an image of a subject via an imaging lens 22. That is, the image of the subject is detected as an image signal by the image sensor 21 and output to the image signal processing circuit 23. The image signal processing circuit 23 performs predetermined image processing such as RGB gain correction, white balance correction, gamma correction and superimposition (superposition) on the input image signal. The image signal subjected to the image processing is transmitted to, for example, a display unit (eg, an image display unit such as an LCD) 24 and displayed as a see-through image. When a shutter button (not shown) provided on a switch group 29 connected to the system control circuit 26 is pressed, the image of the subject is temporarily stored in the image memory 25 as a digital image.
[0023]
The digital image stored in the image memory 25 can be displayed on the display unit 24 via the image signal processing circuit 23, and can be displayed on a recording medium (such as an IC card or an optical or magnetic recording medium) via the system control circuit 26. Etc.) 27 can be recorded. The image recorded on the recording medium 27 can be displayed on the display unit 24 by the system control circuit 26. Further, the digital still camera 20 can be connected to a peripheral device such as a computer via the interface circuit 28, and a captured image can be transmitted and displayed as image data.
[0024]
The digital still camera 20 further includes a data transmission circuit 32, and the data transmission circuit 32 performs data communication with a portable terminal (PDA) 50 or the like using radio waves, optical signals, or the like. That is, the data transmission circuit 32 can transmit image data and the like in the image memory 25 via the system control circuit 26 to the portable terminal 50 including the image display unit (not shown).
[0025]
A pointing device 30 is connected to the system control circuit 26, so that an arbitrary position on the screen of the display unit 24 can be designated. As the pointing device 30, for example, a cross key, a trackball, a joystick, a touch screen, or the like is used. Further, a memory 31 is connected to the system control circuit 26.
[0026]
Next, a single photo orientation process in the surveying system of the first embodiment will be described with reference to FIGS. 1, 2, and 3. FIG. FIG. 2 is a flowchart of a single photo orientation process in the surveying system of the first embodiment, and FIG. 3 is a diagram conceptually showing the arrangement of surveying instruments and cameras in the surveying system of the first embodiment.
[0027]
First, in step S101, the operator takes an overview of the survey site using the digital still camera (DSC) 20. One taken digital image (overview image) includes a plurality of measurement points to be measured. In step S102, the photographed overview image is displayed on, for example, the display unit 24 of the digital still camera 20, and a plurality of three-dimensionally arranged points (pixels) in the displayed overview image are displayed by the operator using the pointing device 30. The object point in the real space corresponding to the selected pixel is i (I = 1, 2,..., N) (the reference point is a measurement point arbitrarily selected for calculating the positional relationship between the overview image and the survey information). Each reference point P specified at this time i Image point P on the imaging surface corresponding to i 'Are two-dimensional image coordinates (xp i ', Yp i ') Is required. The image coordinate system is a two-dimensional coordinate system in which the y-axis downward with the origin at the upper left of the image is positive. The number n of reference points is, for example, 11 or more arranged three-dimensionally.
[0028]
In step S103, each reference point P specified in step S102 i The oblique distance and the (altitude, horizontal) angle are measured by the operator using the surveying instrument 10, and the measured values are transmitted to the system control circuit 26 of the digital still camera 20 via the interface. In the system control circuit 26, each reference point P i Three-dimensional coordinates (Xp i , Yp i , Zp i ) Is calculated in a predetermined survey coordinate system. At this time, each reference point P i Survey coordinates (Xp i , Yp i , Zp i ) Indicates the image point P i 'Image coordinates (xp i ', Yp i '). As the survey coordinate system, for example, the center of rotation of the altitude angle and the horizontal angle of the collimating telescope 10a (see FIG. 3) provided in the surveying instrument 10 may be used as the origin, or may be defined by the Geographical Survey Institute or the like. Absolute coordinates may be used. Alternatively, the surveying instrument may perform survey coordinate calculation, and the value may be transmitted to the system control circuit 26 of the digital camera 20.
[0029]
In step S104, each reference point P i , An external orientation element representing the position and inclination of the digital still camera 20 when an overview image is taken from the correspondence between the survey coordinates and the image coordinates with respect to, and collinear conditions due to the eccentricity of the lens distortion and principal point from the image center. Is calculated by, for example, the spatial rear resection method. That is, the position (X in the survey coordinate system of the origin of the three-dimensional camera coordinate system fixed to the digital still camera 20) O , Y O , Z O ) And the rotation angles (ω, φ, κ) about the x-axis, y-axis, and z-axis of the camera coordinate system at the time of shooting are obtained as external orientation elements, and the camera's internal orientation elements (f: from the lens projection center) Distance to image plane (image distance); D 2 , D 4 , D 6 : 2nd, 4th and 6th order components of distortion; N 1 , N 2 : Asymmetric component of distortion; X C , Y C : Eccentricity of the principal point from the center of the image). Thereby, the projection relationship between the image coordinates and the survey coordinates is established. Note that the internal localization element is represented by (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ), The number of reference points required to calculate the external orientation elements and the internal orientation elements is 7 or more. Of these, the external orientation element (X O , Y O , Z O , Ω, φ, κ) are three or more. In the present embodiment, 11 (or more) reference points are designated as reference points for performing the external orientation and the internal orientation.
[0030]
Note that the camera coordinate system is a left-handed coordinate system having the origin at the lens center (projection center) O. The z axis and the y axis are parallel to the s ′ axis and the t ′ axis of the screen coordinate system, and the x axis is It is defined perpendicular to the imaging plane and in a direction opposite to the image plane. That is, a point on the imaging surface is represented by (−f, y, z). Here, the screen coordinate system is a two-dimensional coordinate system on the imaging surface with the principal point as the origin, and the s ′ axis corresponds to the horizontal line direction of the image sensor 21 and the t ′ axis corresponds to the vertical line direction (FIG. 4). reference).
[0031]
As described above, the single photo orientation processing of the present embodiment is completed by the processing of steps S101 to S104.
[0032]
Next, with reference to FIGS. 4 and 5, the principle of the method of calculating the external orientation elements and the internal orientation elements (step S104) of the digital still camera 20 according to the embodiment using the spatial rear intersection method will be described.
[0033]
FIG. 4 shows three reference points P 1 , P 2 , P 3 And the image point P on these imaging surfaces S 1 ', P 2 ', P 3 'Schematically shows the relationship with'. FIG. 5 shows an external orientation element (X) representing the position and inclination of the digital still camera 20 in step S104 of FIG. O , Y O , Z O , Ω, φ, κ) and the camera's internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C 4) is a flow chart of a program of a spatial rear intersection method for calculating the following method, in which a successive approximation method using a least square method is used. In this embodiment, as described above, the number of reference points may be any number as long as it is 7 or more. However, here, the case where 11 reference points are designated will be described as an example. FIG. 4 shows three points P among them. 1 , P 2 , P 3 Only shown.
[0034]
First, in step S201, an external orientation element (X O , Y O , Z O , Ω, φ, κ) and internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ), An initial value (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG )give. Next, in step S202, the given external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Using 11 reference points P i (I = 1, 2,..., 11) survey coordinates (Xp i , Yp i , Zp i ) To each reference point P i Image point P corresponding to i 'Image coordinates (xp Gi ', Yp Gi ').
[0035]
That is, the reference point P i (I = 1, 2,..., 11) in the camera coordinate system (xp i , Yp i , Zp i ) Indicates coordinates (Xp) in the survey coordinate system. i , Yp i , Zp i ) Can be obtained from the following equation (1), so that the approximate external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And reference point P i Survey coordinates (Xp i , Yp i , Zp i ) Into equation (1), the reference point P i Approximate camera coordinates (xp Gi , Yp Gi , Zp Gi ).
(Equation 1)
Figure 2004085551
Where the matrix {T jk } Is a rotation matrix, and each component T jk Is represented, for example, by the following equation.
T 11 = Cosφ · cosκ
T 12 = Cosω · sinκ + sinω · sinφ · cosκ
T Thirteen = Sinω · sinκ−cosω · sinφ · cosκ
T 21 = −cosφ · sinκ
T 22 = cosω ・ cosκ-sinω ・ sinφ ・ sinκ
T 23 = sinω ・ cosκ + cosω ・ sinφ ・ sinκ
T 31 = Sinφ
T 32 = −sinω · cosφ
T 33 = cosω ・ cosφ
[0036]
The reference point P i Image point P corresponding to i 'Screen coordinates (sp i ', Tp i ') Indicates the external orientation element (X O , Y O , Z O , Ω, φ, κ) and the reference point P i Camera coordinates (xp i , Yp i , Zp i ) Is obtained by the following equation (2).
(Equation 2)
Figure 2004085551
[0037]
Screen coordinates before correction (sp i ', Tp i ') Are affected by distortion and the like, and these are given by the equation (3). i 'Screen coordinates (sp i ', Tp i ') And an approximate internal localization element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is corrected. That is, the approximate screen coordinates (scp Gi ', Tcp Gi ') Is calculated.
[Equation 3]
Figure 2004085551
[0038]
Image point P i 'Image coordinates (xp Gi ', Yp Gi ') Is the corrected approximate screen coordinates (scp Gi ', Tcp Gi ') Into the following equation (4).
(Equation 4)
Figure 2004085551
Here, Px and Py are the horizontal and vertical pixel pitches of the CCD, respectively, and W and H are the horizontal and vertical pixel numbers of the image, respectively.
[0039]
In step S203, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is calculated to determine whether the value of () is appropriate. The merit function Φ is defined by, for example, equation (5).
(Equation 5)
Figure 2004085551
That is, in the present embodiment, the merit function Φ is the reference point P specified on the overview image. i Image point P i 'Image coordinates (xp i ', Yp i ') And the reference point P obtained by surveying i Survey coordinates (Xp i , Yp i , Zp i ) And approximately given external orientation elements (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Obtained from the image point P i 'Image coordinates (xp Gi ', Yp Gi ') Corresponds to the square of the distance between
[0040]
Next, in step S204, it is determined whether the merit function Φ is smaller than a predetermined value. That is, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) The image point P i 'Image coordinates (xp Gi ', Yp Gi ') Is the reference point P specified on the overview image i Image point P i 'Image coordinates (xp i ', Yp i It is determined whether it is close enough to '). If Φ <predetermined value, this processing ends, and the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Are an external orientation element and an internal orientation element representing the position and inclination of the camera at the time of capturing the overview image.
[0041]
On the other hand, if it is determined in step S204 that Φ ≧ predetermined value, the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ), The correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ) Is obtained by, for example, the least squares method. That is, (sp) of the equation (2), which is the collinear condition, i ', Tp i ') In (3) i ', Tcp i ') And substitute the external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is linearized without Taylor expansion around higher order terms. In this linearized equation, the correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ) Is defined as an unknown quantity, and appropriate correction amounts (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ).
[0042]
In step S206, the correction amounts calculated in step S205 (δX, δY, δZ, δω, δφ, δκ, δf, δD 2 , ΔD 4 , ΔD 6 , ΔN 1 , ΔN 2 , ΔX C , ΔY C ), An external orientation element (X GO , Y GO , Z GO , Ω G , Φ G , Κ G ) And the internal orientation element (f G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is updated. That is, (X GO , Y GO , Z GO , Ω G , Φ G , Κ G , F G , D 2G , D 4G , D 6G , N 1G , N 2G , X CG , Y CG ) Is (X GO + ΔX, Y GO + ΔY, Z GO + ΔZ, ω G + Δω, φ G + Δφ, κ G + Δκ, f G + Δf, D 2G + ΔD 2 , D 4G + ΔD 4 , D 6G + ΔD 6 , N 1G + ΔN 1 , N 2G + ΔN 2 , X CG + ΔX C , Y CG + ΔY C ) Is updated and the camera position and the internal orientation are updated. Thereafter, the process returns to step S202, and steps S202 to S206 are repeatedly executed until it is determined in step S204 that Φ <predetermined value.
[0043]
Next, the surveying and surveying using the surveying system of the first embodiment will be described with reference to FIGS.
[0044]
FIG. 6 is a flowchart showing the procedure of the surveying and surveying in this embodiment. First, in step S301, the single photo orientation process of the flowchart of FIG. 2 is performed. Note that the overview image captured in step S101 in FIG. 2 is captured in a range including the survey setting point. An external orientation element (X) of the digital still camera 20 at the time of capturing the overview image obtained by the single photo orientation processing. O , Y O , Z O , Ω, φ, κ) and internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ) Are recorded in the recording medium 27 or the memory 31, for example, in step S302.
[0045]
The recording medium 27 or the memory 31 has a measurement point (Q 1 , Q 2 , ..., Q 7 ) Is recorded (the position data may be input by the operator each time by key input or the like), and in step S303, the external orientation element (X O , Y O , Z O , Ω, φ, κ) and internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ), The image coordinates corresponding to the position data of the stake out point are calculated, and a symbol (for example, a circular symbol) indicating the position of the stake out point and an identification name (a number or the like) on the overview image are as shown in FIG. Is displayed. In addition, the symbols indicating the staking points can be displayed by distinguishing the color, shape, and size of the symbols indicating the other measuring points (for example, the staking points are white circles, the measuring points are white triangles, the reference points are Is indicated by a white double circle or the like). Further, a mode may be provided in which the position data of the staking point is displayed beside the symbol of the staking point. Note that the relationship between the position of the surveying instrument and the position data of the survey setting point is obtained from the position data of a preliminary point (boundary pile or the like) whose position is known in advance. For example, the position data of a survey setting point and a preliminary point are represented in the same coordinate system, and if the relationship between at least two preliminary points (or one preliminary point and an azimuth) and a surveying instrument can be obtained by surveying or the like. , The position data of the survey setting point can be represented in the survey coordinate system, and the relationship with the external orientation element can be obtained.
[0046]
In step S304, the overview image displayed on the display unit 24 is transmitted to the mobile terminal 50 carried by the pile driver by the data transmission circuit 32, and the transmitted overview image is displayed on the image display unit of the mobile terminal 50. Is displayed. The stake driver moves with a target (for example, a prism) near the surveying point to be searched with reference to the overview image displayed on the mobile terminal.
[0047]
In step S305, a mode selection for searching for a survey setting point is performed. In the present embodiment, a mode 1 and a mode 2 described below are provided as a method for supporting the search for the survey setting point. The operator operates a predetermined mode selection switch (not shown) of the switch group 29, for example. Then, either mode 1 or mode 2 is selected.
[0048]
If the operator selects mode 1 in step S305, the process proceeds to step S306. In step S306, the position of the target is measured by collimating the surveying instrument 10 with the target held by the pile driver. The measurement data of the target is sent from the surveying instrument 10 to the digital still camera 20, and the symbol T representing the position of the target is superimposed on the overview image at a corresponding position, and at the same time, the surveying point currently searched (for example, Q 2 ) And the target (for example, 500) are displayed in a predetermined unit (for example, mm). In addition, the moving direction of the target (the moving direction of the pile driver) is, for example, the target T and the survey setting point Q. 2 Are displayed by displaying a symbol such as an arrow connecting. Further, the position data of the survey setting point or the target may be displayed beside each symbol using a predetermined coordinate system (such as survey coordinates or absolute coordinates). Further, the surveying of the target may be performed at arbitrary time intervals (continuously), and feedback may be constantly applied to the overview image display position.
[0049]
The display on these overview images is transmitted to the portable terminal 50 and displayed as an image. The stakeout operator searches the surveying point with reference to the superimposed overview image of each symbol, moves the target further, and continues this work until the distance between the surveying point and the target is within the limit value. repeat. Note that in the surveying instrument having the automatic collimating function, the collimation of the target in step S306 is automatically performed, and the surveying instrument automatically tracks the target held by the pile driver. In a surveying instrument having no automatic collimation function, work is performed by a pair of workers, and an operator operating the surveying instrument collimates a target as needed.
[0050]
If it is determined in step S306 that the distance between the target and the staking point has reached the limit value and the search for the staking point has been completed, a predetermined switch of the switch group 29 is operated in step S307. Is completed, for example, the color, shape, size, etc., of the symbol of the stake out stake out point are changed (for example, the stake out point Q 1 The color may be changed from a white circle to a red circle as shown in FIG. 7, and the shape may be changed from a circle to a triangle (not shown)). Further, when the value falls within the limit value, it may be automatically changed by a signal from the surveying instrument 10. Further, the digital camera still camera 20 may automatically change the value when the digital camera 20 enters an arbitrary pixel range. Further, an error occurs between the design value of the measuring point and the actually measured position within the accuracy range. At the end of surveying, the display position may be changed to the design position and the color, shape, and size may be changed, or the color, shape, and size may be changed and displayed at a position based on the actually measured values. Is also good. This makes it possible to visually confirm the measurement points at which the measurement work has been completed on the overview image. In step S308, survey information such as the three-dimensional position of the survey setting point superimposed on the overview image and the two-dimensional position on the screen, and information such as a flag indicating whether the survey has been completed. Are recorded in one file of the recording medium 27 or a plurality of files associated as a group in association with the image data of the overview image as necessary. Thus, the work of the surveying and surveying is completed.
[0051]
On the other hand, when mode 2 is selected in step S305, the process proceeds to step S309. In step S309, similarly to step S306, the position of the target is measured by collimating the surveying instrument 10 with the target held by the stake driver, and the direction collimated by the image sensor 18 mounted on the surveying instrument 10. An image including the target and the surveying point being searched is captured. The photographed image data and the target measurement data are sent from the surveying instrument 10 to the digital still camera 20. The symbol T representing the position of the target is superimposed on the overview image on the display unit 24 at the corresponding position, and the image S captured by the surveying instrument 10 is superimposed on the overview image. FIG. 8 shows an example of the overview image displayed on the display unit 24 at this time. The image S is an image obtained by telephoto photographing the periphery of the target. In the image S, the surveying point (for example, Q 2 ) And the target (for example, 50) are enlarged and displayed in a predetermined unit (for example, mm). In addition, the moving direction of the target (the moving direction of the pile driver) is, for example, the target T and the survey setting point Q. 2 Are displayed by displaying a symbol such as an arrow connecting. Further, the position data of the survey setting point or the target may be displayed beside each symbol using a predetermined coordinate system (such as survey coordinates or absolute coordinates).
[0052]
As in step S306, these images are transmitted to the portable terminal 50 carried by the pile driver and displayed. The stake driver searches for a measuring point with reference to the image and the position data. If it is determined that the distance between the target and the staking point has reached the limit value and the search for the staking point has been completed, a predetermined switch of the switch group 29 is operated in step S307, and the staking is started. Upon completion, for example, the color, shape, size, and the like of the symbol of the stake out stake out point are changed (for example, the stake out point Q 1 The color may be changed from a white circle to a red circle as shown in FIG. 7, and the shape may be changed from a circle to a triangle (not shown)).
[0053]
Further, when the value falls within the limit value, it may be automatically changed by a signal from the surveying instrument 10. Further, the digital camera still camera 20 may automatically change the value when the digital camera 20 enters an arbitrary pixel range. Further, an error occurs between the design value of the measuring point and the actually measured position within the accuracy range. At the end of surveying, the display position may be changed to the design position and the color, shape, and size may be changed, or the color, shape, and size may be changed and displayed at a position based on the actually measured values. Is also good. Thereafter, step S308 described above is executed, and the surveying and surveying operation ends. Note that when performing the surveying work for another surveying point, steps S304 and subsequent steps are repeated.
[0054]
The present invention can be applied to both a non-prism rangefinder and a prism-based rangefinder. In the case of a non-prism ranging finder, except for steps S306 and S309, workability can be improved by using the same work content as a collimation guide of a measurement point as follows.
[0055]
For example, when mode 1 of the flow of FIG. 6 is selected, in step S305, surveying of an arbitrary collimation point (for example, surveying using reflection of the ground) is performed, and the surveying point is displayed on the overview image. The workability can be improved as a guide for TS collimation by confirming the deviation from the measurement point mark. Further, the survey may be performed at an arbitrary time interval (continuous survey), and the survey position may be displayed on the overview image to serve as a collimation guide. Furthermore, some non-pre-ranging meters have a laser pointer function, and that function can also be used. That is, the pile driving operator who has moved to the vicinity of the survey setting point can search for the pointer position pointed by the laser and hit the pile. When the mode 2 is selected, the same operation can be performed as described above, except that a further enlarged image can be used by using the CCD image incorporated in the TS. In the present embodiment, in order to distinguish the measurement point mark from the measurement point mark on the overview image, the measurement points are displayed in different colors, shapes, sizes, and the like so that the measurement points are represented by + signs or the like. Things are necessary.
[0056]
In the surveying system of this embodiment, as shown in FIG. 7, in steps S306 and S309, not only the target T but also the survey 1 , R 2 ), And its position can be displayed on the overview image. Further, the measurement points (Q 1 , ..., Q 7 ), Target (T), measurement point (R 1 , R 2 ) Is the horizontal angle θ h , Altitude angle θ v , The distance L, in which case the horizontal angle θ h Is represented based on a reference line (horizontal angle reference line) H arbitrarily specified using an input device such as the pointing device 30.
[0057]
In the present embodiment, the measurement points and the three-dimensional coordinates (surveying coordinates and the like) of the measured measurement points are associated with the image coordinates of the overview image. Therefore, in the surveying system of the present embodiment, the distance between two surveying points arbitrarily selected using the pointing device 30 (for example, Q 1 And Q 5 Distance) or the distance between the measurement points (for example, Q 3 And R 2 And a function of calculating and displaying data representing a relative relationship between a plurality of points, such as a distance of a plurality of points. As the distance, survey information such as a horizontal distance and a height difference can be displayed in addition to the oblique distance. In addition to the distance between two points, survey analysis information such as the total distance between a plurality of continuous survey setting points and measurement points, and the area, volume, and angle of a region designated by three or more points is also provided. It also has a display function.
[0058]
Further, the surveying system according to the present embodiment has a function of displaying the mutual positional relationship between the camera position at which the overview image is captured, the position of the surveying instrument, the positions of the surveying points and the surveying points, as positions in a horizontal plane as shown in FIG. Is provided. At this time, an external orientation element of the camera (DSC) 20 with respect to the surveying instrument (TS) 10 may be displayed on the screen. 9 is displayed on the screen instead of the overview image when a predetermined switch of the switch group 29 or a predetermined operation is performed on the portable terminal 50 in steps S306 and S309, for example. Further, in step S308, it is also possible to record this planar image on the recording medium 27. The planar image is recorded, for example, as a file in the same group as the overview image.
[0059]
As described above, according to the first embodiment of the present invention, the survey information obtained by the surveying instrument can be simply and accurately associated with the position in the overview image photographed by the camera. The position of the target with respect to the point can be easily grasped visually and spatially using the overview image and the planar image. Therefore, the measurement work can be performed extremely efficiently. In addition, by specifying surveying analysis information (distance, area, volume, angle, etc.), which is various relations between surveying points and measured surveying points, it is easy to specify the surveying points and surveying points on the screen. Can be sought.
[0060]
Further, according to the first embodiment, even when the digital still camera used is a non-measurement camera, or a camera whose internal localization is unknown due to a zoom function, focus adjustment, or the like, the external localization element and the internal localization of the camera are used. Elements can be calculated easily and quickly.
[0061]
Note that a printer may be connected to the digital still camera, the overview image or the planar image displayed in the present embodiment may be printed, and the surveying and surveying operation may be performed by referring to the image.
[0062]
When a lens having a long focal length such as telephoto is used for photographing the overview image, the distortion, which is one of the internal localization elements, is small and may be substantially negligible. That is, (D 2 , D 4 , D 6 , N 1 , N 2 ) Can be ignored and the unknown internal localization element is (f, X C , Y C ) Only. Internal localization elements (f, X C , Y C ) Is obtained by determining five or more reference points P three-dimensionally arranged. i Is enough. If the eccentricity of the principal point from the center of the image can be ignored and the asymmetry component of the distortion and the fourth and sixth order components of the distortion can be ignored, the internal localization element to be obtained is (f, D 2 ), And the number of reference points for the internal orientation is four. As described above, when the number of internal orientation elements to be obtained is small, the number of reference points for internal orientation can be reduced, so that labor and time for measurement can be saved.
[0063]
In the present embodiment, the case where the digital camera 20 is arbitrarily arranged with respect to the surveying instrument 10 has been described as an example. However, for example, an instrument for attaching a camera to the surveying instrument 10 is provided. The digital camera 20 may be disposed at a position optically equivalent to the collimating telescope 10a (see FIG. 3) of the surveying instrument 10. In this case, the number of unknown unknown external orientation elements can be reduced. Can be reduced. When the digital camera is disposed at a position optically equivalent to the collimating telescope 10a, the surveying instrument may be a device such as a theodolite that measures only the angle.
[0064]
Next, a surveying system according to a second embodiment of the present invention will be described with reference to FIG. Since the second embodiment is substantially the same as the first embodiment, only the configuration different from the first embodiment will be described. Note that the same reference numerals are used for configurations common to the first embodiment.
[0065]
FIG. 10 is a block diagram illustrating a schematic configuration of a survey system according to the second embodiment. In the second embodiment, for example, a digital still camera 20 ′ which is generally commercially available is used for capturing an overview image of a survey site. First, the digital still camera 20 ′ is connected to a computer 40 such as a notebook personal computer (PC) via an interface cable, and the captured overview image of the survey site is transmitted to the computer 40. Thereafter, the computer 40 is connected to the surveying instrument 10 via the interface cable. The computer includes an input device 41 such as a mouse, a trackball, a joystick, and a keyboard, a recording medium 42 such as a hard disk, a DVD, an MO, and an IC card; an image display device (image display means) 43 such as an LCD and a CRT; A data transmission device 44, which is a communication device using light, is connected. From the data transmission device 44, image data and the like are transmitted to a portable terminal (PDA) 50 carried by the stakeout operator.
[0066]
The image data of the overview image transmitted to the computer 40 is recorded on the recording medium 42, for example. The overview image is displayed on the image display device 43 by the surveying support program installed in the computer 40. Hereinafter, the same processing as the processing after step S102 in FIG. 2 is performed between the surveying instrument 10 and the computer 40 by the surveying support program of the computer 40, and single-photo orientation is performed on the overview image. That is, the operator sets a plurality of three-dimensionally arranged points (pixels) in the overview image displayed on the image display device 43 as the reference point P. i Is designated using the pointing device of the input device 41, and the designated reference point P i Is measured by the surveying instrument 10. The survey support program uses the reference point P i Image point P corresponding to i The reference point P calculated from the image coordinates and measurement values of ' i Of the digital still camera 20 ′ at the time of the overview image shooting from the survey coordinates of O , Y O , Z O , Ω, φ, κ) and internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C ) Is calculated to establish a projection relationship between the image coordinates and the survey coordinates. The surveying support program acquires the measurement data of the survey point from the surveying instrument 10 and displays a mark indicating the position of the survey point and the measured value on the overview image displayed on the image display device 43 based on the established projection relationship. I do. Further, the survey data, the image data, the internal orientation elements, the external orientation elements, and the like are recorded in the recording medium 42 in association with each other.
[0067]
In the computer 40, as in the first embodiment, the processing after step S302 in FIG. 6 is performed based on data communication with the surveying instrument 10, and the created image data is transmitted to the portable terminal 50. You.
[0068]
As described above, substantially the same effects as in the first embodiment can be obtained in the second embodiment. In the second embodiment, a commercially available digital camera can be used. Furthermore, the computer according to the second embodiment may be configured as a dedicated device for supporting surveying, but since the surveying support program according to the present embodiment can be installed and used on a general-purpose notebook personal computer, The above surveying system can be provided simply and at low cost.
[0069]
In the present embodiment, the reference point is arbitrarily specified on the overview image using a pointing device. May be used as a reference point to determine an external orientation element. In this case, the position of the reference scale or the reference mark on the overview image is selected using a pointing device or the like. When a reference scale or a reference mark is used, the position of the reference point on the overview image may be automatically detected using, for example, image processing.
[0070]
In the present embodiment, a total station capable of measuring an oblique distance and an (altitude, horizontal) angle has been described as a surveying instrument. Any other surveying instrument may be used as long as the surveying instrument can calculate, for example, a surveying instrument using a GPS (global positioning system) or the like. Further, the angle measured by the surveying instrument may be an angle other than the altitude angle and the horizontal angle, and may be, for example, an angle between two points on an oblique plane. Naturally, the coordinates may be absolute coordinates of the Geographical Survey Institute or arbitrary coordinates.
[0071]
Further, in the second embodiment, the computer connected to the surveying instrument is used, but the function of the computer in the second embodiment may be integrally provided in the surveying instrument.
[0072]
In this embodiment, the transmission of the survey data from the surveying instrument to the digital still camera or the computer is performed via the interface circuit. Data may be input.
[0073]
【The invention's effect】
As described above, according to the present invention, it is possible to improve work efficiency in surveying and surveying. More specifically, according to the present invention, by easily and efficiently associating survey information obtained by a surveying instrument with image information obtained by a camera, it is easy to visually and spatially recognize survey setting points, The work efficiency of the position guidance in the surveying and surveying can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of a survey system according to a first embodiment of the present invention.
FIG. 2 is a flowchart of a single photo orientation process in the surveying system of the first embodiment.
FIG. 3 is a diagram conceptually showing an arrangement of a surveying instrument and a camera in the surveying system of the first embodiment.
FIG. 4 shows three reference points P 1 , P 2 , P 3 And image point P on imaging surface S 1 ', P 2 ', P 3 FIG. 6 is a diagram schematically showing the relationship with '.
FIG. 5 shows an external orientation element (X) representing the position and inclination of the digital still camera. O , Y O , Z O , Ω, φ, κ) and the camera's internal localization elements (f, D 2 , D 4 , D 6 , N 1 , N 2 , X C , Y C 4 is a flowchart of a program of a spatial backcrossing method for calculating (i).
FIG. 6 is a flowchart illustrating a procedure of surveying and surveying in the surveying system of the first embodiment.
FIG. 7 is an example of an image display of an overview image in a case where surveying and surveying is performed using mode 1;
FIG. 8 is an example of an image display of an overview image when surveying and surveying is performed using mode 2;
FIG. 9 is an example of an image display in which a survey point, a survey point, a surveying instrument, and a camera position at which an overview image is captured are displayed on a plan view.
FIG. 10 is a block diagram illustrating a schematic configuration of a surveying system according to a second embodiment.
[Explanation of symbols]
10 Surveying instrument
16, 28 Interface circuit
20 Digital Still Camera
24 Display
26 System control circuit
27, 42 Recording medium
30 pointing device
40 Computer
41 Input device
43 Image display device

Claims (36)

測点の測量情報が基準とする座標系と測設点を含む測量現場の概観画像との間の位置関係を算出する位置関係算出手段と、
前記位置関係から、前記測設点の3次元的な位置情報を、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて、前記測設点の位置を前記概観画像上に重畳して出力する画像出力手段と
を備えることを特徴とする測量システム。
Positional relationship calculating means for calculating the positional relationship between the coordinate system used as the reference by the surveying information of the surveying points and the overview image of the surveying site including the surveying points,
Associating means for associating three-dimensional position information of the survey setting point with corresponding two-dimensional position information on the overview image, from the positional relationship,
A surveying system comprising: an image output unit that superimposes and outputs the position of the survey setting point on the overview image based on the association of the association unit.
前記測点及び測設点の測量情報を得るための測量手段を有することを特徴とする請求項1に記載の測量システム。The surveying system according to claim 1, further comprising surveying means for obtaining surveying information of the surveying points and the surveying points. 前記位置関係が、前記概観画像内において任意に指定される複数の基準点の前記測量手段により測定される3次元的な測量情報と、前記基準点の前記概観画像上の2次元的な位置情報との関係から算出されることを特徴とする請求項2に記載の測量システム。The positional relationship is three-dimensional survey information measured by the surveying means at a plurality of reference points arbitrarily designated in the overview image, and two-dimensional position information of the reference points on the overview image. The surveying system according to claim 2, wherein the surveying system is calculated from the relationship with: 前記測量手段が、前記概観画像よりも高倍率の拡大画像を撮影可能な撮像手段を備え、前記撮像手段により前記測量手段の視準方向の拡大画像を前記概観画像上に重畳することを特徴とする請求項2に記載の測量システム。The surveying means includes imaging means capable of capturing an enlarged image at a higher magnification than the overview image, and the imaging means superimposes an enlarged image in the collimation direction of the surveying means on the overview image. The surveying system according to claim 2. 前記対応付け手段が、前記測点の測量情報を、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付け、前記画像出力手段が、前記測点の位置を前記概観画像上に重畳して出力可能であることを特徴とする請求項1に記載の測量システム。The associating unit associates the survey information of the survey points with the corresponding two-dimensional position information on the overview image, and the image output unit superimposes the position of the survey point on the overview image. 2. The surveying system according to claim 1, wherein the surveying system can output the data. 前記測点の測量情報が、既知の測量情報を含むことを特徴とする請求項5に記載の測量システム。The surveying system according to claim 5, wherein the surveying information of the survey points includes known surveying information. 前記既知の測量情報が所与の地理データであって、前記画像出力手段には、前記所与の地理データの位置が重畳された前記概観画像が出力されることを特徴とする請求項6に記載の測量システム。7. The method according to claim 6, wherein the known survey information is given geographic data, and the overview image in which the position of the given geographic data is superimposed is output to the image output unit. Surveying system as described. 前記概観画像上に表示された前記測設点のうち、測設作業が終了した測設点を測設作業が未だ行なわれていない測設点の表示方法とは異なる表示方法により重畳することを特徴とする請求項1に記載の測量システム。Of the staking points displayed on the overview image, the staking points for which the staking work has been completed are superimposed by a display method different from the display method of the staking points for which the staking work has not been performed. The surveying system according to claim 1, wherein: 前記画像出力手段が、前記概観画像を撮影した位置と、前記測設点、又は前記測点、あるいは前記測量手段の位置との関係を平面図として表示可能であることを特徴とする請求項1に記載の測量システム。2. The apparatus according to claim 1, wherein the image output unit is capable of displaying, as a plan view, a relationship between a position where the overview image is captured and the position of the surveying point, the surveying point, or the surveying unit. Surveying system according to. 前記画像出力手段が、前記測設点と前記測点との間の相対的な位置関係に基づき算出される測量解析情報を前記概観画像上に重畳することを特徴とする請求項1に記載の測量システム。2. The image output unit according to claim 1, wherein the survey analysis information calculated based on a relative positional relationship between the survey setting point and the survey point is superimposed on the overview image. 3. Surveying system. 前記画像出力手段が、複数の測設点の間の相対的な位置関係に基づき算出される測量解析情報を前記概観画像上に重畳することを特徴とする請求項1に記載の測量システム。The surveying system according to claim 1, wherein the image output unit superimposes surveying analysis information calculated based on a relative positional relationship between the plurality of surveying points on the overview image. 前記測量システムが、画像表示手段と前記画像表示手段における画像上の位置を指定するための入力手段を備え、前記入力手段により前記概観画像上に表示された測設点又は測点の位置を指定することにより前記解析測量情報に係わる測設点又は測点が決定されることを特徴とする請求項10及び請求項11に記載の測量システム。The surveying system includes image display means and input means for designating a position on the image in the image display means, and designates a survey setting point or a position of the survey point displayed on the overview image by the input means. The surveying system according to claim 10, wherein a survey setting point or a surveying point related to the analytical surveying information is determined by performing the analysis. 前記画像出力手段が画像表示手段を備え、前記画像表示手段には前記測設点の位置が表示された前記概観画像が表示されることを特徴とする請求項1に記載の測量システム。2. The surveying system according to claim 1, wherein the image output unit includes an image display unit, and the overview image on which the position of the survey setting point is displayed is displayed on the image display unit. 前記画像出力手段は印刷手段を備え、前記測設点の位置が表示された概観画像が印刷して出力されることを特徴とした請求項1に記載の測量システム。2. The surveying system according to claim 1, wherein the image output unit includes a printing unit, and prints and outputs an overview image in which the position of the survey setting point is displayed. 前記画像出力手段は、前記測設点に対する測設作業のために測量されたターゲットの位置を前記概観画像上に重畳することを特徴とする請求項1に記載の測量システム。2. The surveying system according to claim 1, wherein the image output unit superimposes a position of the surveyed target for the surveying work on the surveying point on the overview image. 3. 前記画像出力手段が、前記ターゲットの位置と前記測設点の位置との間の距離を前記概観画像上に重畳することを特徴とする請求項15に記載の測量システム。The surveying system according to claim 15, wherein the image output unit superimposes a distance between the position of the target and the position of the survey setting point on the overview image. 前記画像出力手段が、前記測設作業のために前記ターゲットを移動すべき方向を前記概観画像上に重畳することを特徴とする請求項15に記載の測量システム。The surveying system according to claim 15, wherein the image output unit superimposes a direction in which the target should be moved for the surveying work on the overview image. 前記画像出力手段が、前記測点の測量情報を概観画像上に重畳することを特徴とする請求項1に記載の測量システム。The surveying system according to claim 1, wherein the image output means superimposes surveying information of the surveying point on an overview image. 前記概観画像内において任意に指定される複数の基準点の測量情報と前記基準点の前記概観画像上の2次元的な位置情報との対応から、前記概観画像を撮影したカメラの内部定位要素を算出する内部標定手段を備えることを特徴とする請求項1に記載の測量システム。From the correspondence between the survey information of the plurality of reference points arbitrarily specified in the overview image and the two-dimensional position information of the reference points on the overview image, an internal localization element of the camera that captured the overview image is determined. The surveying system according to claim 1, further comprising an internal orientation means for calculating. 前記画像出力手段が画像表示手段を備えるとともに、前記測量システムが前記画像表示手段における画像上の位置を指定するための入力手段を備え、前記基準点の位置が、前画像表示手段記概観画像上の任意の位置を前記入力手段により指定することにより決定されることを特徴とする請求項19に記載の測量システム。The image output means has an image display means, and the surveying system has an input means for designating a position on the image in the image display means, and the position of the reference point is on the overview image of the previous image display means. 20. The surveying system according to claim 19, wherein the position is determined by designating an arbitrary position of the input device by the input unit. 前記位置関係が、前記概観画像内において任意に指定される複数の既知の基準点の3次元的な測量情報と、前記基準点の前記概観画像上の2次元的な位置情報との関係から算出されることを特徴とする請求項1に記載の測量システム。The positional relationship is calculated from a relationship between three-dimensional survey information of a plurality of known reference points arbitrarily designated in the overview image and two-dimensional position information of the reference point on the overview image. The surveying system according to claim 1, wherein the surveying is performed. 前記画像出力手段が、前記測設点の3次元的な位置情報を前記概観画像上に重畳することを特徴とする請求項1に記載の測量システム。The surveying system according to claim 1, wherein the image output means superimposes three-dimensional position information of the survey setting point on the overview image. 前記測設点の3次元的な位置情報、及び前記測点の測量情報を前記概観画像の画像データと関連付けて記録可能なデータ記録手段を備えることを特徴とする請求項1に記載の測量システム。2. The surveying system according to claim 1, further comprising a data recording unit that can record three-dimensional position information of the survey setting point and surveying information of the surveying point in association with image data of the overview image. 3. . 前記測量システムが携帯端末を有し、前記携帯端末が前記画像出力手段を備えることを特徴とする請求項1に記載の測量システム。The surveying system according to claim 1, wherein the surveying system has a portable terminal, and the portable terminal includes the image output unit. 請求項24に記載された測量システムにおいて用いられる携帯端末。A portable terminal used in the surveying system according to claim 24. 測量機を用いて測設される測設点を含む測量現場の概観画像を撮影可能な撮像手段と、
前記概観画像内において任意に指定される複数の基準点の2次元的な位置情報と前記測量機による前記複数の基準点の3次元的な測量情報、又は既知の測量情報に基づいて、前記概観画像と前記測量機との間の位置関係を算出する位置関係算出手段と、
前記位置関係から、前記測量機による測点の3次元的な測量情報と、前記測設点の3次元的な位置情報とを、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて前記測点及び測設点の位置を前記概観画像上に表示する画像表示手段と
を備えることを特徴とするデジタルカメラ。
Imaging means capable of taking an overview image of a survey site including a surveying point to be surveyed using a surveying instrument,
The overview is performed based on two-dimensional position information of a plurality of reference points arbitrarily designated in the overview image and three-dimensional survey information of the plurality of reference points by the surveying instrument or known survey information. A positional relationship calculating means for calculating a positional relationship between the image and the surveying instrument,
From the positional relationship, the three-dimensional survey information of the survey points by the surveying instrument and the three-dimensional position information of the survey points are respectively associated with the corresponding two-dimensional position information on the overview image. Correspondence means,
A digital camera, comprising: image display means for displaying the positions of the measurement points and the measurement setting points on the overview image based on the association of the association means.
前記測設点に対する測設作業のために測量されたターゲットの3次元的な測量情報を前記測量機から取得し、前記画像表示手段が前記ターゲットの位置を前記概観画像上に表示することを特徴とする請求項26に記載のデジタルカメラ。The three-dimensional survey information of the target surveyed for the surveying work for the surveying point is acquired from the surveying instrument, and the image display means displays the position of the target on the overview image. The digital camera according to claim 26, wherein 前記画像表示手段が、前記ターゲットの位置と前記測設点の位置との間の距離を表示することを特徴とする請求項27に記載のデジタルカメラ。28. The digital camera according to claim 27, wherein the image display unit displays a distance between the position of the target and the position of the survey point. 前記画像表示手段が、測設作業のために前記ターゲットを移動すべき方向を表示することを特徴とする請求項27に記載のデジタルカメラ。28. The digital camera according to claim 27, wherein the image display unit displays a direction in which the target should be moved for the measurement work. 前記画像表示手段における画像上の位置を指定するための入力手段を備え、前記基準点の位置が前記入力手段により前記概観画像上の任意の位置を指定することにより決定されることを特徴とする請求項26に記載のデジタルカメラ。Input means for designating a position on the image in the image display means, wherein the position of the reference point is determined by designating an arbitrary position on the overview image by the input means. A digital camera according to claim 26. 測量機を用いて測設される測設点を含む測量現場の概観画像と前記測量機との間の位置関係を算出する位置関係算出手段と、
前記位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と前記測設点の3次元的な位置情報とを、それぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける対応付手段と、
前記対応付手段の対応付けに基づいて、前記測点及び測設点の位置を前記概観画像上に表示する画像表示手段と
を備えることを特徴とする測量支援装置。
Positional relationship calculating means for calculating a positional relationship between the survey image and the surveying site including a surveying point to be surveyed using a surveying instrument,
The three-dimensional survey information of the survey point measured by the surveying instrument based on the positional relationship and the three-dimensional position information of the survey setting point are respectively corresponded to two-dimensional positions on the overview image. Associating means for associating with information;
A surveying support device, comprising: image display means for displaying the positions of the measurement points and the measurement setting points on the overview image based on the correspondence of the association means.
前記測設点に対する測設作業のために測量されたターゲットの3次元的な測量情報を前記測量機から取得し、前記画像表示手段が前記ターゲットの位置を前記概観画像上に表示することを特徴とする請求項31に記載の測量支援装置。The three-dimensional survey information of the target surveyed for the surveying work for the surveying point is acquired from the surveying instrument, and the image display means displays the position of the target on the overview image. The surveying support device according to claim 31, wherein: 前記画像表示手段が、前記ターゲットの位置と前記測設点の位置との間の距離を表示することを特徴とする請求項32に記載の測量支援装置。33. The surveying support apparatus according to claim 32, wherein the image display means displays a distance between the position of the target and the position of the survey setting point. 前記画像表示手段が、測設作業のために前記ターゲットを移動すべき方向を表示することを特徴とする請求項32に記載の測量支援装置。33. The surveying support device according to claim 32, wherein the image display unit displays a direction in which the target should be moved for the surveying work. コンピュータに、測設点を含む測量現場の概観画像と測量機との間の位置関係を算出する手順と、
前記位置関係に基づいて前記測量機により測定される測点の3次元的な測量情報と前記測設点の3次元的な位置情報とをそれぞれ対応する前記概観画像上の2次元的な位置情報に対応付ける手順と、
前記対応付けに基づいて前記測設点の位置を前記概観画像上に表示する手順と
を実行させるための測量支援プログラム。
A computer for calculating a positional relationship between the survey image and the surveying site including the survey points,
Two-dimensional position information on the overview image corresponding to three-dimensional survey information of a survey point measured by the surveying instrument based on the positional relationship and three-dimensional position information of the survey setting point, respectively. And the steps to map to
Displaying the position of the survey setting point on the overview image based on the association.
測設点を含む測量現場の概観画像を撮影するステップと、
前記概観画像と測量機との間の位置関係を算出するステップと、
前記位置関係に基づいて、前記測設点の位置を前記概観画像上に表示するステップと、
前記測量機により前記測設点に対する測設作業のためにターゲットの3次元的な測量情報を測定するステップと、
前記ターゲットの前記測設点に誘導するために、前記位置関係に基づいて前記ターゲットの位置を前記概観画像上に表示するステップと
を備えることを特徴とする測設測量の方法。
Taking an overview image of the survey site including the stake out points;
Calculating a positional relationship between the overview image and the surveying instrument,
Displaying the position of the survey setting point on the overview image based on the positional relationship;
Measuring three-dimensional survey information of a target for the survey work on the survey point by the survey instrument;
Displaying the position of the target on the overview image based on the positional relationship, in order to guide the user to the surveying point of the target.
JP2003182028A 2002-06-26 2003-06-26 Surveying system Expired - Lifetime JP4359083B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003182028A JP4359083B2 (en) 2002-06-26 2003-06-26 Surveying system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002185686 2002-06-26
JP2003182028A JP4359083B2 (en) 2002-06-26 2003-06-26 Surveying system

Publications (2)

Publication Number Publication Date
JP2004085551A true JP2004085551A (en) 2004-03-18
JP4359083B2 JP4359083B2 (en) 2009-11-04

Family

ID=32071649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003182028A Expired - Lifetime JP4359083B2 (en) 2002-06-26 2003-06-26 Surveying system

Country Status (1)

Country Link
JP (1) JP4359083B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032700A (en) * 2006-07-03 2008-02-14 Pentax Industrial Instruments Co Ltd Survey instrument
WO2010047146A1 (en) * 2008-10-21 2010-04-29 株式会社 ソキア・トプコン Manual type surveying instrument having collimation assisting device
US20140320603A1 (en) * 2011-12-06 2014-10-30 Hexagon Technology Center Gmbh Method and device for determining 3d coordinates of an object
JP2015507749A (en) * 2012-01-17 2015-03-12 ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG Laser tracker with the ability to provide a target with graphics
JP2017223540A (en) * 2016-06-15 2017-12-21 株式会社トプコン Measuring system
JP2021043217A (en) * 2020-11-27 2021-03-18 株式会社トプコン Surveying system
WO2023008305A1 (en) * 2021-07-27 2023-02-02 株式会社トプコン Survey setting point editing method, survey setting point editing device, and survey setting point editing program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008032700A (en) * 2006-07-03 2008-02-14 Pentax Industrial Instruments Co Ltd Survey instrument
WO2010047146A1 (en) * 2008-10-21 2010-04-29 株式会社 ソキア・トプコン Manual type surveying instrument having collimation assisting device
US8225518B2 (en) 2008-10-21 2012-07-24 Sokkia Topcon Co. Ltd. Manual surveying instrument having collimation assisting device
CN102159921B (en) * 2008-10-21 2012-12-26 株式会社索佳拓普康 Manual type surveying instrument having collimation assisting device
JP5384512B2 (en) * 2008-10-21 2014-01-08 株式会社 ソキア・トプコン Manual surveying instrument with collimation assist device
US9995567B2 (en) * 2011-12-06 2018-06-12 Hexagon Technology Center Gmbh Method and device for determining 3D coordinates of an object
US20140320603A1 (en) * 2011-12-06 2014-10-30 Hexagon Technology Center Gmbh Method and device for determining 3d coordinates of an object
JP2015507749A (en) * 2012-01-17 2015-03-12 ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG Laser tracker with the ability to provide a target with graphics
US9612331B2 (en) 2012-01-17 2017-04-04 Leica Geosystems Ag Laser tracker with functionality for graphical target preparation
JP2017223540A (en) * 2016-06-15 2017-12-21 株式会社トプコン Measuring system
JP2021043217A (en) * 2020-11-27 2021-03-18 株式会社トプコン Surveying system
JP7001800B2 (en) 2020-11-27 2022-01-20 株式会社トプコン Surveying system
WO2023008305A1 (en) * 2021-07-27 2023-02-02 株式会社トプコン Survey setting point editing method, survey setting point editing device, and survey setting point editing program

Also Published As

Publication number Publication date
JP4359083B2 (en) 2009-11-04

Similar Documents

Publication Publication Date Title
US7098997B2 (en) Surveying system
US7218384B2 (en) Surveying system
EP2098820B1 (en) Geographical data collecting device
US9322652B2 (en) Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera
CN101932906B (en) Localization of surveying instrument in relation to ground mark
US7933001B2 (en) Geographic data collecting system
JP4263549B2 (en) Survey guidance device
JP4944462B2 (en) Geographic data collection device
JP2007017406A (en) Geographic data collection device
US7075634B2 (en) Surveying system
US7177016B2 (en) Electronic surveying apparatus
JP4359083B2 (en) Surveying system
JP2004317237A (en) Surveying apparatus
JP4359084B2 (en) Surveying system
JP4167509B2 (en) Surveying system
JP4212951B2 (en) Surveying instrument
JP4217083B2 (en) Surveying system
JP4276900B2 (en) Automatic survey system
JP2004085555A (en) Surveying system
JP6954830B2 (en) Target device, surveying method, surveying device and surveying program
JP2006350879A (en) Information providing system
JP2006003104A (en) Survey work guidance device
JPH0523025U (en) Position detection means for position measurement plotter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060515

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090807

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4359083

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term