JP7303711B2 - 画像表示システム - Google Patents

画像表示システム Download PDF

Info

Publication number
JP7303711B2
JP7303711B2 JP2019169457A JP2019169457A JP7303711B2 JP 7303711 B2 JP7303711 B2 JP 7303711B2 JP 2019169457 A JP2019169457 A JP 2019169457A JP 2019169457 A JP2019169457 A JP 2019169457A JP 7303711 B2 JP7303711 B2 JP 7303711B2
Authority
JP
Japan
Prior art keywords
image
orientation
display
dimensional shape
earth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169457A
Other languages
English (en)
Other versions
JP2021047611A (ja
Inventor
仁 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Penta Ocean Construction Co Ltd
Original Assignee
Penta Ocean Construction Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Penta Ocean Construction Co Ltd filed Critical Penta Ocean Construction Co Ltd
Priority to JP2019169457A priority Critical patent/JP7303711B2/ja
Publication of JP2021047611A publication Critical patent/JP2021047611A/ja
Application granted granted Critical
Publication of JP7303711B2 publication Critical patent/JP7303711B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、施工物に画像を重ねて表示するための技術に関する。
実空間の物体に対し、実空間と座標系が共通の仮想空間内の画像を重ねて表示する拡張現実(Augmented Reality)や複合現実(Mixed Reality)のシステムにおいては、液晶ディスプレイ等の表示手段の実空間における位置及び姿勢を正確に特定する必要がある。装置の位置及び姿勢を特定する技術を開示している文献として、例えば特許文献1がある。特許文献1には、実空間中に配置された既知位置の指標をカメラで撮像し、撮像した画像中から指標を検出し、検出した指標の画像における位置からカメラの位置及び姿勢を測定する技術が記載されている(例えば、段落0002)。
特開2005-107966号公報
工事現場において、作業者や検査者が、拡張現実や複合現実の技術により、実空間内の施工物に対し、当該施工物の設計上の三次元形状(竣工時の三次元形状)を重ねて表示した画像を見ることができれば、作業者や検査者は施工作業や施工物の検査作業を効率的に行うことができる。
既述のように、拡張現実や複合現実のシステムにおいては、表示手段の実空間における位置及び姿勢を正確に特定する必要がある。そのための方法として、表示手段と位置関係が変化しない撮影手段により撮影した画像から既知位置の特徴点を認識し、認識したそれらの特徴点の画像における位置に基づき表示手段の位置及び姿勢を特定する方法が知られている。
既知位置の特徴点は、自然物(例えば山の山頂など)と人工物(マーカ)に区分される。工事現場には形状等に特徴のある自然物がない場合がある。例えば、工事現場が海上や砂漠などの周囲の風景が単調な場所にある場合、どの方向にも特徴のある自然物が見当たらない。そのような場合、自然物を撮影しても表示手段の位置及び姿勢を特定することはできない。
また、工事現場は一般的に広大であるため、自然物に代え人工物を用いるために工事現場の周囲に特徴点となる多数の人工物(マーカ)を配置するには多大な労力と時間を要し、現実的ではない。
上記の事情に鑑み、本発明は、周囲の風景が単調な広大な工事現場においても、多数の人工物を配置せずに、実物の施工物に当該施工物の設計上の画像を重ねて表示することを可能とする手段を提供する。
本発明は、撮影手段と、前記撮影手段と所定の位置関係にある表示手段と、前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段とを備え、前記表示手段は前記表示用画像を表示する画像表示システムを第1の態様として提供する。
第1の態様に係る画像表示システムによれば、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。
また、本発明は、第1の態様に係る画像表示システムであって、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段を備え、前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する、という構成を第2の態様として提案する。
第2の態様に係る画像表示システムによれば、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる
また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示用画像は、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像である、という構成を第3の態様として提案する。
第3の態様に係る画像表示システムによれば、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。
また、本発明は、第1又は第2の態様に係る画像表示システムであって、前記表示手段は、ユーザの頭部に装着される透過型の表示手段であり、前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である、という構成を第4の態様として提案する。
第4の態様に係る画像表示システムによれば、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。
また、本発明は、コンピュータに、撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、前記表示用画像を前記表示手段に表示させる処理とを実行させるためのプログラムを第5の態様として提供する。
第5の態様に係るプログラムによればコンピュータにより、周囲の風景が単調な広大な工事現場においても、撮影手段で所定の物体を撮影することで、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。
また、本発明は、第5の態様に係るプログラムであって、前記コンピュータに、前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理とを実行させるためのプログラムを、第6の態様として提案する。
第6の態様に係るプログラムによればコンピュータにより、撮影手段が所定の物体を撮影していない期間中も、実物の施工物に、当該施工物の設計上の画像を重ねて表示させることができる。
また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させるためのプログラムを、第7の態様として提案する。
第7の態様に係るプログラムによればコンピュータにより、表示手段に表示される画像を見るユーザは、現状の施工物の実物を撮影した三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。
また、本発明は、第5又は第6の態様に係るプログラムであって、前記コンピュータに、前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させるためのプログラムを、第8の態様として提案する。
第8の態様に係るプログラムによればコンピュータにより、透過型の表示手段を頭部に装着したユーザは、さまざまな位置や角度から表示手段を透過して見える実物の施工物の三次元形状と施工物の設計上の三次元形状の位置及び姿勢のズレを直感的に把握できる。
本発明によれば、周囲の風景が単調な広大な工事現場においても、実物の施工物に、当該施工物の設計上の画像を重ねて表示することができる。
一実施形態に係る画像表示システムの全体構成を示した図。 一実施形態に係る2つの端末装置の機能構成を示した図。 一実施形態に係る表示手段により表示される画像を示した図。 一変形例に係る画像表示システムの全体構成を示した図。 一変形例に係る画像表示システムにおいてユーザの目に見えるものを示した図。
[実施形態]
以下、本発明の一実施形態に係る画像表示システム1を説明する。画像表示システム1は工事現場において作業者、検査者等のユーザが工事により施工される施工物の三次元形状と、その施工物の設計上の三次元形状(竣工時の三次元形状)とのズレを直感的に把握できるようにするシステムである。
図1は、画像表示システム1の全体構成を示した図である。なお、図1は、例として、バックホウ8により土砂を用いて四角錐台形状の施工物9を施工する工事において画像表示システム1が用いられる様子を示している。
画像表示システム1は、バックホウ8(請求の範囲に記載の撮影手段により撮影される物体の一例)の所定位置に配置されたGNSS(Global Navigation Satellite System)ユニット11(1)及びGNSSユニット11(2)と、バックホウ8内に配置されGNSSユニット11(1)及びGNSSユニット11(2)から出力される位置データに基づきバックホウ8の地球における位置及び姿勢を特定する端末装置12(GNSSユニット11(1)及びGNSSユニット11(2)と共に請求の範囲に記載の第1の測定手段の一例を構成する)と、実物の施工物9を撮影した画像に施工物9の設計上の三次元形状を重畳した画像を表示するために用いられる端末装置13を備える。端末装置12と端末装置13は無線通信を行う。また、端末装置13が表示する画像はユーザXにより閲覧される。ユーザXは、施工物9の工事の作業者、検査者等のいずれであってもよい。
GNSSユニット11(1)及びGNSSユニット11(2)は各々、複数の人工衛星から発信される電波を受信し、受信した電波から得られる情報に基づき、自装置の地球における三次元位置を測定する装置である。GNSSユニット11(1)及びGNSSユニット11(2)の各々により測定される位置は、例えば、緯度、経度、高度で表される。GNSSユニット11(1)及びGNSSユニット11(2)は、既知のGNSSユニットであるため、その構成の説明を省略する。
GNSSユニット11(1)及びGNSSユニット11(2)はバックホウ8の上部旋回体の互いに異なる所定位置に配置されている。バックホウ8におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置は、バックホウ8の上部旋回体(クローラの上に配置され、クローラに対し鉛直方向の軸周りに旋回する部分であり、エンジン、燃料タンク、操縦席等を含み、それらに対し位置が変化するブーム、アーム、バケット等は含まない)の所定の基準位置を原点とし、例えば、前方向をX軸正方向、右方向をY軸正方向、上方向をZ軸正方向とする座標空間(以下、「物体座標空間」という)における座標により特定される位置である。地球における上部旋回体の位置及び姿勢が変化しても、GNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置は変化しない。
以下、特に断ることなく「バックホウ8の位置」という場合、地球における物体座標空間の原点の三次元位置を意味するものとする。
GNSSユニット11(1)及びGNSSユニット11(2)の各々は端末装置12と通信接続されている。GNSSユニット11(1)及びGNSSユニット11(2)は継続的に自装置の地球における位置を測定し、測定結果を示す位置データを順次、端末装置12に送信する。
端末装置12はコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置12のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースを備える一般的なコンピュータである。
端末装置13はモーションセンサとカメラが内蔵されたタブレット型のコンピュータがプログラムに従う処理を実行することにより実現される。すなわち、端末装置13のハードウェアは、各種データを記憶するメモリと、メモリに記憶されているプログラムに従った各種データ処理を行うプロセッサと、外部の装置との間でデータの送受信を行う通信インタフェースと、不透過型のタッチディスプレイと、カメラと、モーションセンサを備える一般的なタブレット型のコンピュータである。
図2は、端末装置12と端末装置13の機能構成を示した図である。すなわち、端末装置12のハードウェアとして用いられるコンピュータは、端末装置12用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置12の構成を備える装置として機能する。また、端末装置13のハードウェアとして用いられるタブレット型のコンピュータは、端末装置13用のプログラムに従う各種データ処理を行うことにより、図2に示す端末装置13の構成を備える装置として機能する。
以下に、端末装置12の機能構成を説明する。記憶手段121は、各種データを記憶する。記憶手段121には予め、物体座標空間におけるGNSSユニット11(1)及びGNSSユニット11(2)の位置を示す位置データが記憶されている。
受信手段122は、GNSSユニット11(1)及びGNSSユニット11(2)から継続的に送信される位置データを順次、受信する。受信手段122が受信する位置データは、記憶手段121に予め記憶されている位置データとは異なり、GNSSユニット11(1)及びGNSSユニット11(2)の各々が測定した自装置の地球における三次元位置を示す位置データである。
位置姿勢算出手段123は、記憶手段121に予め記憶されている位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の物体座標空間における位置と、受信手段122がGNSSユニット11(1)及びGNSSユニット11(2)から最後に受信した位置データが示すGNSSユニット11(1)及びGNSSユニット11(2)の地球における位置とに基づいて、地球におけるバックホウ8の位置及び姿勢を算出する。
装置の姿勢とは、装置が基準位置から回転している程度を意味する。姿勢の表現形式としては様々なものがあるが、本実施形態においては、座標空間において装置の基準位置からのX軸時計周りの回転角度(ロール角)、Y軸時計周りの回転角度(ピッチ角)、Z軸時計回りの回転角度(ヨー角)により装置の姿勢が表現されるものとする。地球における装置の姿勢は、例えば、北方向をX軸正方向、東方向をY軸正方向、上方向をZ軸正方向とする座標空間において、X軸時計回りの回転角(ロール角)、Y軸時計回りの回転角(ピッチ角)、Z軸時計回りの回転角(ヨー角)により表現される。
送信手段124は、位置姿勢算出手段123により継続的に算出されるバックホウ8の位置及び姿勢を示す位置姿勢データを順次、端末装置13に送信する。
続いて、端末装置13の機能構成を説明する。記憶手段130(請求の範囲に記載の記憶手段の一例)は、各種データを記憶する。記憶手段130には予め、バックホウ8の上部旋回体の外から見える部分の三次元形状を表す第1の三次元形状データ(特徴点の位置を示す役割を果たす)と、施工物9の設計上の三次元形状と位置及び姿勢とを表す第2の三次元形状データと、後述する撮影手段132と表示手段139の所定の位置関係を示す位置関係データが記憶されている。
第1の三次元形状データは、物体座標空間において変化しないバックホウ8の上部旋回体の三次元形状を表す。第2の三次元形状データは、緯度、経度、高度で表現される座標空間において変化しない施工物9の設計上の竣工時の三次元形状を表す。
受信手段131は、端末装置12から継続的に送信される位置姿勢データを順次、受信する。撮影手段132は、端末装置13の周囲の画像を撮影し、撮影した画像を表す画像データを生成する。認識手段133は、撮影手段132が撮影した画像からバックホウ8の上部旋回体の3以上の特徴点を認識する。認識手段133が特徴点を認識する方法は既知の画像認識方法であるため、その説明を省略する。
対応点特定手段134は、第1の三次元形状データが表す三次元形状上の点であり、認識手段133が認識した3以上の特徴点と対応する点である3以上の対応点を特定する。対応点特定手段134が行う処理は2つの画像間のマッチングを行う既知の画像処理であるため、その説明を省略する。
位置関係特定手段135は、対応点特定手段134が特定した3以上の対応点の物体座標空間における位置と、認識手段133が認識した3以上の特徴点の認識に用いられた画像(バックホウ8を撮影した画像)における位置と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、バックホウ8と表示手段139の位置関係を特定し、特定した位置関係を示す位置関係データを生成する。位置関係特定手段135が特定する位置関係データは、表示手段139の基準位置(例えば表示面の中央位置)の物体座標空間における位置と、表示手段139の物体座標空間における姿勢(ロール角、ピッチ角、ヨー角)を示す。
位置関係特定手段135が行う処理は、撮影した画像から、撮影手段と所定の位置関係の装置の位置及び姿勢を特定する既知の処理であるため、その説明を省略する。
位置姿勢特定手段136は、位置関係特定手段135が特定したバックホウ8と表示手段139の位置関係と、受信手段131が端末装置12から受信した位置姿勢データが示すバックホウ8の地球における位置及び姿勢とに基づき、表示手段139がバックホウ8を撮影した時点における表示手段139の地球における位置及び姿勢を継続的に特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。
測定手段137(請求の範囲に記載の第2の測定手段の一例)は、表示手段139の位置と姿勢の変化分を継続的に測定し、測定の結果を示す位置姿勢変化分データを順次、生成する。測定手段137は、主として端末装置13のハードウェアであるタブレット型のコンピュータに内蔵されるモーションセンサにより実現される。モーションセンサは、例えば、3軸加速度センサと、3軸角速度センサを有し、3軸加速度センサにより表示手段139の位置の変化分を継続的に測定し、3軸角速度センサにより表示手段139の姿勢の変化分を継続的に測定する。
ところで、認識手段133が3以上の特徴点を認識していない期間中は、位置関係特定手段135はバックホウ8と表示手段139の位置関係を特定できない。そのため、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によっては表示手段139の地球における位置及び姿勢を特定することはできない。そこで、位置姿勢特定手段136は、認識手段133が3以上の特徴点を認識していない期間中は、上述した方法によって最後に特定した表示手段139の地球における位置及び姿勢に対し、その後に測定手段137が測定した現時点までの表示手段139の位置及び姿勢の変化分を加算して、現時点における表示手段139の地球における位置と姿勢を特定し、特定した位置及び姿勢を示す位置姿勢データを生成する。
画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の三次元形状と地球における位置及び姿勢とに基づき、撮影手段132が撮影した画像に、撮影手段132が撮影する実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された施工物9の三次元形状を重畳した表示用画像を継続的に生成し、生成した表示用画像を表す表示用画像データを生成する。なお、施工物9の施工されるべき位置が撮影手段132の撮影範囲に入っていない場合、画像生成手段138は撮影手段132が撮影した画像に対し施工物9の三次元形状を重畳しない。
表示手段139は、画像生成手段138が生成した表示用画像データが表す表示用画像を表示する。
図3は、表示手段139により表示される表示用画像を示した図である。図3(A)はバックホウ8の外にいるユーザXが端末装置13を用いてバックホウ8を撮影した場合に表示手段139が表示する表示用画像の例である。図3(B)はバックホウ8の外にいるユーザXが端末装置13を用いて施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。図3(C)はバックホウ8の中にいるユーザXが端末装置13を用いてバックホウ8の窓越しに施工物9を撮影した場合に表示手段139が表示する表示用画像の例である。
図3(A)の表示用画像には、バックホウ8の外側の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。図3(A)の表示用画像に含まれるバックホウ8の上部旋回体の角隅部に描かれている丸印は、認識手段133により特定された特徴点の位置を示している。
図3(B)の表示用画像には、施工物9の画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢に、測定手段137により測定された位置及び姿勢の変化分の加算を行って特定された位置及び姿勢であることを示す「測定モード:画像+モーション」という文字が含まれている。また、図3(B)の表示用画像には、施工物9の画像の上に、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。
図3(C)の表示用画像には、バックホウ8の内側の画像と、施工物9の実画像と、撮影手段132の地球における位置及び姿勢を示す数値と、その位置及び姿勢が撮影手段132により撮影された画像に基づき特定された位置及び姿勢であり、測定手段137により測定された位置及び姿勢の変化分の加算が行われていないことを示す「測定モード:画像」という文字が含まれている。また、図3(C)の表示用画像には、認識手段133により特定された特徴点の位置を示す丸印と、施工物9の設計上の竣工時の三次元形状を表す破線が描かれている。
ユーザXは、図3(B)や図3(C)の表示用画像を見ることで、実際の施工物9の三次元形状と施工物9の設計上の竣工時の三次元形状のズレを直感的に把握することができる。従って、ユーザXは工事や検査等の作業を効率的に行うことができる。
[変形例]
上述の実施形態は本発明の一具体例であって、本発明の技術的思想の範囲内において様々に変形可能である。以下にそれらの変形の例を示す。なお、以下に示す2以上の変形例が適宜組み合わされてもよい。
(1)上述した実施形態においては、端末装置13のハードウェアにタブレット型のコンピュータが用いられる。これに代えて、AR(拡張現実、Augmented Reality)用のHMD(Head Mounted Display)とHMDと無線等で接続されたコンピュータや、コンピュータ内蔵のAR用のHMDが端末装置13のハードウェアとして用いられてもよい。
また、AR用のHMDに代えて、MR(複合現実、Mixed Reality)用のHMDが用いられてもよい。MR用のHMDは、透過型のディスプレイを有し、HMDを頭部に装着したユーザは、ディスプレイ越しに肉眼で見る周囲の風景と、ディスプレイに表示される画像とを同時に見ることになる。
図4は、この変形例に係る画像表示システム2の全体構成を示した図である。図1に示した画像表示システム1と比較し、画像表示システム2はタブレット型のコンピュータである端末装置13に代えて、MR用のHMD(コンピュータ内蔵型)であるMR-HMD23を備える。
MR-HMD23の機能構成は、図2に示した端末装置13の機能構成と同じであるが、画像生成手段138が行う処理が端末装置13のものと異なる。MR-HMD23の画像生成手段138は、位置姿勢特定手段136が特定した表示手段139の地球における位置及び姿勢と、第2の三次元形状データが表す施工物9の設計上の三次元形状と地球における位置及び姿勢と、記憶手段130に記憶されている位置関係データが示す撮影手段132と表示手段139の位置関係とに基づき、ユーザXの頭部に装着される表示手段139を透過して実空間を見るユーザXに、設計上の施工物9の施工されるべき位置に施工物9の施工されるべき姿勢及び形状で施工物9の三次元形状を重ねて見せるように、実空間と座標系が共通の仮想空間において第2の三次元形状データが表す施工物9の三次元形状を配置した表示用画像を生成する。
図5は、画像表示システム2においてMR-HMD23を装着しているユーザXの目に見えるものを示した図である。図5(A)はバックホウ8の外にいるMR-HMD23を装着したユーザXがバックホウ8の方を向いた場合にユーザXに見えるものを示した例である。図5(B)はバックホウ8の外にいるMR-HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。図5(C)はバックホウ8の中にいるMR-HMD23を装着したユーザXが施工物9の方を向いた場合にユーザXに見えるものを示した例である。
画像表示システム1による場合、例えばユーザXがバックホウ8を用いて施工物9の施工を行う作業者である場合、ユーザXはバックホウ8の操縦室内の見える場所に端末装置13を設置し、実物の施工物9を見ながらバックホウ8を操作して工事を行いながら、時々、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを確認するために、視線を端末装置13の方に移す必要がある。これに対し、画像表示システム2によれば、ユーザXは視線を実物の施工物9から逸らすことなく、施工物9の三次元形状が設計上の竣工時の三次元形状とどれくらいずれているかを常時確認することができる。
(2)上述した実施形態においては、地球におけるバックホウ8の位置及び姿勢は端末装置12により算出される。これに代えて、端末装置13が端末装置12の役割を兼ね備え、端末装置13がGNSSユニット11(1)及びGNSSユニット11(2)からそれらのGNSSユニットの位置を示す位置データを受信し、受信した位置データに基づき、地球におけるバックホウ8の位置及び姿勢を算出してもよい。
(3)上述した実施形態においては、工事現場は地上であるものとしたが、工事現場は地上に限られず、水上等であってもよい。例えば、工事現場が水上である場合、バックホウに代えて船舶にGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12を配置すればよい。この場合、ユーザはGNSSユニット11(1)及びGNSSユニット11(2)と端末装置12が配置された船舶を端末装置13で撮影することで、水上の施工物の三次元形状を、その施工物の設計上の竣工時の三次元形状と比較することができる。
(4)上述した実施形態においては、端末装置12と端末装置13のハードウェアは一般的なコンピュータである。これに代えて、端末装置12と端末装置13の少なくとも一方が、図2に示した構成を備える専用装置として構成されてもよい。
(5)GNSSの方式には様々なものがある。GNSSユニット11(1)及びGNSSユニット11(2)に採用される方式は、本発明において要求される精度が確保される限り、いずれの方式であってもよい。例えば、GNSSユニット11(1)及びGNSSユニット11(2)が、RTK(Real Time Kinematic)-GNSS方式や、D(Differential)-GNSS方式のGNSSユニットであってもよい。
(6)上述した実施形態において、画像表示システム1はGNSSユニット11(1)及びGNSSユニット11(2)を用いてバックホウ8の位置及び姿勢を特定する。本発明において物体の位置及び姿勢を特定する方法は、2つのGNSSユニットを用いる方法に限られない。例えば、画像表示システム1がGNSSユニット11(1)及びGNSSユニット11(2)に代えて、物体の所定位置に配置されたGNSSユニットと、方位計と、水平面上で直交する2軸の傾斜計とを1つずつ備え、GNSSユニットが測定した位置に基づき物体の位置を特定し、方位計が測定した方位と2軸の傾斜計が測定した傾きとに基づき物体の姿勢を特定してもよい。
また、上記の変形例において、物体の水平面に対する姿勢が基準位置から実質的に変化しない場合、画像表示システム1は傾斜計を備えなくてもよい。その場合、物体の姿勢を表す値としては、ヨー角として方位計が測定した値が用いられ、ロール角とピッチ角として0度(基準姿勢から変化なし)が用いられる。
(7)上述した実施形態においては、撮影手段132は一般的な光学カメラ(可視光を感知するイメージセンサ群により二次元画像を生成する撮影手段)である。これに代えて、撮影手段132としてデプスセンサを採用し、撮影手段132が撮影により深度画像を生成してもよい。なお、デプスセンサの方式は、ステレオカメラ方式、Time-of-flight方式、LIDAR方式等のいずれであってもよい。
この場合、バックホウ8を撮影した撮影手段132はバックホウ8の三次元形状を表す深度画像を生成する。そして、認識手段133は撮影手段132が生成する深度画像が表すバックホウ8の三次元形状から特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。
また、撮影手段132が撮影により二次元画像を生成する場合において、例えば端末装置13が、同じ対象物を異なる方向から撮影した複数の画像から対象物の三次元形状を測定するPhoto to 3Dと呼ばれる既知の技術によりバックホウ8の三次元形状を特定する三次元形状特定手段を備えてもよい。この場合、認識手段133は三次元形状特定手段が特定したバックホウ8の三次元形状の特徴点を認識する。そして、対応点特定手段134は第1の三次元形状データが表すバックホウ8の三次元形状から、認識手段133が認識した特徴点に対応する対応点を特定するとよい。
(8)上述した実施形態において、表示手段139の地球における位置及び姿勢を特定するために撮影手段132により撮影される対象の物体の例として示したバックホウ8は、自走する移動体である。本発明における撮影対象の物体は自走しない移動体や、移動体ではない物体でもよい。例えば、曳舟により曳航される作業台船の位置及び姿勢が取得できる場合、その作業台船が表示手段の位置及び姿勢を特定するための撮影対象として用いられてもよいし、工事中は移動しない建設機械等を撮影対象として用いてもよい。すなわち、特徴点を備え、測定手段により地球における位置及び姿勢が測定される物体であれば、本発明における撮影対象の物体となり得る。
(9)端末装置13が行う処理をコンピュータに実行させるためのプログラムがインターネット等のネットワークを介して提供されてもよい。また、端末装置13が行う処理をコンピュータに実行させるためのプログラムが持続的にデータを記録する記録媒体に記録された状態で提供されてもよい。
1…画像表示システム、2…画像表示システム、8…バックホウ、9…施工物、12…端末装置、13…端末装置、23…MR-HMD、121…記憶手段、122…受信手段、123…位置姿勢算出手段、124…送信手段、130…記憶手段、131…受信手段、132…撮影手段、133…認識手段、134…対応点特定手段、135…位置関係特定手段、136…位置姿勢特定手段、137…測定手段、138…画像生成手段、139…表示手段。

Claims (8)

  1. 撮影手段と、
    前記撮影手段と所定の位置関係にある表示手段と、
    前記撮影手段の撮影対象の物体の地球における位置及び姿勢を測定する測定手段と、
    前記撮影手段と前記表示手段の位置関係を示す位置関係データと、前記物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを記憶する記憶手段と、
    前記撮影手段が前記物体を撮影した画像から前記物体の3以上の特徴点を認識する認識手段と、
    前記第1の三次元形状データが表す三次元形状上の点であり、前記認識手段が認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する対応点特定手段と、
    前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき、前記物体と前記表示手段の位置関係を特定する位置関係特定手段と、
    前記位置関係特定手段が特定した前記物体と前記表示手段の位置関係と、前記物体を撮影した画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する位置姿勢特定手段と、
    前記位置姿勢特定手段が特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する画像生成手段と
    を備え、
    前記表示手段は前記表示用画像を表示する
    画像表示システム。
  2. 前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段を備え、
    前記位置姿勢特定手段は、特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記撮影時点から現時点までに前記第2の測定手段が測定した前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する
    請求項1に記載の画像表示システム。
  3. 前記表示用画像は、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像である
    請求項1又は2に記載の画像表示システム。
  4. 前記表示手段は、ユーザの頭部に装着される透過型の表示手段であり、
    前記表示用画像は、前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像である
    請求項1又は2に記載の画像表示システム。
  5. コンピュータに、
    撮影手段と表示手段の所定の位置関係を示す位置関係データと、測定手段により地球における位置及び姿勢が測定される物体の三次元形状を表す第1の三次元形状データと、施工物の設計上の三次元形状と地球における位置及び姿勢とを表す第2の三次元形状データとを取得する処理と、
    前記撮影手段が前記物体を撮影した画像を表す画像データと、当該画像の撮影時点において前記測定手段が測定した前記物体の地球における位置及び姿勢を示す位置姿勢データとを取得する処理と、
    前記画像データが表す画像から前記物体の3以上の特徴点を認識する処理と、
    前記第1の三次元形状データが表す三次元形状上の点であり、認識した前記3以上の特徴点と対応する点である3以上の対応点を特定する処理と、
    前記3以上の対応点の前記物体における位置と、前記3以上の特徴点の前記物体を撮影した画像における位置とに基づき前記物体と前記撮影手段の位置関係を特定し、当該位置関係と前記位置関係データが示す位置関係とに基づき前記物体と前記表示手段の位置関係を特定する処理と、
    特定した前記物体と前記表示手段の位置関係と、前記位置姿勢データが示す前記物体の地球における位置及び姿勢とに基づき、前記撮影時点における前記表示手段の地球における位置及び姿勢を特定する処理と、
    特定した前記表示手段の地球における位置及び姿勢と、前記第2の三次元形状データが表す前記施工物の設計上の三次元形状と地球における位置及び姿勢とに基づき、前記撮影手段が撮影する実空間と座標系が共通の仮想空間において設計上の位置に設計上の姿勢で施工された前記施工物の三次元形状を表す表示用画像を生成する処理と、
    前記表示用画像を前記表示手段に表示させる処理と
    を実行させるためのプログラム。
  6. 前記コンピュータに、
    前記測定手段を第1の測定手段とするとき、前記表示手段の位置及び姿勢の変化分を継続的に測定する第2の測定手段が測定した前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分を示す位置姿勢変化分データを取得する処理と、
    特定した前記撮影時点における前記表示手段の地球における位置及び姿勢と、前記位置姿勢変化分データが示す前記撮影時点から現時点までの前記表示手段の位置及び姿勢の変化分とに基づき、現時点における前記表示手段の地球における位置及び姿勢を特定する処理と
    を実行させるための請求項5に記載のプログラム。
  7. 前記コンピュータに、
    前記表示用画像として、前記撮影手段が撮影した画像に、前記施工物の設計上の三次元形状を表す画像を重畳した画像を生成させる
    ための請求項5又は6に記載のプログラム。
  8. 前記コンピュータに、
    前記表示用画像として、ユーザの頭部に装着される透過型の前記表示手段を透過して実空間を見る前記ユーザに、実空間と座標系が共通の仮想空間において設計上の施工されるべき位置に施工されるべき姿勢及び形状で施工された前記施工物の三次元形状を重ねて見せる画像を生成させる
    ための請求項5又は6に記載のプログラム。
JP2019169457A 2019-09-18 2019-09-18 画像表示システム Active JP7303711B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169457A JP7303711B2 (ja) 2019-09-18 2019-09-18 画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169457A JP7303711B2 (ja) 2019-09-18 2019-09-18 画像表示システム

Publications (2)

Publication Number Publication Date
JP2021047611A JP2021047611A (ja) 2021-03-25
JP7303711B2 true JP7303711B2 (ja) 2023-07-05

Family

ID=74878495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169457A Active JP7303711B2 (ja) 2019-09-18 2019-09-18 画像表示システム

Country Status (1)

Country Link
JP (1) JP7303711B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20150109509A1 (en) 2013-10-22 2015-04-23 Topcon Positioning Systems, Inc. Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit
WO2016017253A1 (ja) 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2018106661A (ja) 2017-07-03 2018-07-05 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008304268A (ja) 2007-06-06 2008-12-18 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20150109509A1 (en) 2013-10-22 2015-04-23 Topcon Positioning Systems, Inc. Augmented Image Display Using a Camera and a Position and Orientation Sensor Unit
WO2016017253A1 (ja) 2014-08-01 2016-02-04 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
JP2018106661A (ja) 2017-07-03 2018-07-05 株式会社Cygames 不整合検出システム、複合現実システム、プログラム及び不整合検出方法

Also Published As

Publication number Publication date
JP2021047611A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
CN107402000B (zh) 用于将显示装置相对于测量仪器相互关联的方法和***
KR101285360B1 (ko) 증강현실을 이용한 관심 지점 표시 장치 및 방법
US9080881B2 (en) Methods and apparatus for providing navigational information associated with locations of objects
JP5682060B2 (ja) 画像合成装置、画像合成プログラム、及び画像合成システム
KR100800554B1 (ko) 이동형 사진측량 시스템에서의 레이저 스캐너와 카메라영상정보를 이용한 3차원 모델링 방법
EP3244371B1 (en) Augmented image display using a camera and a position and orientation sensor unit
US20230243979A1 (en) Methods for geospatial positioning and portable positioning devices thereof
CN102575933A (zh) 地图图像综合数据库生成***以及地图图像综合数据库生成程序
KR100822814B1 (ko) Gps/ins 장비를 이용한 측량 정보 및 gis 지리정보, 실시간 영상정보를 결합한 공간정보 서비스방법
JP4102324B2 (ja) 測量データ処理システム、測量データ処理プログラム及び電子地図表示装置
CN113820735B (zh) 位置信息的确定方法、位置测量设备、终端及存储介质
CN104748739B (zh) 一种智能机增强现实实现方法
KR101011813B1 (ko) 인접된 항공사진들 간의 중첩지역 표시장치
EP3642694B1 (en) Augmented reality system and method of displaying an augmented reality image
RU2571300C2 (ru) Способ дистанционного определения абсолютного азимута целевой точки
CN101556154A (zh) 定位及路径地图生成***及其数据采集分析方法
US10298886B2 (en) Method of representing possible movements of a structure for an apparatus of smartphone type
CN104978476B (zh) 利用智能手机进行室内地图现场补测的方法
JP6799635B2 (ja) 空撮画像位置特定システムおよび空撮画像位置特定方法。
JP7303711B2 (ja) 画像表示システム
CN109032330A (zh) 无缝桥接ar装置和ar***
EP2696168A1 (en) Using gravity measurements within a photogrammetric adjustment
JP6673699B2 (ja) 地形表示システム
JP6733127B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2022140903A (ja) 測量デバイスおよびこれを用いた測量方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220506

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230623

R150 Certificate of patent or registration of utility model

Ref document number: 7303711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150