JP2020194214A - 画像表示装置 - Google Patents

画像表示装置 Download PDF

Info

Publication number
JP2020194214A
JP2020194214A JP2019097775A JP2019097775A JP2020194214A JP 2020194214 A JP2020194214 A JP 2020194214A JP 2019097775 A JP2019097775 A JP 2019097775A JP 2019097775 A JP2019097775 A JP 2019097775A JP 2020194214 A JP2020194214 A JP 2020194214A
Authority
JP
Japan
Prior art keywords
image
camera
virtual
marker
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019097775A
Other languages
English (en)
Other versions
JP7245713B2 (ja
Inventor
ビカス ラムサル
Lamsal Bikash
ビカス ラムサル
國近 京輔
Kiyousuke Kunichika
京輔 國近
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kajima Corp
Original Assignee
Kajima Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kajima Corp filed Critical Kajima Corp
Priority to JP2019097775A priority Critical patent/JP7245713B2/ja
Publication of JP2020194214A publication Critical patent/JP2020194214A/ja
Application granted granted Critical
Publication of JP7245713B2 publication Critical patent/JP7245713B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 撮像された画像に、画像に係る位置に応じた表示を重畳する際に簡易に位置合わせを行う。【解決手段】 画像表示装置であるスマートデバイス10は、現実空間においてカメラ11によって撮像された画像を入力する画像入力部14と、現実空間に対応する仮想空間において位置決めされた仮想物を記憶しておき、画像が撮像された際のカメラ11の位置及び姿勢に応じて仮想物を当該画像に重ね合わせて表示させる表示部15と、カメラ11の移動状態を示す移動状態情報を入力する移動状態入力部16とを備え、表示部15は、移動状態情報に応じてカメラ11の位置及び姿勢を修正し、表示部15は、予め仮想空間における複数の仮想位置を記憶しておき、画像からマーカを検出して、マーカの仮想空間における位置と、当該位置に応じた仮想位置とが一致するようにカメラ11の位置及び姿勢を修正する。【選択図】 図1

Description

本発明は、現実空間において撮像された画像に仮想物を重ね合わせて表示させる画像表示装置に関する。
従来から、建設又は土木等の建設現場において撮像された画像に、例えば、設置される部材等のCAD(Computer Aided Design)データに基づくCG(コンピュータグラフィックス)モデルを重畳して表示させる技術が提案されている(例えば、特許文献1参照)。
特開2010−108384号公報
上述した技術等に基づいて、AR(拡張現実)よって、これから設置される部材等を表示させることが考えられる。表示されるCGモデルとしては、建物全体の完成形、設備配管、及び内装(ウレタン吹付範囲、天井段差、仕上げ)等に係るものが考えられる。このような表示を行うことで、図面の読み間違い又は知識不足による施工管理ミス、並びに顧客要求事項の齟齬による意匠変更等を防止することができる。
上記のCGモデルの表示をカメラの移動に追従させる場合、建設現場ではGPS(グローバル・ポジショニング・システム)による位置の特定が困難な場合があるため、カメラに設けられる加速度センサ、ジャイロセンサ等によってカメラの移動を検出して、検出した移動に応じて追従を行うことが考えられる。しかしながら、移動の検出のみでは、撮像される画像と表示するCGモデルとの間に位置ずれが生じてしまう。それを防止するため、建設現場に位置決めされたARマーカを設けておき、ARマーカに基づく位置合わせを行うことが考えられる。適切に位置合わせを行うためには、建設現場になるべく多くのARマーカを設ける必要がある。
通常、ARマーカは一意に位置合わせを行うためのものであるため、複数のARマーカは互いに異なるものである必要がある。複数の異なるARマーカを用意して建設現場にそれらのARマーカを設けることは、大きな手間である。また、表示側の装置にもそれぞれのARマーカの設定を行う必要があり、この点でも手間が発生する。
本発明は、上記に鑑みてなされたものであり、撮像された画像に当該画像に係る位置に応じた表示を重畳する際に簡易に位置合わせを行うことができる画像表示装置を提供することを目的とする。
上記の目的を達成するために、本発明に係る画像表示装置は、現実空間においてカメラによって撮像された画像を入力する画像入力手段と、現実空間に対応する仮想空間において位置決めされた仮想物を記憶しておき、画像入力手段によって入力された画像が撮像された際のカメラの位置及び姿勢に応じて仮想物を当該画像に重ね合わせて表示させる表示手段と、カメラの移動状態を示す移動状態情報を入力する移動状態入力手段と、を備え、表示手段は、移動状態入力手段によって入力された移動状態情報に応じて、自身が把握するカメラの位置及び姿勢を修正し、表示手段は、予め現実空間に位置決めされて設けられる複数のマーカに対応する仮想空間における複数の仮想位置を記憶しておき、画像入力手段によって入力された画像から複数のマーカのうちの1つを検出して、検出したマーカの仮想空間における位置と、複数の仮想位置のうち、当該検出したマーカの仮想空間における位置に応じた仮想位置とが一致するように、自身が把握するカメラの位置及び姿勢を修正する。
本発明に係る画像表示装置によれば、複数の同一のマーカを用いて撮像された画像に仮想物を重ね合わせて表示させる際の位置合わせを行うことができる。従って、本発明に係る画像表示装置によれば、簡易に当該位置合わせを行うことができる。
表示手段は、検出したマーカの仮想空間における位置と、複数の仮想位置のうち、検出したマーカの仮想空間における位置に最も近い仮想位置とが一致するように、自身が把握するカメラの位置及び姿勢を修正することとしてもよい。この構成によれば、確実かつ適切に位置合わせを行うことができる。
表示手段は、画像入力手段によって入力された画像から複数のマーカのうちの1つを検出すると共に当該検出したマーカに対応する仮想位置の指定を受け付けて、検出したマーカの仮想空間における位置と、指定された仮想位置とが一致するように、自身が把握するカメラの位置及び姿勢を設定することとしてもよい。この構成によれば、複数の同一のマーカを用いて、自身が把握するカメラの位置及び姿勢の初期設定を行うことができる。従って、初期設定のための上記のマーカとは異なるマーカを設ける必要がない。
表示手段は、現実空間に引かれた複数の線の交点部分をマーカとして検出することとしてもよい。この構成によれば、建設現場等に設けられる通り芯墨、通り芯逃げ墨等の線を用いて位置合わせを行うことができる。従って、位置合わせ用のみに用いられるマーカを設けずに位置合わせを行うことができる。
本発明によれば、複数の同一のマーカを用いて撮像された画像に仮想物を重ね合わせて表示させる際の位置合わせを行うことができる。従って、本発明によれば、簡易に当該位置合わせを行うことができる。
本発明の実施形態に係る画像表示装置であるスマートデバイスの構成を示す図である。 CGモデルが重畳されて表示される画像の例である。 建設現場に引かれる基準線の例を示す図である。 本発明の実施形態に係る画像表示装置であるスマートデバイスで実行される処理を示すフローチャートである。
以下、図面と共に本発明に係る画像表示装置の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る画像表示装置であるスマートデバイス10を示す。スマートデバイス10は、現実空間において撮像された画像に仮想物を重ね合わせて表示させる装置(システム)である。CGモデルの重ね合わせは、1分の1スケールで行われる。即ち、スマートデバイス10は、ARによる表示を行う装置である。
例えば、スマートデバイス10は、建築(工事)現場又は土木(工事)現場等の建設現場においてユーザに携帯されて用いられる。スマートデバイス10は、建設現場において撮像された画像に、これから設置される部材等を、画像中の設置される場所に重ね合わせて表示させる。表示される画像Iの例を図2に示す。図2に示すように、例えば、撮像された建設現場Sの部材Mが設置される場所に部材MのCGモデル(ARモデル)が表示される。重ね合わせて表示されるCGモデルは、具体的には、建物全体の完成形、設備配管、内装(ウレタン吹付範囲、天井段差、仕上げ)、杭、鉄筋、天井内設備、仮設足場、敷地内の埋設物ライン(例えば、地下鉄)、改修工事時の新築部分等のCGモデルである。建設現場の作業員等が上記の画像を参照することで、図面の読み間違い及び施工管理ミス等による手戻りを防止することができる他、顧客要求を具体的に把握することによる作業後の意匠変更の防止、改修工事時の新築部分の既存部分との干渉確認、作業時の現地の安全確認、顧客との合意形成等を行うことも可能となる。
スマートデバイス10は、例えば、タブレット端末又はスマートフォン等の端末である。スマートデバイス10は、CPU(Central Processing Unit)及びメモリ等のハードウェアを含んで構成されている。スマートデバイス10の後述する各機能は、これらの構成要素がプログラム等により動作することによって発揮される。プログラムは、本実施形態の機能を発揮するための専用のアプリケーションであってもよく、スマートデバイス10が当該アプリケーションをダウンロードしてインストールしてもよい。また、スマートデバイス10は、後述するように、本実施形態に係るハードウェアとして、上記以外にもカメラ、ディスプレイ、センサを備える。また、スマートデバイス10は、それ以外にも、通常のスマートデバイスが備える機能及びハードウェアを備えていてもよい。
引き続いて、本実施形態に係るスマートデバイス10の構成について説明する。図1に示すように、スマートデバイス10は、カメラ11と、ディスプレイ12と、センサ13と、画像入力部14と、表示部15と、移動状態入力部16とを備えて構成される。
カメラ11は、現実空間である建設現場を撮像して、仮想物であるCGモデルが重畳されて表示される画像を取得する撮像装置である。カメラ11は、スマートデバイス10本体に対して位置決めされて固定的に設けられている。カメラ11としては、従来のスマートデバイスに備えられるものを用いることができる。カメラ11は、連続的に撮像を行う。カメラ11は、撮像によって得られた画像を撮像の度に画像入力部14に出力する。
ディスプレイ12は、画像を入力して表示する表示装置である。ディスプレイ12は、後述するようにカメラ11によって撮像されてCGモデルが重畳された画像を表示部15から入力して表示する。ディスプレイ12としては、従来のスマートデバイスに備えられるものを用いることができる。
センサ13は、スマートデバイス10の移動状態を検出するセンサである。上述したようにカメラ11は、スマートデバイス10本体に対して固定的に設けられている。そのため、スマートデバイス10の移動状態の検出は、カメラ11の移動状態の検出に相当する。例えば、センサ13は、IMU(慣性計測装置)(加速度センサ、ジャイロセンサ、マグネットメータ)であり、カメラ11の移動状態として三次元の加速度及び角速度を検出する。センサ13としては、従来のスマートデバイスに備えられるものを用いることができる。センサ13は、連続的(例えば、カメラ11の撮像のタイミングと同じタイミングで)にカメラ11の移動状態を検出する。センサ13は、検出したカメラ11の移動状態を示す移動状態情報を検出の度に移動状態入力部16に出力する。なお、移動状態情報は、上述した加速度及び角速度以外であってもよい。例えば、カメラ11の速度を移動状態情報としてもよい。
画像入力部14、表示部15及び移動状態入力部16の機能は、CPU及びメモリ等のハードウェア、即ち、スマートデバイス10のコンピュータ部分によって実現される。
画像入力部14は、現実空間である建設現場においてカメラ11によって撮像された画像を入力する画像入力手段である。画像入力部14は、カメラ11から当該画像を入力する。画像入力部14は、入力した画像を表示部15に出力する。
表示部15は、画像入力部14によって入力された画像に仮想物であるCGモデルを重ね合わせて表示させる表示手段である。即ち、表示部15は、ARの画像を表示させる。表示部15は、CGモデルが重ね合わされた画像をディスプレイ12に出力して表示させる。
表示部15は、予め現実空間である建設現場に対応する三次元の仮想空間(AR空間)を記憶しておく。建設現場における位置と仮想空間における位置(座標)とが予め対応付けられている。表示部15は、予め当該仮想空間において位置決めされたCGモデルを記憶しておく。具体的には、表示部15は、CGモデルの仮想空間上の形状及び位置を示す情報を記憶しておく。CGモデルの仮想空間上の形状及び位置は、例えば、CGモデルに係る部材等が実際の建設現場に設けられる形状及び位置に対応している。
CGモデルは、例えば、表示する対象物を三次元形状で表したもの、即ち、3Dモデルである。CGモデルは、例えば、対象物のCADデータ、あるいはBIM(Building Information Modeling)データから従来の方法で作成することができる。また、仮想空間の設定、及びCGモデルの配置は、例えば、BIMデータといった建設に係る設計データに基づいて予め行われる。また、CGモデルは、平面図(例えば、2Dの施工図又は平面詳細図)に基づくものであってもよい。CGモデルの生成は、専用クラウドサーバで行われてもよい。その場合、スマートデバイス10は、予め専用クラウドサーバからCGモデルをダウンロードしておく。
表示部15は、画像入力部14から画像を入力する。表示部15は、入力した画像が撮像された際のカメラ11の位置(撮像位置)及び姿勢(撮像方向)に応じてCGモデルを当該画像に重ね合わせて表示させる。表示部15は、カメラ11が仮想空間にあり、入力された画像を撮像した際の位置及び姿勢と同じ条件で(即ち、仮想カメラで)CGモデルを撮像した場合のCGモデルを画像に重畳する。この画像は、図2に示すように、実際の建設現場において、CGモデルに係る部材等が設けられる部分に当該CGモデルが写ったものとなる。CGモデルを画像に重畳する際には、カメラ11の位置及び姿勢だけではなく、カメラ11の撮像を行う際のパラメータ(例えば、画角)等を考慮してもよい。また、CGモデルを表示する際には、CGモデルを半透明にして、画像のCGモデルが重畳される部分も認識できるようにしてもよい。なお、表示部15は、自身が把握するカメラ11の位置及び姿勢について後述するように設定、修正する。
移動状態入力部16は、カメラ11の移動状態を示す移動状態情報を入力する移動状態入力手段である。移動状態入力部16は、センサ13から、カメラ11の移動状態を示す移動状態情報を入力する。移動状態入力部16は、入力した移動状態情報を表示部15に出力する。
表示部15は、移動状態入力部16から移動状態情報を入力する。表示部15は、移動状態入力部16によって入力された移動状態情報に応じて、自身が把握する仮想空間におけるカメラ11の位置及び姿勢(カメラ11が仮想空間にあるとした場合の位置及び姿勢)を修正(算出)する。表示部15は、修正した位置及び姿勢に基づいて画像に対するCGモデルの重ね合わせを行う。表示部15は、画像入力部14から画像を入力する度、及び移動状態入力部16から移動状態を示す情報を入力する度に上記の画像の重ね合わせ(表示される画像の生成)及びディスプレイ12への出力を行う。即ち、表示部15は、カメラの移動状態に追従するように画像にCGモデルを重ね合わせる。上述した表示部15の機能は、従来のARの方法(例えば、ARToolKitのトラッキングアルゴリズム、SLAM(Simultaneous Localization and Mapping)機能)によって実現することができる。
上述したように表示部15において重ね合わせに用いられるカメラ11の位置及び姿勢は、センサ13によって検出されたカメラ11の移動状態を用いて修正される。しかしながら、このように算出されたカメラ11の位置及び姿勢は、実際のカメラ11の位置及び姿勢との間でずれが生じ得る。カメラ11の移動状態を用いて繰り返し修正が行われた場合には、そのずれが大きくなる。それらの間にずれがあると、画像に重ね合わされるCGモデルの画像上の位置がずれ、適切な表示が行えなくなる。本実施形態では、以下のようにそのずれを解消する。
表示部15は、まず、何らかの方法で、自身が把握するカメラ11の位置及び姿勢の初期設定を行う。初期設定は、従来のARの方法と同様に行われてもよい。例えば、建設現場に予め位置決めした一意に特定できる1つの初期設定用マーカを設けておく。初期設定用マーカは、例えば、二次元コード等の二次元の画像を用いたものである。ユーザは、カメラ11を初期設定用マーカに向けて、カメラ11で初期設定用マーカを撮像できるようにする。表示部15は、予め仮想空間上の初期設定用マーカの位置を記憶しておき、当該位置とカメラ11によって初期設定用マーカを撮像した画像とに基づいて初期設定を行う。なお、初期設定は、必ずしも上記のように行われる必要はなく、後述するように本実施形態に係るマーカを用いて行われてもよい。
上記のずれを解消するために、建設現場に予め位置決めした複数のマーカ(ARマーカ)を設けておく。それぞれのマーカは、上記の初期設定用マーカのように一意に特定できる必要はなく、複数のマーカのいずれかであることを識別できるものであればよい。
図3は、建設現場に設けられる部材Mを上方から示す図である。図3に示すように建設現場の敷地又は床面等には、作業の基準線Lとなる通り芯墨又は通り芯逃げ墨が引かれる。当該基準線Lは、通常、縦方向及び横方向等の互いに垂直な方向にそれぞれ複数引かれる。この基準線Lを用いて、例えば、縦方向の基準線Lと横方向の基準線Lとのそれぞれの交点P部分をマーカとする。このようにマーカを設定することで建設現場にまんべんなくマーカを設定することができる。なお、マーカとして用いる基準線Lとしては、通り芯墨及び通り芯逃げ墨以外のものが用いられてもよい。ユーザは、ずれを解消する際にカメラ11をマーカに向けて、カメラ11でマーカを撮像できるようにする。
表示部15は、予め複数のマーカに対応する仮想空間における複数の仮想位置を記憶しておく。表示部15は、画像入力部14から入力した画像から複数のマーカのうちの1つ、即ち、基準線Lの交点Pを検出(認識)する。マーカの検出は、従来の画像認識の手法によって行うことができる。表示部15は、画像からマーカを検出できなかった場合、マーカに基づく位置合わせを行わない。
表示部15は、画像からマーカを検出できた場合、検出したマーカの仮想空間における位置と、複数の仮想位置のうち、当該検出したマーカの仮想空間における位置に応じた仮想位置とが一致するようにカメラ11の位置及び姿勢を修正する。例えば、表示部15は、検出したマーカの仮想空間における位置と、複数の仮想位置のうち、検出したマーカの仮想空間における位置に最も近い仮想位置とが一致するようにカメラ11の位置及び姿勢を修正する。また、マーカの位置と仮想位置との一致(即ち、点の一致)だけでなく、仮想空間上に基準線Lに対応する仮想線を設定しておき、検出した基準線Lの仮想空間における位置(向き)と仮想線の位置(向き)とが一致するよう(即ち、線の一致)にカメラ11の位置及び姿勢を修正してもよい(以下についても同様である)。また、交点Pの部分ではない、基準線Lの部分をマーカとして用いてもよい。
上記のずれが生じている場合であっても、検出したマーカの仮想空間における位置に最も近い仮想位置が、検出したマーカに対応するものであると考えられるため、上記によってずれを解消することができる。なお、複数の仮想位置のうち、マーカの位置と一致させる仮想位置(即ち、ずれの解消に用いる仮想位置)が特定されれば、カメラ11の位置及び姿勢の修正(算出)自体は、従来のARの方法と同様に行うことができる。また、上述した移動状態に応じたカメラ11の位置及び姿勢の修正は、画像からマーカの検出が行えなかった場合(例えば、画像にマーカが写っていなかった場合)のみに行われてもよい。また、カメラ11の位置及び姿勢の初期設定及び修正の際に、カメラ11からマーカまでの距離を取得して当該距離を用いることとしてもよい。以上が、上記のずれを解消するための表示部15の機能である。
表示部15は、上記のマーカ、即ち、基準線Lの交点Pを用いて、カメラ11の位置及び姿勢の初期設定を行うこととしてもよい。表示部15は、ずれの解消時と同様に画像入力部14から入力した画像から複数のマーカのうちの1つ、即ち、基準線Lの交点Pを検出する。また、表示部15は、検出したマーカに対応する仮想位置(ARポイント)の指定を受け付ける。即ち、表示部15は、複数の仮想位置のうち、何れの仮想位置を初期設定に用いるかの指定を受け付ける。指定は、例えば、スマートデバイス10が使用される時点でユーザのスマートデバイス10に対する操作によって行われてもよいし、予め表示部15に設定されていてもよい。指定は、例えば、各仮想位置に番号等の識別子を付与しておき、識別子を指定するものであってもよいし、仮想位置の座標を指定するものであってもよい。なお、当該指定は、マーカが検出される前に行われてもよいし、後に行われてもよい。
表示部15は、検出したマーカの仮想空間における位置と、指定された仮想位置とが一致するようにカメラ11の位置及び姿勢を設定する。なお、本実施形態のようにマーカとして、基準線Lの交点Pを用いる場合には、マーカの位置を特定できても向きを特定できない。それに対処するため、初期設定を行う場合には、予め特定の方向から(例えば、図3における上向きに)カメラ11によるマーカの撮像を行うようにしておき、当該方向を前提として初期設定を行うこととすればよい。
なお、上述したようにマーカは、マーカであることを認識できればよいため、必ずしも上記の基準線Lを用いたものでなくてもよい。例えば、建設現場に位置決めして設けた複数の同一の二次元コードをマーカとして用いることとしてもよい。この場合も上述した初期設定を行うことができるが、上記の初期設定の際に特定の方向から撮像を行う必要がない。以上が、本実施形態に係るスマートデバイス10の構成である。
引き続いて、図4のフローチャートを用いて、本実施形態に係るスマートデバイス10で実行される処理を説明する。本処理では、まず、カメラ11によって建設現場の撮像が行われて画像が取得される(S01)。取得された画像は、カメラ11から画像入力部14に入力される。続いて、表示部15によって当該画像から、マーカである、基準線Lの交点Pが検出される(S02)。また、表示部15によって、検出されたマーカに対応する仮想位置(ARポイント)の指定が受け付けられる(S03)。続いて、表示部15によって、検出されたマーカの仮想空間における位置と、指定された仮想位置とが一致するように、自身が把握するカメラ11の位置及び姿勢が初期設定される(S04)。なお、カメラ11の位置及び姿勢の初期設定は、上述したように初期設定用マーカによって行われてもよい。続いて、表示部15によって、設定されたカメラ11の位置及び姿勢に応じてCGモデルが当該画像に重ね合わせられてディスプレイ12に表示される(S05)。
続いて、カメラ11によって建設現場の撮像が行われて画像が取得される(S06)。取得された画像は、カメラ11から画像入力部14に入力される。また、センサ13によってカメラ11の移動状態が検出される。検出されたカメラ11の移動状態を示す移動状態情報は、センサ13から移動状態入力部16に入力される。続いて、表示部15によって当該画像から、マーカである、基準線Lの交点Pが検出される(S08)。
この際に画像からマーカが検出されなかった場合(S08のNO)、表示部15によって、移動状態情報に応じて、自身が把握する仮想空間におけるカメラ11の位置及び姿勢が修正される(S09)。また、この際(S08)に画像からマーカが検出された場合(S08のYES)、表示部15によって、検出されたマーカの仮想空間における位置と、複数の仮想位置のうち、当該検出されたマーカの仮想空間における位置に応じた仮想位置とが一致するようにカメラ11の位置及び姿勢が修正される(S10)。カメラ11の位置及び姿勢の修正に用いられる仮想位置は、検出されたマーカの仮想空間における位置に最も近い仮想位置である。
S09又はS10の処理に続いて、表示部15によって、修正されたカメラ11の位置及び姿勢に応じてCGモデルが当該画像に重ね合わせられてディスプレイ12に表示される(S11)。上記のS06〜S11の処理は、繰り返し行われる。これによって、マーカが検出されない場合にはカメラの移動状態に追従してCGモデルが画像に表示され、マーカが検出された場合にはマーカに基づく位置合わせが行われた上でCGモデルが画像に表示される。以上が、本実施形態に係るスマートデバイス10で実行される処理である。
本実施形態によれば、複数の同一のマーカを用いて撮像された画像に仮想物を重ね合わせて表示させる際の位置合わせを行うことができる。そのため、複数のマーカをそれぞれ異なるものにせずに位置合わせを行うことができる。また、スマートデバイス10における予めの仮想位置の設定も、それぞれ異なる複数のマーカへの対応付けをせずに行うことができる。従って、本実施形態によれば、簡易に当該位置合わせを行うことができる。その結果、仮想物を適切に画像に表示することができ、ユーザが画像に重ね合わせられた仮想物を適切に認識することができる。
また、本実施形態のように位置合わせに用いる仮想位置は、検出したマーカの仮想空間における位置に最も近いものを用いることしてもよい。この構成によれば、確実かつ適切に位置合わせを行うことができる。
また、本実施形態のように複数の同一のマーカの何れかを用いてカメラの位置及び姿勢の初期設定をすることとしてもよい。この構成によれば、複数の同一のマーカを用いて、自身が把握するカメラの位置及び姿勢の初期設定を行うことができる。従って、初期設定のための上記のマーカとは異なるマーカを設ける必要がない。但し、上述したように1つの初期設定用マーカを用いて初期設定を行ってもよい。
また、本実施形態のように建設現場に引かれた基準線Lの交点P部分をマーカとして利用することとしてもよい。この構成によれば、建設現場に設けられる通り芯墨、通り芯逃げ墨等の線を用いて位置合わせを行うことができる。従って、位置合わせ用のみに用いられるマーカを特別に設けずに位置合わせを行うことができる。但し、マーカとして、必ずしも基準線Lを利用したものを利用する必要はなく、任意のマーカを利用してもよい。
なお、本実施形態は、建設現場において撮像された画像に仮想物を重ね合わせて表示させるものであった。しかしながら、必ずしも撮像される場所は建設現場である必要はなく、任意の場所で撮像された画像に対して本発明が適用されてもよい。
また、本実施形態に係る画像表示装置は、スマートデバイス10であることとしたが、同様のハードウェア及び機能を有するものであれば、スマートデバイス10以外の装置であってもよい。例えば、ウェアラブルデバイスであってもよい。また、本実施形態に係る機能は、全てスマートデバイス10に備えられていなくてもよい。例えば、画像入力部14、表示部15及び移動状態入力部16の少なくとも一部の機能が、スマートデバイス10と通信可能なサーバ装置に備えられていてもよい。その場合、スマートデバイス10とサーバ装置とが、本発明に係る画像表示装置を構成する。また、本発明に係る画像表示装置は、画像入力部14、表示部15及び移動状態入力部16を備えていればよいため、サーバ装置が、画像入力部14、表示部15及び移動状態入力部16の全ての機能を備えている場合には、サーバ装置のみが、本発明に係る画像表示装置を構成する。
10…スマートデバイス、11…カメラ、12…ディスプレイ、13…センサ、14…画像入力部、15…表示部、16…移動状態入力部。

Claims (4)

  1. 現実空間においてカメラによって撮像された画像を入力する画像入力手段と、
    前記現実空間に対応する仮想空間において位置決めされた仮想物を記憶しておき、前記画像入力手段によって入力された画像が撮像された際のカメラの位置及び姿勢に応じて仮想物を当該画像に重ね合わせて表示させる表示手段と、
    前記カメラの移動状態を示す移動状態情報を入力する移動状態入力手段と、を備え、
    前記表示手段は、前記移動状態入力手段によって入力された移動状態情報に応じて、自身が把握する前記カメラの位置及び姿勢を修正し、
    前記表示手段は、予め前記現実空間に位置決めされて設けられる複数のマーカに対応する前記仮想空間における複数の仮想位置を記憶しておき、前記画像入力手段によって入力された画像から前記複数のマーカのうちの1つを検出して、検出したマーカの前記仮想空間における位置と、前記複数の仮想位置のうち、当該検出したマーカの前記仮想空間における位置に応じた仮想位置とが一致するように、自身が把握する前記カメラの位置及び姿勢を修正する、画像表示装置。
  2. 前記表示手段は、検出したマーカの前記仮想空間における位置と、前記複数の仮想位置のうち、検出したマーカの前記仮想空間における位置に最も近い仮想位置とが一致するように、自身が把握する前記カメラの位置及び姿勢を修正する請求項1に記載の画像表示装置。
  3. 前記表示手段は、前記画像入力手段によって入力された画像から前記複数のマーカのうちの1つを検出すると共に当該検出したマーカに対応する仮想位置の指定を受け付けて、検出したマーカの前記仮想空間における位置と、指定された仮想位置とが一致するように、自身が把握する前記カメラの位置及び姿勢を設定する請求項1又は2に記載の画像表示装置。
  4. 前記表示手段は、前記現実空間に引かれた複数の線の交点部分を前記マーカとして検出する請求項1〜3の何れか一項に記載の画像表示装置。
JP2019097775A 2019-05-24 2019-05-24 画像表示装置 Active JP7245713B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019097775A JP7245713B2 (ja) 2019-05-24 2019-05-24 画像表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019097775A JP7245713B2 (ja) 2019-05-24 2019-05-24 画像表示装置

Publications (2)

Publication Number Publication Date
JP2020194214A true JP2020194214A (ja) 2020-12-03
JP7245713B2 JP7245713B2 (ja) 2023-03-24

Family

ID=73547560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097775A Active JP7245713B2 (ja) 2019-05-24 2019-05-24 画像表示装置

Country Status (1)

Country Link
JP (1) JP7245713B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7042380B1 (ja) 2021-09-15 2022-03-25 株式会社日立プラントコンストラクション 表示装置、プログラムおよび表示方法
WO2024070763A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、撮影システム、情報処理方法、プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123376A (ja) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp 仮想オブジェクトの配置補正
JP2019066292A (ja) * 2017-09-29 2019-04-25 株式会社Nttドコモ 映像表示システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123376A (ja) * 2012-12-21 2014-07-03 Dassault Systemes Delmia Corp 仮想オブジェクトの配置補正
JP2019066292A (ja) * 2017-09-29 2019-04-25 株式会社Nttドコモ 映像表示システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7042380B1 (ja) 2021-09-15 2022-03-25 株式会社日立プラントコンストラクション 表示装置、プログラムおよび表示方法
JP2023042981A (ja) * 2021-09-15 2023-03-28 株式会社日立プラントコンストラクション 表示装置、プログラムおよび表示方法
WO2024070763A1 (ja) * 2022-09-29 2024-04-04 ソニーグループ株式会社 情報処理装置、撮影システム、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP7245713B2 (ja) 2023-03-24

Similar Documents

Publication Publication Date Title
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
US11094120B2 (en) Inspection processing system, inspection processing method, and inspection processing program
US10482659B2 (en) System and method for superimposing spatially correlated data over live real-world images
US11378383B2 (en) Plant facility apparatus recognition system and plant facility apparatus recognition method
US8249393B2 (en) Image processing apparatus and image processing method
Hübner et al. Marker-based localization of the microsoft hololens in building models
JP6438995B2 (ja) 図面投影システム、図面投影方法及びプログラム
WO2020195875A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN110388919B (zh) 增强现实中基于特征图和惯性测量的三维模型定位方法
WO2021138940A1 (zh) 面向增强和混合现实的远程虚实高精度匹配定位的方法
JP7245713B2 (ja) 画像表示装置
JP6778631B2 (ja) 建物設計情報修正支援装置、建物設計情報修正支援方法、及びプログラム
US20230142960A1 (en) Construction of formwork and scaffolding using mobile devices
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP2023102537A (ja) 作業支援システム、作業支援方法及び作業支援プログラム
KR102263836B1 (ko) 생산 라인에서의 작업자 위치 인식 방법 및 그 장치
JP7207915B2 (ja) 投影システム、投影方法及びプログラム
JP2010170288A (ja) 3次元モデリング装置
JP2021047516A (ja) 情報処理装置、座標変換システム、座標変換方法、及び座標変換プログラム
JP7274782B1 (ja) 建屋内構造物認識システム及び建屋内構造物認識方法
US12038279B2 (en) Inspection processing system, inspection processing method, and inspection processing program
US20210295557A1 (en) Device and method for position determination in a 3d model of an environment
KR101702518B1 (ko) 구조물 정보 제공 장치
JP2024046197A (ja) 支援装置、支援方法、及び支援プログラム
EP3674660A2 (en) A computer-implemented method, a computer program product, and an apparatus for facilitating placement of a surveying tool

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230313

R150 Certificate of patent or registration of utility model

Ref document number: 7245713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150