JP6182734B2 - 表示制御装置 - Google Patents

表示制御装置 Download PDF

Info

Publication number
JP6182734B2
JP6182734B2 JP2013133818A JP2013133818A JP6182734B2 JP 6182734 B2 JP6182734 B2 JP 6182734B2 JP 2013133818 A JP2013133818 A JP 2013133818A JP 2013133818 A JP2013133818 A JP 2013133818A JP 6182734 B2 JP6182734 B2 JP 6182734B2
Authority
JP
Japan
Prior art keywords
information
display control
virtual model
user
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013133818A
Other languages
English (en)
Other versions
JP2015011368A (ja
Inventor
康平 新井
康平 新井
章博 芹田
章博 芹田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Original Assignee
NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY filed Critical NATIONAL UNIVERSITY CORPORATION SAGA UNIVERSITY
Priority to JP2013133818A priority Critical patent/JP6182734B2/ja
Publication of JP2015011368A publication Critical patent/JP2015011368A/ja
Application granted granted Critical
Publication of JP6182734B2 publication Critical patent/JP6182734B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、被撮像対象の作業状態を仮想現実(VR:Virtual Reality)や拡張現実(AR:Augmented Reality)で表示する表示制御装置に関する。
近年、コンピュータの高性能化により、VRやARの技術が急速に広がり日常的に活用されている。ARやその他のセンサを用いて日常生活の支援を行うための技術として、例えば、非特許文献1に示す技術が開示されている。非特許文献1に示す技術は、ユーザの姿勢や位置を測定すると共に現実の映像を撮像し、拡張現実で注釈を付加した画像を眼鏡に取り付けられたヘッドマウントディスプレイ(HMD)に表示する技術が開示されている。
また、拡張現実やHMDの技術を建築現場や建築後の建物内部の提示に応用する技術が非特許文献2や特許文献1に開示されている。非特許文献2には、建築現場の丁張り・計測側線のAR表示、杭位置のVRマークの表示、VR建物のAR表示、その内部のウォークスルーが可能であることが記載されている。また、特許文献1に示す技術は、複数の撮影装置で撮影された室内空間の実映像を取得し、同じ室内空間の仮想モデルを仮想視点から見た仮想映像と取得した実映像とを比較することにより、実映像と仮想モデルとの対応関係を算出し、実映像中のテクスチャをマッピングさせる仮想モデルの面領域を指定し、形状変換後の実映像中の部分領域を面領域にマッピングし、テクスチャマッピング後の仮想モデルを任意の視点から見たVR画像を生成し、表示装置に表示するものである。
特開2006−040053号公報
木戸出 正継、"ポータブルからウェアラブルへ 日常生活を拡張する着用指向情報パートナーの開発"、[online]、2005年9月12日、第11回NAIST産学連携フォーラム発表資料、[2013年5月26日検索]、インターネット<http://www.science-plaza.or.jp/about/sankangaku/forum11/kidode.pdf> 今井 博、"AR技術を用いた現場支援システムの研究"、[online]、大成建設技術センター報 2008年 NO.41、[2013年6月17日検索]、インターネット<http://www.taisei.co.jp/giken/report/2008_41/intro/C041_056.htm>
上記各非特許文献及び特許文献に示す技術は、いずれも利用者の作業や動作を支援する技術であるものの、作業の工程が進むのに伴う被撮像対象の変化等を表示できるものではない。
本発明は、作業に伴う被撮像対象の状態の変化をVRやAR等でリアルタイムに、又は、シミュレーションで表示して確認することができる表示制御装置を提供する。
本発明に係る表示制御装置は、カメラで撮像された被撮像対象の撮像データを入力する撮像データ入力手段と、前記カメラ又は当該カメラを保持する利用者の位置と姿勢に関する情報を入力する位置姿勢入力手段と、前記被撮像対象の状態に変化を生じさせる要素に関する情報を入力する要素情報入力手段と、表示対象となる前記被撮像対象の仮想モデルを記憶する記憶手段と、入力された前記位置と姿勢に関する情報及び前記要素に関する情報、並びに、記憶された前記仮想モデルの情報に基づいて、前記カメラの撮像方向から見た場合の前記被撮像対象の状態を示す状態仮想モデルを演算し、入力された前記撮像データと演算された前記状態仮想モデルとを合成する画像演算手段と、合成された合成画像を表示する表示手段とを備えるものである。
このように、本発明に係る表示制御装置においては、入力されたカメラ又はカメラを保持する利用者の位置と姿勢に関する情報、及び、被撮像対象の状態に変化を生じさせる要素に関する情報、並びに、予め記憶された被撮像対象の仮想モデルの情報に基づいて、カメラの撮像方向から見た場合の被撮像対象の状態を示す状態仮想モデルを演算し、カメラで撮像された撮像データと演算された状態仮想モデルとを合成した合成画像を表示することで、被撮像対象の状態をARで確認することができ、作業効率の向上に役立てることができるという効果を奏する。
本発明に係る表示制御装置は、前記要素に関する情報が、当該要素の動作情報に基づくものである。
このように、本発明に係る表示制御装置においては、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の動作情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。
また、被撮像対象の状態に変化を生じさせる要素の動作情報から状態仮想モデルが演算されるため、被撮像対象の状態変化を要素の動作情報から検出して、正確な状態仮想モデルを演算することができるという効果を奏する。
本発明に係る表示制御装置は、前記要素に関する情報が、前記被撮像対象を構成する部材の情報に基づくものである。
このように、本発明に係る表示制御装置においては、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の情報である被撮像対象を構成する部材の情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。
また、被撮像対象の状態に変化を生じさせる要素の情報である被撮像対象を構成する部材の情報から状態仮想モデルが演算されるため、被撮像対象の状態変化を被撮像対象の構成部材から検出して、正確な状態仮想モデルを演算することができるという効果を奏する。
本発明に係る表示制御装置は、前記撮像データが、眼鏡に装着された前記カメラで当該眼鏡を掛けた利用者の顔向き方向における前記被撮像対象を撮像したものであり、前記カメラ又は前記利用者の位置と姿勢に関する情報が、前記眼鏡に装着されたセンサで測定された情報に基づくものであり、前記表示手段を、前記眼鏡に装着された単眼のヘッドマウントディスプレイとするものである。
このように、本発明に係る表示制御装置においては、眼鏡に、利用者の顔向き方向を撮像するカメラ、当該カメラの位置と姿勢に関する情報を取得する各種センサ、合成画像を表示する単眼のヘッドマウントディスプレイが装着されており、カメラの位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素情報に基づいて、状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができるという効果を奏する。
本発明に係る表示制御装置は、前記眼鏡に装着され、前記利用者の目領域を撮像する視線カメラで撮像された情報を入力する視線情報入力手段と、入力された前記目領域の撮像情報に基づいて、前記利用者の視線方向を検出する視線方向検出手段と、検出された前記視線方向に基づいて、前記利用者の入力指示を特定する入力指示特定手段とを備え、前記画像演算手段が、特定された前記入力指示に基づいて、前記合成画像の補正を行うものである。
このように、本発明に係る表示制御装置においては、利用者の視線を検出し、視線による入力指示を特定するため、利用者の操作が簡単となり、例えば他の作業中であっても目線の移動のみでディスプレイの表示状態を制御することができるという効果を奏する。
本発明に係る表示制御装置は、前記入力指示特定手段が、前記利用者からの任意の視点及び視線方向の入力指示を特定した場合に、前記画像演算手段が、特定された前記視点及び視線方向から見た前記状態仮想モデルを演算し、前記表示手段が、前記合成画像のうちの前記状態仮想モデルのみを表示するものである。
このように、本発明に係る表示制御装置においては、利用者からの任意の視点及び視線方向の入力指示を特定した場合に、特定された視点及び視線方向から見た状態仮想モデルを演算し、状態仮想モデルのみをディスプレイに表示するため、利用者が指定した任意の視点や視線方向からの撮像対象の状態をVRで確認することができ、作業効率を上げることができるという効果を奏する。
本発明に係る表示制御装置は、前記記憶手段が、前記被撮像対象に対する作業工程に関する情報を記憶し、前記画像演算手段が、前記作業工程に関する情報に基づいて、所定の作業工程における前記状態仮想モデルを演算するものである。
このように、本発明に係る表示制御装置においては、被撮像対象に対する作業工程に関する情報を記憶し、当該作業工程に関する情報に基づいて、所定の作業工程における状態仮想モデルを演算するため、作業工程ごとに被撮像対象の状態をARで確認することができ、作業効率を上げることができるという効果を奏する。
地盤改良を行う場合の現地を模式的に示した図である。 第1の実施形態に係る表示制御装置の構成を示す機能ブロック図である。 撮像データ及び3次元状態仮想モデルの一例を示す図である。 撮像データ及び3次元状態仮想モデルを合成した合成画像の一例を示す図である。 撮像データ及び3次元状態仮想モデルの一例を示す図である。 撮像データ及び3次元状態仮想モデルを合成した合成画像の一例を示す図である。 第1の実施形態に係る表示制御装置の動作を示すフローチャートである。 第2の実施形態に係る表示制御装置の装着イメージを示す図である。 第2の実施形態に係る表示制御装置における利用者の動作に伴う3次元状態仮想モデルの変化を示す図である。 第3の実施形態に係る表示制御装置の構成を示す機能ブロック図である。 第3の実施形態に係る表示制御装置における視線演算部の構成を示す機能ブロック図である。 第4の実施形態に係る表示制御装置の構成を示す機能ブロック図である。
以下、本発明の実施の形態を説明する。本発明は多くの異なる形態で実施可能である。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。
(本発明の第1の実施形態)
本実施形態に係る表示制御装置について、図1ないし図7を用いて説明する。本実施形態に係る表示制御装置は、仮想現実(VR)や拡張現実(AR)の技術を用いて、被撮像対象に対する作業中の状態を表示して確認することができるものである。また、作業後の被撮像対象の表示についても行うと共に、各種センサを用いて利用者の動作に伴って様々な状態で被撮像対象を表示制御することができるものである。
本実施形態においては、例えば、建築現場における地盤改良や建物の建築の状態をARやVRの技術を用いて表示制御するものとする。なお、建築現場に限らず、様々な場所(例えば、製造を行う工場、植栽等の現場、飲食店等)において本実施形態に係る表示制御装置を適用することが可能である。
図1は、地盤改良を行う場合の現地を模式的に示した図である。ここでは、仮に、南北に流れる河川と東西に通過する道路とに囲まれた領域について地盤改良を行うものとする。地盤改良は通常、図1に示すように、対象領域を格子状に区画し各区画ごとに作業を行う。作業は、建機のアーム先端に取り付けられた攪拌機の回転により地面を掘削しながら土砂や固化材を攪拌して行われる。対象領域を格子状に区画することで、作業対象の領域や作業が完了している領域を区分して識別することができるが、現地に実際に格子状の区画線を描画する必要があり作業効率の低下の原因となっている。
本実施形態においては、利用者の位置、姿勢の情報から、当該利用者の視点から見た地盤改良の状態を3次元仮想モデルで作成し、現実の撮像に重ねて表示する。そうすることで、現地に実際に区画線等を行う必要がなく、また、作業管理もコンピュータ上で容易に行うことが可能となる。
図2は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。表示制御装置1は、カメラ21で撮像された撮像データを入力する撮像データ入力部2と、センサ部22で測定されたカメラ21又は当該カメラ21を保持する利用者の位置及び姿勢の情報を入力する位置姿勢入力部3と、被撮像対象に変化を生じさせる要素に関する要素情報23を入力する要素情報入力部4と、記憶部7に記憶された被撮像対象の3次元仮想モデルを読み出し、入力された位置・姿勢情報及び要素情報からカメラ21の視点から見た3次元状態仮想モデルを生成し、当該生成した3次元状態仮想モデルと入力された撮像データとを合成する演算部5と、演算された合成画像をディスプレイ24に表示する表示制御手段6とを備える。
カメラ21は、図1の地盤改良の場合、建機の外側又は運転席内の任意の位置を視点とし、所定の方向を撮像するように固定して設置されている。所定の方向とは、例えば、作業を行う対象物がある方向であり、この場合は建機の前方となる。すなわち、カメラ21は常時、作業領域の方向を動画又は静止画で撮像している。図3(A)に、カメラ21で撮像された静止画像の一例を示す。図1における建機の運転席から作業対象となる地盤の方向、すなわち建機の前方方向を撮像した画像である。
センサ部22もカメラ21と同様に建機の外側又は運転席内の任意の位置に設置され、カメラ21の位置(例えば、GPSレシーバを利用)及び姿勢(例えば、加速度センサやジャイロセンサを利用)を測定する。このとき、各センサはカメラ21自体に設置することが困難であるため、建機の位置及び姿勢の変化を測定してカメラ21の位置及び姿勢の情報に置き換えるものとする。
なお、建機の運転席内にGPSレシーバを設置した場合には位置情報を取得できない可能性もあるため、GPSレシーバは建機の外側に設置されることが望ましい。その場合、GPSレシーバが設置された位置とカメラ21が設置された位置との相対関係に基づいて、GPSレシーバが取得した位置情報を後述する演算部5の処理により補正することで、カメラ21の正確な位置情報を取得できるようにしてもよい。
要素情報23は、攪拌機が移動した経路や深さの情報であり、これらの情報は、建機のアーム先端に取り付けられたセンサから取得してもよいし、建機の操作履歴からアームの移動を計算して要素情報23としてもよい。すなわち、要素情報23は、被撮像対象である地盤に変化を生じさせる要素(ここでは、攪拌機)に関する情報(ここでは、移動情報)である。
演算部5は、記憶部7に格納されている地盤改良の3次元仮想モデルを読み出し、位置姿勢入力部3が入力したカメラ21の位置及び姿勢の情報と、要素情報入力4が入力した攪拌機の移動情報とに基づいて、カメラ21から見た地盤改良の3次元状態仮想モデルを生成する。図3(B)に、生成された3次元状態仮想モデルの一例を示す。斜線領域は攪拌機が移動した経路、すなわち地盤改良の作業が完了した領域を示している。図3(B)において、区画31〜区画33は、攪拌機が改良を必要とする最大深度を通過して作業が行われたことを示しており、区画34及び区画35については、攪拌機が改良を必要とする最大深度の2/3を通過して作業が行われたことを示し、区画36及び区画37については、攪拌機が改良を必要とする最大深度の1/3を通過して作業が行われたことを示している。すなわち、区画31〜区画33については、地盤改良の作業が完了し、区画34〜区画37については途中段階であり、その他の区画については未着手であることを3次元状態仮想モデルで示している。
そして、演算部5は、カメラ21で撮像された撮像データと3次元状態仮想モデルを合成し、当該合成された画像は表示制御部6によりディスプレイ24に表示される。図4は、合成画像の表示の一例を示す図である。図4に示すように、現実の撮像データと仮想の3次元状態仮想モデルを重ね合わせることで、ARによる地盤改良の作業状態を表示することができる。
なお、カメラ21、センサ部22、攪拌機に関する情報を要素情報23として測定するセンサ、ディスプレイ24等は、建機に一体的に備え付けられてもよいし、外付けで設置されてもよい。同様に、表示制御装置1自体も、建機と一体的な装置と捉えてもよいし、別体として設置されてもよい。
次に、建物を建築する場合の本実施形態に係る表示制御装置の処理について具体例を挙げて説明する。図5(A)は、カメラ21で撮像された静止画像の一例を示す図である。これは、建築予定となる土地に住宅の基礎のみが出来上がった状態を撮像したものである。図5(B)は、演算部5が生成した3次元状態仮想モデルを示している。この3次元状態仮想モデルは、入力された位置及び姿勢に関する情報と要素情報23とに基づいて生成されるが、ここでは、要素情報23として被撮像対象である住宅を構成する部材に関する情報が入力されている。すなわち、図5(B)の例では、設計図等の情報に基づいて、住宅の1階部分の躯体を構成する木材の種類と数量の情報が要素情報23として入力され、それらの部材により構成される被撮像対象の3次元状態仮想モデルが生成されている。
そして、図6に示すように、演算部5が、カメラ21で撮像された撮像データと3次元状態仮想モデルを合成し、当該合成された画像は表示制御部6によりディスプレイ24に表示される。現実の撮像データと仮想の3次元状態仮想モデルを重ね合わせることで、ARによる建物建築の作業状態を表示することができる。
図7は、本実施形態に係る表示制御装置の動作を示すフローチャートである。まず、位置姿勢入力部3が、各センサ部22からの測定結果をカメラの位置及び姿勢の情報として入力する(S1)。要素情報入力部4が、被撮像対象の変化を生じる要素の情報(例えば、地盤改良の場合はアーム先端部の動作情報、建物の建築の場合は当該建物を構成する部材等の情報)を要素情報23として入力する(S2)。演算部5は、予め被撮像対象の3次元モデルが格納されている記憶部7から当該3次元モデルを読み込み(S3)、入力されたカメラの位置及び姿勢の情報と、要素の情報とに基づいて、カメラ21の視点から見た3次元モデルの現在の状態を演算して3次元状態仮想モデルを生成する(S4)。撮像データ入力部2が、カメラの映像を撮像データとして入力し(S5)、演算部5が、生成された3次元状態仮想モデルと入力された撮像データとを合成し、表示制御部6が合成された合成画像をディスプレイ24に表示して(S6)、処理を終了する。
このように、本実施形態に係る表示制御装置1によれば、カメラの位置と姿勢に関する情報、及び、被撮像対象の状態に変化を生じさせる要素に関する要素情報23、並びに、予め記憶部7に記憶された被撮像対象の3次元仮想モデルの情報に基づいて、カメラの撮像方向から見た場合の被撮像対象の状態を示す3次元状態仮想モデルを演算し、カメラ21で撮像された撮像データと演算された3次元状態仮想モデルとを合成した合成画像を表示することで、被撮像対象の状態をARで確認することができ、作業効率の向上に役立てることができる。
また、カメラ21の位置と姿勢とに関する情報、及び、被撮像対象の状態に変化を生じさせる要素の動作情報や被撮像対象を構成する部材の情報に基づいて、3次元状態仮想モデルが演算されるため、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができる。
(本発明の第2の実施形態)
本実施形態に係る表示制御装置について、図8及び図9を用いて説明する。なお、本実施形態において、前記第1の実施形態と重複する説明は省略する。
図8(A)の場合は、利用者の顔向き方向を撮像するカメラ21と利用者の目側に画像を出力するディスプレイ24を眼鏡80に配設し、利用者がその眼鏡80を掛けた状態で被撮像対象の撮像や表示を行う。図8(A)においては、検出装置81に、眼鏡80を掛けた利用者の位置及び姿勢を検知するセンサ(GPSレシーバ、加速度センサ、ジャイロセンサ等)が内蔵されており、各測定が行われる。測定データやその他データの管理、各処理の制御、通信の制御等については、検出装置81が行うようにしてもよいし、必要に応じて利用者が制御装置82を保持することで、制御装置82が行うようにしてもよい。
この場合、利用者が保持している検出装置81からの測定情報に基づいて、演算部5が3次元状態仮想モデルを生成し、カメラ21で撮像された利用者の顔向き方向の撮像データと合成する。合成された合成画像は、眼鏡80に配設されたディスプレイ24に表示される。利用者は、現実の風景とディスプレイ24に表示されたARの画像を見比べながら作業等を行うことができる。
図8(B)においては、利用者の顔向き方向を撮像するカメラ21と利用者の目側に画像を出力する単眼ディスプレイ24とを眼鏡80に配設しており、さらに、GPSレシーバ83、加速度センサ84及びジャイロセンサ85を備える構成となっている。また、各装置を管理するための制御装置82又は検出装置81を利用者が保持しておく。この場合、眼鏡80に配設されている各センサの情報に基づいて、演算部5が3次元状態仮想モデルを生成し、カメラ21で撮像された利用者の顔向き方向の撮像データと合成する。合成された合成画像は、眼鏡80に配設された単眼のヘッドマウントディスプレイ24に表示される。利用者は、現実の風景とディスプレイ24に表示されたARの画像を見比べながら作業等を行うことができる。
いずれの構成においても、必要な装置を利用者が身につけることができるため、装置構成を簡素化することができると共に、位置及び姿勢等の検出を正確に行うことが可能となる。また、検出装置81や制御装置82として、現在著しく進歩している携帯端末を利用することで、装置の製造工程を簡素化すると共に、アプリケーションに応じて各装置をフレキシブルに利用することができる。
図9は、本実施形態に係る表示制御装置を身につけた状態での、位置及び姿勢の変化による表示画像の動作の一例を示す図である。ここでは、3次元の仮想の建物の中にいる状態での利用者から見た情景の3次元状態仮想モデルの一例を示したものである。図9(A)は、利用者が上を見上げた場合、図9(B)は利用者が下を見下ろした場合を示している。それぞれ、建物の天井部分と床部分とが表示されており、利用者の姿勢に応じて3次元状態仮想モデルが対応して変化していることがわかる。
図9(C)は利用者が左に転回した場合、図9(D)は利用者が右に転回した場合の3次元状態仮想モデルを示している。図9(A)、(B)の場合と同様に、利用者の姿勢に応じて3次元状態仮想モデルが対応して変化していることがわかる。
図9(E)は利用者が後退した場合、図9(F)は利用者が前進した場合の3次元状態仮想モデルを示している。利用者の位置が変わることで、それに応じて3次元状態仮想モデルが対応して変化していることがわかる。
図9(G)は1階のフロアが表示されており、図9(H)は2階のフロアが表示されたものである。これは、利用者が実際に高さ方向に移動できない場合が多いため、ジャンプの操作を検出する。利用者がジャンプすることで、その振動と方向を検知し、同一位置における2階フロアの3次元状態仮想モデルが生成される。なお、さらにジャンプすることで、より上層階への移動操作を行うことができ、最上階においてジャンプすると下層への移動操作を行うことができるようにしてもよい。
このように、本実施形態に係る表示制御装置においては、眼鏡80に、利用者の顔向き方向を撮像するカメラ21、利用者の位置及び姿勢、又は、眼鏡80の位置及び姿勢を検知し、当該検知した情報をカメラ21の位置及び姿勢の情報として取得する各種センサ、撮像データと生成された3次元状態仮想モデルとを合成した合成画像を表示するヘッドマウントディスプレイが装着されており、利用者の視点でリアルなARを表示することが可能になると共に、実際の現実を見ながらAR画像を見て効率よく作業を行うことができる。
なお、第1の実施形態で説明した地盤改良において本実施形態に係る表示制御装置1を適用する場合、利用者は建機の運転席内にいるため、眼鏡80に配設されたGPSレシーバが運転席内に存在し、位置情報を取得できない可能性がある。その場合、建機の外側にGPSレシーバを設置し、GPSレシーバの位置と運転席の位置との相対関係からカメラ21の位置情報を割り出してもよい。
(本発明の第3の実施形態)
本実施形態に係る表示制御装置について、図10及び図11を用いて説明する。なお、本実施形態において、前記各実施形態と重複する説明は省略する。
図10は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。図10において、前記第1の実施形態における図2の場合と異なるのは、視線カメラ9で撮像された目の画像に基づいて視線方向の演算を行って、利用者の入力指示を特定する視線演算部8を備えることである。
視線演算部8は、視線カメラ9で撮像された目の画像データに基づいて利用者の視線方向を演算して、入力指示を特定し、当該特定された入力指示情報を演算部5に送る。演算部5は、取得した入力指示情報に応じて3次元状態仮想モデルの演算や合成画像の補正を行う。
視線演算部8の処理について、より詳細に説明する。図11は、本実施形態に係る表示制御装置における視線演算部8の構成を示す機能ブロック図である。視線演算部8は、眼鏡80の目側を撮像する視線カメラ9の撮像データを入力する視線情報入力部11と、入力された目の撮像データから視線方向を特定する視線方向検出部12と、検出された視線方向と、予め登録された視線方向に対応する入力指示情報を記憶する視線入力記憶部14とに基づいて、利用者が視線で入力した入力指示情報を特定する入力指示特定部13とを備える。視線方向の検出は、既存の技術を用いて行うことが可能であり、例えば、黒目部分の動作を検出してもよいし、白目部分の領域の変化に基づいて視線方向を検出してもよい。
演算部5は、特定された入力指示情報に基づいて、3次元状態仮想モデルの演算や合成画像の補正を行う。例えば、入力情報として視点位置、視点方向が特定された場合には、その特定された視点位置及び視点方向から見た3次元状態仮想モデルを生成する。その際、カメラ21で撮像された撮像データと生成された3次元状態仮想モデルは視点が一致しないため、ここでは画像の合成を行わず、VRでの表示制御が行われる。また、例えば、カメラ21で撮像した撮像データと3次元状態仮想モデルの合成画像にズレを生じているような場合には、視線により補正情報を入力することで(例えば、3次元状態仮想モデルの位置、角度を視線の向きに応じて変化させることで)、合成画像の表示状態が補正され、撮像データとの整合性を取ることができる。
このように、本実施形態に係る表示制御装置1においては、利用者の視線を検出し、視線による入力指示を特定するため、利用者の操作が簡単となり、例えば他の作業中であっても目線の移動のみでディスプレイの表示状態を制御することができる。
また、利用者からの任意の視点及び視線方向の入力指示を特定した場合に、特定された視点及び視線方向から見た状態仮想モデルを演算し、状態仮想モデルのみをディスプレイに表示するため、利用者が指定した任意の視点や視線方向からの撮像対象の状態をVRで確認することができ、作業効率を上げることができる。
(本発明の第4の実施形態)
本実施形態に係る表示制御装置について、図12を用いて説明する。なお、本実施形態において、前記各実施形態と重複する説明は省略する。
図12は、本実施形態に係る表示制御装置の構成を示す機能ブロック図である。図12において、前記第1の実施形態における図2の場合と異なるのは、記憶部7に被撮像対象に対する作業の作業工程に関する情報を格納していることである。作業工程に関する情報は、例えば、いつまでにどの程度の作業を完了させるかのスケジュール情報である。また、各スケジュールに付加して使用する材料や部品等を関連付けておいてもよい。
演算部5は、要素情報23の一つとして入力された時期に関する情報(例えば、○○月××日、○○日後、○○時間後等の経時的な要素を含む情報)に基づいて、この時期に当てはまる作業状態を記憶部7に格納された作業工程情報から演算し、当該作業状態となるように3次元状態仮想モデルを生成する。生成されたモデルは、上記と同様に撮像データと合成されてディスプレイ24に表示される。
このように、本実施形態に係る表示制御装置においては、被撮像対象に対する作業工程に関する情報を記憶し、当該作業工程に関する情報に基づいて、所定の作業工程における状態仮想モデルを演算するため、作業工程ごとに被撮像対象の状態をARで確認することができ、作業効率を上げることができる。
1 表示制御装置
2 撮像データ入力部
3 位置姿勢入力部
4 要素情報入力部
5 演算部
6 表示制御部
7 記憶部
8 視線演算部
9 視線カメラ
11 視線情報入力部
12 視線方向検出部
13 入力指示特定部
14 視線入力記憶部
21 カメラ
22 センサ部
23 要素情報
24 ディスプレイ
80 眼鏡
81 検出装置
82 制御装置
83 GPSレシーバ
84 加速度センサ
85 ジャイロセンサ

Claims (6)

  1. 地面を掘削しながら攪拌して行われる地盤改良の作業状態を表示する表示制御装置であって、
    前記地盤改良の対象となる作業領域をカメラで撮像し、撮像された前記作業領域の撮像データを入力する撮像データ入力手段と、
    前記カメラ又は当該カメラを保持する利用者の位置と姿勢に関する情報を入力する位置姿勢入力手段と、
    前記作業領域の状態に変化を生じさせる前記建機の動作情報を入力する要素情報入力手段と、
    表示対象となる前記作業領域の仮想モデルを記憶する記憶手段と、
    入力された前記位置と姿勢に関する情報及び前記建機の動作情報、並びに、記憶された前記仮想モデルの情報に基づいて、前記カメラの撮像方向から見た場合の前記作業領域地中の深さ方向の状態を含む3次元の状態仮想モデルを演算し、入力された前記撮像データと演算された前記状態仮想モデルとを合成する画像演算手段と、
    合成された合成画像を表示する表示手段とを備えることを特徴とする表示制御装置。
  2. 請求項1に記載の表示制御装置において、
    前記画像演算手段が、前記状態仮想モデルを作業領域に応じてマトリックス状に区画して生成することを特徴とする表示制御装置。
  3. 請求項1又は2に記載の表示制御装置において、
    前記撮像データが、眼鏡に装着された前記カメラで当該眼鏡を掛けた利用者の顔向き方向における前記作業領域を撮像したものであり、前記カメラ又は前記利用者の位置と姿勢に関する情報が、前記眼鏡に装着されたセンサで測定された情報に基づくものであり、前記表示手段が、前記眼鏡に装着された単眼のヘッドマウントディスプレイであることを特徴とする表示制御装置。
  4. 請求項3に記載の表示制御装置において、
    前記眼鏡に装着され、前記利用者の目領域を撮像する視線カメラで撮像された情報を入力する視線情報入力手段と、
    入力された前記目領域の撮像情報に基づいて、前記利用者の視線方向を検出する視線方向検出手段と、
    検出された前記視線方向に基づいて、前記利用者の入力指示を特定する入力指示特定手段とを備え、
    前記画像演算手段が、特定された前記入力指示に基づいて、前記合成画像の補正を行うことを特徴とする表示制御装置。
  5. 請求項4に記載の表示制御装置において、
    前記入力指示特定手段が、前記利用者からの任意の視点及び視線方向の入力指示を特定した場合に、前記画像演算手段が、特定された前記視点及び視線方向から見た前記状態仮想モデルを演算し、前記表示手段が、前記合成画像のうちの前記状態仮想モデルのみを表示することを特徴とする表示制御装置。
  6. 請求項1ないしのいずれかに記載の表示制御装置において、
    前記記憶手段が、前記作業領域に対する作業工程に関する情報を記憶し、
    前記画像演算手段が、前記作業工程に関する情報に基づいて、所定の作業工程における前記状態仮想モデルを演算することを特徴とする表示制御装置。
JP2013133818A 2013-06-26 2013-06-26 表示制御装置 Active JP6182734B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133818A JP6182734B2 (ja) 2013-06-26 2013-06-26 表示制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133818A JP6182734B2 (ja) 2013-06-26 2013-06-26 表示制御装置

Publications (2)

Publication Number Publication Date
JP2015011368A JP2015011368A (ja) 2015-01-19
JP6182734B2 true JP6182734B2 (ja) 2017-08-23

Family

ID=52304512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133818A Active JP6182734B2 (ja) 2013-06-26 2013-06-26 表示制御装置

Country Status (1)

Country Link
JP (1) JP6182734B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6532393B2 (ja) 2015-12-02 2019-06-19 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP2017181374A (ja) * 2016-03-31 2017-10-05 三井住友建設株式会社 表面高さ表示方法
US10694018B2 (en) 2016-04-13 2020-06-23 Huawei Technologies Co., Ltd. Method and apparatus for controlling running status of wearable electronic device
US10191541B2 (en) * 2016-06-30 2019-01-29 Sony Interactive Entertainment Inc. Augmenting virtual reality content with real world content
CN106094639A (zh) * 2016-07-12 2016-11-09 大连普菲克科技有限公司 行走模拟控制装置
JP2018111982A (ja) * 2017-01-11 2018-07-19 株式会社不動テトラ 地盤改良用施工管理システム
JP6624646B2 (ja) * 2017-02-08 2019-12-25 ソフトバンク株式会社 情報提示システム、情報提示方法及び情報提示プログラム
JP6687556B2 (ja) * 2017-02-09 2020-04-22 Ts株式会社 画像表示制御装置、および、プログラム
JP2019011564A (ja) * 2017-06-29 2019-01-24 鹿島建設株式会社 現場画像出力システム
CN109035415B (zh) * 2018-07-03 2023-05-16 百度在线网络技术(北京)有限公司 虚拟模型的处理方法、装置、设备和计算机可读存储介质
JP6746651B2 (ja) * 2018-09-26 2020-08-26 株式会社不動テトラ 地盤改良工事の合成画像表示方法
JP7195118B2 (ja) * 2018-11-14 2022-12-23 エヌ・ティ・ティ・コムウェア株式会社 情報表示システム、情報表示方法及び情報表示プログラム
JP7281955B2 (ja) * 2019-04-24 2023-05-26 鹿島建設株式会社 安全支援装置及び安全監視方法
JP6891319B2 (ja) * 2019-05-21 2021-06-18 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置及び表示制御方法
JP6781439B1 (ja) * 2019-09-26 2020-11-04 株式会社Ihiインフラ建設 コンクリート締固め評価システム及び締固め評価方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2642298B2 (ja) * 1993-05-11 1997-08-20 鹿島建設株式会社 仮想現実感を用いた遠隔操作システム
JP3653196B2 (ja) * 1998-06-30 2005-05-25 飛島建設株式会社 仮想現実感を利用した施工支援情報システム。
JP4026145B2 (ja) * 2004-01-20 2007-12-26 マツダ株式会社 車両用画像表示装置
JP5550044B2 (ja) * 2010-02-25 2014-07-16 国際航業株式会社 画像合成システム

Also Published As

Publication number Publication date
JP2015011368A (ja) 2015-01-19

Similar Documents

Publication Publication Date Title
JP6182734B2 (ja) 表示制御装置
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP6540108B2 (ja) 画像生成方法、システム、装置、及び端末
JP7046189B2 (ja) 拡張現実デバイスを較正する方法
JP6741009B2 (ja) 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP6586834B2 (ja) 作業支援方法、作業支援プログラム、及び作業支援システム
JP4933406B2 (ja) 画像処理装置、画像処理方法
JP4262011B2 (ja) 画像提示方法及び装置
CN108022302B (zh) 一种Inside-Out空间定位的AR立体显示装置
JP6290754B2 (ja) 仮想空間表示装置、仮想空間表示方法及びプログラム
JP2002259992A (ja) 画像処理装置およびその方法並びにプログラムコード、記憶媒体
JP2002209208A (ja) 画像処理装置及びその方法並びに記憶媒体
CN104252712A (zh) 图像生成装置及图像生成方法
JP6723720B2 (ja) 表示システム、情報処理方法及びプログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、***以及存储介质
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2006285789A (ja) 画像処理方法、画像処理装置
KR102381370B1 (ko) 가상 현실을 제공하기 위한 이미지 처리 방법 및 가상 현실 디바이스
JP6152888B2 (ja) 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム
JP6975001B2 (ja) 傾き測定装置及び傾き測定方法
JP6707224B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JP6899715B2 (ja) 図面作成システム、図面作成方法及びプログラム
JP2015121892A (ja) 画像処理装置、画像処理方法
JP7465133B2 (ja) 情報処理装置、情報処理方法
WO2023188511A1 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170626

R150 Certificate of patent or registration of utility model

Ref document number: 6182734

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250