JP2021002301A - 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置 - Google Patents

画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置 Download PDF

Info

Publication number
JP2021002301A
JP2021002301A JP2019116783A JP2019116783A JP2021002301A JP 2021002301 A JP2021002301 A JP 2021002301A JP 2019116783 A JP2019116783 A JP 2019116783A JP 2019116783 A JP2019116783 A JP 2019116783A JP 2021002301 A JP2021002301 A JP 2021002301A
Authority
JP
Japan
Prior art keywords
image
image display
unit
head
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019116783A
Other languages
English (en)
Inventor
伶実 田中
Satomi Tanaka
伶実 田中
平野 成伸
Shigenobu Hirano
成伸 平野
片野 泰男
Yasuo Katano
泰男 片野
亀山 健司
Kenji Kameyama
健司 亀山
規和 五十嵐
Norikazu Igarashi
規和 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2019116783A priority Critical patent/JP2021002301A/ja
Priority to US16/890,173 priority patent/US20200400954A1/en
Publication of JP2021002301A publication Critical patent/JP2021002301A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】自由なデザインを許容しつつ頭部装着型画像表示装置に画像を表示させることができる。【解決手段】人物が装着すること記人物に対して所定の画像を表示する頭部装着型画像表示装置と、頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部と、撮像部が撮像した画像に基づいて人物の顔特徴点を抽出する顔特徴点抽出部と、顔特徴点に基づいて人物の頭部の位置および人物の姿勢を計算する位置姿勢計算部と、位置姿勢計算部により計算された位置姿勢情報に基づいて、頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、を備える。【選択図】図3

Description

本発明は、画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置に関する。
頭部に装着して画像を見るために利用される頭部装着型画像表示装置が知られている。周囲の風景を観察しつつ、頭部装着型画像表示装置が表示する画像を見ることができる透過型の頭部装着型画像表示装置では、何らかの手段によって現実空間における頭部装着型画像表示装置の位置および向きを取得する必要がある。
例えば特許文献1では、カメラを装備した携帯情報端末で、頭部装着型画像表示装置を装着したユーザを撮像し、頭部装着型画像表示装置の外観における特徴量の位置の変化から、頭部装着型画像表示装置の位置および向きを推定している。
しかしながら、特許文献1の技術では、例えば特徴量を抽出するための特殊なコードまたはオブジェクトが頭部装着型画像表示装置に装備されている必要がある。そのため、頭部装着型画像表示装置のデザインが制限されてしまう場合があった。
本発明は、上記に鑑みてなされたものであって、自由なデザインを許容しつつ頭部装着型画像表示装置に画像を表示させることができる画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置を提供することを目的とするものである。
上述した課題を解決し、目的を達成するために、本発明は、人物が装着することで前記人物に対して所定の画像を表示する頭部装着型画像表示装置と、前記頭部装着型画像表示装置を装着した前記人物の顔面を撮像する撮像部と、前記撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出する顔特徴点抽出部と、前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する位置姿勢計算部と、前記位置姿勢計算部により計算された位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、を備える。
本発明によれば、自由なデザインを許容しつつ頭部装着型画像表示装置に画像を表示させることができる。
図1は、実施形態1にかかる画像表示システムが備える情報端末のハードウェア構成の一例を示す図である。 図2は、実施形態1にかかる画像表示システムが備える眼鏡ユニットのハードウェア構成の一例を示す図である。 図3は、実施形態1にかかる画像表示システムの機能構成の一例を示す図である。 図4は、実施形態1にかかる画像表示システムの動作の一例を示す図である。 図5は、実施形態1にかかる画像表示システムにおける顔特徴点の抽出および位置姿勢の推定の手法について説明する図である。 図6は、実施形態1にかかる画像表示システムにおける顔特徴点の抽出について説明する図である。 図7は、実施形態1にかかる画像表示システムにおける画像表示処理の手順の一例を示すフロー図である。 図8は、実施形態2にかかる画像表示システムの機能構成の一例を示す図である。 図9は、実施形態2にかかる画像表示システムの動作の一例を示す図である。 図10は、実施形態2の変形例にかかる画像表示システムの機能構成の一例を示す図である。 図11は、実施形態3にかかる画像表示システムに適用される全天球撮影装置のハードウェア構成の一例を示す図である。 図12は、実施形態3にかかる画像表示システムの機能構成の一例を示す図である。 図13は、実施形態3にかかる画像表示システムの動作の一例を示す図である。 図14は、実施形態3の変形例にかかる画像表示システムの機能構成の一例を示す図である。 図15は、その他の実施形態にかかる画像表示システムの機能構成の一例を示す図である。
以下、発明を実施するための最良の形態を、図面に従って説明する。
[実施形態1]
図1〜図7を用いて、実施形態1について説明する。実施形態1の構成においては、情報端末に搭載されたカメラから眼鏡ユニットを装着したユーザの顔面を撮像する。また、撮像した画像に基づいて、ユーザの顔面と情報端末との相互の位置関係およびユーザの姿勢を把握する。それらに基づき、仮想空間中のオブジェクトを眼鏡ユニットに表示させる。
(画像表示システムのハードウェア構成例)
実施形態1の画像表示システムは、情報端末と眼鏡ユニットとを備える。それぞれのハードウェア構成例について、図1及び図2を用いて説明する。
図1は、実施形態1にかかる画像表示システムが備える情報端末100のハードウェア構成の一例を示す図である。情報端末100は、例えばスマートフォンまたはタブレット型端末等の携帯情報端末、ノートPC(Personal Computer)等のコンピュータである。
図1に示すように、情報端末100は、コントローラ110、及びコントローラ110に接続される表示装置121、入力装置122、及びカメラ123を備える。
コントローラ110は、情報端末100の全体を制御する。コントローラ110は、CPU(Central Processing Unit)111、ROM(Read−Only Memory)112、RAM(Random Access Memory)113、EEPROM(Electrically Erasable Programmable Read−Only Memory)114、通信インターフェース(I/F)115、および入出力I/F116を備える。
CPU111は、ROM112に格納された制御プログラムに従って情報端末100の動作を制御する。
ROM112は、CPU111が、コントローラ110内で実行するデータの管理や周辺モジュールを統括的に制御する制御プログラムを格納する。
RAM113は、CPU111が制御プログラムを動作させるために必要なワークメモリ等として使用される。またRAM113は、カメラ123を介して取得した情報を一時記憶するバッファとしても使用される。
EEPROM114は、電源を切っても保持したいデータ、例えば、情報端末100の設定情報等が格納される不揮発性ROMである。
通信I/F115は、眼鏡ユニット等の外部機器と通信を行うインターフェースである。通信I/F115には、例えばHDMI(登録商標)ケーブル等のケーブル300が接続される。
入出力I/F116は、情報端末100に備えられる各種機器、例えば表示装置121、入力装置122、及びカメラ123等とコントローラ110との間で信号の送受信を行うインターフェースである。
表示装置121は、文字、数字、各種画面、操作用アイコン、及びカメラ123により取得された画像等を表示する。
入力装置122は、文字および数字等の入力、各種指示の選択、ならびにカーソルの移動等の操作を行う。入力装置122は、例えば、情報端末100の筐体に設けられたキーパッドであってもよく、または、マウスまたはキーボード等の装置であってもよい。
カメラ123は、情報端末100の一部であって、例えば、表示装置121の同一面側に設けられる。カメラ123は、例えばカラー画像を撮像可能なRGBカメラやウェブカメラ等であってもよく、または、被写体との距離情報を取得可能なRGB−Dカメラ若しくは複数のカメラが配置されたステレオカメラ等であってもよい。
図2は、実施形態1にかかる画像表示システムが備える眼鏡ユニット200のハードウェア構成の一例を示す図である。頭部装着型画像表示装置としての眼鏡ユニット200は、例えば透過型のヘッド・マウント・ディスプレイ(HMD:Head−Mounted Display)等である。
図2に示すように、眼鏡ユニット200は、CPU211、メモリ212、通信I/F215、表示素子駆動回路221、及び表示素子222を備える。
CPU211は、メモリ212のROM領域に予め記憶されたプログラムに従い、RAM領域をワークメモリとして用いて、眼鏡ユニット200の全体の動作を制御する。
メモリ212は、例えばROM領域とRAM領域とを含む。
通信I/F215にはケーブル300が接続され、通信I/F215はケーブル300を介して情報端末100との間でデータの送受信を行う。
表示素子駆動回路221は、CPU211からの表示制御信号に従い、表示素子222を駆動するための表示駆動信号を生成する。表示素子駆動回路221は、生成した表示駆動信号を表示素子222に供給する。
表示素子222は、表示素子駆動回路221から供給された表示駆動信号により駆動される。表示素子222は、例えば、図示しない光源からの光を画像に応じて画素毎に変調する液晶素子や有機EL素子等の光変調素子を含む。光変調素子により変調された映像光は、眼鏡ユニット200を装着している状態のユーザの左右の眼に向けて照射される。ユーザの左右の眼には、映像光と外部の様子を示す外光とが合成されて入射される。外部の様子を示す外光は、眼鏡ユニット200が光学透過型である場合には、ハーフミラーとなっている眼鏡ユニット200のレンズを直接透過してきた光である。眼鏡ユニット200がビデオ透過型である場合には、外光は、眼鏡ユニット200に装着された図示しないビデオカメラ等により撮影された映像である。
(画像表示システムの機能構成例)
図3は、実施形態1にかかる画像表示システム1の機能構成の一例を示す図である。図3に示すように、画像表示システム1は、撮像部16を有する情報端末100、及び眼鏡ユニット200を備える。情報端末100と眼鏡ユニット200とは、例えばHDMIケーブル等のケーブル300により接続されている。
情報端末100は、制御部10、通信部15、撮像部16、記憶部17、表示部18、及びキー入力部19を備える。これらは互いに通信可能に接続されている。
通信部15は、図示しない所定の回線と接続して、他の端末装置やサーバシステムと通信を行うモジュールである。また、通信部15は、ケーブル300に接続されることで、眼鏡ユニット200に画像情報等を送信可能である。通信部15は、例えば、図1の通信I/F115によって実現される。
撮像部16は、所定の光学系および受像素子を有し、デジタル画像を取得する機能を提供するモジュールである。撮像部16は光学系の取得した被写体像から、設定された撮影条件で画像データを生成し、生成された画像データは記憶部17に保存される。撮像部16は、例えば図1のカメラ123によって実現される。
表示部18は、各種の画面を表示する。表示部18は、例えば、図1の表示装置121、及びCPU111で動作するプログラムによって実現される。表示装置121がタッチパネル等である場合には、表示部18を実現するハードウェアとして入力装置122が含まれていてもよい。
記憶部17は、所定の情報を制御部10の制御下で記憶し、また記憶している情報を制御部10に提供するメモリである。また、記憶部17は、制御部10で実行される種々のプログラムを記憶しており、制御部10はこれを適宜読み出して実行する。また、記憶部17は、後述する拡張現実情報、上記拡張現実情報のグラフィックスオブジェクトごとの表示、非表示の対応情報を記憶する。記憶部17は、例えば、図1のROM112、RAM113、およびEEPROM114によって実現される。
制御部10は、各部の動作を制御するとともに所定の情報処理を実現する。制御部10は、図1のCPU111上で記憶部17に記憶されたプログラムを実行することにより仮想的に構成される機能ブロックであって、情報端末100の通信部15、撮像部16、記憶部17、表示部18、及びキー入力部19といった各機能ブロックとの間でデータおよび制御信号をやり取りすることにより、情報端末100の各種機能を実現する。
制御部10は、仮想的に構成される機能ブロックとして、顔特徴点抽出部12、位置姿勢計算部13、及び画像生成部14を更に備える。
顔特徴点抽出部12は、撮像部16が撮像したユーザの顔面を含む画像から、ユーザの顔を認識し、顔特徴点を抽出する。
位置姿勢計算部13は、顔特徴点抽出部12が抽出した顔特徴点に基づいて、ユーザの頭部の位置およびユーザの姿勢を計算する。これにより、位置姿勢計算部13は、ユーザの頭部の位置情報およびユーザの姿勢情報を含む位置姿勢情報を生成する。
画像生成部14は、位置姿勢計算部13により計算された位置姿勢情報に基づいて、眼鏡ユニット200に表示させる画像を生成する。生成された画像は、通信部15を介して眼鏡ユニット200へと送信される。
眼鏡ユニット200は、表示制御部21および通信部25を備える。
通信部25は、眼鏡ユニット200で表示させるための画像を情報端末100から受信する。通信部25は、例えば、図2の通信I/F215によって実現される。
表示制御部21は、通信部25が受信した画像に基づき、ユーザに対して当該画像を表示する。表示制御部21は、例えば、図2の表示素子駆動回路221、表示素子222、及びCPU211で動作するプログラムによって実現される。
(画像表示システムの動作例)
次に、図4〜図6を用いて、実施形態1の画像表示システム1の動作例について説明する。図4は、実施形態1にかかる画像表示システム1の動作の一例を示す図である。
図4に示すように、画像表示ステム1のユーザPSは眼鏡ユニット200を装着している。眼鏡ユニット200を装着したユーザPSの顔面を撮像することができる位置、例えば、ユーザPSの正面には、カメラ123が搭載された情報端末100が設置されている。眼鏡ユニット200と情報端末100とはケーブル300で接続されている。
情報端末100のカメラ123(撮像部16)は、眼鏡ユニット200を装着した状態のユーザPSの顔面を含む画像を撮像する。図4には、カメラ123が撮像した撮像画像123imが示されている。
顔特徴点抽出部12は、撮像画像123imからユーザPSの顔特徴点を抽出する。位置姿勢計算部13は、顔特徴点抽出部12が抽出した顔特徴点の位置の変化から、ユーザPSの頭部の位置情報と、ユーザPSの姿勢情報とを計算する。
ここで、ユーザPSの頭部の位置情報は、例えばカメラ123の位置を基準としたXYZ座標空間で表される。このとき、X軸はユーザPSの顔面の左右の傾きを示し、Y軸はユーザPSの顔面の上下位置を示し、Z軸はカメラ123からのユーザPSの顔面の距離を示す。ユーザPSの姿勢情報は、上記位置情報のXYZ座標空間において、X軸とY軸とがなす角で示される。
一方、仮想空間VSには仮想オブジェクト110obが配置されている。仮想オブジェクト110obは、レンダリングカメラ等である仮想カメラ110cmによって撮影されて、眼鏡ユニット200によりユーザPSに対して表示される。より厳密には、画像生成部14が、仮想カメラ110cmを制御して眼鏡ユニット200に表示させる画像を生成することで、仮想オブジェクト110obが、ユーザPSが居る現実空間RSに仮想空間像110imとして投影され、ユーザPSに対してリアルタイムで表示される。
このとき、画像生成部14は、位置姿勢計算部13が生成した位置姿勢情報から推測される眼鏡ユニット200の視野角と、仮想カメラ110cmの画角とを一致させる。また、画像生成部14は、位置姿勢情報の変化に基づいて仮想カメラ110cmの位置および向きを変化させる。これにより、ユーザPSがあたかも仮想空間VSを直接観察しているかのような描画が行われる。
このように、透過型の眼鏡ユニット200等において、現実空間RSの風景と、仮想空間像110imとを融合して表示する技術を拡張現実(AR:Augmented Reality)技術という。
以上のような顔特徴点の抽出、位置姿勢推定、仮想カメラ110cmの操作による画像生成は、例えばUnityで実現することができる。Unityは、Unity Technologies社が提供するアプリケーションであり、3Dレンダリングツールとして活用することができる。
Unityのアプリケーションを起動させると、レンダリングの初期設定として、仮想カメラ110cmの画角と眼鏡ユニット200の視野角との統一化が実行される。
また、ユーザPSの眼球と眼鏡ユニット200のレンズまでの距離やユーザPSの瞳孔間隔の個人差を考慮するため、キャリブレーションを行う。このようなキャリブレーションには、例えば特許第6061334号明細書に記載の技術を用いることができる。
具体的には、眼鏡ユニット200を装着した状態のユーザPSに対し、眼鏡ユニット200により所定サイズの四角枠等の仮想空間像110imを表示する。その状態で、現実空間RSにある情報端末100の表示装置121のフレームと仮想空間像110imの四角枠とが一致して見えるよう、ユーザPSに頭部の位置を動かしてもらう。表示装置121のフレームと仮想空間像110imの四角枠とが一致した状態では、情報端末100のカメラ123とユーザPSの頭部との距離が一定となるため、顔特徴点抽出部12及び位置姿勢計算部13は、このときのユーザPSの顔認識データを基準に、これ以降、情報端末100のカメラ123とユーザPSの頭部との距離を算出する。
また、これ以降、情報端末100のカメラ123によるユーザPSの撮影が継続され、それらの撮像画像から、顔特徴点抽出部12がユーザPSの顔特徴点を継続して抽出し、位置姿勢計算部13がユーザPSの位置および姿勢を継続して計算する。仮想空間VSの仮想カメラ110cmの位置および向きは、逐一、位置姿勢計算部13が計算した位置姿勢情報によって再設定を繰り返される。これにより、例えば、ユーザPSが周囲を見回すように頭部の位置姿勢を変えると、仮想カメラ110cmはそれに合わせて仮想空間VS内を撮影する。
上述のように、Unityのアプリケーションを用いれば、仮想空間VSに複数の仮想オブジェクト110obを簡易に作成し、また、自由に再配置することができる。また、仮想カメラ110cmの設定を変えることで、仮想空間VSを自由に観察する画像を生成することができる。仮想オブジェクト110obの位置および向きを固定することで、仮想オブジェクトobがあたかも現実空間RSの所定位置に張り付いたかのような表現が可能である。また、ユーザPSの位置姿勢の変化に合わせて仮想オブジェクトobの位置および向きを変化させることで、ユーザPSの視点の遷移に追随した仮想オブジェクトobの描画が可能となる。
顔特徴点の抽出および位置姿勢の推定は、顔映像解析のC++用オープンライブラリであるOpenFaceのソースコードを利用して行うことができる。OpenFaceについては、例えばTabas Baltrusaitis,et al.,“OpenFace: an open source facial behavior analysis toolkit”,ICCV 2016.を参照することができる。図5に、OpenFaceを用いた顔特徴点の抽出および位置姿勢の推定の手法について示す。
図5は、実施形態1にかかる画像表示システム1における顔特徴点の抽出および位置姿勢の推定の手法について説明する図である。図5(a)は、カメラ123が撮像したユーザPSの顔を含む画像である。図5(b)に示すように、顔特徴点抽出部12は、ユーザPSの顔面部分を検知し、図5(c)に示すように、OpenFaceの手法により、CLNF(Conditional Local Neural Field)特徴量を用い、ユーザPSの顔領域のランドマークとして、目、口、眉、顔の輪郭などから所定数の点を抽出する。OpenFaceの手法によれば、例えば68点の抽出点から、頭部の位置姿勢、視線方向、および表情等の推定が可能であるが、図5(d)に示すように、実施形態1の画像表示システム1においては、位置姿勢計算部13が、これらのうち、頭部の位置姿勢情報を計算する。OpenFaceの手法によれば、頭部の位置姿勢の推定値は、撮影したカメラ123を基準とした座標系での位置として計算される。したがって、仮想空間VSの座標系において、情報端末100のカメラ123は原点に位置する。
このように、位置姿勢計算部13が頭部の位置姿勢情報を計算するには、顔特徴点抽出部12が目、口、眉、顔の輪郭などから所定数の点を抽出する必要がある。本発明者らが検討したところ、図6(a)に示す正面を向いた顔画像、図6(b)に示す斜め45°を向いた顔画像、図6(d)の眼鏡着用時の顔画像であれば、顔の検出精度は低下しないことが判った。また、一旦、顔の検出ができれば、図6(e)の眼を隠した顔画像、図6(f)の顔の一部を隠した顔画像であっても、全体の60%以上の点が抽出できれば顔の検出精度はほとんど低下しないことが判った。したがって、眼鏡や簡易な眼鏡ユニット200により眼の部分が隠れていたとしても、これらを装着することによる顔特徴点の抽出および位置姿勢の推定の精度にはほとんど影響がないと考えられる。しかし、図6(c)のように真横を向いた顔画像、または、顔の大部分が覆われた画像等の場合には、点の抽出数が60%未満となって、顔特徴点の抽出および位置姿勢の推定の精度が大幅に低下することが予想される。
(画像表示処理の例)
次に、図7を用いて、実施形態1の画像表示システム1における画像表示処理の例について説明する。図7は、実施形態1にかかる画像表示システム1における画像表示処理の手順の一例を示すフロー図である。
図7に示すように、情報端末100の撮像部16がユーザPSの撮像を開始する(ステップS101)。
情報端末100の制御部10がキャリブレーションを行う(ステップS102)。具体的には、制御部10は、通信部15に眼鏡ユニット200の通信部25と通信を行わせ、眼鏡ユニット200の表示制御部21に所定サイズの四角枠等の仮想空間像110imを表示させる。そして、情報端末100の表示装置121のフレームと仮想空間像110imの四角枠とがユーザPSにとって一致して見えるときのユーザPSの顔面を含む画像を撮像部16が取得する。顔特徴点抽出部12は、このときの画像からユーザPSの顔特徴点を抽出する。位置姿勢計算部13は、このときの顔特徴点を、ユーザPSとカメラ123との距離が所定距離にあるときの情報として、登録する。以降、ユーザPSとカメラ123との距離は、このときの顔特徴点の相互の間隔等を基準に算出される。
キャリブレーション終了後、以降の処理は、眼鏡ユニット200に表示させる画像を生成する処理となる。
顔特徴点抽出部12は、撮像部16が撮像した画像からユーザPSの顔特徴点を抽出する(ステップS103)。位置姿勢計算部13は、顔特徴点抽出部12抽出した顔特徴点から、ユーザPSの頭部の位置およびユーザの姿勢を計算し、ユーザPSの位置姿勢情報を生成する(ステップS104)。
画像生成部14は、位置姿勢計算部13が計算した位置姿勢情報に基づき、眼鏡ユニット200で表示する画像を生成する(ステップS105)。すなわち、画像生成部14は、位置姿勢情報に基づき、ユーザPSの位置姿勢と、仮想空間VSの仮想カメラ110cmの位置および向きを一致させ、仮想カメラ110cmに仮想空間VS内を撮影させる。
情報端末100の通信部15は、画像生成部14が生成した画像を、眼鏡ユニット200の通信部25へと送信する(ステップS106)。眼鏡ユニット200の通信部25は、画像生成部14が生成した画像を受信する(ステップS107)。
眼鏡ユニット200の表示制御部21は、通信部25が受信した情報端末100からの画像を眼鏡ユニット200に表示する(ステップS108)。眼鏡ユニット200においあて、情報端末100からの画像は、現実空間RSの風景と融合されて表示される。
情報端末100の制御部10は、ユーザPS等から画像表示処理の終了指示があったか否かを判定する(ステップS109)。画像表示処理の終了指示がなければ(ステップS109:No)、ステップS103からの処理を繰り返す。画像表示処理の終了指示があれば(ステップS109:Yes)、処理を終了する。
以上により、実施形態1の画像表示システム1における画像表示処理が終了する。
(比較例)
頭部に装着して画像を見るために利用されるHMDは、ユーザの頭部の動きに応じて画像表示部分に表示される所望の映像を生成して表示することで、ユーザは臨場感のある映像を観賞することができる。HMDには透過型と遮光型とがある。
透過型のHMDにおいては、ユーザは頭部にHMDを装着して画像が表示されている間も、周囲の風景を観察することができる。そのため、屋外や歩行中の使用時において、ユーザは障害物との衝突等の危険から回避することができる。一方、遮光型のHMDは装着者の眼を直接覆うように構成されている。そのため、表示画像に対する没入感は増すが、HMDを頭部から外して画像の観賞を完全に中断しなければ、外部に対して注意を払うことは難しい。
透過型のHMDにおいて、現実空間像と仮想空間像とを融合して表示するAR技術においては、仮想空間像を現実に張り付いたように表示するために、何らかの手段によって現実空間におけるHMDの3次元的位置および向きを取得する必要がある。HMDの3次元的位置および向きの取得手段としては、HMDに計測装置を装備させる手法と、HMDの外界に計測装置を設置する手法とがある。
HMDが計測装置を装備する場合としては、ARマーカ等のような2次元の固有のパターンを用いる手法が知られている。この手法によれば、HMDに搭載されているカメラで、外界に設置してあるARマーカ等を撮影して特徴量を抽出し、特徴量の位置の変化からHMDの3次元的位置および向きを推定する。そのため、ARマーカを常にカメラで撮影できている必要がある。
HMDが計測装置を装備する場合の別の手法としては、HMDのカメラで撮影して取得した周囲の環境の特徴量から、周囲の3次元形状を復元する手法がある。この場合、周囲の3次元形状を生成する手間がかかり、また、そのデータの取得には高解像度で広角度の3Dカメラが必要であり、視点が大きく変化する際の視点探索の計算コストが大きくなってしまう。
また、上記いずれの手法であっても、計測処理および映像処理を全てHMDで行うため、携帯性は高いが、特徴量を容易に抽出できる環境で実施する必要がある。
一方、HMDの外界に計測装置を設置する場合としては、Oculus VR社が製造するOculus Rift(登録商標)やHTC社が製造するHTC Vive(登録商標)がある。これらには、ベースステーションからレーザを照射する大掛かりな手法と、特許文献1のようにRGBカメラ等を用いる安価で簡易な手法とがある。
比較例としての特許文献1の技術では、カメラを装備した携帯情報端末でHMDを装着したユーザを撮影する。そして、カメラで撮影して取得したHMDの外観の特徴量の位置の変化から、HMDの3次元的位置および向きを推定する。しかしながら、特許文献1の位置姿勢推定手法では、HMDの形状が既知であるか、あるいは、特徴量を容易に抽出するための特殊なコードやオブジェクトがHMDに装備されている必要がある。そのため、HMDの外観の変更が容易ではなく、また、HMDのデザインが制限されてしまう。
近年、特に透過型HMDについては、装着者自身および周囲の人物に対して、装着による違和感や存在感を与えないように、より軽量でスマートなものが製品化されてきている。HMDの外観にセンシングのための構造物を必要とする特許文献1の技術は、軽量でスマートなHMDにおける位置姿勢推定手法としては不適切である。
実施形態1の画像表示システム1によれば、顔特徴点抽出部12と位置姿勢計算部13とにより、ユーザPSの位置姿勢情報を得る。このように、眼鏡ユニット200の形状に依存することなく、ユーザPSの頭部の位置およびユーザPSの姿勢を推定できる。これにより、眼鏡ユニット200が、位置姿勢推定に特化した構造、形状、及びデザインを有する必要が無い。よって、より洗練されたデザインの眼鏡ユニット200に適用することが可能である。
実施形態1の画像表示システム1によれば、眼鏡ユニット200は、例えば透過型のHMDである。これにより、現実空間RSを見ながら仮想空間VSの表示を見ることができるため、非透過型のHMDと比べ、装着者は安全に動き回ることができる。また、実施形態1の眼鏡ユニット200を装着しながら、ノートPCやメモ帳などの現実空間RSのツールを利用することができる。
実施形態1の画像表示システム1によれば、眼鏡ユニット200は、現実空間像と仮想空間像110imとが融合された拡張現実画像を表示する。これにより、例えば現実空間RSで行われている作業を指示、補足、または誘導する情報を仮想空間像110imとして表示することができる。よって、紙やタブレットなどの他のツールにそれらの情報を表示する場合と比べて、他ツールの設置や担持の必要が無く、作業を円滑に行うことができる。
実施形態1の画像表示システム1によれば、顔特徴点抽出部12は、60%以上の抽出点が抽出可能であれば、精度よく顔特徴点を抽出することができる。これにより、例えば眼鏡ユニット200によってユーザPSの眼の周辺が覆われたとしても、ユーザPSの頭部の位置およびユーザPSの姿勢を精度よく推定することができる。よって、眼鏡ユニット200を装着することによる推定精度の低下を抑制することができる。
実施形態1の画像表示システム1によれば、眼鏡ユニット200の視野角およびユーザPSの位置姿勢情報に基づいて、画像生成部14が、仮想空間VSにおける仮想カメラ110cmの画角、位置、及び向きを決定する。これにより、仮想空間像110imを現実空間に張り付けたような映像が眼鏡ユニット200によって表示されることとなる。このような眼鏡ユニット200を装着したユーザPSは、仮想空間像110imを固定的に表示させた場合と比べ、仮想空間像110imに対する操作や、仮想空間像110imを観察する視点の移動を直感的に行えるようになる。
実施形態1の画像表示システム1によれば、撮像部16を備えた情報端末100として、例えばスマートフォン、ノートPC,またはタブレット型端末等の、ユーザPSが常備している汎用的な端末を用いる。これにより、例えば特殊なセンサ等を用いる場合と比べて、画像表示システム1の導入や設置をより容易に行うことができる。
なお、上述の実施形態1では、撮像部16としてカメラ123が装備された情報端末100を用いることとしたが、撮像部として外部カメラを用いてもよい。その場合、カメラで撮影した画像をHDMIケーブル等のケーブルを介して、あるいは無線で、リアルタイムに情報端末に送信することが好ましい。
また、上述の実施形態1では、キャリブレーション時に確定した情報端末100のカメラ123とユーザPSとの距離を基準として、以降の距離を推定することとしたが、距離の推定はこれ以外の手法で行ってもよい。例えば、上述のように、カメラ123がRGB−Dカメラやステレオカメラ等である場合には、上述の手順を踏まなくとも、自動的に距離の推定を行うことができる。また、既知の所定距離から撮像されたユーザの顔面の登録を予め行っておき、それに基づき、距離の推定を行ってもよい。
[実施形態2]
図8〜図10を用いて、実施形態2の画像表示システム2について説明する。実施形態2の画像表示システム2は、複数のユーザPSa,PSbに対して個々に画像を表示する点が上述の実施形態1とは異なる。
(画像表示システムの機能構成例)
図8は、実施形態2にかかる画像表示システム2の機能構成の一例を示す図である。図8に示すように、画像表示システム2は、例えば1つの情報端末101と、1つの情報端末101に接続される2つの眼鏡ユニット200a,200bとを備える。
情報端末101は、実施形態1とは異なる構成の制御部10mを備える。制御部10mは、顔特徴点抽出部12a,12b、位置姿勢計算部13a,13b、及び画像生成部14a,14bを備える。情報端末101の撮像部16は、同時に2人のユーザを撮像し、顔特徴点抽出部12a,12b、位置姿勢計算部13a,13b、及び画像生成部14a,14bは、それぞれのユーザについて、顔特徴点の抽出、位置姿勢推定、及び画像生成の処理を並列して処理する。
すなわち、顔特徴点抽出部12aは、眼鏡ユニット200aを装着したユーザの顔特徴点を抽出する。位置姿勢計算部13aは、顔特徴点抽出部12aが抽出した顔特徴点に基づき、眼鏡ユニット200aを装着したユーザの頭部の位置および姿勢を計算する。画像生成部14aは、位置姿勢計算部13aが計算した位置姿勢情報に基づき、眼鏡ユニット200aに表示させる画像を生成する。
一方、顔特徴点抽出部12bは、眼鏡ユニット200bを装着したユーザの顔特徴点を抽出する。位置姿勢計算部13bは、顔特徴点抽出部12bが抽出した顔特徴点に基づき、眼鏡ユニット200bを装着したユーザの頭部の位置および姿勢を計算する。画像生成部14bは、位置姿勢計算部13bが計算した位置姿勢情報に基づき、眼鏡ユニット200bに表示させる画像を生成する。
通信部15は、HDMIケーブル等のケーブル301を介して、画像生成部14aが生成した画像を眼鏡ユニット200aの通信部25aにリアルタイムで送信し、画像生成部14bが生成した画像を眼鏡ユニット200bの通信部25bにリアルタイムで送信する。
眼鏡ユニット200aは、通信部25aおよび表示制御部21aを備える。通信部25aは情報端末101から画像生成部14aが生成した画像を受信する。表示制御部21aは、情報端末101から受信した画像を表示する。
眼鏡ユニット200bは、通信部25bおよび表示制御部21bを備える。通信部25bは情報端末101から画像生成部14bが生成した画像を受信する。表示制御部21bは、情報端末101から受信した画像を表示する。
(画像表示システムの動作例)
図9は、実施形態2にかかる画像表示システム2の動作の一例を示す図である。図9に示すように、画像表示システム2のユーザPSaは眼鏡ユニット200aを装着している。ユーザPSbは眼鏡ユニット200bを装着している。眼鏡ユニット200a,200bをそれぞれ装着したユーザPSa,PSbの顔面を1度に撮像することができる位置、例えば、ユーザPSa,PSbの正面には、カメラ123が搭載された情報端末101が設置されている。眼鏡ユニット200a,200bと情報端末101とはケーブル301で接続されている。
カメラ123等から構成される撮像部16によりユーザPSa,PSbの顔面を含む撮像画像123imが撮像されると、制御部10mは、ユーザPSa,PSbの同定を行う。つまり、眼鏡ユニット200a,200bと、それらを使用するユーザPSa,PSbとを紐づける。眼鏡ユニット200a,200bとユーザPSa,PSbとの紐付けは、例えば、情報端末101が指示する順に、上記の実施形態1と同様にキャリブレーションを行うことで実行される。
つまり、例えば、眼鏡ユニット200aのキャリブレーションを促す情報端末101の指示に従い、ユーザPSaが上記キャリブレーションを行うと、ユーザPSaの顔が認識され、眼鏡ユニット200aとユーザPSaとが紐づけられる。次に、眼鏡ユニット200bのキャリブレーションを促す情報端末101の指示に従い、ユーザPSbが上記キャリブレーションを行うと、ユーザPSbの顔が認識され、眼鏡ユニット200bとユーザPSbとが紐づけられる。
そして、これ以降、情報端末100のカメラ123によるユーザPSa,PSbの撮影が継続される。顔特徴点抽出部12a,12bは、それぞれのユーザPSa,PSbの顔面の画像から、それぞれのユーザPSa,PSbの顔特徴点を抽出する。位置姿勢計算部13a,13bは、それぞれのユーザPSa,PSbの抽出された顔特徴点から、それぞれのユーザPSa,PSbの位置姿勢情報を生成する。個々の顔特徴点抽出部12a,12b及び位置姿勢計算部13a,13bによる顔特徴点の抽出および位置姿勢推定は、例えば上述の実施形態1と同様の手法により行われる。画像生成部14a,14bは、それぞれのユーザPSa,PSbの位置姿勢情報に基づき、眼鏡ユニット200a,200bに表示する画像をそれぞれ生成する。
このとき、仮想空間VS中には、それぞれのユーザPSa,PSb用の仮想カメラ110cma,110cmbが設置される。仮想カメラ110cmaは、ユーザPSaの位置姿勢と一致するよう位置および向きが設定され、仮想カメラ110cmbは、ユーザPSbの位置姿勢と一致するよう位置および向きが設定される。つまり、各々の仮想カメラ110cma,110cmbは、各々のユーザPSa,PSbの視点を担当する。これにより、ユーザPSa,PSbは、同一の仮想空間VSをそれぞれの視点から観察しつつ、お互いの位置を確認することもできる。このような仮想カメラ110cma,110cmbの位置制御および画像生成は、上述の実施形態1と同様、例えばUnityのアプリケーションの機能に基づく。
実施形態2の画像表示システム2によれば、例えば1つのカメラ123による画像に基づき、複数人物の位置姿勢情報の推定が行われる。これにより、個々のユーザPSa,PSbごとにカメラ123を用意する必要が無く、費用が抑えられるとともに設置の労力も低減される。
なお、上述の実施形態2では、2人のユーザPSa,PSbに対して眼鏡ユニット200a,200bによる画像表示を行うこととしたが、ユーザの人数は3人以上であってもよい。
(変形例)
次に、図10を用いて、実施形態2の変形例の画像表示システム2nについて説明する。変形例の画像表示システム2nは、画像生成機能を携帯情報端末400a,400bが担っている点が上述の実施形態2とは異なる。
図10は、実施形態2の変形例にかかる画像表示システム2nの機能構成の一例を示す図である。図10に示すように画像表示システム2nは、情報端末102、携帯情報端末400a,400b、及び眼鏡ユニット200a、200bを備える。情報端末102はケーブル302を介して携帯情報端末400a,400bと接続される。ただし、情報端末102は、無線で携帯情報端末400a,400bと接続されてもよい。携帯情報端末400aはケーブル300aを介して眼鏡ユニット200aと接続される。携帯情報端末400bはケーブル300bを介して眼鏡ユニット200bと接続される。
情報端末102の制御部10nは、顔特徴点抽出部12a,12b及び位置姿勢計算部13a,13bを備えるが、画像生成機能を有さない。
通信部15は、HDMIケーブル等のケーブル302を介して、位置姿勢計算部13aが生成した位置姿勢情報を携帯情報端末400aの通信部45aにリアルタイムで送信し、位置姿勢計算部13bが生成した位置姿勢情報を携帯情報端末400bの通信部45bにリアルタイムで送信する。
携帯情報端末400aは、画像生成部44a及び通信部45aを備える。画像生成部44aは、情報端末102の位置姿勢計算部13aが生成した位置姿勢情報に基づき、眼鏡ユニット200aに表示する画像を生成する。通信部45aは、情報端末102の通信部45aから位置姿勢計算部13aが生成した位置姿勢情報を受信する。また、通信部45aは、画像生成部44aが生成した画像を眼鏡ユニット200aの通信部25aにリアルタイムで送信する。
携帯情報端末400bは、画像生成部44b及び通信部45bを備える。画像生成部44bは、情報端末102の位置姿勢計算部13bが生成した位置姿勢情報に基づき、眼鏡ユニット200bに表示する画像を生成する。通信部45bは、情報端末102の通信部45bから位置姿勢計算部13bが生成した位置姿勢情報を受信する。また、通信部45bは、画像生成部44bが生成した画像を眼鏡ユニット200bの通信部25bにリアルタイムで送信する。
眼鏡ユニット200a,200bは上述の実施形態2と同様の構成を備える。ただし、眼鏡ユニット200aの通信部25aは携帯情報端末400aからの画像を受信し、眼鏡ユニット200bの通信部25bは携帯情報端末400bからの画像を受信する。
変形例の画像表示システム2nにおいて、情報端末102は例えばノートPC等であり得る。また、携帯情報端末400a,400bは、それぞれのユーザPSa,PSbが保有するスマートフォン等であり得る。このように、情報端末102が生成したそれぞれの位置姿勢情報に基づき画像を生成する機能を、それぞれのユーザPSa,PSbが保有するスマートフォン等の携帯情報端末400a,400bに担わせてもよい。
[実施形態3]
図11〜図14を用いて、実施形態3の画像表示システム3について説明する。実施形態3の画像表示システム3は、全天球撮影装置500を用いてユーザPSa,PSbの撮像を行う点が上述の実施形態1,2とは異なる。
(画像表示システムのハードウェア構成例)
図11は、実施形態3にかかる画像表示システムに適用される全天球撮影装置500のハードウェア構成の一例を示す図である。以下の例では、全天球撮影装置500は、2つの撮像素子を使用した全天球(全方位)撮影装置であるものとするが、撮像素子は2つ以上幾つであってもよい。また、全天球撮影装置500は、必ずしも全方位撮影専用の装置である必要はなく、通常のデジタルカメラやスマートフォン等に後付けで全方位の撮像ユニットを取り付けることで、実質的に全天球撮影装置500と同じ機能を有するようにしてもよい。
図11に示すように、全天球撮影装置500は、撮像ユニット501、画像処理ユニット504、撮像制御ユニット505、マイク508、音処理ユニット509、CPU511、ROM512、SRAM(Static Random Access Memory)513、DRAM(Dynamic Radom Access Memory)514、操作部515、外部機器接続I/F516、通信回路517、アンテナ517a、及び加速度・方位センサ518を備える。
撮像ユニット501は、180°以上の画角を有する広角レンズ502a,502bと、各々の広角レンズ502a,502bに対応させて設けられている2つの撮像素子503a,503bとを備えている。広角レンズ502a,502bは、それぞれが半球画像を結像する魚眼レンズ等である。
撮像素子503a,503bは、広角レンズ502a,502bによる光学像を電気信号の画像データに変換して出力するCMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの画像センサ、この画像センサの水平または垂直同期信号や画像クロックなどを生成するタイミング生成回路、これらの撮像素子503a,503bの動作に必要な種々のコマンドやパラメータ等が設定されるレジスタ群等を有している。
撮像ユニット501の撮像素子503a,503bは、各々が、画像処理ユニット504とパラレルI/Fバスで接続されている。撮像素子503a,503bは、撮像制御ユニット505とはI2Cバス等のシリアルI/Fバスで接続されている。
画像処理ユニット504、撮像制御ユニット505、及び音処理ユニット509は、バス510を介してCPU511と接続される。さらに、バス510には、ROM512、SRAM513、DRAM514、操作部515、外部機器接続I/F516、通信回路517、及び加速度・方位センサ518等が接続される。
画像処理ユニット504は、撮像素子503a,503bから出力される画像データをパラレルI/Fバスを通して取り込み、それぞれの画像データに対して所定の処理を施した後、これらの画像データを合成処理して、正距円筒射影画像のデータを作成する。
撮像制御ユニット505は、一般に撮像制御ユニット505をマスタデバイス、撮像素子503a,503bをスレーブデバイスとして、シリアルI/Fバスを利用して、撮像素子503a,503bのレジスタ群にコマンド等を設定する。必要なコマンド等は、CPU511から受け取る。また、撮像制御ユニット505は、同じくシリアルI/Fバスを利用して、撮像素子503a,503bのレジスタ群のステータスデータ等を取り込み、CPU511に送る。
また、撮像制御ユニット505は、操作部515のシャッターボタンが押下されたタイミングで、撮像素子503a,503bに画像データの出力を指示する。全天球撮影装置500によっては、スマートフォン等のディスプレイによるプレビュー表示機能や動画表示に対応する機能を持つ場合もある。この場合は、撮像素子503a,503bからの画像データの出力は、所定のフレームレート(フレーム/分)によって連続して行われる。
また、撮像制御ユニット505は、後述するように、CPU511と協働して撮像素子503a,503bの画像データの出力タイミングの同期をとる同期制御手段としても機能する。なお、本実施形態では、全天球撮影装置500にはディスプレイ等の表示装置が設けられていないこととするが、表示装置が設けられていてもよい。
マイク508は、音を音(信号)データに変換する。音処理ユニット509は、マイク508から出力される音データをI/Fバスを通して取り込み、音データに対して所定の処理を施す。
CPU511は、全天球撮影装置500の全体の動作を制御するとともに、必要な処理を実行する。ROM512は、CPU511が実行する種々のプログラムを記憶している。SRAM513及びDRAM514はワークメモリであり、CPU511で実行するプログラムや処理途中のデータ等を記憶する。特に、DRAM514は、画像処理ユニット504での処理途中の画像データや処理済みの正距円筒射影画像のデータを記憶する。
操作部515は、シャッターボタンなどの操作ボタンの総称である。ユーザは、操作部515を操作することで、種々の撮影モードや撮影条件などを入力する。
外部機器接続I/F516は、各種の外部機器を接続するためのインターフェースである。この場合の外部機器は、例えばUSB(Universal Serial Bus)メモリやPC等である。DRAM514に記憶された正距円筒射影画像のデータは、この外部機器接続I/F516を介して外付けのメディアに記録されたり、必要に応じて外部機器接続I/F516を介してスマートフォン等の外部端末に送信されたりする。
通信回路517は、全天球撮影装置500に設けられたアンテナ517aを介して、Wi−Fi、NFC(Near Field Communication)やBluetooth(登録商標)等の近距離無線通信技術によって、スマートフォン等の外部端末と通信を行う。この通信回路517によっても、正距円筒射影画像のデータをスマートフォン等の外部端末に送信することができる。
加速度・方位センサ518は、地球の磁気から全天球撮影装置500の方位を算出し、方位情報を出力する。この方位情報はExifに沿ったメタデータ等の関連情報の一例であり、撮影画像の画像補正等の画像処理に利用される。関連情報には、画像の撮影日時および画像データのデータ容量の各データも含まれている。
また、加速度・方位センサ518は、全天球撮影装置500の移動に伴うRoll角、Pitch角、Yaw角等の角度の変化を検出するセンサである。角度の変化はExifに沿ったメタデータ等の関連情報の一例であり、撮像画像の画像補正等の画像処理に利用される。
さらに、加速度・方位センサ518は、3軸方向の加速度を検出するセンサである。全天球撮影装置500は、加速度・方位センサ518が検出した加速度に基づいて、全天球撮影装置500の姿勢、つまり、重力方向に対する角度を算出する。全天球撮影装置500に、加速度・方位センサ518が設けられることによって、画像補正の精度が向上する。
(画像表示システムの機能構成例)
図12は、実施形態3にかかる画像表示システム3の機能構成の一例を示す図である。図12に示すように、画像表示システム3は、全天球撮影装置500、情報端末103、及び眼鏡ユニット200a,200bを備える。
全天球撮影装置500は、通信部55および撮像部56を備える。撮像部56は、例えば複数のユーザを1度に撮像し、正距円筒射影画像のデータを生成する。撮像部56は、例えば、図11の撮像ユニット501、画像処理ユニット504、撮像制御ユニット505、及びCPU211で動作するプログラムによって実現される。通信部55は、例えばHDMIケーブル等のケーブル303を介して、撮像部56が生成した正距円筒射影画像のデータを情報端末103の通信部15にリアルタイムで送信する。ただし、通信部55は、無線により、正距円筒射影画像のデータを情報端末103の通信部15に送信してもよい。通信部55は、例えば、図11の外部機器接続I/F516、通信回路517、及びアンテナ517aによって実現される。
情報端末103は制御部10mを備える。制御部10mは、上述の実施形態2と同様の構成を有する。ただし、情報端末103は、全天球撮影装置500の正距円筒射影画像のデータから各々のユーザの顔特徴点を抽出し、位置姿勢を推定し、眼鏡ユニット200a,200bに表示する画像を生成する。情報端末103の通信部15は、ケーブル303を介して、または、無線で、全天球撮影装置500の通信部55から、正距円筒射影画像のデータを受信する。また、情報端末103は、撮像部を備えていてもよいが、本実施形態においては使用されない。
眼鏡ユニット200a,200bは上述の実施形態2と同様の構成を備える。
(画像表示システムの動作例)
図13は、実施形態3にかかる画像表示システム3の動作の一例を示す図である。図13に示すように、画像表示システム3のユーザPSa,PSbは、それぞれ眼鏡ユニット200a,200bを装着した状態で、例えば全天球撮影装置500を挟んで向かい合わせになっている。全天球撮影装置500をユーザPSa,PSbの間に設置することで、ユーザPSa,PSbが対面した状態で、ユーザPSa,PSbの顔面を例えば正面から同時に撮影することが可能である。
全天球撮影装置500で生成された正距円筒射影画像のデータ500imに基づき、ユーザPSa,PSbの顔特徴点の抽出、位置姿勢の推定、それぞれの眼鏡ユニット200a,200bで表示する画像生成までが並列して処理される。生成された画像は、情報端末103とそれぞれの眼鏡ユニット200a,200bとを接続するケーブル301を介して、眼鏡ユニット200a,200bにリアルタイムに出力される。
実施形態3の画像表示システム3によれば、全天球撮影装置500が用いられる。これにより、ユーザPSa,PSbが撮像可能な範囲を360°とすることができ、一般的な画角のカメラに比べて、ユーザPSa,PSbが行動できる範囲に対する制限を緩めることができる。
なお、実施形態3においても、2人のユーザPSa,PSbに限らず、ユーザの人数は3人以上であってもよい。
(変形例)
図14は、実施形態3の変形例にかかる画像表示システム3nの機能構成の一例を示す図である。図14に示すように、全天球撮影装置500を用いた構成においても、画像生成機能を携帯情報端末400a,400bに担わせてもよい。
すなわち、画像表示システム3nは、全天球撮影装置500、情報端末104、携帯情報端末400a,400b、及び眼鏡ユニット200a,200bを備える。
全天球撮影装置500は、上述の実施形態3と同様の構成を備える。
情報端末104は制御部10nを備える。制御部10nは、上述の実施形態2の変形例と同様の構成を有する。情報端末104は、撮像部を備えていてもよいが、本実施形態においては使用されない。
眼鏡ユニット200a,200bは上述の実施形態2と同様の構成を備える。
[その他の実施形態]
上述の実施形態1〜3及びそれらの変形例では、例えば情報端末100等及び携帯情報端末400a,400bが顔特徴点抽出機能、位置姿勢推定機能、画像生成機能等を備えることとしたが、これらの機能を眼鏡ユニットが備えることとしてもよい。図15に一例を示す。
図15は、その他の実施形態にかかる画像表示システム4の機能構成の一例を示す図である。図15に示すように、画像表示システム4は、カメラ600及び眼鏡ユニット201a,201bを備える。カメラ600及び眼鏡ユニット201a,201bは、例えばケーブル304で接続されている。
カメラ600は、例えばRGBカメラ、RGB−Dカメラ、ステレオカメラ等のデジタルカメラや、上述の全天球撮影装置500等であってよい。カメラ600は、通信部65及び撮像部66を備える。撮像部66はユーザの顔面を含む画像を撮像する。通信部65は、HDMIケーブル等のケーブル304を介し、または、無線等により、眼鏡ユニット201a,201bの通信部25a,25bに、撮像66が撮像した画像をそれぞれ送信する。
眼鏡ユニット201aは、表示制御部21a、顔特徴点抽出部22a、位置姿勢計算部23a、画像生成部24a、及び通信部25aを備える。顔特徴点抽出部22aは、眼鏡ユニット201aを装着したユーザの顔特徴点を抽出する。位置姿勢計算部23aは、眼鏡ユニット201aを装着したユーザの顔特徴点から、かかるユーザの位置姿勢情報を生成する。画像生成部24aは、眼鏡ユニット201aを装着したユーザの位置姿勢情報から、眼鏡ユニット201aに表示する画像を生成する。表示制御部21aは、画像生成部24aが生成した画像をユーザに対して表示する。
眼鏡ユニット201bは、表示制御部21b、顔特徴点抽出部22b、位置姿勢計算部23b、画像生成部24b、及び通信部25bを備える。顔特徴点抽出部22bは、眼鏡ユニット201bを装着したユーザの顔特徴点を抽出する。位置姿勢計算部23bは、眼鏡ユニット201bを装着したユーザの顔特徴点から、かかるユーザの位置姿勢情報を生成する。画像生成部24bは、眼鏡ユニット201bを装着したユーザの位置姿勢情報から、眼鏡ユニット201bに表示する画像を生成する。表示制御部21bは、画像生成部24bが生成した画像をユーザに対して表示する。
その他の実施形態の画像表示システム4によれば、上述の実施形態1〜3及びそれらの変形例の効果の少なくとも1つを奏する。
画像表示システム4においても、ユーザは、1人であってもよく、3人以上であってもよい。
上述の実施形態1〜3及びそれらの変形例では、例えば情報端末100等及び携帯情報端末400a,400bが顔特徴点抽出機能、位置姿勢推定機能、画像生成機能等を備えることとしたが、顔特徴点抽出機能を撮像部16等のカメラが有していてもよい。この場合、顔特徴点に基づいて人物の頭部の位置および姿勢を計算する位置姿勢計算機能を有する端末等は、撮像部から顔特徴点が入力される顔特徴点入力部を有していてもよい。
以上、本実施の形態について説明したが、前述した実施の形態は、本発明の好適な実施の形態の一例ではあるが、具体的な構成、処理内容等は、実施の形態で説明したものに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
例えば、上述の実施形態1〜3及び変形例の画像表示システムは、CPUをプログラムに従って動作させてもよく、プログラムが実行するのと同じ演算機能および制御機能を有する専用のASIC(Application Specific Integrated Circuit)を実装することによって、ハードウェア的に動作させてもよい。
1,2,3,4 画像表示システム
10,10m,10n 制御部
12,12a,12b,22a,22b 顔特徴点抽出部
13,13a,13b,23a,23b 位置姿勢計算部
14,14a,14b,24a,24b,44a,44b 画像生成部
16,56,66 撮像部
21,21a,21b 表示制御部
100,101,102,103,104 情報端末
200,200a,200b,201a,201b 眼鏡ユニット
400a,400b 携帯情報端末
500 全天球撮影装置
特開2016−539870号公報

Claims (13)

  1. 人物が装着することで前記人物に対して所定の画像を表示する頭部装着型画像表示装置と、
    前記頭部装着型画像表示装置を装着した前記人物の顔面を撮像する撮像部と、
    前記撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出する顔特徴点抽出部と、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部により計算された位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、を備える、
    画像表示システム。
  2. 前記頭部装着型画像表示装置は透過型の頭部装着型画像表示装置である、
    請求項1に記載の画像表示システム。
  3. 前記頭部装着型画像表示装置は、
    現実空間像と仮想空間像とが融合された拡張現実画像を表示する、
    請求項1または請求項2に記載の画像表示システム。
  4. 前記顔特徴点抽出部は、
    前記人物の顔面を構成する顔器官の特徴点のうち、目を含む領域を除く特徴点を抽出する、
    請求項1乃至請求項3のいずれか1項に記載の画像表示システム。
  5. 前記画像生成部は、
    前記頭部装着型画像表示装置の視野角および前記人物の前記位置姿勢情報に基づいて仮想空間における仮想カメラの画角、位置、及び向きを決定し、前記頭部装着型画像表示装置に表示させる画像を生成する、
    請求項1乃至請求項4のいずれか1項に記載の画像表示システム。
  6. 前記頭部装着型画像表示装置は、
    第1の人物が装着することで前記第1の人物に対して所定の画像を表示する第1の頭部装着型画像表示装置と、
    第2の人物が装着することで前記第2の人物に対して所定の画像を表示する第2の頭部装着型画像表示装置と、を含み、
    前記撮像部は、
    前記第1の頭部装着型画像表示装置を装着した前記第1の人物の顔面と、
    前記第2の頭部装着型画像表示装置を装着した前記第2の人物の顔面と、を同時に撮像し、
    前記顔特徴点抽出部は、
    前記撮像部が撮像した画像に基づいて前記第1の人物の顔特徴点を抽出する第1の顔特徴点抽出部と、
    前記撮像部が撮像した画像に基づいて前記第2の人物の顔特徴点を抽出する第2の顔特徴点抽出部と、を含み、
    前記位置姿勢計算部は、
    前記第1の人物の前記顔特徴点に基づいて前記第1の人物の頭部の位置および前記第1の人物の姿勢を計算する第1の位置姿勢計算部と、
    前記第2の人物の前記顔特徴点に基づいて前記第2の人物の頭部の位置および前記第2の人物の姿勢を計算する第2の位置姿勢計算部と、を含み、
    前記画像生成部は、
    前記第1の位置姿勢計算部により計算された位置姿勢情報に基づいて、前記第1の頭部装着型画像表示装置に表示させる画像を生成する第1の画像生成部と、
    前記第2の位置姿勢計算部により計算された位置姿勢情報に基づいて、前記第2の頭部装着型画像表示装置に表示させる画像を生成する第2の画像生成部と、を含む、
    請求項1乃至請求項5のいずれか1項に記載の画像表示システム。
  7. 前記撮像部は、
    360°の方位を一度に撮像可能な全天球カメラである、
    請求項1乃至請求項6のいずれか1項に記載の画像表示システム。
  8. 前記撮像部は、
    画像を撮像する機能を備えた携帯情報端末である、
    請求項1乃至請求項6のいずれか1項に記載の画像表示システム。
  9. 頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出する顔特徴点抽出部と、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部により計算された位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、を備える、
    画像表示装置。
  10. 頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部が撮像した画像に基づいて抽出された前記人物の顔特徴点が入力される顔特徴点入力部と、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部により計算された位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、を備える、
    画像表示装置。
  11. 頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出するステップと、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算するステップと、
    前記人物の頭部の位置情報および前記人物の姿勢情報を含む位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成するステップと、を含む、
    画像表示方法。
  12. コンピュータに、
    頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出する処理と、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する処理と、
    前記人物の頭部の位置情報および前記人物の姿勢情報を含む位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する処理と、を実行させる、
    プログラム。
  13. 頭部装着型画像表示装置を装着した人物の顔面を撮像する撮像部が撮像した画像に基づいて前記人物の顔特徴点を抽出する顔特徴点抽出部と、
    前記顔特徴点に基づいて前記人物の頭部の位置および前記人物の姿勢を計算する位置姿勢計算部と、
    前記位置姿勢計算部により計算された位置姿勢情報に基づいて、前記頭部装着型画像表示装置に表示させる画像を生成する画像生成部と、
    前記画像生成部が生成した前記画像を表示する表示制御部と、を備える、
    頭部装着型画像表示装置。
JP2019116783A 2019-06-24 2019-06-24 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置 Pending JP2021002301A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019116783A JP2021002301A (ja) 2019-06-24 2019-06-24 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置
US16/890,173 US20200400954A1 (en) 2019-06-24 2020-06-02 Image display system, image display method, and wearable display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116783A JP2021002301A (ja) 2019-06-24 2019-06-24 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置

Publications (1)

Publication Number Publication Date
JP2021002301A true JP2021002301A (ja) 2021-01-07

Family

ID=73994023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116783A Pending JP2021002301A (ja) 2019-06-24 2019-06-24 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置

Country Status (2)

Country Link
US (1) US20200400954A1 (ja)
JP (1) JP2021002301A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021060627A (ja) * 2018-02-07 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11285368B2 (en) * 2018-03-13 2022-03-29 Vc Inc. Address direction guiding apparatus and method
US11205296B2 (en) * 2019-12-20 2021-12-21 Sap Se 3D data exploration using interactive cuboids
USD959477S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959447S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
USD959476S1 (en) 2019-12-20 2022-08-02 Sap Se Display system or portion thereof with a virtual three-dimensional animated graphical user interface
US11682136B2 (en) * 2021-01-07 2023-06-20 Htc Corporation Display method, display system and non-transitory computer readable storage medium
US11792506B2 (en) * 2022-02-09 2023-10-17 Motorola Mobility Llc Electronic devices and corresponding methods for defining an image orientation of captured images

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016525741A (ja) * 2013-06-18 2016-08-25 マイクロソフト テクノロジー ライセンシング,エルエルシー 共有ホログラフィックオブジェクトおよびプライベートホログラフィックオブジェクト

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016525741A (ja) * 2013-06-18 2016-08-25 マイクロソフト テクノロジー ライセンシング,エルエルシー 共有ホログラフィックオブジェクトおよびプライベートホログラフィックオブジェクト

Also Published As

Publication number Publication date
US20200400954A1 (en) 2020-12-24

Similar Documents

Publication Publication Date Title
JP2021002301A (ja) 画像表示システム、画像表示装置、画像表示方法、プログラム、及び頭部装着型画像表示装置
CN110908503B (zh) 跟踪设备的位置的方法
US11169600B1 (en) Virtual object display interface between a wearable device and a mobile device
JP6860488B2 (ja) 複合現実システム
CN108292489B (zh) 信息处理装置和图像生成方法
CN102591449B (zh) 虚拟内容和现实内容的低等待时间的融合
US10268276B2 (en) Autonomous computing and telecommunications head-up displays glasses
CN109040600B (zh) 全景景象拍摄及浏览的移动装置、***及方法
CN110402415A (zh) 记录增强现实数据的技术
CN111602082B (zh) 用于包括传感器集成电路的头戴式显示器的位置跟踪***
CN104995583A (zh) 用于混合现实环境的直接交互***
WO2012011044A1 (en) Interactive reality augmentation for natural interaction
CN105452994A (zh) 虚拟物体的同时优选观看
JP2011128220A (ja) 情報提示装置、情報提示方法及びプログラム
US11443540B2 (en) Information processing apparatus and information processing method
US20190018477A1 (en) Display system and display control method of display system
KR20130034125A (ko) 증강현실 기능을 구비한 안경형 모니터
TWI453462B (zh) 智慧型電子裝置之虛擬望遠系統及其方法
US11195341B1 (en) Augmented reality eyewear with 3D costumes
CN107851334A (zh) 信息处理装置
WO2021020068A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017046065A (ja) 情報処理装置
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
CN114201028B (zh) 扩增实境***与其锚定显示虚拟对象的方法
WO2020071144A1 (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107