JP6779715B2 - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
JP6779715B2
JP6779715B2 JP2016171345A JP2016171345A JP6779715B2 JP 6779715 B2 JP6779715 B2 JP 6779715B2 JP 2016171345 A JP2016171345 A JP 2016171345A JP 2016171345 A JP2016171345 A JP 2016171345A JP 6779715 B2 JP6779715 B2 JP 6779715B2
Authority
JP
Japan
Prior art keywords
mobile terminal
display
user
computer
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016171345A
Other languages
English (en)
Other versions
JP2018036974A (ja
Inventor
誠一郎 中倉
誠一郎 中倉
卓己 阿部
卓己 阿部
太輔 小田嶋
太輔 小田嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Living Anywhere Garage
Original Assignee
Living Anywhere Garage
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Living Anywhere Garage filed Critical Living Anywhere Garage
Priority to JP2016171345A priority Critical patent/JP6779715B2/ja
Publication of JP2018036974A publication Critical patent/JP2018036974A/ja
Application granted granted Critical
Publication of JP6779715B2 publication Critical patent/JP6779715B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理システムに関する。
従来より、ユーザの視覚内に仮想空間における画像を表示し、その仮想空間内で種々の事象を楽しむことができる情報処理システムが知られており、この情報処理システムは、ゲームシステムなどに適用されている。情報処理システムは、ユーザの頭部に装着するヘッドマウントディスプレイ(HMD)と、ユーザが把持して操作するコントローラと、コントローラの操作の内容に従ってヘッドマウントディスプレイを制御するコンピュータと、で構成されている。
この類の情報処理システムにおいては、当該情報処理システムの利用に役立つ専用のコントローラが用意されていることが一般的である。
特開2007−300973号公報
しかしながら、専用のコントローラを利用する場合、以下に示す不都合がある。まず、専用のコントローラを初めて使うといったように、そのコントローラに慣れ親しんでいないユーザにとっては、操作に慣れるまでに一定の経験が必要となる。また、ユーザはヘッドマウントディスプレイを装着しているため、その手元を見ながら操作を行うことができず、専用のコントローラに不慣れなユーザにとってはより操作が難しいものとなってしまう。
加えて、コントローラは手指の操作を前提としており、その操作の範囲にはおのずと限界があり、多様な操作を実現することが困難であった。一方で、多様な操作を可能とするためにコントローラに新たな機能を追加することも考えられるが、コントローラのハードウェア構成が複雑となるばかりか、製造コストがかさんで高価な商品となってしまうという問題がある。
本発明はかかる事情に鑑みてなされたものであり、その目的は、操作性に優れる情報処理システムを提供する。
かかる課題を解決するために、本発明は、ユーザの視野内に、仮想空間における画像を表示するメインディスプレイと、情報を表示するとともにタッチ操作が可能な端末ディスプレイを備えており、ユーザが把持して操作するコントローラとして用いられる携帯端末と、メインディスプレイ及び携帯端末のそれぞれと通信可能に構成されるとともに、ユーザによる携帯端末の操作に応じてメインディスプレイを制御するコンピュータと、を有する情報処理システムを提供する。ここで、コンピュータは、仮想空間に携帯端末の仮想オブジェクト画像を表示するとともに、携帯端末の仮想オブジェクト画像に再現される端末ディスプレイに、ユーザが携帯端末に対して行う操作に関する情報を表示し、携帯端末の端末ディスプレイに対するタッチ操作の軌跡を、仮想空間に表示する
ここで、本発明において、携帯端末は、実空間における携帯端末の傾きを含む姿勢状態を検出する姿勢状態検出部をさらに有し、コンピュータは、仮想空間における携帯端末の仮想オブジェクト画像に、携帯端末から取得した携帯端末の姿勢状態を反映させて表示することが好ましい。
また、本発明において、携帯端末は、ユーザによって発話される音声が入力される音声入力部をさらに有し、コンピュータは、仮想空間に、音声入力部に入力された音声内容を文字で再現した仮想オブジェクト画像を表示することが望ましい。
また、本発明において、携帯端末及びコンピュータは、仮想空間において携帯端末の仮想オブジェクト画像に再現される端末ディスプレイの表示内容と、携帯端末の端末ディスプレイに表示する表示内容とを相互に連動させることが好ましい。
また、本発明において、携帯端末は、コンピュータが実行するアプリケーション上で認識される複数のアプリケーション機能を、任意のアプリケーション機能毎に端末ディスプレイの1画面に割り当てて表示するとともに、1画面に割り当てられたアプリケーション機能を画面単位で切り替え可能に表示することが好ましい。
また、本発明において、コンピュータは、仮想空間に、ユーザが把持する携帯端末の端末ディスプレイに表示されているアプリケーション機能を表示することが好ましい。
また、本発明において、コンピュータは、仮想空間に表示されたアプリケーション機能を操作するための操作用の仮想オブジェクト画像を、仮想空間に表示することが好ましい。
また、本発明において、メインディスプレイは、ユーザの頭部の動き、又はユーザの視線の動きをユーザ状態として検出するユーザ状態検出部をさらに有し、コンピュータは、メインディスプレイから取得したユーザ状態に基づいて、仮想空間に表示されたアプリケーション機能に対する操作意思を判断することが好ましい。
また、本発明において、携帯端末は、端末ディスプレイへのタッチ操作として所定の操作がなされると、端末ディスプレイ上に割り当てられているアプリケーション機能を画面単位で切り替えることが好ましい。
また、本発明において、携帯端末は、端末ディスプレイに情報を通知する通知機能を有しており、コンピュータは、仮想空間に、携帯端末の端末ディスプレイ上に通知される情報を表示することが好ましい。
また、本発明において、携帯端末は、自身が振動することで、通知対象となる情報を振動パターンとして提示する振動部と、音響情報を発生するスピーカと、をさらに有し、コンピュータは、ユーザに携帯端末の存在位置を通知するために、振動部を動作させる動作信号又はスピーカから所定の音を出力する動作信号を携帯端末に出力することが好ましい。
また、本発明において、携帯端末は、携帯端末の周囲を撮像するカメラを有し、コンピュータは、仮想空間に、カメラにおいて撮像された撮像画像を表示することが好ましい。
また、本発明において、コンピュータは、ユーザが携帯端末を操作してカメラでユーザ自身を撮像した場合には、仮想空間においてユーザを含む景色が撮像された画像を生成することが好ましい。
また、本発明において、コンピュータは、携帯端末から取得した携帯端末の姿勢状態に合わせて、ユーザが仮想空間内を移動するようにメインディスプレイを制御することが好ましい。
本発明によれば、操作性に優れる情報処理システムを提供することができる。
本実施形態に係る情報処理システムの全体構成を模式的に示す説明図 ヘッドマウントディスプレイの構成を示す説明図 携帯端末の構成を示す説明図 コンピュータの構成を示す説明図 第1の機能を説明するための説明図 第1の機能を説明するための説明図 第2の機能を説明するための説明図 アプリケーション機能の切り替えを示す説明図 第4の機能を説明するための説明図 第6の機能を説明するための説明図 第10の機能を説明するための説明図
図1は、本実施形態に係る情報処理システムの全体構成を模式的に示す説明図である。本実施形態に係る情報処理システムは、ヘッドマウントディスプレイ10と、携帯端末30と、コンピュータ50とで構成されている。
図2は、ヘッドマウントディスプレイ10の構成を示す説明図である。ヘッドマウントディスプレイ10は、ユーザが頭部に装着することで、ユーザの視野内に画像を表示する表示装置(メインディスプレイ)である。ヘッドマウントディスプレイ10が表示する画像は、仮想空間における画像(仮想オブジェクト画像)であり、アプリケーション進行中のユーザが装着することで、ユーザがあたかも仮想空間内に存在するような感覚を味わうことができる。
ヘッドマウントディスプレイ10は、画像表示部11と、モーションセンサ12と、視線センサ13と、通信部14と、を主体に構成されている。
画像表示部11は、ユーザの視野内に画像を表示するものであり、例えば液晶ディスプレイなどで構成されている。画像表示部11は、ユーザがヘッドマウントディスプレイ10を装着した状態で、ユーザの視線範囲と対応する大きさ及び位置に配置されている。
モーションセンサ12は、ユーザの頭部の動きを検出するセンサである。モーションセンサ12は、例えば9軸センサであり、加速度(3軸)、角速度(3軸)及び地磁気(3軸)を検出するセンサである。モーションセンサ12の検出結果に基づいて、ユーザの頭部の動き、例えば頭部の傾きの大きさと傾きの向きを特定することできる。
視線センサ13は、ユーザの視線の動きを検出するセンサである。視線センサ13は、ユーザの右眼と左眼とをそれぞれ撮像する一対のカメラで構成されている。視線センサ13の検出結果に基づいて、ユーザの視線の動き(視線方向)を特定することができる。なお、視線センサ13は、一対のカメラで構成する以外にも、ユーザの片方の眼を撮像する単眼カメラで構成してもよい。
通信部14は、ヘッドマウントディスプレイ10をコンピュータ50に通信可能に接続するインターフェースである。通信部14は、例えばUSB(UniversalSerial Bus)ケーブル等の有線通信に対応するものであるが、Wi−FiやBluetooth(登録商標)等の規格に代表される無線通信に対応するものであってもよい。
図3は、携帯端末30の構成を示す説明図である。携帯端末30は、ユーザが把持して操作するコントローラとして用いられものである。この携帯端末30は、本情報処理システムでの利用以外に、主として他の用途に利用される汎用的な携帯端末であり、例えばユーザが所有するスマートフォンである。なお、携帯端末30は、ユーザ自身が所有するスマートフォンに限らず、他人から貸与されたスマートフォンであってもよい。さらに、携帯端末30は、スマートフォン以外の携帯端末、例えばタブレット型端末であってもよい。
携帯端末30は、プロセッサ31と、メモリ32と、端末ディスプレイ33と、加速度センサ34と、方位センサ35と、振動部36と、スピーカ37と、カメラ38と、音声入力部39と、第1通信部40と、第2通信部41とを主体に構成されている。
プロセッサ31は、携帯端末30の制御を司るものであり、例えばCPUなどで構成されている。プロセッサ31は、ROM、RAM及びメモリ32に格納されたコンピュータプログラムや各種のデータに基づいて、所定の動作を実行する。
メモリ32は、携帯端末30の利用に供する各種データを格納するものであり、不揮発性メモリなどで構成されている。メモリ32には、プロセッサ31によって実行されるアプリケーション(アプリ)等が格納されている。
端末ディスプレイ33は、携帯端末30の正面側に設けられており、各種の情報を表示する。端末ディスプレイ33に表示される情報は、プロセッサ31により制御される。
この端末ディスプレイ33はタッチパネルを備えている。端末ディスプレイ33へタッチ操作(入力操作)を行うことで、ユーザのタッチ操作に応じた操作信号がプロセッサ31に入力される。
加速度センサ34は、携帯端末30に作用する加速度の方向及び大きさを検出する。方位センサ35は、例えば地磁気の向きを検出する。加速度センサ34の検出結果及び方位センサ35の検出結果から、携帯端末30の姿勢状態、すなわち、携帯端末30の向き及びその変化や、携帯端末30の位置やその変化を特定することができる。加速度センサ34及び方位センサ35は、実空間における携帯端末30の傾きを含む姿勢状態を検出する姿勢状態検出部として機能する。
振動部36は、自身が振動することで、情報を振動パターンとして提示するものである。振動部36は、例えばバイブレータ等で構成されている。
スピーカ37は、音や音声を含む音響情報を出力するものである。
カメラ38は、携帯端末30の周囲の景色を撮像するものであり、光学系、CCDやCMOSセンサ等の撮像素子で構成される撮像装置である。カメラ38は、携帯端末の背面側及び正面側にそれぞれ配置されている。
音声入力部39は、ユーザによって発話される音声を入力するものであり、例えばマイクロフォン等で構成されている。
第1通信部40は、例えば3G通信モジュールであり、3G回線用の基地局との間で無線通信を行う。携帯端末30は、第1通信部40を介して音声通信やデータ通信を行うことができる。
第2通信部41は、携帯端末30をコンピュータ50に通信可能に接続するものである。第2通信部41は、無線通信に対応するものであり、例えばBluetooth規格に準拠したものである。もっとも、第2通信部41は、Wi−Fiといった他の無線通信手法に対応するものであってもよく、また、例えばUSB(UniversalSerial Bus)ケーブル等の有線通信に対応するものであってもよい。
図4は、コンピュータ50の構成を示す説明図である。コンピュータ50は、ヘッドマウントディスプレイ10及び携帯端末30とそれぞれ通信可能に構成されている。このコンピュータ50は、情報処理システム全体の制御を行うものである。コンピュータ50は、プロセッサ51と、メモリ52と、第1通信部53と、第2通信部54とを主体に構成されている。
プロセッサ51は、コンピュータ50の制御を司るものであり、例えばCPUなどで構成されている。プロセッサ51は、ROM、RAM及びメモリ52に格納されたコンピュータプログラムや各種のデータに基づいて、所定の動作を実行する。
メモリ52は、コンピュータ50の利用に供する各種データを格納するものであり、ハードディスク装置などで構成されている。メモリ52には、プロセッサ51によって実行されるアプリケーション等が格納されている。
第1通信部53は、コンピュータ50をヘッドマウントディスプレイ10に通信可能に接続するインターフェースである。第1通信部53は、例えばUSBケーブル等の有線通信に対応するものであるが、Wi−FiやBluetooth等の規格に代表される無線通信に対応するものであってもよい。
第2通信部54は、コンピュータ50を携帯端末30に通信可能に接続するインターフェースである。第2通信部54は、無線通信に対応するものであり、例えばBluetooth規格に準拠したものである。もっとも、第2通信部54は、Wi−Fiといった他の無線通信手法に対応するものであってもよく、また、例えばUSBケーブル等の有線通信に対応するものであってもよい。
本実施形態との関係において、コンピュータ50のプロセッサ51は、所定のアプリケーションを実行しつつ、ヘッドマウントディスプレイ10の画像表示部11を制御する。また、プロセッサ51は、ユーザによる携帯端末30の操作に応じて、ヘッドマウントディスプレイ10の画像表示部11を制御する。このヘッドマウントディスプレイ10の制御により、ヘッドマウントディスプレイ10の画像表示部11には、アプリケーション進行中の仮想オブジェクト画像や、ユーザによる携帯端末30の操作を反映した仮想オブジェクト画像が表示される。
このような処理を行うために、プロセッサ51は、携帯端末30との通信を通じて、携帯端末30の情報を取得している。プロセッサ51は、この情報に基づいて、携帯端末30の姿勢状態、端末ディスプレイ33に対するタッチ操作の内容、端末ディスプレイ33に表示されている画像を取得することができる。また、プロセッサ51は、ヘッドマウントディスプレイ10との通信を通じて、ヘッドマウントディスプレイ10の情報を取得している。プロセッサ51は、この情報に基づいて、モーションセンサ12の検出結果、視線センサ13の検出結果を取得することができる。
以下、本実施形態の特徴の一つである情報処理システムの動作について説明する。まず、ユーザは、コンピュータ50にインストールされた所定のアプリケーションを実行する。
つぎに、ユーザは、携帯端末30をコントローラとして機能させるために、携帯端末30にインストールされた所定のアプリを実行する。このアプリの実行により、携帯端末30の端末ディスプレイ33には、携帯端末30をコントローラとして機能させるためのアプリケーション機能(具体的には、当該アプリケーション機能を示すアイコンなど)が表示される。ここで、アプリケーション機能は、コンピュータ50が実行するアプリケーション上で認識される機能のことであり、「アプリケーションの進行に必要な操作に関するもの」、「アプリケーションに関する各種の設定」、「アプリケーションの終了」などの様々なものがこれに該当する。端末ディスプレイ33上で、アプリケーション機能が表示された位置をタッチ操作することで、その操作信号が携帯端末30からコンピュータ50へと出力され、アプリケーション上でその機能が実行される。
また、ユーザは、ヘッドマウントディスプレイ10を頭部に装着する。コンピュータ50によるアプリケーションの実行により、ヘッドマウントディスプレイ10の画像表示部11には、アプリケーションの進行に応じた仮想オブジェクト画像が表示される。ユーザは、画像表示部11に表示される仮想オブジェクト画像を通じて、仮想空間上に現れるオブジェクトを視認することができる。
そして、この情報処理システムの利用にあたり、ユーザは机などに肘を着き、端末ディスプレイ33を手前に向けた状態で携帯端末30を把持する。この状態で、ヘッドマウントディスプレイ10の画像表示部11に表示された画像を見ながら、携帯端末30を操作することで、後述する各種の機能を享受することができる。
以下、情報処理システムによって実行される種々の機能について説明する。なお、以下の説明において、図面に表される画像表示部11の内容は、説明の便宜上、本実施形態に係る各機能を代表的に示しており、実際には、アプリケーション進行に関わる各種の仮想オブジェクト画像が表示されるものと理解されたい。
(第1の機能)
本機能は、携帯端末30をコントローラとして利用するための基本的な機能である。図5及び図6は、第1の機能を説明するための説明図である。各図において、(a)はユーザが把持する携帯端末30を模式的に示し、(b)はヘッドマウントディスプレイ10の画像表示部11に表示される画像を模式的に示している。
具体的には、コンピュータ50のプロセッサ51は、ヘッドマウントディスプレイ10の画像表示部11を制御して、仮想空間に携帯端末30の仮想オブジェクト画像Vmを表示する。この際、プロセッサ51は、携帯端末30から取得した情報に基づいて、携帯端末30の端末ディスプレイ33に表示される表示内容を、携帯端末30の仮想オブジェクト画像Vmに再現される端末ディスプレイVm1に表示させる。これにより、仮想空間の端末ディスプレイVm1には、実空間の端末ディスプレイ33に表示されるアプリケーション機能が表示される。このアプリケーション機能の表示を通じて、ユーザが携帯端末30に対して行う操作に関する情報が端末ディスプレイVm1に表示されることとなる。また、この場合において、携帯端末30及びコンピュータ50は、仮想オブジェクト画像Vmに再現される端末ディスプレイVm1の表示内容と、携帯端末30の端末ディスプレイ33の表示内容とを相互に連動させることができる。
図5(a)に示すように、ユーザが把持する携帯端末30の端末ディスプレイ33に、例えば2つのアプリケーション機能F1,F2が表示されている場合には、図5(b)に示すように、仮想オブジェクト画像Vmに再現される端末ディスプレイVm1にも、端末ディスプレイ33の表示内容(アプリケーション機能F1,F2)が表示される。
また、プロセッサ51は、携帯端末30の仮想オブジェクト画像Vmを表示するにあたり、携帯端末30から取得した携帯端末30の姿勢状態を参照する。そして、プロセッサ51は、実空間における携帯端末30の姿勢状態を、仮想空間における携帯端末30の仮想オブジェクト画像Vmの姿勢状態に反映させて表示している。
このため、実空間でユーザが把持する携帯端末30の姿勢状態が、仮想空間における携帯端末30の仮想オブジェクト画像Vmの姿勢状態にそのまま反映されることとなる。例えば、図6に示すように、実空間でユーザが携帯端末30を右側に傾ければ、仮想空間における携帯端末30の仮想オブジェクト画像Vmも右側に傾いた状態で表示されるといった如くである。
プロセッサ51は、携帯端末30からその姿勢状態を周期的に取得し、その都度、仮想空間における携帯端末30の仮想オブジェクト画像Vmの姿勢状態に反映させている。これにより、ユーザが把持する携帯端末30の姿勢状態が、仮想オブジェクト画像Vmにリアルタイムで反映されることとなる。
そして、ユーザは、仮想空間における携帯端末30の仮想オブジェクト画像Vmを視認しながら、ユーザが把持する携帯端末30の端末ディスプレイ33上の所要の位置をタッチ操作する。この際、ユーザは、仮想オブジェクト画像Vmに再現される端末ディスプレイVm1の表示内容から、実空間上の携帯端末30の端末ディスプレイ31に表示されているアプリケーション機能F1,F2の大凡の表示位置を認識した上で、タッチ操作を行うことができる。このタッチ操作は、携帯端末30のプロセッサ31により認識され、プロセッサ31は、タッチ操作の位置に表示されたアプリケーション機能F1,F2が操作された旨の操作信号をコンピュータ50へと出力する。そして、コンピュータ50のプロセッサ51は、携帯端末30からの取得した操作信号に基づいて所定のアプリケーション機能F1,F2を実行し、これにより、ユーザの操作意思がアプリケーション上で反映されることとなる。
このように、第1の機能において、プロセッサ51は、(1)仮想空間上に携帯端末30の仮想オブジェクト画像Vmを表示し、(2)仮想オブジェクト画像Vmに再現される端末ディスプレイVm1に、ユーザが携帯端末30に対して行う操作に関する情報を表示している。
この構成によれば、日常的に利用している携帯端末30をコントローラとして利用することができるので、慣れ親しんだ感覚でコントローラ(携帯端末30)を使用することができる。このため、専用のコントローラのように、その操作に慣れるまでに一定の経験が必要となるといった不都合を解消することができる。
また、仮想空間上の携帯端末30の仮想オブジェクト画像Vmに、ユーザが携帯端末30に対して行う操作に関する情報が表示されている。このため、あたかも実際の携帯端末30を見ている感覚で携帯ディスプレイ33のタッチ操作を行うことができる。その結果、ヘッドマウントディスプレイ10を装着することでその手元の状態が認識できないという不都合を解消することができる。
加えて、仮想空間における携帯端末30の仮想オブジェクト画像Vmには、携帯端末30の姿勢状態が反映されている。このため、あたかも実際の携帯端末30を見ている感覚で携帯ディスプレイ33のタッチ操作を行うことができる。その結果、ヘッドマウントディスプレイ10を装着することで、その手元の状態が認識できないという不都合を解消することができる。
また、上記の構成によれば、携帯端末30が保有する様々な機能を、コントローラの機能として利用することができる。携帯端末30に本来的に搭載されている様々な機能を利用すればよいので、専用のコントローラを製造する場合のように、構成が複雑化したり、製造コストがかさんだりするといった問題を解消することができる。
なお、上述した実施形態では、仮想空間における端末ディスプレイVm1の表示内容と、実空間における端末ディスプレイ33の表示内容とを相互に連動させている。しかしながら、ヘッドマウントディスプレイ10を装着している間、ユーザは、実空間の携帯端末30を視認することができない状態となっている。そこで、携帯端末30は、仮想空間の端末ディスプレイVm1の表示内容に従ったタッチ操作を入力可能とした状態において、端末ディスプレイ33に対する表示を省略したり、或いは端末ディスプレイVm1の表示内容とは異なる別の内容を表示したりすることも可能である。
(第2の機能)
第2の機能は、携帯端末30の音声入力部39を利用した音声入力機能である。図7は、第2の機能を説明するための説明図であり、ヘッドマウントディスプレイ10の画像表示部11に表示される画像を模式的に示している。具体的には、携帯端末30のプロセッサ31は、音声入力部39を通じてユーザが発した音声が入力されると、音声認識を行う。そして、プロセッサ31は、音声認識の結果を、コンピュータ50に出力する。
コンピュータ50のプロセッサ51は、携帯端末30から音声の認識結果を取得すると、図7に示すように、仮想空間上に、認識された音声内容を文字で再現した仮想オブジェクト画像Vtを表示する。
この機能によれば、携帯端末30の音声入力機能を通じて、ユーザが実空間で発した音声内容が仮想空間上に反映される。これにより、キーボードやテンキーなどを操作することなく、仮想空間上に簡単に文字情報を現すことができる。
(第3の機能)
第3の機能は、アプリケーション機能の切り替えに関するものである。ここで、図8は、アプリケーション機能の切り替えを示す説明図である。コンピュータ50が実行するアプリケーションは、そのアプリケーション上で認識される複数のアプリケーション機能を備えている。
上述した通り、携帯端末30のプロセッサ31は、端末ディスプレイ33にアプリケーション機能を表示するが、そのアプリケーション機能は、アプリケーションによって複数種類存在している。例えばアプリケーション機能が6つであるならば、プロセッサ31は、6つのアプリケーション機能F1〜F6を、任意のアプリケーション機能毎に端末ディスプレイ33の1画面に割り当てて表示している。例えば、図8(a)〜(d)に示すように、アプリケーション機能F1,F2が1画面に割り当てられ、アプリケーション機能F3,F4が1画面に割り当てられ、アプリケーション機能F5,F4が1画面に割り当てられ、アプリケーション機能F6,F4が1画面に割り当てられるといった如くである。
1画面に割り当てられたアプリケーション機能F1〜F6は、画面単位で切り替え可能に構成されている。この切り替えは、携帯端末30への所定の操作で行うことができる。すなわち、プロセッサ31は、携帯端末30への所定の操作、例えば端末ディスプレイ33に対するフリック操作がなされたことを条件に、端末ディスプレイ33に割り当てられているアプリケーション機能F1〜F6を画面単位で切り替える。例えば、図8(a)に示す画面状態でフリック操作がなされると、端末ディスプレイ33は図8(b)の状態に遷移する、といった如くである。
この機能によれば、端末ディスプレイ33の操作により、アプリケーション機能F1〜F6を簡単に切り替えることができる。
(第4の機能)
図9は、第4の機能を説明するための説明図であり、ヘッドマウントディスプレイ10の画像表示部11に表示される画像を模式的に示している。上述の第3の機能に関連して、コンピュータ50のプロセッサ51は、仮想空間上に、端末ディスプレイ33に表示されているアプリケーション機能の仮想オブジェクト画像を表示させることができる。図9(a)は、アプリケーション機能F3の仮想オブジェクト画像Vofを表示させた例を示している。
この場合、プロセッサ51は、図9(b)に示すように、仮想空間上に、アプリケーション機能F3を操作するための仮想オブジェクト画像Vosを表示することができる。そして、プロセッサ51は、操作用の仮想オブジェクト画像Vosを表示すると、携帯端末30の姿勢状態及び端末ディスプレイ33へのタッチ操作に基づいて、操作用の仮想オブジェクト画像Vosを操作する。
具体的には、プロセッサ51は、携帯端末30から取得した姿勢状態に基づいて、操作用の仮想オブジェクト画像Vosを移動させる。例えば、携帯端末30が右側に倒されると、操作用の仮想オブジェクト画像Vosを右側に移動して表示させるといった如くである。また、プロセッサ51は、携帯端末30に所定の操作(例えば、携帯端末30を振る動作や、端末ディスプレイ33へのタッチ操作など)がなされたことを判断すると、操作用の仮想オブジェクト画像Vosが指し示しているアプリケーション機能F3を実行するといった如くである。
さらに、アプリケーション機能F3の実行は、操作用の仮想オブジェクト画像Vosを利用する形態に限らず、ユーザの頭部の動き、又はユーザの視線の動きを利用することもできる。
具体的には、コンピュータ50のプロセッサ51は、ヘッドマウントディスプレイ10に搭載されたモーションセンサ12による検出結果を取得し、この取得した検出結果からユーザの頭部の傾きの大きさと傾きの向きを特定する。そして、プロセッサ51は、ユーザの頭部の傾きの大きさと傾きの向きに基づいて、仮想空間上に表示されたアプリケーション機能F3に対する操作意思を判断する。例えば、アプリケーション機能F3が表示される方向に向かって、ユーザの頭部が傾いた場合には、そのアプリケーション機能F3に対する操作意思を判断するといった如くである。プロセッサ51は、操作意思が判断された場合には、そのアプリケーション機能F3を実行する。
また、ユーザの頭部の動きのみならず、視線センサ13から情報を取得して、ユーザの視線の動きを利用するものであってもよい。
これらの各手法によれば、日常的に利用されている携帯端末30や、ユーザの頭部や視線の動きを通じて、アプリケーション機能を操作することができる。これにより、ユーザが簡単に操作を行うことができる。なお、ヘッドマウントディスプレイ10は、モーションセンサ12及び視線センサ13の両方を備えている必要はなく、前述の機能を実現するために必要な構成として、モーションセンサ12及び視線センサ13の少なくとも一方を備えていればよい。また、このような機能を不要とする場合には、ヘッドマウントディスプレイ10について、モーションセンサ12及び視線センサ13を備えない構成とすることも可能である。
(第5の機能)
第5の機能は、携帯端末30の端末ディスプレイ33をホワイトボードとして利用することである。具体的には、コンピュータ50のプロセッサ51は、携帯端末30から取得した、端末ディスプレイ33に対するタッチ操作の内容を参照する。そして、プロセッサ51は、仮想空間上に、端末ディスプレイ33に対するタッチ操作の内容、すなわち、タッチ操作の軌跡を再現した仮想オブジェクト画像を表示する。
この第5の機能によれば、携帯端末30の端末ディスプレイ33への操作を通じて、仮想空間をホワイトボードのように利用することができる。これにより、ユーザにとって興味あるシステムを提供することができる。
(第6の機能)
図10は、第6の機能を説明するための説明図であり、ヘッドマウントディスプレイ10の画像表示部11に表示される画像を模式的に示している。携帯端末30は、メッセージアプリといった各種アプリから通知される情報を、端末ディスプレイ33上に表示する通知機能を有している。本実施形態において、携帯端末30のプロセッサ31は、通知を行う場合には、端末ディスプレイ33上に表示するのみならず、その情報をコンピュータ50にも通知する。
コンピュータ50のプロセッサ51は、携帯端末30から情報を受け付けると、図10に示すように、仮想空間に、その情報を再現した仮想オブジェクト画像Vnを表示する。
これにより、携帯端末30を実際に視認できない状況であっても、携帯端末30からなされる通知を適切に認識することができる。これにより、携帯端末30をコントローラとして利用しつつ、ユーザの利便性の向上を図ることができる。
(第7の機能)
ユーザが仮想空間を体験している最中に、携帯端末30を手放して、机の上に置いたままにしてしまうことがある。一方で、ユーザは、ヘッドマウントディスプレイ10を装着しているため、実空間に存在する携帯端末30を視覚的に発見することができない。そこで、本機能は、携帯端末30が備える振動部36及びスピーカ37を利用して、携帯端末30の存在する位置を通知するものである。
具体的には、コンピュータ50のプロセッサ51は、ユーザに携帯端末30の存在位置を通知するために、振動部36を動作させる動作信号及びスピーカ37から所定の音を出力する動作信号の一方又は双方を携帯端末30に出力する。
この動作信号を携帯端末30が取得すると、携帯端末30のプロセッサ31は、動作信号に従って振動部36を動作させたり、スピーカ37から所定の音を出力したりする。
このような一連の動作を通じて、携帯端末30が振動したり、携帯端末30から音が出力されたりすることで、ユーザは、触覚や聴覚を利用して携帯端末30の存在位置を認識することができる。このため、ヘッドマウントディスプレイ10により実空間の景色が遮断された状態であっても、携帯端末30を探し当てることができるので、ユーザにとって魅力あるシステムを提供することができる。
なお、コンピュータ50のプロセッサ51が、携帯端末30に対して動作信号を出力するタイミングとしては、所定時間にわたり携帯端末30の姿勢状態に変化がないことや、所定時間にわたり端末ディスプレイ33へのタッチ操作がないことを条件とすることができる。
(第8の機能)
第8の機能は、携帯端末30のカメラ機能を通じて、携帯端末30のカメラ38により撮像された画像を仮想空間に表示するものである。
具体的には、携帯端末30のプロセッサ31は、端末ディスプレイ33のタッチ操作を通じてカメラ38の撮像操作を判断すると、カメラ38を動作させて撮像を行う。プロセッサ31は、カメラ38から出力された撮像画像をコンピュータ50へと出力する。
コンピュータ50のプロセッサ51は、携帯端末30から撮像画像を取得すると、仮想空間上に撮像画像を表示させる。
これにより、携帯端末30により撮像された撮像画像を、仮想空間上で認識することができる。これにより、コントローラである携帯端末30がそもそも備える機能を利用して、システムに新たな付加価値を提供することができる。また、カメラを付加した専用のコントローラを用意する必要がないので、構成が複雑化したり、製造コストがかさんだりするといった問題を解消することができる。
(第9の機能)
第9の機能は、ユーザが携帯端末30を操作してカメラ38でユーザ自身を撮像する、いわゆる自撮り機能を活用したものである。
具体的には、携帯端末30のプロセッサ31は、端末ディスプレイ33のタッチ操作を通じて自撮り操作がなされたことを判断すると、自撮り操作信号をコンピュータ50へと出力する。
コンピュータ50のプロセッサ51は、携帯端末30から自撮り操作信号を取得すると、ユーザに対応する仮想オブジェクト画像を含む仮想空間上の景色を再現した画像を生成する。生成した画像は、仮想空間上に表示させたり、携帯端末30へと出力しメモリ32へ保存させたりすることができる。
この構成によれば、携帯端末30の自撮り操作により、仮想空間上でのユーザ自身を撮像した画像を得ることができる。このため、ユーザは、日常的な操作を行うだけでよいので、慣れ親しんだ簡単な操作でその機能を利用することができる。
(第10の機能)
図11は、第10の機能を説明するための説明図であり、ヘッドマウントディスプレイ10の画像表示部11に表示される画像を模式的に示している。本機能は、携帯端末30の姿勢状態に応じて、仮想空間内をユーザが移動するための機能である。
具体的には、コンピュータ50のプロセッサ51は、携帯端末30から取得した携帯端末30の姿勢状態を参照する。プロセッサ51は、携帯端末30から取得した携帯端末の姿勢状態に合わせて、ユーザが仮想空間内を移動するようにヘッドマウントディスプレイ10を制御する。例えば、携帯端末30が右側に倒されると、図11に示すように、ユーザが仮想空間内を右側に移動するといった如くである。
この機能によれば、携帯端末30の姿勢を変化させるだけの簡単かつ感覚的な操作で、仮想空間内の移動を行うことができる。
以上、本実施形態に係る情報処理システムについて説明したが、本発明は上述した実施形態に限定されることなく、その発明の範囲内において種々の変形が可能であることはいうまでもない。例えば、ヘッドマウントディスプレイに表示する内容は、仮想空間に関するもの以外にも、実空間における画像に仮想空間における画像を重畳して表示する拡張現実に関するものであってもよい。
また、コンピュータが実施する処理は、ネットワークを介して接続されるサーバーなどが代用してもよい。
10 ヘッドマウントディスプレイ(メインディスプレイ)
11 画像表示部
12 モーションセンサ
13 視線センサ
14 通信部
30 携帯端末
31 プロセッサ
32 メモリ
33 端末ディスプレイ
34 加速度センサ(姿勢状態検出部)
35 方位センサ(姿勢状態検出部)
36 振動部
37 スピーカ
38 カメラ
39 音声入力部
40 第1通信部
41 第2通信部
50 コンピュータ
51 プロセッサ
52 メモリ
53 第1通信部
54 第2通信部

Claims (14)

  1. ユーザの視野内に、仮想空間における画像を表示するメインディスプレイと、
    情報を表示するとともにタッチ操作が可能な端末ディスプレイを備えており、ユーザが把持して操作するコントローラとして用いられる携帯端末と、
    前記メインディスプレイ及び前記携帯端末のそれぞれと通信可能に構成されるとともに、ユーザによる前記携帯端末の操作に応じて前記メインディスプレイを制御するコンピュータと、を有し、
    前記コンピュータは、
    仮想空間に前記携帯端末の仮想オブジェクト画像を表示するとともに、
    前記携帯端末の仮想オブジェクト画像に再現される端末ディスプレイに、ユーザが前記携帯端末に対して行う操作に関する情報を表示し、前記携帯端末の端末ディスプレイに対するタッチ操作の軌跡を、仮想空間に表示することを特徴とする情報処理システム。
  2. 前記携帯端末は、
    実空間における前記携帯端末の傾きを含む姿勢状態を検出する姿勢状態検出部をさらに有し、
    前記コンピュータは、
    仮想空間における前記携帯端末の仮想オブジェクト画像に、前記携帯端末から取得した前記携帯端末の姿勢状態を反映させて表示することを特徴とする請求項1に記載された情報処理システム。
  3. 前記携帯端末は、
    ユーザによって発話される音声が入力される音声入力部をさらに有し、
    前記コンピュータは、
    仮想空間に、前記音声入力部に入力された音声内容を文字で再現した仮想オブジェクト画像を表示することを特徴とする請求項1又は2に記載された情報処理システム。
  4. 前記携帯端末及び前記コンピュータは、
    仮想空間において前記携帯端末の仮想オブジェクト画像に再現される端末ディスプレイの表示内容と、前記携帯端末の端末ディスプレイに表示する表示内容とを相互に連動させることを特徴とする請求項1から3のいずれかに記載された情報処理システム。
  5. 前記携帯端末は、
    前記コンピュータが実行するアプリケーション上で認識される複数のアプリケーション機能を、任意のアプリケーション機能毎に前記端末ディスプレイの1画面に割り当てて表示するとともに、1画面に割り当てられたアプリケーション機能を画面単位で切り替え可能に表示することを特徴とする請求項1から4のいずれかに記載された情報処理システム。
  6. 前記コンピュータは、
    仮想空間に、ユーザが把持する前記携帯端末の端末ディスプレイに表示されているアプリケーション機能を表示することを特徴とする請求項5に記載された情報処理システム。
  7. 前記コンピュータは、
    仮想空間に表示されたアプリケーション機能を操作するための操作用の仮想オブジェクト画像を、仮想空間に表示することを特徴とする請求項6に記載された情報処理システム。
  8. 前記メインディスプレイは、
    ユーザの頭部の動き、又はユーザの視線の動きをユーザ状態として検出するユーザ状態検出部をさらに有し、
    前記コンピュータは、
    前記メインディスプレイから取得した前記ユーザ状態に基づいて、仮想空間に表示されたアプリケーション機能に対する操作意思を判断することを特徴とする請求項6に記載された情報処理システム。
  9. 前記携帯端末は、
    前記端末ディスプレイへのタッチ操作として所定の操作がなされると、前記端末ディスプレイ上に割り当てられているアプリケーション機能を画面単位で切り替えることを特徴とする請求項5から7のいずれかに記載された情報処理システム。
  10. 前記携帯端末は、
    前記端末ディスプレイに情報を通知する通知機能を有しており、
    前記コンピュータは、
    仮想空間に、前記携帯端末の端末ディスプレイ上に通知される情報を表示することを特徴とする請求項1から9のいずれかに記載された情報処理システム。
  11. 前記携帯端末は、
    自身が振動することで、通知対象となる情報を振動パターンとして提示する振動部と、
    音響情報を発生するスピーカと、をさらに有し、
    前記コンピュータは、
    ユーザに前記携帯端末の存在位置を通知するために、前記振動部を動作させる動作信号又は前記スピーカから所定の音を出力する動作信号を前記携帯端末に出力することを特徴とする請求項1から10のいずれかに記載された情報処理システム。
  12. 前記携帯端末は、
    前記携帯端末の周囲を撮像するカメラを有し、
    前記コンピュータは、
    仮想空間に、前記カメラにおいて撮像された撮像画像を表示することを特徴とする請求項1から11のいずれかに記載された情報処理システム。
  13. 前記コンピュータは、
    ユーザが前記携帯端末を操作して前記カメラでユーザ自身を撮像した場合には、仮想空間においてユーザを含む景色が撮像された画像を生成することを特徴とする請求項12に記載された情報処理システム。
  14. 前記コンピュータは、
    前記携帯端末から取得した前記携帯端末の姿勢状態に合わせて、ユーザが仮想空間内を移動するように前記メインディスプレイを制御することを特徴とする請求項1から13のいずれかに記載された情報処理システム。
JP2016171345A 2016-09-02 2016-09-02 情報処理システム Expired - Fee Related JP6779715B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016171345A JP6779715B2 (ja) 2016-09-02 2016-09-02 情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016171345A JP6779715B2 (ja) 2016-09-02 2016-09-02 情報処理システム

Publications (2)

Publication Number Publication Date
JP2018036974A JP2018036974A (ja) 2018-03-08
JP6779715B2 true JP6779715B2 (ja) 2020-11-04

Family

ID=61566403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016171345A Expired - Fee Related JP6779715B2 (ja) 2016-09-02 2016-09-02 情報処理システム

Country Status (1)

Country Link
JP (1) JP6779715B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276109A1 (ja) * 2021-07-01 2023-01-05 マクセル株式会社 情報処理装置、撮影画像転送表示システム、及び撮影画像転送表示方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1116211A4 (en) * 1998-09-22 2001-11-21 Vega Vista Inc INTUITIVE CONTROL OF A PORTABLE DATA PRESENTATION SCREEN
JP4344568B2 (ja) * 2003-09-05 2009-10-14 富士フイルム株式会社 ヘッドマウントディスプレイ及びそのコンテンツ再生方法
JP4404830B2 (ja) * 2005-09-28 2010-01-27 シャープ株式会社 操作システム
JP4799261B2 (ja) * 2006-05-02 2011-10-26 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、その制御方法及びプログラム
US10905943B2 (en) * 2013-06-07 2021-02-02 Sony Interactive Entertainment LLC Systems and methods for reducing hops associated with a head mounted system
JP6255731B2 (ja) * 2013-06-17 2018-01-10 コニカミノルタ株式会社 表示システム、表示方法および表示端末
JP6355978B2 (ja) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
JP6467922B2 (ja) * 2015-01-06 2019-02-13 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
JP2017004354A (ja) * 2015-06-12 2017-01-05 富士通株式会社 表示制御方法、表示制御プログラム、情報処理端末、及びウェアラブルデバイス
JP2017146651A (ja) * 2016-02-15 2017-08-24 株式会社コロプラ 画像処理方法及び画像処理プログラム

Also Published As

Publication number Publication date
JP2018036974A (ja) 2018-03-08

Similar Documents

Publication Publication Date Title
JP7095602B2 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2015188614A1 (zh) 操作虚拟世界里的电脑和手机的方法、装置以及使用其的眼镜
US20150220142A1 (en) Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
CN110637274B (zh) 信息处理设备、信息处理方法以及程序
US10296359B2 (en) Interactive system control apparatus and method
KR102684302B1 (ko) 가상 현실 (vr) 디바이스에 의해 디스플레이되는 가상 컨텐트를 네비게이트하는 방법 및 장치
WO2021059359A1 (ja) アニメーション制作システム
JPWO2019069575A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
JP2021192178A (ja) デバイス、制御方法及びプログラム
JP2019106220A (ja) ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
JP6457446B2 (ja) 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP6779715B2 (ja) 情報処理システム
WO2020105269A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6250779B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
JP6278546B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US10503278B2 (en) Information processing apparatus and information processing method that controls position of displayed object corresponding to a pointing object based on positional relationship between a user and a display region
JP2019033906A (ja) 情報処理方法、プログラム及びコンピュータ
JP2018032384A (ja) 仮想空間におけるコミュニケーションを支援するための方法および装置ならびに当該方法をコンピュータに実行させるためのプログラム
JP2019020836A (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるためのプログラム
US11294450B2 (en) Method and system for VR interaction
JP2017040893A (ja) 頭部装着型表示装置に関するプログラム
GB2535730A (en) Interactive system control apparatus and method
JP2019207714A (ja) 情報処理方法、コンピュータ及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201014

R150 Certificate of patent or registration of utility model

Ref document number: 6779715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees