JP6833319B2 - 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置 - Google Patents

情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置 Download PDF

Info

Publication number
JP6833319B2
JP6833319B2 JP2016025123A JP2016025123A JP6833319B2 JP 6833319 B2 JP6833319 B2 JP 6833319B2 JP 2016025123 A JP2016025123 A JP 2016025123A JP 2016025123 A JP2016025123 A JP 2016025123A JP 6833319 B2 JP6833319 B2 JP 6833319B2
Authority
JP
Japan
Prior art keywords
dimensional image
content
area
screen
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016025123A
Other languages
English (en)
Other versions
JP2017142454A (ja
Inventor
銀河 亀井
銀河 亀井
雅幸 岡田
雅幸 岡田
高橋 龍太郎
龍太郎 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2016025123A priority Critical patent/JP6833319B2/ja
Priority to US15/219,565 priority patent/US10324611B2/en
Publication of JP2017142454A publication Critical patent/JP2017142454A/ja
Application granted granted Critical
Publication of JP6833319B2 publication Critical patent/JP6833319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ポインティングデバイスによる入力を受け付け可能な情報処理装置のコンピュータに実行させる情報処理プログラムに関し、より特定的には、3次元仮想空間画像と2次元画像とを1画面で表示するときの画面表示制御に関する。
従来から、タッチパネルに対する操作に応じて、画面に表示されている2次元画像をスクロールさせる技術が知られている(例えば特許文献1)。
特開2012−68726号公報
上記の技術は、画面に表示される画像が2次元画像である場合を想定した技術であった。そのため、仮想3次元空間を仮想カメラで撮像した仮想3次元空間画像が画面に表示される場合については特に想定するものではなかった。また、2次元画像と仮想3次元空間画像との双方が1画面に同時に表示されるような場合についても想定したものではなかった。
それ故に、本発明の目的は、スマートデバイス等において、仮想3次元空間画像と2次元画像との双方を1画面で表示しようとする場合に、ユーザの利便性を高める画面スクロール制御が可能な情報処理プログラム等を提供することである。
上記目的を達成するために、例えば以下のような構成例が挙げられる。
構成例の一例は、ポインティングデバイスによる入力を受け付け可能な情報処理装置のコンピュータに実行させる情報処理プログラムであって、コンピュータを、オブジェクト配置手段と、仮想カメラ配置手段と、3次元画像生成手段と、2次元画像生成手段と、コンテンツ領域表示手段として機能させる。オブジェクト配置手段は、仮想3次元空間にオブジェクトを配置する。仮想カメラ配置手段は、仮想3次元空間に仮想カメラを配置する。3次元画像生成手段は、仮想カメラで仮想3次元空間を撮影することにより3次元画像を生成する。2次元画像生成手段は、所定の2次元画像を生成する。コンテンツ領域表示手段は、前記3次元画像を投影するための3次元画像用領域と、当該3次元画像用領域に隣接する領域であった前記2次元画像を表示するための2次元画像用領域とを含むコンテンツ表示領域を画面に表示する。そして、コンテンツ表示領域が画面スクロールされる場合に、3次元画像用領域および2次元画像用領域の双方が一体的に画面スクロールされる。
上記構成例によれば、3次元画像用領域と2次元画像用領域とのそれぞれに対するユーザが関心度の高さに応じて、限られた画面の大きさを有効活用することができ、ユーザの利便性を高めることができる。
他の構成例として、情報処理プログラムは、ポインティングデバイスによる入力が3次元画像用領域に対して行われたか2次元画像用領域に対して行われたかを判定する入力対象判定手段としてコンピュータを更に機能させてもよい。そして、スクロール制御手段は、2次元画像用領域内の任意の位置を入力の始点とする所定の操作が行われたときに、コンテンツ表示領域の画面スクロールを行うように構成されていてもよい。更に、情報処理プログラムは、3次元画像用領域内の任意の位置を入力の始点とする所定の操作が行われた場合に、コンテンツ表示領域の画面スクロールを行わず、3次元仮想空間を制御する第1仮想空間制御手段としてコンピュータを更に機能させてもよい。
上記構成例によれば、例えば2次元画像用領域内の任意の位置を始点とするスワイプ操作でコンテンツ領域を画面スクロールさせることができる。また、3次元画像用領域内の任意の位置を始点とするスワイプ操作の場合は、仮想3次元空間の制御を行うことができる。これにより、直感的な操作性を提供することができる。
他の構成例として、ポインティングデバイスにより前記3次元画像用領域に対して第1の操作が行われた場合に、当該3次元画像用領域の大きさを拡大する3次元画像用領域拡大手段としてコンピュータを更に機能させるようにしてもよい。また、3次元画像用領域拡大手段は、3次元画像用領域の大きさの拡大後の縦横比に基づき、前記仮想カメラの画角を変更してもよい。更に、情報処理プログラムは、ポインティングデバイスにより3次元画像用領域に対して第1の操作とは異なる第2の操作が行われた場合に、当該第2の操作内容に応じて仮想カメラを移動する制御を行う仮想カメラ移動手段としてコンピュータを機能させてもよい。
上記構成例によれば、仮想3次元空間に対する直感的な操作性を提供することができる。また、例えば、3次元画像用領域へのタップ操作で3次元空間画像を最大化表示することができ、仮想3次元空間に対しての操作性をより高めることもある。また、最大化表示の際に、違和感のない仮想3次元空間画像を提供することもできる。
他の構成例として、情報処理プログラムは、ポインティングデバイスによる所定の操作に応じて、2次元画像用領域に表示される内容を更新する2次元画像更新手段としてコンピュータを更に機能させてもよい。そして、3次元画像用領域に投影される3次元画像は、ポインティングデバイスによる所定の操作の有無にかかわらず所定の時間間隔で更新されるように構成してもよい。
上記構成例によれば、例えば、新着データの通知等のリアルタイム性の高い処理は3次元仮想空間を用いた処理で実現しながら、リアルタイム処理の必要性が低い処理は2次元画像を利用した処理として実行できる。更に、当該2次元画像を利用した処理に関しては、ユーザの操作に応じた任意のタイミングで画面表示内容を更新することができ、ユーザの利便性を高めることができる。
他の構成例として、3次元画像用領域は、コンテンツ表示領域において、画面スクロールの際にスクロールの先頭となる位置に配置されていてもよい。また、3次元画像用領域と2次元画像とが隣接する方向が画面スクロールの方向と平行となるように、当該3次元画像用領域と当該2次元画像とが配置されていてもよい。
上記構成例によれば、例えば、初期状態で表示される画面として3次元空間画像と2次元画像の双方を1画面中に表示できる。また、ユーザが3次元画像用領域を表示したい場合に、先頭までスクロールさせるだけで3次元画像用領域を画面内に含めることができ、直感的な操作を提供できる。
他の構成例として、情報処理プログラムは、画面スクロールの操作が行われているか否かに関わらず、3次元仮想空間を制御する第2仮想空間制御手段としてコンピュータを更に機能させてもよい。また、3次元画像用領域に投影される3次元画像は、当該3次元画像用領域が画面に表示されていない状態であっても更新されてもよい。
上記構成例によれば、仮想3次元空間内の状態をユーザの操作の有無に関わらず更新し続けることができる。そのため、例えば、新着データの通知等のリアルタイム性の高い処理は3次元仮想空間を用いた処理で実現しつつ、リアルタイム処理の必要性が低い処理は2次元画像を利用した処理として実行するといった、処理の使い分けを行うことができる。
他の構成例として、コンテンツには複数のコンテンツがあり、情報処理プログラムは、ポインティングデバイスによる入力に応じて、複数のコンテンツの表示を切り替える表示コンテンツ切替手段としてコンピュータを更に機能させてもよい。そして、表示コンテンツ切替手段は、コンテンツの切り替え操作に応じて2次元画像用領域の表示内容のみを変更し、更に、コンテンツの切り替えが発生したときは、切り替える直前の画面におけるコンテンツ表示領域の表示範囲を示す情報を保存し、その後、他のコンテンツが表示されている状態から当該コンテンツに切り替えられたときは、当該保存された表示範囲を再現するようにして表示を切り替えるようにしてもよい。更に、表示コンテンツ切り替え手段は、コンテンツの切り替えが発生したとき、切り替える直前の表示画面内に3次元画像用領域の少なくとも一部が含まれているか否かを判定する3次元領域有無判定手段を含んでいてもよい。そして、第1のコンテンツから第2のコンテンツへの切り替えが発生したとき、第1のコンテンツにかかるコンテンツ表示領域の画面への表示範囲内および第2のコンテンツにかかるコンテンツ表示領域の最終的な表示範囲内の双方に3次元画像用領域が含まれているときは、切り替え後の第2のコンテンツにかかる3次元画像用領域の表示位置として、切り替え前である第1のコンテンツにおける3次元画像用領域の表示位置が反映されるように当該第2のコンテンツにかかるコンテンツ表示領域の表示範囲を調整して切り替えるようにしてもよい。
上記構成例によれば、複数のコンテンツ表示を切り替えて利用する場合に、ユーザの利便性を高めることが可能となる。
本実施形態によれば、3次元画像用領域と2次元画像用領域とを1画面上で表示する場合に、限られた画面の大きさを有効活用しつつ、ユーザの利便性を高めることができる。
本実施形態の一例である情報処理システムの全体像を示す模式図 スマートデバイス102の構成の一例を示すブロック図 サーバ101の構成の一例を示すブロック図 本実施形態にかかるアプリ画面の一例 2Dコンテンツ領域154のより具体的な表示例 本実施形態にかかるアプリ画面の一例 本実施形態にかかるスクロール制御の概念を説明するための図 本実施形態にかかるスクロール制御の概念を説明するための図 本実施形態にかかるアプリ画面の一例 リフレッシュ操作を説明するための図 リフレッシュ操作を説明するための図 リフレッシュ操作を説明するための図 コンテンツ切り替え時の動作を説明するための図 コンテンツ切り替え時の動作を説明するための図 コンテンツ切り替え時の動作を説明するための図 コンテンツ切り替え時の動作を説明するための図 コンテンツ切り替え時の動作を説明するための図 コンテンツ切り替え時の動作を説明するための図 スマートデバイス102のメインメモリ113に格納されるプログラムおよび情報の一例 本実施形態におけるアプリケーション処理の詳細を示すフローチャート ステップS4のタップ処理の詳細を示すフローチャート ステップS28のメニュータップ処理の詳細を示すフローチャート ステップS28のメニュータップ処理の詳細を示すフローチャート ステップS6にかかるスワイプ処理の詳細を示すフローチャート ステップS55のリフレッシュ処理の詳細を示すフローチャート
以下、本発明の一実施形態について説明する。
図1は、本実施形態に係る情報処理システムの全体像を示す模式図である。本実施形態の情報処理システム100は、サーバ101と、複数の携帯型スマートデバイス102(以下では、単にスマートデバイスと呼ぶ)とを含んでいる。スマートデバイス102は、例えばスマートフォンやタブレット機等である。サーバ101と、スマートデバイス102とは、インターネットを介して通信可能に構成されている。本実施形態では、このような構成で、スマートデバイス間のコミュニケーションサービスを提供することを想定している。スマートデバイス102には、当該コミュニケーションサービスを実現するためのアプリケーションがインストールされる。そして、サーバ101を介して他のスマートデバイスと所定のデータを送受信することで、ユーザに当該コミュニケーションサービスを提供する。
次に、上記システムにおける各ハードウェアの構成について説明する。図2は、スマートデバイス102の機能ブロック図である。図2において、スマートデバイス102は、プロセッサ部111と、内部記憶装置112と、メインメモリ113と、通信部114と、操作部115と、表示部116とを備えている。プロセッサ部111は、後述する情報処理を実行したり、スマートデバイス102の全体的な動作を制御したりするためのシステムプログラム(図示せず)を実行することで、スマートデバイス102の動作を制御する。なお、プロセッサ部111は、単一のプロセッサを搭載してもよいし、複数のプロセッサを搭載するようにしてもよい。内部記憶装置112には、プロセッサ部111によって実行される各種プログラムや当該プログラムで利用される各種データが格納されている。内部記憶装置112は、例えば、フラッシュEEPROMやハードディスク装置である。メインメモリ113は、コンピュータプログラムや情報を一時的に記憶する。通信部114は、有線、または無線通信によってネットワークと接続し、上記サーバ101との間で所定のデータを送受信する。操作部115は、例えば、ユーザからの操作を受け付けるための入力装置である。表示部116は、典型的には液晶表示装置である。なお、本実施形態に係る処理では、操作部115及び表示部116として、液晶画面と一体化したタッチパネルを想定する。他の実施形態では、操作部115として、タッチパネル以外の所定のポインティングデバイスを用いてもよい。
次に、上記サーバ101の構成について説明する。図3は、サーバ101の機能ブロック図である。サーバ101は、プロセッサ部121と、内部記憶装置122と、メインメモリ123と、通信部124とを少なくとも備えている。プロセッサ部121は、サーバ101を制御するための各種プログラムを実行する。内部記憶装置122には、プロセッサ部121によって実行される各種プログラムや利用される各種データが格納されている。メインメモリ123は、コンピュータプログラムや情報を一時的に記憶する。通信部124は、有線、または無線通信によってネットワークと接続し、上記スマートデバイス102や他のサーバ(図示せず)との間で所定のデータを送受信する。
次に、本実施形態にかかる情報処理の動作概要を説明する。本実施形態で説明する処理は、主に上記スマートデバイス102における画面表示制御に関するが、まず、本実施形態で想定するアプリケーション(上記コミュニケーションサービス)の動作概要について説明する。
本実施形態で想定するアプリケーションは、いわゆるアバターを用いて他のユーザとコミュニケーションを行うものである。具体的には、自分のアバターに対して、アプリケーション側から所定の質問が問いかけられる。これに対して、ユーザは自分の回答を入力する。この回答内容が、例えばフレンド登録している他のユーザに送信される。また、他のユーザから送信された回答内容も受信される。そして、アプリケーションでは、受信した回答内容に基づいた所定の画面を生成して画面に表示する。例えば、「好きな飲み物は何ですか?」という質問に対して、フレンドは「コーヒー」という回答を入力していたとする。この回答内容が受信され、例えば「好きな飲み物は?」「コーヒー」のようなテキストメッセージが表示される。つまり、所定の質問に対する回答内容がユーザ間(スマートデバイス間)で送受信される。また、例えば、上記のアバターを利用して、フレンドのアバターが自分のところに訪問してきて、上記のような回答内容に基づいたメッセージを話すような表現を行うことも可能である。例えば、訪問してきたアバターが「僕はコーヒーが好きです」、と話すような表現も可能である。
次に、本実施形態に係るアプリケーションの画面例を用いて、その動作について説明する。図4は、表示部116に表示されるアプリケーション画面(以下、アプリ画面)の一例である。本実施形態では、アプリ画面はいわゆる「縦画面」で表示されている。アプリ画面は、コンテンツ領域151と、メニュー領域152とで構成されている。
まず、コンテンツ領域151について説明する。コンテンツ領域151は、3Dコンテンツ領域153と2Dコンテンツ領域154とから構成されている。3Dコンテンツ領域153と2Dコンテンツ領域154とは、隣接するように配置されている。また、この隣接する方向は、画面のスクロール方向に平行となるような方向である。3Dコンテンツ領域153は、仮想3次元空間を仮想カメラで撮像したものを投影するための領域である。つまり、仮想3次元空間画像を表示するための領域である。本実施形態では、上述したアバターの3Dモデル(アバターオブジェクト)がここに表示される。次に、2Dコンテンツ領域154は、2次元画像を表示するための領域である。本実施形態では、主に、サーバ101から受信したデータ(上記回答内容のデータ等)に基づいて生成された2次元画像がここに表示される。例えば、フレンドの回答内容に基づいたテキストが表示される。図5に、2Dコンテンツ領域154のより具体的な表示例を示す。図5では、2Dコンテンツ領域154の上端に、横に細長いタイトルバー155が表示される。その下に、パネル156が縦方向に3つ並べて表示されている。パネル156には1人分の回答内容に基づいた画像・テキストが示される。例えば、アバターの顔画像や、質問文とその回答内容が表示される。図5の例では、3人分の回答内容が同時に表示されている。換言すれば、2Dコンテンツ領域154には、複数のアイテム(パネル156)から構成されるリストが表示されているともいえる。
ところで、本実施形態では、更に他のフレンドの回答内容を閲覧したい場合、画面を縦方向にスクロールすることで、更に他のフレンドの回答内容を画面に表示することができる。ここで、上記図4のように、画面の上部に仮想3次元空間画像が表示され、その下に2次元画像が表示されるような画面の場合に、2次元画像部分をスクロールしたい場合は、タッチパネルへの縦方向へのスライド操作を行うことが考えられる。そして、このような操作を行った場合、一般的には、図4の2Dコンテンツ領域154の部分のみが縦方向にスクロールし、3Dコンテンツ領域153はスクロールせずに、その表示位置は固定されているという制御が行われる。しかし、本実施形態では、このようなスクロール操作を行った場合、コンテンツ領域151全体をスクロールさせるという制御を行う。つまり、図6に示すように、3Dコンテンツ領域153と2Dコンテンツ領域154とを同時に縦方向にスクロールさせる(なお、後述するメニュー領域152はスクロール制御対象ではなく、固定的に表示される)。換言すれば、3Dコンテンツ領域153と2Dコンテンツ領域154とを一体的にスクロールさせている。これは、このようなスクロール操作を行う場合、ユーザの関心は、3Dコンテンツ領域153よりも2Dコンテンツ領域154のほうに注がれているであろうとの観点によるものである。特に、本実施形態で想定するようなコミュニケーションツールにおいては、2Dコンテンツ領域154に他のユーザとのやりとりが表示されることが多いと考えられる。そして、例えば画面下方向へのスクロール操作が行われた場合は、この他のユーザとのやりとりを閲覧することへの関心度が高いと考えられる。そのため、限られた画面の大きさを有効活用するために、2Dコンテンツ領域154にかかる内容を画面により多く表示しようとするものである。従って、上記のような下方向へのスクロール操作を続けた結果、画面上には、3Dコンテンツ領域153が表示されない状態となる。また、この状態から上方向(逆方向)へのスクロール操作を行うと、図6のような画面を経て、最終的に上記図4のような画面に戻る。つまり、コンテンツ領域151全体がスクロール可能であり、そのスクロールの上端となる位置に3Dコンテンツ領域153が配置されているともいえる。
本実施形態にかかるスクロール制御の概念について、図を用いて補足説明する。図7および図8は、コンテンツ領域151と、実際に画面に表示される表示対象範囲161との関係を示す図である。図7および図8では、表示対象範囲161を太線の枠で示している。また、3Dコンテンツ領域153は斜線で示している。コンテンツ領域151は、情報処理の内部的には、画面の表示範囲以上の大きさを有している。なお、本実施形態では、上記2Dコンテンツ領域154に表示する内容として、一度に30件分のデータをサーバ101から取得するものとする。そして、所定のタイミングでサーバ101から30件分のデータが取得され、これに基づいた画像が2Dコンテンツ領域154の下方に適宜追加されていくものとする。
図7で示す状態は、3Dコンテンツ領域153の全体が、表示対象範囲161に含まれている状態を示す(例えば、アプリ開始後の初期状態はこのような状態となる)。この状態からユーザが少しだけ画面スクロールさせる操作を行うと、図8に示すような状態となる。つまり、コンテンツ領域151全体が上方向に移動するイメージである。
次に、コンテンツ領域151における上記スクロール操作以外の操作に関して簡単に説明する。まず、3Dコンテンツ領域153に対するタッチ入力操作について説明する。3Dコンテンツ領域153上でスワイプ操作が行われた場合は、そのスワイプ方向やスワイプ量(距離)に応じて、仮想カメラの位置、姿勢の制御が行われる。本実施形態では、仮想カメラはユーザのアバターを注視点として、その周りを周回するような動きが行われるものとする。つまり、仮想カメラの回転移動が行われる。また、3Dコンテンツ領域153に表示される特定のオブジェクトをタップ操作した場合は、そのオブジェクトに関連する所定の処理が実行される。例えば、ユーザのアバターの近傍に、フレンドアバターの顔画像を含む「吹き出し」が表示される。この吹き出しは、新着の回答内容で、未読(未確認)のものがあることを示す(いわば、新着メッセージ通知)。そして、ユーザがこの吹き出しをタップすると、フレンドアバターが当該仮想空間内に登場し(例えば部屋を訪問するような演出が行われる)、新着の回答内容に基づいたメッセージを表示する、という処理が実行される。また、ユーザがこの特定オブジェクト以外の位置をタップした場合は、図9に示すような、3Dコンテンツ領域153の最大化表示が行われる。すなわち、画面内に2Dコンテンツ領域154が表示されなくなる程度に3Dコンテンツ領域153の大きさを拡大して表示する。これにより、仮想3次元空間に対する各種操作を行いやすくすることができる。なお、他の実施形態では、3Dコンテンツ領域153の大きさは拡大するが、2Dコンテンツ領域154が表示されなくなる程度までは拡大しないようにしてもよい(最大化表示というよりは、3Dコンテンツ領域153の単なる拡大)。つまり、2Dコンテンツ領域154が狭くなるものの、画面内にはまだ2Dコンテンツ領域154は表示されている程度の拡大に留めておくようにしてもよい。
ここで、上記の3Dコンテンツ領域153への操作については、換言すれば、コンテンツ領域151のスクロール操作は、タッチ入力の始点が2Dコンテンツ領域154である場合にのみ発生し得るともいえる。つまり、スワイプ操作の入力の始点が3Dコンテンツ領域153である場合は、上記の仮想カメラ制御が行われることになる。
次に、2Dコンテンツ領域154に対する上記スクロール操作以外のタッチ入力操作について説明する。タップ操作の場合は、そのタップ位置の画像に応じた所定の処理が実行される。その他、本実施形態では、2Dコンテンツ領域154の内容を更新するための「リフレッシュ操作」というものがある。この操作は、上方向にそれ以上スクロールできない状態(3Dコンテンツ領域153が全て画面内に表示されている状態)において、2Dコンテンツ領域154にて下方向へのスワイプ操作を行う操作である。この操作により、サーバ101に対して最新データを取得する通信処理が行われ、その結果に応じて2Dコンテンツ領域154の表示内容が更新される。この操作が行われるときの画面制御について図10〜図12を用いて説明する。まず、図10の状態で、ユーザが点171にタッチオンしたとする。この点171の位置は、2Dコンテンツ領域154の上端近く、画面全体で捉えると、中央からやや上の位置となっている。この点171を始点として、図11に示すように、下方向へのスワイプ操作を行っていき、最終的に、図12で示す点172の位置までスワイプしたとする。このスワイプ操作の距離に応じて、2Dコンテンツ領域154のうち、タイトルバー155を除く部分が徐々にグレーアウトしていくように表示される。また、この操作の際、タイトルバー155の表示内容も変化する。例えば、点171にタッチオンした後、スワイプ操作の距離が所定値以上になったときに、タイトルバーの表示内容が変更される。図11、図12の例では、スワイプ操作の距離に応じてタイトルバー155の中央から左右方向に伸びていくゲージを表示している。なお、スワイプ操作中に、タイトルバー155上に操作ガイドとなるテキスト等を表示するようにしてもよい(例えば、「引き下げて更新」等)。そして、点172までスワイプ操作を行った後(このとき、「指を離すと更新」のようにタイトルバー155の表示テキストを変化させてもよい)、ユーザがタッチオフを行うと、グレーアウト表示が解除され、2Dコンテンツ領域154の表示内容の更新が行われる。すなわち、タッチオフが検出されたタイミングでサーバへのデータ要求が行われ、当該要求に応じたデータ(本例では、2Dコンテンツ領域154に表示すべきデータ)がダウンロードされる。そして、当該ダウンロードしたデータに基づいて、2Dコンテンツ領域154の表示内容が更新される。なお、上記グレーアウト表示の際に用いる色については、どのような色を用いてもよい。例えば、他の実施形態では、白色を用いてもよいし(ホワイトアウト)、黒色を用いてもよい(ブラックアウト)。
次に、メニュー領域152について説明する。本実施形態のアプリでは、大きく4つのコンテンツが用意されている。そして、この4つのコンテンツを切り替えるためのボタンが、4つのメニューボタン181A〜181Dとしてメニュー領域152に表示されている。この4つのコンテンツの一例として、本実施形態では、「新着」、「マイアンサー」、「フレンド」、「ショップ」が用意されている。各コンテンツに対応するメニューボタン181をタップすることで、ユーザは画面に表示されるコンテンツを切換えることができる。なお、本実施形態では、当該切り替えにより、2Dコンテンツ領域154の表示内容が変化し、3Dコンテンツ領域153の表示内容は当該切り替えに基づいては変化しないものとする。つまり、どのコンテンツを表示した場合でも、3Dコンテンツ領域153には、同じ仮想3次元空間を撮像した画像が表示されることになる(仮想3次元空間はコンテンツ間で共用されている)。換言すれば、仮想3次元空間については上記コンテンツの切り替えとは直接的には連動するものではない。
ここで、各コンテンツの概要について簡単に補足する。「新着」は、主にフレンドの回答内容を閲覧するためのコンテンツである。そのため、2Dコンテンツ領域154には、フレンドの回答内容に基づいた画像等が主に表示される。なお、本実施形態では、「既読」の回答内容が2Dコンテンツ領域154にされるものとする。「未読」のものは、例えば上記のようなアバターの吹き出しという形でユーザに通知される。そして、ユーザが吹き出しをタップすることで、「既読」として扱われ、2Dコンテンツ領域154に適宜追加表示されることになるものとする。
「マイアンサー」は、主にユーザ自身が回答した内容(質問とその回答内容)の履歴を閲覧するためのコンテンツである。2Dコンテンツ領域154には、ユーザ自身の回答内容に基づいた画像、テキスト等が主に表示される。「フレンド」は、主にフレンドを管理するためのコンテンツであり、2Dコンテンツ領域154は、フレンドを管理するためのユーザインターフェースの提供のために用いられる。「ショップ」は、例えばアバターのための着せ替えパーツ等を購入するためのコンテンツである。2Dコンテンツ領域154には、各種ショップへのリンク画像が表示される。また、このリンク画像へのタップに応じて各ショップに応じた画面が適宜表示され、パーツ購入のためのユーザインターフェースが提供される。
次に、上記のようなコンテンツを切り替える時の画面制御の例について、図13〜図18を用いて説明する。以下では、「新着」がメニューボタン181Aに対応し、「マイアンサー」がメニューボタン181Bに対応し、「フレンド」がメニューボタン181Cに対応し、「ショップ」がメニューボタン181Dに対応しているものとして説明する。
まず、初期状態として、上記「新着」のコンテンツが表示されている状態であるとする。この状態で、メニューボタン181Aがタップされた場合は、コンテンツ領域151が一番上まで自動的にスクロールする。すなわち、現在表示されているコンテンツと同じコンテンツのメニューボタン181がタップされた場合は、コンテンツ領域151の上端が画面に表示されるように自動的に画面スクロールが実行される。一方、現在表示されているコンテンツとは異なるコンテンツのメニューボタン181がタップされたときは、タップされたメニューボタン181に対応するコンテンツがコンテンツ領域に表示される。
ここで、異なるコンテンツへの切り替えに際して、本実施形態では、次のような画面制御が行われる。まず、操作の一例として、次のような操作を行われたとする。「新着」のコンテンツが表示されている状態で(図13、3Dコンテンツ領域153は全部分が表示されている状態)、メニューボタン181Bがタップされることで、「マイアンサー」のコンテンツが表示される(図14)。この画面で、3Dコンテンツ領域153が画面に表示されなくなるまでスクロール操作が行われたとする(図15)。その後、メニューボタン181Cがタップされることで、「フレンド」のコンテンツが表示される(図16)。この画面において、3Dコンテンツ領域153の略上半分だけが画面に表示されない程度までスクロール操作が行われる(図17)。つまり、3Dコンテンツ領域153の一部が表示範囲内に残っている状態である。このような操作を行った状態から、「新着」コンテンツに切り替える場合と、「マイアンサー」コンテンツに切り替える場合を考える。まず、図17の状態から、メニューボタン181Aをタップして「新着」コンテンツに切り替えた場合、図18に示すように、3Dコンテンツ領域153の表示位置は変わらずに、2Dコンテンツ領域154の内容だけが「新着」コンテンツの内容に切り替わるような制御となる。一方、図17の状態から、メニューボタン181Bをタップして「マイアンサー」コンテンツに切り替えた場合は、「マイアンサー」コンテンツの最終表示状態、すなわち、3Dコンテンツ領域153が画面に含まれていない状態の画面のままで表示される。つまり、あるコンテンツから別のコンテンツへの切り替えが発生した際、最終的な画面において3Dコンテンツ領域153が含まれておらずに2Dコンテンツ領域のみが表示されていた場合は、その後、他のコンテンツから戻ってきた際、この最終的な画面の表示状態を復元する。一方、コンテンツの切り替え時の最終的な画面に3Dコンテンツ領域153が一部でも含まれていた場合は、他のコンテンツから戻ってきたとき、最新の3Dコンテンツ領域153の表示位置を反映させるようにする。上記図の例で言うと、「新着」コンテンツから「マイアンサー」コンテンツに切替えたとき、3Dコンテンツ領域153はその全てが画面に表示されている状態であった。その後、図17の状態から「新着」コンテンツに戻ってきたときは、「新着」コンテンツから「マイアンサー」コンテンツへの切り替えの際には3Dコンテンツ領域153の全てが表示されていたにもかかわらず、「フレンド」コンテンツにおける3Dコンテンツ領域153の表示位置(最新の3Dコンテンツ領域153の表示位置)を反映してコンテンツ領域151が表示されている(そのため、少しだけスクロールされた状態となっている)。このように、本実施形態では、3Dコンテンツ領域153が表示範囲に含まれている状態でコンテンツの切り替えが行われたときは、その後、このコンテンツに切り替えられた際、最新の3Dコンテンツ領域153の表示位置を反映させる。一方、2Dコンテンツ領域154のみが画面に表示されている状態で他のコンテンツへの切り替えが行われた場合は、その後、他のコンテンツからこのコンテンツに切り替えられたとき、当該他のコンテンツで最終的に3Dコンテンツ領域153が表示されていたか否かにかかわらず、2Dコンテンツ領域154のみが画面に表示されている状態を復元して表示している。これは、次のような観点によるものである。2Dコンテンツ領域154のみが画面に表示されている状態は、ユーザの関心が2Dコンテンツ領域154の表示内容に向いている可能性が高いといえる。また、特定の位置の2Dコンテンツ領域の表示内容へユーザの関心が向いているともいえる。そこで、このような観点から、ユーザの関心が高かった表示状態(表示位置・表示内容)をそのまま復元することで、ユーザの利便性を高めようとするものである。
なお、3Dコンテンツ領域153が最大化表示されていた場合は、いずれかのメニューボタン181のタップ操作が、最大化表示の解除操作となる。
ここで、本実施形態では、2Dコンテンツ領域154の表示内容の更新については、原則として、以下の3つのタイミングで行われるものとする。まず、アプリ起動時のタイミングである。このタイミングで、各コンテンツの表示内容がサーバから取得される。この際、例えば上記「新着」、「マイアンサー」については、30件分のデータが取得されるものとする。2つ目は、取得済みのデータ分(ここでは30件)を越えて画面スクロールが行われたタイミングでも更新される。このタイミングでサーバから追加のデータ取得が行われる。最後は、上記のような「リフレッシュ操作」が行われたタイミングである。なお、他の実施形態では、2Dコンテンツ領域154の更新タイミングはこれに限らず、例えば定期的に自動更新するようにしてもよい。表示されているコンテンツの特性に合わせて適宜更新するようにしてもよい(あるコンテンツはリアルタイム更新し、別のコンテンツは手動更新する等)。
次に、図19〜図25を参照して、本実施形態における処理の動作をより詳細に説明する。
図19は、スマートデバイス102のメインメモリ113に格納されるプログラムおよびデータの一例を示している。メインメモリ113には、アプリケーションプログラム221、操作データ222、仮想空間・3Dモデルデータ223、3D領域最新位置データ224、リフレッシュ操作フラグ225、最終表示状態データ226等が格納される。
アプリケーションプログラム221は、本実施形態に係るアプリケーションを実行するためのプログラムである。具体的には、後述する図20のフローチャート処理を実行するためのプログラムである。
操作データ222は、操作部115に対して行われた各種操作内容を示すデータである。本実施形態では、操作部115としてのタッチパネルへの入力の有無、タッチ座標等を示すデータや、図示しない各種ボタンの押下状態等を示すデータが含まれている。
仮想空間・3Dモデルデータ223は、3Dコンテンツ領域153に投影される仮想3次元空間を構成するためのデータである。上記アバターの3Dモデル等が含まれる。
3D領域最新位置データ224は、上記のようなコンテンツ切り替え時の動作に際して用いられるデータであり、画面(表示範囲)内における3Dコンテンツ領域153の最新の表示位置を示すためデータである。
リフレッシュ操作フラグ225は、上述した「リフレッシュ操作」行われている状態か否かを示すためのフラグである。
最終表示状態データ226は、各コンテンツの表示切り替えが行われたとき、表示が切り替えられる前のコンテンツ領域151の最終的な表示状態(表示範囲)を示すためのデータである。コンテンツ毎に最終的な表示状態が記憶される。
次に、図20〜図25のフローチャートを参照して、スマートデバイス102のプロセッサ部111によって実行される処理の流れを説明する。なお、図20におけるステップS2〜S10の処理ループは、例えば60フレーム毎に繰り返し実行されるものとする。
まず、本実施形態にかかるアプリケーションの起動命令が受け付けられると、ステップS1で、プロセッサ部111は、初期化処理を実行する。具体的には、本処理で用いられるデータを初期化する処理が実行される。更に、仮想空間・3Dモデルデータ223に基づいてアバターオブジェクト等の各種オブジェクトが生成され、仮想3次元空間内に配置される。また、仮想カメラも当該仮想3次元空間内に配置される。また、サーバ101へのアクセスが行われ、2Dコンテンツ領域154等に表示するためのデータの取得も行われる。そして、プロセッサ部111は、上記仮想3次元空間を上記仮想カメラで撮像した画像を3Dコンテンツ領域153に投影すると共に、サーバから取得したデータに基づいて2Dコンテンツ領域154に表示するための画像を生成する。そして、3Dコンテンツ領域153および2Dコンテンツ領域154を含んだコンテンツ領域151を画面に表示する。なお、初期状態では、2Dコンテンツ領域154には上記「新着」のコンテンツが表示されるものとする。
次に、ステップS2で、プロセッサ部111は操作データ222を取得する。続いて、ステップS3で、プロセッサ部111は、操作データ222に基づき、タップ操作が行われたか否かを判定する。タップ操作が行われていないときは(ステップS3でNO)、後述のステップS5に処理が進められる。タップ操作が行われたときは(ステップS3でYES)、次に、ステップS4で、プロセッサ部111は、タップ処理を実行する。
図21は、上記ステップS4のタップ処理の詳細を示すフローチャートである。まず、ステップS21で、プロセッサ部111は、操作データ222に基づき、3Dコンテンツ領域153内でのタップ操作が行われたか否かを判定する。3Dコンテンツ領域153内でのタップ操作のときは(ステップS21でYES)、ステップS22で、プロセッサ部111は、予め定義されている特定のオブジェクト(例えば、上述した「吹き出し」のオブジェクト等)へのタップ操作が行われたか否かを判定する。その結果、特定のオブジェクトへのタップ操作が行われたときは(ステップS22でYES)、ステップS23で、プロセッサ部111は、当該タップされたオブジェクトに応じた所定の処理を実行する。
一方、特定のオブジェクトへのタップ操作は行われていないときは(ステップS22でNO)、ステップS24で、プロセッサ部111は、3Dコンテンツ領域を最大化して表示するための設定処理を実行する。具体的には、プロセッサ部111は、仮想カメラの画角を変更する。上記図9で示したように、最大化表示を行うと、縦長の画面で仮想3D空間画像を表示することになるため、画面のアスペクト比が変化することになる。そのため、仮想カメラの画角もこれに合わせて変更するものである。なお、この処理において、画角の変更と共にズームも行うように設定してもよい。例えば、最大化表示した際に、ユーザのアバターが所定の倍率でズームされて表示されるようにしてもよい。
一方、上記ステップS21の判定の結果、3Dコンテンツ領域153内でのタップ操作ではないときは(ステップS21でNO)、次に、ステップS25で、プロセッサ部111は、2Dコンテンツ領域154内でのタップ操作であるか否かを判定する。その結果、2Dコンテンツ領域154内でのタップ操作のときは(ステップS25でYES)、ステップS26で、プロセッサ部111は、そのタップ位置(の画像)に応じた、2Dコンテンツ領域154に関する所定の処理を実行する。また、この処理に伴い、2Dコンテンツ領域154の表示内容も適宜更新される。
一方、ステップS25の判定の結果、2Dコンテンツ領域154内でのタップ操作でもないときは(ステップS25でNO)、ステップS27で、プロセッサ部111は、メニュー領域152内でのタップ操作であるか否かを判定する。メニュー領域152内でのタップ操作が行われたときは(ステップS27でYES)、ステップS28で、プロセッサ部111は、メニュータップ処理を実行する。一方、メニュー領域152内でのタップ操作でもないときは(ステップS27でNO)、タップ処理は終了する。
図22は、上記ステップS28にかかるメニュータップ処理の詳細を示すフローチャートである。まず、ステップS31で、プロセッサ部111は、3Dコンテンツ領域153の全画面表示状態であるか否かを判定する。その結果、全画面表示状態のときは(ステップS31でYES)、ステップS32で、プロセッサ部111は、全画面表示を解除する処理を行う。そして、一旦、メニュータップ処理は終了する。
一方、ステップS31の判定の結果、全画面表示中ではないときは(ステップS31でNO)、ステップS33で、プロセッサ部111は、タップされたメニューボタン181を判別する。次に、ステップS34で、プロセッサ部111は、現在表示中のコンテンツと同じコンテンツのメニューボタン181がタップされたか否かを判定する。その結果、現在表示中のコンテンツと同じコンテンツのメニューボタン181がタップされたときは(ステップS34でYES)、ステップS35で、プロセッサ部111は、表示範囲がコンテンツ領域151の上端(先頭)に到達するまで、コンテンツ領域151を自動的にスクロールする。このときのスクロール速度は、速い速度であることが好ましい。なお、他の実施形態では、スクロールさせるのではなく、瞬時にコンテンツ領域151の上端部分が表示されるようにしてもよい。
一方、ステップS34の判定の結果、現在表示中のコンテンツとは別のコンテンツに対応するメニューボタン181がタップされたときは(ステップS34でNO)、ステップS36で、プロセッサ部111は、現在表示中のコンテンツ領域の表示状態(表示範囲)を示すデータを当該コンテンツに対応する最終表示状態データ226としてメインメモリ113に記憶する。次に、ステップS37で、プロセッサ部111は、現在表示中のコンテンツ領域の表示範囲に3Dコンテンツ領域153が含まれているか否かを判定する。その結果、含まれているときは(ステップS37でYES)、3Dコンテンツ領域153の表示位置を示すデータを3D領域最新位置データ224としてメインメモリ113に記憶する。一方、含まれていないときは(ステップS37でNO)、当該ステップS38の処理はスキップされる。
次に、ステップS39で、プロセッサ部111は、切り替え先(遷移先)のコンテンツに対応する最終表示状態データ226を取得する。そして、ステップS40で、プロセッサ部111は、当該取得した最終表示状態データ226に基づき、切り替え先となるコンテンツの最終表示状態において3Dコンテンツ領域153が表示範囲に含まれていたか否かを判定する。その結果、含まれていたときは(ステップS40でYES)、ステップS41で、プロセッサ部111は、3D領域最新位置データ224に基づいて、切替先のコンテンツ領域の表示範囲を適宜調整したうえで、切替先のコンテンツにかかるコンテンツ領域151を画面に表示する。一方、含まれていなかったときは(ステップS40でNO)、ステップS42で、プロセッサ部111は、上記取得した最終表示状態データ226に基づいて、切替先のコンテンツにかかるコンテンツ領域151を表示する。つまり、2Dコンテンツ領域154のみ表示されていた場合は、その状態のまま表示を復元することになる。以上で、メニュータップ処理は終了する。
図20に戻り、上記ステップS3の判定の結果、タップ操作ではなかった場合(ステップS3でNO)について説明する。この場合は、ステップS5で、プロセッサ部111は、スワイプ操作が行われたか否かを判定する。なお、ここでの判定対象となるスワイプ操作には、スワイプ操作中の状態(タッチオンが継続している状態)と、スワイプ操作が終了した直後の状態(スワイプ操作を行った後タッチオフした直後の状態)との双方の状態が含まれるものとする。
ステップS5の判定の結果、スワイプ操作が行われているときは(ステップS5でYES)、ステップS6で、プロセッサ部111は、スワイプ処理を実行する。一方、スワイプ操作が行われていないときは(ステップS5でNO)、ステップS7で、プロセッサ部111は、操作データ222に基づいたその他の処理を実行する。その後、後述のステップS8の処理に進む。
図24は、上記ステップS6にかかるスワイプ処理の詳細を示すフローチャートである。まず、ステップS51で、プロセッサ部111は、3Dコンテンツ領域153内でのスワイプ操作が行われたか否かを判定する。その結果、3Dコンテンツ領域153内でのスワイプ操作が行われているときは(ステップS51でYES)、ステップS52で、プロセッサ部111は、そのスワイプ操作の方向および距離に基づいて、仮想空間内における仮想カメラの位置や姿勢を制御する。一方、スワイプ操作ではないときは(ステップS51でNO)、ステップS53で、プロセッサ部111は、2Dコンテンツ領域154内でのスワイプ操作が行われたか否かを判定する。2Dコンテンツ領域154内でのスワイプ操作でもないときは(ステップS53でNO)、スワイプ処理は終了する。一方、2Dコンテンツ領域154内でのスワイプ操作が行われたときは(ステップS53でYES)、次に、ステップS54で、プロセッサ部111は、当該スワイプ操作が上述した「リフレッシュ操作」に該当するか否かを判定する。具体的には、プロセッサ部111は、コンテンツ領域151の上端(3Dコンテンツ領域153の全体)が表示されている状態での、下方向へのスワイプ操作が行われたか否かを判定する。当該判定の結果、「リフレッシュ操作」に該当しないときは(ステップS54でNO)、ステップS56で、プロセッサ部111は、スワイプ操作の距離および方向に応じて、コンテンツ領域の上下方向のいずれかの方向にスクロールする処理を実行する。一方、「リフレッシュ操作」に該当するときは(ステップS54でYES)、ステップS55で、プロセッサ部111は、リフレッシュ処理を実行する。
図25は、上記リフレッシュ処理の詳細を示すフローチャートである。まず、ステップS61で、プロセッサ部111は、スワイプ操作が継続中の状態であるか否か、すなわち、タッチ入力が現在検出されている状態か、タッチオフ直後の状態かを判定する。その結果、スワイプ操作が継続している状態のときは(ステップS61でYES)、ステップS62で、プロセッサ部111は、そのスワイプ操作の距離に応じて、2Dコンテンツ領域154(タイトルバー155部分を除く)が徐々にグレーアウトしていくような表示を行う。更に、ステップS63で、プロセッサ部111は、スワイプ操作の距離に応じてタイトルバー155の表示内容を変更・更新する処理を実行する。例えば、「引き下げて更新」等のテキストを表示したり、上記図11や図12で示したようなゲージを横方向に伸ばしていくような表示が行われる。
次に、ステップS64で、プロセッサ部111は、スワイプ操作の距離が予め定義されている所定値を越えたか否かを判定する。その結果、越えている場合は(ステップS64でYES)、ステップS65で、プロセッサ部111は、リフレッシュ操作フラグ225をオンに設定する。一方、所定値を超えていないときは(ステップS64でNO)、当該ステップS65の処理はスキップされる。これは、スワイプ操作における距離が十分な長さではないときは、タッチオフされても2Dコンテンツ領域のリフレッシュが行われないようにするためのものである。
次に、上記ステップS61の判定の結果、スワイプ操作が継続中ではない、すなわち、スワイプ操作を行い、タッチオフした直後の状態であるときは(ステップS61でNO)、ステップS66で、プロセッサ部111は、リフレッシュ操作フラグ225がオンであるか否かを判定する。その結果、オンの時は(ステップS66でYES)、ステップS67で、プロセッサ部111は、サーバ101に対して、2Dコンテンツ領域154に表示すべき内容の最新データを要求する。そして、当該要求に応じたデータをサーバ101からダウンロードする。そして、プロセッサ部111は、当該ダウンロードしたデータに基づいて、2Dコンテンツ領域154の表示内容を更新する。その後、ステップS68で、プロセッサ部111は、リフレッシュ操作フラグ225にオフを設定する。
一方、上記ステップS66の判定の結果、リフレッシュ操作フラグ225がオフのときは(ステップS66でNO)、スワイプ距離が短い等で、リフレッシュ操作が途中でキャンセルされた場合に該当する。この場合は、ステップS69で、プロセッサ部111は、2Dコンテンツ領域154がグレーアウト表示されているか否かを判定する。その結果、グレーアウト表示されていたときは(ステップS69でYES)、ステップS70で、プロセッサ部111は、グレーアウト表示を解除する処理を行う。また、タイトルバー155の表示を変更していたときは、初期状態に戻す処理も実行する。一方、グレーアウト表示がされていなければ(ステップS69でNO)、当該ステップS70の処理はスキップされる。以上で、リフレッシュ処理は終了する。
図20に戻り、上記ステップS4のタップ処理、ステップS6のスワイプ処理、ステップS7のその他の処理のいずれかが終了すれば、次に、ステップS8で、プロセッサ部111は、上述の処理以外の仮想3次元空間内における所定の処理を実行する。つまり、ユーザの操作の有無に関係なく、仮想3次元空間の状態は更新されることになる。この処理では、例えば、新着の回答内容の有無をサーバに問い合わせ、あった場合は、上記のような吹き出しオブジェクトを生成して仮想3次元空間画像として表示するための処理が実行される。また、仮想空間内のオブジェクトの動作を制御する処理等も実行される。例えば、ユーザのアバターオブジェクト等を自発的に動かす(部屋の中を歩き回る動作等)処理が実行される。そして、ステップS9で、プロセッサ部111は、上記ステップS8の処理が反映された仮想3次元空間を仮想カメラで撮像することで3次元画像を生成し、当該画像を3Dコンテンツ領域153に投影する。つまり、3Dコンテンツ領域153に表示される画像が更新されることになる。この処理は、毎フレーム行われることになるため、表示範囲内に3Dコンテンツ領域153が含まれていない場合(つまり、仮想3次元画像が表示されていない状態)であっても、仮想3次元空間の様子(3Dコンテンツ領域153に投影される画像)は更新され続けていることになる。当然、画面スクロール操作中であっても、仮想3次元空間の様子は更新され続けている。
次に、ステップS10で、プロセッサ部111は、本アプリケーションの終了条件が満たされたか否かを判定し、満たしていれば(ステップS10でYES)、本アプリケーションを終了する。満たしていなければ(ステップS10でNO)、上記ステップS2に戻り、上記の処理を繰り返す。以上で、本実施形態に係るアプリケーション処理の詳細説明を終了する。
このように、本実施形態では、1画面上に表示される3Dコンテンツ領域153と2Dコンテンツ領域154について、双方を一体的に画面スクロールする制御を行っている。これにより、3Dコンテンツ領域153と2Dコンテンツ領域154とのそれぞれに対するユーザが関心度の高さに応じて、限られた画面の大きさを有効活用し、ユーザの利便性を高めることができる。また、複数コンテンツが提供される場合に、その画面切り替えを行った際でも、切り替えの度にその表示が初期状態に戻る(例えば、切り替えの度にそのコンテンツの先頭部分が表示される)ことがなく、ユーザの利便性を高めることも可能である。
なお、上記の説明は、縦画面における縦方向スクロールの場合を例に説明したが、横画面における横方向スクロールを利用する場合も適用可能である。例えば、コンテンツ領域151の左端に3Dコンテンツ領域153を配置し、その右隣に2Dコンテンツ領域154を配置するようにしてコンテンツ領域を構成してもよい。
また、他の実施形態では、複数のコンテンツを切り替える場合に、各コンテンツの内容に応じたスクロール制御を行ってもよい。例えば、コンテンツAが表示されているときは、上記のような3Dコンテンツ領域153と2Dコンテンツ領域154とを一体的にスクロール制御するが、コンテンツBの場合は、3Dコンテンツ領域153の表示位置は固定的なものとし、2Dコンテンツ領域154のみをスクロールするような制御を行ってもよい。
また、上記実施形態では、上述のようなアプリケーションの一連の処理が単一のスマートデバイス102において実行される場合を説明したが、他の実施形態においては、上記一連の処理が複数の情報処理装置からなる情報処理システムにおいて実行されてもよい。例えば、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの一部の処理がサーバ側装置によって実行されてもよい。さらには、端末側装置と、当該端末側装置とネットワークを介して通信可能なサーバ側装置とを含む情報処理システムにおいて、上記一連の処理のうちの主要な処理がサーバ側装置によって実行され、当該端末側装置では一部の処理が実行されてもよい。また、上記情報処理システムにおいて、サーバ側のシステムは、複数の情報処理装置によって構成され、サーバ側で実行するべき処理を複数の情報処理装置が分担して実行してもよい。
(付記)上記した具体的実施形態から以下のような構成を抽出することが可能である。
(付記1)
ポインティングデバイスによる操作入力を受け付け可能な情報処理装置のコンピュータに実行させる情報処理プログラムであって、
複数の項目からなるリストを表示装置に表示させる第1表示制御手段と、
前記ポインティングデバイスによる継続した操作入力にしたがって前記複数の項目が徐々に同一色に変化するように、当該複数の項目を前記表示装置に表示させる第2表示制御手段と、
前記継続していた前記ポインティングデバイスの操作入力が途切れたことを検出した場合に、前記リストを更新して前記表示装置に表示させる第3表示制御手段として前記コンピュータを機能させる、情報処理プログラム。
(付記2)
前記リストをスクロールさせるスクロール制御手段としてさらに前記コンピュータを機能させ、
前記ポインティングデバイスによる継続した操作入力の方向は前記スクロールの方向と同一の方向である、付記1に記載の情報処理プログラム。
(付記3)
前記第2表示制御手段による表示とともに、前記ポインティングデバイスによる継続した操作入力に応じて長さが変化するオブジェクトを前記表示装置に表示させる第4表示制御手段として前記コンピュータをさらに機能させる、付記1または付記2に記載の情報処理プログラム。
(付記4)
前記第4表示制御手段は、前記ポインティングデバイスによる継続した操作入力の方向と直交する方向に長さが変化するように前記オブジェクトを表示させる、付記3に記載の情報処理プログラム。
(付記5)
前記第3表示制御手段は、前記第2表示制御手段により前記複数の項目が同一色となった後に、前記継続していた前記ポインティングデバイスの操作入力が途切れたことを検出した場合に、前記リストを更新する、付記1ないし付記4のいずれか一項に記載の情報処理プログラム。
102 スマートデバイス
111 プロセッサ部
112 内部記憶装置
113 メインメモリ
114 通信部
115 操作部
116 表示部

Claims (13)

  1. ポインティングデバイスによる入力を受け付け可能な情報処理装置のコンピュータに実行させる情報処理プログラムであって、
    仮想3次元空間にオブジェクトを配置するオブジェクト配置手段と、
    前記仮想3次元空間に仮想カメラを配置する仮想カメラ配置手段と、
    前記仮想カメラで前記仮想3次元空間を撮影することにより3次元画像を生成する3次元画像生成手段と、
    所定の2次元画像を生成する2次元画像生成手段と、
    前記3次元画像を投影するための3次元画像用領域と、当該3次元画像用領域に隣接する領域であって前記2次元画像を表示するための2次元画像用領域とを含むコンテンツ表示領域を画面に表示するコンテンツ領域表示手段と、
    前記ポインティングデバイスによる入力に基づいて画面スクロールを行うスクロール制御手段として前記コンピュータを機能させ、
    前記コンテンツ表示領域が画面スクロールされる場合に、前記3次元画像用領域および2次元画像用領域の双方が一体的に画面スクロールされ、
    前記スクロール制御手段は、前記ポインティングデバイスにより前記2次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合に、前記コンテンツ表示領域の画面スクロールを行い、
    前記情報処理プログラムは、前記ポインティングデバイスにより前記3次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合は、前記コンテンツ表示領域の画面スクロールを行わず、かつ、操作する対象を切り替えるための操作を要求することなく、当該スワイプ操作に基づいて前記3次元仮想空間を制御する第1仮想空間制御手段として前記コンピュータを更に機能させ、
    前記3次元画像用領域は、前記コンテンツ表示領域において、画面スクロールの際にスクロールの先頭となる位置に配置されている、情報処理プログラム。
  2. 前記情報処理プログラムは、前記ポインティングデバイスにより前記3次元画像用領域に対して第1の操作が行われた場合に、当該3次元画像用領域の大きさを拡大する3次元画像用領域拡大手段として前記コンピュータを更に機能させる、請求項1に記載の情報処理プログラム。
  3. 前記3次元画像用領域拡大手段は、前記3次元画像用領域の大きさの拡大後の縦横比に基づき、前記仮想カメラの画角を変更する、請求項2に記載の情報処理プログラム。
  4. 前記情報処理プログラムは、前記ポインティングデバイスにより前記3次元画像用領域に対して前記第1の操作とは異なる第2の操作が行われた場合に、当該第2の操作内容に応じて前記仮想カメラを移動する制御を行う仮想カメラ移動手段として前記コンピュータを更に機能させる、請求項2または請求項3に記載の情報処理プログラム。
  5. 前記情報処理プログラムは、前記ポインティングデバイスによる所定の操作に応じて、前記2次元画像用領域に表示される内容を更新する2次元画像更新手段として前記コンピュータを更に機能させ、
    前記3次元画像用領域に投影される前記3次元画像は、前記ポインティングデバイスによる所定の操作の有無にかかわらず所定の時間間隔で更新される、請求項1ないし請求項4のいずれか一項に記載の情報処理プログラム。
  6. 前記3次元画像用領域と前記2次元画像とが隣接する方向が前記画面スクロールの方向と平行となるように、当該3次元画像用領域と当該2次元画像とが配置されている、請求項1ないし請求項5のいずれか一項に記載の情報処理プログラム。
  7. 前記情報処理プログラムは、前記画面スクロールの操作が行われているか否かに関わらず、前記3次元仮想空間を制御する第2仮想空間制御手段として前記コンピュータを更に機能させる、請求項1に記載の情報処理プログラム。
  8. 前記3次元画像用領域に投影される前記3次元画像は、当該3次元画像用領域が画面に表示されていない状態であっても更新される、請求項1ないし請求項7のいずれか一項に記載の情報処理プログラム。
  9. 前記コンテンツには複数のコンテンツがあり、
    前記情報処理プログラムは、
    前記ポインティングデバイスによる入力に応じて、前記複数のコンテンツの表示を切り替える表示コンテンツ切替手段として前記コンピュータを更に機能させ、
    前記表示コンテンツ切替手段は、コンテンツの切り替え操作に応じて前記2次元画像用領域の表示内容のみを変更し、更に、コンテンツの切り替えが発生したときは、切り替える直前の画面におけるコンテンツ表示領域の表示範囲を示す情報を保存し、その後、他のコンテンツが表示されている状態から当該コンテンツに切り替えられたときは、当該保存された表示範囲を再現するようにして表示を切り替える、請求項1ないし請求項8のいずれか一項に記載の情報処理プログラム。
  10. 前記表示コンテンツ切替手段は、
    前記コンテンツの切り替えが発生したとき、切り替える直前の表示画面内に前記3次元画像用領域の少なくとも一部が含まれているか否かを判定する3次元領域有無判定手段を含み、
    第1のコンテンツから第2のコンテンツへの切り替えが発生したとき、第1のコンテンツにかかるコンテンツ表示領域の画面への表示範囲内および第2のコンテンツにかかるコンテンツ表示領域の最終的な表示範囲内の双方に3次元画像用領域が含まれているときは、切り替え後の第2のコンテンツにかかる3次元画像用領域の表示位置として、切り替え前である第1のコンテンツにおける3次元画像用領域の表示位置が反映されるように当該第2のコンテンツにかかるコンテンツ表示領域の表示範囲を調整して切り替える、請求項9に記載の情報処理プログラム。
  11. ポインティングデバイスによる入力を受け付け可能な情報処理システムであって、
    仮想3次元空間にオブジェクトを配置するオブジェクト配置手段と、
    前記3次元仮想空間に仮想カメラを配置する仮想カメラ配置手段と、
    前記仮想カメラで前記仮想3次元空間を撮影することにより3次元画像を生成する3次元画像生成手段と、
    所定の2次元画像を生成する2次元画像生成手段と、
    前記3次元画像を投影するための3次元画像用領域と、当該3次元画像用領域に隣接する領域であって前記2次元画像を表示するための2次元画像用領域とを含むコンテンツ表示領域を画面に表示するコンテンツ領域表示手段と、
    前記ポインティングデバイスによる入力に基づいて画面スクロールを行うスクロール制御手段とを備え、
    前記コンテンツ表示領域が画面スクロールされるときは、前記3次元画像用領域および2次元画像用領域の双方が一体的に画面スクロールされ、
    前記スクロール制御手段は、前記ポインティングデバイスにより前記2次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合に、前記コンテンツ表示領域の画面スクロールを行い、
    前記情報処理システムは、前記ポインティングデバイスにより前記3次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合は、前記コンテンツ表示領域の画面スクロールを行わず、かつ、操作する対象を切り替えるための操作を要求することなく、当該スワイプ操作に基づいて前記3次元仮想空間を制御する第1仮想空間制御手段を更に備え、
    前記3次元画像用領域は、前記コンテンツ表示領域において、画面スクロールの際にスクロールの先頭となる位置に配置されている、情報処理システム。
  12. ポインティングデバイスによる入力を受け付け可能な情報処理装置のコンピュータを制御するための情報処理方法であって、
    仮想3次元空間にオブジェクトを配置するオブジェクト配置ステップと、
    前記3次元仮想空間に仮想カメラを配置する仮想カメラ配置ステップと、
    前記仮想カメラで前記仮想3次元空間を撮影することにより3次元画像を生成する3次元画像生成ステップと、
    所定の2次元画像を生成する2次元画像生成ステップと、
    前記3次元画像を投影するための3次元画像用領域と、当該3次元画像用領域に隣接する領域であった前記2次元画像を表示するための2次元画像用領域とを含むコンテンツ表示領域を画面に表示するコンテンツ領域表示ステップと、
    前記ポインティングデバイスによる入力に基づいて画面スクロールを行うスクロール制御ステップとを前記コンピュータに実行させ、
    前記コンテンツ表示領域が画面スクロールされるときは、前記3次元画像用領域および2次元画像用領域の双方が一体的に画面スクロールされ、
    前記スクロール制御ステップでは、前記ポインティングデバイスにより前記2次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合に、前記コンテンツ表示領域の画面スクロールを行い、
    前記情報処理方法は、前記ポインティングデバイスにより前記3次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合は、前記コンテンツ表示領域の画面スクロールを行わず、かつ、操作する対象を切り替えるための操作を要求することなく、当該スワイプ操作に基づいて前記3次元仮想空間を制御する第1仮想空間制御ステップを前記コンピュータに更に実行させ、
    前記3次元画像用領域は、前記コンテンツ表示領域において、画面スクロールの際にスクロールの先頭となる位置に配置されている、情報処理方法。
  13. ポインティングデバイスによる入力を受け付け可能な情報処理装置であって、
    仮想3次元空間にオブジェクトを配置するオブジェクト配置手段と、
    前記3次元仮想空間に仮想カメラを配置する仮想カメラ配置手段と、
    前記仮想カメラで前記仮想3次元空間を撮影することにより3次元画像を生成する3次元画像生成手段と、
    所定の2次元画像を生成する2次元画像生成手段と、
    前記3次元画像を投影するための3次元画像用領域と、当該3次元画像用領域に隣接する領域であって前記2次元画像を表示するための2次元画像用領域とを含むコンテンツ表示領域を画面に表示するコンテンツ領域表示手段と、
    前記ポインティングデバイスによる入力に基づいて画面スクロールを行うスクロール制御手段とを備え、
    前記コンテンツ表示領域が画面スクロールされるときは、前記3次元画像用領域および2次元画像用領域の双方が一体的に画面スクロールされ、
    前記スクロール制御手段は、前記ポインティングデバイスにより前記2次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合に、前記コンテンツ表示領域の画面スクロールを行い、
    前記情報処理装置は、前記ポインティングデバイスにより前記3次元画像用領域内の任意の位置を入力の始点とするスワイプ操作が行われた場合は、前記コンテンツ表示領域の画面スクロールを行わず、かつ、操作する対象を切り替えるための操作を要求することなく、当該スワイプ操作に基づいて前記3次元仮想空間を制御する第1仮想空間制御手段とを更に備え、
    前記3次元画像用領域は、前記コンテンツ表示領域において、画面スクロールの際にスクロールの先頭となる位置に配置されている、情報処理装置。
JP2016025123A 2016-02-12 2016-02-12 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置 Active JP6833319B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016025123A JP6833319B2 (ja) 2016-02-12 2016-02-12 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置
US15/219,565 US10324611B2 (en) 2016-02-12 2016-07-26 Computer-readable non-transitory storage medium having stored therein information processing program, information processing system,information processing method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016025123A JP6833319B2 (ja) 2016-02-12 2016-02-12 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置

Publications (2)

Publication Number Publication Date
JP2017142454A JP2017142454A (ja) 2017-08-17
JP6833319B2 true JP6833319B2 (ja) 2021-02-24

Family

ID=59562103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016025123A Active JP6833319B2 (ja) 2016-02-12 2016-02-12 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置

Country Status (2)

Country Link
US (1) US10324611B2 (ja)
JP (1) JP6833319B2 (ja)

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005106628A1 (ja) 2004-04-30 2005-11-10 Access Co., Ltd. フレームページの表示方法、フレームページの表示装置およびプログラム
JP2008176551A (ja) * 2007-01-18 2008-07-31 Nec Corp チャット通信方法、コンピュータシステム、携帯電話端末およびプログラム
US20100058248A1 (en) * 2008-08-29 2010-03-04 Johnson Controls Technology Company Graphical user interfaces for building management systems
WO2010110459A1 (ja) * 2009-03-26 2010-09-30 京セラ株式会社 電子機器、情報処理方法、及び情報表示方法
JP2010262449A (ja) * 2009-05-01 2010-11-18 Metabirds Co Ltd n次元画像とm次元画像との連携表示のためのデータ処理方法および装置
JP5622447B2 (ja) 2010-06-11 2014-11-12 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP5134653B2 (ja) * 2010-07-08 2013-01-30 株式会社バンダイナムコゲームス プログラム及びユーザ端末
JP5732218B2 (ja) 2010-09-21 2015-06-10 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP2014017536A (ja) * 2010-11-02 2014-01-30 Sharp Corp 映像表示装置
US9749638B1 (en) * 2011-04-28 2017-08-29 Google Inc. Method and apparatus for encoding video with dynamic quality improvement
JP5833341B2 (ja) * 2011-05-18 2015-12-16 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP5852336B2 (ja) * 2011-06-13 2016-02-03 任天堂株式会社 表示制御プログラム、表示制御方法、表示制御システムおよび表示制御装置
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013084785A1 (ja) * 2011-12-05 2013-06-13 株式会社コナミデジタルエンタテインメント メッセージ管理システム、メッセージ表示装置、メッセージの表示方法、及び記録媒体
JP6101002B2 (ja) * 2012-03-23 2017-03-22 株式会社バンダイナムコエンターテインメント プログラム、サーバ及びネットワークシステム
US8548778B1 (en) * 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
JP5835255B2 (ja) 2013-03-19 2015-12-24 カシオ計算機株式会社 グラフ表示装置及びグラフ表示プログラム
US9348608B2 (en) * 2013-04-24 2016-05-24 QRC, Inc. System and method for registering application and application transforms on a radiofrequency digitization and collection device
JP5837108B2 (ja) * 2014-02-12 2015-12-24 ヤフー株式会社 配信装置、端末装置、配信方法および配信プログラム
US9616339B2 (en) * 2014-04-24 2017-04-11 Microsoft Technology Licensing, Llc Artist-directed volumetric dynamic virtual cameras
US9619519B1 (en) * 2014-06-23 2017-04-11 Amazon Technologies, Inc. Determining user interest from non-explicit cues
US10289260B2 (en) * 2014-08-27 2019-05-14 Honda Motor Co., Ltd. Systems and techniques for application multi-tasking
JP5830153B1 (ja) * 2014-10-31 2015-12-09 ヤフー株式会社 情報表示装置、配信装置、情報表示方法および情報表示プログラム

Also Published As

Publication number Publication date
JP2017142454A (ja) 2017-08-17
US10324611B2 (en) 2019-06-18
US20170235455A1 (en) 2017-08-17

Similar Documents

Publication Publication Date Title
US20230154122A1 (en) Methods for manipulating objects in an environment
JP5914739B1 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
CN115134649B (zh) 用于在视频内容内呈现交互式元素的方法和***
JP6684952B1 (ja) コンテンツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法
WO2017133475A1 (zh) 播放多媒体数据的方法、界面渲染方法及装置、设备
WO2019028855A1 (zh) 一种虚拟显示装置、智能交互方法和云端服务器
WO2020073334A1 (zh) 扩展内容显示方法、装置、***及存储介质
JP6121496B2 (ja) ヘッドマウントディスプレイシステムを制御するプログラム
CN117980962A (zh) 用于内容应用的设备、方法和图形用户界面
US20220337745A1 (en) Method for playing video
JP6082190B2 (ja) プログラム、情報処理装置、画像表示方法及び表示システム
JP2015049536A (ja) 端末装置、表示方法、プログラム、および表示システム
Baldauf et al. Snap target: Investigating an assistance technique for mobile magic lens interaction with large displays
JP2013250772A (ja) プログラム、情報処理装置、画像表示方法及び表示システム
JP6833319B2 (ja) 情報処理プログラム、情報処理システム、情報処理方法、および情報処理装置
JP2023111908A (ja) プログラム及び情報処理装置
JP6441426B1 (ja) キャラクタ動画表示システム
CN110800308B (zh) 用于在可穿戴设备中呈现用户界面的方法、***和介质
JPWO2020095784A1 (ja) 表示制御装置、プレゼンテーションシステム、表示制御方法、及びプログラム
JP5967126B2 (ja) 端末装置及びプログラム
JP2009025622A (ja) グラフィック表示装置、グラフィック表示方法およびプログラム
KR102020376B1 (ko) 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버
JP2017045295A (ja) ヘッドマウントディスプレイシステムを制御するプログラム
JP2024049190A (ja) プログラム、及び情報処理システム
KR20210148051A (ko) 증강현실제공 서버가 이동 단말기에 증강현실정보를 제공하는 방법 및 증강현실제공 서버

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190903

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191106

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200714

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200929

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201112

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201222

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210126

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210203

R150 Certificate of patent or registration of utility model

Ref document number: 6833319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250