JP2019184689A - 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 - Google Patents

電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 Download PDF

Info

Publication number
JP2019184689A
JP2019184689A JP2018072212A JP2018072212A JP2019184689A JP 2019184689 A JP2019184689 A JP 2019184689A JP 2018072212 A JP2018072212 A JP 2018072212A JP 2018072212 A JP2018072212 A JP 2018072212A JP 2019184689 A JP2019184689 A JP 2019184689A
Authority
JP
Japan
Prior art keywords
display
electronic device
roll
state
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018072212A
Other languages
English (en)
Other versions
JP7210153B2 (ja
Inventor
玄志郎 芝上
Genshiro Shibaue
玄志郎 芝上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018072212A priority Critical patent/JP7210153B2/ja
Priority to US16/364,573 priority patent/US11036287B2/en
Priority to DE102019108520.9A priority patent/DE102019108520A1/de
Priority to CN201910266551.5A priority patent/CN110347239A/zh
Publication of JP2019184689A publication Critical patent/JP2019184689A/ja
Application granted granted Critical
Publication of JP7210153B2 publication Critical patent/JP7210153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】高い没入感や臨場感などのために頭部に装置が装着されている状態で表示位置変更処理でない再生関連処理のための操作を可能にする。【解決手段】本発明の電子機器は、表示部の姿勢変化の検出結果を取得する取得手段と、画像の一部の範囲が表示範囲として前記表示部に表示されている場合に、検出された前記姿勢変化がピッチまたはヨーであるならば、当該姿勢変化に応じて前記表示範囲の位置を変更する第1処理を行い、前記検出された姿勢変化がロールであるならば、前記第1処理とは異なる前記画像の再生に関する第2処理を行う制御手段と、を有することを特徴とする。【選択図】図3

Description

本発明は、電子機器、電子機器の制御方法、プログラム、及び、記憶媒体に関し、特に、広範囲の映像範囲を有する画像を表示する制御方法に関するものである。
近年、全方位画像、全天球画像といった、人間の視野角より広い範囲の映像を持つ画像を撮影することが可能な撮像装置が普及している。また、このような広い範囲の映像を持つ画像の一部を表示部に表示し、装置の姿勢の変化に追従して表示部に表示する映像の範囲(表示範囲)の位置を変更することで、没入感や臨場感の高い表示を行う方法も知られている(特許文献1)。ユーザーは、その装置を頭部に装着することで、より高い没入感や臨場感を得ることができる。
特開2015−125502号公報
しかしながら、再生関連処理(再生に関する処理)は、装置の姿勢変化に応じて表示範囲の位置を変更する表示位置変更処理だけではない。そして、装置が頭部に装着されている場合には、ユーザーは、装置を頭部から外し、表示部の状態を操作可能な状態にしなければ、表示位置変更処理でない再生関連処理のための操作を行えず、利便性が悪い。
そこで本発明は、高い没入感や臨場感などのために頭部に装置が装着されている状態で表示位置変更処理でない再生関連処理のための操作を可能にする電子機器、電子機器の制御方法、プログラム、及び、記憶媒体を提供することを目的とする。
本発明の電子機器は、表示部の姿勢変化の検出結果を取得する取得手段と、画像の一部の範囲が表示範囲として前記表示部に表示されている場合に、検出された前記姿勢変化がピッチまたはヨーであるならば、当該姿勢変化に応じて前記表示範囲の位置を変更する第1処理を行い、前記検出された姿勢変化がロールであるならば、前記第1処理とは異なる前記画像の再生に関する第2処理を行う制御手段と、を有することを特徴とする。
本発明によれば、高い没入感や臨場感などのために頭部に装置が装着されている状態で表示位置変更処理でない再生関連処理のための操作が可能となる。
本実施形態に係る電子機器の構成の一例を示す図である。 本実施形態に係る回転方向の一例を示す図である。 本実施形態に係るVR表示処理の一例を示すフローチャートである。 本実施形態に係る表示状態の一例を示す図である。 本実施形態に係る設定項目の一例を示す図である。 本実施形態に係る表示装置制御処理の一例を示すフローチャートである。
以下、図面を参照して本発明の好適な実施形態を説明する。図1(A)に、本発明を適用可能な表示制御装置の一例としての電子機器100の構成の一例を示す。電子機器100は、スマートフォンなどの表示装置を用いて構成可能なものである。
図1(A)において、内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、表示部105、操作部106、記憶媒体I/F107、外部I/F109、及び、通信I/F110が接続されている。また、内部バス150に対して音声出力部112と姿勢検出部113も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
CPU101は、電子機器100の全体を制御する制御部であり、少なくとも1つのプロセッサーからなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROMなどで構成される。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記憶媒体108に格納された画像や、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像などに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲のデータを有する広範囲画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
表示部105は、CPU101の制御に基づいて、画像やGUI(Graphical
User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、表示部105に表示するための映像信号を生成して表示部105に出力するように電子機器100の各部を制御する。表示部105は出力された映像信号に基づいて映像を表示する。なお、電子機器100自体が備える構成としては表示部105に表示させるための映像信号を出力するためのインターフェースまでとし、表示部105は外付けのモニタ(ヘッドマウント型ディスプレイなど)で構成してもよい。
操作部106は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザー操作を受け付けるための入力デバイスである。なお、タッチパネルは、表示部105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。
記憶媒体I/F107は、メモリーカードやCD、DVDといった記憶媒体108が装着可能とされ、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出しや、当該記憶媒体108に対するデータの書き込みを行う。外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111な
どと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
音声出力部112は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部112には、イヤホンなどを接続する音声出力端子112a、スピーカー112bが含まれるものとするが、無線通信などで音声出力を行ってもよい。
姿勢検出部113は、重力方向に対する電子機器100(表示部105)の姿勢を検出(検知)する。姿勢検出部113で検出された姿勢に基づいて、電子機器100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。この、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別することで、電子機器100がロール方向に回転しているのか、ピッチ方向に回転しているのか、ヨー方向に回転しているのかなどを検出することができる。それぞれの回転方向に対しての回転角度を検出することもできる。姿勢検出部113としては、加速度センサー、ジャイロセンサー、地磁気センサー、方位センサーなどのうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。なお、表示部105が外付けのモニタである場合には、姿勢検出部113が表示部105に設けられ、姿勢検出部113の検出結果を取得するインターフェースが電子機器100に設けられる。
なお操作部106には、タッチパネル106aが含まれる。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった指やペンが新たにタッチパネル106aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル106aを指やペンがタッチしている状態であること(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル106aへタッチしていた指やペンがタッチパネル106aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパネル106a上に指やペンがタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル106a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定するものとする。タッチパネル106a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出さ
れるとフリックが行なわれたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
図1(B)に、電子機器100の外観の一例を示す。表示部105は画像や各種情報を表示する。表示部105は上述した通りタッチパネル106aと一体的に構成されており、表示部105の表示面へのタッチ操作を検出できるようになっている。操作部106には図示のように操作部106b,106c,106d,106eが含まれる。操作部106bは電子機器100の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部106cと操作部106dは音声出力部112から出力する音声のボリュームを増減するボリュームボタンである。操作部106eは、表示部105にホーム画面を表示させるためのホームボタンである。
図1(C)に、電子機器100を装着可能なVR(Virtual Reality)ゴーグルであるヘッドマウントアダプターの外観の一例を示す。電子機器100は、VRゴーグルに装着することで、ヘッドマウント型ディスプレイとして使用することも可能である。挿入口120は、電子機器100を差し込むための挿入口である。表示部105の表示面を、VRゴーグルをユーザーの頭部に固定するためのヘッドバンド130側(すなわちユーザー側)に向けて電子機器100の全体をVRゴーグルに差し込むことができる。こうして電子機器100が装着されたVRゴーグルを装着することにより、ユーザーはVRゴーグルを頭部に装着した状態で、ユーザーが手で電子機器100を保持することなく、電子機器100の表示部105を視認することができる。この場合、ユーザーが頭部または体全体を動かすと、電子機器100の姿勢も変化する。姿勢検出部113はこの時の電子機器100の姿勢の変化を検出し、この姿勢変化に基づいてCPU101が後述するVR表示(VR表示処理)を行う。この場合に姿勢検出部113が電子機器100の姿勢を検出することは、ユーザーの頭部の姿勢(ユーザーの視線が向いている方向)を検出することと同等である。
電子機器100は、VR画像(VRコンテンツ)を表示部105においてVR表示することが可能である。
VR画像とは、VR表示をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部105に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。また、カメラで撮影した画像に限らず、コンピュータグラフィックスス(CG)を用いて作成した画像であっても、VR表示可能なものはVR画像(VRコンテンツ)に含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部105に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野
分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ180度(±90度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示すると、左右回転方向に姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から見て±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。
VR表示とは、VR画像のうち、姿勢検出部113で検出した電子機器100の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法である。電子機器100をVRゴーグルに装着して視聴する場合には、ユーザーの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、電子機器100の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザーがVRゴーグルに装着した電子機器100を視聴している場合で言えば、ユーザーが顔を北から南に向ければ(すなわち後ろを向けば)、電子機器100に表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザーに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。VR表示のようなVR画像の見せ方(視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供するVR画像の見せ方)は、「VRビュー」などと呼ばれる。
図2(A)に、電子機器100の回転方向の一例を示す。図2(A)において、x軸は電子機器100の左右方向の軸であり、y軸は電子機器100の上下方向の軸であり、z軸は電子機器100の前後方向の軸である。電子機器100の初期(基準)の姿勢は、例えば、VRゴーグルを装着した人物が顔を正面に向けた状態での姿勢である。
図2(A)に示すように、電子機器100の回転には、x軸まわりの回転である「ピッチ」、y軸まわりの回転である「ヨー」、及び、z軸まわりの回転である「ロール」がある。上述したピッチ方向は、ピッチの回転方向、すなわちx軸まわりの回転方向であり、ヨー方向は、ヨーの回転方向、すなわちy軸まわりの回転方向であり、ロール方向は、ロールの回転方向、すなわちz軸まわりの回転方向である。
例えば、VRゴーグルを装着した人物が、顔を正面に向けた状態から上側や下側に顔を向けると、電子機器100のピッチが生じる。VRゴーグルを装着した人物が、顔を正面に向けた状態から左側や右側に顔を向けると、電子機器100のヨーが生じる。VRゴーグルを装着した人物が、顔を正面に向けた状態から左側や右側に首を傾けると、電子機器100のロールが生じる。本実施例では、左回りのロールを「左ロール」と記載し、右回りのロールを「右ロール」と記載する。
図2(B)〜2(D)に、VR空間の回転方向の一例を示す。図2(B)〜2(D)において、X軸はVR空間の左右方向の軸であり、Y軸はVR空間の上下方向の軸であり、Z軸はVR空間の前後方向の軸である。VR空間の回転にも、X軸まわりの回転である「ピッチ」(図2(B))、Y軸まわりの回転である「ヨー」(図2(C))、及び、Z軸まわりの回転である「ロール」(図2(D))がある。
VR空間における電子機器100の向きを固定として考えると、電子機器100のピッチに応じて、電子機器100のピッチ方向とは逆方向のピッチがVR空間に生じる。電子機器100のヨーに応じて、電子機器100のヨー方向とは逆方向のヨーがVR空間に生じる。電子機器100のロールに応じて、電子機器100のロール方向とは逆方向のロールがVR空間に生じる。例えば、電子機器100の右ロールが生じると、VR空間の左ロールが生じる。
図3に、電子機器100で行われるVR表示処理のフローチャートを示す。この処理は、不揮発性メモリ103に記録されたプログラムをメモリ102に展開してCPU101が実行することで実現される。電子機器100の電源がオンされ、記憶媒体108に記録された画像や、通信先から取得した画像のうち、VR画像が選択され、VR画像の一部の範囲がVRビューで表示されると、図3の処理が開始される。なお、表示される画像はVR画像でなくてもよい。画像の一部の範囲が表示範囲として表示部105に表示されれば、画像の一部の範囲はVRビューで表示されなくてもよい。
ステップS301では、CPU101は、メモリ102に格納されている各パラメータ(各判定に使用する各パラメータ)を0に初期化する。本実施例では、CPU101は、所定の時間間隔で、電子機器100の状態が、ピッチ状態、ヨー状態、第1左ロール状態、第2左ロール状態、第1右ロール状態、第2右ロール状態、及び、停止状態のいずれであるかを判断する。そして、ステップS301では、ピッチ状態カウント値、ヨー状態カウント値、第1左ロール状態カウント値、第2左ロール状態カウント値、第1右ロール状態カウント値、及び、第2右ロール状態カウント値が、0に初期化される。
ピッチ状態は、ピッチ方向に電子機器100が第2の角度以上回転するピッチが生じた後の状態であり、例えば、VRゴーグルを装着した人物が上側に顔を向けた状態、VRゴーグルを装着した人物が下側に顔を向けた状態、等である。ヨー状態は、ヨー方向に電子機器100が第2の角度以上回転するヨーが生じた後の状態であり、例えば、VRゴーグルを装着した人物が左側に顔を向けた状態、VRゴーグルを装着した人物が右側に顔を向けた状態、等である。第1左ロール状態は、回転角度が第1の角度以上かつ第3の角度未満である左ロールが生じた後の状態であり、第2左ロール状態は、回転角度が第3の角度以上である左ロールが生じた後の状態である。第1左ロール状態と第2左ロール状態は、例えば、VRゴーグルを装着した人物が左側に首を傾けた状態である。第1右ロール状態は、回転角度が第1の角度以上かつ第3の角度未満である右ロールが生じた後の状態であり、第2右ロール状態は、回転角度が第3の角度以上である右ロールが生じた後の状態である。第1右ロール状態と第2右ロール状態は、例えば、VRゴーグルを装着した人物が右側に首を傾けた状態である。停止状態は、ピッチ状態、ヨー状態、第1左ロール状態、第2左ロール状態、第1右ロール状態、及び、第2右ロール状態とは異なる状態であり、例えば、VRゴーグルを装着した人物が正面に顔を向けた状態である。
本実施例では、第2の角度として第1の角度よりも小さい角度が使用される。これにより、第1左ロール状態、第2左ロール状態、第1右ロール状態、及び、第2右ロール状態に比べ、ピッチ状態とヨー状態が判断されやすくなる。
ピッチ状態カウント値は、ピッチ状態の継続時間を示すカウント値であり、ヨー状態カウント値は、ヨー状態の継続時間を示すカウント値である。第1左ロール状態カウント値は、第1左ロール状態の継続時間を示すカウント値であり、第2左ロール状態カウント値は、第2左ロール状態の継続時間を示すカウント値である。第1右ロール状態カウント値は、第1右ロール状態の継続時間を示すカウント値であり、第2右ロール状態カウント値は、第2右ロール状態の継続時間を示すカウント値である。
ステップS302では、CPU101は、表示されるVR画像が動画(VR動画)か否かを判定する。VR動画と判定された場合はステップS303へ進み、そうでない場合(VR静止画と判定された場合)はステップS304へ進む。
ステップS303やステップS304では、CPU101は、複数の再生関連処理(VR画像400の再生に関する処理)のうち、表示位置変更処理とは異なる処理に関する表示アイテムを、表示部105に表示する。具体的には、ステップS303では、CPU101は、動画用設定項目の表示アイテムを表示部105に表示する。ステップS304では、CPU101は、静止画用設定項目の表示アイテムを表示部105に表示する。
図4(A)に、ステップS303またはステップS304の後の表示部105の表示状態の一例を示す。表示部105には、VR画像400が表示されており、VR画像400上に表示アイテム401〜406が表示されている。表示アイテム401,402は、ロール方向における電子機器100の回転角度(ロール角度)を示すゲージ407が表示されるインジケータである。表示アイテム403〜406は、表示位置変更処理とは異なる再生関連処理の設定項目を示すアイテムである。
図5(A)に、動画用設定項目の一例を示す。図5(A)の例では、ステップS303の処理により、図4(A)の表示アイテム404として、VR動画の停止を示すアイテムが表示され、表示アイテム406として、VR動画の再生を示すアイテムが表示される。表示アイテム403として、VR動画の早戻しを示すアイテムが表示され、表示アイテム405として、VR動画の早送りを示すアイテムが表示される。
図5(B)に、静止画用設定項目の一例を示す。図5(B)の例では、ステップS304の処理により、図4(A)の表示アイテム404として、VR静止画の縮小と、複数のVR静止画を並べて表示するマルチ再生とを示すアイテムが表示される。表示アイテム406として、VR静止画の拡大と、1枚のVR静止画を表示する1枚再生とを示すアイテムが表示される。表示アイテム403として、表示されるVR静止画を前のVR静止画に切り替える画像戻しを示すアイテムが表示され、表示アイテム405として、表示されるVR静止画を次のVR静止画に切り替える画像送りを示すアイテムが表示される。
ステップS305では、CPU101は、姿勢検出部113によって検出された電子機器100のロール角度に応じて、図4(A)のゲージ407をインジケータ401またはインジケータ402に表示する。左ロール状態(左ロールが生じた後の状態)ではインジケータ401にゲージ407が表示され、右ロール状態(右ロールが生じた後の状態)ではインジケータ402にゲージ407が表示される。ゲージ407は、ロール角度が大きいほど高い高さで表示される。電子機器100の初期の姿勢(ロール角度0°)では、ゲージ407は表示されない。ロール角度が50°のときに、ゲージ407の高さは最大となる。
ステップS306では、CPU101は、姿勢検出部113の検出結果に基づいて電子機器100の状態を判断する。電子機器100の状態が、ピッチ状態、ヨー状態、第1左ロール状態、第2左ロール状態、第1右ロール状態、第2右ロール状態、及び、停止状態のいずれであるかが判断される。
ステップS307では、CPU101は、ステップS306の判断結果に応じて、電子機器100の状態がピッチ状態またはヨー状態であるか否かを判定する。ピッチ状態またはヨー状態と判定された場合はステップS308へ進み、そうでない場合はステップS312へ進む。
ステップS308では、CPU101は、ロール状態カウント値(第1左ロール状態カウント値、第2左ロール状態カウント値、第1右ロール状態カウント値、及び、第2右ロール状態カウント値)を0にクリアする。
ステップS309では、CPU101は、S626にて、ピッチ状態カウント値またはヨー状態カウント値を1つカウントアップする。電子機器100の状態がピッチ状態である場合にはピッチ状態カウント値がカウントアップされ、電子機器100の状態がヨー状態である場合にはヨー状態カウント値がカウントアップされる。
ステップS310では、CPU101は、ステップS309でカウントアップしたカウント値(ピッチ状態カウント値またはヨー状態カウント値)が第1の閾値以上であるか否かを判定する。カウント値が第1の閾値以上であると判定された場合はステップS311へ進み、そうでない場合はステップS305へ進む。したがって、ピッチ状態またはヨー状態の継続時間が第1の閾値時間に達すると、ステップS311へ進む。
ステップS311では、CPU101は、電子機器100の姿勢変化に応じてVR画像の表示範囲の位置を変更する表示位置変更処理を行う。
ステップS307でピッチ状態またはヨー状態と判定されなかった場合には、ステップS312で、CPU101は、ピッチ状態カウント値とヨー状態カウント値を0にクリアする。
ステップS313では、CPU101は、ステップS306の判断結果に応じて、電子機器100の状態が、回転角度が第1の角度以上であるロール状態であるか否かを判定する。回転角度が第1の角度以上であるロール状態(第1左ロール状態、第2左ロール状態、第1右ロール状態、または、第2右ロール状態)と判定された場合はステップS314へ進み、そうでない場合(停止状態と判定された場合)はステップS315へ進む。第1の角度は例えば15°である。
ステップS314では、CPU101は、表示装置制御処理を行う。表示装置制御処理については後述する。
ステップS315では、CPU101は、ロール状態カウント値(第1左ロール状態カウント値、第2左ロール状態カウント値、第1右ロール状態カウント値、及び、第2右ロール状態カウント値)を0にクリアする。
図6に、表示装置制御処理(図3のステップS314)のフローチャートを示す。
ステップS601では、CPU101は、図3のステップS306の判断結果に応じて、電子機器100の状態が、回転角度が第1の角度以上である右ロール状態であるか否かを判定する。回転角度が第1の角度以上である右ロール状態(第1右ロール状態または第2右ロール状態)と判定された場合はステップS602へ進み、そうでない場合(第1左ロール状態または第2左ロール状態と判定された場合)はステップS612へ進む。
ステップS602では、CPU101は、第1左ロール状態カウント値と第2左ロール状態カウント値を0にクリアする。
ステップS603では、CPU101は、図3のステップS306の判断結果に応じて、電子機器100のロール角度が第3の角度未満か否かを判定する。すなわち、CPU101は、電子機器100の状態が第1右ロール状態であるか否かを判定する。ロール角度
が第3の角度未満と判定された場合(電子機器100の状態が第1右ロール状態である場合)はステップS604へ進み、そうでない場合(電子機器100の状態が第2右ロール状態である場合)はステップS608へ進む。第3の角度は例えば30°である。
ステップS604では、CPU101は、第2右ロール状態カウント値を0にクリアする。
ステップS605では、CPU101は、第1右ロール状態カウント値を1つカウントアップする。
ステップS606では、CPU101は、第1右ロール状態カウント値が第2の閾値以上であるか否かを判定する。第1右ロール状態カウント値が第2の閾値以上であると判定された場合はステップS607へ進み、そうでない場合は図3のステップS305へ進む。したがって、第1右ロール状態の継続時間が第2の閾値時間に達すると、ステップS607へ進む。
ステップS607では、CPU101は、第1右ロール状態に対応する設定項目の再生関連処理を行う。ここでは、図5(A),5(B)の設定項目が使用されるとする。VR動画の場合は再生が行われ、VR静止画の場合は画像送りが行われる。
本実施例では、ロール状態カウント値の閾値(ステップS606などで使用される第2の閾値)として、ピッチ状態カウント値やヨー状態カウント値の閾値(ステップS310で使用される第1の閾値)よりも大きい値が使用される。これにより、CPU101は、設定項目の選択における反応速度よりも速い反応速度で、表示範囲の位置の変更、マルチ表示(マルチ再生)されている画像の選択、等を行える。また、設定項目の誤選択(意図せぬ選択)などの誤動作を抑制することもできる。
ステップS603でロール角度が第3の角度以上(電子機器100の状態が第2右ロール状態である)と判定された場合には、ステップS608で、CPU101は、第1右ロール状態カウント値を0にクリアする。
ステップS609では、CPU101は、第2右ロール状態カウント値を1つカウントアップする。
ステップS610では、CPU101は、第2右ロール状態カウント値が第2の閾値以上であるか否かを判定する。第2右ロール状態カウント値が第2の閾値以上であると判定された場合はステップS611へ進み、そうでない場合は図3のステップS305へ進む。したがって、第2右ロール状態の継続時間が第2の閾値時間に達すると、ステップS611へ進む。
ステップS611では、CPU101は、第2右ロール状態に対応する設定項目の再生関連処理を行う。VR動画の場合は早送りが行われ、VR静止画の場合は拡大/1枚再生が行われる。このとき、表示部105の表示状態は図4(B)に示す状態となる。図4(B)では、ゲージ407がインジケータ402に表示されており、表示アイテム405の位置に達している。このような表示状態から、ユーザーは、早送り、拡大、1枚再生、等が行われることを直感的に把握できる。
ステップS601で右ロール状態と判定されなかった場合(第1左ロール状態または第2左ロール状態と判定された場合)は、ステップS612で、CPU101は、第1右ロール状態カウント値と第2右ロール状態カウント値を0にクリアする。
ステップS613では、CPU101は、図3のステップS306の判断結果に応じて、電子機器100のロール角度が第3の角度未満か否かを判定する。すなわち、CPU101は、電子機器100の状態が第1左ロール状態であるか否かを判定する。ロール角度が第3の角度未満と判定された場合(電子機器100の状態が第1左ロール状態である場合)はステップS614へ進み、そうでない場合(電子機器100の状態が第2左ロール状態である場合)はステップS618へ進む。
ステップS614では、CPU101は、第2左ロール状態カウント値を0にクリアする。
ステップS615では、CPU101は、第1左ロール状態カウント値を1つカウントアップする。
ステップS616では、CPU101は、第1左ロール状態カウント値が第2の閾値以上であるか否かを判定する。第1左ロール状態カウント値が第2の閾値以上であると判定された場合はステップS617へ進み、そうでない場合は図3のステップS305へ進む。したがって、第1左ロール状態の継続時間が第2の閾値時間に達すると、ステップS617へ進む。
ステップS617では、CPU101は、第1左ロール状態に対応する設定項目の再生関連処理を行う。VR動画の場合は停止が行われ、VR静止画の場合は画像戻しが行われる。
ステップS613でロール角度が第3の角度以上(電子機器100の状態が第2左ロール状態である)と判定された場合には、ステップS618で、CPU101は、第1左ロール状態カウント値を0にクリアする。
ステップS619では、CPU101は、第2左ロール状態カウント値を1つカウントアップする。
ステップS620では、CPU101は、第2左ロール状態カウント値が第2の閾値以上であるか否かを判定する。第2左ロール状態カウント値が第2の閾値以上であると判定された場合はステップS621へ進み、そうでない場合は図3のステップS305へ進む。したがって、第2左ロール状態の継続時間が第2の閾値時間に達すると、ステップS621へ進む。
ステップS621では、CPU101は、第2左ロール状態に対応する設定項目の再生関連処理を行う。VR動画の場合は早戻しが行われ、VR静止画の場合は縮小/マルチ再生が行われる。このとき、表示部105の表示状態は図4(C)に示す状態となる。図4(C)では、ゲージ407がインジケータ401に表示されており、表示アイテム403の位置に達している。このような表示状態から、ユーザーは、早戻し、縮小、マルチ再生、等が行われることを直感的に把握できる。
以上述べたように、本実施形態によれば、画像の一部の範囲が表示範囲として表示部に表示されている場合に、検出された姿勢変化がピッチまたはヨーであるならば、当該姿勢変化に応じて表示範囲の位置を変更する表示位置変更処理が行われる。そして、検出された姿勢変化がロールであるならば、表示位置変更処理とは異なる再生関連処理が行われる。これにより、高い没入感や臨場感などのために頭部に装置(表示部)が装着されている状態で再生に関する操作が可能となる。
なお、CPU101が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
ロールに応じて実行される再生関連処理(表示される設定項目)は、電子機器100に予め登録された固定の処理であってもよいし、任意に変更可能であってもよい。再生、停止、早送り、早戻し、拡大、縮小、1枚再生、マルチ再生、画像送り、及び、画像戻しとは異なる再生関連処理がロールに応じて行われてもよい。例えば、表示される動画を次のファイルの動画に切り替えるファイル送り、表示される動画を前のファイルの動画に切り替えるファイル戻し、等がロールに応じて実行されてもよい。
第1の閾値(第1の閾値時間)が第2の閾値(第2の閾値時間)よりも小さい例を説明したが、第1の閾値は第2の閾値と等しくてもよいし、第2の閾値より大きくてもよい。第1の閾値と第2の閾値は0より大きければよい。第2の角度が第1の角度よりも小さい例を説明したが、第2の角度は第1の角度と等しくてもよいし、第1の角度より大きくてもよい。第1の角度と第2の角度は0より大きければよい。
ロールが生じた場合に表示範囲の位置が変更されない例を説明したが、CPU101は、ロールが生じた場合に表示位置変更処理を行ってもよい。ピッチ状態とヨー状態においてロール状態が検出されず、表示位置変更処理とは異なる再生関連処理が行われない例を説明したが、ピッチ状態とヨー状態においてロール状態が検出されてもよい。そして、ピッチ状態とヨー状態においてロール状態が検出された場合に、表示位置変更処理とは異なる再生関連処理が行われてもよい。
右ロール状態が検出された場合に、再生関連処理として、左ロール状態が検出された場合とは異なる処理が行われる例を説明したが、右ロール状態が検出された場合と、左ロール状態が検出された場合とで、再生関連処理が同じであってもよい。回転角度が第3の角度未満のロールが検出された場合に、再生関連処理として、回転角度が第3の角度以上のロールが検出された場合とは異なる処理が行われる例を説明したが、これに限られない。第3の角度未満のロールが検出された場合と、回転角度が第3の角度以上のロールが検出された場合とで、再生関連処理が同じであってもよい。
表示位置変更処理とは異なる再生関連処理に関する表示アイテムを表示するタイミングは、上述したタイミング(図3のステップS303やステップS304)に限られない。例えば、CPU101は、ロール状態が検出された場合に、表示位置変更処理とは異なる再生関連処理に関する表示アイテムを表示部105に表示する制御を行ってもよい。CPU101は、表示アイテムが表示されていない状態でロール状態が検出された場合に表示アイテムを表示する制御を行い、表示アイテムが表示されている状態でロール状態が検出された場合に表示位置変更処理とは異なる再生関連処理を行ってもよい。CPU101は、ロール状態が検出された場合にである場合に、表示アイテムを表示する制御を行うと共に、表示位置変更処理とは異なる再生関連処理を行ってもよい。
電子機器100は、電子機器100(表示部105)の移動の検出結果を取得してもよい。そして、CPU101は、所定方向(前方向、後方向、右方向、左方向、等)のスラ
イド移動が検出された場合に、表示位置変更処理とは異なる再生関連処理を行ってもよい。例えば、VRゴーグルを装着した人物が前、後、左、または、右に移動すると、電子機器100のスライド移動として、人物の移動方向と同じ方向のスライド移動が検出される。
また、上述した実施形態においては、本発明をスマートフォンなどの電子機器100に適用した場合を例にして説明したが、これはこの例に限定されず画像の一部分を表示するように制御することが可能である電子機器であれば適用可能である。もちろん、スマートフォンではなく、ヘッドマウント型ディスプレイ(HMD)に適用することも可能である。また、本発明はパーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレームなどに適用可能である。また、本発明は音楽プレーヤー、ゲーム機、電子ブックリーダー、タブレット端末、スマートフォン、投影装置、ディスプレイを備える家電装置や車載装置などに適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:電子機器 101:CPU 113:姿勢検出部

Claims (19)

  1. 表示部の姿勢変化の検出結果を取得する取得手段と、
    画像の一部の範囲が表示範囲として前記表示部に表示されている場合に、検出された前記姿勢変化がピッチまたはヨーであるならば、当該姿勢変化に応じて前記表示範囲の位置を変更する第1処理を行い、前記検出された姿勢変化がロールであるならば、前記第1処理とは異なる前記画像の再生に関する第2処理を行う制御手段と、
    を有することを特徴とする電子機器。
  2. 前記画像の一部の範囲が表示範囲として前記表示部に表示されている場合とは、前記画像の一部の範囲がVRビューで表示されている場合である
    ことを特徴とする請求項1に記載の電子機器。
  3. 前記第2処理は、静止画の画像送り、静止画の画像戻し、静止画の拡大、静止画の縮小、動画のファイル送り、動画のファイル戻し、動画の早送り、動画の早戻し、動画の再生、または、動画の停止である
    ことを特徴とする請求項1または2に記載の電子機器。
  4. 前記制御手段は、前記検出された姿勢変化がロールである場合に、前記表示範囲の位置を変更しない
    ことを特徴とする請求項1〜3のいずれか1項に記載の電子機器。
  5. 前記制御手段は、前記ピッチまたは前記ヨーの後の状態の継続時間が第1の時間に達した場合に前記第1処理を行い、前記ロールの後の状態の継続時間が第2の時間に達した場合に前記第2処理を行い、
    前記第1の時間は前記第2の時間よりも短い
    ことを特徴とする請求項1〜4のいずれか1項に記載の電子機器。
  6. 前記ロールは、対応する方向に前記表示部が第1の角度以上回転する姿勢変化であり、
    前記ピッチまたは前記ヨーは、対応する方向に前記表示部が前記第1の角度よりも小さい第2の角度以上回転する姿勢変化である
    ことを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
  7. 前記ピッチまたは前記ヨーが検出されている場合に、前記ロールは検出されない
    ことを特徴とする請求項1〜6のいずれか1項に記載の電子機器。
  8. 前記制御手段は、前記ピッチまたは前記ヨーが検出されている場合に、前記第2処理を行わない
    ことを特徴とする請求項1〜5のいずれか1項に記載の電子機器。
  9. 前記第2処理は任意に変更可能である
    ことを特徴とする請求項1〜8のいずれか1項に記載の電子機器。
  10. 前記制御手段は、前記検出された姿勢変化が第1の方向へのロールである場合に、前記第2処理として、前記検出された姿勢変化が前記第1の方向の逆方向である第2の方向へのロールである場合とは異なる処理を行う
    ことを特徴とする請求項1〜9のいずれか1項に記載の電子機器。
  11. 前記制御手段は、回転角度が第3の角度未満のロールが前記姿勢変化として検出された場合に、前記第2処理として、回転角度が前記第3の角度以上のロールが前記姿勢変化と
    して検出された場合とは異なる処理を行う
    ことを特徴とする請求項1〜10のいずれか1項に記載の電子機器。
  12. 前記検出された姿勢変化がロールである場合に、前記制御手段は、前記第2処理に関する表示アイテムを前記表示部に表示する制御を行う
    ことを特徴とする請求項1〜11のいずれか1項に記載の電子機器。
  13. 前記制御手段は、
    前記表示アイテムが前記表示部に表示されていない状態で前記ロールが検出された場合に、前記表示アイテムを前記表示部に表示する制御を行い、
    前記表示アイテムが前記表示部に表示されている状態で前記ロールが検出された場合に、前記第2処理を行う
    ことを特徴とする請求項12に記載の電子機器。
  14. 前記制御手段は、前記検出された姿勢変化がロールである場合に、前記表示アイテムを前記表示部に表示する制御を行うと共に、前記第2処理を行う
    ことを特徴とする請求項12に記載の電子機器。
  15. 前記表示部は、ヘッドマウント型ディスプレイである
    ことを特徴とする請求項1〜14のいずれか1項に記載の電子機器。
  16. 前記電子機器は、前記表示部を有するヘッドマウント型ディスプレイである
    ことを特徴とする請求項1〜12のいずれか1項に記載の電子機器。
  17. 表示部の姿勢変化の検出結果を取得するステップと、
    画像の一部の範囲が表示範囲として前記表示部に表示されている場合に、検出された前記姿勢変化がピッチまたはヨーであるならば、当該姿勢変化に応じて前記表示範囲の位置を変更する第1処理を行い、前記検出された姿勢変化がロールであるならば、前記第1処理とは異なる前記画像の再生に関する第2処理を行うステップと、
    を有することを特徴とする電子機器の制御方法。
  18. コンピュータを、請求項1〜16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
  19. コンピュータを、請求項1〜16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2018072212A 2018-04-04 2018-04-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体 Active JP7210153B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018072212A JP7210153B2 (ja) 2018-04-04 2018-04-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US16/364,573 US11036287B2 (en) 2018-04-04 2019-03-26 Electronic device, control method for electronic device, and non-transitory computer readable medium
DE102019108520.9A DE102019108520A1 (de) 2018-04-04 2019-04-02 Elektronische Vorrichtung, Steuerverfahren für eine elektronische Vorrichtung, Programm und computerlesbares Medium
CN201910266551.5A CN110347239A (zh) 2018-04-04 2019-04-03 电子装置、电子装置的控制方法和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018072212A JP7210153B2 (ja) 2018-04-04 2018-04-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Publications (2)

Publication Number Publication Date
JP2019184689A true JP2019184689A (ja) 2019-10-24
JP7210153B2 JP7210153B2 (ja) 2023-01-23

Family

ID=67991508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018072212A Active JP7210153B2 (ja) 2018-04-04 2018-04-04 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Country Status (4)

Country Link
US (1) US11036287B2 (ja)
JP (1) JP7210153B2 (ja)
CN (1) CN110347239A (ja)
DE (1) DE102019108520A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098676A (ja) * 2007-09-28 2009-05-07 Nikon Corp 制御装置及びヘッドマウントディスプレイ装置
JP2009122476A (ja) * 2007-11-16 2009-06-04 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP2014197066A (ja) * 2013-03-29 2014-10-16 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2016110319A (ja) * 2014-12-04 2016-06-20 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US20170161011A1 (en) * 2015-12-03 2017-06-08 Le Holdings (Beijing) Co., Ltd. Play control method and electronic client
JP2017201477A (ja) * 2016-05-06 2017-11-09 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
JP2018005516A (ja) * 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
US20180150132A1 (en) * 2016-11-25 2018-05-31 Samsung Electronics Co., Ltd. Method and device for providing an image
WO2018150831A1 (ja) * 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2018151855A (ja) * 2017-03-13 2018-09-27 株式会社コナミデジタルエンタテインメント 表示制御装置及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4306679B2 (ja) * 2005-12-28 2009-08-05 ソニー株式会社 振れ検出装置、振れ補正装置、撮像装置
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
JP2011170834A (ja) * 2010-01-19 2011-09-01 Sony Corp 情報処理装置、操作予測方法及び操作予測プログラム
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
JP2015125502A (ja) 2013-12-25 2015-07-06 ソニー株式会社 画像処理装置及び画像処理方法、表示装置及び表示方法、コンピューター・プログラム、並びに画像表示システム
US9551873B2 (en) * 2014-05-30 2017-01-24 Sony Interactive Entertainment America Llc Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content
WO2016017121A1 (ja) * 2014-07-28 2016-02-04 パナソニックIpマネジメント株式会社 拡張現実表示システム、端末装置および拡張現実表示方法
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
JP2017021461A (ja) * 2015-07-08 2017-01-26 株式会社ソニー・インタラクティブエンタテインメント 操作入力装置および操作入力方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098676A (ja) * 2007-09-28 2009-05-07 Nikon Corp 制御装置及びヘッドマウントディスプレイ装置
JP2009122476A (ja) * 2007-11-16 2009-06-04 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP2014197066A (ja) * 2013-03-29 2014-10-16 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP2016110319A (ja) * 2014-12-04 2016-06-20 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US20170161011A1 (en) * 2015-12-03 2017-06-08 Le Holdings (Beijing) Co., Ltd. Play control method and electronic client
JP2017201477A (ja) * 2016-05-06 2017-11-09 株式会社コロプラ 仮想空間を提供する方法、プログラム、および記録媒体
JP2018005516A (ja) * 2016-06-30 2018-01-11 株式会社コナミデジタルエンタテインメント 端末装置、及びプログラム
US20180150132A1 (en) * 2016-11-25 2018-05-31 Samsung Electronics Co., Ltd. Method and device for providing an image
WO2018150831A1 (ja) * 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2018151855A (ja) * 2017-03-13 2018-09-27 株式会社コナミデジタルエンタテインメント 表示制御装置及びプログラム

Also Published As

Publication number Publication date
US11036287B2 (en) 2021-06-15
DE102019108520A1 (de) 2019-10-10
JP7210153B2 (ja) 2023-01-23
CN110347239A (zh) 2019-10-18
US20190310702A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US10948993B2 (en) Picture-taking within virtual reality
JP7005161B2 (ja) 電子機器及びその制御方法
KR102146858B1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
US10979700B2 (en) Display control apparatus and control method
US11706378B2 (en) Electronic device and method of controlling electronic device
US11100903B2 (en) Electronic device and control method for controlling a display range on a display
EP2341412A1 (en) Portable electronic device and method of controlling a portable electronic device
JP7187307B2 (ja) 電子機器及びその制御方法
JP7000289B2 (ja) プログラム、情報処理装置、および方法
CN111381750B (zh) 电子装置及其控制方法和计算机可读存储介质
JP7210153B2 (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP2019191988A (ja) 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
US20200257396A1 (en) Electronic device and control method therefor
JP2018180050A (ja) 電子機器及びその制御方法
US10754444B2 (en) Electronic apparatus and control method therefor
JP6843564B2 (ja) 表示制御装置、その制御方法およびプログラム
WO2019102885A1 (ja) 画像の表示部分を変更可能な電子機器
JP7278773B2 (ja) 電子機器及びその制御方法
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
JP2021128234A (ja) 電子機器及びその制御方法
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
JP7289208B2 (ja) プログラム、情報処理装置、および方法
JP2022137023A (ja) プログラム、情報処理装置、および方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20181116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230111

R151 Written notification of patent or utility model registration

Ref document number: 7210153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151