JP6012068B2 - 電子機器、その制御方法及びプログラム - Google Patents

電子機器、その制御方法及びプログラム Download PDF

Info

Publication number
JP6012068B2
JP6012068B2 JP2012187866A JP2012187866A JP6012068B2 JP 6012068 B2 JP6012068 B2 JP 6012068B2 JP 2012187866 A JP2012187866 A JP 2012187866A JP 2012187866 A JP2012187866 A JP 2012187866A JP 6012068 B2 JP6012068 B2 JP 6012068B2
Authority
JP
Japan
Prior art keywords
depth
image
unit
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012187866A
Other languages
English (en)
Other versions
JP2014044662A (ja
Inventor
ゆみ 加藤
ゆみ 加藤
聖二 菅原
聖二 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Engineering Ltd
Original Assignee
NEC Corp
NEC Engineering Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Engineering Ltd filed Critical NEC Corp
Priority to JP2012187866A priority Critical patent/JP6012068B2/ja
Priority to EP13832197.1A priority patent/EP2891948A4/en
Priority to US14/419,694 priority patent/US20150192996A1/en
Priority to PCT/JP2013/072847 priority patent/WO2014034653A1/ja
Priority to CN201380045438.5A priority patent/CN104603718B/zh
Publication of JP2014044662A publication Critical patent/JP2014044662A/ja
Application granted granted Critical
Publication of JP6012068B2 publication Critical patent/JP6012068B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、電子機器、その制御方法及びプログラムに関する。特に、3次元画像(立体画像)を表示する電子機器、その制御方法及びプログラムに関する。
近年、3次元画像の表示に対応した電子機器が広く普及している。特に、据え置き型のテレビ等において、3次元画像に対応した機器の普及が著しい。携帯電話等の携帯電子機器においても3次元画像に対応した機器が存在する。
また、携帯電子機器には、筐体を振動させ、筐体を把持している手に振動を伝えることができる機器が存在する。
特許文献1において、表示画像に対応させて、把持している手に振動を伝える装置が開示されている。特許文献1が開示する携帯電子機器は、タッチスクリーン(表示画面)の周辺に複数の触覚ピクセルを設け、表示するコンテンツに応じて、触覚ピクセルを動かす(例えば、振動や上下運動を行う)。携帯電子機器がゲーム機として機能するのであれば、ゲーム中のイベントに応じて触覚ピクセルを変化させることが特許文献1に記載されている。さらに、タッチスクリーンのスクロールの終点の場合に触覚ピクセルを大きく振動させる、又は、スクロールの位置を触覚ピクセルの位置と連動させて伝える、といった点が特許文献1に開示されている。
特許文献2において、表示画面上の地図の高低差に応じて、スクロール操作を行うジョイスティックに対して抵抗力を与える技術が開示されている。つまり、特許文献2では、3次元的な情報に応じて、ユーザの触覚を刺激する技術が開示されている。
特表2011−510403号公報 特開2004−226301号公報
なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。
特許文献1が対象とする画像は、2次元画像であって、3次元画像を対象とはしていない。また、特許文献2が開示する技術は、表示画面に表示されている地図から得られる位置情報に応じて、ジョイスティックに与える抵抗を変化させているに過ぎず、3次元画像に対応してユーザの触覚に刺激を与えているものではない。
特許文献1及び2が開示する技術では、3次元画像の表示態様に応じて、ユーザの感覚を刺激する電子機器を実現することはできない。即ち、特許文献1及び2が開示する技術では、3次元画像が確かに存在するとユーザに認識させることができない。なお、3次元画像の表示態様とは、電子機器が出力する3次元画像に接したユーザが実際に感じる表示である。つまり、ユーザが実際に感じる表示内容が、3次元画像の表示態様であり、画像が表示面から飛び出している(又は、奥まっている)と感じることを意味する。
以上のことから、3次元画像に応じて、ユーザの感覚を刺激する電子機器、その制御方法及びプログラムが、望まれる。
本発明の第1の視点によれば、3次元画像を表示する表示面を含む表示部と、前記表示面に対する物体の位置を、物体深度として検出する位置検出部と、ユーザの感覚を刺激する感覚刺激部と、前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する制御部と、を備え、前記制御部は、前記画像深度と前記物体深度を比較する深度判別部と、前記深度判別部における比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御部と、を含み、前記相関制御部は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する電子機器が提供される。
本発明の第2の視点によれば、3次元画像を表示する表示面を含む表示部と、ユーザの感覚を刺激する感覚刺激部と、を備える電子機器の制御方法であって、前記表示面に対する物体の位置を、物体深度として検出する位置検出工程と、前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する工程と、を含み、前記感覚刺激部を制御する工程は、前記画像深度と前記物体深度を比較する工程と、前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する工程と、を含み、前記ユーザの感覚に与える刺激を制御する工程は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、電子機器の制御方法が提供される。
なお、本方法は、表示部と、感覚刺激部と、を備える電子機器という、特定の機械に結びつけられている。
本発明の第3の視点によれば、3次元画像を表示する表示面を含む表示部と、ユーザの感覚を刺激する感覚刺激部と、を備える電子機器を制御するコンピュータに実行させるプログラムであって、前記表示面に対する物体の位置を、物体深度として検出する位置検出処理と、前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する処理と、を実行し、前記感覚刺激部を制御する処理は、前記画像深度と前記物体深度を比較する処理と、前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する処理と、を含み、前記ユーザの感覚に与える刺激を制御する処理は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、プログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non−transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
本発明の各視点によれば、3次元画像に応じて、ユーザの感覚を刺激する電子機器、その制御方法及びプログラムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る電子機器1の内部構成の一例を示す図である。 物体深度及び画像深度を説明するための図である。 物体深度及び画像深度を説明するための図である。 電子機器1の動作の一例を示すフローチャートである。 第2の実施形態による物体深度及び画像深度を説明するための図である。 第2の実施形態による物体深度及び画像深度を説明するための図である。
初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。
上述のように、3次元画像に応じて、ユーザの感覚を刺激する電子機器を特許文献1及び2に開示された技術では実現することができない。それは、ユーザが3次元画像を視認する際の奥行き方向の位置と、3次元画像に触れようとするユーザの指先との位置関係を規定する(決定する)ことができないことに起因する。
そこで、一例として図1に示す電子機器100を提供する。電子機器100は、表示部101と、位置検出部102と、感覚刺激部103と、制御部104と、を備える。表示部101は、3次元画像を表示する表示面を含む。位置検出部102は、表示面に対する物体の位置を、物体深度として検出する。感覚刺激部103は、ユーザの感覚を刺激する。制御部104は、3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と物体深度とに基づいて、感覚刺激部を制御する。
電子機器100は、ユーザが視認する3次元画像の位置を画像深度として規定し、ユーザの指先等に代表される物体の位置を物体深度として規定する。電子機器100は、感覚刺激部103及び制御部104により、画像深度及び物体深度に応じて、電子機器100を操作するユーザの感覚(例えば、触覚)を刺激する。その結果、3次元画像の表示位置と指先等の物体の位置とに応じて、3次元で表現される仮想的な物体に触れているという感覚をユーザに提示することができる。特に、携帯電子機器等の表示面の面積が限られるような、3次元画像として表示される物の位置をユーザが即座に把握することが困難な場合であっても、ユーザの触覚等に与えられる刺激により、その位置を実感することができる。
以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。
[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
図2は、本実施形態に係る電子機器1の内部構成の一例を示す図である。なお、本実施形態に係る電子機器1は携帯電話として以降の説明を行うが、電子機器1を携帯電話に限定する趣旨ではない。例えば、携帯電話、スマートフォン、ゲーム機、タブレットPC(Personal Computer)、ノートPC、PDA(Personal Data Assistants;携帯情報端末)等の電子機器であってもよい。
電子機器1は、表示部10と、物体深度検出部20と、感覚刺激部30と、記憶部40と、制御部50と、を含んで構成される。なお、図2には、簡単のため、本実施形態に係る電子機器1に関係するモジュールを主に記載する。
表示部10は、3次元画像の表示が可能であり、液晶パネル等の表示デバイスを含んで構成されている。表示部10は、制御部50が生成する3次元画像に対応した画像信号を受け付け、受け付けた画像信号に基づき、3次元画像をユーザに提供する。なお、3次元画像の再生方法は、どのような方法であってもよい。例えば、ユーザが液晶シャッタからなる眼鏡を着用して3次元画像を視認する方法であってもよいし、眼鏡を使用せず裸眼で3次元画像を視認する方法であってもよい。また、表示部10が表示する3次元画像には、静止画及び動画が含まれる。
なお、表示部10は各種の画像を表示する。表示部10が表示する画像は、3次元表示に対応した画像も存在すれば、3次元表示に対応していない画像も存在する。3次元表示に対応した画像を表示する際に、当該3次元画像を視覚するユーザは、表示部10の表示面の法線方向において、表示面の位置とは異なる位置に画像が表示されているものとして認識する。本実施形態においては、3次元画像に接したユーザが、当該画像を知覚する位置を、当該画像の表示位置とする。
物体深度検出部20は、表示部10の表示面に対して直交する方向(法線方向)に存在する導体の位置を検出する。物体深度検出部20が、上述の位置検出部102に相当する。物体深度検出部20には、例えば、投射型静電容量検出センサが含まれている。物体深度検出部20は、電極(後述する電極300)に導体(例えば、指先等の人体の一部)が近づいた場合、電極と導体との距離に応じて変化する静電容量の変化から表示面と導体との距離を算出する。
物体深度検出部20は、赤外線センサ等の距離センサにより表示部10の表示面からの物体(導体)の位置を検出してもよい。あるいは、電子機器1がカメラ機能を備える場合には、導体を撮影した画像に対して画像処理を施すことにより、表示面と導体の位置関係を推定してもよい。
なお、物体深度検出部20は、表示部10の表示面と導体との位置関係の検出を主な機能とするため、電子機器1には、別途、タッチパネル等を含んで構成される操作部(図示せず)が必要である。その際、操作部に含まれるタッチパネルは、液晶パネル等の表示部10とタッチセンサ等が組み合わせたものだけではなく、一体として製造されるものであってもよい。即ち、タッチパネルの検出形式や構成等はどのような形式及び構成であってもよい。
感覚刺激部30は、電子機器1の筐体を把持しているユーザの手に、振動又は圧力を加えることで、ユーザの触覚を刺激する。感覚刺激部30は、例えば、圧電素子(MEMS(Micro Electro Mechanical Systems)デバイスを含む)や振動モータ等の電子機器1を把持する手に振動を与えるデバイスや、バネなどを用いて圧力を手に与えるデバイスを含んで構成される。以降の説明は、感覚刺激部30には圧電素子が含まれるものとして説明する。ただし、感覚刺激部30に含まれるデバイスを圧電素子に限定する趣旨ではない。
感覚刺激部30は、制御部50から信号Sを受け付け、信号Sに基づいて圧電素子を制御する。なお、感覚刺激部30によるユーザの感覚を刺激する方法は、触覚に限定されるものではない。音声等を用いて、聴覚を刺激するものであってもよい。
記憶部40は、電子機器1の動作に必要な情報や、ユーザに提供する3次元画像等を記憶する。
制御部50は、電子機器1の全体を制御すると共に、図2に示す各部の制御を行う。なお、ユーザは、電子機器1を把持する手とは異なる指を用いて、電子機器1を操作するものとして以降の説明を行う。
次に、物体深度及び画像深度の詳細について説明する。
図3及び図4は、物体深度及び画像深度を説明するための図である。図3及び図4を用いて、図4に示す画像Aを例に取り物体深度及び画像深度について説明する。
物体深度検出部20は、図3に示すように、表示部10の表示面に設けた電極300から表示面の法線方向に距離L0離れた位置に、導体の位置を検出する際の基準となる基準面を仮想的に設定する。なお、この基準面からの法線方向の導体の位置を物体深度とし、上述の基準面を物体深度基準面とする。
図3では、導体である指先301(入力デバイス)は、物体深度基準面から距離L1離れた位置に存在する。物体深度検出部20は、電極300と導体である指先301との距離に応じて変化する静電容量の変化から距離L1+L0を算出する。その後、物体深度検出部20は、距離L1+L0から距離L0を減算することにより、指先301の物体深度を検出する。即ち、物体深度検出部20は、距離L1を指先301の物体深度とする。なお、物体深度検出部20が物体深度基準面の位置である距離L0をL0=0と設定すれば、表示部10の表示面と物体深度基準面の位置は実質的に一致することになる。
次に、画像深度について説明する。
画像深度とは、基準面からどの程度、表示物が飛び出しているようにユーザに認識されているかを示す指標である。
電子機器1は、3次元表示を行いたい画像を予め記憶部40に格納しておく。また、電子機器1の設計者は、3次元画像のコンテンツを作成する際、画像ごとに画像深度を付与しておく。その際、図4に示すように、表示部10の表示面からの飛び出し量を規定するために、表示面に平行、かつ、表示面より法線方向にM0離れて見える面を基準面として仮想的に設定する。この基準面から法線方向における画像の表示位置(ユーザによる視認位置)を画像深度とし、上述の基準面を画像深度基準面とする。図4では、表示部10が表示する画像Aが表示されているとユーザが感じる位置(飛び出し量)は、画像深度基準面より距離M1離れているとする。従って、画像Aの画像深度は距離M1であるといえる。以上の説明から明らかなとおり、画像深度基準面から画像Aが離れるほど画像深度M1は大きくなる。
より具体的な画像深度の付与は以下のとおりである。画像深度基準面を基準とし、この基準面と同じ面に3次元画像が表示されているとユーザに認識させたいのであれば、当該画像の画像深度を0に設定する。また、画像深度の最大値は、物体深度検出部20が導体を検出可能な範囲により定まる。例えば、物体深度検出部20の導***置検出能力が、距離L3であれば、距離L3の位置に画像を飛び出して表示させたい場合に、画像深度を最大値に設定する。距離L3は、物体深度検出部20に使用するデバイスの仕様から導き出すことが可能であり、電子機器1の設計者が予め把握可能な値である。画像深度の最小値については、画像深度基準面からどの程度奥行きを持って3次元画像を表示させたいかにより定まる。
このように、電子機器1の設計者は、3次元画像をどのようにユーザに認識させたいかにより、3次元画像の画像深度を決定し、3次元画像ごとに付与する。画像深度が付与された3次元画像は、記憶部40に格納される。
次に、制御部50について説明する。
図2に示す制御部50には、画像深度抽出部201と、深度判別部202と、相関制御部203と、が含まれている。
制御部50は、表示部10に表示する3次元画像を生成し、表示部10に画像信号を供給する。
画像深度抽出部201は、記憶部40から3次元画像を読み出し、3次元画像に付与されている画像深度M1を抽出する。
深度判別部202は、画像深度M1と物体深度検出部20から得られる物体深度L1を比較し、ユーザの操作を分類する。より具体的には、深度判別部202は、画像深度M1と物体深度L1との比較結果から、ユーザの操作を以下の3通りに仕分ける。画像Aに対し、表示部10に対向する側から指先301が表示面に向けて近づく場合、指先301が画像Aへ接触しているとユーザが感じる場合(指先301が疑似的に画像Aと接触している場合)、指先301が画像Aを貫通して表示面に近づく場合、の3通りである。
ここで、画像Aに対して、表示部10に対向する側から指先301が表示面に近づく場合をケースAとする。指先301が画像Aへ接触しているとユーザが感じる場合をケースBとする。指先301が画像Aを貫通して表示面に近づく場合をケースCとする。
各ケースにおける画像深度M1と物体深度L1との関係は、以下のようになる。
・ケースAにおいては、画像深度M1−物体深度L1>0である。
・ケースBにおいては、画像深度M1=物体深度L1である。
・ケースCにおいては、画像深度M1−物体深度L1<0である。
相関制御部203は、深度判別部202の判定結果に応じて、感覚刺激部30に送信する信号Sを変更する。例えば、相関制御部203から感覚刺激部30に送信する信号Sが所定のDC成分(直流成分)を持つ正弦波の場合に、相関制御部203は、この正弦波の周波数及び振幅を変更する。
相関制御部203における信号Sの変更の一例を下記に示す。
ケースAの場合には、相関制御部203は、画像深度M1−物体深度L1の絶対値が小さくなる(画像深度M1と物体深度L1の差分が0に近づく)ことに伴い、信号Sの振幅を大きくする。但し、その場合の信号Sの周波数は固定する。
ケースBの場合には、相関制御部203は、信号Sの振幅を最大値に設定する。
ケースCの場合には、相関制御部203は、画像深度M1−物体深度L1の絶対値が大きくなるに伴い、信号Sの振幅を最大値に固定したまま、その周波数を変更する。
相関制御部203が出力する信号Sを受け付けた感覚刺激部30は、ケースAの場合、画像深度M1−物体深度L1の絶対値が小さくなるにつれて圧電素子の振動振幅を大きくし、ケースBにおいて圧電素子の振動振幅を最大とする。ケースCの場合には、圧電素子の振動振幅を最大に固定したまま、振動周波数を変更する。
次に、本実施形態に係る電子機器1の動作について説明する。
図5は、電子機器1の動作の一例を示すフローチャートである。
ステップS01において、制御部50は、3次元画像(例えば、画像A)を表示部10に表示させているかを判断する。画像Aが表示されていない場合(ステップS01、No分岐)には、制御部50は、画像Aが表示されるまでステップS01の処理を繰り返す。3次元画像が表示された場合(ステップS01、Yes分岐)には、画像深度抽出部201が、画像深度M1を、表示している3次元画像から抽出する(ステップS02)。
ステップS03において、物体深度検出部20は、物体深度検出部20が持つ検出可能範囲内に指先301が存在するかを検知する。なお、物体深度検出部20が持つ検出可能範囲は、電極300の構造(厚さ、材質、電極に並列接続されるコンデンサの容量等)により定まる範囲である。また、指先301が検出領域内にない場合(ステップS03、No分岐)には、相関制御部203に信号Sが送信されることはなく、処理を終了する。
指先301が検出領域内にある場合(ステップS03、Yes分岐)には、物体深度検出部20は、指先301の物体深度L1を検出する(ステップS04)。即ち、物体深度検出部20は、物体深度基準面から指先301までの物体深度L1を検出する。なお、指先301が表示面に近づき検出領域に入った際に、物体深度L1は最大となり、指先301が表示面に近づくにつれ、物体深度L1は減少する。
ステップS05において、深度判別部202は、画像深度M1と物体深度L1を比較し、比較結果に応じて、その後の処理を分岐する。深度判別部202は、画像深度M1と物体深度L1の大小関係に応じて、これらの位置関係がケースA〜Cのいずれに該当するか判断し、その後に行う処理を変更する。より具体的には、深度判別部202は、画像深度M1と物体深度L1の差分を計算し、その結果を「正」、「0」、「負」の場合に分類し、その後に行う処理を決定する。
相関制御部203は、それぞれの場合において、感覚刺激部30に送信する信号Sの振幅又は周波数を変更する。具体的には、深度判別部202の判定結果が「正」の場合(画像深度M1−物体深度L1>0の場合;ケースA)は、相関制御部203は、物体深度L1が最大の時に信号Sの振幅が最も小さくなるように設定する。相関制御部203は、画像深度M1−物体深度L1の絶対値が小さくなると共に、信号Sの振幅を大きくする(ステップS06)。なお、その際、信号Sの周波数は固定とする。
深度判別部202の判定結果が「0」の場合(画像深度M1−物体深度L1=0の場合;ケースB)は、相関制御部203は、信号Sの振幅を最大値に設定する(ステップS07)。なお、画像深度M1−物体深度L1=0となる場合とは、画像深度M1と物体深度L1とが、実質的に一致する場合を意味する。
深度判別部202の判定結果が「負」の場合(画像深度M1−物体深度L1<0の場合;ケースC)は、相関制御部203は、画像深度M1−物体深度L1の絶対値が小さくなるに伴い、信号Sの周波数を低下させる。なお、その際信号Sの振幅は最大値を維持する。それぞれのケースにおける信号Sは、感覚刺激部30に出力される。
ステップS09〜S11において、感覚刺激部30は、信号Sに基づき内部の圧電素子を制御する。
具体的には、ステップS09において、感覚刺激部30は、物体深度L1が最大値となる場合に振動が最も小さく、画像深度M1−物体深度L1の絶対値が小さくなるに伴い、振動量が増加するように圧電素子を制御する。つまり、物体深度L1が最大値の場合の振動は、電子機器1を把持しているユーザの手が感じることのできる最小の振動量である。なお、振動周波数は固定である。
ステップS10において、感覚刺激部30は、振動量が最も大きくなるように圧電素子を制御する。
ステップS11において、感覚刺激部30は、画像深度M1−物体深度L1の絶対値が大きくなるに伴い、振動周波数が低下するように圧電素子を制御する。なお、この場合の振動振幅は固定である。
ステップS09〜S11が終了した後、制御部50は、既に表示した3次元画像とは異なる3次元画像の有無を確認する(ステップS12)。
次の3次元画像が存在すれば(ステップS12、Yes分岐)、制御部50は、ステップS01に戻り処理を継続する。一方、制御部50は、次の3次元画像が存在しなければ(ステップS12、No分岐)、図5に示す処理を終了する。
なお、物体深度基準面及び画像深度基準面を、表示部10の表示面上(電極300の面上)に設定した場合(距離L0=0、距離M0=0の場合)には、指先301が物体深度基準面を超えて、表示面に近づくことはない。そのため、指先301の物体深度L1が0の場合は、画像Aの飛び出し量(即ち、画像Aの画像深度M1)が定まれば、ユーザの触覚に与える振動量及び周波数が定まる。
以上、電子機器1を把持する手とは異なる手の指先を、電子機器1の表示部10に近づける場合を例に取り説明を行った。しかし、電子機器1を把持する手の指先を表示部10に近づける場合であっても同じ効果を得ることができるのは当然である。また、電子機器1に近づける導体の一例として指先301を用いて説明したが、これは導体を指先に限定する趣旨ではない。指先ではなく、電極300に静電容量の変化をもたらすものであればよい。例えば、ペン先が導体のスタイラスペンのようなものであってもよい。さらには、物体深度検出部20が距離センサ等を含む場合には、表示面に近づく物体は導体でなくてもよい。即ち、電子機器1が検出する物体は導体に限定されない。
画像深度M1と物体深度L1の差分が「正」、「0」、「負」の場合における圧電素子の振動振幅、振動周波数の組み合わせは上記の内容に限定されない。例えば、画像深度M1−物体深度L1>0の場合(ケースA)、圧電素子の振動振幅を0とし、画像深度M1−物体深度L1=0の場合(ケースB)に、圧電素子を所定の振動振幅、振動周波数で振動させてもよい。さらに、画像深度M1−物体深度L1<0の場合(ケースC)に、ケースBと同じ振動振幅を維持し、かつ、画像深度M1−物体深度L1の絶対値が増加に伴い振動周波数を低下させてもよい。あるいは、画像深度M1−物体深度L1=0の場合(ケースB)に限り、圧電素子を所定の振動振幅、振動周波数で振動させてもよい。さらには、ケースA及びケースBにおいて振動振幅を一定とし、振動周波数を変化させ、ケースCにおいて振動周波数を一定とし、振動振幅を変化させてもよい。このように、画像深度M1−物体深度L1が「正」、「0」、「負」の場合における圧電素子の振動振幅、振動周波数の組み合わせは種々の形態が考えられる。
さらにまた、電子機器1では、ユーザの触覚を刺激するための手段として圧電素子を用いて、ユーザに画像Aの存在を認識させているが、他の手段を用いることができる。例えば、電子機器1がスピーカを備えていれば、音声を用いてユーザの聴覚を刺激し、画像Aの存在を認識させることもできる。
以上のように、本実施形態に係る電子機器1は、3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と、表示部10に含まれる表示面に近づく物体深度とに基づいて、感覚刺激部30がユーザに与える刺激を制御する。即ち、電子機器1は、感覚刺激部30を使用して、画像Aを指先で接触している感覚をユーザの手に与えることができる。また、電子機器1では、ユーザの指先と、3次元画像との相対的な深度に応じて、電子機器1を把持する手の触覚を刺激することができる。その結果、ユーザが視認している画像が確かにその位置(深度)にあると直感的に確認することができる。ユーザは、画像の位置を直感的に感じ取ることができるので、表示画面を注視しなくとも、手に受ける振動によりその画像の存在を認識することができる。
[第2の実施形態]
続いて、第2の実施形態について図面を参照して詳細に説明する。
本実施形態に係る電子機器2は、第1の実施形態に係る電子機器1とその内部構造に相違点は存在しないので、図2に相当する説明を省略する。電子機器1と電子機器2の相違点は、物体深度検出部20に含まれる電極の構造である。電子機器2の物体深度検出部20に含まれる電極310は複数に分割されている。電極310を複数に分割することで、指先301の表示面における座標位置も検出可能とする。なお、物体深度検出部20が複数に分割された電極310を含む場合には、物体深度検出部20はユーザの操作を受け付けるタッチパネル(操作部)としても機能する。
第1の実施形態においては、画像Aが表示部10の全面均一に飛び出す場合について説明した。本実施形態では、3次元画像に凹凸が存在する場合について説明する。
図6及び図7は、第2の実施形態による物体深度及び画像深度を説明するための図である。
電子機器2では、図7に示す3次元画像である画像Bのように、凹凸がある画像を取り扱う。なお、図7に示す画像Bは、領域410が領域420よりも突出している画像である。電子機器2は、指先301と、画像B内の領域410及び領域420の相対的な面内位置を導出する点が、電子機器1とは相違する。
図6及び図7に示すように、電極310は面内で複数に分割されており、分割された複数の電極部の静電容量の変化に基づき、物体深度検出部20は、指先301の物体深度L1を検出する。さらに、図6に示す物体深度基準面に、X1軸及びY1軸を規定し、この2軸で形成される座標軸上における各電極部の座標位置を予め定めることで、静電容量の変化した電極部の位置から指先301の面内位置を算出することができる。
一方、図7に示す画像深度基準面にX2軸及びY2軸を規定し、この2軸で形成される座標軸上における画像Bの領域410及び領域420の位置は、予め把握可能な情報である。画像Bは、電子機器2の設計段階で用意される画像であって、電子機器2の設計者が用意する画像であるためである。X1Y1座標軸の基準点400とX2Y2座標軸の基準点401との位置を一致させることで、指先301と画像B内の領域410及び領域420の相対的な面内位置を算出することができる。
このように、電極310を複数に分割することで、画像Bに含まれる領域の画像深度が異なる場合であっても、領域ごとに異なる画像深度に応じて電子機器2を把持する手に刺激を与えることができる。なお、電極310は表示部10上に複数に分割した複数の電極部により構成される場合について説明したが、図3及び図4に示す電極300に加えて、表示部10に表示画面内の位置を検出することができるタッチセンサを設けてもよい。その場合、位置検出用のタッチセンサとして、静電容量型又は抵抗膜型等を使用可能であり、位置検出用のタッチセンサと物体深度検出部20を構成する電極300を積層する。
[変形例]
上述のように、電子機器2が表示する画像は、厚みのない平面に限られるものではない。例えば、立方体、球対又は円筒形状の立体物を表示することが想定される。このような立体物等を表示している場合には、ユーザが指先301を表示部10の表示面に近づけた場合に最初に触れる面と、当該立体物を突き抜けて触れる面と、2つ仮想的な面を想定することができる。即ち、ユーザの指先と、仮想的に表示されている立体物との関係は、以下のように変化する。
始めに、ユーザの指先301が立体物に近づき、その後、指先301がユーザから見た場合の手前側の面に接触する。さらに、指先301を表示部10に近づけていくと、指先301は立体物の内部に入る。その後、指先301は立体物を貫通し、手前側の面と相対する面に達し、立体物を突き抜ける。
このような場合に、ユーザの感覚を刺激する手段が1つであると、上記のような状態の変化をユーザに報知するのは困難であると考えられる。感覚刺激部30に含まれる圧電素子では、振動の大きさと周波数といった2種類のパラメータが変更可能なためである。しかし、電子機器1又は2が、複数の圧電素子を備える場合には、複数の圧電素子を使用して、立体物を通過する際の状態変化をユーザに報知することも可能である。
例えば、電子機器2が、2つの圧電素子を備えるものとする。さらに、この2つの圧電素子は、電子機器2の筐体を上下方向と左右方向の両方向に振動させるように配置されているものとする。このような構成を持つ電子機器2において、相関制御部203は、物体深度及び画像深度に基づいて、以下のような制御することができる。
初めに、ユーザの指先301が表示部10の表示面に近づくにつれて、左右方向に振動させる圧電素子の振動振幅を増加させる。指先301が、手前側の面に接触した際に、相関制御部203は、左右方向の振動量を最大に設定する。さらに、立体物の内部を進む場合には、相関制御部203は、上下方向に振動させる圧電素子の振動振幅を増加させる。指先301が、手前側の面と相対する面に達した際に、相関制御部203は、上下方向の振動量を最大に設定する。手前側の面と相対する面を突き抜けた場合には、相関制御部203は、2つの圧電素子の振動周波数を低下させる。
あるいは、2つの圧電素子を備えていれば、以下のような制御をすることもできる。例えば、球体や立方体等の表示している物体の内部に刺激変位点を設定する。刺激変位点には、例えば、物体の中心点とすることができる。物体の中心点は、表示しようとする物体の幾何的な中心点とすることができる。即ち、立体物等の左右の表示範囲の最も右の点と左の点との中点を通る垂直面と、上下の表示範囲の最も上の面と下の面との中点を通る水平面と、仮想的な奥行き方向の最も手前の点と奥の点の中点をとおる表示部に平行な面との交点を中心点に設定することができる。ただし、刺激変位点は幾何的な中心点に限定する趣旨ではなく、表示しようとする立体物ごとに定められる値であってもよい。
相関制御部203は、このような刺激変位点の上下方向及び左右方向で、指先301が移動する場合には、刺激変位点において圧電素子の振幅を最大に設定する。相関制御部203は、上下方向及び左右方向の指先301の移動に合わせて、2つの圧電素子の振幅を制御する。例えば、相関制御部203は、指先301が刺激変位点から離れるに従い振動振幅を小さくし、立体物の内部から指先301が遊離した段階で振動を停止する。
さらに、表示部10に向かって(又は、表示部10が遠ざかって)指先301が移動する場合には、刺激変位点において2つの圧電素子の振動周波数を最大に設定し、刺激変位点から離れるに従って振動周波数を低下させる。
このように、2つの圧電素子を備える場合には、2つの圧電素子により実現する振動量とその周波数により、指先301が立体物のどの位置にあるのか報知することができる。
上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
上記第1の視点に係る電子機器のとおりである。
[付記2]
前記位置検出部は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記1の電子機器。
[付記3]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記制御部は、前記3次元画像から前記画像深度を抽出する画像深度抽出部を含む付記1又は2の電子機器。
[付記4]
前記制御部は、
前記画像深度と前記物体深度を比較する深度判別部と、
前記深度判別部における比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御部と、
を含む付記1乃至3のいずれか一に記載の電子機器。
[付記5]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御部は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる付記4の電子機器。
[付記6]
前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記5の電子機器。
[付記7]
前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記5の電子機器。
[付記8]
前記相関制御部は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記1乃至7のいずれか一に記載の電子機器。
[付記9]
前記相関制御部は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記4乃至8のいずれか一に記載の電子機器。
[付記10]
上記第2の視点に係る電子機器の制御方法のとおりである。
[付記11]
前記位置検出工程は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記10の電子機器の制御方法。
[付記12]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記3次元画像から前記画像深度を抽出する画像深度抽出工程を含む付記10又は11の電子機器の制御方法。
[付記13]
前記画像深度と前記物体深度を比較する深度判別工程と、
前記深度判別工程による比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御工程と、
を含む付記10乃至12のいずれか一に記載の電子機器の制御方法。
[付記14]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御工程は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる付記13の電子機器の制御方法。
[付記15]
前記相関制御工程は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記14の電子機器の制御方法。
[付記16]
前記相関制御工程は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記14の電子機器の制御方法。
[付記17]
前記相関制御工程は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記10乃至16のいずれか一に記載の電子機器の制御方法。
[付記18]
前記相関制御工程は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記13乃至17のいずれか一に記載の電子機器の制御方法。
[付記19]
上記第3の視点に係るプログラムのとおりである。
[付記20]
前記位置検出処理は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記19のプログラム。
[付記21]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記3次元画像から前記画像深度を抽出する画像深度抽出処理を実行する付記19又は20のプログラム。
[付記22]
前記画像深度と前記物体深度を比較する深度判別処理と、
前記深度判別処理による比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御処理と、
を実行する付記19乃至21のいずれか一に記載のプログラム。
[付記23]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御処理は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれか変化させる付記22のプログラム。
[付記24]
前記相関制御処理は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記23のプログラム。
[付記25]
前記相関制御処理は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記23のプログラム。
[付記26]
前記相関制御処理は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記19乃至25のいずれか一に記載のプログラム。
[付記27]
前記相関制御処理は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記19乃至26のいずれか一に記載のプログラム。
[付記28]
立体視に用いる立体画像を表示する表示手段と、
前記表示手段に対する指示手段の位置を検出する位置検出手段と、
物理的な振動を用いて報知する報知手段と、
前記立体画像に含まれる少なくとも一部の表示物の立体視における位置と前記指示手段の位置との位置関係を基に、前記報知手段を用いた報知を制御する制御手段と、
を含む処理装置。
[付記29]
表示画面に3次元画像を表示可能な携帯端末であって、
入力デバイスが前記表示画面に対し近接することにより入力操作を受け付けて、前記表示画面の法線方向の入力位置を取得する入力受付部と、
前記表示画面に表示する3次元画像の前記表示画面上に対する相対位置奥行き位置を求める画像表示位置深度算出部と、
前記表示画面の法線方向における入力位置と前記3次元画像の表示位置との相関に応じて振動または力を出力する提示部と、
を備える携帯端末。
[付記30]
更に、前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置との相対的な位置を比較する判別部を備える付記29の携帯端末。
[付記31]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置との相対的な位置に応じて、提示部の振動振幅または振動周波数の何れか一方を変える付記29又は30の携帯端末。
[付記32]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置とが一致した場合、提示部の振動振幅または振動周波数の何れか一方が最大となる付記31の携帯端末。
[付記33]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置とが一致した場合、提示部が振動する付記29の携帯端末。
[付記34]
前記表示画面の面内位置と前記3次元画像の面内位置との相対的な位置に応じて、提示部の振動振幅または振動周波数の何れか一方を変える付記29乃至33のいずれか一に記載の携帯端末。
なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1、2、100 電子機器
10、101 表示部
20 物体深度検出部
30、103 感覚刺激部
40 記憶部
50、104 制御部
102 位置検出部
201 画像深度抽出部
202 深度判別部
203 相関制御部
300、310 電極
301 指先
400、401 基準点
410 420 領域

Claims (9)

  1. 3次元画像を表示する表示面を含む表示部と、
    前記表示面に対する物体の位置を、物体深度として検出する位置検出部と、
    ユーザの感覚を刺激する感覚刺激部と、
    前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する制御部と、
    を備え
    前記制御部は、
    前記画像深度と前記物体深度を比較する深度判別部と、
    前記深度判別部における比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御部と、
    を含み、
    前記相関制御部は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更することを特徴とする電子機器。
  2. 前記位置検出部は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する請求項1の電子機器。
  3. 前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
    前記制御部は、前記3次元画像から前記画像深度を抽出する画像深度抽出部を含む請求項1又は2の電子機器。
  4. 前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
    前記相関制御部は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる請求項の電子機器。
  5. 前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する請求項の電子機器。
  6. 前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる請求項の電子機器。
  7. 前記相関制御部は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する請求項1乃至のいずれか一に記載の電子機器。
  8. 3次元画像を表示する表示面を含む表示部と、
    ユーザの感覚を刺激する感覚刺激部と、
    を備える電子機器の制御方法であって、
    前記表示面に対する物体の位置を、物体深度として検出する位置検出工程と、
    前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する工程と、
    を含み、
    前記感覚刺激部を制御する工程は、
    前記画像深度と前記物体深度を比較する工程と、
    前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する工程と、
    を含み、
    前記ユーザの感覚に与える刺激を制御する工程は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、ことを特徴とする電子機器の制御方法。
  9. 3次元画像を表示する表示面を含む表示部と、
    ユーザの感覚を刺激する感覚刺激部と、
    を備える電子機器を制御するコンピュータに実行させるプログラムであって、
    前記表示面に対する物体の位置を、物体深度として検出する位置検出処理と、
    前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する処理と、
    を実行し、
    前記感覚刺激部を制御する処理は、
    前記画像深度と前記物体深度を比較する処理と、
    前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する処理と、
    を含み、
    前記ユーザの感覚に与える刺激を制御する処理は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、プログラム。
JP2012187866A 2012-08-28 2012-08-28 電子機器、その制御方法及びプログラム Expired - Fee Related JP6012068B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012187866A JP6012068B2 (ja) 2012-08-28 2012-08-28 電子機器、その制御方法及びプログラム
EP13832197.1A EP2891948A4 (en) 2012-08-28 2013-08-27 ELECTRONIC APPARATUS, ITS CONTROL METHOD, AND PROGRAM
US14/419,694 US20150192996A1 (en) 2012-08-28 2013-08-27 Electronic apparatus, control method thereof, and program
PCT/JP2013/072847 WO2014034653A1 (ja) 2012-08-28 2013-08-27 電子機器、その制御方法及びプログラム
CN201380045438.5A CN104603718B (zh) 2012-08-28 2013-08-27 电子装置及其控制方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012187866A JP6012068B2 (ja) 2012-08-28 2012-08-28 電子機器、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014044662A JP2014044662A (ja) 2014-03-13
JP6012068B2 true JP6012068B2 (ja) 2016-10-25

Family

ID=50183465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012187866A Expired - Fee Related JP6012068B2 (ja) 2012-08-28 2012-08-28 電子機器、その制御方法及びプログラム

Country Status (5)

Country Link
US (1) US20150192996A1 (ja)
EP (1) EP2891948A4 (ja)
JP (1) JP6012068B2 (ja)
CN (1) CN104603718B (ja)
WO (1) WO2014034653A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2925436B1 (fr) 2007-12-20 2010-05-21 Valeo Securite Habitacle Adaptateur pour antivol et antivol associe.
JP2015114836A (ja) * 2013-12-11 2015-06-22 キヤノン株式会社 画像処理装置、触感制御方法及びプログラム
CA2875033C (en) * 2014-12-17 2022-07-26 Fayez Idris Contactless tactile feedback on gaming terminal with 3d display
TWI601076B (zh) * 2016-09-08 2017-10-01 友達光電股份有限公司 生物體刺激裝置與生物體刺激方法
TWI637303B (zh) * 2017-10-11 2018-10-01 聯陽半導體股份有限公司 觸控裝置及觸控裝置的操作方法
US11734477B2 (en) * 2018-03-08 2023-08-22 Concurrent Technologies Corporation Location-based VR topological extrusion apparatus
US11647888B2 (en) * 2018-04-20 2023-05-16 Covidien Lp Compensation for observer movement in robotic surgical systems having stereoscopic displays
CN109782950B (zh) * 2019-01-04 2022-05-17 Oppo(重庆)智能科技有限公司 触摸电极控制方法、装置、存储介质及电子设备

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3798287B2 (ja) * 2001-10-10 2006-07-19 Smk株式会社 タッチパネル入力装置
JP4013773B2 (ja) 2003-01-24 2007-11-28 株式会社デンソー 地図表示装置
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
WO2007114225A1 (ja) * 2006-03-31 2007-10-11 Pioneer Corporation 立体的二次元画像表示装置
JP2008217260A (ja) * 2007-03-01 2008-09-18 Shibaura Institute Of Technology 力覚提示装置
US8004501B2 (en) 2008-01-21 2011-08-23 Sony Computer Entertainment America Llc Hand-held device with touchscreen and digital tactile pixels
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
JP5477740B2 (ja) * 2009-11-02 2014-04-23 独立行政法人情報通信研究機構 多感覚インタラクションシステム
US8508347B2 (en) * 2010-06-24 2013-08-13 Nokia Corporation Apparatus and method for proximity based input
JP2012022639A (ja) * 2010-07-16 2012-02-02 Ntt Docomo Inc 表示装置、映像表示システムおよび映像表示方法
KR101708696B1 (ko) * 2010-09-15 2017-02-21 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
WO2012105703A1 (ja) * 2011-02-04 2012-08-09 シャープ株式会社 表示装置、表示画像生成方法、プログラム、及び記録媒体
EP2518590A1 (en) * 2011-04-28 2012-10-31 Research In Motion Limited Portable electronic device and method of controlling same
US20120274545A1 (en) * 2011-04-28 2012-11-01 Research In Motion Limited Portable electronic device and method of controlling same

Also Published As

Publication number Publication date
WO2014034653A1 (ja) 2014-03-06
CN104603718A (zh) 2015-05-06
EP2891948A4 (en) 2016-04-27
JP2014044662A (ja) 2014-03-13
US20150192996A1 (en) 2015-07-09
EP2891948A1 (en) 2015-07-08
CN104603718B (zh) 2017-06-16

Similar Documents

Publication Publication Date Title
JP6012068B2 (ja) 電子機器、その制御方法及びプログラム
EP2638461B1 (en) Apparatus and method for user input for controlling displayed information
EP3279784A1 (en) Systems and methods for deformation and haptic effects
US9690377B2 (en) Mobile terminal and method for controlling haptic feedback
EP2630563B1 (en) Apparatus and method for user input for controlling displayed information
EP2490109B1 (en) Mobile terminal and method for controlling the same
CN105589594B (zh) 电子装置和电子装置的操作控制方法
CN108431734B (zh) 用于非触摸式表面交互的触觉反馈
US20150138101A1 (en) Mobile terminal and control method thereof
EP1927916A1 (en) Apparatus, method, and medium for outputting tactile feedback on display device
US20140139451A1 (en) Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture
US20160246375A1 (en) Systems And Methods For User Interaction With A Curved Display
KR20140126129A (ko) 잠금 및 해제를 제어하는 장치 및 방법
WO2008062586A1 (fr) Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement
EP3333674A1 (en) Systems and methods for compliance simulation with haptics
US20140082491A1 (en) Electronic device and editing method for synthetic image
CN102981743A (zh) 控制操作对象的方法及电子设备
JP6048489B2 (ja) 表示装置
KR20170108662A (ko) 터치 패널을 포함하는 전자 장치 및 그 제어 방법
US20150277581A1 (en) Movement of an electronic personal display to perform a page turning operation
KR101601951B1 (ko) 공간 터치 입력이 수행되는 곡면디스플레이 장치
JP5801604B2 (ja) 表示制御装置及び表示制御方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150615

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160915

R150 Certificate of patent or registration of utility model

Ref document number: 6012068

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees