JP6012068B2 - 電子機器、その制御方法及びプログラム - Google Patents
電子機器、その制御方法及びプログラム Download PDFInfo
- Publication number
- JP6012068B2 JP6012068B2 JP2012187866A JP2012187866A JP6012068B2 JP 6012068 B2 JP6012068 B2 JP 6012068B2 JP 2012187866 A JP2012187866 A JP 2012187866A JP 2012187866 A JP2012187866 A JP 2012187866A JP 6012068 B2 JP6012068 B2 JP 6012068B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- unit
- user
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Description
なお、本方法は、表示部と、感覚刺激部と、を備える電子機器という、特定の機械に結びつけられている。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non−transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
第1の実施形態について、図面を用いてより詳細に説明する。
・ケースAにおいては、画像深度M1−物体深度L1>0である。
・ケースBにおいては、画像深度M1=物体深度L1である。
・ケースCにおいては、画像深度M1−物体深度L1<0である。
続いて、第2の実施形態について図面を参照して詳細に説明する。
上述のように、電子機器2が表示する画像は、厚みのない平面に限られるものではない。例えば、立方体、球対又は円筒形状の立体物を表示することが想定される。このような立体物等を表示している場合には、ユーザが指先301を表示部10の表示面に近づけた場合に最初に触れる面と、当該立体物を突き抜けて触れる面と、2つ仮想的な面を想定することができる。即ち、ユーザの指先と、仮想的に表示されている立体物との関係は、以下のように変化する。
上記第1の視点に係る電子機器のとおりである。
[付記2]
前記位置検出部は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記1の電子機器。
[付記3]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記制御部は、前記3次元画像から前記画像深度を抽出する画像深度抽出部を含む付記1又は2の電子機器。
[付記4]
前記制御部は、
前記画像深度と前記物体深度を比較する深度判別部と、
前記深度判別部における比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御部と、
を含む付記1乃至3のいずれか一に記載の電子機器。
[付記5]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御部は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる付記4の電子機器。
[付記6]
前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記5の電子機器。
[付記7]
前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記5の電子機器。
[付記8]
前記相関制御部は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記1乃至7のいずれか一に記載の電子機器。
[付記9]
前記相関制御部は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記4乃至8のいずれか一に記載の電子機器。
[付記10]
上記第2の視点に係る電子機器の制御方法のとおりである。
[付記11]
前記位置検出工程は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記10の電子機器の制御方法。
[付記12]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記3次元画像から前記画像深度を抽出する画像深度抽出工程を含む付記10又は11の電子機器の制御方法。
[付記13]
前記画像深度と前記物体深度を比較する深度判別工程と、
前記深度判別工程による比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御工程と、
を含む付記10乃至12のいずれか一に記載の電子機器の制御方法。
[付記14]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御工程は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる付記13の電子機器の制御方法。
[付記15]
前記相関制御工程は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記14の電子機器の制御方法。
[付記16]
前記相関制御工程は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記14の電子機器の制御方法。
[付記17]
前記相関制御工程は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記10乃至16のいずれか一に記載の電子機器の制御方法。
[付記18]
前記相関制御工程は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記13乃至17のいずれか一に記載の電子機器の制御方法。
[付記19]
上記第3の視点に係るプログラムのとおりである。
[付記20]
前記位置検出処理は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する付記19のプログラム。
[付記21]
前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記3次元画像から前記画像深度を抽出する画像深度抽出処理を実行する付記19又は20のプログラム。
[付記22]
前記画像深度と前記物体深度を比較する深度判別処理と、
前記深度判別処理による比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御処理と、
を実行する付記19乃至21のいずれか一に記載のプログラム。
[付記23]
前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御処理は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれか変化させる付記22のプログラム。
[付記24]
前記相関制御処理は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する付記23のプログラム。
[付記25]
前記相関制御処理は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる付記23のプログラム。
[付記26]
前記相関制御処理は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する付記19乃至25のいずれか一に記載のプログラム。
[付記27]
前記相関制御処理は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する付記19乃至26のいずれか一に記載のプログラム。
[付記28]
立体視に用いる立体画像を表示する表示手段と、
前記表示手段に対する指示手段の位置を検出する位置検出手段と、
物理的な振動を用いて報知する報知手段と、
前記立体画像に含まれる少なくとも一部の表示物の立体視における位置と前記指示手段の位置との位置関係を基に、前記報知手段を用いた報知を制御する制御手段と、
を含む処理装置。
[付記29]
表示画面に3次元画像を表示可能な携帯端末であって、
入力デバイスが前記表示画面に対し近接することにより入力操作を受け付けて、前記表示画面の法線方向の入力位置を取得する入力受付部と、
前記表示画面に表示する3次元画像の前記表示画面上に対する相対位置奥行き位置を求める画像表示位置深度算出部と、
前記表示画面の法線方向における入力位置と前記3次元画像の表示位置との相関に応じて振動または力を出力する提示部と、
を備える携帯端末。
[付記30]
更に、前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置との相対的な位置を比較する判別部を備える付記29の携帯端末。
[付記31]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置との相対的な位置に応じて、提示部の振動振幅または振動周波数の何れか一方を変える付記29又は30の携帯端末。
[付記32]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置とが一致した場合、提示部の振動振幅または振動周波数の何れか一方が最大となる付記31の携帯端末。
[付記33]
前記表示画面に対する法線方向の入力位置と前記3次元画像の奥行き位置とが一致した場合、提示部が振動する付記29の携帯端末。
[付記34]
前記表示画面の面内位置と前記3次元画像の面内位置との相対的な位置に応じて、提示部の振動振幅または振動周波数の何れか一方を変える付記29乃至33のいずれか一に記載の携帯端末。
10、101 表示部
20 物体深度検出部
30、103 感覚刺激部
40 記憶部
50、104 制御部
102 位置検出部
201 画像深度抽出部
202 深度判別部
203 相関制御部
300、310 電極
301 指先
400、401 基準点
410 420 領域
Claims (9)
- 3次元画像を表示する表示面を含む表示部と、
前記表示面に対する物体の位置を、物体深度として検出する位置検出部と、
ユーザの感覚を刺激する感覚刺激部と、
前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する制御部と、
を備え、
前記制御部は、
前記画像深度と前記物体深度を比較する深度判別部と、
前記深度判別部における比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する相関制御部と、
を含み、
前記相関制御部は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更することを特徴とする電子機器。 - 前記位置検出部は、前記表示面の法線方向に位置する物体の位置を、前記物体深度として検出する請求項1の電子機器。
- 前記画像深度は、前記3次元画像に予め付与され、所定の基準面から画像が飛び出して視認される、又は、奥まってユーザに視認される距離を示す値であり、
前記制御部は、前記3次元画像から前記画像深度を抽出する画像深度抽出部を含む請求項1又は2の電子機器。 - 前記感覚刺激部は、振動振幅と振動周波数の少なくとも一方が可変な圧電素子を含み、
前記相関制御部は、前記比較結果に基づき、前記圧電素子の振動振幅と振動周波数の少なくともいずれかを変化させる請求項1の電子機器。 - 前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記振動振幅と前記振動周波数の少なくともいずれかを最大値に設定する請求項4の電子機器。
- 前記相関制御部は、前記画像深度と前記物体深度が一致した際に、前記圧電素子を振動させる請求項4の電子機器。
- 前記相関制御部は、前記表示物の前記表示面における位置と、前記表示物に応じた前記画像深度と、前記物体の前記表示面における位置と、前記物体に応じた前記物体深度と、に基づいてユーザに与える刺激を制御する請求項1乃至6のいずれか一に記載の電子機器。
- 3次元画像を表示する表示面を含む表示部と、
ユーザの感覚を刺激する感覚刺激部と、
を備える電子機器の制御方法であって、
前記表示面に対する物体の位置を、物体深度として検出する位置検出工程と、
前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する工程と、
を含み、
前記感覚刺激部を制御する工程は、
前記画像深度と前記物体深度を比較する工程と、
前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する工程と、
を含み、
前記ユーザの感覚に与える刺激を制御する工程は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、ことを特徴とする電子機器の制御方法。 - 3次元画像を表示する表示面を含む表示部と、
ユーザの感覚を刺激する感覚刺激部と、
を備える電子機器を制御するコンピュータに実行させるプログラムであって、
前記表示面に対する物体の位置を、物体深度として検出する位置検出処理と、
前記3次元画像から得られる少なくとも一部の表示物の立体視における位置を示す画像深度と前記物体深度とに基づいて、前記感覚刺激部を制御する処理と、
を実行し、
前記感覚刺激部を制御する処理は、
前記画像深度と前記物体深度を比較する処理と、
前記画像深度と前記物体深度の比較結果に基づき、前記感覚刺激部がユーザの感覚に与える刺激を制御する処理と、
を含み、
前記ユーザの感覚に与える刺激を制御する処理は、前記3次元画像から得られる表示物を立体視した立体物の内部に規定された刺激変位点に応じて、前記感覚刺激部からユーザに与える刺激を変更する、プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187866A JP6012068B2 (ja) | 2012-08-28 | 2012-08-28 | 電子機器、その制御方法及びプログラム |
EP13832197.1A EP2891948A4 (en) | 2012-08-28 | 2013-08-27 | ELECTRONIC APPARATUS, ITS CONTROL METHOD, AND PROGRAM |
US14/419,694 US20150192996A1 (en) | 2012-08-28 | 2013-08-27 | Electronic apparatus, control method thereof, and program |
PCT/JP2013/072847 WO2014034653A1 (ja) | 2012-08-28 | 2013-08-27 | 電子機器、その制御方法及びプログラム |
CN201380045438.5A CN104603718B (zh) | 2012-08-28 | 2013-08-27 | 电子装置及其控制方法和程序 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012187866A JP6012068B2 (ja) | 2012-08-28 | 2012-08-28 | 電子機器、その制御方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014044662A JP2014044662A (ja) | 2014-03-13 |
JP6012068B2 true JP6012068B2 (ja) | 2016-10-25 |
Family
ID=50183465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012187866A Expired - Fee Related JP6012068B2 (ja) | 2012-08-28 | 2012-08-28 | 電子機器、その制御方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150192996A1 (ja) |
EP (1) | EP2891948A4 (ja) |
JP (1) | JP6012068B2 (ja) |
CN (1) | CN104603718B (ja) |
WO (1) | WO2014034653A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2925436B1 (fr) | 2007-12-20 | 2010-05-21 | Valeo Securite Habitacle | Adaptateur pour antivol et antivol associe. |
JP2015114836A (ja) * | 2013-12-11 | 2015-06-22 | キヤノン株式会社 | 画像処理装置、触感制御方法及びプログラム |
CA2875033C (en) * | 2014-12-17 | 2022-07-26 | Fayez Idris | Contactless tactile feedback on gaming terminal with 3d display |
TWI601076B (zh) * | 2016-09-08 | 2017-10-01 | 友達光電股份有限公司 | 生物體刺激裝置與生物體刺激方法 |
TWI637303B (zh) * | 2017-10-11 | 2018-10-01 | 聯陽半導體股份有限公司 | 觸控裝置及觸控裝置的操作方法 |
US11734477B2 (en) * | 2018-03-08 | 2023-08-22 | Concurrent Technologies Corporation | Location-based VR topological extrusion apparatus |
US11647888B2 (en) * | 2018-04-20 | 2023-05-16 | Covidien Lp | Compensation for observer movement in robotic surgical systems having stereoscopic displays |
CN109782950B (zh) * | 2019-01-04 | 2022-05-17 | Oppo(重庆)智能科技有限公司 | 触摸电极控制方法、装置、存储介质及电子设备 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3798287B2 (ja) * | 2001-10-10 | 2006-07-19 | Smk株式会社 | タッチパネル入力装置 |
JP4013773B2 (ja) | 2003-01-24 | 2007-11-28 | 株式会社デンソー | 地図表示装置 |
JP2005196530A (ja) * | 2004-01-08 | 2005-07-21 | Alpine Electronics Inc | 空間入力装置及び空間入力方法 |
WO2007114225A1 (ja) * | 2006-03-31 | 2007-10-11 | Pioneer Corporation | 立体的二次元画像表示装置 |
JP2008217260A (ja) * | 2007-03-01 | 2008-09-18 | Shibaura Institute Of Technology | 力覚提示装置 |
US8004501B2 (en) | 2008-01-21 | 2011-08-23 | Sony Computer Entertainment America Llc | Hand-held device with touchscreen and digital tactile pixels |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
US20100128112A1 (en) * | 2008-11-26 | 2010-05-27 | Samsung Electronics Co., Ltd | Immersive display system for interacting with three-dimensional content |
JP5477740B2 (ja) * | 2009-11-02 | 2014-04-23 | 独立行政法人情報通信研究機構 | 多感覚インタラクションシステム |
US8508347B2 (en) * | 2010-06-24 | 2013-08-13 | Nokia Corporation | Apparatus and method for proximity based input |
JP2012022639A (ja) * | 2010-07-16 | 2012-02-02 | Ntt Docomo Inc | 表示装置、映像表示システムおよび映像表示方法 |
KR101708696B1 (ko) * | 2010-09-15 | 2017-02-21 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US9043732B2 (en) * | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
WO2012105703A1 (ja) * | 2011-02-04 | 2012-08-09 | シャープ株式会社 | 表示装置、表示画像生成方法、プログラム、及び記録媒体 |
EP2518590A1 (en) * | 2011-04-28 | 2012-10-31 | Research In Motion Limited | Portable electronic device and method of controlling same |
US20120274545A1 (en) * | 2011-04-28 | 2012-11-01 | Research In Motion Limited | Portable electronic device and method of controlling same |
-
2012
- 2012-08-28 JP JP2012187866A patent/JP6012068B2/ja not_active Expired - Fee Related
-
2013
- 2013-08-27 US US14/419,694 patent/US20150192996A1/en not_active Abandoned
- 2013-08-27 WO PCT/JP2013/072847 patent/WO2014034653A1/ja active Application Filing
- 2013-08-27 EP EP13832197.1A patent/EP2891948A4/en not_active Withdrawn
- 2013-08-27 CN CN201380045438.5A patent/CN104603718B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
WO2014034653A1 (ja) | 2014-03-06 |
CN104603718A (zh) | 2015-05-06 |
EP2891948A4 (en) | 2016-04-27 |
JP2014044662A (ja) | 2014-03-13 |
US20150192996A1 (en) | 2015-07-09 |
EP2891948A1 (en) | 2015-07-08 |
CN104603718B (zh) | 2017-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6012068B2 (ja) | 電子機器、その制御方法及びプログラム | |
EP2638461B1 (en) | Apparatus and method for user input for controlling displayed information | |
EP3279784A1 (en) | Systems and methods for deformation and haptic effects | |
US9690377B2 (en) | Mobile terminal and method for controlling haptic feedback | |
EP2630563B1 (en) | Apparatus and method for user input for controlling displayed information | |
EP2490109B1 (en) | Mobile terminal and method for controlling the same | |
CN105589594B (zh) | 电子装置和电子装置的操作控制方法 | |
CN108431734B (zh) | 用于非触摸式表面交互的触觉反馈 | |
US20150138101A1 (en) | Mobile terminal and control method thereof | |
EP1927916A1 (en) | Apparatus, method, and medium for outputting tactile feedback on display device | |
US20140139451A1 (en) | Systems and Methods For Providing Mode or State Awareness With Programmable Surface Texture | |
US20160246375A1 (en) | Systems And Methods For User Interaction With A Curved Display | |
KR20140126129A (ko) | 잠금 및 해제를 제어하는 장치 및 방법 | |
WO2008062586A1 (fr) | Dispositif d'affichage, procédé d'affichage, programme d'affichage, et support d'enregistrement | |
EP3333674A1 (en) | Systems and methods for compliance simulation with haptics | |
US20140082491A1 (en) | Electronic device and editing method for synthetic image | |
CN102981743A (zh) | 控制操作对象的方法及电子设备 | |
JP6048489B2 (ja) | 表示装置 | |
KR20170108662A (ko) | 터치 패널을 포함하는 전자 장치 및 그 제어 방법 | |
US20150277581A1 (en) | Movement of an electronic personal display to perform a page turning operation | |
KR101601951B1 (ko) | 공간 터치 입력이 수행되는 곡면디스플레이 장치 | |
JP5801604B2 (ja) | 表示制御装置及び表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150615 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160915 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6012068 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |