JP6048489B2 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JP6048489B2
JP6048489B2 JP2014502071A JP2014502071A JP6048489B2 JP 6048489 B2 JP6048489 B2 JP 6048489B2 JP 2014502071 A JP2014502071 A JP 2014502071A JP 2014502071 A JP2014502071 A JP 2014502071A JP 6048489 B2 JP6048489 B2 JP 6048489B2
Authority
JP
Japan
Prior art keywords
display
contact
unit
tactile sense
proximity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014502071A
Other languages
English (en)
Other versions
JPWO2013128989A1 (ja
Inventor
広務 加藤
広務 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013128989A1 publication Critical patent/JPWO2013128989A1/ja
Application granted granted Critical
Publication of JP6048489B2 publication Critical patent/JP6048489B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、表示装置及びその動作方法に関し、特に、タッチパネルを用いて操作される表示装置及びその動作方法に関する。
近年、スマートフォンを始めとして、タッチパネルを用いて操作される表示装置が普及している。このような表示装置は、ディスプレイ上にタッチパネルが配置されており、ディスプレイにてボタン等が表示された領域に触れることにより、そのボタン等に応じた動作が行われる。
さらに、このようにタッチパネルを用いて操作される表示装置においては、タッチパネルに触れた場合に、皮膚に電気的刺激を与えたり振動を与えたりすることにより、その領域に表示された画像等の情報に応じた触覚を提示するものも考えられている(例えば、特許文献1,2参照)。
特開2010−250750号公報 特表2011−501298号公報
上述したような表示装置の普及に伴い、タッチパネルに対する操作が多様化している。ディスプレイに表示された情報を単に選択、指定するだけではなく、情報をスクロール表示するために画面をなぞったり、次の項目への移行やページ捲りを行うためにフリック操作をしたり、情報を縮小/拡大表示するためにピンチイン/ピンチアウト操作をしたりすることが行われている。ところで、このような操作を行う場合は、触れる領域に表示された画像等の情報に応じた触覚を提示する必要はない。またその逆に、画面をなぞる操作をした場合であっても、情報をスクロール表示せずに触覚を提示することのみが求められる場合もある。
ところが、上述したような触覚を提示する表示装置においては、触覚の提示と表示の制御が、タッチパネルに触れた指の動きの軌跡に応じて予め決められた一通りのものとなっているため、利用者が実際に望む動作とは異なる動作が行われてしまう場合がある。
本発明は、上述したような問題点に鑑みてなされたものであって、接触操作に応じた動作と接触による触覚提示とが行われる表示装置において、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる表示装置及びその動作方法を提供することを目的とする。
上記目的を達成するために本発明は、
情報を表示する表示手段と、
前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、
前記接触/近接検知手段を介して触覚を提示する触覚提示手段と、
前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する入力判定手段と、
前記入力判定手段における決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する制御手段とを有する。
また、情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置の動作方法であって、
前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を制御する。
また、情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置を動作させるためのプログラムであって、
前記表示装置に、
前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する手順と、
当該決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する手順とを実行させる。
本発明によれば、接触及び/または近接操作について設定された条件に基づいて、検知された接触及び/または近接操作に応じた表示手段の表示及び触覚提示手段の動作を制御する構成としたため、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる。
本発明の表示装置の実施の一形態を示す外観斜視図である。 図1に示した携帯端末の内部構成の一例を示すブロック図である。 図2に示した入力判定部が有するテーブルの一例を示す図である。 図1及び図2に示した携帯端末における図3に示したテーブルに基づく動作方法を説明するためのフローチャートである。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明の表示装置の実施の一形態を示す外観斜視図である。図2は、図1に示した携帯端末1の内部構成の一例を示すブロック図である。
本形態は図1及び図2に示すように、平板状の筐体2の一方の面に、接触/近接検知手段となるタッチパネル部10と、表示手段となるディスプレイ部20と、スピーカ部30と、マイク部40とが設けられているとともに、筐体2の側面にキーボタン部50が設けられた携帯端末1である。
ディスプレイ部20は、液晶等から構成されており、制御手段であるCPU90の制御によって画像等の情報を表示する。
タッチパネル部10は、ディスプレイ部20上に設けられており、指等の接触体による接触操作が行われた場合にその接触操作を検知する。例えば、抵抗膜を用いたものや、静電容量を用いたもの等が挙げられる。
スピーカ部30は、CPU90の制御によって、通信部80を介して受信した音声や、CPU90のメモリ(不図示)に記憶された音声等を出力する。
マイク部40は、音声が入力されるものである。
キーボタン部50は、携帯端末1を操作するための情報が入力されるものである。
通信部80は、携帯端末網を介して情報を送受信する。
触覚提示部60は、例えば、小型の振動子等からなり、タッチパネル部10を振動させることにより、タッチパネル部10に接触した指等の接触体に対して、ディスプレイ部20に表示された画像に応じた触覚をタッチパネル部10を介して提示する。
入力判定部70は、タッチパネル部10に対する接触操作に応じてディスプレイ部20の表示及び触覚提示部60の動作を決定するためのテーブル(不図示)を有している。入力判定部70は、このテーブルを参照して、タッチパネル部10に対する接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作を決定する。
図3は、図2に示した入力判定部70が有するテーブルの一例を示す図である。
図3に示すように、図2に示した入力判定部70が有するテーブルには、タッチパネル部10に対して行われた接触操作のそれぞれについて、ディスプレイ部20の表示、並びに触覚提示部60が行う動作が対応づけられている。すなわち、このテーブルには、ディスプレイ部20の表示及び触覚提示部60の動作についてのタッチパネル部10に対する接触操作の条件が設定されていることになる。例えば、タッチパネル部10にて接触操作が検知されてから0.5秒以内にタッチパネル部10をなぞる操作が検知された場合は、ディスプレイ部20にてスクロール表示またはフリックによるページ捲り等の動作が行われるとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。なお、ディスプレイ部20にてスクロール表示をするかフリックによるページ捲りをするかについては、タッチパネル部10をなぞる操作による移動の速さに応じて設定されている。また、タッチパネル部10にて接触操作が検知されてから0.5秒経過後にタッチパネル部10をなぞる操作が検知された場合は、ディスプレイ部20における表示を変化させることなく、触覚提示部60が動作して触覚を提示する動作が設定されている。また、ディスプレイ部20にて動画が再生されている状態において、タッチパネル部10にて接触操作が検知されてから0.3秒以内に接触操作が検知されなくなると、ディスプレイ部20に表示された動画が一時停止するとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。また、タッチパネル部10にてピンチイン/ピンチアウトの接触操作が検知された場合は、ディスプレイ部20にて表示されている画像が縮小/拡大表示されるとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。また、タッチパネル部10にてタッチパネル部10の1つの領域に対する接触が1秒以上継続して検知された場合は、ディスプレイ部20にて表示されている画像が拡大表示されるとともに、触覚提示部60においては、提示する触覚を強化する旨が設定されている。
入力判定部70は、上述したようにテーブルにて設定された条件に基づいて、タッチパネル部10にて検知された接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作を決定することになる。
CPU90は、メモリ(不図示)を内蔵し、携帯端末1全体を制御するものであって、入力判定部70における決定に基づいて、ディスプレイ部20の表示及び触覚提示部60の動作を制御する。
以下に、上記のように構成された携帯端末1の動作方法について、図3に示したテーブルに基づく動作方法を例に挙げて説明する。
図4は、図1及び図2に示した携帯端末1における図3に示したテーブルに基づく動作方法を説明するためのフローチャートである。
携帯端末1のディスプレイ部20に画像が表示されている状態において、利用者がタッチパネル部10に指を触れると、タッチパネル部10にて接触操作が検知され(ステップ1)、CPU90において、接触操作に応じた携帯端末1の動作の制御が開始される。
タッチパネル部10にて接触操作が検知された後、0.3秒以内に利用者がタッチパネル部10から指を離すことにより、タッチパネル部10にて接触操作が検知されてから0.3秒以内に接触操作が検知されなくなると(ステップ2,3)、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示されている動画を一時停止させるとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20にて動画が表示されている場合はその動画が一時停止する(ステップ4)。この際、触覚提示部60が動作していない場合は、触覚提示部60の動作を停止する制御を行う必要はないが、触覚提示部60が動作している場合は、CPU90の制御によって、触覚提示部60の動作が一時的に停止する。
また、タッチパネル部10にて接触操作が検知されている状態において、利用者がタッチパネル部10に触れている指を動かし、タッチパネル部10にて接触操作が検知された領域が移動した場合(ステップ5)、入力判定部70において、その接触操作がピンチインあるいはピンチアウトであるかが判定される(ステップ6)。接触操作がピンチインあるいはピンチアウトであるかの判定は、タッチパネル部10にて接触操作が検知されている数が2つであり、その2つの点の位置が互いに近づく方向に向かったり、互いに離れる方向に向かったりした場合にピンチインあるいはピンチアウトであると判定する等、タッチパネル部10を有する表示装置にて一般的に行われている技術を用いることができる。
入力判定部70において、タッチパネル部10に対する接触操作がピンチインであると判定された場合は、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像のうち、ピンチイン操作が行われた領域の画像を縮小表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示されている画像のうち、ピンチイン操作が行われた領域の画像が縮小表示される。また、入力判定部70において、タッチパネル部10に対する接触操作がピンチアウトであると判定された場合は、ディスプレイ部20に表示された画像のうち、ピンチアウト操作が行われた領域の画像を拡大表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示されている画像のうち、ピンチアウト操作が行われた領域の画像が拡大表示される(ステップ7)。
また、タッチパネル部10に対する接触操作がピンチイン/ピンチアウトではないと判定された場合は、入力判定部70において、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内であったかどうかが判定される(ステップ8)。
そして、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒を超えている場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像をスクロール表示等で変化させずに、触覚提示部60にて触覚を提示する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20の表示が変化せず、また、触覚提示部60が動作し、タッチパネル部10に接触している指に触覚が提示される(ステップ9)。触覚提示部60は、上述したように小型の振動子等から構成されており、CPU90においては、タッチパネル部10にて接触操作が検知された領域に応じた触覚提示部60の動作が予め設定されている。例えば、触覚提示部60が小型の振動子から構成されている場合は、タッチパネル部10にて接触操作が検知された領域に応じて振動子の振動の大きさが設定されている。そして、CPU90において、振動子がその大きさで振動するように制御されることにより、利用者があたかも接触している領域に表示された画像による物体に触れているように感じさせることができる。
また、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内である場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像について、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示された画像が、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示される(ステップ10)。なお、上述したようなスクロール表示ではなく、入力判定部70において、検知された接触操作の移動の速さによってフリック操作が行われたと判定された場合に、次の項目への移行やページ捲りを行ってもよい。また、スクロール表示する場合であっても触覚を提示してもよい。その場合は、入力判定部70にてその旨が設定されている。
ここで、上述したステップ9,10における動作について詳細に説明する。
図5a〜図5cは、図1及び図2に示した携帯端末1の動作の一例を説明するための図である。
図5aに示すように、ディスプレイ部20上に画像4が表示されている状態において、タッチパネル部10の画像4が表示された領域に指3が接触すると、タッチパネル部10において画像4に対する接触操作が検知される。そして、タッチパネル部10に接触している指3によってタッチパネル部10の表面がなぞられると、入力判定部70において、タッチパネル部10にて接触操作が検知されてから、タッチパネル部10の表面がなぞられて接触操作が検知された領域が移動するまでの時間が0.5秒以内であったかどうかが判定される。
そして、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒を超えている場合は、図5bに示すように、ディスプレイ部20に表示された画像4がスクロール表示されずに、触覚提示部60にて画像4に応じた触覚がタッチパネル部10を介して指3に提示されることになる。
また、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内である場合は、図5cに示すように、ディスプレイ部20に表示された画像4が、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示され、また、触覚提示部60においては、触覚が提示されないことになる。
このように、入力判定部70において、接触操作が行われている時間とタッチパネル部10上における接触操作の軌跡に関する条件に基づいて、タッチパネル部10にて検知された2つの接触操作が、互いに同一の軌跡を描くものであっても、その軌跡を描く前のタッチパネル部10に対する接触の時間が互いに異なる場合に、ディスプレイ部10の表示及び触覚提示部60の動作を互いに異なるものとして決定されることになる。
また、ステップ2にて接触操作が検知されなくなったのがステップ1にて接触操作が検知されてから0.3秒を経過した後であった場合や、ステップ1にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が動かない場合は、入力判定部70において、ステップ1にて接触操作が検知された状態が1秒以上続いたかどうかが判定される(ステップ11)。
そして、ステップ1にて接触操作が検知された状態が1秒以上続いた場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像のうちタッチパネル部10にて接触操作が検知された領域に表示された画像を拡大表示するとともに、触覚提示部60において、提示する触覚を強化する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20に表示された画像のうちタッチパネル部10にて接触操作が検知された領域に表示された画像が拡大表示されるとともに、触覚提示部60において、提示される触覚が強化される(ステップ12)。なお、触覚の強化は、例えば、触覚提示部60が上述したように小型の振動子から構成されている場合、振動子の振動を大きくすることによって指3に与える触覚を強くすること等が考えられる。
また、ステップ1にて接触操作が検知された状態が1秒以上続かなかった場合は、入力判定部70において、触覚提示部60にて触覚を提示する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御により、接触操作が検知された領域に表示された画像に応じた触覚が触覚提示部60によって提示される(ステップ13)。この際、ディスプレイ部20における表示は、ステップ1にて接触操作が検知された領域に表示された画像に応じて切り替えてもよく、表示をそのままとしてもよい。
このように、本形態においては、タッチパネル部10に対する接触操作について、ディスプレイ部20の表示及び触覚提示部60の動作の条件が設定されており、この条件に基づいて、タッチパネル部10にて検知された接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作が制御されるので、利用者がタッチパネル部10に対して行うことが想定される接触操作について条件を設定しておくことにより、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる。例えば、利用者がタッチパネル部10を指でなぞった場合、それがスクロール操作なのか、それとも触覚を確かめる操作なのかを判定することができ、それに応じた動作が可能となる。その際、タッチパネル部10に対する接触操作についての数、位置、時間、軌跡、移動の速さのうち、任意の組み合わせに応じた動作を入力判定部70のテーブルに設定しておくことにより、タッチパネル部10に対する接触操作についての数、位置、時間、軌跡、移動の速さ、さらにはこれらの組み合わせに応じた動作が可能となる。
なお、本形態においては、タッチパネル部10に対する接触操作のみを用いたものを例に挙げて説明したが、利用者の指等の接触体の近接操作を検知するものを用いてもよく、また、タッチパネル部10として、利用者の指等の接触体との距離に基づいて、接触操作のみならず近接操作を検知するものを用いてもよい。
また、ディスプレイ部20に表示される情報としては、上記のような画像、動画の他に、通信部80を介して受信されたブラウザ画面や電子メール画面等に表示されたものであってもよい。
また、本発明の表示装置としては、上述したような携帯端末1に限らず、情報を表示するとともに、接触及び/または近接操作を検知可能であれば適用することができる。
なお、本発明においては、携帯端末1内の処理は上述の専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを携帯端末1にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを携帯端末1に読み込ませ、実行するものであっても良い。携帯端末1にて読取可能な記録媒体とは、ICカードやメモリカード、あるいは、フロッピーディスク(登録商標)、光磁気ディスク、DVD、CD等の移設可能な記録媒体の他、携帯端末1に内蔵されたHDD等を指す。この記録媒体に記録されたプログラムは、例えば、制御ブロックにて読み込まれ、制御ブロックの制御によって、上述したものと同様の処理が行われる。
以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
この出願は、2012年3月2日に出願された日本出願特願2012−047144を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (2)

  1. 情報を表示する表示手段と、
    前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、
    前記接触/近接検知手段を介して触覚を提示する触覚提示手段と、
    前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する入力判定手段と、
    前記入力判定手段における決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する制御手段とを有し、
    前記入力判定手段は、前記接触及び/または近接操作についての数、位置、時間、軌跡もしくは移動の速さ、またはこれらの組み合わせに関する条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定するものであって、前記接触/近接検知手段にて検知された2つの操作が、互いに同一の軌跡を描くものであっても、前記軌跡を描く前の前記接触及び/または近接の時間が互いに異なる場合に、前記表示手段の表示及び前記触覚提示手段の動作を互いに異なるものとして決定する表示装置。
  2. 請求項に記載の表示装置において、
    前記入力判定手段は、前記接触/近接検知手段にて検知された接触及び/または近接操作によっては、前記表示手段による表示が変化する動作と、前記触覚提示手段によって触覚を提示する動作とのうちいずれか一方しか動作させない決定をする表示装置。
JP2014502071A 2012-03-02 2013-01-24 表示装置 Expired - Fee Related JP6048489B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012047144 2012-03-02
JP2012047144 2012-03-02
PCT/JP2013/051412 WO2013128989A1 (ja) 2012-03-02 2013-01-24 表示装置及びその動作方法

Publications (2)

Publication Number Publication Date
JPWO2013128989A1 JPWO2013128989A1 (ja) 2015-07-30
JP6048489B2 true JP6048489B2 (ja) 2016-12-21

Family

ID=49082194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014502071A Expired - Fee Related JP6048489B2 (ja) 2012-03-02 2013-01-24 表示装置

Country Status (4)

Country Link
US (1) US9563297B2 (ja)
EP (1) EP2821892A4 (ja)
JP (1) JP6048489B2 (ja)
WO (1) WO2013128989A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150097786A1 (en) * 2012-05-31 2015-04-09 Nokia Corporation Display apparatus
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
WO2016088246A1 (ja) * 2014-12-05 2016-06-09 富士通株式会社 触感提供システム、及び、触感提供装置
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP7111694B2 (ja) * 2017-02-28 2022-08-02 日本電気株式会社 点検支援装置、点検支援方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
BRPI0804355A2 (pt) * 2008-03-10 2009-11-03 Lg Electronics Inc terminal e método de controle do mesmo
US8174503B2 (en) 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
JP2010147973A (ja) * 2008-12-22 2010-07-01 Nec Corp 携帯端末装置、操作通知方法および操作通知プログラム
JP5254117B2 (ja) 2009-04-20 2013-08-07 シャープ株式会社 入力器具、その制御方法、その制御プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、タッチパネル入力システム
JP2011054025A (ja) * 2009-09-03 2011-03-17 Denso Corp 触感付与装置及びプログラム
US9535500B2 (en) 2010-03-01 2017-01-03 Blackberry Limited Method of providing tactile feedback and apparatus
US9880621B2 (en) * 2010-04-08 2018-01-30 Disney Enterprises, Inc. Generating virtual stimulation devices and illusory sensations using tactile display technology
WO2011133860A2 (en) * 2010-04-23 2011-10-27 Immersion Corporation Systems and methods for providing haptic effects
US20110273380A1 (en) 2010-05-07 2011-11-10 Research In Motion Limited Portable electronic device and method of controlling same

Also Published As

Publication number Publication date
US20150103017A1 (en) 2015-04-16
EP2821892A4 (en) 2015-10-28
JPWO2013128989A1 (ja) 2015-07-30
EP2821892A1 (en) 2015-01-07
WO2013128989A1 (ja) 2013-09-06
US9563297B2 (en) 2017-02-07

Similar Documents

Publication Publication Date Title
JP6048489B2 (ja) 表示装置
US10013063B2 (en) Systems and methods for determining haptic effects for multi-touch input
JP6553136B2 (ja) タッチ感応表面上でのマルチ圧力相互作用のためのシステムと方法
US10831337B2 (en) Device, method, and graphical user interface for a radial menu system
JP6009454B2 (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
JP6157885B2 (ja) 携帯端末装置の表示制御方法
US20190034075A1 (en) Multifunction device control of another electronic device
AU2019203391A1 (en) Multifunction device control of another electronic device
JP2015099555A (ja) 画像表示装置およびプログラム
JP6246640B2 (ja) 電子機器
EP2860610A2 (en) Devices and methods for generating tactile feedback
US20160246375A1 (en) Systems And Methods For User Interaction With A Curved Display
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
JP2016126363A (ja) タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム
TWI564780B (zh) 觸控螢幕姿態技術
JP2014059722A (ja) 携帯情報装置、ソフトキーボード表示方法、ソフトキーボード表示プログラム、および、プログラム記録媒体
AU2022291627A1 (en) Touch input device and method
JP7077024B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体
WO2017159796A1 (ja) 情報処理方法及び情報処理装置
JP2016038609A (ja) 電子書籍閲覧装置及び電子書籍閲覧方法
JP2017167792A (ja) 情報処理方法及び情報処理装置
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161107

R150 Certificate of patent or registration of utility model

Ref document number: 6048489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees