JP2009129352A - 表示システム、表示装置及びプログラム - Google Patents

表示システム、表示装置及びプログラム Download PDF

Info

Publication number
JP2009129352A
JP2009129352A JP2007306192A JP2007306192A JP2009129352A JP 2009129352 A JP2009129352 A JP 2009129352A JP 2007306192 A JP2007306192 A JP 2007306192A JP 2007306192 A JP2007306192 A JP 2007306192A JP 2009129352 A JP2009129352 A JP 2009129352A
Authority
JP
Japan
Prior art keywords
display
detection mode
input device
trajectory
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007306192A
Other languages
English (en)
Other versions
JP4442683B2 (ja
Inventor
Atsushi Narisawa
敦 成沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007306192A priority Critical patent/JP4442683B2/ja
Priority to US12/289,078 priority patent/US8044940B2/en
Priority to EP08019259.4A priority patent/EP2065797A3/en
Priority to CN200810182172XA priority patent/CN101446882B/zh
Publication of JP2009129352A publication Critical patent/JP2009129352A/ja
Application granted granted Critical
Publication of JP4442683B2 publication Critical patent/JP4442683B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • G06F1/3262Power saving in digitizer or tablet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】位置検出モードのときにスタイラスペンを用いて描画された内容と、位置非検出モードのときにスタイラスペンを用いて描画された内容とを合わせて表示させる。
【解決手段】表示装置は、位置非検出モードにてスタイラスペンに軌跡を検出するよう指示し、スタイラスペンは、これに従い操作者に表示面上を移動させられたときの軌跡を検出し、その軌跡データをRAMに書き込む。表示装置は、位置非検出モードから位置検出モードに移行する場合にスタイラスペンに軌跡データを要求し、スタイラスペンは、これに応じてRAMの軌跡データを表示装置に送信する。表示装置は、位置検出モードに移行した後に表示面にスタイラスペンが接触した位置を検出し、その位置を複数連ねた描画データを生成する。そして、この描画データと送信されてきた軌跡データを合成し、合成した画像位置データが表す画像を表示面に表示させる。
【選択図】図1

Description

本発明は、操作者が描画した内容を表示面に表示する技術に関する。
操作者により触れられると、消費電力の少ない省電力モードから消費電力の多い通常モードに復帰する、タッチパネル式の表示装置が知られている。例えば、特許文献1には、自動車に設けられた各機器を操作するためのタッチトレーサに対してタッチ操作が行われると、消費電力の少ないスリープ状態の解除を行う技術が開示されている。
特開2001−325071号公報
ところで、操作者は、このような表示装置が省電力モードで動作していることに気付かず、スタイラスペンなどでいきなり描画を始めてしまうことがある。この場合、表示装置の表示面には、通常モードに完全に移行した後に描画された内容については表示されるが、省電力モードから通常モードに移行している途中に描画された内容については表示されない。これは、省電力モードから通常モードに移行している間は、表示装置の各部が完全に復帰していないため、表示装置が描画された内容を把握することができないためである。操作者にしてみると、描画した内容が全て表示されないため、表示装置が省電力モードから通常モードに移行している間に描画した内容を再び描画し直さなくてはならず、不便である。特にコレステリック液晶型や電気泳動型の表示装置のように、省電力モードに移行した後も画像を表示し続けるという表示の記憶性を有する表示装置においては、通常モードと省電力モードでは表示状態が全く変わらないため、操作者がこれらの動作モードを判別することが難しく、上記のように省電力モードであっても描画を始めてしまうことが多いという問題がある。
本発明は、このような背景に鑑みてなされたものであり、スタイラスペンなどの入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることを目的とする。
上記課題を解決するため、本発明は、表示面を有する表示装置と、当該表示装置と通信を行う入力装置とを備え、前記入力装置は、操作者の操作により自装置が前記表示面上を移動させられたときの軌跡を検出する軌跡検出手段と、前記軌跡検出手段が検出した軌跡を表す軌跡データを記憶手段に書き込む書込手段と、前記記憶手段に記憶されている前記軌跡データを読み出して前記表示装置に送信する送信手段とを備え、前記表示装置は、前記表示面に対して前記入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、前記位置非検出モードにおいて、前記入力装置に対して前記軌跡を検出するよう指示する指示手段と、前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して前記軌跡データを要求する要求手段と、前記要求手段の要求に応じて前記入力装置の前記送信手段から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段とを備えることを特徴とする表示システムを提供する。
これにより、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
本発明の好ましい態様において、前記表示装置の前記動作モード移行手段は、前記位置非検出モードにおいて前記入力装置が前記表示面に接触したことを検知すると、当該位置非検出モードから前記位置検出モードへの移行を開始し、前記表示装置の前記要求手段は、前記動作モード移行手段による前記位置検出モードへの移行が完了した時に、前記入力装置に対して前記軌跡データを要求してもよい。
これにより、表示装置が位置非検出モードから位置検出モードへの移行を行っている間に入力装置を用いて描画された内容と、表示装置が位置検出モードへの移行を完了した後にその入力装置を用いて描画された内容とを合わせて表示させることができる。
本発明の好ましい態様において、前記位置非検出モードは、前記位置検出モードよりも消費電力が少ない動作モードであってもよい。
これにより、入力装置によって接触された位置の検出を行わない、消費電力が少ない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
本発明の好ましい態様において、前記表示装置の前記合成手段は、前記軌跡データが表す軌跡の終点と、前記描画データに含まれる複数の位置のうちの始点とを繋げて、前記軌跡データと前記描画データとを合成してもよい。
これにより、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容の終点と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容の始点とを繋げ合わせて表示させることができる。
本発明の好ましい態様において、前記入力装置の前記軌跡検出手段は、前記表示面の凹凸を検知して前記軌跡を検出し、前記表示装置の前記位置検出手段は、前記表示面の所定の領域毎に設けられ、各々の当該領域に対する接触の有無を感知する複数の感知手段を備え、接触を感知した前記感知手段の位置を表す位置データを時間経過に従って複数連ねて前記描画データを生成してもよい。
これにより、表示面の凹凸を検知して軌跡を検出する軌跡検出手段と、接触を感知した感知手段の位置を表す位置データに基づいて描画データを生成する位置検出手段とを用いて、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
本発明の好ましい態様において、前記入力装置の前記軌跡検出手段は、自装置が前記表示面上を移動させられたときの軌跡に加えて、自装置が前記表示面以外の面を移動させられたときの軌跡をも検出し、前記表示装置の前記合成手段は、前記入力装置が前記表示面上及び当該表示面以外の面を移動させられたときの軌跡を含む軌跡データと前記描画データとを合成して、前記表示面よりも大きい画像を表す前記画像データを生成し、前記表示装置の前記表示手段は、前記画像を前記表示面においてスクロール可能な状態で表示させるか、又は、前記画像を縮小して前記表示面に表示させてもよい。
これにより、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容であって、入力装置が表示面以外の面を移動させられたときの軌跡を含む描画内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
また、本発明は、表示面と、入力装置と通信を行う通信手段と、前記表示面に対して前記入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、前記位置非検出モードにおいて、前記入力装置に対して、操作者の操作により当該入力装置が前記表示面を移動させられたときの軌跡を検出するよう前記通信手段により指示する指示手段と、前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して、当該入力装置が検出した軌跡を表す軌跡データを前記通信手段により要求する要求手段と、前記要求手段の要求に応じて前記入力装置から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段とを備えることを特徴とする表示装置を提供する。
これにより、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
さらに、本発明は、表示面と通信手段とを有するコンピュータを、前記表示面に対して入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、前記位置非検出モードにおいて、前記入力装置に対して、操作者の操作により当該入力装置が前記表示面を移動させられたときの軌跡を検出するよう前記通信手段により指示する指示手段と、前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して、当該入力装置が検出した軌跡を表す軌跡データを前記通信手段により要求する要求手段と、前記要求手段の要求に応じて前記入力装置から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段として機能させるためのプログラムを提供する。
これにより、入力装置によって接触された位置の検出を行わない動作モードのときにその入力装置を用いて描画された内容と、入力装置によって接触された位置の検出を行う動作モードのときにその入力装置を用いて描画された内容とを合わせて表示させることができる。
[構成]
図1は、本実施形態に係る表示装置1とスタイラスペン2の外観を示す図である。表示装置1は、小型且つ軽量に構成されたいわゆる電子ペーパーであり、画像データに基づいて画像を表示する機能のほかに、操作者が描画した内容を表示する機能を備えている。スタイラスペン2は、表示装置1の操作に使用される入力装置である。操作者は、このスタイラスペン2を使用することにより、表示装置1の表示面Sに所望の文字や図形などを描画することができる。
図2は、図1に示した表示装置1の構成を示す図である。同図に示すように、表示装置1は、電源部10と、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、記憶性表示体14と、タッチパネル15と、通信部16とを備えている。電源部10は、例えば充電可能なバッテリを備え、表示装置1の作動に必要な電力を、図中の一点鎖線で囲まれた表示装置1の各部に供給する。CPU11は、ROM12に記憶されているプログラムを実行することにより、各種の処理を行う。ROM12は、読み出し専用メモリであり、CPU11によって実行されるプログラムなどを記憶している。RAM13は、CPU11のワークエリアとして使用される。通信部16は、IrDA(Infrared Data Association)やブルートゥース(登録商標)などの無線通信規格に従って、スタイラスペン2とデータ通信を行う。
記憶性表示体14は、コレステリック液晶や電気泳動などを利用した表示手段であり、CPU11による指示の下、その表示面Sに各種の画像を表示する。この記憶性表示体14は、表示の記憶性を有しており、電力供給が停止しても画像を表示し続けることができる。タッチパネル15は、上述した記憶性表示体14の表示面Sに重ねて設けられる透明なパネルであり、所定の微小領域毎に物体の接触の有無を感知する。この微小領域は、記憶性表示体14における所定数の画素(例えば、1×1画素や3×3画素)にそれぞれ対応付けられている。タッチパネル15は、物体の接触を感知すると、記憶性表示体14の表示面Sの左上隅点を原点0としたxy座標系に従ってその接触位置を検出し、検出した接触位置を表す接触位置データをCPU11に供給する。
例えば、操作者がスタイラスペン2をタッチパネル15の表示面Sに接触させて所望の内容を描画した場合、タッチパネル15は、所定の時間間隔でその接触位置を検出し、検出した接触位置を表す接触位置データをCPU11に供給する。タッチパネル15から接触位置データが供給されると、CPU11は、その接触位置データを時間経過に従って複数連ねた描画データを生成し、その描画データに基づいて、描画された内容を記憶性表示体14に表示させていく。これにより、記憶性表示体14の表示面Sには、操作者が描画した内容がその描画跡を追うようにして表示されていく。したがって、操作者は、実際のペンを用いたときと同様の感覚で、表示面S上に所望の内容を描画することができる。
ここで、表示装置1の動作モードについて説明する。表示装置1は、「位置検出モード」、「省電力モード」という2つの動作モードを有している。「位置検出モード」は、電源部10によって表示装置1の各部に電力が供給され、表示装置1が通常の動作を行う動作モードである。この「位置検出モード」では、CPU11により、例えば画像データに基づいて画像を表示する処理や、操作者が描画した内容を表示する処理などが行われる。「省電力モード」は、「位置検出モード」よりも消費電力が少ない動作モードであり、電源部10から表示装置1の限られた部品のみに電力が供給される。この「省電力モード」では、CPU11は、タッチパネル15に物体が接触したということだけを感知することができるが、タッチパネル15上のどの位置に接触したかということまでは検出することができない。つまり、「省電力モード」は、スタイラスペン2などの物体が接触した位置の検出を行わない「位置非検出モード」であるといえるから、以下では、「位置非検出モード」という。
「位置検出モード」から「位置非検出モード」への移行は、例えば「位置検出モード」において、操作者によって操作されていない間の時間が所定時間以上になったときに開始される。また、「位置非検出モード」から「位置検出モード」への移行は、例えばタッチパネル15の表面にスタイラスペン2などの物体が接触したことが検知されたときに開始される。「位置非検出モード」から「位置検出モード」に移行させるためには、「位置非検出モード」において電力が供給されていなかった各部に電源部10から電力の供給を開始し、CPU11などを「位置検出モード」の状態に復帰させる必要がある。そのため、「位置非検出モード」から「位置検出モード」への移行が開始されてからその移行が完全に完了するまでには、数百ミリ秒程度、場合によって1秒ほどの時間がかかる。
図3は、図1に示したスタイラスペン2の構成を示す図である。同図に示すように、スタイラスペン2は、電源部20と、CPU21と、ROM22と、RAM23と、通信部24と、ペン先スイッチ25と、軌跡検出部26とを備えている。電源部20は、例えば電池を備え、スタイラスペン2の作動に必要な電力を、図中の一点鎖線で囲まれたスタイラスペン2の各部に供給する。CPU21は、ROM22に記憶されているプログラムを実行することにより、各種の処理を行う。このCPU21は、例えば8bit単位で処理を行うものであり、低消費電力で動作することができる。ROM22は、読み出し専用メモリであり、CPU11によって実行されるプログラムなどを記憶している。RAM23は、CPU21のワークエリアとして使用される。通信部24は、表示装置1の通信部16と同様の通信規格に従って、表示装置1とデータ通信を行う。
ペン先スイッチ25は、スタイラスペン2のペン先に設けられたスイッチである。操作者によりスタイラスペン2のペン先がタッチパネル15の表示面Sなどに接触させられると、このペン先スイッチ25は、オン状態になってオン信号を出力し、そこから離されるとオフ状態になりオフ信号を出力する。軌跡検出部26は、ペン先スイッチ25からオン信号が出力されている期間、つまりペン先スイッチ25が表示面Sなどに接触させられている期間にわたって、操作者の操作によりスタイラスペン2が表示面S上を移動させられた軌跡を検出し、検出した軌跡を表す軌跡データを生成する。より具体的には、軌跡検出部26は、ペン先スイッチ25からオン信号が出力されている期間は、スタイラスペン2のペン先と表示面Sとが接触している接触領域の凹凸を微少な所定の時間間隔で光学的に読み取る。続いて、軌跡検出部26は、新たに読み取った接触領域の凹凸と、前回読み取った接触領域の凹凸とを比較し、スタイラスペン2のペン先が移動した方向と移動量からなる移動ベクトルを算出する。軌跡検出部26は、このような処理をペン先スイッチ25からオン信号が出力されている期間にわたって繰り返し実行し、算出した移動ベクトルを時間経過に従って連ねていくことで、スタイラスペン2が移動させられた軌跡を検出することができる。検出された軌跡を表す軌跡データはいったんRAM23に記憶されてから、通信部24により表示装置1へと送信される。
[動作]
図4は、表示装置1のCPU11又はスタイラスペン2のCPU21が実行する処理の手順を示すシーケンス図である。次に、この図を参照して、表示装置1とスタイラスペン2の動作について説明する。
表示装置1のCPU11は、「位置検出モード」において操作者によって操作されていない間の時間が所定時間以上になると、上述したように、自装置の動作モードを「位置非検出モード」に移行させることになる。このとき、CPU11は、まず、通信部16を用いて、「位置非検出モード」への移行をスタイラスペン2に通知してから(ステップS110)、自装置の動作モードを「位置非検出モード」に移行させる(ステップS120)。表示装置1が「位置非検出モード」に移行すると、上述したように、操作者がスタイラスペン2をタッチパネル15の表示面Sに接触させて描画を行っても、その接触位置は検出されなくなる。
一方、スタイラスペン2のCPU21は、上述したステップS110にて表示装置1から「位置非検出モード」への移行が通知されると、まず、軌跡検出部26を始動させる。これにより、軌跡検出部26は、ペン先スイッチ25がオンになったときに、操作者の操作によりスタイラスペン2が移動させられた軌跡を検出し得るようになる。つまり、表示装置1からの「位置非検出モード」への移行通知は、スタイラスペン2に対して軌跡を検出することを指示するものといえる。続いて、CPU21は、ペン先スイッチ25の状態に基づいて、ペンダウンされたか否かを判定する(ステップS130)。このペンダウンとは、操作者がスタイラスペン2をタッチパネル16の表示面Sに接触させることをいう。ペン先スイッチ25がオフのままである場合、CPU21は、ペンダウンされていないと判定し(ステップS130:NO)、ペンダウンされるまで待機する。
ここで、表示装置1が「位置非検出モード」に移行した後に、操作者がスタイラスペン2を用いて描画を始めた場合を想定する。
図5は、このときに表示装置1の表示面Sに線画が描画される様子を示す図である。操作者は、スタイラスペン2でタッチパネル15の表示面Sをなぞることにより、この線画の描画を行う。図中の軌跡Rは、描画された線画の軌跡を表したものであるが、これは「位置非検出モード」において描画されたものであるから、記憶性表示体14には表示されない。また、図中の点P1は、軌跡Rの始点、つまり操作者が描画し始めた位置を表している。
この場合、スタイラスペン2側では、次の処理が行われる。まず、操作者によりスタイラスペン2のペン先がタッチパネル15の表示面Sの点P1に接触させられるため、ペン先スイッチ25がオンになる。このとき、CPU21は、ペンダウンされたと判定する(図4のステップS130:YES)。ペンダウンされたと判定すると、CPU21は、軌跡検出部26に軌跡検出を指示して、操作者がスタイラスペン2を使用して点P1から描画し始めた軌跡を順次検出させ、その軌跡を表す軌跡データを軌跡検出部26から取得する。そして、CPU21は、操作者の描画に従って順次取得する軌跡データをRAM23に記録する処理を開始する(ステップS140)。これにより、RAM23には、CPU21によって、操作者により描画された軌跡を表す軌跡データが次々と書き込まれていく。この軌跡データの記録は、表示装置1から軌跡データが要求されるまで続けられる。
一方、表示装置1側では、次の処理が行われる。まず、スタイラスペン2のペン先が表示面S(図5に示した、始点に相当する点P1)に接触すると、表示装置1のタッチパネル15は、その接触を感知する。これにより、CPU11は、ペンダウンを検出する(ステップS150)。ペンダウンを検出すると、CPU11は、「位置非検出モード」から「位置検出モード」に動作モードの移行を開始する(ステップS160)。上述したように、「位置非検出モード」から「位置検出モード」への移行には、その移行が完全に完了するまでに少なくとも数百ミリ秒程度の時間がかかる。このとき、表示装置1の各部はまだ「位置検出モード」の状態に復帰していないため、操作者がスタイラスペン2をタッチパネル15の表示面Sに接触させて描画を行っても、「位置非検出モード」のときと同様に、その接触位置は検出されない。
「位置非検出モード」から「位置検出モード」への移行が開始されると、電源部10による表示装置1の各部への電力供給が開始され、CPU11などの各部が順次「位置検出モード」の状態に復帰されていく。そして、「位置非検出モード」から「位置検出モード」への移行が完了すると(ステップS170)、CPU11は、通信部16を用いて、スタイラスペン2に軌跡データを要求する(ステップS180)。また、これと並行して、CPU11は、タッチパネル15を用いて、スタイラスペン2が接触した位置を順次検出し、その接触位置に基づいた描画データの生成を開始する。そして、CPU11は、操作者の描画に応じて順次生成した描画データをRAM13に記録する処理を開始する(ステップS190)。例えば、操作者が図5に示した点P2まで描画した時点で、「位置非検出モード」から「位置検出モード」への移行が完了した場合を想定する。実際には、「位置非検出モード」から「位置検出モード」への移行には最短で数百ミリ秒しかかからないため、ごく短い線しか描画されないことになるが、図では、説明をわかりやすくするために、線が描画された軌跡Rを大きく表している。この場合、上述したステップS190では、操作者により描画された軌跡Rのうち点P2以降の軌跡について、スタイラスペン2が接触した位置に基づいた描画データが記録されていく。
さて、スタイラスペン2のCPU21は、上述したステップS180にて表示装置1から軌跡データを要求されると、まず、軌跡検出部26の動作を中止させるとともに、軌跡データを記録する処理を終了する(図4のステップS200)。この例では、操作者が図5に示した点P2まで描画した時点で、「位置非検出モード」から「位置検出モード」への移行が完了しており、それとほぼ同じ時に軌跡データの要求が行われている。したがって、スタイラスペン2のRAM23には、操作者により描画された軌跡Rのうち、図5に示した点P1から点P2までの間の軌跡を表す軌跡データD1が記憶されていることになる。また、このとき、CPU21は、軌跡検出部26の動作を中止させているから、スタイラスペン2の軌跡検出部26は、再びCPU21によって始動されるまで、ペン先スイッチ25がオンになっても、スタイラスペン2が移動させられた軌跡の検出を行わないことになる。そして、CPU21は、RAM23に記録した軌跡データD1を読み出し、通信部24を用いて表示装置1に送信する(図4のステップS210)。
表示装置1のCPU11は、スタイラスペン2から軌跡データD1が送信されてくると、まず、RAM13に記録した描画データを読み出す。この例では、RAM13には、操作者により描画された軌跡Rのうち、図5に示した点P2から点P3までの間の軌跡上の各位置に基づいて生成された描画データD2が記憶されており、この描画データD2が読み出される。続いて、CPU11は、送信されてきた軌跡データD1と読み出した描画データD2とを合成し、画像データを生成する(ステップS220)。このとき、CPU11は、図5に示す軌跡データD1が表す軌跡の終点C1と、描画データD2に含まれる複数の位置のうちの始点C2とが繋がるように、軌跡データD1と描画データD2とを合成する。例えば終点C1と始点C2とを同一の点とみなして両者を繋げればよい。この合成により得られた画像データは、図5に示した始点P1から点P2を経由し終点P3まで至る曲線状の画像を表すことになる。続いて、CPU11は、生成した画像データを記憶性表示体14に供給し、この画像データに応じた画像を表示面Sに表示させる(ステップS230)。
図6は、このときに記憶性表示体14の表示面Sに表示される画像Pを示す図である。同図に示すように、この画像Pは、「位置検出モード」において描画された内容、すなわち図5に示した描画データD2が表す描画内容だけではなく、接触された位置の検出ができない「位置非検出モード」から「位置検出モード」に移行している間に描画された内容、すなわち図5に示した軌跡データD1が表す描画内容をも含むものになっている。操作者からみると、描画し始めた時にはその描画内容は表示されないが、「位置非検出モード」から「位置検出モード」に完全に移行した時に、いままで描画した分の内容、すなわち、図5に示した軌跡データD1と描画データD2とが表す描画内容が一度に表示されるように見える。このようにして、画像Pが表示されると、その後は通常通り、操作者によって描画された内容が表示された画像に続いて表示されていくことになる。
仮に、表示装置1が、タッチパネル15によって検出された接触位置に基づいて生成される描画データのみを用いて、描画された内容を表示する場合を考えてみる。この場合、記憶性表示体14の表示面Sには、図5に示した描画データD2に応じた画像のみが表示されることになり、軌跡データD1に応じた画像については表示されない。操作者からみると、初めに描画したはずの点P1から点P2部分が表示されていないように見えるため、操作者は、この部分を再度描画し直さなければならず、非常に不便である。
以上説明した実施形態によれば、スタイラスペン2によって接触された位置の検出を行わない「位置非検出モード」のときにスタイラスペン2を用いて描画された内容と、スタイラスペン2によって接触された位置の検出を行う「位置検出モード」のときにスタイラスペン2を用いて描画された内容とを合わせて表示することができる。そのため、操作者の利便性を損なうことなく、消費電力の少ない「位置非検出モード」で動作させることができる。また、スタイラスペン2は低消費電力で動作することができるため、表示装置1を頻繁に「位置非検出モード」で動作させることにより、表示装置1とスタイラスペン2の全体で考えたときの消費電力も低減することができる。
[変形例]
以上が実施形態の説明であるが、この実施形態の内容は以下のように変形し得る。また、以下の変形例を適宜組み合わせてもよい。
(変形例1)
上述した実施形態において、軌跡検出部26は、操作者によって描画された軌跡を光学的に検出していたが、軌跡を検出する方法はこれに限らない。例えば、軌跡検出部26が、操作者の操作によりスタイラスペン2に加えられた角速度を検出するジャイロセンサを備えてもよい。この場合、軌跡検出部26は、ジャイロセンサが検出した角速度に基づいて、操作者によって描画された軌跡を検出する。あるいは、軌跡検出部26が、操作者の操作によりスタイラスペン2に加えられた加速度を検出する加速度センサを備えていてもよい。この場合、軌跡検出部26は、加速度センサが検出した加速度に基づいて、操作者によって描画された軌跡を検出する。要するに、軌跡検出部26は、操作者の操作によりスタイラスペン2が表示面S上を移動させられたときの軌跡を検出するものであればよい。
(変形例2)
上述した実施形態において、表示装置1の通信部16とスタイラスペン2の通信部24とは、無線でデータ通信を行っていた。これに対し、表示装置1の通信部16とスタイラスペン2の通信部24とが、通信ケーブルを介して接続され、例えばUSB(Universal Serial Bus)の通信規格に従って有線でデータ通信を行ってもよい。
(変形例3)
上述した実施形態において、スタイラスペン2のCPU21は、表示装置1からの指示に従って、軌跡検出部26を始動させたり、処理を中止させたりしていた。これに対し、スタイラスペン2のCPU21は、表示装置1からの指示に従って、自装置の動作モードを切り替えてもよい。例えば、表示装置1から「位置非検出モード」への移行が通知された場合、CPU21は、スタイラスペン2の動作モードを「軌跡検出モード」に移行させる。この「軌跡検出モード」は、電源部20によってスタイラスペン2の各部に電力が供給され、スタイラスペン2の各部が動作を行う動作モードである。「軌跡検出モード」に移行されると、軌跡検出部26は、ペン先スイッチ25がオンになったときに、スタイラスペン2が移動させられた軌跡の検出を行う。また、表示装置1から軌跡データが要求された場合、CPU21は、スタイラスペン2の動作モードを「軌跡検出モード」から「軌跡非検出モード」に移行させる。この「軌跡非検出モード」は、「軌跡検出モード」よりも消費電力が少ない動作モードであり、電源部20からスタイラスペン2の限られた部品のみに電力が供給される。「軌跡非検出モード」に移行すると、スタイラスペン2の軌跡検出部26は、再び「軌跡検出モード」に移行されるまで、ペン先スイッチ25がオンになっても、スタイラスペン2が移動させられた軌跡の検出を行わない。これにより、スタイラスペン2の消費電力をさらに低減することができる。
(変形例4)
上述した実施形態では、スタイラスペン2の軌跡検出部26が、スタイラスペン2がタッチパネル15の表示面S上を移動させられたときの軌跡のみを検出していたが、これに加えて、スタイラスペン2がタッチパネル15の表示面S以外の面を移動させられたときの軌跡を検出してもよい。
図7は、表示装置1が「位置非検出モード」から「位置検出モード」に移行している間に、表示装置1の表示面Sからはみ出して線画が描画される様子を示す図である。この場合、スタイラスペン2の軌跡検出部26は、表示面S上に描画された軌跡だけではなく、表示面S以外の面Nに描画された点P4〜点P5間の軌跡をも検出する。この面Nの表面においても、表示面Sと同様に微少な凹凸があるから、実施形態と同様の原理でスタイラスペン2は、面N上の軌跡を検出することができる。この場合、表示装置1のCPU11は、このようにして検出された軌跡を表す軌跡データと描画データとを合成して、画像データ画像データを生成する。このとき生成された画像データが表す画像は、表示面Sのサイズよりも大きくなる。したがって、CPU11は、画像データに基づいた画像を表示面Sにおいてスクロール可能に記憶性表示体14に表示するか、又は、縮小して記憶性表示体14に表示させる。スクロールとは、画面内に表示しきれない部分を表示するために、表示内容を上下左右に移動させることを言う。画像データに基づいた画像がスクロール可能に表示された場合、操作者は、スタイラスペン2などを使用して、その画像を表示面Sからはみ出した方向、図7の例では右方向にスクロールする操作を行うことにより、はみ出した分の描画内容を合わせて閲覧することができる。また、画像データに基づいた画像を縮小して表示させた場合、操作者は、自身が描画した内容を表示面Sからはみ出した分も合わせて閲覧することができる。これにより、操作者は、表示面S以外の面に描画された内容についても、表示面S上に描画された内容と合わせて閲覧することができる。
(変形例5)
上述した実施形態において、スタイラスペン2のCPU21は、軌跡データをRAM23に記録していた。これに対し、スタイラスペン2が、メモリーカードなどの取り外し可能な記憶手段を備えている場合には、CPU21がこの記憶手段に軌跡データを記録してもよい。この場合、スタイラスペン2を、軌跡データを記憶する記憶手段を除いた構成として実現することができる。また、この場合、操作者は、軌跡データが記録された記憶手段をスタイラスペン2から取り出して、パーソナルコンピュータなどに挿入し、パーソナルコンピュータによって記憶手段に記憶されている軌跡データに基づいた画像を表示させてもよい。これにより、操作者は、自身が描画した内容を表示装置1以外の装置でも閲覧することができる。なお、軌跡データは、通信部24によってパーソナルコンピュータに送信されてもよい。
(変形例6)
上述した実施形態では、スタイラスペン2のCPU21が軌跡データD1の記録を終了するタイミングと、表示装置1のCPU11が描画データD2の記録を開始するタイミングによっては、軌跡データD1と描画データD2の記録が一部重複して行われる場合がある。この場合、CPU11は、軌跡データD1が表す軌跡のパターン(軌跡の形状やサイズ)と描画データD2が表す描画のパターン(描画内容の形状やサイズ)とをそれぞれを解析し、同一の特徴を持つ部分が重なるように、軌跡データD1を描画データD2とを繋げて合成してもよい。これにより、軌跡データD1と描画データD2の記録が重複して行われた場合にも、操作者により描画された内容を正確に表示することができる。
(変形例7)
上述した実施形態において、表示装置1のCPU11及びスタイラスペン2のCPU21が実行するプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記録した状態で提供し得る。また、インターネットなどのネットワーク経由で表示装置1又はスタイラスペン2にダウンロードさせることも可能である。即ち、本発明をプログラムとして実現することもできる。
本実施形態に係る表示装置とスタイラスペンの外観を示す図である。 同表示装置の構成を示す図である。 同スタイラスペンの構成を示す図である。 同表示装置又は同スタイラスペンが実行する処理を示すシーケンス図である。 同表示装置の表示面に線画が描画される様子を示す図である。 同表示装置の表示面に表示される画像を示す図である。 表示装置の表示面からはみ出して線画が描画される様子を示す図である(変形例)。
符号の説明
1…表示装置、10…電源部、11…CPU、12…ROM、13…RAM、14…記憶性表示体、15…タッチパネル、16…通信部、2…スタイラスペン、20…電源部、21…CPU、22…ROM、23…RAM、24…通信部、25…ペン先スイッチ、26…軌跡検出部

Claims (8)

  1. 表示面を有する表示装置と、当該表示装置と通信を行う入力装置とを備え、
    前記入力装置は、
    操作者の操作により自装置が前記表示面上を移動させられたときの軌跡を検出する軌跡検出手段と、
    前記軌跡検出手段が検出した軌跡を表す軌跡データを記憶手段に書き込む書込手段と、
    前記記憶手段に記憶されている前記軌跡データを読み出して前記表示装置に送信する送信手段とを備え、
    前記表示装置は、
    前記表示面に対して前記入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、
    自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、
    前記位置非検出モードにおいて、前記入力装置に対して前記軌跡を検出するよう指示する指示手段と、
    前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して前記軌跡データを要求する要求手段と、
    前記要求手段の要求に応じて前記入力装置の前記送信手段から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、
    前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段とを備える
    ことを特徴とする表示システム。
  2. 前記表示装置の前記動作モード移行手段は、前記位置非検出モードにおいて前記入力装置が前記表示面に接触したことを検知すると、当該位置非検出モードから前記位置検出モードへの移行を開始し、
    前記表示装置の前記要求手段は、前記動作モード移行手段による前記位置検出モードへの移行が完了した時に、前記入力装置に対して前記軌跡データを要求する
    ことを特徴とする請求項1記載の表示システム。
  3. 前記位置非検出モードは、前記位置検出モードよりも消費電力が少ない動作モードである
    ことを特徴とする請求項1又は2記載の表示システム。
  4. 前記表示装置の前記合成手段は、前記軌跡データが表す軌跡の終点と、前記描画データに含まれる複数の位置のうちの始点とを繋げて、前記軌跡データと前記描画データとを合成する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の表示システム。
  5. 前記入力装置の前記軌跡検出手段は、前記表示面の凹凸を検知して前記軌跡を検出し、
    前記表示装置の前記位置検出手段は、
    前記表示面の所定の領域毎に設けられ、各々の当該領域に対する接触の有無を感知する複数の感知手段を備え、
    接触を感知した前記感知手段の位置を表す位置データを時間経過に従って複数連ねて前記描画データを生成する
    ことを特徴とする請求項1乃至4のいずれか1項に記載の表示システム。
  6. 前記入力装置の前記軌跡検出手段は、自装置が前記表示面上を移動させられたときの軌跡に加えて、自装置が前記表示面以外の面を移動させられたときの軌跡をも検出し、
    前記表示装置の前記合成手段は、前記入力装置が前記表示面上及び当該表示面以外の面を移動させられたときの軌跡を含む軌跡データと前記描画データとを合成して、前記表示面よりも大きい画像を表す前記画像データを生成し、
    前記表示装置の前記表示手段は、前記画像を前記表示面においてスクロール可能な状態で表示させるか、又は、前記画像を縮小して前記表示面に表示させる
    ことを特徴とする請求項1乃至5のいずれか1項に記載の表示システム。
  7. 表示面と、
    入力装置と通信を行う通信手段と、
    前記表示面に対して前記入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、
    自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、
    前記位置非検出モードにおいて、前記入力装置に対して、操作者の操作により当該入力装置が前記表示面を移動させられたときの軌跡を検出するよう前記通信手段により指示する指示手段と、
    前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して、当該入力装置が検出した軌跡を表す軌跡データを前記通信手段により要求する要求手段と、
    前記要求手段の要求に応じて前記入力装置から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、
    前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段と
    を備えることを特徴とする表示装置。
  8. 表示面と通信手段とを有するコンピュータを、
    前記表示面に対して入力装置が接触した位置を検出し、当該位置を複数連ねた描画データを生成する位置検出手段と、
    自装置の動作モードを、前記位置検出手段によって前記位置の検出を行う位置検出モードと、前記位置検出手段によって前記位置の検出を行わない位置非検出モードとのいずれかに移行させる動作モード移行手段と、
    前記位置非検出モードにおいて、前記入力装置に対して、操作者の操作により当該入力装置が前記表示面を移動させられたときの軌跡を検出するよう前記通信手段により指示する指示手段と、
    前記位置非検出モードから前記位置検出モードに移行する場合に、前記入力装置に対して、当該入力装置が検出した軌跡を表す軌跡データを前記通信手段により要求する要求手段と、
    前記要求手段の要求に応じて前記入力装置から送信されてきた軌跡データと、前記位置検出モードに移行した後に前記位置検出手段によって生成された描画データとを合成して、画像データを生成する合成手段と、
    前記合成手段によって生成された画像データが表す画像を前記表示面に表示させる表示手段と
    して機能させるためのプログラム。
JP2007306192A 2007-11-27 2007-11-27 表示システム、表示装置及びプログラム Expired - Fee Related JP4442683B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007306192A JP4442683B2 (ja) 2007-11-27 2007-11-27 表示システム、表示装置及びプログラム
US12/289,078 US8044940B2 (en) 2007-11-27 2008-10-20 Display system, display device, and program
EP08019259.4A EP2065797A3 (en) 2007-11-27 2008-11-04 Display system, display device, and program
CN200810182172XA CN101446882B (zh) 2007-11-27 2008-11-24 显示***以及显示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007306192A JP4442683B2 (ja) 2007-11-27 2007-11-27 表示システム、表示装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2009129352A true JP2009129352A (ja) 2009-06-11
JP4442683B2 JP4442683B2 (ja) 2010-03-31

Family

ID=40128576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007306192A Expired - Fee Related JP4442683B2 (ja) 2007-11-27 2007-11-27 表示システム、表示装置及びプログラム

Country Status (4)

Country Link
US (1) US8044940B2 (ja)
EP (1) EP2065797A3 (ja)
JP (1) JP4442683B2 (ja)
CN (1) CN101446882B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117914A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子機器
JP2021535528A (ja) * 2018-08-23 2021-12-16 アナロジック (チャイナ) セミコンダクター インク. タッチスクリーンの制御方法、装置、機器、記憶媒体及びプロセッサ

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8314779B2 (en) * 2009-02-23 2012-11-20 Solomon Systech Limited Method and apparatus for operating a touch panel
US20100295796A1 (en) * 2009-05-22 2010-11-25 Verizon Patent And Licensing Inc. Drawing on capacitive touch screens
US8487759B2 (en) 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
JP5679977B2 (ja) * 2010-06-25 2015-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 接触入力位置補正装置、入力装置、接触入力位置補正方法、プログラム、及び集積回路
US10013058B2 (en) 2010-09-21 2018-07-03 Apple Inc. Touch-based user interface with haptic feedback
US10120446B2 (en) * 2010-11-19 2018-11-06 Apple Inc. Haptic input device
US8766954B2 (en) 2010-12-21 2014-07-01 Motorola Mobility Llc Active stylus for use with touch-sensitive interfaces and corresponding method
US20130100044A1 (en) * 2011-10-24 2013-04-25 Motorola Mobility, Inc. Method for Detecting Wake Conditions of a Portable Electronic Device
US9304608B2 (en) * 2011-12-20 2016-04-05 Htc Corporation Stylus device
US20130278537A1 (en) * 2012-04-19 2013-10-24 Motorola Mobility, Inc. Touchscreen writing system
US9178509B2 (en) 2012-09-28 2015-11-03 Apple Inc. Ultra low travel keyboard
US20140098074A1 (en) * 2012-10-09 2014-04-10 Research In Motion Limited Apparatus and method pertaining to the use of multiple location modalities with a stylus
TW201504859A (zh) * 2013-07-26 2015-02-01 Hon Hai Prec Ind Co Ltd 筆套及筆跡紀錄方法
US9652040B2 (en) 2013-08-08 2017-05-16 Apple Inc. Sculpted waveforms with no or reduced unforced response
KR20150026424A (ko) * 2013-09-03 2015-03-11 삼성전자주식회사 디스플레이 제어 방법 및 그 전자 장치
US9779592B1 (en) 2013-09-26 2017-10-03 Apple Inc. Geared haptic feedback element
US9928950B2 (en) 2013-09-27 2018-03-27 Apple Inc. Polarized magnetic actuators for haptic response
US9886093B2 (en) 2013-09-27 2018-02-06 Apple Inc. Band with haptic actuators
WO2015047364A1 (en) 2013-09-29 2015-04-02 Pearl Capital Developments Llc Devices and methods for creating haptic effects
WO2015047372A1 (en) 2013-09-30 2015-04-02 Pearl Capital Developments Llc Magnetic actuators for haptic response
US9317118B2 (en) 2013-10-22 2016-04-19 Apple Inc. Touch surface for simulating materials
US10276001B2 (en) 2013-12-10 2019-04-30 Apple Inc. Band attachment mechanism with haptic response
US9501912B1 (en) 2014-01-27 2016-11-22 Apple Inc. Haptic feedback device with a rotating mass of variable eccentricity
US10545604B2 (en) 2014-04-21 2020-01-28 Apple Inc. Apportionment of forces for multi-touch input devices of electronic devices
DE102015209639A1 (de) 2014-06-03 2015-12-03 Apple Inc. Linearer Aktuator
US9886865B2 (en) * 2014-06-26 2018-02-06 Rovio Entertainment Ltd. Providing enhanced experience based on device location
KR102019505B1 (ko) 2014-09-02 2019-09-06 애플 인크. 햅틱 통지
KR20160033951A (ko) * 2014-09-19 2016-03-29 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US10353467B2 (en) 2015-03-06 2019-07-16 Apple Inc. Calibration of haptic devices
AU2016100399B4 (en) 2015-04-17 2017-02-02 Apple Inc. Contracting and elongating materials for providing input and output for an electronic device
WO2017044618A1 (en) 2015-09-08 2017-03-16 Apple Inc. Linear actuators for use in electronic devices
US10039080B2 (en) 2016-03-04 2018-07-31 Apple Inc. Situationally-aware alerts
US10268272B2 (en) 2016-03-31 2019-04-23 Apple Inc. Dampening mechanical modes of a haptic actuator using a delay
US10622538B2 (en) 2017-07-18 2020-04-14 Apple Inc. Techniques for providing a haptic output and sensing a haptic input using a piezoelectric body
US10599223B1 (en) 2018-09-28 2020-03-24 Apple Inc. Button providing force sensing and/or haptic output
US10691211B2 (en) 2018-09-28 2020-06-23 Apple Inc. Button providing force sensing and/or haptic output
US11380470B2 (en) 2019-09-24 2022-07-05 Apple Inc. Methods to control force in reluctance actuators based on flux related parameters
KR20210137710A (ko) 2020-05-11 2021-11-18 삼성전자주식회사 빠른 터치 반응성을 가지는 터치 및 디스플레이 제어 장치, 이를 포함하는 디스플레이 장치 및 이의 구동 방법
CN111931600B (zh) * 2020-07-21 2021-04-06 深圳市鹰硕教育服务有限公司 智能笔图像处理方法、装置及电子设备
US11275500B1 (en) * 2020-12-30 2022-03-15 Linearity Gmbh Graphics authoring application user interface control
US11977683B2 (en) 2021-03-12 2024-05-07 Apple Inc. Modular systems configured to provide localized haptic feedback using inertial actuators
US11809631B2 (en) 2021-09-21 2023-11-07 Apple Inc. Reluctance haptic engine for an electronic device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06119090A (ja) 1992-10-07 1994-04-28 Hitachi Ltd 省電力制御方式
JPH07234755A (ja) 1994-02-25 1995-09-05 Hitachi Ltd 座標入力手段および情報処理装置
US6417846B1 (en) 2000-02-02 2002-07-09 Lee Si-Ken Multifunction input device
JP2001325071A (ja) 2000-05-17 2001-11-22 Tokai Rika Co Ltd タッチ操作入力装置
JP4552308B2 (ja) * 2000-10-24 2010-09-29 パナソニック株式会社 超音波座標入力装置およびインタラクティブボード
JP3798637B2 (ja) * 2001-02-21 2006-07-19 インターナショナル・ビジネス・マシーンズ・コーポレーション タッチパネル式記入媒体装置、その制御方法、及びプログラム
US20060071915A1 (en) * 2004-10-05 2006-04-06 Rehm Peter H Portable computer and method for taking notes with sketches and typed text
EP1821182B1 (en) * 2004-10-12 2013-03-27 Nippon Telegraph And Telephone Corporation 3d pointing method, 3d display control method, 3d pointing device, 3d display control device, 3d pointing program, and 3d display control program
US20060087496A1 (en) 2004-10-26 2006-04-27 Vincent Maciejewski Electronic notepad
CN100472419C (zh) * 2006-01-23 2009-03-25 郑希付 手书分析方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117914A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子機器
JP2021535528A (ja) * 2018-08-23 2021-12-16 アナロジック (チャイナ) セミコンダクター インク. タッチスクリーンの制御方法、装置、機器、記憶媒体及びプロセッサ
JP7158588B2 (ja) 2018-08-23 2022-10-21 アナロジック (チャイナ) セミコンダクター インク. タッチスクリーンの制御方法、装置、機器、記憶媒体及びプロセッサ

Also Published As

Publication number Publication date
US8044940B2 (en) 2011-10-25
JP4442683B2 (ja) 2010-03-31
CN101446882A (zh) 2009-06-03
CN101446882B (zh) 2011-05-04
EP2065797A3 (en) 2013-05-01
US20090135153A1 (en) 2009-05-28
EP2065797A2 (en) 2009-06-03

Similar Documents

Publication Publication Date Title
JP4442683B2 (ja) 表示システム、表示装置及びプログラム
US9454302B2 (en) Information processing apparatus, system and method for controlling display of windows
JP6233314B2 (ja) 情報処理装置、情報処理方法およびコンピュータ読み取り可能な記録媒体
US7859516B2 (en) Information processing apparatus, scroll control apparatus, scroll control method, and computer program product
CN102681721B (zh) 显示装置、其操作方法以及控制装置
US9721365B2 (en) Low latency modification of display frames
US20110216025A1 (en) Information processing apparatus and input control method
CN102239470A (zh) 显示输入装置
JP5636723B2 (ja) 制御方法及び情報処理装置
JP2001043010A (ja) ポインティング信号を発生するために画像を用いるポインティング装置
JP2006350669A (ja) 情報処理プログラム及び情報処理装置
JP2006244078A (ja) 表示制御装置及びその制御方法
CN101334937A (zh) 电子计算器以及控制方法
JP2014191612A (ja) 情報端末、情報入力補助方法、及び情報入力補助プログラム
JP2014229304A (ja) 表示装置、表示装置の操作方法、情報表示システム及び表示装置の操作プログラム
US20110225535A1 (en) Information processing apparatus
JP2012168621A (ja) タッチ描画表示装置及びその操作方法
JP6293209B2 (ja) 情報処理装置、誤操作抑制方法、及びプログラム
JP2006351027A (ja) 情報処理プログラム及び情報処理装置
CN113703631A (zh) 书写控制方法、装置、电子设备及存储介质
JP2009157448A (ja) 手書き情報入力表示システム
JP2009178850A (ja) ラベルプリンター
KR100899035B1 (ko) 복수의 디스플레이 패널들을 사용하는 전자칠판 시스템 및그 운용방법
TW201915681A (zh) 具有模式切換功能的觸控方法與系統
TWM550427U (zh) 同步顯示手寫軌跡的系統與手寫板裝置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100104

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140122

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees