JP6139397B2 - マウス機能提供方法およびこれを具現する端末 - Google Patents

マウス機能提供方法およびこれを具現する端末 Download PDF

Info

Publication number
JP6139397B2
JP6139397B2 JP2013268825A JP2013268825A JP6139397B2 JP 6139397 B2 JP6139397 B2 JP 6139397B2 JP 2013268825 A JP2013268825 A JP 2013268825A JP 2013268825 A JP2013268825 A JP 2013268825A JP 6139397 B2 JP6139397 B2 JP 6139397B2
Authority
JP
Japan
Prior art keywords
touch
holding
pointer
mouse
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013268825A
Other languages
English (en)
Other versions
JP2014132456A (ja
Inventor
暢鎭 鄭
暢鎭 鄭
泰元 郭
泰元 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014132456A publication Critical patent/JP2014132456A/ja
Application granted granted Critical
Publication of JP6139397B2 publication Critical patent/JP6139397B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、マウス機能提供方法およびこれを具現する端末に関し、特にタッチパネルを有する携帯端末をマウスとして使用することができる方法および端末に関する。
最近、携帯端末は、一般的にタッチパネルを備える傾向にあり、タッチパネルを利用したマウス機能提供方法が提案されている。すなわちタッチパネルを有する携帯端末(例えば、スマートホン)がマウス機能のための入力端末として使用され、携帯端末に連結された端末(例えば、テレビ、パソコン、プロジエクターなど)が出力端末として使用される。しかし、従来、タッチパネルを利用したマウス機能提供方法によれば、携帯端末は、マウスの左側ボタン、右側ボタンおよびホイールの機能を具現しているが、ユーザが直観的に利用することが不便であるという問題点がある。例えば、パンニング(panning)やスクロール(scroll)の場合、ユーザは、携帯端末に備えられたハードキーまたは画面に表示されたソフトキーをタッチ入力器具(例えば、ペンや親指)で押圧し、それと同時に他のタッチ入力器具(例えば、人差し指)を画面に接触した状態で移動しなければならないという不都合がある。
本発明は、前述した問題点を解決するためになされたものであって、タッチパネルを有する携帯端末を利用してユーザが一層便利で且つ直観的にマウス機能を利用することができる方法および端末を提供することを目的とする。
本発明の一態様によるマウス機能提供方法は、タッチパネルを含む表示部を有する携帯端末のマウス機能提供方法において、マウスホストアプリケーションの実行要請に応答して前記表示部の画面にマウス動作イメージを表示する段階と;前記マウス動作イメージに対するタッチ入力器具のタッチを検出する段階と;前記タッチ入力器具の動きが発生した場合、前記タッチが検出された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定する段階と;前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、客体移動命令を出力端末に伝送し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、ポインタ移動命令を前記出力端末に伝送する段階と;を含む。
本発明の他の態様によるマウス機能提供方法は、端末のマウス機能提供方法において、客体を表示し、その上にポインタを表示する段階と;タッチパネルを有する携帯端末から第1タッチ座標を受信し、以後に第2タッチ座標を受信する段階と;前記第1タッチ座標と前記第2タッチ座標の変化量を移動臨界値と比較し、前記タッチパネルに対するタッチ入力器具の移動可否を決定する段階と;前記タッチ入力器具の動きが発生した場合、前記第1タッチ座標が受信された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定する段階と;前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、前記ポインタと一緒に前記客体を移動して表示し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタを移動して表示する段階と;を含む。
本発明による携帯端末は、タッチパネルを有する表示部と;客体とポインタを表示する出力端末と通信する通信部と;前記表示部および前記通信部を制御する制御部と;を含み、前記制御部は、マウスホストアプリケーションの実行要請に応答して前記表示部の画面にマウス動作イメージを表示するように制御し、前記マウス動作イメージに対するタッチ入力器具のタッチを検出し、前記タッチ入力器具の動きが発生した場合、前記タッチが検出された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、客体移動命令を出力端末に伝送するように制御し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、ポインタ移動命令を前記出力端末に伝送するように制御する。
本発明による端末は、客体を表示し、その上にポインタを表示する表示部と;タッチパネルを有する携帯端末から第1タッチ座標を受信し、以後に第2タッチ座標を受信する通信部と;前記表示部および前記通信部を制御する制御部と;を含み、前記制御部は、前記第1タッチ座標および前記第2タッチ座標の変化量を移動臨界値と比較し、前記タッチパネルに対するタッチ入力器具の移動可否を決定し、前記タッチ入力器具の動きが発生した場合、前記第1タッチ座標が受信された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、前記ポインタと一緒に前記客体を移動して表示するように制御し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタを移動して表示するように制御する。
以上、本発明は、タッチパネルを有する携帯端末を利用してユーザが一層便利で且つ直観的にマウス機能を利用することができる方法および端末を提供する。
図1は、本発明の一実施例による入力端末のブロック構成図である。 図2は、本発明の一実施例による出力端末のブロック構成図である。 図3は、本発明の一実施例によるマウス機能提供方法を説明するための流れ図である。 図4は、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図5Aは、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図5B、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図5C、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図6Aは、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図6Bは、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図7は、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図8Aは、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図8Bは、本発明の一実施例によるマウス機能提供方法を説明するための画面である。 図9は、本発明の他の実施例によるマウス機能提供方法を説明するための流れ図である。 図10は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための流れ図である。 図11は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図12は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための流れ図である。 図13は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図14Aは、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図14Bは、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図15は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図16Aは、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。 図16Bは、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。
本発明の詳細な説明に先立って、以下で使用される用語や単語は、通常的であるか、辞書的な意味に限定して解釈すべきものではなく、本発明の技術的思想に符合する意味や概念として解釈されなければならない。したがって、下記説明と添付の図面は、本発明の好ましい実施例に過ぎず、本発明の技術的思想をすべて網羅するものではないので、本出願時点においてこれらを代替することができる多様な均等物と変形例があり得ることを理解しなければならない。また、添付の図面において一部の構成要素は、誇張されるか、省略されるかまたは概略的に図示され、各構成要素のサイズは、実際サイズを反映するものではない。したがって、本発明は、添付の図面に描かれた相対的なサイズや間隔によって限定されない。
本発明において、入力端末は、タッチパネルを有し、出力端末と通信可能な携帯端末、例えば、スマートホン、タブレットパソコンなどである。本発明において出力端末は、入力端末から入力情報を受信し、入力情報に対応する機能を行う端末、例えば、タブレットパソコン、デスクトップパソコン、マルチメディア機器(例えば、ホームシアター、スピーカー、MP3、カムコーダなど)、テレビ、プロジエクター、プロジエクターに連結されたパソコン、表示部が具備された家電機器(例えば、冷蔵庫、キッチン用品など)である。
図1は、本発明の一実施例による入力端末のブロック構成図である。
図1を参照すれば、本発明の一実施例による入力端末100は、表示部110、キー入力部120、格納部130、無線通信部140、オーディオ処理部150、スピーカーSPK、マイクMICおよび制御部170を含む。
表示部110は、制御部170の制御下に客体を画面(screen on which at least one image is shown)に表示する。前記客体は、表示部110に表示される対象になるものであって、イメージ、テキストおよびアイコンのうち少なくとも1つを含むことができる。すなわち、制御部170がデータを“画面に表示するイメージ”で処理(例えば、デコーディング(decoding))し、バッファーに格納すれば、表示部110は、バッファーに格納されたイメージをアナログ信号に変換し、画面に表示する。表示部110に電源が供給されれば、表示部110は、ロックイメージを画面に表示する。ロックイメージが表示されている状態で、ロック解除情報(すなわちパスワード)が検出されれば、制御部170は、ロックを解除する。すなわち表示部110は、制御部170の制御下にロックイメージの代わりに、他のイメージを表示する。ここで、ロック解除情報は、ユーザが画面に表示されたキーパッドまたはキー入力部120を利用して入力端末100に入力したテキスト(例えば、1234)であるか、または表示部110に対するユーザのタッチの軌跡、タッチの方向またはタッチの種類であるか、マイクMICを介して入力端末100に入力されたユーザの音声データである。一方、他のイメージは、ホームイメージ、アプリケーション実行イメージ、キーパッドまたはメニューなどである。ホームイメージは、背景イメージと、この上に表示される多数のアイコンとを含む。アイコンは、それぞれアプリケーションまたはコンテンツ(例えば、写真ファイル、ビデオファイル、録音ファイル、文書、メッセージなど)を指示する。ユーザがアイコンのうち1つ、例えば、アプリケーションアイコンを選択(例えば、マウスホストアプリケーション131に対応するアイコンをタップ)すれば、制御部170は、当該アプリ(例えば、マウスホストアプリケーション131)を実行し、この実行イメージを表示するように表示部110を制御する。表示部110は、制御部170の制御下に、最下層にあらかじめ定められた背景(background)イメージ(例えば、ユーザによって設定された写真、デフォルト(default)に指定されたイメージ、外部でダウンロードされたイメージなど)を表示する。そして、表示部110は、制御部170の制御下に、背景イメージの上に少なくとも1つの他のイメージを表示する。また、表示部110は、制御部170の制御下に、第1イメージを第1領域に表示し、第2イメージを第2領域に表示することができる。表示部110は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)、AMOLED(Active Matrix Organic Light Emitted Diode)またはフレキシブルディスプレイ(Flexible display)で構成されることができる。
タッチパネル111は、表示部110に配置(place on)される。具体的に、タッチパネル111は、表示部110の画面に位置するアドオンタイプ(add−on type)や表示部110内に挿入されるオンセルタイプ(on−cell type)またはインセルタイプ(in−cell type)で具現される。
タッチパネル111は、タッチパネル111に対するユーザジェスチャーに応答して、アナログ信号(例えば、タッチイベント)を発生し、アナログ信号をA/D変換し、制御部170に伝達する。ここで、タッチイベントは、タッチ座標(x、y)を含む。例えば、タッチパネル111のコントローラは、多数のタッチ座標のうち代表を決定し、決定されたタッチ座標を制御部170に伝達する。このようなコントロールは、制御部170で行われることもできる。制御部170は、タッチパネル111からタッチ座標が受信される場合、タッチ入力器具(例えば、指やペン)がタッチパネル111にタッチされたものと決定し、タッチパネル111からタッチ座標が受信されない場合、タッチ入力器具のタッチが解除されたものと決定する。また、制御部170は、タッチされた座標が、例えば、(x0、y0)から(x1、y2)に変化し、その変化量(例えば、D(D=(x0−x1)+(y0−y1))があらかじめ設定された“移動臨界値(例えば、1ミリメートル)”を超過する場合、制御部170は、タッチ入力器具の動きが発生したものと決定する。制御部170は、タッチ入力器具の移動に応答してタッチの位置変化量(dx、dy)およびタッチ入力器具の移動速度などを算出する。制御部170は、タッチ座標、タッチ入力器具のタッチ解除可否、タッチ入力器具の移動可否、タッチ入力器具の位置変化量およびタッチ入力器具の移動速度などに基づいて、ユーザジェスチャーをタッチ、マルチタッチ、タップ(Tap)、ダブルタップ(Double Tap)、ロングタップ(Long tap)、タップアンドタッチ(Tap & touch)、ドラッグ(Drag)、フリック(Flick)、プレス(Press)、ピンチイン(pinch in)およびピンチアウト(pinch out)などのうちいずれか1つで決定する。タッチは、ユーザが画面のタッチパネル111のいずれか一地点にタッチ入力器具を接触するジェスチャーであり、マルチタッチは、様々な地点に多数のタッチ入力器具(例えば、親指と人差し指)を接触するジェスチャーであり、タップは、画面のいずれか一地点にタッチ入力器具がタッチされた後、移動なしに当該地点でタッチ解除(touch−off)されるジェスチャーであり、ダブルタップは、いずれか一地点を連続的に二度タップするジェスチャーであり、ロングタップは、タップより相対的に長くタッチした後、タッチ入力器具の移動なしに当該地点でタッチ入力器具のタッチを解除するジェスチャーであり、タップアンドタッチは、画面のいずれか地点をタップした後、当該地点を所定時間(例えば、0.5秒)以内にさらにタッチするジェスチャーであり、ドラッグは、いずれか一地点をタッチした状態でタッチ入力器具を所定方向に移動させるジェスチャーであり、フリックは、ドラッグに比べてタッチ器具を早く移動させた後、タッチ解除するジェスチャーであり、プレスは、いずれか一地点をタッチした後、所定時間(例えば、2秒)以上動くことなくタッチを維持するジェスチャーであり、ピンチインは、2つのタッチ入力器具で2つの地点を同時にマルチタッチした後、タッチ器具の間隔を狭めるジェスチャーであり、ピンチアウトは、タッチ入力器具の間隔を広げるジェスチャーである。すなわちタッチは、タッチパネル111に接触(contact)することを意味し、その他のジェスチャーは、タッチの変化を意味する。
タッチパネル111は、手ジェスチャーを感知する手タッチパネルとペンジェスチャーを感知するペンタッチパネルとを含んで構成された複合タッチパネルであることができる。ここで、手タッチパネルは、静電容量方式(capacitive type)で構成される。もちろん、手タッチパネルは、抵抗膜方式(resistive type)、赤外線方式または超音波方式で構成されることもできる。また、手タッチパネルは、ユーザの手ジェスチャーだけによってタッチイベントを発生するものではなく、他の物体(例えば、静電容量変化を加えることができる伝導性材質の物体)によりタッチイベントを生成することができる。ペンタッチパネルは、電磁誘導方式(electromagnetic induction type)で構成されることができる。これにより、ペンタッチパネルは、磁場を形成することができるように特別に製作されたタッチ用スタイラスペンによってタッチイベントを生成する。
キー入力部120は、数字または文字情報を入力され、各種機能を設定するための多数のキーを含むことができる。このようなキーは、メニュー呼出キー、画面オン/オフキー、電源オン/オフキーおよびボリューム調節キーなどを含むことができる。キー入力部120は、ユーザ設定および入力端末100の機能制御と関連したキーイベントを生成し、制御部170に伝達する。キーイベントは、電源オン/オフイベント、ボリューム調節イベント、画面オン/オフイベント、シャッターイベントなどを含むことができる。制御部170は、このようなキーイベントに応答して前述した構成を制御する。一方、キー入力部120のキーは、ハードキー(hard key)と称し、表示部110に表示される仮想の(virtual)キーは、ソフトキー(soft key)と称することができる。
格納部(secondary memory unit)130は、ディスク、RAM、ROM(Read Only Memory)およびフラッシュメモリなどで構成される。格納部130は、制御部170の制御下に、入力端末100で生成されるか、または無線通信部140または有線通信部160を介して外部装置(例えば、サーバー、デスクトップパソコン、タブレットパソコンなど)から受信したデータを格納する。
格納部130は、起動プログラム、少なくとも1つ以上のオペレーティングシステムおよびアプリケーション(特に、マウスホストアプリケーション131)を格納する。オペレーティングシステムは、ハードウェアとアプリケーションとの間、そしてアプリケーション間のインターフェース役目をし、CPU、GPU、メインメモリ162および格納部130などのコンピュータ資源を管理する。アプリケーションは、内在化アプリケーション(embedded application)とサードパーティーアプリケーション(3rd party application)とに分類される。例えば、内在化アプリケーションは、ウェブブラウザー(Web browser)、電子メール(email)プログラム、インスタントメッセンジャー(instant messenger)などがある。マウスホストアプリケーション131は、ユーザが携帯端末をマウスとして使用することができるようにするためのプログラムである。制御部170にバッテリーの電源が供給されれば、まず、起動プログラムが制御部170のメインメモリ(main memory unit)にローディング(loading)される。このような起動プログラムは、運営体制をメインメモリにローディングする。オペレーティングシステムは、アプリケーションをメインメモリにローディングする。
無線通信部140は、制御部170の制御下に、ネットワークを介して外部装置と音声通話、画像通話またはデータ通信を行う。無線通信部140は、送信される信号の周波数を上昇変換および増幅する無線周波数送信部と、受信される信号の周波数を低雑音増幅および下降変換する無線周波数受信部とを含む。また、無線通信部140は、移動通信モジュール(例えば、3世代(3−Generation)移動通信モジュール、3.5世代(3.5−Generation)移動通信モジュールまたは4世代(4−Generation)移動通信モジュールなど)、デジタル放送モジュール(例えば、DMBモジュール)および近距離通信モジュール(例えば、ワイファイ(Wi−Fi)モジュール、ブルートゥース(bluetooth:登録商標)モジュール141、NFC(Near Field Communication)モジュール)を含む。近距離通信モジュール、特に、ブルートゥースモジュール141は、制御部170の制御下に、入力情報を出力端末に伝送する。ここで、入力情報には、タッチ座標を含む。また、入力情報には、機能実行情報(例えば、ポインタ移動、イメージ移動またはズーミング(zooming)など)を含むことができる。
オーディオ処理部150は、スピーカーSPKおよびマイクMICと結合し、音声認識、音声録音、デジタルレコーディング(recording)および通話のためのオーディオ信号(例えば、音声データ)の入力および出力を行う。オーディオ処理部150は、制御部170からオーディオ信号を受信し、受信したオーディオ信号をアナログにD/A変換し、増幅した後、スピーカーSPKに出力する。オーディオ処理部150は、マイクMICから受信したオーディオ信号をデジタルにA/D変換した後、制御部170に提供する。スピーカーSPKは、オーディオ処理部150から受信したオーディオ信号を音波(sound wave)に変換し、出力する。マイクMICは、人やその他音源(sound source)から伝達された音波をオーディオ信号に変換する。
有線通信部160は、有線(例えば、USBケーブル)を介して外部装置(例えば、出力端末)と連結される。すなわち入力端末100は、無線通信部140の代わりに、有線通信部160を介して入力情報を出力端末に伝送することができる。
制御部170は、入力端末100の全般的な動作および入力端末100の内部構成間の信号フローを制御し、データを処理する機能を行い、バッテリーから前記構成への電源供給を制御する。制御部170は、多数のCPU(central processing unit)を含む。周知のように、CPUは、資料の演算および比較と、命令語の解釈および実行などを行うコンピュータシステムの核心的な制御ユニットである。CPUは、データや命令を一時格納する各種レジスタを含む。
制御部170は、少なくとも1つ以上のGPU(graphic processing unit)を含むことができる。GPUは、CPUの代わりに、グラフィックと関連した資料の演算および比較と、命令語の解釈および実行などを行うグラフィック制御ユニットである。CPUおよびGPUは、それぞれ、2つ以上の独立コア(例えば、クォドコア(quad−core))が単一集積回路よりなる1つのパッケージ(package)に統合されることができる。すなわちCPUは、1つのマルチコアプロセッサに統合されたものであることができる。また、多数のGPUは、1つのマルチコアプロセッサに統合されたものであることができる。また、CPUおよびGPUは、1つのチップとして統合(SoC;System on Chip)されたものであることができる。また、CPUおよびGPUは、マルチレイヤ(multi layer)としてパッケージング(packaging)されたものであることができる。一方、CPUおよびGPUを含む構成は、AP(Application Processor)と称されることができる。
制御部170は、メインメモリ(main memory unit)、例えば、RAMを含む。メインメモリは、格納部130からローディングされた各種プログラム、例えば、起動プログラム、オペレーティングシステムおよびマウスホストアプリケーションを格納する。すなわち制御部170のCPUとGPUは、このようなプログラムにアクセスし、プログラムの命令を解読し、解読結果による機能を実行する。特に、CPUのうち少なくとも1つは、マウスホストアプリケーション131の機能を実行する。このようなマウスホストアプリケーション131の機能は、下記流れ図を参照して詳しく説明する。また、制御部170は、格納部130に記録(write)するデータを臨時格納し、格納部130から読み出した(read)データを臨時格納するキャッシュメモリを含む。
デジタル機器のコンバージェンス(convergence)傾向によって変形が非常に多様ですべて列挙することはできないが、入力端末100は、GPSモジュール、振動モーター、アクセサリー、イヤージャックなどのように上記で言及されない構成をさらに含むことができる。ここで、アクセサリーは、入力端末100から分離が可能な入力端末100の付属品であって、例えば、タッチのためのペンになることができる。また、入力端末100は、その提供形態によって前述した構成から特定構成が除外されるか、または他の構成に代替されることもできる。
図2は、本発明の一実施例による出力端末のブロック構成図である。
図2を参照すれば、本発明の一実施例による出力端末200は、表示部210、キー入力部220、格納部230、無線通信部240、オーディオ処理部250、スピーカーSPK、マイクMICおよび制御部270を含む。
表示部210は、制御部270の制御下に、イメージ(例えば、写真、ウェブページ、電子本のページ、多数のサムネイル(thumbnail)、音楽リストなど)を表示し、ポインタを表示する。表示部210は、制御部270の制御下に、ポインタを常時画面の最上層に表示する。例えば、マウスゲストアプリケーション231が実行されれば、ポインタが画面に表示される。表示部210は、液晶表示装置(Liquid Crystal Display:LCD)、OLED(Organic Light Emitted Diode)、AMOLED(Active Matrix Organic Light Emitted Diode)またはフレキシブルディスプレイ(Flexible display)で構成されることができる。一方、出力端末200がプロジエクターである場合、表示部210は、制御部270から受信されたイメージをスクリーンに映写する光学装置で構成されることができる。
格納部230は、起動プログラム、少なくとも1つ以上のオペレーティングシステムおよびアプリケーション(特に、マウスゲストアプリケーション231)を格納する。マウスゲストアプリケーション231は、ユーザが携帯端末をマウスとして使用することができるようにするためのプログラムである。マウスゲストアプリケーション231は、オペレーティングシステムによって制御部270のメインメモリにローディングされる。
無線通信部240は、近距離通信モジュール、特にブルートゥースモジュール241を含む。ブルートゥースモジュール241は、制御部270の制御下に、入力情報を入力端末100から受信する。
有線通信部260は、有線(例えば、USBケーブル)を介して外部装置(例えば、入力端末100)と連結される。すなわち出力端末200は、無線通信部240の代わりに、有線通信部260を介して入力情報を入力端末100から受信することができる。また、有線通信部260は、プロジエクターと連結されることができる。プロジエクターが有線通信部260に連結されれば、制御部270は、イメージとポインタを表示するようにプロジエクターを制御することができる。
制御部270は、自分のメインメモリにアクセスし、プログラム、例えば、マウスゲストアプリケーション231の命令を解読し、解読結果による機能を行う。例えば、制御部270は、無線通信部240を介して入力端末100からタッチ座標(x_host、y_host)を受信し、タッチ座標(x_host、y_host)をポインタ座標(x_pointer、y_pointer)に変換し、ポインタ座標(x_pointer、y_pointer)にポインタを表示するように表示部210を制御する。その他、マウスゲストアプリケーション231の機能は、下記流れ図を参照して詳しく説明する。
一方、出力端末200は、上記構成以外に、キー入力部、オーディオ処理部、スピーカー、マイクおよびイヤージャックなどをさらに含むことができる。
図3は、本発明の一実施例によるマウス機能提供方法を説明するための流れ図である。図4〜図8は、本発明の一実施例によるマウス機能提供方法を説明するための画面である。
図1〜図8を参照すれば、入力端末100の制御部170は、タッチパネル111またはキー入力部120からマウスホストアプリケーション131の実行要請(例えば、当該アイコンをタップ)を検出する。このような実行要請に応答して、制御部170は、マウスホストアプリケーション131をメインメモリにローディングし、マウスホストアプリケーション131の機能を実行する。まず、制御部170は、画面に図4に示されたようなマウス動作イメージ410を表示するように表示部110を制御する。また、制御部170は、図5aに示されたようなポインタ510を表示するように出力端末200を遠隔制御する。例えば、ブルートゥースモジュール141は、制御部170の制御下に、“マウスゲストアプリケーション実行命令”を出力端末200に伝送する。これにより、出力端末200の無線通信部240は、出力端末200からこの命令を受信し、制御部270に伝達する。入力端末100の命令に応答して制御部270は、マウスゲストアプリケーション231を実行し、ポインタ510を表示するように表示部210を制御する。この際、ポインタ510の位置は、あらかじめ定められた座標であるか、あるいはランダ無に決定された座標であることができる。また、ポインタ510は、画面の最上層に表示される。例えば、図5aを参照すれば、背景イメージ530が最下層に表示され、写真520がその上に表示され、写真520上にポインタ510が表示される。
段階310で、制御部170は、マウス動作イメージ410に対するタッチ入力器具420のタッチを検出する。例えば、制御部170は、t時点にタッチパネル111からタッチ座標(x_host_0、y_host_0)を受信するようになり、これにより、マウス動作イメージ410に対するタッチ420が発生したことを認識する。タッチ420に応答して、制御部170は、タッチ座標(x_host_0、y_host_0)を出力端末200に伝送するように無線通信部140を制御する。出力端末200の制御部270は、無線通信部240を介してタッチ座標(x_host_0、y_host_0)を受信し、これをポインタ座標(x_pointer_0、y_pointer_0)にマッピングする。
タッチ420に応答して、段階320で、制御部170は、タッチホールディング時間をカウントし始める。すなわち、t時点からタッチホールディング時間がカウントされる。
段階330で、制御部170は、タッチ入力器具420の移動可否を決定する。例えば、制御部170は、t時点にタッチパネル111から受信されたタッチ座標(x_host_0、y_host_0)とt時点にタッチパネル111から受信されたタッチ座標(x_host_n、y_host_n)の変化量があらかじめ設定された“移動臨界値(例えば、1ミリメートル)”を超過する場合、動き430が発生したものと決定する。
タッチ入力器具420の動きが発生した場合、段階340で、制御部170は、カウントされたタッチホールディング時間を確認し、確認されたタッチホールディング時間があらかじめ設定された“ホールディング臨界値(例えば、1秒)”を超過するか否かを決定する。
タッチホールディング時間がホールディング臨界値を超過する場合、段階350で、制御部170は、“イメージ移動命令”とタッチ座標(x_host_n、y_host_n)を出力端末200に伝送するように無線通信部140を制御する。出力端末200の無線通信部240は、“イメージ移動命令”とタッチ座標(x_host_n、y_host_n)を受信し、これらを制御部270に伝達する。それでは、制御部270は、タッチ座標(x_host_n、y_host_n)をポインタ座標(x_pointer_n、y_pointer_n)に変換し、ポインタ座標(x_pointer_n、y_pointer_n)を利用して方向および距離を算出する。次に、制御部270は、算出された方向および距離のうち少なくとも1つを利用してポインタの下に位置するイメージを移動させる。一例として、図5bを参照すれば、制御部270は、算出された方向に算出された距離だけポインタ510と一緒にその下に位置するイメージ520を移動させる。他の例として、図4、図6aおよび図6bを参照すれば、動き430、すなわちパンニング(panning)によって第1イメージ610が第2イメージ620に交替される。ここで、第1イメージ610は、例えば、ウェブページ、ホームイメージまたは電子本のページである。第2イメージ620は、他のウェブページ、他のホームイメージまたは電子本の他のページである。さらに他の例として、図7、図8aおよび図8bを参照すれば、項目(例えば、連絡先をそれぞれ示す項目)4〜8が表示される。この際、下方にスクロール710が発生した場合、項目7および8は消え、項目1〜5が表示される。以上より、“ユーザが1秒(ホールディング臨界値)以上ホールディングした後、タッチ器具を動かす”という意味は、ユーザがマウス左側ボタンを押圧した状態でマウスを動かすことに該当するか、またはユーザがマウスのホイールを回す操作に該当する。
タッチホールディング時間がホールディング臨界値を超過しない場合、段階360で、制御部170は、“ポインタ移動命令”とタッチ座標(x_host_n、y_host_n)を出力端末200に伝送するように無線通信部140を制御する。出力端末200の無線通信部140は、“ポインタ移動命令”とタッチ座標(x_host_n、y_host_n)を受信し、これらを制御部270に伝達する。それでは、制御部270は、タッチ座標(x_host_n、y_host_n)をポインタ座標(x_pointer_n、y_pointer_n)に変換し、ポインタ座標(x_pointer_n、y_pointer_n)を利用して方向および距離を算出する。次に、図5cを参照すれば、制御部270は、算出された方向に算出された距離だけポインタ510のみを移動させる。以上より、“ユーザが1秒前にタッチ器具を動かす”という意味は、ユーザがマウスのボタンを押圧することなく、ただマウスを動かすことに該当する。
図9は、本発明の他の実施例によるマウス機能提供方法を説明するための流れ図である。
図9を参照すれば、段階910で、出力端末200の制御部270は、イメージとポインタを表示する。具体的に、表示部210は、制御部270の制御下に、イメージ(例えば、写真、ホームイメージ、ウェブページなど)を表示する。無線通信部240は、入力端末100から“マウスゲストアプリケーション実行命令”を受信し、これを制御部270に伝達する。ここに応答して、制御部270は、マウスゲストアプリケーション231を実行し、ポインタを表示するように表示部210を制御する。
段階920で、制御部270は、無線通信部240を介して入力端末100からタッチ座標(x_host_0、y_host_0)を受信する。これにより、制御部270は、タッチ座標(x_host_0、y_host_0)をポインタ座標(x_pointer_0、y_pointer_0)にマッピングする。
段階930で、制御部270は、タッチホールディング時間をカウントし始める。すなわち、タッチ座標(x_host_0、y_host_0)が受信されたt時点からタッチホールディング時間がカウントされる。
段階940で、制御部270は、タッチ入力器具の移動可否を決定する。例えば、制御部270は、t0時点に入力端末100から受信されたタッチ座標(x_host_0、y_host_0)とt時点に入力端末100から受信されたタッチ座標(x_host_n、y_host_n)の変化量があらかじめ設定された“移動臨界値(例えば、1ミリメートル)”を超過する場合、動きが発生したものと決定する。
タッチ入力器具の動きが発生した場合、段階950で、制御部170は、カウントされたタッチホールディング時間を確認し、確認されたタッチホールディング時間があらかじめ設定された“ホールディング臨界値(例えば、1秒)”を超過するか否かを決定する。
タッチホールディング時間がホールディング臨界値を超過する場合、段階960で、制御部270は、イメージを移動する。このようなイメージの移動と関連した例示は、段階350で説明された。タッチホールディング時間がホールディング臨界値を超過しない場合、段階970で、制御部270は、ポインタを移動する。
図10は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための流れ図である。図11は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。
図3を参照して説明されたように、まず、マウス動作イメージが入力端末100の画面に表示され、ポインタが出力端末200の画面に表示される。
図10および図11を参照すれば、段階1010で、入力端末100の制御部170は、マウス動作イメージに対するタッチを検出する。
タッチに応答して、段階1020で、制御部170は、タッチホールディング時間をカウントし始める。すなわち、制御部170は、タッチパネル111からタッチ座標(x_host_0、y_host_0)を受信するようになったt時点からタッチホールディング時間をカウントする。
段階1030で、制御部170は、タッチ入力器具の移動可否を決定する。移動可否の決定と関連した例示は、段階330で説明された。
タッチ入力器具の動きが発生した場合、段階1040で、制御部170は、カウントされたタッチホールディング時間を確認し、確認されたタッチホールディング時間があらかじめ設定された“第1ホールディング臨界値(例えば、1秒)”を超過するか否かを決定する。
タッチホールディング時間が第1ホールディング臨界値を超過する場合、段階1050で、制御部170は、“イメージ移動命令”とタッチ座標(x_host_n、y_host_n)を出力端末200に伝送するように無線通信部140を制御する。
タッチホールディング時間が第1ホールディング臨界値を超過しない場合、段階1060で、制御部170は、“ポインタ移動命令”とタッチ座標(x_host_n、y_host_n)を出力端末200に伝送するように無線通信部140を制御する。
一方、段階1030で、制御部170がタッチの動きが発生しないものと決定した場合、段階1070で、制御部170は、タッチホールディング時間があらかじめ設定された第2ホールディング臨界値(例えば、2秒)を超過するか否かを決定する。
タッチホールディング時間が第2ホールディング臨界値を超過する場合、段階1080で、制御部170は、“ポップアップメニュー表示命令” を出力端末200に伝送するように無線通信部140を制御する。出力端末200の無線通信部240は、ポップアップメニュー表示命令を受信し、これを制御部270に伝達する。それでは、制御部270は、図11に示されたようなポップアップメニュー1110を表示するように表示部210を制御する。以上より、ユーザが第2ホールディング臨界値を超過してタッチをホールディングするという意味は、マウスの右側ボタンを押圧したことに該当する。
図12は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための流れ図である。
図12を参照すれば、段階1210で、出力端末200の制御部270は、イメージとポインタを表示する。イメージとポインタの表示と関連した例示は、図9を参照して説明された。
段階1220で、制御部270は、無線通信部240を介して入力端末100からタッチ座標(x_host_0、y_host_0)を受信し、これをポインタ座標(x_pointer_0、y_pointer_0)にマッピングする。
段階1230で、制御部270は、タッチホールディング時間をカウントし始める。すなわち、タッチ座標(x_host_0、y_host_0)が受信されたt時点からタッチホールディング時間がカウントされる。
段階1240で、制御部270は、タッチ入力器具の移動可否を決定する。移動可否の決定と関連した例示は、段階940で説明された。
タッチの動きが発生した場合、段階1250で、制御部170は、カウントされたタッチホールディング時間を確認し、確認されたタッチホールディング時間があらかじめ設定された第1ホールディング臨界値(例えば、1秒)を超過するか否かを決定する。
タッチホールディング時間が第1ホールディング臨界値を超過する場合、段階1260で、制御部270は、イメージを移動する。このようなイメージの移動と関連した例示は、段階350で説明された。タッチホールディング時間が第1ホールディング臨界値を超過しない場合、段階1270で、制御部270は、ポインタを移動する。
一方、段階1240で、制御部270がタッチの動きが発生しないものと決定した場合、段階1280で、制御部270は、タッチホールディング時間があらかじめ設定された第2ホールディング臨界値(例えば、2秒)を超過するか否かを決定する。
タッチホールディング時間が第2ホールディング臨界値を超過する場合、段階1290で、制御部270は、図11に示されたようなポップアップメニュー1110を表示するように表示部210を制御する。
図13〜図16は、本発明のさらに他の実施例によるマウス機能提供方法を説明するための画面である。
まず、図13および図14を参照してズームイン(zoom−in)の一例について説明する。制御部170は、タッチパネル111からマルチタッチを検出する。例えば、制御部170は、t時点にタッチパネル111から第1タッチ座標1311および第2タッチ座標1312を同時に受信する。それでは、制御部170は、マルチタッチが発生したものと認識し、これにより、第1タッチ座標1311および第2タッチ座標1312を出力端末200に伝送するように無線通信部140を制御する。出力端末200の制御部270は、無線通信部240を介して入力端末100から第1タッチ座標1311と第2タッチ座標1312を受信し、これらを第1ポインタ座標1411と第2ポインタ座標1412に変換し、これら1411、1412の間隔D1を計算する。また、制御部270は、図14aに示されたように、第1ポインタ座標1411および第2ポインタ座標1412にそれぞれ第1ポインタ1420および第2ポインタ1430を表示するように表示部210を制御する。
その後、制御部は、t時点に第3タッチ座標1313および第4タッチ座標1314をタッチパネル111から同時に受信し、これらを出力端末200に伝送するように無線通信部140を制御する。それでは、出力端末200の制御部270は、これら1313、1314を第3ポインタ座標1413および第4ポインタ座標1414に変換する。そして、制御部270は、図14bに示されたように、第3ポインタ座標1413および第4ポインタ座標1414にそれぞれ第1ポインタ1420および第2ポインタ1430を表示するように表示部210を制御する。また、制御部270は、第3ポインタ座標1413および第4ポインタ座標1414の間隔D2を計算し、D2<D1であるか否かを決定し、D2<D1の場合、イメージ1440を縮小し、図14bに示されたように縮小されたイメージ1440’を表示するように表示部210を制御する。
次に、ズームインの他の例について説明する。制御部170は、タッチパネル111からピンチインを検出する。具体的に、制御部170は、t時点にタッチパネル111から第1タッチ座標と第2タッチ座標を同時に受信する。それでは、制御部170は、マルチタッチが発生したものと認識し、これらの間隔D1を計算する。その後、制御部は、t時点に第3タッチ座標と第4タッチ座標をタッチパネル111から同時に受信し、これらの間隔D2を計算する。D2<D1の場合、制御部170は、ズームイン命令を出力端末200に伝送するように無線通信部140を制御する。出力端末200の制御部270は、ズームイン命令に応答して、表示されるイメージのうち1つを選択(例えば、最上層に位置するイメージを選択)し、これを縮小し、縮小されたイメージを表示するように表示部210を制御する。
次に、図15および図16を参照してズームアウト(zoom−out)の一例について説明する。制御部170は、タッチパネル111からマルチタッチを検出する。例えば、制御部170は、t時点にタッチパネル111から第1タッチ座標1511と第2タッチ座標1512を同時に受信する。それでは、制御部170は、マルチタッチが発生したものと認識し、これにより、第1タッチ座標1511および第2タッチ座標1512を出力端末200に伝送するように無線通信部140を制御する。出力端末200の制御部270は、無線通信部240を介して入力端末100から第1タッチ座標1511と第2タッチ座標1512を受信し、これらを第1ポインタ座標1611と第2ポインタ座標1612に変換し、これら1611、1612との間隔D1を計算する。また、制御部270は、図16aに示されたように、第1ポインタ座標1611と第2ポインタ座標1612にそれぞれ第1ポインタ1620と第2ポインタ1630を表示するように表示部210を制御する。
その後、制御部は、t時点に第3タッチ座標1513と第4タッチ座標1514をタッチパネル111から同時に受信し、これらを出力端末200に伝送するように無線通信部140を制御する。それでは、出力端末200の制御部270は、これら1513、1514を第3ポインタ座標1613および第4ポインタ座標1614に変換する。そして、制御部270は、図16bに示されたように、第3ポインタ座標1613および第4ポインタ座標1614にそれぞれ第1ポインタ1620および第2ポインタ1630を表示するように表示部210を制御する。また、制御部270は、第3ポインタ座標1613と第4ポインタ座標1614との間隔D2を計算し、D2>D1であるか否かを決定し、D2>D1の場合、イメージ1640を拡大し、図16bに示されたように、拡大されたイメージ1640’を表示するように表示部210を制御する。
次に、ズームアウトの他の例について説明する。制御部170は、タッチパネル111からピンチアウトを検出する。具体的に、制御部170は、t時点にタッチパネル111から第1タッチ座標と第2タッチ座標を同時に受信する。それでは、制御部170は、マルチタッチが発生したものと認識し、これらの間隔D1を計算する。その後、制御部は、t時点に第3タッチ座標と第4タッチ座標をタッチパネル111から同時に受信し、これらの間隔D2を計算する。D2>D1の場合、制御部170は、ズームアウト命令を出力端末200に伝送するように無線通信部140を制御する。出力端末200の制御部270は、ズームアウト命令に応答して、表示されるイメージのうち1つを選択(例えば、最上層に位置するイメージを選択)し、これを拡大し、拡大されたイメージを表示するように表示部210を制御する。
前述したような本発明によるマウス機能提供方法は、多様なコンピュータを介して行われることができるプログラム命令で具現され、コンピュータで読み取り可能な記録媒体に記録されることができる。ここで、記録媒体は、プログラム命令、データファイル、データ構造などを含むことができる。また、プログラム命令は、本発明のために特別に設計され、構成されたものであるか、またはコンピュータソフトウェア当業者に公知されて使用可能なものであることができる。また、記録媒体には、ハードディスク、フロッピー(登録商標)ディスクおよび磁気テープのような磁気媒体(Magnetic Media)と、CD−ROM、DVDのような光記録媒体(Optical Media)と、フロプチカルディスク(Floptical Disk)のような磁気−光媒体(Magneto−Optical Media)と、ROM(Read Only Memory)と、RAMと、フラッシュメモリなどのようなハードウェア装置が含まれることができる。また、プログラム命令には、コンパイラーによって作われるもののような機械語コードだけでなく、インタプリターなどを使用してコンピュータによって実行されることができる高級言語コードが含まれることができる。ハードウェア装置は、本発明を行うために1つ以上のソフトウェアモジュールとして作動するように構成されることができる。
本発明によるマウス機能提供方法および携帯端末は、前述した実施例に限定されず、本発明の技術思想が許容する範囲で多様に変形して実施することができる。
100 入力端末
110 表示部
111 タッチパネル
120 キー入力部
130 格納部
131 マウスホストアプリケーション
140 無線通信部
141 ブルートゥースモジュール
150 オーディオ処理部
160 有線通信部
170 制御部
200 出力端末
210 表示部
230 格納部
231 マウスゲストアプリケーション
240 無線通信部
241 ブルートゥースモジュール
260 有線通信部
270 制御部

Claims (18)

  1. タッチパネルを含む表示部を有する携帯端末のマウス機能提供方法において、
    マウスホストアプリケーションの実行要請に応答して前記表示部の画面にマウス動作イメージを表示する段階と;
    前記マウス動作イメージに対するタッチ入力器具のタッチを検出する段階と;
    前記タッチ入力器具の動きが発生した場合、前記タッチが検出された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定する段階と;
    前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、客体移動命令およびポインタ移動命令を出力端末に伝送し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタ移動命令を前記出力端末に伝送する段階と、;を含むマウス機能提供方法。
  2. 前記タッチホールディング時間が第2ホールディング臨界値を超過するか否かを決定する段階と、
    前記タッチホールディング時間が前記第2ホールディング臨界値を超過する場合、ポップアップメニュー表示命令を前記出力端末に伝送する段階と、をさらに含み、
    前記第2ホールディング臨界値は、前記第1ホールディング臨界値より大きい値であることを特徴とする請求項1に記載のマウス機能提供方法。
  3. 前記マウスホストアプリケーションの実行要請に応答してマウスゲストアプリケーション実行命令を前記出力端末に伝送する段階をさらに含むことを特徴とする請求項1に記載のマウス機能提供方法。
  4. 前記タッチパネルから第1タッチ座標および第2タッチ座標を同時に受信する段階と;
    前記第1タッチ座標と前記第2タッチ座標との間の第1間隔を計算する段階と;
    前記タッチパネルから第3タッチ座標および第4タッチ座標を同時に受信する段階と;
    前記第3タッチ座標と前記第4タッチ座標との間の第2間隔を計算する段階と;
    前記第2間隔が前記第1間隔より小さいか否かを確認する段階と;をさらに含むことを特徴とする請求項1に記載のマウス機能提供方法。
  5. 前記第2間隔が前記第1間隔より小さいかを確認する段階は、
    前記第2間隔が前記第1間隔より小さい場合、前記出力端末にズーム−イン(zoom−in)命令を伝送する段階;または
    前記第2間隔が前記第1間隔より大きい場合、前記出力端末にズーム−アウト(zoom−out)命令を伝送する段階を含むことを特徴とする請求項4に記載のマウス機能提供方法。
  6. 端末のマウス機能提供方法において、
    客体を表示し、その上にポインタを表示する段階と;
    タッチパネルを有する携帯端末から第1タッチ座標を受信し、以後に第2タッチ座標を受信する段階と;
    前記第1タッチ座標および前記第2タッチ座標の変化量を移動臨界値と比較し、前記タッチパネルに対するタッチ入力器具の移動可否を決定する段階と;
    前記タッチ入力器具の動きが発生した場合、前記第1タッチ座標が受信された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定する段階と;
    前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、前記ポインタと一緒に前記客体を移動して表示し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタを移動して表示する段階と;を含むマウス機能提供方法。
  7. 前記タッチホールディング時間が第2ホールディング臨界値を超過するか否かを決定する段階と、
    前記タッチホールディング時間が前記第2ホールディング臨界値を超過する場合、ポップアップメニューを表示する段階と、をさらに含み、
    前記第2ホールディング臨界値は、前記第1ホールディング臨界値より大きい値であることを特徴とする請求項6に記載のマウス機能提供方法。
  8. 前記ポインタを表示する段階は、
    前記携帯端末からマウスゲストアプリケーション実行命令を受信する段階と、
    前記マウスゲストアプリケーション実行命令に応答して前記ポインタを表示する段階と、を含むことを特徴とする請求項6に記載のマウス機能提供方法。
  9. 前記携帯端末から第1タッチ座標および第2タッチ座標を同時に受信する段階と;
    前記第1タッチ座標と前記第2タッチ座標との間の第1間隔を計算する段階と;
    前記携帯端末から第3タッチ座標および第4タッチ座標を同時に受信する段階と;
    前記第3タッチ座標と前記第4タッチ座標との間の第2間隔を計算する段階と;
    前記第2間隔が前記第1間隔より小さいか否かを確認する段階と;をさらに含むことを特徴とする請求項6に記載のマウス機能提供方法。
  10. 前記第2間隔が前記第1間隔より小さいか否かを確認する段階は、
    前記第2間隔が前記第1間隔より小さい場合、前記表示された客体をズーム−インして表示する段階;または
    前記第2間隔が前記第1間隔より大きい場合、前記表示された客体をズーム−アウトし
    て表示する段階を含むことを特徴とする請求項9に記載のマウス機能提供方法。
  11. タッチパネルを有する表示部と;
    客体およびポインタを表示する出力端末と通信する通信部と;
    前記表示部および前記通信部を制御する制御部と;を含み、
    前記制御部は、
    マウスホストアプリケーションの実行要請に応答して前記表示部の画面にマウス動作イメージを表示するように制御し、前記マウス動作イメージに対するタッチ入力器具のタッチを検出し、前記タッチ入力器具の動きが発生した場合、前記タッチが検出された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、客体移動命令およびポインタ移動命令を出力端末に伝送するように制御し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタ移動命令を前記出力端末に伝送するように制御することを特徴とする携帯端末。
  12. 前記制御部は、
    前記タッチホールディング時間が第2ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第2ホールディング臨界値を超過する場合、ポップアップメニュー表示命令を前記出力端末に伝送するように制御し、
    前記第2ホールディング臨界値は、前記第1ホールディング臨界値より大きい値であることを特徴とする請求項11に記載の携帯端末。
  13. 前記制御部は、
    前記マウスホストアプリケーションの実行要請に応答してマウスゲストアプリケーション実行命令を前記出力端末に伝送するように制御することを特徴とする請求項11に記載の携帯端末。
  14. 前記通信部は、前記出力端末と通信するためのブルートゥース(登録商標)モジュールを含むことを特徴とする請求項11に記載の携帯端末。
  15. 前記出力端末は、プロジエクター、テレビ、マルチメディア機器、表示部が備えられた家電機器およびコンピュータのうちいずれか1つであることを特徴とする請求項11に記載の携帯端末。
  16. 客体を表示し、その上にポインタを表示する表示部と;
    タッチパネルを有する携帯端末から第1タッチ座標を受信し、その後、第2タッチ座標を受信する通信部と;
    前記表示部及び前記通信部を制御する制御部と;を含み、
    前記制御部は、
    前記第1タッチ座標と前記第2タッチ座標の変化量を移動臨界値と比較し、前記タッチパネルに対するタッチ入力器具の移動可否を決定し、前記タッチ入力器具の動きが発生した場合、前記第1タッチ座標が受信された時点からカウントされたタッチホールディング時間が第1ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過する場合、前記ポインタと一緒に前記客体を移動して表示するように制御し、前記タッチホールディング時間が前記第1ホールディング臨界値を超過しない場合、前記ポインタを移動して表示するように制御することを特徴とする端末。
  17. 前記制御部は、
    前記タッチホールディング時間が第2ホールディング臨界値を超過するか否かを決定し、前記タッチホールディング時間が前記第2ホールディング臨界値を超過する場合、ポップアップメニューを表示するように制御し、
    前記第2ホールディング臨界値は、前記第1ホールディング臨界値より大きい値であることを特徴とする請求項16に記載の端末。
  18. 前記制御部は、
    前記通信部を介して前記携帯端末からマウスゲストアプリケーション実行命令を受信し、前記マウスゲストアプリケーション実行命令に応答して前記ポインタを表示するように制御することを特徴とする請求項16に記載の端末。
JP2013268825A 2013-01-02 2013-12-26 マウス機能提供方法およびこれを具現する端末 Expired - Fee Related JP6139397B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0000324 2013-01-02
KR1020130000324A KR102044826B1 (ko) 2013-01-02 2013-01-02 마우스 기능 제공 방법 및 이를 구현하는 단말

Publications (2)

Publication Number Publication Date
JP2014132456A JP2014132456A (ja) 2014-07-17
JP6139397B2 true JP6139397B2 (ja) 2017-05-31

Family

ID=49916926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013268825A Expired - Fee Related JP6139397B2 (ja) 2013-01-02 2013-12-26 マウス機能提供方法およびこれを具現する端末

Country Status (7)

Country Link
US (1) US9880642B2 (ja)
EP (1) EP2752754B1 (ja)
JP (1) JP6139397B2 (ja)
KR (1) KR102044826B1 (ja)
CN (1) CN103914249B (ja)
AU (1) AU2013276998B2 (ja)
WO (1) WO2014107005A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101924835B1 (ko) * 2011-10-10 2018-12-05 삼성전자주식회사 터치 디바이스의 기능 운용 방법 및 장치
US8539375B1 (en) * 2012-02-24 2013-09-17 Blackberry Limited Method and apparatus for providing a user interface on a device enabling selection of operations to be performed in relation to content
US9223483B2 (en) 2012-02-24 2015-12-29 Blackberry Limited Method and apparatus for providing a user interface on a device that indicates content operators
CN104317483A (zh) * 2014-10-22 2015-01-28 成都西可科技有限公司 一种移动终端屏幕上的光标位置控制及操作方法
KR101723271B1 (ko) * 2014-12-16 2017-04-04 인하대학교 산학협력단 이동 단말기, 이동 단말기를 구동하기 위한 방법 및 기록매체
JP6429692B2 (ja) * 2015-03-20 2018-11-28 シャープ株式会社 電子機器
CN104793862B (zh) * 2015-04-10 2018-04-24 深圳市美贝壳科技有限公司 无线投影照片的放缩控制方法
CN104866110A (zh) 2015-06-10 2015-08-26 深圳市腾讯计算机***有限公司 一种手势控制方法,移动终端及***
JP6721951B2 (ja) * 2015-07-03 2020-07-15 シャープ株式会社 画像表示装置、画像表示制御方法、および、画像表示システム
CN106020666A (zh) * 2016-05-17 2016-10-12 青岛海信移动通信技术股份有限公司 一种鼠标功能实现方法及装置
KR102365678B1 (ko) 2017-03-29 2022-02-21 삼성전자주식회사 외부 장치를 이용한 화면 출력 방법 및 이를 지원하는 전자 장치
KR101961907B1 (ko) * 2017-06-26 2019-03-25 (주)모멘터스 사용자 터치 유지 시간에 기초한 이동단말기의 컨텐츠 제공 방법
CN110032326A (zh) * 2019-03-29 2019-07-19 网易(杭州)网络有限公司 移动终端显示画面的控制方法、装置、设备和存储介质
US11620006B2 (en) * 2020-07-07 2023-04-04 Hyundai Mobis Co., Ltd. Display control system using knob
CN112054950B (zh) * 2020-08-29 2022-05-13 腾讯科技(深圳)有限公司 资源传输方法、装置、终端及介质

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185258A (ja) * 2002-12-03 2004-07-02 Hitachi Ltd 情報処理装置
US7432916B2 (en) * 2004-12-09 2008-10-07 Universal Electronics, Inc. Controlling device with dual-mode, touch-sensitive display
JP4171509B2 (ja) * 2006-11-27 2008-10-22 富士通株式会社 入力処理方法及びそれを実施する入力処理装置
KR100720335B1 (ko) * 2006-12-20 2007-05-23 최경순 접촉 위치 이동에 따라 생성되는 상대좌표값에 대응하는텍스트를 입력하는 텍스트 입력 장치 및 그 방법
JP2009104268A (ja) * 2007-10-22 2009-05-14 Hitachi Displays Ltd 座標検出装置、及びタッチパネルを用いた操作方法
WO2010148483A1 (en) * 2009-06-22 2010-12-29 University Of Manitoba Computer mouse with built-in touch screen
US9513798B2 (en) * 2009-10-01 2016-12-06 Microsoft Technology Licensing, Llc Indirect multi-touch interaction
KR101117481B1 (ko) * 2009-10-12 2012-03-07 라오넥스(주) 멀티터치 방식 입력제어 시스템
US20110231796A1 (en) * 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
CN102792253B (zh) * 2010-03-08 2019-06-14 诺基亚技术有限公司 用户接口
US20110227947A1 (en) * 2010-03-16 2011-09-22 Microsoft Corporation Multi-Touch User Interface Interaction
US20110248948A1 (en) * 2010-04-08 2011-10-13 Research In Motion Limited Touch-sensitive device and method of control
CN102262465B (zh) 2010-05-26 2016-10-05 鸿富锦精密工业(深圳)有限公司 具有触摸输入单元的电子装置及其触摸输入方法
WO2011158475A1 (ja) * 2010-06-16 2011-12-22 パナソニック株式会社 情報入力装置、情報入力方法及びプログラム
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
JP5580694B2 (ja) * 2010-08-24 2014-08-27 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記憶媒体
JP2012093940A (ja) * 2010-10-27 2012-05-17 Kddi Corp 遠隔操作システム、遠隔操作方法およびプログラム
JP2012108771A (ja) * 2010-11-18 2012-06-07 Panasonic Corp 画面操作システム
US8963847B2 (en) * 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
KR20120064756A (ko) * 2010-12-10 2012-06-20 삼성전자주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
EP2686759B1 (en) * 2011-03-17 2019-11-06 Laubach, Kevin Touch enhanced interface
JP5784944B2 (ja) * 2011-03-29 2015-09-24 京セラ株式会社 電子機器
US20120249461A1 (en) * 2011-04-01 2012-10-04 Analog Devices, Inc. Dedicated user interface controller for feedback responses

Also Published As

Publication number Publication date
EP2752754A3 (en) 2017-10-25
CN103914249B (zh) 2019-03-12
JP2014132456A (ja) 2014-07-17
AU2013276998A1 (en) 2014-07-17
WO2014107005A1 (en) 2014-07-10
EP2752754B1 (en) 2022-07-20
AU2013276998B2 (en) 2019-01-24
US9880642B2 (en) 2018-01-30
KR102044826B1 (ko) 2019-11-14
EP2752754A2 (en) 2014-07-09
KR20140088446A (ko) 2014-07-10
CN103914249A (zh) 2014-07-09
US20140184510A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP6139397B2 (ja) マウス機能提供方法およびこれを具現する端末
JP6999513B2 (ja) イメージ表示方法及び携帯端末
KR102010955B1 (ko) 프리뷰 제어 방법 및 이를 구현하는 휴대 단말
JP6478181B2 (ja) 携帯端末と外部表示装置の連結運用方法及びこれを支援する装置
KR102049784B1 (ko) 데이터 표시 방법 및 장치
KR102190904B1 (ko) 윈도우 제어 방법 및 이를 지원하는 전자장치
KR101999154B1 (ko) 데이터 표시 방법 및 휴대 단말
US20150012881A1 (en) Method for controlling chat window and electronic device implementing the same
KR102251834B1 (ko) 전자 장치의 디스플레이 방법
JP6313028B2 (ja) タッチ入力方法及び携帯端末
KR20130133980A (ko) 터치스크린을 가진 단말에서 오브젝트 이동 방법 및 장치
KR102098258B1 (ko) 콘텐츠 편집 방법 및 이를 구현하는 전자기기
US9392168B2 (en) Method for controlling camera in mobile device to turn on or off based on application
JP6251555B2 (ja) アプリケーション情報提供方法および携帯端末
KR20140034100A (ko) 휴대단말과 외부 표시장치 연결 운용 방법 및 이를 지원하는 장치
KR20140105354A (ko) 터치 감응 유저 인터페이스를 포함하는 전자장치
KR20140074496A (ko) 로그인 관리 방법 및 휴대 단말
KR102076193B1 (ko) 이미지 표시 방법 및 휴대 단말
KR20140029827A (ko) 이미지 처리 방법 및 휴대 단말
KR20200015680A (ko) 이미지 표시 방법 및 휴대 단말

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170427

R150 Certificate of patent or registration of utility model

Ref document number: 6139397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees