JP2016031755A - マルチタッチ端末のためのタッチ制御方法及び装置 - Google Patents

マルチタッチ端末のためのタッチ制御方法及び装置 Download PDF

Info

Publication number
JP2016031755A
JP2016031755A JP2014229328A JP2014229328A JP2016031755A JP 2016031755 A JP2016031755 A JP 2016031755A JP 2014229328 A JP2014229328 A JP 2014229328A JP 2014229328 A JP2014229328 A JP 2014229328A JP 2016031755 A JP2016031755 A JP 2016031755A
Authority
JP
Japan
Prior art keywords
touch
target
touch button
button
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014229328A
Other languages
English (en)
Other versions
JP6033824B2 (ja
Inventor
毛信良
Xinliang Mao
周田▲偉▼
Tianwei Zhou
▲陳▼二喜
Erxi Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI DOUWU NETWORK SCIENCE & TECHNOLOGY CO Ltd
Original Assignee
SHANGHAI DOUWU NETWORK SCIENCE & TECHNOLOGY CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51598292&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2016031755(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by SHANGHAI DOUWU NETWORK SCIENCE & TECHNOLOGY CO Ltd filed Critical SHANGHAI DOUWU NETWORK SCIENCE & TECHNOLOGY CO Ltd
Publication of JP2016031755A publication Critical patent/JP2016031755A/ja
Application granted granted Critical
Publication of JP6033824B2 publication Critical patent/JP6033824B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/214Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads
    • A63F13/2145Input arrangements for video game devices characterised by their sensors, purposes or types for locating contacts on a surface, e.g. floor mats or touch pads the surface being also a display device, e.g. touch screens
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/30Control of display attribute
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザのより複雑なマンマシンインタラクションをサポートする、マルチタッチスクリーンの操作便利性及び多様性、マンマシンインタラクション効率及びユーザエクスペリエンスを向上させる、マルチタッチ端末のためのタッチ制御方法及び装置を提供する。
【解決手段】タッチ制御装置は、ユーザによるマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得することで、第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行する。第1のタッチボタンによってキャラクターの向けと移動を選択し、第2のタッチボタンによってキャラクターの実行可能な操作を選択して実行するように、タッチスクリーンで2つの操作ボタンを表示する。
【選択図】図1

Description

本発明は、コンピュータの分野に関し、より詳細には、マルチタッチ端末のためのタッチ制御の技術に関する。
現在、タッチスクリーンに対する操作は、単点タッチの場合が多く、従来のマルチタッチ技術において、スマートフォンのスライド式ロック解除の操作(スワイプ)のようなタッチ操作を実行するためのタッチ点が一般的に一つの操作を実行することによって複雑なタッチ操作を実行することができなく、それによりインタラクションが悪いことでユーザエクスペリエンスに影響を与える。
本発明の目的はマルチタッチ端末(スマートフォンなどのタッチパネル式の表示部を有する装置)のためのタッチ制御方法及び装置を提供することである。
本発明のマルチタッチ端末のためのタッチ制御方法は、
A マルチタッチ端末のタッチスクリーンでユーザが第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作をするステップと、
B 第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行するステップと、を含む。
本発明が提供する他の特徴は、マルチタッチ端末のためのタッチ装置は、
マルチタッチ端末のタッチスクリーンでユーザが第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作をする第1の装置と、
第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行する第2の装置と、を含む。
本発明は、第1のタッチボタンでキャラクターの向きと移動を選択し、第2のタッチボタンでキャラクターに実行可能な動作を選択するように制御する。
マルチタッチ端末のタッチスクリーンでユーザが第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作をすることにより、第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行するにより、マルチタッチスクリーンで二つのタッチボタンの操作を実現し、ユーザがより複雑なマンマシンインタラクションを行うようにサポートすることで、マルチタッチスクリーンの操作便利性及び多様性、マンマシンインタラクション効率、ユーザエクスペリエンスを向上させる。
つまり、本発明は、ユーザが端末パネル上に表示された第1のタッチボタンにタッチすることにより、第1操作又は第2のタッチボタンを表示させ、この第2のタッチボタンを操作することによる第2操作をさせることである。
第1のタッチボタンに対応して第2操作に対応する第2のタッチボタンを表示し、この第2のタッチボタンの操作を実行する。これにより、マルチタッチ端末上に第1のタッチボタンと第2のタッチボタンの二つの操作ボタンを同時に表示し、操作することができる。
これにより、ユーザがより複雑なマンマシンインタラクションを行うようにサポートすることができる。
例えば、第1のタッチボタンでキャラクターを選び、向きの変更や移動をさせ、第2のタッチボタンでは、キャラクターが操作可能な動作例えば、「攻撃」、「アイテム」等のコマンドを選んで実行する。これにより、マルチタッチスクリーンの操作性及び多様性、マンマシンインタラクション効率、ユーザエクスペリエンスを向上させる。
さらに、本発明は、ユーザがタッチスクリーンのターゲット制御領域にタッチしたか否かを検出し、該ターゲット領域をタッチした場合には、ユーザが操作するための第1のタッチボタン又は第2のタッチボタンを表示することによってインタラクション制御の精度を向上させ、さらにマルチタッチスクリーンの操作便利性及び多様性、マンマシンインタラクション効率、ユーザ体験を向上させる。
さらに、本発明は、ユーザがタッチスクリーンのターゲット制御領域にタッチしないと、第1のタッチボタン又は第2のタッチボタンを表示しないことと、第1のタッチボタン及び第2のタッチボタンの所在位置を各類のデフォルト条件に適応させることができることにより、複雑なマンマシンインタラクションへのサポートを実現し、マルチタッチスクリーンの操作便利性及び多様性、マンマシンインタラクション効率、ユーザエクスペリエンスを向上させる。
さらに、本発明は、対象への操作を終えた後に後続する操作を実行することができることになる。よって全セットの操作をより完全にし、マルチタッチスクリーンの操作便利性及び多様性、マンマシンインタラクション効率、ユーザエクスペリエンスを向上させる。
以下の図面について簡単に説明する。
本発明の本発明のマルチタッチ端末の説明図である。 本発明の最適な実施例によるマルチタッチ端末のためのタッチ装置の説明図である。 本発明の他の方面によるマルチタッチ端末のためのタッチ制御のブロック図である。 本発明の最適な実施例によるマルチタッチ端末のためのタッチ制御のブロック図である。 本発明の最適な実施例によるマルチタッチ端末のためのタッチスクリーンの説明図である。 本発明の最適な実施例によるマルチタッチ端末のためのタッチスクリーンの説明図である。 本発明の最適な実施例によるマルチタッチ端末のためのタッチスクリーンの説明図である。以下の図面の記載において 、同一又は類似の部分には、同一又は類似の符号を付している。
図面を参照し、本発明の詳細説明を述べる。
図1は、本発明のマルチタッチ端末に用いられる、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作をする第1の装置1と、第1の装置に対応する操作対象によって第2の操作に対応する対象への操作を実行する第2の装置2と、を含むタッチ制御装置の説明図である。
つまり、第1装置は、ユーザが第1ボタン(第一操作)をタッチしたか、又は第2ボタンをタッチ(第2操作)したかを検出する。
第2装置は、第1操作により指定された操作対象に対し、第2操作を実行する。つまり、移動対象人物(操作対象)に対して攻撃等のコマンド(第2操作)を実行する。
ここで、タッチ制御装置としては、例えば、スマートフォン及びPADのようなタッチパネルでユーザとマンマシンインタラクションが行われる、androidオペレーティングシステム及びiOSオペレーティングシステムのようなオペレーティングシステムを採用する携帯型電子製品を挙げられる。ユーザ装置と、予め設定された又は格納されたコマンドに応じて自動的に数値計算及び情報処理を行い、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、デジタルシグナルプロセッサ(DSP)、埋め込み式装置が挙げられるが、それらに限定されず、ハードウェアを有するネットワーク装置と、ユーザ装置とネットワーク装置の集積で構成される装置とを含む。
つまり、第1装置と第2装置がタッチ制御装置である。
ネットワーク装置は、コンピュータ、ネットワークホスト、単一のネットワークサーバ、複数のネットワークサーバクラスター又は複数のサーバで構成されるクラウドが含まれるものに限定されなく、ここで、クラウドは分散型計算の一種の分散にカップリングされたコンピュータクラスターで構成される仮想スーパーコンピュータであるクラウドコンピューティング(Cloud Computing)に基づく複数のコンピュータ又はネットワークサーバで構成される。ネットワークは、インターネット、ワイドエリアネットワーク、メトロポリタンエリアネットワーク、ローカルエリアネットワーク、VPNネットワークなどを含む。
本分野の技術者には、他のタッチ制御装置も本発明に適用し、既存技術の方法であっても本発明の保護範囲に含まれることを理解してもらいたい。
上記各装置は相互に連続的に動作する。ここで、“連続”とは、タッチ制御装置にユーザのマルチタッチ端末のタッチスクリーンでの第1のタッチボタンへの第1の操作及び第2のタッチボタンへの第2の操作がされることを停止させるまで、それぞれ設定され又はリアルタイム調整された動作モードで第1の操作及び第2の操作の取得、実行などを行うことをいう。
第1の装置1は、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作(情報)を取得する。
具体的には、第1の装置1は、マルチタッチ端末のタッチスクリーンのタッチ検出部分によってユーザのタッチスクリーン操作情報を取得し、次いで、操作の位置をタッチスクリーンでの第1のタッチボタンの位置とし、同じように、次にタッチを検出した操作の位置をタッチスクリーンでの第2のタッチボタンの位置とし、第2のタッチボタンの位置に対応する操作を第2の操作とする。
ここで、操作には、クリックすること、ダブルクリックすること、長く押すこと、押した後に解放すること、スライドすること(各方向を含む。)、回転すること、軌跡を描くようにスライドすることを含むがそれらに限定されない。
つまり、第1の装置1は、マルチタッチ端末のタッチスクリーンのタッチ検出部分によって、ユーザのタッチスクリーンでのタッチ位置の情報を検出し、該検出場所が第1のタッチボタンとなる。これが第1操作である。同様に、第2のタッチボタン設定位置についてユーザがタッチすることでボタン位置を定め、これが第2操作となる。
図5は、本発明の最適な実施例によるマルチタッチ端末のためのタッチスクリーンの説明図である。図5に示すように、ボタンBは第1のタッチボタンであり、ボタンEは第2のタッチボタンである。
ユーザがボタンB及びボタンEでタッチ操作をすると、第1の装置1は、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作情報を得る。
ここでは、第1のタッチボタンと第2のタッチボタンの位置、図形などの設定情報がデフォルト設定に基づいて確定されてもよく、ユーザ又は他の調整設定に基づいて確定してもよい。
例えば、ユーザがタッチスクリーンのある位置でダブルクリックすると、該位置を第2のタッチボタンの位置の中心として確定し、該位置に対する範囲領域がデフォルト設定に基づいて確定され(例えば、設定される半径の範囲)、又はユーザの他の操作に基づいて確定することができる。
本分野の技術者には、位置にタッチボタンの中心位置及びそれに対応する範囲領域が含まれることを理解してもらいたい。
特徴として、第1のタッチボタン及び第2のタッチボタンのタッチスクリーンでの位置と大きさの設定は、少なくとも、タッチスクリーンが大きい場合には、第1のタッチボタン及び第2のタッチボタンに対応する範囲は大きく、
タッチスクリーンが小さい場合には、第1のタッチボタン及び第2のタッチボタンに対応する範囲も小さく、
タッチスクリーンのアスペクト比が4:3である場合には、その比に対応してタッチボタンの位置及び大きさを設定し、タッチスクリーンのアスペクト比が16:9(ワイドスクリーン)である場合には、ワイドスクリーンに対応する。
その他、タッチスクリーンのサイズ属性と、ユーザが端末を縦方向から横方向に変換する場合にタッチボタンの配置がスクリーンの横方向及び縦方向の調整に対応するように、マルチタッチ端末の保持状態(片手での保持、両手での保持、横及び縦方向の保持など)の情報を含む。
マルチタッチ端末の状態属性と、現在のページに表示されている内容に影響しないようにタッチボタンに対応するアプリケーションの現在のページ内容でのタッチボタンの位置を調整し、又は、現在タッチスクリーンで他のアプリケーションが存在する場合には、他のアプリケーションの操作に影響しないようにタッチボタンの位置と該アプリケーションを分割して配置する。タッチボタンに対応するアプリケーション又は他のアプリケーションを含む。
タッチスクリーンの現在の応用シーン情報とタッチボタンの位置が影響しないように調整する。
第2の装置は、第1の操作に対応する操作対象によって第2の操作に対応する対象への操作を実行する。
具体的には、第2の装置2は、第1の操作による第1のタッチボタンの設定に基づいて第1の操作に対応する操作対象を確定する。
例えば、第1のタッチボタンに対応する位置範囲内の対象を操作対象とし、又は第1のタッチボタンをタッチした時に第1のタッチボタンにバインドされたある所定の対象を操作対象とするように所定のバインド設定によって確定される。ここで、予め所定のバインド設定しておけば、所定の対象は、タッチスクリーンの任意の位置に表示することができる。しかし、第1のタッチボタンに対応する位置範囲内に限定されることはない。
つまり、第2の装置は第1装置で検出した対象に対し、その対象への操作を検出するものである。
図5を例とすると、物体Fが操作対象であり、Fは第2操作により操作される。これを第2装置が検出する。第2装置2は第2の操作に応じて操作対象を第2の操作に対応する対象への操作を実行する。すなわち、操作対象は、第2の操作に対応する操作を実行する。
例えば、第2の操作が“移動”である場合には、物体Fは“移動”の操作を実行し、第2の操作が“他の対象と交代”である場合には、物体Fは他の操作対象と“交代”という操作を実行する。
第1の操作が第2の操作にシーケンシャル(連続的)に少なくとも部分的に重なる。
具体的には、第1の操作及び第2の操作は、同時に実行され、又は予め設定された閾値(時間)内で実行され、第1の操作と第2の操作とがシーケンシャルに少なくとも部分的に重なるときに実行される。操作は、第1の操作、第2の操作、第1の操作と第2の操作の結合などの一つ又は多く操作と同じ又は異なる。
例えば、第2の操作は、第1の操作で定めた操作対象を、予め設定された範囲内で移動させることである場合、第1の操作と第2の操作とがシーケンシャルに少なくとも部分的に重なる時に相応の操作が第1の操作に対応する操作対象を他の予め設定された範囲内に移動させることである。
つまり、第2の操作は、第1の操作で定めた操作対象を、予め設定された時間内に検出した場合に、移動させることである場合に、第1の操作と第2の操作とがシーケンシャルに少なくとも部分的に重なったときに、操作対象を予め設定された他の範囲内に移動させる。
第1の操作は、優先的には、前記操作対象の移動を制御することに用いられる。
具体的には、第1の操作は、操作対象を定めるだけでなく、操作対象を任意の角度で、予め定められた範囲内を移動できる。
また、タッチスクリーン内の任意の範囲又は第1のタッチボタンに対応する範囲内を移動させることができる。しかし、それらに限定されず、所定の範囲内に移動することができる。
例えば、図5の示すように、第1の操作は、まず操作対象をFとし、次いで長く押してドラッグする操作によって対象Fがスクリーン内の360度内で移動するように制御する。
ここで、本分野の技術者には、第1の操作及び第2の操作が、いずれも操作対象の移動を制御することができ、第1の操作が、操作対象の移動を制御するならば、第2のタッチボタン及び第2の操作は移動という操作から解放することができるので、第2の操作に複雑な実行機能を与えることができるということを理解してもらいたい。
さらに、第2の操作は、操作対象への操作の操作作用領域を調整することを含み、第2の装置2は操作対象の現在の位置の操作作用領域に基づいて操作対象に操作を実行する。
具体的には、第2の操作は操作作用領域を調整することも含む。例えば、異なるサイズ又は異なる形状(例えば、扇形、円形、長方形又は他の形状)の各種の領域に設定するように、第2の操作はさらに対象への操作の操作作用領域を調整する。例えば、図5はGを半径とする他の形状の操作作用領域を示し、図6はJを半径とする円形の操作作用領域を示し、図7はKを半径とする扇形操作作用領域を示す。
次いで、第2の装置2は、操作対象の操作作用領域及び操作対象の現在の位置に基づいて対象への操作の実行範囲を確定し、次いで、操作領域の範囲内で操作対象への操作を実行する。
例えば、操作作用領域の半径がrである円で、かつ操作対象の現在の位置がxである場合、操作対象の現在の位置の操作作用領域は、操作対象の現在位置であるxを円の中心として、rを半径とする円となる。
又は、操作対象の現在の位置がyである場合、操作対象の現在の位置の操作作用領域は、yを円の中心としてrを半径とする円である。
次に、操作対象への操作は、操作対象を操作してターゲットオブジェクト(目標対象)とのインタラクションを実行することである場合、つまり、操作対象を交代させたい場合に、操作対象への操作の範囲が操作作用領域内にあれば、相応の操作(交代)を実行し、そうでなければ、相応の操作を実行しない。
さらに、第2の装置2は、現在の位置の操作作用領域内の操作作用ターゲットに基づいて、操作対象に応じて対象への操作を実行する。
具体的には、操作作用領域の半径がrである円で、かつ操作対象の現在の位置がxである場合に、操作対象の現在の位置の操作作用領域のxを円の中心として、rを半径とする円である。
第2の装置2が該領域内の全てのターゲットオブジェクト情報を取得して操作作用ターゲットとする。
次いで、第2の装置2は操作作用ターゲットで操作対象の対象への操作を実行する。
例えば、操作対象が移動のターゲットである場合に、操作作用領域はターゲットを円の中心とする円であり、この操作作用領域が駐車場に移動する場合に操作作用ターゲットは駐車場内の全ての車両であり、次いで、操作対象への操作は操作作用ターゲットに関する説明情報を得ることであり、それにより、第2の装置2は全ての車の説明情報を取得する。
ここで、操作対象には、各交互情報も含む。すなわち、操作対象及び操作作用ターゲットの情報である。
例えば、ゲームのキャラクターで操作作用ターゲットが攻撃対象である場合にインタラクション(操作対象を交代し)、各々が「対話」、「攻撃」、「拾う」などの各操作を選択することを含む。
しかしながら、それらのコマンドには限定されず、対象への操作が操作対象と操作作用ターゲットとのインタラクションを含む。
さらに、第2の操作は、対象への操作の操作作用ターゲットを調整することを含む。
具体的には、定義済みの操作論理に基づいて、第2の操作が定義済みの一つ又は複数の対象への操作の操作作用ターゲットの論理と一致するときに、第2の操作は、対象への操作の操作作用ターゲットを調整することに用いられる。
定義済みの方法又は他の方法に基づいて対象への操作の操作作用ターゲットを確定した後に、ユーザが定義済みの一つ又は複数の操作順序を実行すれば、設定された操作順序の操作論理に応じて、対象への操作の操作作用ターゲットを調整する。
例えば、ユーザがタッチスクリーンの空き領域をクリックして長く押して上にスライドするという第2の操作を実行すれば、第2の操作の調整する対象への操作の操作作用ターゲットが元の操作作用ターゲットと異なることを示す。
つまり、元のターゲットを調整して、元のターゲットとは異なる他のターゲットに調整する。
ここで、本分野の技術者には、操作順序が例示のみで本発明に対する限定ではなく、他の操作順序が本発明に適する場合、対象への操作の操作作用ターゲットを調整するに用いられることができるということを理解してもらいたい。
さらに、タッチ操作装置は、第5の装置(示していない)を含む。第5装置は、操作作用領域を調整する過程において、操作対象の現在の位置を表示した上で調整後の操作作用領域を同時に表示する。
具体的には、第5の装置は、スクリーンで限界又は範囲円を表示する方法によって作用領域を調整する過程で、操作対象の現在の位置を表示した上で、同時に調整後の操作作用領域を表示する。操作対象が操作作用領域で操作される場合には、操作が実行され、そうでなければ、第5の装置は対応する提示色又はマーク提示などの情報を表示することによって操作禁止を提示する。
タッチ操作装置はさらに、第6の装置(表示していない)を含む。この第6の装置は、対象への操作を実行した後に、対象への操作に対応する後続の操作を実行する。
具体的には、対象への操作を実行した後、第6の装置は、デフォルト設定、ユーザの選択などの一種又は多種の条件で実行後の対象への操作に応じて対象への操作に対応する後続の操作を実行する。
後続の操作は、対象への操作を実行した後の所定の閾値内(時間)での実行を設定することができる。実行後の対象への操作が、ターゲット対象の紹介を取得することである場合、後続の操作はターゲット対象とのインタラクション(交互)(例えば、対話)を行うことである。
例えば、閾値内(予定時間内)に、ユーザが選択又は確定等の操作をした場合、後続の操作を実行し、そうでなければ、閾値(予定時間)を超えてユーザが選択又は確定等の操作をしない場合に、後続の操作を停止する。
本発明の応用として、以下が考えられるがそれらに限定されない。
1)ユーザの代わりに相応の操作を実行するagent(エージェント)に基づくスケジュールアシスタント及び旅行アシスタントのような人工知能分野のインテリジェントエージェントである。例えば、第1のタッチボタンでagentを特定の区域に移動し、かつ第2のタッチボタンでagentによってホテルの検索及び予約、他のユーザとの面談及び予約等の操作を実行する。
2)歩行者、公共交通の乗客、運転者などの異なるagentに対して相応の操作の実行をサポートし、ナビゲーションアプリケーションを含む地理情報システムGISである。例えば、第1のタッチボタンでagentを特定の区域に移動し、かつ第2のタッチボタンでagentによって路線の検索及びナビゲーション、友達の検索及びデータなどの操作を実行する。
3)ゲームの設計及びアプリケーションである。例えば、従来のタッチスクリーンに基づく操作の中に、大部分の操作ターゲットの動作実行方向は該ターゲットの向きの方向と一致しなければならない。それにより該類の対象に対するデザインを制限することに比べて、本発明は、ユーザキャラクター設計とユーザ操作設計に同時進行設計を行うことができ、設計の効率を向上させるだけでなく、設計の複雑度を簡略化し、設計のロバスト性を向上させる。
図2は、本発明の実施例に基づくマルチタッチ端末のための、第1の装置1’、第2の装置2’、第3の装置3’を含むタッチ制御装置の説明図である。具体的には、第3の装置3’は、ユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出し、そうであれば、第1のタッチボタン又は第2のタッチボタンを表示することによってユーザの操作に用いられ、第1の装置1’は、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得し、第2の装置2’は第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行する。
そのうち、第1の装置1’、第2の装置2’は、図1に示す装置と同様であるため、説明は省略する。
上記各装置が連続的に動作する。ここで、“連続”とは、各装置が、タッチ制御装置にユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出することを停止させるまで、それぞれ設定され又はリアルタイム調整された動作モードでターゲット制御領域に触れるか否かに対する検出、第1の操作及び第2の操作の取得、操作の実行などを行うことを本分野の技術者に理解してもらいたい。
第3の装置3’は、ユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出する。そして、触れたことを検出したら、第1のタッチボタン又は第2のタッチボタンを表示することによってユーザの操作に用いられる。
具体的には、第3の装置3’は、ユーザがターゲット制御領域に触れるか否かを検出する。ターゲット制御領域は予め定めた固定区域であり、応用によって変化する領域でもある。タッチスクリーンの現在の応用シーンに基づいて変化する領域でもある。
ユーザのタッチ操作がターゲット制御領域にマッチングする場合、第3の装置3’は、マッチングされた領域によって第1のタッチボタン又は第2のタッチボタンを表示する。
第1のタッチボタンに対応するターゲット領域に触れると、第1のタッチボタンを表示し、又は第1のタッチボタンと第2のタッチボタンを同時に表示する。そしてユーザがこのボタンを操作することができる。
ここで、ターゲット制御領域は、第1のタッチボタン及び/又は第2のタッチボタンに対応する領域は、重ねてもよいし重ならなくてもよい。
マルチタッチ端末はさらに、第4の装置(表示していない)を含む。第4の装置は、ユーザがタッチスクリーンのターゲット領域に触れることを停止する時(触れない時)に第1のタッチボタン又は第2のタッチボタンを隠す。
具体的には、ユーザがタッチスクリーンのターゲット領域に触れることを停止する時、即ちユーザがタッチスクリーンに触れない時、又はユーザのタッチ操作がターゲット制御領域にマッチングしていない時、第4の装置は、ターゲット制御領域に対応するタッチボタンを隠す。
例えば、第3の装置が、第1のタッチボタン及び第2のタッチボタンを表示した場合、ユーザが第1のタッチボタンに対応するターゲット制御領域に触れないと、第4の装置が第1のタッチボタンを隠す。同様に、ユーザが第2のタッチボタンに対応するターゲット制御領域に触れないと、第4の装置が第2のタッチボタンを隠す。
図3は、本発明の他の方面によるマルチタッチ端末のためのタッチ制御のブロック図であり、具体的には、ステップs1において、タッチ制御装置はユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作(情報)を取得し、ステップs2において、タッチ制御装置は第1の操作に対応する操作対象によって第2の操作に対応する対象への操作を実行する。
上記各ステップの間が連続的に動作し、ここで、“連続”とは、タッチ制御装置にユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得することを停止させるまで、各ステップが、それぞれ設定され又はリアルタイム調整された動作モードで第1の操作及び第2の操作の取得及び実行を行うことを本分野の技術者に理解してもらいたい。
ステップs1において、タッチ制御装置はユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作(情報)を取得する。
具体的には、ステップs1において、タッチ制御装置はマルチタッチ端末のタッチスクリーンのタッチ検出部によってユーザのタッチスクリーンでの操作(情報)を取得し、そして、ステップs1において、タッチ制御装置は操作の位置とタッチスクリーンの第1のタッチボタンの位置をマッチングし、第1のタッチボタンの位置にマッチングする操作を第1の操作とし、同様に、ステップs1において、タッチ制御装置は操作の位置とタッチスクリーンの第2のタッチボタンの位置をマッチングし、第2のタッチボタンの位置にマッチングする操作を第1の操作とする。操作には、クリックすること、ダブルクリックすること、長く押すこと、押した後に解放すること、スライドすること(各方向が含まれるがそれらに限定されない)などを含むがそれらに限定されない。
図5は本発明の実施例によるマルチタッチ端末のためのタッチスクリーンの説明図を示す。
図5に示すように、ボタンBは第1のタッチボタンであり、ボタンEは第2のタッチボタンである。ユーザがボタンB及びボタンEでタッチ操作をする時、ステップs1において、タッチ制御装置は、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得する。
ここで、第1のタッチボタン及び第2のタッチボタンの位置、画像などの設定情報は、デフォルト設定に応じて確定してもよく、ユーザの他の調整設定に応じて確定してもよく、さらにユーザの特定の操作に応じて確定してもよい。
例えば、ユーザが、タッチスクリーンのある位置でダブルクリックすると、その位置を第2のタッチボタンの中心位置として確定し、中心位置に対応する範囲がデフォルト設定(例えば、所定の半径範囲)に応じて確定し、又はユーザの他の調整設定に応じて確定することができる。本分野の技術者は位置にタッチボタンの中心位置及びそれに対応する範囲領域を含むことを理解してもらいたい。
特徴として、第1のタッチボタン及び第2のタッチボタンのタッチスクリーンでの位置と大きさの設定は、少なくとも、タッチスクリーンが大きい場合には、第1のタッチボタン及び第2のタッチボタンに対応する範囲は大きく、
タッチスクリーンが小さい場合には、第1のタッチボタン及び第2のタッチボタンに対応する範囲も小さく、
タッチスクリーンのアスペクト比が4:3である場合には、その比に対応してタッチボタンの位置及び大きさを設定し、タッチスクリーンのアスペクト比が16:9(ワイドスクリーン)である場合には、ワイドスクリーンに対応する。
その他、タッチスクリーンのサイズ属性と、ユーザが端末を縦方向から横方向に変換する場合にタッチボタンの配置がスクリーンの横方向及び縦方向の調整に対応するように、マルチタッチ端末の保持状態(片手での保持、両手での保持、横及び縦方向の保持など)の情報を含む。
マルチタッチ端末の状態属性と、現在のページに表示されている内容に影響しないようにタッチボタンに対応するアプリケーションの現在のページ内容でのタッチボタンの位置を調整し、又は、現在タッチスクリーンで他のアプリケーションが存在する場合には、他のアプリケーションの操作に影響しないようにタッチボタンの位置と該アプリケーションを分割して配置する。タッチスクリーンの現在の応用シーン情報とタッチボタンの位置が影響しないように調整する。
ステップs2において、タッチ制御装置は第1の操作に対応する操作対象によって第2の操作に対応する対象への操作を実行する。
具体的には、タッチ制御装置は、第1の操作に応じて第1のタッチボタンの設定に基づいて第1の操作に対応する操作対象を確定する。例えば、第1のタッチボタンに対応する位置範囲内の対象を操作対象とし、又は、第1のタッチボタンに触れるたびに第1のタッチボタンにバインドされたある定義済みの対象を操作対象とするように、定義済みのバインドに応じて設定する。ここで、定義済みのバインド設定を採用すれば、定義済みの対象が第1のタッチボタンに対応する位置範囲内に限定されずにタッチスクリーンの任意の位置に存在することができる。
図5を例とすると、物体Fは操作対象であり、次いでステップs2において、タッチ制御装置は第2の操作に応じて操作対象で第2の操作に対応する対象への操作を実行する。すなわち、操作対象Fに対して第2の操作に対応する操作の内容を実行する。
例えば、第2の操作が“移動”である場合に操作対象Fに“移動”の操作を実行し、第2の操作が“他の対象とのインタラクション”である場合には物体Fに“インタラクション”の操作を実行させる。
第1の操作が第2の操作にシーケンシャルに少なくとも部分的に重なる。
具体的には、第1の操作及び第2の操作は、同時に実行され、又は予め設定された閾値時間内に実行されるように設定することができ、第1の操作と第2の操作とがシーケンシャルに少なくとも部分的に重なる時に実行される操作が、第1の操作、第2の操作、第1の操作と第2の操作の結合などの一つ又は多く操作と同じ又は異なる操作でよい。
例えば、第2の操作は、第1の操作に対応する操作対象をある予め設定された範囲内で移動することである場合、第1の操作と第2の操作とがシーケンシャルに少なくとも部分的に重なる時に相応の操作が第1の操作に対応する操作対象を他の予め設定された範囲内で移動することである。
優先的に、第1の操作は、前記操作対象の移動を制御することに用いられる。
具体的に、第1の操作は、操作対象を確定するだけでなく、さらに、操作対象を任意の角度でタッチスクリーン内の任意の範囲又は第1のタッチボタンに対応する範囲を含むがそれらに限定されない所定の範囲内に移動することができる。
例えば、図5の示すように、第1の操作は、まず操作対象をFとし、次いで長く押してドラッグすることなどの操作によって対象Fがスクリーン内の360度内で移動するように制御する。
ここで、本分野の技術者には、第1の操作及び第2の操作が、いずれも操作対象の移動を制御することができ、第1の操作が、操作対象の移動を制御するならば、第2のタッチボタン及び第2の操作は移動という操作から解放することができるので、第2の操作に複雑な実行機能を与えることができるということを理解してもらいたい。
さらに優先的には、第2の操作が対象への操作の操作作用領域を調整することを含み、ステップs2において、タッチ制御装置が操作対象の現在の位置に基づく操作作用領域で操作対象によって対象への操作を実行する。
具体的には、操作作用領域を異なるサイズ又は異なる形状(例えば、扇形、円形、長方形又は他の形状)の各種の領域に設定するように、第2の操作はさらに対象への操作の操作作用領域を調整することを含む。ここで、例えば、図5はGを半径とする操作作用領域を示し、図6はJを半径とする操作作用領域を示し、図7はKを半径とする操作作用領域を示す。
次いで、ステップs2において、タッチ制御装置は、操作対象の操作作用領域及び操作対象の現在の位置に基づいて対象への操作の実行範囲を確定し、次いで、操作領域の範囲内で操作対象によって対象への操作を実行する。例えば、操作作用領域が半径がrである円でかつ操作対象の現在の位置がxである場合、操作対象の現在の位置の操作作用領域は、xを円心としてrを半径とする円であり、又は操作対象の現在の位置がyである場合、操作対象の現在の位置の操作作用領域は、yを円心としてrを半径とする円であり、次いで対象への操作が操作対象を操作して他のターゲットオブジェクトとのインタラクションを実行することである場合、対象への操作の範囲が操作作用領域内にあれば、相応の操作を実行し、そうでなければ、相応の操作を実行しない。
さらに優先的に、ステップs2において、タッチ制御装置は、現在の位置に基づく操作作用領域内の操作作用ターゲットに対して、操作対象に応じて対象への操作を実行する。
具体的に、操作作用領域の半径がrである円でかつ操作対象の現在の位置がxである場合、操作対象の現在の位置の操作作用領域がxを円の中心としてrを半径とする円であり、第2の装置2が該領域内の全てのターゲットオブジェクトを取得して操作作用ターゲットとするように、ステップs2において、タッチ制御装置は、現在の位置の操作作用領域を取得して操作作用領域に対応する操作作用ターゲットを確定することができる。
次いで、ステップs2において、タッチ制御装置は操作作用ターゲットに操作対象の対象への操作を実行する。例えば、操作対象が移動のターゲットである場合に操作作用領域が移動のターゲットを円心とする円であり、この操作作用領域が駐車場に移動する場合に操作作用ターゲットが駐車場内の全ての車であり、次いで、対象への操作が操作作用ターゲットの説明情報であり、それにより、第2の装置2は全ての車の説明情報を取得する。
ここで、本分野の技術者には、操作対象がゲームのキャラクターで操作作用ターゲットが攻撃対象である場合にインタラクションが対話、攻撃、拾いなどの操作を含むがそれらに限定されないように、対象への操作が操作対象と操作作用ターゲットとのインタラクションを含むことを理解してもらいたい。
さらに優先的に、第2の操作は、対象への操作の操作作用ターゲットを調整することを含む。
具体的には、定義済みの操作論理に基づいて、第2の操作が定義済みの一つ又は複数の対象への操作の操作作用ターゲットの論理と一致する時、第2の操作は、対象への操作の操作作用ターゲットを調整することに用いられる。
例えば、定義済みの方法又は他の方法に基づいて対象への操作の操作作用ターゲットを確定した後、ユーザが定義済みの一つ又は複数の操作順序を実行すれば、操作順序の設定された操作論理に応じて対象への操作の操作作用ターゲットを調整し、ユーザがタッチスクリーンの空き領域をクリックして長く押して上にスライドするという第2の操作を実行すれば、第2の操作の調整する対象への操作の操作作用ターゲットが元の操作作用ターゲットと異なることを示す。ここで、本分野の技術者には、操作順序が例示のみで本発明に対する限定ではなく、他の操作順序が本発明に適する場合、対象への操作の操作作用ターゲットを調整するに用いられることができるということを理解してもらいたい。
さらに優先的に、タッチ操作装置は、操作作用領域を調整する過程に操作対象の現在の位置に基づいて同期に調整後の操作作用領域を表示するステップs5(示していない)を含む。
具体的に、ステップs5において、タッチ制御装置は、スクリーンで限界又は範囲円を表示する方法によって作用領域を調整する過程に操作対象の現在の位置を表示した上で同時に調整後の操作作用領域を表示する。操作対象が操作作用領域で操作される場合に操作が実行され、そうでなければ、ステップs5において、タッチ制御装置は対応する提示色又はマーク提示などの情報を表示することによって操作禁止を提示する。
優先的に、方法はさらに、タッチ操作装置が対象への操作を実行した後に対象への操作に対応する後続の操作を実行するステップs6(表示していない)を含む。
具体的には、対象への操作を実行した後、ステップs6において、タッチ制御装置は、デフォルト設定、ユーザの選択などの一種又は多種の条件で実行後の対象への操作に応じて対象への操作対応する後続の操作を実行する。例えば、実行後の対象への操作がターゲット対象の紹介を取得することである場合、後続の操作はターゲット対象とのインタラクション(例えば、対話)を行うことである。優先的に、閾値(時間)内でユーザが選択又は確定等の操作をする場合に後続の操作を実行し、そうでなければ、閾値を超えてユーザが選択又は確定等の操作をしない場合に後続の操作を停止するように、後続の操作は、対象への操作を実行した後の所定の時間閾値内での実行に設定されることができる。
本分野の技術者には、本発明に適用する応用シーンが以下を含むがそれらに限定されないことを理解してもらいたい。
1)ユーザの代わりに相応の操作を実行するagent(エージェント)に基づくスケジュールアシスタント及び旅行アシスタントのような人工知能分野のインテリジェントエージェントである。例えば、第1のタッチボタンでagentを特定の区域に移動し、かつ第2のタッチボタンでagentによってホテルの検索及び予約、他のユーザとの面談及び予約等の操作を実行する。
2)歩行者、公共交通の乗客、運転者などの異なるagentに対して相応の操作の実行をサポートし、ナビゲーションアプリケーションを含む地理情報システムGISである。例えば、第1のタッチボタンでagentを特定の区域に移動し、かつ第2のタッチボタンでagentによって路線の検索及びナビゲーション、友達の検査及びデータなどの操作を実行する。
3)ゲームの設計及びアプリケーションである。例えば、従来のタッチスクリーンに基づく操作の中に、大部分の操作ターゲットの動作実行方向は該ターゲットの向け方向と一致しなければならない。それにより該類の対象に対するデザインに制限することに比べて、本発明は、ユーザキャラクター設計とユーザ操作設計に同時進行設計を行うことができ、設計の効率を向上させるだけでなく、設計の複雑度を簡略化し、設計のロバスト性を向上させる。
図4は本発明の最適な実施例によるマルチタッチ端末のためのタッチ制御のブロック図を示す。具体的に、ステップs3’において、タッチ制御装置は、ユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出し、そうであれば、第1のタッチボタン又は第2のタッチボタンを表示することによってユーザの操作に用いられ、ステップs1’において、タッチ制御装置は、ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得し、ステップs2’において、タッチ制御装置は第1の操作に対応する操作対象に応じて第2の操作に対応する対象への操作を実行する。
そのうち、ステップs1’、 ステップs2’は、図3に示すステップと同様であるため、説明は省略する。
上記各ステップの間が連続的に動作し、ここで、“連続”とは、タッチ制御装置にユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出することを停止させるまで、各ステップがそれぞれ設定され又はリアルタイム調整された動作モードでターゲット制御領域に触れるか否かに対する検出、第1の操作及び第2の操作の取得、操作の実行などを行うことを本分野の技術者に理解してもらいたい。
ステップs3’において、タッチ制御装置は、ユーザがタッチスクリーンのターゲット制御領域に触れるか否かを検出し、そうであれば、第1のタッチボタン又は第2のタッチボタンを表示することによってユーザの操作に用いられる。
具体的には、ステップs3’において、タッチ制御装置は、マルチタッチ端末のタッチスクリーンのタッチ検出部に応じてユーザがタッチスクリーンの固定的な領域でもあり、タッチスクリーンの現在の応用シーンに基づいて変化する領域でもあるターゲット制御領域に触れるか否かを検出する。
第1のタッチボタンに対応するターゲット領域に触れる時に第1のタッチボタンを表示し、又は同時に第1のタッチボタンと第2のタッチボタンを表示することによってユーザの操作に用いられるように、ユーザのタッチ操作がターゲット制御領域にマッチングする場合ステップs3’において、タッチ制御装置は、マッチングされた領域によって第1のタッチボタン又は第2のタッチボタンを表示する。ここで、ターゲット制御領域は、第1のタッチボタン及び/又は第2のタッチボタンに対応する領域に重なってもよくて重ならなくてもよい。
優先的に、方法はさらに、ユーザがタッチスクリーンのターゲット領域に触れることを停止する時にタッチ制御装置が第1のタッチボタン又は第2のタッチボタンを隠すというステップs4’(表示していない)を含む。
具体的に、ステップs3’において、タッチ制御装置が第1のタッチボタン及び第2のタッチボタンを表示した場合、ユーザが第1のタッチボタンに対応するターゲット制御領域に触れないと、ステップs4’において、タッチ制御装置が第1のタッチボタンを隠し、同様に、ユーザが第2のタッチボタンに対応するターゲット制御領域に触れないと、ステップs4’において、タッチ制御装置が第2のタッチボタンを隠すように、ユーザがタッチスクリーンのターゲット領域に触れることを停止する時、即ちユーザがタッチスクリーンに触れることを停止する時、又はユーザのタッチ操作がターゲット制御領域にマッチングしていない時、ステップs4’において、タッチ制御装置は、ターゲット制御領域に対応するタッチボタンを隠す。
本分野の技術者には、本発明は、前述した例示的実施例の詳細に限定されないもので、かつ本発明の主旨又は基本的な特徴を逸脱しないことを前提に、他の具体的な状態で実現される。従って、どの方面から考えても、実施例を例示的かつ非制限的なものと解釈し、本発明の範囲は、前述の説明でなく、以上の請求項に従って定義されるべきであり、それ故、請求項の実施例の意味及び範囲内の全ての変化を本発明に含まれることを目的である。請求項のいかなる添付図面及びマークを関する請求項に限定されるものと解釈すべきではない。また、“含む”という言葉が他のユニット又はステップにも適用し、単数又は複数に限定されないことは明らかであろう。装置の請求項で記載された複数のユニット又は装置は一つのユニット又は装置によってソフトウェア又はハードウェアで実現される。第1、第2などの言葉は名称を代表し、いかなる順序を代表しない。

Claims (22)

  1. マルチタッチ端末のためのタッチ制御方法であって、
    a ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得することと、
    b 前記第1の操作に対応する操作対象によって前記第2の操作に対応する対象への操作を実行することと、
    を含む制御方法。
  2. 前記ユーザが前記タッチスクリーンのターゲット制御領域に触れるか否かを検出し、そうであれば、前記第1のタッチボタン又は前記第2のタッチボタンを表示することにより、前記ユーザの操作に用いられることをさらに含む、請求項1に記載の制御方法。
  3. 前記ユーザが前記タッチスクリーンのターゲット制御領域に触れることを停止する場合に前記第1のタッチボタン又は前記第2のタッチボタンを隠すことをさらに含む、請求項1又は請求項2に記載の制御方法。
  4. 前記第1の操作は前記操作対象の移動を制御することに用いられる、請求項1乃至請求項3のいずれか一項に記載の制御方法。
  5. 前記第2の操作は前記対象への操作の操作作用領域を調整することを含み、
    前記ステップbは、前記操作対象の現在の位置の前記操作作用領域に基づいて前記操作対象に応じて前記対象への操作を実行することを含む、請求項4に記載の制御方法。
  6. 前記ステップbは前記現在の位置に基づく前記操作作用領域内の操作作用ターゲットに対して、前記操作対象に応じて前記対象への操作を実行する、請求項5に記載の制御方法。
  7. 前記第2の操作は前記対象への操作の操作作用ターゲットを調整することを含む、請求項6に記載の制御方法。
  8. 前記操作作用領域を調整する過程に、前記操作対象の現在の位置に基づいて、調整後の前記操作作用領域を同期に表示することをさらに含む、請求項5に記載の制御方法。
  9. 前記第1の操作は前記第2の操作にシーケンシャルに少なくとも部分的に重なる、請求項1乃至請求項8のいずれか一項に記載の制御方法。
  10. 前記対象への操作の実行後に、前記対象への操作に対応する後続の操作を実行することをさらに含む、請求項1乃至請求項9のいずれか一項に記載の制御方法。
  11. 前記第1のタッチボタン及び第2のタッチボタンの前記タッチスクリーンでの位置は、
    前記タッチスクリーンのサイズ属性と、
    ユーザによる前記マルチタッチ端末の保持状態属性と、
    前記タッチスクリーンの現在の応用シーン情報と、のうちの少なくとも一つにマッチングする、請求項1乃至請求項10のいずれか一項に記載の制御方法。
  12. マルチタッチ端末のためのタッチ制御装置であって、
    ユーザがマルチタッチ端末のタッチスクリーンで第1のタッチボタンに対する第1の操作及び第2のタッチボタンに対する第2の操作を取得する第1の装置と、
    前記第1の操作に対応する操作対象によって前記第2の操作に対応する対象への操作を実行する第2の装置と、を含む制御装置。
  13. 前記ユーザが前記タッチスクリーンのターゲット制御領域に触れるか否かを検出し、そうであれば、前記第1のタッチボタン又は前記第2のタッチボタンを表示することにより、前記ユーザの操作に用いられる第3の装置をさらに含む、請求項12に記載の制御装置。
  14. 前記ユーザが前記タッチスクリーンのターゲット制御領域に触れることを停止する場合に前記第1のタッチボタン又は前記第2のタッチボタンを隠す第4の装置をさらに含む、請求項12又は請求項13に記載の制御装置。
  15. 前記第1の操作は前記操作対象の移動を制御することに用いられる、請求項12乃至請求項14のいずれか一項に記載の制御装置。
  16. 前記第2の操作は前記対象への操作の操作作用領域を調整することを含み、
    前記第2の装置は、前記操作対象の現在の位置の前記操作作用領域に基づいて前記操作対象に応じて前記対象への操作を実行することに用いられる、請求項15に記載の制御装置。
  17. 前記第2の装置は前記現在の位置に基づく前記操作作用領域内の操作作用ターゲットに対して、前記操作対象に応じて前記対象への操作を実行することに用いられる、請求項16に記載の制御装置。
  18. 前記第2の操作は前記対象への操作の操作作用ターゲットを調整することを含む、請求項17に記載の制御装置。
  19. 前記操作作用領域を調整する過程に、前記操作対象の現在の位置に基づいて、調整後の前記操作作用領域を同期に表示することに用いられる第5の装置をさらに含む、請求項16に記載の制御装置。
  20. 前記第1の操作は前記第2の操作にシーケンシャルに少なくとも部分的に重なる、請求項12乃至請求項19のいずれか一項に記載の制御装置。
  21. 前記対象への操作の実行後に、前記対象への操作に対応する後続の操作を実行することに用いられる第6の装置をさらに含む、請求項12乃至請求項20のいずれか一項に記載の制御装置。
  22. 前記第1のタッチボタン及び第2のタッチボタンの前記タッチスクリーンでの位置は、
    前記タッチスクリーンのサイズ属性と、
    ユーザによる前記マルチタッチ端末の保持状態属性と、
    前記タッチスクリーンの現在の応用シーン情報と、のうちの少なくとも一つにマッチングする、請求項12乃至請求項21のいずれか一項に記載の制御装置。
JP2014229328A 2014-07-25 2014-11-11 マルチタッチ端末のためのタッチ制御方法及び装置 Expired - Fee Related JP6033824B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201410357414.XA CN104076986B (zh) 2014-07-25 2014-07-25 一种用于多点触摸终端的触摸控制方法与设备
CNCN201410357414.X 2014-07-25

Publications (2)

Publication Number Publication Date
JP2016031755A true JP2016031755A (ja) 2016-03-07
JP6033824B2 JP6033824B2 (ja) 2016-11-30

Family

ID=51598292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014229328A Expired - Fee Related JP6033824B2 (ja) 2014-07-25 2014-11-11 マルチタッチ端末のためのタッチ制御方法及び装置

Country Status (11)

Country Link
US (1) US10503323B2 (ja)
EP (1) EP2977881A1 (ja)
JP (1) JP6033824B2 (ja)
KR (1) KR101739782B1 (ja)
CN (1) CN104076986B (ja)
AU (3) AU2014277695A1 (ja)
CA (1) CA2878801C (ja)
HK (1) HK1197466A1 (ja)
RU (1) RU2630392C2 (ja)
TW (1) TWI571792B (ja)
WO (1) WO2016011568A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020504851A (ja) * 2017-03-27 2020-02-13 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド ゲーム画面の表示制御方法、装置、記憶媒体及び電子機器
CN112578981A (zh) * 2019-09-29 2021-03-30 华为技术有限公司 具有柔性屏幕的电子设备的控制方法及电子设备
JP7104473B2 (ja) 2017-10-31 2022-07-21 シャープ株式会社 エネルギー管理システム、電力変換制御装置、および電力変換制御方法

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150193096A1 (en) * 2014-01-07 2015-07-09 Samsung Electronics Co., Ltd. Electronic device and method for operating the electronic device
CN104635925A (zh) * 2015-01-05 2015-05-20 徐杨 一种滑动手势锁定目标的方法及装置
CN104636063B (zh) * 2015-01-22 2018-10-12 杭州电魂网络科技股份有限公司 电子屏幕虚拟摇杆的构建方法
CN104881230A (zh) * 2015-02-16 2015-09-02 上海逗屋网络科技有限公司 在触控终端进行人机交互的方法和设备
CN104699399A (zh) * 2015-02-16 2015-06-10 上海逗屋网络科技有限公司 一种用于在触摸终端上确定目标操作对象的方法与设备
CN104965655A (zh) * 2015-06-15 2015-10-07 北京极品无限科技发展有限责任公司 一种触摸屏游戏控制方法
CN104898953B (zh) * 2015-06-16 2016-10-26 深圳市腾讯计算机***有限公司 基于触控屏的操控方法和装置
CN105260100B (zh) * 2015-09-29 2017-05-17 腾讯科技(深圳)有限公司 一种信息处理方法和终端
CN105148517B (zh) * 2015-09-29 2017-08-15 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN105335065A (zh) * 2015-10-10 2016-02-17 腾讯科技(深圳)有限公司 一种信息处理方法、终端及计算机存储介质
CN108355348B (zh) 2015-10-10 2021-01-26 腾讯科技(成都)有限公司 信息处理方法、终端及计算机存储介质
CN105320410B (zh) * 2015-12-01 2019-03-15 成都龙渊网络科技有限公司 一种用于在触摸终端上进行触摸操控的方法与设备
CN105426052A (zh) * 2015-12-01 2016-03-23 成都龙渊网络科技有限公司 用于在触摸终端上管理操作工具的方法与设备
CN105582670B (zh) * 2015-12-17 2019-04-30 网易(杭州)网络有限公司 瞄准射击控制方法及装置
CN105373336B (zh) * 2015-12-17 2018-06-12 网易(杭州)网络有限公司 信息面板呈现控制方法及装置
CN105597315B (zh) * 2015-12-17 2019-05-10 网易(杭州)网络有限公司 虚拟对象投掷控制方法及装置
CN105653187A (zh) * 2015-12-24 2016-06-08 杭州勺子网络科技有限公司 一种用于多点触摸终端的触摸控制方法
CN105930079A (zh) * 2016-04-15 2016-09-07 上海逗屋网络科技有限公司 用于在多点触摸终端上执行用户操作的方法及设备
CN107728870B (zh) * 2016-10-17 2020-03-24 西安艾润物联网技术服务有限责任公司 停车场管理***及信息显示控制方法
CN106527924A (zh) * 2016-10-20 2017-03-22 北京乐动卓越科技有限公司 一种第三人称视角3d动作***的角色控制方法及装置
CN106422329A (zh) * 2016-11-01 2017-02-22 网易(杭州)网络有限公司 游戏操控方法和装置
CN106512406A (zh) * 2016-11-01 2017-03-22 网易(杭州)网络有限公司 游戏操控方法和装置
JP6143934B1 (ja) * 2016-11-10 2017-06-07 株式会社Cygames 情報処理プログラム、情報処理方法、及び情報処理装置
CN106354418B (zh) 2016-11-16 2019-07-09 腾讯科技(深圳)有限公司 一种基于触摸屏的操控方法和装置
CN106843722B (zh) * 2016-12-26 2019-12-31 上海莉莉丝网络科技有限公司 一种用于触控终端的触摸控制方法以及触摸控制装置
CN107008003B (zh) * 2017-04-13 2020-08-14 网易(杭州)网络有限公司 信息处理方法、装置、电子设备及计算机可读存储介质
CN107126698B (zh) * 2017-04-24 2020-06-30 网易(杭州)网络有限公司 游戏虚拟对象的控制方法、装置、电子设备及可读介质
CN107895179A (zh) * 2017-11-29 2018-04-10 合肥赑歌数据科技有限公司 一种基于临近值分析的工件分类***及方法
CN108037888B (zh) * 2017-12-11 2020-11-24 网易(杭州)网络有限公司 技能控制方法、装置、电子设备及存储介质
CN108196765A (zh) * 2017-12-13 2018-06-22 网易(杭州)网络有限公司 显示控制方法、电子设备及存储介质
CN108434728B (zh) * 2018-02-09 2022-05-13 网易(杭州)网络有限公司 操作控件的适配方法、装置、电子设备及存储介质
CN109126133A (zh) * 2018-08-27 2019-01-04 广州要玩娱乐网络技术股份有限公司 游戏单位编队控制方法、装置、存储介质及移动终端

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000148A (ja) * 2009-06-16 2011-01-06 Sony Computer Entertainment Inc ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11342265A (ja) * 1998-06-01 1999-12-14 Sony Computer Entertainment Inc 記録媒体及びエンタテインメントシステム
US6762752B2 (en) * 2001-11-29 2004-07-13 N-Trig Ltd. Dual function input device and method
US6938221B2 (en) * 2001-11-30 2005-08-30 Microsoft Corporation User interface for stylus-based user input
KR100774928B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 투명아이콘이 디스플레이되는 이동단말기 및 이를 이용한투명아이콘의 디스플레이방법
EP1970799B1 (en) * 2007-03-15 2017-08-16 LG Electronics Inc. Electronic device and method of controlling mode thereof and mobile communication terminal
US20090327975A1 (en) * 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
US8342926B2 (en) * 2008-07-13 2013-01-01 Sony Computer Entertainment America Llc Game aim assist
CN102150160B (zh) * 2008-09-12 2015-05-20 皇家飞利浦电子股份有限公司 手持设备上图形用户界面中的导航
FR2936326B1 (fr) * 2008-09-22 2011-04-29 Stantum Dispositif pour le controle d'appareil electronique par la manipulation d'objets graphiques sur un ecran tactile multicontacts
CN101799727B (zh) * 2009-02-11 2012-11-07 晨星软件研发(深圳)有限公司 多点触控接口的讯号处理装置、方法及使用者接口图像的选取方法
KR101055924B1 (ko) * 2009-05-26 2011-08-09 주식회사 팬택 터치 기기에서의 유저 인터페이스 장치 및 방법
JP5127792B2 (ja) * 2009-08-18 2013-01-23 キヤノン株式会社 情報処理装置、その制御方法、プログラム及び記録媒体
CN101655771B (zh) * 2009-09-07 2011-07-20 上海合合信息科技发展有限公司 多触点字符输入方法及***
EP2360665A3 (en) * 2009-11-26 2012-03-28 LG Electronics Mobile terminal and control method thereof
CN101776968A (zh) * 2010-01-18 2010-07-14 华为终端有限公司 触控方法和装置
US9262073B2 (en) * 2010-05-20 2016-02-16 John W. Howard Touch screen with virtual joystick and methods for use therewith
US8907903B2 (en) * 2011-01-13 2014-12-09 Sony Computer Entertainment America Llc Handing control of an object from one touch input to another touch input
KR101710418B1 (ko) * 2011-12-19 2017-02-28 삼성전자주식회사 휴대 단말기의 멀티 터치 인터렉션 제공 방법 및 장치
JP5818914B2 (ja) * 2011-12-20 2015-11-18 株式会社ソニー・コンピュータエンタテインメント 操作子及び操作装置
EP2631747B1 (en) * 2012-02-24 2016-03-30 BlackBerry Limited Method and apparatus for providing a user interface on a device that indicates content operators
JP5891083B2 (ja) * 2012-03-26 2016-03-22 京セラ株式会社 装置、方法、及びプログラム
TW201343227A (zh) * 2012-04-25 2013-11-01 Fu Li Ye Internat Corp 具有觸控面板裝置媒體的互動遊戲控制方法
TWM457924U (zh) * 2012-11-23 2013-07-21 Higgstec Inc 雙感測區觸碰感測器、觸控裝置
US20140165003A1 (en) * 2012-12-12 2014-06-12 Appsense Limited Touch screen display
CN102999297B (zh) * 2012-12-19 2016-01-20 深圳怡化电脑股份有限公司 Atm设备上控制广告播放的方法及图形界面
GB201300031D0 (en) * 2013-01-02 2013-02-13 Canonical Ltd Ubuntu UX innovations
US9423268B2 (en) * 2014-06-20 2016-08-23 Apple Inc. Graphical representation generation for multiple points of interest

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000148A (ja) * 2009-06-16 2011-01-06 Sony Computer Entertainment Inc ゲーム制御プログラム、ゲーム装置、及びゲーム制御方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JPN6015048052; iPhone AC 番外レポート : Geometry Wars : Touch , 20101001 *
JPN6015048055; バーチャルパッド(アナログスティック)【cocos2d】 - (:3[kanのメモ帳] , 20131209 *
JPN6015048057; 'ルイージマンション Luigi Mansion' 電撃GBアドバンス 第1巻 第7号, 20011101, pp.12-13, メディアワークス *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020504851A (ja) * 2017-03-27 2020-02-13 ネットイーズ (ハンチョウ) ネットワーク カンパニー リミテッド ゲーム画面の表示制御方法、装置、記憶媒体及び電子機器
JP7104473B2 (ja) 2017-10-31 2022-07-21 シャープ株式会社 エネルギー管理システム、電力変換制御装置、および電力変換制御方法
CN112578981A (zh) * 2019-09-29 2021-03-30 华为技术有限公司 具有柔性屏幕的电子设备的控制方法及电子设备

Also Published As

Publication number Publication date
AU2016208316A1 (en) 2016-08-11
HK1197466A1 (zh) 2015-01-16
AU2018208753A1 (en) 2018-08-16
CN104076986B (zh) 2015-12-09
WO2016011568A1 (zh) 2016-01-28
JP6033824B2 (ja) 2016-11-30
US10503323B2 (en) 2019-12-10
CA2878801A1 (en) 2015-03-24
RU2630392C2 (ru) 2017-09-07
RU2015104255A (ru) 2016-08-27
KR20160023532A (ko) 2016-03-03
KR101739782B1 (ko) 2017-05-25
US20150049058A1 (en) 2015-02-19
CN104076986A (zh) 2014-10-01
TW201604762A (zh) 2016-02-01
TWI571792B (zh) 2017-02-21
US20170205908A9 (en) 2017-07-20
CA2878801C (en) 2019-01-15
EP2977881A1 (en) 2016-01-27
AU2014277695A1 (en) 2015-01-22

Similar Documents

Publication Publication Date Title
JP6033824B2 (ja) マルチタッチ端末のためのタッチ制御方法及び装置
US10473479B2 (en) Method for providing map information and electronic device for supporing the same
JP2014186361A5 (ja)
US20150227285A1 (en) Electronic device configured to display three dimensional (3d) virtual space and method of controlling the electronic device
WO2015102854A1 (en) Assigning virtual user interface to physical object
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
JP2011034216A (ja) 選択オブジェクト決定方法、オブジェクトの前後関係の決定方法及びその装置
JPWO2018216080A1 (ja) ゲームプログラム、情報処理装置、情報処理システム、および、ゲーム処理方法
JP2010238019A5 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2017039902A1 (en) Object selection system and method
CN107426412A (zh) 信息处理方法及装置、存储介质、电子设备
JP5767371B1 (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
JP2014229002A5 (ja)
US9372563B2 (en) Editing on a touchscreen
JP2015076051A5 (ja)
JP2014038383A5 (ja)
JP6347701B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2021005873A (ja) 3次元空間において音像を定位し、制御するための方法及びシステム
JP6548852B2 (ja) タッチ入力判定装置、タッチパネル入力装置、タッチ入力判定方法、及びタッチ入力判定プログラム
JP5815577B2 (ja) 情報共有支援装置
JP6466736B2 (ja) 情報処理装置、情報処理方法、ならびに、プログラム
JP2008077203A5 (ja)
WO2017056658A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN103902136A (zh) 一种控制电子设备的方法及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161026

R150 Certificate of patent or registration of utility model

Ref document number: 6033824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees