JP2021531519A - タッチ信号の処理方法、装置および媒体 - Google Patents

タッチ信号の処理方法、装置および媒体 Download PDF

Info

Publication number
JP2021531519A
JP2021531519A JP2019563202A JP2019563202A JP2021531519A JP 2021531519 A JP2021531519 A JP 2021531519A JP 2019563202 A JP2019563202 A JP 2019563202A JP 2019563202 A JP2019563202 A JP 2019563202A JP 2021531519 A JP2021531519 A JP 2021531519A
Authority
JP
Japan
Prior art keywords
full
touch signal
screen gesture
screen
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019563202A
Other languages
English (en)
Other versions
JP7252905B2 (ja
Inventor
立軍 劉
敏涛 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Publication of JP2021531519A publication Critical patent/JP2021531519A/ja
Application granted granted Critical
Publication of JP7252905B2 publication Critical patent/JP7252905B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/542Event management; Broadcasting; Multicasting; Notifications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本開示は、タッチ信号の処理方法、装置および媒体を開示し、この方法は、イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップと、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップと、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含む。本開示は、応用プロセスが処理ロジックに適合する完全なタッチ操作シーケンスを受信するようにするので、ジェスチャー処理プロセスとアプリケーション処理プロセスが同時に応答する問題を効果的に防止することができる。これにより、ユーザーがジェスチャー入力領域で操作するとき、インターフェースの切り替えが安定的で、スムーズである。【選択図】図1

Description

本開示は、移動端末のデータの処理技術分野に関するものであり、特にタッチ信号の処理方法、装置および媒体に関するものである。
フルスクリーンの移動端末が幅広く応用されることによって、ユーザーの使用体験を向上させるために、スクリーンのジェスチャー入力領域内で、フルスクリーンのジェスチャーを使用して便利な操作を行わせる。
関連技術に存在する問題を克服するために、本開示は、タッチ信号の処理方法、装置および媒体を提供する。
本公開の実施例の一方面によると、タッチ信号の処理方法を提供し、
イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップと、
前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップと、
判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含む。
前記タッチ信号の処理方法は、下記の特徴を備える。
前記判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップは、
前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合、前記ジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、
前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含む。
前記タッチ信号の処理方法は、下記の特徴を備える。
前記イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップは、
前記イベント派遣プロセスが所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出するステップを含み、
前記前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップは、
前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップを含む。
前記タッチ信号の処理方法は、下記の特徴を備える。
フルスクリーンジェスチャーは、指押しイベント、指移動イベントの中の少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベントの中の少なくとも一つを含み且つ指停止イベントと指持ち上げイベントの中の少なくとも一つを含む。
本公開の実施例の他の一方面によると、タッチ信号の処理装置を提供し、イベント派遣プロセス処理モジュールを含み、
前記イベント派遣プロセス処理モジュールは、
フルスクリーンジェスチャータッチ信号を検出する検出モジュールと、
前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する判断モジュールと、
判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する処理モジュールと、を含む。
前記タッチ信号の処理装置は、下記の特徴を備える。
前記処理モジュールは、第1転送モジュールと第2送信モジュールを含み、
前記第1転送モジュールは、前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合、前記ジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信し、
前記第2転送モジュールは、前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する。
前記タッチ信号の処理装置は、下記の特徴を備える。
前記検出モジュールは、所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出する方法を使用して、フルスクリーンジェスチャータッチ信号を検出し、
判断モジュールは、前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する方法を使用して、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。
前記タッチ信号の処理装置は、下記の特徴を備える。
フルスクリーンジェスチャーは、指押しイベント、指移動イベントの中の少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベントの中の少なくとも一つを含み且つ指停止イベントと指持ち上げイベントの中の少なくとも一つを含む。
本公開の実施例の他の一方面によると、タッチ信号の処理装置を提供し、
プロセッサと、
プロセッサが実行可能な命令を格納するメモリと、を含み、
ここで、前記プロセッサは、
イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出し、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断し、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するように配置される。
本公開の実施例の他の一方面によると、非一時的なコンピュータ読み取り可能な記憶媒体を提供し、
前記記憶媒体の中の命令が移動端末のプロセッサによって実行されるとき、移動端末は、タッチ信号の処理方法を実行することができ、
前記方法は、
イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップと、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップと、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含む。
本公開の実施例で提供される技術方案によると、下記のような有益な効果を得ることができる。本開示は、応用プロセスが処理ロジックに適合する完全なタッチ操作シーケンスを受信するようにして、ジェスチャー処理プロセスとアプリケーション処理プロセスが同時に応答する問題を効果的に防止することができるので、ユーザーがジェスチャー入力領域で操作するとき、インターフェースの切り替えが安定的で、スムーズである。
理解するのは、前記の一般的な説明と後述する詳細な説明は、単に例示的で解釈的なものであり、本開示を限定するものではない。
ここの図面は、明細書に併合されて明細書の一部を構成し、本発明に適合する実施例を示し、明細書と一緒に本発明の原理を解釈する。
一例示的な実施形態によるタッチ信号の処理方法のフローチャートである。 一例示的な実施形態によるジェスチャー入力領域が移動端末のスクリーンでの位置を示す例示図である。 一例示的な実施形態によるタッチ信号の処理装置のブロック図である。 一例示的な実施形態によるタッチ信号の処理装置のブロック図である。
以下、例示的な実施例について詳細に説明し、その実例は図面に表わす。下記の説明において、図面に関する説明に対して別々のことを表わさない場合、異なる図面で表わす同じ数字は同一または類似する要素を表わす。下記の例示的な実施例で説明している実施方式は、本開示と一致するすべての実施方式を代表するものではない。逆に、これらは添付されている請求の範囲に記載される本開示の一方面と一致する装置および方法の一例にすぎない。
発明者は、フルスクリーンのジェスチャーの処理プロセスを維持するとき、下記の処理方式を使用した。イベント派遣プロセスがタッチ信号を受信した後、ジェスチャー処理プロセスに転送し、ジェスチャー処理プロセスは、前記タッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。フルスクリーンジェスチャー軌跡判断規則に適合していない場合は、イベント派遣プロセスに前記タッチ信号に含まれるすべてのイベントを送信し、イベント派遣プロセスは、受信されたイベントをアプリケーション処理プロセスに送信する。前記過程では、イベント派遣プロセスは、応用のタッチ信号をアプリケーション処理プロセスに派遣することもできる。前記処理方法を使用する場合は、ジェスチャー処理プロセスとアプリケーション処理プロセスが同時に応答しやすいので、スクリーンのインターフェースが誤った切り替えを頻繁に行う問題が存在する。これにより、ユーザーの使用体験に影響を与えることができる。発明者は、創造性の労働を通じて、タッチ信号の処理方法を提供する。図1のように、前記タッチ信号の処理方法は、以下のステップを含む。
ステップS11において、イベント派遣プロセスは、フルスクリーンジェスチャータッチ信号を検出する。
ステップS12において、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。
ステップS13において、判断結果に基づいてジェスチャー処理プロセス又はアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の一部のイベントを送信する。
ここで、
ステップS13において、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の一部のイベントを送信するステップは、
前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合には、前記のジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の一部のイベントを送信するステップと、
前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合には、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の一部のイベントを送信するステップと、を含む。
ここで、イベント派遣プロセスは、システムの底層に位置する。例えば、システムのsystem_server層に位置する。アプリケーション処理プロセスは、システムの業務層に位置して、各応用(例えば、インストール応用、マップ応用、デスクトップ応用、インターフェースインタラクション応用など)に対して処理する。ジェスチャー処理プロセスシステムの業務層に位置し、業務の層中のいずれかの応用によって維持されることができ、単独一つの業務層プロセスことができる。
本方法は、応用プロセスが処理ロジックに適合する完全なタッチ操作シーケンスを受信するようにして、ジェスチャー処理プロセスとアプリケーション処理プロセスが同時に応答する問題を効果的に防止することができるので、ユーザーがジェスチャー入力領域で操作するとき、インターフェースの切り替えが安定的で、スムーズである。
それぞれのジェスチャー入力領域は、一種類のフルスクリーンジェスチャー軌跡判断規則に対応される。前記フルスクリーンジェスチャー軌跡判断規則に含まれる1つまたは複数のジェスチャー軌跡判断規則において、ジェスチャーが異なることにより、機能も異なる。例えば、一ジェスチャーの機能は、メインページに直接戻ることであるが、他の一ジェスチャーの機能は、現在のインターフェースの経路の前の経路に戻る。具体的には、ステップS11中のイベント派遣プロセスは、フルスクリーンジェスチャータッチ信号を検出するステップは、イベント派遣プロセスは所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出するステップを含む。ステップS12中の前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップは、前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップを含む。
図2は、ジェスチャー入力領域が移動端末のスクリーンでの位置を示す例示図である。フルスクリーンジェスチャー入力領域は、一般的にスクリーンのエッジ、例えば左エッジ、右エッジ、または底部エッジに位置する。
フルスクリーンジェスチャーは、一連の関連操作イベントである。例えば、フルスクリーンジェスチャーは、指押しイベント、指移動イベントのうちの少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベントの中の少なくとも一つを含み、また指停止イベントと指持ち上げイベントの中の少なくとも一つを含む。
以下、具体的な実施例を介して説明する。
具体的な実施例
移動端末のスクリーンの右側エッジ領域がジェスチャー入力領域であり、フルスクリーンジェスチャー軌跡判断規則がジェスチャー入力領域内にスライドタッチ信号を入力する規則である場合、メイン画面のページに戻る。
移動端末がゲーム応用を実行しており、現在のゲーム進行インターフェースにおいてジェスチャー入力領域を含む右側領域がゲームメインインターフェースに戻る操作領域である場合、ユーザーは前記右側領域にダブルクリック操作をするとき、ゲーム応用は、現在のゲーム進行インターフェースは、ゲームのメインインターフェースに転換される。
ユーザーがジェスチャー入力領域にスライディングタッチ信号を入力して、イベント派遣プロセスがジェスチャー入力領域に位置する前記タッチ信号を検出した後、前記タッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合することを判断し、ジェスチャー処理プロセスに前記タッチ信号を送信し、ジェスチャー処理プロセスが分析した後、現在のインターフェースをメイン画面ページに戻るように制御する。
または、ユーザーがジェスチャー入力領域にスライディングタッチ信号を入力し、前記スライディングタッチ信号は、指押しイベント(1個)と指移動イベント(5個)を含み、前記タッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合することを判断し、ジェスチャー処理プロセスに前記タッチ信号の1個の指押しイベントと最初の3個の指移動イベントを送信し、ジェスチャー処理プロセスが分析した後、現在のインターフェースをメイン画面ページに戻るように制御する。
ユーザーがジェスチャー入力領域を、ダブルクリックタッチ信号を入力して、イベント派遣プロセスがジェスチャー入力領域に位置する前記タッチ信号を検出した後、前記タッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していないことを判断し、アプリケーション処理プロセスに前記タッチ信号を送信し、アプリケーション処理プロセスが分析した後、現在のインターフェースをゲームメインインターフェースに戻るように制御する。
または、ユーザーがジェスチャー入力領域を、ダブルクリックタッチ信号を入力して、イベント派遣プロセスがジェスチャー入力領域に位置する前記タッチ信号を検出した後、前記タッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していないことを判断して、アプリケーション処理プロセスに前記タッチ信号の一部のイベントを送信して、すなわち、アプリケーション処理プロセスに前記タッチ信号中のクリックイベントを送信し、アプリケーション処理プロセスが分析した後、現在のインターフェースが変わらないように維持する。
図3は、一例示的な実施形態によるタッチ信号の処理装置のブロック図である。前記装置は、イベント派遣プロセス処理モジュールを含む。前記イベント派遣プロセス処理モジュールは、検出モジュール、判断モジュール、処理モジュールを含む。
前記検出モジュールは、フルスクリーンジェスチャータッチ信号を検出する。
前記判断モジュールは、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。
前記処理モジュールは、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する。
ここで、
処理モジュールは、第1転送モジュールと第2送信モジュールを含む。
前記第1転送モジュールは、前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合には、前記ジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する。
前記第2転送モジュールは、前記の判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合には、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する。
具体的には、
検出モジュールは、下記の方法を使用して、プールの画面ジェスチャータッチ信号を検出する。つまり所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出する。
判断モジュールは、下記の方法を使用して、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。すなわち、前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する。
フルスクリーンジェスチャーは、指押しイベント、指移動イベントのうちの少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベント中の少なくとも一つを含み且つ指停止イベントと指持ち上げイベント中の少なくとも一つを含む。
図4は他の例示的実施例に係るタッチ信号の処理装置400を示すブロック図である。例えば、装置400は、携帯電話、コンピュータ、デジタルブロードキャスト端末、メッセージ送受信機、ゲーム機、タブレット装置、医療機器、フィットネス機器、PDA等のものであってもよい。
図4を参照すると、装置400は、処理ユニット402、メモリ404、電源ユニット406、マルチメディアユニット408、オーディオユニット410、入力/出力(I/O)インターフェース412、センサーユニット414、及び通信ユニット416からなる群から選ばれる少なくとも1つを備えてもよい。
処理ユニット402は、一般的には、装置400の全体の操作、例えば、表示、電話呼び出し、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理ユニット402は、上述した方法におけるステップの一部又は全部を実現できるように、命令を実行する少なくとも1つのプロセッサ420を備えてもよい。また、処理ユニット402は、他のユニットとのインタラクションを便利にさせるように、少なくとも1つのモジュールを備えてもよい。例えば、処理ユニット402は、マルチメディアユニット408とのインタラクションを便利にさせるように、マルチメディアモジュールを備えてもよい。
メモリ404は、装置400での操作をサポートするように、各種のデータを記憶するように配置される。これらのデータは、例えば、装置400で何れの応用又は方法を操作するための命令、連絡先データ、電話帳データ、メッセージ、画像、ビデオ等を含む。メモリ404は、何れの種類の揮発性又は不揮発性メモリ、例えば、SRAM(Static Random Access Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable Read Only Memory)、PROM(Programmable ROM)、ROM(Read Only Member)、磁気メモリ、フラッシュメモリ、磁気ディスク、或いは光ディスクにより、或いはそれらの組み合わせにより実現することができる。
電源ユニット406は、装置400の各種ユニットに電力を供給するためのものであり、電源管理システム、1つ又は複数の電源、及び装置400のために電力を生成、管理及び分配することに関連する他のユニットを備えてもよい。
マルチメディアユニット408は、装置400とユーザーとの間に出力インターフェースを提供するスクリーンを備えてもよい。スクリーンは、例えば、液晶ディスプレイ(LCD)やタッチパネル(TP)を備えてもよい。スクリーンは、タッチパネルを備える場合、ユーザーからの入力信号を受信するように、タッチスクリーンになることができる。また、タッチパネルは、タッチや、スライドや、タッチパネル上の手振りを感知するように、少なくとも1つのタッチセンサーを有する。タッチセンサーは、タッチやスライド動作の境界を感知できるだけではなく、タッチやスライド操作と関連する持続時間や圧力も感知できる。一実施例では、マルチメディアユニット408は、フロントカメラ及び/又はバックカメラを有してもよい。装置400が、例えば、撮影モードやビデオモードのような操作モードにある時、フロントカメラ及び/又はバックカメラが外部のマルチメディアデータを受信できる。フロントカメラ及びバックカメラのそれぞれは、固定の光学レンズ系であってもよいし、焦点距離及び光学ズーム能力を有するものであってもよい。
オーディオユニット410は、オーディオ信号を出力及び/又は入力するように配置される。例えば、オーディオユニット410は、マイクロフォン(MiC)を有してもよい。装置400が、例えば、呼び出しモード、記録モード、又は音声認識モードのような操作モードにあるとき、マイクロフォンは、外部のオーディオ信号を受信するように配置される。受信したオーディオ信号は、メモリ404にさらに記憶されてもよいし、通信ユニット416を介して送信されてもよい。一実施例では、オーディオユニット410は、オーディオ信号を出力するためのスピーカをさらに備えてもよい。
I/Oインターフェース412は、処理ユニット402と外部のインターフェースモジュールとの間にインターフェースを提供するためのものである。前記外部のインターフェースモジュールは、キーボードや、クリックホイールや、ボタン等であってもよい。これらのボタンは、ホームボタンや、音量ボタンや、スタートボタンや、ロックボタンであってもよいが、それらに限らない。
センサーユニット414は、装置400のために各方面の状態を評価する少なくとも1つのセンサーを備えてもよい。例えば、センサーユニット414は、装置400のオン/オフ状態や、ユニットの相対的な位置を検出することができる。例えば、前記ユニットは、装置400のディスプレイ及びキーパッドである。センサーユニット414は、装置400又は装置400の1つのユニットの位置の変化や、ユーザーが装置400に接触しているか否かや、装置400の方向又は加速/減速や、装置400の温度変化を検出することができる。センサーユニット414は、何れの物理的な接触もない場合に付近の物体を検出するように配置される近接センサーを有してもよい。センサーユニット414は、イメージング応用に用いるための光センサー、例えば、CMOS又はCCD画像センサーを有してもよい。一実施例では、当該センサーユニット414は、加速度センサー、ジャイロスコープセンサー、磁気センサー、圧力センサー又は温度センサーをさらに備えてもよい。
通信ユニット416は、装置400と他の設備の間との無線又は有線通信を便利にさせるように配置される。装置400は、通信標準に基づく無線ネットワーク、例えば、WiFi、2G、3G、4G又は5G、又はそれらの組み合わせにアクセスできる。1つの例示的な実施例では、通信ユニット416は、ブロードキャストチャンネルを介して外部のブロードキャスト管理システムからのブロードキャスト信号又はブロードキャストに関する情報を受信する。1つの例示的な実施例では、前記通信ユニット416は、近距離通信を促進するために近距離無線通信(NFC)モジュールをさらに備えてもよい。例えば、NFCモジュールは、無線周波数認識装置(RFID:Radio Frequency IDentification)技術、赤外線データ協会(IrDA:Infrared Data Association)技術、超広帯域無線(UWB:Ultra Wide Band)技術、ブルートゥース(BT:Bluetooth(登録商標))技術及び他の技術によって実現されてもよい。
例示的な実施例では、装置400は、上述した方法を実行するために、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Integrated Circuit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、数字信号処理装置(DSPD:Digital Signal Processing Device)、プログラム可能論理装置(PLD:Programmable Logic Device)、書替え可能ゲートアレイ(FPGA:Field−Programmable Gate Array)、コントローラ、マイクロコントローラ、マイクロプロセッサ、又は他の電子機器によって実現されて、前記方法を実行する。
例示的な実施例では、命令を有する非一時的コンピュータ読み取り可能な記録媒体を提供し、前記記録媒体にはコンピュータプログラムを記録する。当該コンピュータプログラムはプロセッサ420により実行されて上述方法を実現する。例えば、前記非一時的コンピュータ読み取り可能な記録媒体は、ROM、RAM、CD-ROM、磁気テープ、フロッピー(登録商標)ディスク及び光データメモリ等であってもよい。
当業者は、明細書に対する理解、及び明細書に記載された発明に対する実施を介して、本発明の他の実施形態を容易に取得することができる。本発明は、本発明に対する任意の変形、用途、又は適応的な変化を含み、このような変形、用途、又は適応的な変化は、本発明の一般的な原理に従い、本発明では開示していない本技術分野の公知知識、又は通常の技術手段を含む。明細書及び実施例は、単に例示的なものであって、本発明の本当の範囲と主旨は、以下の特許請求の範囲によって示される。
本発明は、前記で記述され、図面で図示した特定の構成に限定されず、その範囲を離脱しない状況で、様々な修正や変更を実施してもよい。本発明の範囲は、添付される特許請求の範囲のみにより限定される。

Claims (10)

  1. タッチ信号の処理方法において、
    イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップと、
    前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップと、
    判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含むことを特徴とするタッチ信号の処理方法。
  2. 前記判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップは、
    前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合、前記ジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、
    前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含むことを特徴とする請求項1に記載のタッチ信号の処理方法。
  3. 前記イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップは、
    前記イベント派遣プロセスが所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出するステップを含み、
    前記前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップは、
    前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップを含むことを特徴とする請求項1に記載のタッチ信号の処理方法。
  4. フルスクリーンジェスチャーは、指押しイベント、指移動イベントの中の少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベントの中の少なくとも一つを含み且つ指停止イベントと指持ち上げイベントの中の少なくとも一つを含むことを特徴とする請求項1または請求項2に記載のタッチ信号の処理方法。
  5. タッチ信号の処理装置において、イベント派遣プロセス処理モジュールを含み、
    前記イベント派遣プロセス処理モジュールは、
    フルスクリーンジェスチャータッチ信号を検出する検出モジュールと、
    前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する判断モジュールと、
    判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信する処理モジュールと、を含むことを特徴とするタッチ信号の処理装置。
  6. 前記処理モジュールは、第1転送モジュールと第2送信モジュールを含み、
    前記第1転送モジュールは、前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合する結果である場合、前記ジェスチャー処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信し、
    前記第2転送モジュールは、前記判断結果が、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合していない結果である場合、前記アプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信することを特徴とする請求項5に記載のタッチ信号の処理装置。
  7. 前記検出モジュールは、所定画面領域内に位置するフルスクリーンジェスチャータッチ信号を検出する方法を使用して、フルスクリーンジェスチャータッチ信号を検出し、
    判断モジュールは、前記フルスクリーンジェスチャータッチ信号が所定画面領域に対応する前記フルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断する方法を使用して、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断することを特徴とする請求項5に記載のタッチ信号の処理装置。
  8. フルスクリーンジェスチャーは、指押しイベント、指移動イベントの中の少なくとも一つを含むか、または、フルスクリーンジェスチャーは、指押しイベントと指移動イベントの中の少なくとも一つを含み且つ指停止イベントと指持ち上げイベントの中の少なくとも一つを含むことを特徴とする請求項5または請求項6に記載のタッチ信号の処理装置。
  9. タッチ信号の処理装置において、
    プロセッサと、
    プロセッサが実行可能な命令を格納するメモリと、を含み、
    ここで、前記プロセッサは、
    イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出し、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断し、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するように構成されることを特徴とするタッチ信号の処理装置。
  10. 非一時的なコンピュータ読み取り可能な記憶媒体において、
    前記記憶媒体の中の命令が移動端末のプロセッサによって実行されるとき、移動端末は、タッチ信号の処理方法を実行することができ、
    前記方法は、
    イベント派遣プロセスがフルスクリーンジェスチャータッチ信号を検出するステップと、前記フルスクリーンジェスチャータッチ信号がフルスクリーンジェスチャー軌跡判断規則に適合するかどうかを判断するステップと、判断結果に基づいてジェスチャー処理プロセスまたはアプリケーション処理プロセスに前記フルスクリーンジェスチャータッチ信号または前記フルスクリーンジェスチャータッチ信号の中の一部のイベントを送信するステップと、を含むことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
JP2019563202A 2019-07-04 2019-10-15 タッチ信号の処理方法、装置および媒体 Active JP7252905B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910599976.8 2019-07-04
CN201910599976.8A CN112181265B (zh) 2019-07-04 2019-07-04 一种触控信号处理方法、装置及介质
PCT/CN2019/111321 WO2021000450A1 (zh) 2019-07-04 2019-10-15 一种触控信号处理方法、装置及介质

Publications (2)

Publication Number Publication Date
JP2021531519A true JP2021531519A (ja) 2021-11-18
JP7252905B2 JP7252905B2 (ja) 2023-04-05

Family

ID=69174349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563202A Active JP7252905B2 (ja) 2019-07-04 2019-10-15 タッチ信号の処理方法、装置および媒体

Country Status (7)

Country Link
US (1) US11513679B2 (ja)
EP (1) EP3761162A1 (ja)
JP (1) JP7252905B2 (ja)
KR (1) KR102258742B1 (ja)
CN (1) CN112181265B (ja)
RU (1) RU2742605C1 (ja)
WO (1) WO2021000450A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114780010A (zh) * 2021-02-08 2022-07-22 海信视像科技股份有限公司 一种显示设备及其控制方法
CN112905296A (zh) * 2021-03-31 2021-06-04 读书郎教育科技有限公司 一种解决全面屏手势导航与应用逻辑冲突的***及方法
CN117101117A (zh) * 2023-07-12 2023-11-24 荣耀终端有限公司 触控方法及相关设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017528776A (ja) * 2015-06-07 2017-09-28 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377288B1 (en) * 1998-01-12 2002-04-23 Xerox Corporation Domain objects having computed attribute values for use in a freeform graphics system
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US8169414B2 (en) * 2008-07-12 2012-05-01 Lim Seung E Control of electronic games via finger angle using a high dimensional touchpad (HDTP) touch user interface
US9684521B2 (en) * 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8447894B2 (en) * 2011-01-05 2013-05-21 Alibaba Group Holding Limited Upgrading an elastic computing cloud system
US20130002567A1 (en) * 2011-06-30 2013-01-03 Ricky Lee Method and System of Implementing Multi-Touch Panel Gestures in Computer Applications Without Multi-Touch Panel Functions
CN102902469B (zh) * 2011-07-25 2015-08-19 宸鸿光电科技股份有限公司 手势识别方法及触控***
US20130038552A1 (en) * 2011-08-08 2013-02-14 Xtreme Labs Inc. Method and system for enhancing use of touch screen enabled devices
US8572515B2 (en) 2011-11-30 2013-10-29 Google Inc. Turning on and off full screen mode on a touchscreen
JP5990011B2 (ja) * 2012-02-28 2016-09-07 キヤノン株式会社 情報処理装置及びその制御方法
US20130222272A1 (en) * 2012-02-28 2013-08-29 Research In Motion Limited Touch-sensitive navigation in a tab-based application interface
WO2013155590A1 (en) * 2012-04-18 2013-10-24 Research In Motion Limited Systems and methods for displaying information or a feature in overscroll regions on electronic devices
KR101341737B1 (ko) * 2012-06-21 2013-12-16 주식회사 팬택 후면 터치를 이용한 단말 제어 장치 및 방법
US9128548B2 (en) * 2012-10-17 2015-09-08 Perceptive Pixel, Inc. Selective reporting of touch data
CN102981768B (zh) * 2012-12-04 2016-12-21 中兴通讯股份有限公司 一种在触屏终端界面实现悬浮式全局按钮的方法及***
US9884253B2 (en) * 2014-06-03 2018-02-06 King.Com Ltd. Using a data structure
KR20160014983A (ko) * 2014-07-30 2016-02-12 주식회사 동부하이텍 스마트 기기 및 이를 제어하는 방법
CN104007932B (zh) * 2014-06-17 2017-12-29 华为技术有限公司 一种触摸点识别方法及装置
US9921660B2 (en) * 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US10346030B2 (en) * 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
CN104932744B (zh) * 2015-06-12 2020-08-21 惠州Tcl移动通信有限公司 一种触摸屏终端及其应用的操作方法
US9965445B2 (en) * 2015-08-06 2018-05-08 FiftyThree, Inc. Systems and methods for gesture-based formatting
US11073980B2 (en) * 2016-09-29 2021-07-27 Microsoft Technology Licensing, Llc User interfaces for bi-manual control
CN107506087B (zh) * 2017-09-21 2022-08-23 京东方科技集团股份有限公司 显示处理方法、***以及电子设备
CN108459794A (zh) * 2017-12-20 2018-08-28 北京奇安信科技有限公司 一种无按钮屏幕的交互操作处理方法及装置
AU2019100488B4 (en) * 2018-05-07 2019-08-22 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces, displaying a dock, and displaying system user interface elements
US11126466B2 (en) * 2019-02-26 2021-09-21 Sap Se Server resource balancing using a fixed-sharing strategy

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017528776A (ja) * 2015-06-07 2017-09-28 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法

Also Published As

Publication number Publication date
US20210004151A1 (en) 2021-01-07
RU2742605C1 (ru) 2021-02-09
CN112181265A (zh) 2021-01-05
KR20210005508A (ko) 2021-01-14
EP3761162A1 (en) 2021-01-06
KR102258742B1 (ko) 2021-06-01
US11513679B2 (en) 2022-11-29
WO2021000450A1 (zh) 2021-01-07
JP7252905B2 (ja) 2023-04-05
CN112181265B (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
CN105607883B (zh) 即时消息的处理方法及装置
US20170344192A1 (en) Method and device for playing live videos
EP3062196A1 (en) Method and apparatus for operating and controlling smart devices with hand gestures
CN107102772B (zh) 触控方法及装置
CN105159559A (zh) 移动终端控制的方法及移动终端
JP2017524316A (ja) ビデオ通信方法、装置、プログラム及び記録媒体
CN105204846A (zh) 多人视频中视频画面的显示方法、装置及终端设备
EP3322167B1 (en) Method and device for adjusting frequencies of intercom apparatuses
CN110865745A (zh) 一种截屏方法及终端设备
CN110262692B (zh) 一种触摸屏扫描方法、装置及介质
JP7252905B2 (ja) タッチ信号の処理方法、装置および媒体
CN105487805A (zh) 对象操作方法及装置
US20210307104A1 (en) Method and apparatus for controlling intelligent voice control device and storage medium
CN105700846A (zh) 文件共享方法及装置
CN105491632A (zh) 无线接入点的切换方法及装置
CN111427449A (zh) 界面显示方法、装置及存储介质
KR101716622B1 (ko) 메시지 송신 방법 및 장치, 프로그램 및 기록매체
CN105260221A (zh) 应用程序安装方法及装置
CN105204712A (zh) 文件夹图标的显示方法及装置
CN106302342A (zh) 一种用户账户的切换方法及装置
US20170147134A1 (en) Method and apparatus for controlling touch-screen sensitivity
CN109947325B (zh) 应用图标显示方法、可穿戴设备以及计算机可读存储介质
EP3128722A1 (en) File transmission method and apparatus, computer program and recording medium
EP3961363A1 (en) Number input method, apparatus, and storage medium
CN110888571B (zh) 一种文件选中方法及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221201

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221209

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7252905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150