JP2021524116A - 動的動作検出方法、動的動作制御方法及び装置 - Google Patents

動的動作検出方法、動的動作制御方法及び装置 Download PDF

Info

Publication number
JP2021524116A
JP2021524116A JP2021502886A JP2021502886A JP2021524116A JP 2021524116 A JP2021524116 A JP 2021524116A JP 2021502886 A JP2021502886 A JP 2021502886A JP 2021502886 A JP2021502886 A JP 2021502886A JP 2021524116 A JP2021524116 A JP 2021524116A
Authority
JP
Japan
Prior art keywords
motion
frame image
static
queue
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021502886A
Other languages
English (en)
Other versions
JP7127202B2 (ja
Inventor
ティアンウェン デュ,
ティアンウェン デュ,
チェンディ ウィ,
チェンディ ウィ,
ヤディ ヤン,
ヤディ ヤン,
Original Assignee
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド, シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド filed Critical シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド
Publication of JP2021524116A publication Critical patent/JP2021524116A/ja
Application granted granted Critical
Publication of JP7127202B2 publication Critical patent/JP7127202B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本開示は、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することと、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することと、前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新することと、を含む動的動作検出方法、動的動作制御方法及び装置に関する。本開示の実施例は、部分的に更新された第1のキューのフレーム画像に基づいて動的動作の検出を行うことができることにより、ビデオストリームの動的動作をよりタイムリーに検出可能になり、更に、動的動作の先頭フレーム又は最終フレームに基づいて動的動作を高速に決定することができ、動的動作の検出結果がより精確になり、検出効率がより高くなる。【選択図】図1

Description

[関連出願の相互参照]
本願は、2018年8月24日に中国特許局に提出された、出願番号201810974244.8、発明の名称「動的動作検出方法、動的動作制御方法及び装置」の中国特許出願の優先権を主張し、その内容の全てが参照によって本願に組み込まれる。
本開示は、画像処理技術分野に関し、特に、動的動作検出方法、動的動作制御方法及び装置に関する。
ヒューマンマシンインタラクションに対する需要が増えるにつれて、画像から操作者の動的動作を検出し、検出された動的動作によって機器を制御する需要が多くなる。
本開示は、動的動作検出の技術的手段を提供する。
本開示の一方面によれば、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することと、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することと、前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新することと、を含む動的動作検出方法を提供する。
本開示の一方面によれば、ビデオストリームを取得することと、上記のいずれか一項に記載の方法を用いて前記ビデオストリームの動作検出結果を決定することと、機器が前記動作検出結果に対応する操作を実行するように制御することと、を含む動的動作制御方法を提供する。
本開示の一方面によれば、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第1のキュー更新モジュールと、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出するための動的動作検出モジュールと、前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新するための動作検出結果更新モジュールと、を含む動的動作検出装置を提供する。
本開示の一方面によれば、ビデオストリームを取得するためのビデオストリーム取得モジュールと、上記のいずれか一項に記載の装置を用いて前記ビデオストリームの動作検出結果を決定するための動作検出結果取得モジュールと、機器が前記動作検出結果に対応する操作を実行するように制御するための操作実行モジュールと、を含む動的動作制御装置を提供する。
本開示の一方面によれば、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは上記動的動作検出方法及び/又は動的動作制御方法を実行するように構成される電子機器を提供する。
本開示の一方面によれば、コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドは、プロセッサにより実行されると、上記動的動作検出方法及び/又は動的動作制御方法を実行させるコンピュータ読取可能記憶媒体を提供する。
本開示の一方面によれば、コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、電子機器において実行されると、前記電子機器のプロセッサに上記動的動作検出方法及び/又は動的動作制御方法を実行させるコンピュータプログラムを提供する。
本開示の実施例では、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得すること、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出すること、前記動的動作と動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新することができる。本開示の実施例では、第1のキューのフレーム画像が全般的に更新されるまで待たずに、部分的に更新された第1のキューのフレーム画像に基づいて動的動作の検出を行うことができ、これにより、ビデオストリームの動的動作をよりタイムリーに検出可能になる。動的動作の先頭フレーム又は最終フレームが第1のキューに加えられると、部分的に更新された第1のキューのフレーム画像に基づいて動的動作検出を行うことによって、動的動作の先頭フレーム又は最終フレームに基づいて動的動作を高速に決定することができ、これにより、動的動作の検出結果がより精確になり、検出効率がより高くなる。本開示の実施例は、ビデオストリームの動的動作をリアルタイムでトラッキングすることを実現できる。
以上の一般説明及び以下の詳細説明は、本開示を限定するのではなく、単なる例示的および解釈的であることを理解されたい。以下、図面を参照しながら例示的な実施例について詳細に説明することにより、本開示の他の特徴及び方面は明瞭になる。
明細書の一部として組み込まれた図面は、本開示に合致する実施例を示し、更に明細書と共に本開示の技術的手段を説明するために用いられる。
本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作検出方法のフローチャットを示す。 本開示の実施例による動的動作制御方法のフローチャットを示す。 本開示の実施例による動作認識方法の応用例のフローチャットを示す。 本開示の実施例による動的動作検出装置のブロック図を示す。 本開示の実施例による動的動作制御装置のブロック図を示す。 例示的実施例により示される電子機器のブロック図である。
以下に図面を参照しながら本開示の様々な例示的実施例、特徴および方面を詳細に説明する。図面において、同じ符号が同じまたは類似する機能の要素を表す。図面において実施例の様々な方面を示したが、特に断らない限り、比例に従って図面を作る必要がない。ここの用語「例示的」とは、「例、実施例として用いられることまたは説明的なもの」を意味する。ここで「例示的」に説明されるいかなる実施例も他の実施例より好ましい又は優れるものであると理解すべきではない。本明細書において、用語の「及び/又は」は、関連対象の関連関係を記述するためのものに過ぎず、3つの関係が存在可能であることを示し、例えば、A及び/又はBは、Aのみが存在し、AとBが同時に存在し、Bのみが存在するという3つの場合を示すことができる。また、本明細書において、用語の「少なくとも1つ」は複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組合を示し、例えば、A、B及びCのうちの少なくとも1つを含むということは、A、B及びCから構成される集合から選択されたいずれか1つ又は複数の要素を含むことを示すことができる。また、本開示をより効果的に説明するために、以下の具体的な実施形態において様々な具体的な詳細を示す。当業者であれば、何らかの具体的な詳細がなくても、本開示が同様に実施できると理解すべきである。いくつかの実施例では、本開示の趣旨を強調するために、当業者に既知の方法、手段、要素および回路について、詳細な説明を行わない。
図1は本開示の実施例による動的動作検出方法のフローチャットを示す。前記動的動作検出方法は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレス電話、、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、手持ちの機器、計算装置、車載装置、ウエアラブル装置等の端末装置、又は、サーバ等の電子機器により実行されてもよい。いくつかの可能な実現形態では、前記動的動作検出方法は、プロセッサによりメモリに記憶されているコンピュータ読取可能コマンドを呼び出すことで実現されもよい。
図1に示すように、前記動的動作検出方法は、以下のステップを含む。
ステップS10、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得する。
可能な一実現形態では、従来の動的動作検出方法において、ビデオストリームから動的動作検出のための所定数量のフレーム画像を切り出して検出した後、次回の動的動作検出のための所定数量のフレーム画像を再度切り出すことが必要とされている。動的動作検出のリアルタイム性が悪い。
可能な一実現形態では、動的動作検出のためのフレーム画像の最小数量を第1のキューの長さと決定するようにしてもよい。例えば、人差し指を伸ばして右へスライドさせる動的動作に関して、複数のフレーム画像における手部の静的動作はいずれも人差し指を伸ばしている動作である。N個よりも少ないフレーム画像に基づいて動的動作検出を行う場合、フレーム画像数量が少な過ぎ、静的動作の空間位置の変化も小さ過ぎるため、静的動作の空間位置の変化を決定できなく、つまり、動的動作検出を行うことができない。N個以上のフレーム画像に基づいて動的動作検出を行う場合、人差し指を伸ばしている静的動作の空間位置の変化を右へスライドしていると決定できる。この場合、Nは動的動作検出を可能にするフレーム画像の最小数量である。Nを第1のキューの長さと決定してもよく、ただし、Nは正整数である。可能な一実現形態では、ビデオストリームのコンテンツ、動的動作検出の精度要求、動的動作検出の速度要求、又は以前の経験値に応じて、第1のキューの長さを決定してもよい。本開示は第1のキューの長さを限定しない。例えば、Nの値の取り得る範囲は、2≦N≦100、又は10≦N≦200等であってもよく、必要に応じてNの値を決定することができる。
可能な一実現形態では、ビデオストリーム中のフレーム画像を順に第1のキューに加えて、第1のキューを部分的に更新するようにしてもよい。新しいフレーム画像を第1のキューに加える時に、フレーム画像を第1のキューの後端から加え、且つ第1のキューの最先端のフレーム画像を削除して、第1のキューのフレーム画像を所定の数量に保つようにしてもよい。可能な一実現形態では、ビデオストリーム中の1つのフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するようにしてもよい。ビデオストリーム中の第1のキューの長さよりも少ない複数のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するようにしてもよい。
ステップS20、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出する。
可能な一実現形態では、部分的に更新された第1のキューのフレーム画像を用いて検出を行い、各フレーム画像における動的動作を決定するようにしてもよい。部分的に更新された第1のキューのフレーム画像をニューラルネットワークに入力し、ニューラルネットワークにより第1のキューのフレーム画像における動的動作を検出するようにしてもよい。可能な一実現形態では、第1のキューが満杯でない場合に、システム資源を節約ために、第1のキューのフレーム画像に対する動的動作検出を行わないようにしてもよい。
可能な一実現形態では、動的動作を実行する実行対象は人、動物又はロボット等の様々な可動対象を含んでもよい。動的動作は、実行対象の所定部位の、その所在する環境に対する相対的位置変化を含んでもよい。例えば、動的動作は、人が人差し指をスライドさせる動作を含んでもよく、人が四肢で走る動作を含んでもよく、ロボットがそれに装備された可動装置により前後に移動する動作を含んでもよい。本開示は動的動作の実行対象、動的動作の種類を限定しない。
ステップS30、前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新する。
可能な一実現形態では、1つのビデオストリーム中のフレーム画像に複数の動的動作が含まれてもよい。先に検出された動作検出結果をビデオストリームの動作検出結果とするようにしてもよい。例えば、ビデオストリーム1のフレーム画像から順に動作1、動作2及び動作3の3つの動作を認識できる。動作1が認識されると、動作1を先に検出された動作検出結果として、動作検出結果と決定する。動作2が認識されると、動作検出結果を動作2に更新し、動作3が認識されると、動作検出結果を動作3に更新する。可能な一実現形態では、前記動作検出結果には動作参照結果も含むようにしてもよい。所定動作を動作参照結果としてもよく、動作参照結果を空にしてもよい。
可能な一実現形態では、複数のビデオストリーム中のフレーム画像における動的動作を解析し、複数のビデオストリーム中のフレーム画像における複数の動的動作に応じて動作検出結果を更新するようにしてもよい。例えば、ビデオストリーム1及びビデオストリーム2に対して順に動的動作検出を行う。ビデオストリーム1のフレーム画像から動作1及び動作2が認識可能であり、ビデオストリーム2のフレーム画像から動作3と動作4が認識可能である。ビデオストリーム1のフレーム画像から動作1が認識されると、動作1を動作検出結果とする。ビデオストリーム1のフレーム画像から動作2が認識されると、動作検出結果を動作2に更新する。更にビデオストリーム2のフレーム画像に基づいて動作認識を行い、動作3が認識されると、動作検出結果を動作3に更新する。動作4が認識されると、動作検出結果を動作4に更新する。必要に応じて動的動作検出のための1つ又は複数のビデオストリームを取得することができる。ビデオストリームの動作検出結果は、ビデオストリーム自身のフレーム画像に基づいて動的動作検出を行って得られたものであってもよく、他のビデオストリーム中のフレーム画像に基づいて動的動作検出を行って得られたものであってもよい。
可能な一実現形態では、前記動的動作と動作検出結果とがマッチングしない場合に、ビデオストリーム中のフレーム画像から新しい動作が判断されたことを示し、動作検出結果のタイムリーな更新のために、新しい動作で動作検出結果を更新するようにしてもよい。
可能な一実現形態では、本開示の実施例における動作検出結果は、実行対象の動作をリアルタイムでトラッキングするために用いられるようにしてもよい。機器操作者のビデオストリームを撮影し、本開示の実施例における動的動作検出方法を用いて、撮影したビデオストリームの動作検出結果を取得し、動作検出結果に基づいて機器を制御するようにしてもよい。動作検出結果のリアルタイム性により、機器操作者は機器を精確に制御することができる。
本実施例では、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得し、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出し、前記動的動作と動作検出結果とがマッチングしない場合に、前記動的動作に応じて前記動作検出結果を更新することができる。本開示の実施例では、第1のキューのフレーム画像が全般的に更新されるまで待たずに、部分的に更新された第1のキューのフレーム画像に基づいて動的動作の検出を行うことができ、これにより、ビデオストリームにおける動的動作をよりタイムリーに検出可能になる。動的動作の先頭フレーム又は最終フレームが第1のキューに加えられると、部分的に更新された第1のキューのフレーム画像に基づいて動的動作検出を行うことによって、動的動作の先頭フレーム又は最終フレームに基づいて動的動作を高速に決定することができ、これにより、動的動作の検出結果がより精確になり、検出効率がより高くなる。本開示の実施例は、ビデオストリームにおける動的動作をリアルタイムでトラッキングすることを実現できる。
図2は本開示の実施例による動的動作検出方法のフローチャットを示す。図2に示すように、前記動的動作検出方法において、前記先に検出された動作検出結果の取得方法として、前記第1のキューのフレーム画像に動的動作がある場合に、前記第1のキューのフレーム画像を第2のキューに移すステップS1と、前記第2のキューのフレーム画像に基づいて前記動作検出結果を決定するステップS2と、を含む。
可能な一実現形態では、初期状態で、先に検出された動作検出結果を取得するようにしてもよい。初期状態で、前記第1のキュー及び前記第2のキューが空であり、前記動作検出結果は無動作であるようにしてもよい。初期状態で、ビデオストリーム中のフレーム画像を第1のキューに入力し、第1のキューのフレーム画像に基づいて決定された動作検出結果を、先に検出された動作検出結果とするようにしてもよい。可能な一実現形態では、初期状態で、ビデオストリームの最初のフレーム画像から動的動作検出を行ってもよい。ビデオストリーム中の実行対象が検出されたフレーム画像から動的動作検出を行ってもよい。本開示はこれらを限定しない。可能な一実現形態では、第1のキューに対する動的動作検出が可能になるまで、ビデオストリーム中のフレーム画像を時間順に第1のキューに加えるようにしてもよい。
可能な一実現形態では、第2のキューの長さは、第1のキューの長さと等しくてもよく、等しくなくてもよい。第1のキューのフレーム画像に動的動作があると判断された場合に、第1のキューのフレーム画像を全て第2のキューに移して、第1のキューを空にするようにしてもよい。第2のキューのフレーム画像における動的動作に応じて動作検出結果を決定するようにしてもよい。
可能な一実現形態では、第1のキューのフレーム画像が第2のキューに移された後、第1のキューのフレーム画像の数量が0になり、また、先に検出された動作検出結果が得られる。初期状態が終了した後、図1に示す実施例における方法を用いて、順に後続のそれぞれの認識すべきフレーム画像で第1のキューを部分的に更新し、部分的に更新された第1のキューのフレーム画像において検出された動的動作に応じて、動作検出結果を更新するようにしてもよい。
本実施例では、先に検出された動作検出結果の取得方法として、ビデオストリーム中のフレーム画像を順に第1のキューに加えて、前記第1のキューのフレーム画像に動的動作がある場合に、前記第1のキューのフレーム画像を第2のキューに移し、第2のキューのフレーム画像における動作に応じて動作検出結果を取得する。先に検出された動作検出結果はビデオストリームにおける動的動作である。動作検出結果が取得されたフレーム画像を第2のキューに保留することによって、動作認識のリアルタイム性及び正確性を高めることができる。
図3は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動作検出結果に静的動作が含まれ、図3に示すように、前記動的動作検出方法におけるステップS10は、前記ビデオストリーム中の認識すべきフレーム画像における静的動作を取得するステップS11と、前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するステップS12と、を含む。
可能な一実現形態では、先に検出された動作検出結果が取得された後、第1のキューが空になり、第2のキューにフレーム画像がある。ビデオストリーム中の動的動作検出がなされていないフレーム画像を認識すべきフレーム画像とするようにしてもよい。
可能な一実現形態では、動的動作は静的動作及び静的動作の動作軌跡を含んでもよい。例えば、動的動作1は「伸ばしている人差し指を右へスライドさせている」動作であり、動的動作1に含まれる静的動作は人差し指を伸ばしている動作であり、静的動作の動作軌跡は右へスライドしていることである。可能な一実現形態では、動的動作は静的動作及び静的動作の切換情報を含んでもよい。静的動作の切換情報は少なくとも2つの静的動作間の切換の情報を含んでもよい。例えば、動的動作2は「拳を掌に変える」動作であり、動的動作2は静的動作1である掌及び静的動作2である拳を含み、動的動作2の切換情報は拳を掌に切り換えることである。
可能な一実現形態では、動的動作は静的動作、静的動作の切換情報、及び静的動作の動作軌跡を含んでもよい。例えば、動的動作3は「走り幅跳び動作」であり、動的動作3は静的動作1である走り及び静的動作2である跳びを含み、静的動作1の動作軌跡は右に向けることであり、静的動作2の動作軌跡は右に向けることであり、動的動作3の静的動作間の切換情報は走りから跳びに切り換えることである。
可能な一実現形態では、各認識すべきフレーム画像から静的動作を検出するようにしてもよい。1つの動的動作に対応する複数のフレーム画像における静的動作は、動的動作における静的動作にマッチングする。少なくとも2つのフレーム画像における静的動作を比較して、フレーム画像における静的動作の動作軌跡及び/又は切換情報を取得するようにしてもよい。1つの動的動作に対応する複数のフレーム画像における静的動作の動作軌跡及び/又は切換情報は、動的動作における動作軌跡及び/又は切換情報にマッチングする。
可能な一実現形態では、ビデオストリーム中のそれぞれの認識すべきフレーム画像に対して静的動作の検出を順に行い、それぞれの認識すべきフレーム画像における静的動作と動作検出結果に含まれる静的動作とのマッチングを検出するようにしてもよい。それぞれの認識すべきフレーム画像における静的動作と第2のキューのフレーム画像における静的動作とのマッチングを検出するようにしてもよい。例えば、動作検出結果が伸ばしている人差し指を右へスライドさせている動作である場合、認識すべきフレーム画像における人差し指の静的動作が動作検出結果の人差し指の静的動作にマッチングするか否かを検出するようにしてもよい。
可能な一実現形態では、認識すべきフレーム画像における静的動作と動作検出結果に含まれる静的動作とがマッチングしない場合、認識すべきフレーム画像を第1のキューに加えるようにしてもよい。認識すべきフレーム画像を第1のキューの後端から加え、且つ第1のキューの最先端のフレーム画像を削除して、第1のキューを部分的に更新するようにしてもよい。部分的に更新された第1のキューのフレーム画像における動的動作を検出し、検出された動的動作と動作検出結果とがマッチングしない場合に、動的動作に応じて動作検出結果を更新するようにしてもよい。
本実施例では、ビデオストリーム中の認識すべきフレーム画像における静的動作を取得し、前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加えることができる。フレーム画像から静的動作を簡単で高信頼性に検出することができ、また、認識すべきフレーム画像を第1のキューに高速に加えて、第1のキューを高速に部分的に更新することができるので、動的動作の検出効率を高めることができる。
図4は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動作検出結果に前記静的動作の動作軌跡及び/又は切換情報が更に含まれる。図4に示すように、前記動的動作検出方法におけるステップS10は、前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングする場合に、前記認識すべきフレーム画像及び前記第2のキューのフレーム画像に基づいて、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定するステップS13と、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するステップS14と、を含む。
可能な一実現形態では、動的動作は静的動作の動作軌跡及び/又は切換情報を更に含む。認識すべきフレーム画像における静的動作と動作検出結果に含まれる静的動作とがマッチングする場合に、認識すべきフレーム画像、及び第2のキュー中の最後のフレーム画像又は複数のフレーム画像に基づいて、認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定するようにしてもよい。認識すべきフレーム画像における静的動作1と第2のキュー中の最後のフレーム画像における静的動作2との位置差に基づいて、静的動作1の静的動作2に対する動作軌跡及び/又は切換情報を取得するようにしてもよい。例えば、動作検出結果が「伸ばしている人差し指を右へスライドさせている」との動的動作1であり、認識すべきフレーム画像における静的動作が人差し指を伸ばしている動作であり、動作検出結果にマッチングする。認識すべきフレーム画像における静的動作と第2のキューのフレーム画像における静的動作との位置差に基づいて、認識すべきフレーム画像における人差し指が左へスライドしていると決定する場合、認識すべきフレーム画像における静的動作の動作軌跡と動作検出結果とがマッチングしない。
可能な一実現形態では、認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と動作検出結果とがマッチングしない場合に、認識すべきフレーム画像における静的動作の所属する動的動作と動作検出結果とがマッチングしないと考えられる。この場合、認識すべきフレーム画像を第1のキューに加え、第1のキューを部分的に更新するようにしてもよい。部分的に更新された第1のキューのフレーム画像における動的動作を検出し、検出された動的動作と動作検出結果とがマッチングしない場合に、動的動作に応じて動作検出結果を更新するようにしてもよい。
本実施例では、認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と動作検出結果とがマッチングしない場合に、認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された第1のキューを取得する。動作軌跡及び/又は切換情報に基づいて、認識すべきフレーム画像における静的動作の所属する動的動作と動作検出結果がマッチングするか否かを決定することによって、動作検出結果の正確率を高めることができる。
図5は本開示の実施例による動的動作検出方法のフローチャットを示す。図5に示すように、前記動的動作検出方法は、部分的に更新された前記第1のキューのフレーム画像に基づいて検出された前記動的動作と動作検出結果とがマッチングしない場合に、前記第2のキューを空にし、前記第1のキューのフレーム画像を前記第2のキューに移すステップS40と、前記第2のキューのフレーム画像における動的動作に応じて、前記動作検出結果を更新するステップS50と、を更に含む。
可能な一実現形態では、部分的に更新された第1のキューのフレーム画像における動的動作を検出するようにしてもよい。部分的に更新された第1のキューのフレーム画像における静的動作、及び静的動作の動作軌跡及び/又は切換情報を検出し、検出された静的動作、静的動作の動作軌跡及び/又は切換情報に基づいて動的動作を決定するようにしてもよい。部分的に更新された第1のキューのフレーム画像における動的動作と動作検出結果とがマッチングしない場合に、部分的に更新された第1のキューのフレーム画像に新しい動的動作が出現したと考えられる。
可能な一実現形態では、部分的に更新された第1のキューのフレーム画像に新しい動的動作が出現した場合に、第2のキューを空にし、第1のキューのフレーム画像を全て第2のキューに移し、更新された第2のキューのフレーム画像における動的動作に応じて動作検出結果を更新するようにしてもよい。
可能な一実現形態では、撮影されたビデオストリームに対してリアルタイムで動的動作検出を行って、リアルタイムで検出して得られた動的動作に応じて電子機器の制御を行うようにしてもよい。ビデオストリーム中の認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報が動作検出結果にマッチングするか否かを検出し、マッチングしない場合に、認識すべきフレーム画像を第1のキューに加えて第1のキューを部分的に更新するようにしてもよい。部分的に更新された第1のキューのフレーム画像に新しい動的動作があることが検出された場合に、第2のキューを空にし、第1のキューのフレーム画像を全て第2のキューに移し、更新された第2のキューのフレーム画像における動的動作に応じて動作検出結果を更新するようにしてもよい。ビデオストリーム中の各フレーム画像をリアルタイムで解析して、動的動作検出のリアルタイム性や正確率を高めることができる。
図6は本開示の実施例による動的動作検出方法のフローチャットを示す。図6に示すように、前記動的動作検出方法は、前記認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングする場合に、前記認識すべきフレーム画像を前記第2のキューに加えるステップS15を更に含む。
可能な一実現形態では、認識すべきフレーム画像における静的動作と動作検出結果に含まれる静的動作とがマッチングしており、認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と動作検出結果に含まれる静的動作の動作軌跡及び/又は切換情報ともマッチングする場合に、認識すべきフレーム画像における静的動作の所属する動的動作と動作検出結果とがマッチングすると考えられる。可能な一実現形態では、認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と動作検出結果とがマッチングする場合に、認識すべきフレーム画像を前記第2のキューに加えるようにしてもよい。認識すべきフレーム画像を第2のキューの後端から加え、且つ第2のキューの最先端のフレーム画像を削除して、第2のキューのフレーム画像を所定の数量に保つようにしてもよい。動的動作は連続性を有するので、1つの動的動作に対応する複数の連続したフレーム画像において、遠く離れている2つのフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報は大きく違い得る。動作検出結果にマッチングする認識すべきフレーム画像を第2のキューに加えることにより、第2のキューのフレーム画像における動的動作のリアルタイム性を保って、後続のフレーム画像の動的動作検出結果をより精確にすることができる。
可能な一実現形態では、第1のキューによりビデオストリーム中の後続の認識すべきフレーム画像における動的動作を検出し、第2のキューにより動作検出結果を決定するためのフレーム画像を保存するようにしてもよい。ビデオストリーム中の認識すべきフレーム画像について、第1のキュースに加える前に、第2のキューのフレーム画像と共に、認識すべきフレーム画像に動作検出結果にマッチングする動的動作があるか否かの決定に用いられるようにしてもよい。認識すべきフレーム画像に動作検出結果にマッチングする動的動作がある場合、認識すべきフレーム画像を第2のキューに加えて、第2のキューのフレーム画像における動的動作の連続性を保って、動的動作検出結果の正確率を高める。認識すべきフレーム画像に動作検出結果にマッチングする動的動作がない場合、認識すべきフレーム画像を第1のキューに加えて、第1のキューのフレーム画像による新しい動的動作の検出に利用して、動的動作検出の適時性を高める。本開示の実施例は、第1のキューおよび第2のキューを設置することにより、ビデオストリームにおける動的動作を精確、効率的、リアルタイムでトラッキングすることを実現することができる。
本実施例では、認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と動作検出結果とがマッチングする場合に、認識すべきフレーム画像を前記第2のキューに加える。動作検出結果にマッチングするフレーム画像を第2のキューに加えて、第2のキューのフレーム画像における動的動作のリアルタイム性を保って、後続のフレーム画像の動的動作検出結果を精確にすることができる。
図7は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動的動作に少なくとも1つの静的動作及び前記静的動作の動作軌跡が含まれる。図7に示すように、前記動的動作検出方法におけるステップS20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の動作軌跡に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するステップS21を含む。
可能な一実現形態では、動的動作は静的動作及び静的動作の動作軌跡を含んでもよい。部分的に更新された前記第1のキューの各フレーム画像における静的動作を検出し、各フレーム画像における静的動作がマッチングする場合に、各フレーム画像における静的動作の動作軌跡を計算し、各フレーム画像における静的動作の動作軌跡がマッチングする場合に、静的動作及び静的動作の動作軌跡に基づいて、部分的に更新された第1のキューのフレーム画像における動的動作を取得するようにしてもよい。本実施例では、部分的に更新された第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の動作軌跡に基づいて、部分的に更新されたフレーム画像における動的動作を取得することができる。静的動作及び静的動作の動作軌跡に基づいて動的動作を検出することによって、動的動作の検出正確率を高めることができる。
図8は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動的動作に少なくとも2つの静的動作及び静的動作間の切換情報が含まれる。図8に示すように、前記動的動作検出方法におけるステップS20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作及び静的動作の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するステップS22を含む。
可能な一実現形態では、動的動作は静的動作及び静的動作の切換情報を含んでもよい。部分的に更新された前記第1のキューの各フレーム画像における静的動作を検出し、各フレーム画像における静的動作がマッチングする場合に、各フレーム画像における静的動作の切換情報を計算し、各フレーム画像における静的動作の切換情報がマッチングする場合に、静的動作及び静的動作の切換情報に基づいて、部分的に更新された第1のキューのフレーム画像における動的動作を取得するようにしてもよい。本実施例では、部分的に更新された第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の切換情報に基づいて、部分的に更新されたフレーム画像における動的動作を取得することができる。静的動作及び静的動作の切換情報に基づいて動的動作を検出することによって、動的動作の検出正確率を高めることができる。
図9は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動的動作に少なくとも2つの静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報が含まれる。図9に示すように、前記動的動作検出方法におけるステップS20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するステップS23を含む。
可能な一実現形態では、動的動作は静的動作、各静的動作の動作軌跡、及び静的動作の切換情報を含んでもよい。部分的に更新された前記第1のキューの各フレーム画像における静的動作を検出し、各フレーム画像における静的動作がマッチングする場合に、各フレーム画像における各静的動作の動作軌跡及び静的動作間の切換情報を計算し、各フレーム画像における各静的動作の動作軌跡及び静的動作間の切換情報もマッチングする場合に、静的動作、各静的動作の動作軌跡、及び静的動作の切換情報に基づいて、部分的に更新された第1のキューのフレーム画像における動的動作を取得するようにしてもよい。本実施例では、部分的に更新された前記第1のキューの各フレーム画像における静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて、部分的に更新された第1のキューのフレーム画像における動的動作を取得する。静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて動的動作を検出することによって、動的動作の検出正確率を高めることができる。
図10は本開示の実施例による動的動作検出方法のフローチャットを示す。ここで、前記動的動作に手部動的動作が含まれ、前記静的動作にジェスチャーが含まれる。図10に示すように、前記動的動作検出方法におけるステップS11は、前記認識すべきフレーム画像に手部が含まれるか否かを検出するステップS111と、前記認識すべき画像に手部が含まれる場合に、前記手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを取得するステップS112と、を含む。
可能な一実現形態では、動的動作は手部動的動作、肢体動的動作等の様々の動的動作を含んでもよい。手部動的動作の実行者は人、動物、ロボット等を含んでもよい。手部動的動作は人の手部の動的動作又はロボットの手部の動的動作を含んでもよい。本開示はこれらを限定しない。まず、認識すべきフレーム画像に手部が含まれるか否かを検出するようにしてもよい。認識すべきフレーム画像をニューラルネットワークに入力し、ニューラルネットワークにより認識すべきフレーム画像に対して畳み込み処理等の操作を行って、認識すべきフレーム画像に手部が含まれるか否かを検出するようにしてもよい。手部が含まれない検出結果の場合、システム資源を節約するために、認識すべきフレーム画像に対する後続の解析を行わないようにしてもよい。
可能な一実現形態では、認識すべきフレーム画像に手部が含まれる検出結果の場合、更にジェスチャーを決定するようにしてもよい。手部の指に基づいてジェスチャーを取得してもよい。例えば、5本の指が全て伸ばされていることに基づいて、ジェスチャーが「五」であると決定できる。手部の掌に基づいてジェスチャーを取得してもよくい。例えば、掌の中央が上又は下へ向けていることに基づいて、ジェスチャーが「上へ」又は「下へ」であると決定できる。更に手部の指及び掌に基づいてジェスチャーを取得してもよい。例えば、5本の指が伸ばされ、掌の中央が下へ向けていることに基づいて、ジェスチャーが「下へ押す」であると決定できる。必要に応じて、指及び/又は掌に基づくジェスチャーの取得を決定できる。本開示はこれを限定しない。本実施例では、認識すべきフレーム画像に手部が含まれるか否かを検出し、認識すべき画像に手部が含まれる場合に、手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを取得することができる。認識すべきフレーム画像に手部が含まれるか否かを検出することによって、動的動作の検出効率を高めることができる。
可能な一実現形態では、ステップS112は、指先又は指関節を含む、前記手部の指の第1のキーポイントの位置、及び/又は、掌の中央、手の甲又は掌の縁部での点を含む、掌の第2のキーポイントの位置に基づいて、前記認識すべき画像におけるジェスチャーを認識するステップを含む。
可能な一実現形態では、従来のジェスチャー認識方法において、ジェスチャーテンプレートによりジェスチャーを認識する時に、ジェスチャーを予めテンプレートに入力することが必要であるので、ジェスチャーの認識効率が低く、テンプレートに大きく依存する。可能な一実現形態では、指に第1のキーポイントを決定してもよい。1本の指に1つ又は複数の第1のキーポイントを決定してもよい。例えば、指関節、指先位置の点を第1のキーポイントとしてもよい。掌に第2のキーポイントを決定してもよい。掌に1つ又は複数のキーポイントを含んでもよい。例えば、掌の中央、手の甲又は掌の縁部での点を第2のキーポイントとしてもよい。本開示の実施例は、手部のキーポイントの位置によりそれぞれのジェスチャーを柔軟かつ精確に認識して、ジェスチャー認識テンプレートに対する依存を解消することができる。
可能な一実現形態では、指の第1のキーポイントの位置に基づいてジェスチャーを決定してもよく、掌の第2のキーポイントの位置に基づいてジェスチャーを決定してもよく、更に指の第1のキーポイントの位置と掌の第2のキーポイントの位置を組み合わせてジェスチャーを決定してもよい。本実施例では、指の第1のキーポイントの位置及び/又は掌の第2のキーポイントの位置に基づいて、認識すべきフレーム画像におけるジェスチャーを決定することができる。手部のキーポイントに基づいて決定されたジェスチャーは精確で信頼性が高い。
可能な一実現形態では、前記手部動的動作にジェスチャーの動作軌跡及び/又は切換情報が更に含まれ、前記動的動作検出方法におけるステップS13は、前記認識すべきフレーム画像における第1のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第1のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定すること、及び/又は、前記認識すべきフレーム画像における第2のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第2のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定することを含む。
可能な一実現形態では、指に基づいてジェスチャーを決定できる場合に、認識すべきフレーム画像における第1のキーポイントとそれに対応する第2のキューのフレーム画像における第1のキーポイントとの位置差に基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するようにしてもよい。
可能な一実現形態では、掌に基づいてジェスチャーを決定できる場合に、認識すべきフレーム画像における第2のキーポイントとそれに対応する第2のキューのフレーム画像における第2のキーポイントとの位置差に基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するようにしてもよい。
可能な一実現形態では、指及び掌に基づいてジェスチャーを決定できる場合に、認識すべきフレーム画像における第1のキーポイントとそれに対応する第2のキューのフレーム画像における第1のキーポイントとの位置差、及び、認識すべきフレーム画像における第2のキーポイントとそれに対応する第2のキューのフレーム画像における第2のキーポイントとの位置差の両方に基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するようにしてもよい。本実施例では、前記認識すべきフレーム画像における第1のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第1のキーポイントに基づいて、及び/又は、前記認識すべきフレーム画像における第2のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第2のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定する。第1のキーポイント及び/又は第2のキーポイントに基づいて、認識すべきフレーム画像から精確な動作軌跡及び/又は切換情報を取得することにより、動的動作の検出結果を精確且つ信頼的にすることができる。
可能な一実現形態では、前記動的動作に静的動作及び静的動作の動作軌跡が含まれ、ステップS20は、前記第1のキューのフレーム画像における静的動作を検出することと、前記第1のキューの最初のフレーム画像における静的動作に対する、前記第1のキューの前記最初のフレーム画像以外のいずれか1つのフレーム画像を含む目標フレーム画像における静的動作の、X軸方向及びY軸方向の累積移動距離を計算することと、前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を含む。
可能な一実現形態では、フレーム画像について画像座標系を確立し、各フレーム画像における静的動作の画像座標系での座標位置を決定し、静的動作のX軸とY軸での座標値を取得するようにしてもよい。例えば、静的動作がジェスチャーである時に、手部の第1のキーポイントのX軸とY軸での座標値、及び/又は手部の第2のキーポイントのX軸とY軸での座標値に基づいて、ジェスチャーのX軸とY軸での座標値を取得することができる。可能な一実現形態では、前記第1のキューの最初のフレーム画像における静的動作に対する、各フレーム画像における静的動作のX軸方向及びY軸方向の累積移動距離を計算するようにしてもよい。累積移動距離はX軸の累積移動距離とY軸の累積移動距離からなるアレーを含んでもよい。累積移動距離に基づいて、最初のフレーム画像における静的動作に対する、各フレーム画像における静的動作の移動方向や移動距離を決定できる。本実施例では、第1のキューの各フレーム画像における静的動作及び静的動作の累積移動距離に基づいて、第1のキューにおける動的動作を決定できる。各フレーム画像の画像座標系での位置変化に基づいて、各フレーム画像における静的動作の累積移動距離を決定できる。画像座標系に基づいて、各フレーム画像における静的動作の累積移動距離を精確に取得できる。これにより、動作認識の結果が精確且つ信頼的になり、動作認識の誤り率が低減される。
可能な一実現形態では、前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて前記第1のキューのフレーム画像における動的動作を取得することは、前記目標フレーム画像における静的動作の累積移動距離が移動閾値よりも小さい場合に、前記第1のキューのフレーム画像における目標対象物の動的動作が断続動作であると決定することを含む。
可能な一実現形態では、動的動作が連続性を有しており、静的動作の空間位置の移動が所定距離に達すると、動的動作が発生したと決定できる。静的動作の空間位置の移動距離が小さ過ぎると、実行者が動的動作の実行を停止したと考えられる。必要に応じて移動閾値を決定でき、フレーム画像における静的動作の累積移動距離が移動閾値よりも小さい場合に、フレーム画像における動的動作に断続が生じたと考えられる。本実施例では、移動閾値により、第1のキューのフレーム画像における動作が断続動作であるか否かを精確に決定することができ、これにより、動作認識の結果が精確且つ信頼的になる。
可能な一実現形態では、前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて、前記第1のキューのフレーム画像における動的動作を取得することは、前記累積移動距離が前記移動閾値以上である場合に、各前記フレーム画像における静的動作の累積移動距離の、前記静的動作の所属する目標対象物の幅に対する比を計算することと、前記比が比閾値よりも小さい場合に、目標フレーム画像における静的動作の動作軌跡が回転動作軌跡であると決定することと、前記目標フレーム画像における静的動作及び前記回転動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を含む。
可能な一実現形態では、動的動作は回転動作を含んでもよい。例えば手部動的動作を例とする。動的動作が手部動的動作である場合に、各前記フレーム画像におけるジェスチャーの累積移動距離の、手部の幅に対する比を計算するようにしてもよい。ジェスチャーの累積移動距離を画像座標系におけるベクトルで示してもよい。前記ベクトルの大きさと手部の幅との比を計算してもよい。前記比が比閾値よりも小さい場合に、各フレーム画像におけるジェスチャーの動作軌跡が回転動作軌跡であると考えられる。
本実施例では、各フレーム画像における静的動作の累積移動距離の、前記静的動作の所属する目標対象物の幅に対する比を計算し、比が比閾値よりも小さい場合に、目標フレーム画像における静的動作の動作軌跡が回転動作軌跡であると決定することができる。累積移動距離及び比閾値により、動的動作の検出結果をより精確にすることができる。
可能な一実現形態では、前記方法は、前記比が前記比閾値以上である場合に、目標フレーム画像における静的動作の動作軌跡が並進移動動作軌跡であると決定することと、前記目標フレーム画像における静的動作及び前記並進移動動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を更に含む。
可能な一実現形態では、静的動作の動作軌跡は並進移動動作軌跡を含んでもよい。上記比が比閾値以上である場合に、各フレーム画像におけるジェスチャーの動作軌跡が並進移動動作軌跡であると考えられる。本実施例では、累積移動距離及び比閾値により、静的動作の動作軌跡が並進移動動作軌跡であることを判断でき、これにより、動的動作の検出結果がより精確になる。
図11は本開示の実施例による動的動作制御方法のフローチャットを示す。前記動的動作制御方法は、ユーザ側装置(User Equipment、UE)、携帯機器、ユーザ端末、端末、セルラーホン、コードレス電話、、パーソナル・デジタル・アシスタント(Personal Digital Assistant、PDA)、手持ちの機器、計算装置、車載装置、ウエアラブル装置等の端末装置、又は、サーバ等の電子機器により実行されてもよい。いくつかの可能な実現形態では、前記動的動作制御方法は、プロセッサによりメモリに記憶されているコンピュータ読取可能コマンドを呼び出すことで実現されてもよい。
図11に示すように、前記動的動作制御方法は、ビデオストリームを取得するステップS100と、上記のいずれか一項の動的動作検出方法を用いて前記ビデオストリームの動作検出結果を決定するステップS110と、機器が前記動作検出結果に対応する操作を実行するように制御するステップS120と、を含む。
可能な一実現形態では、制御操作が必要な機器に撮影装置を設置して、撮影装置によりリアルタイムでビデオストリームを取得するようにしてもよい。撮影装置により撮影したビデオストリームを取得してもよい。異なる撮影装置によりビデオストリームを撮影してもよい。撮影装置は、双眼カメラ、深度カメラ又は一般カメラを含んでもよい。動的動作検出要求に応じて異なる種類のカメラを選択してビデオストリームを撮影してもよい。
可能な一実現形態では、ステップS120は、予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得することと、前記操作コマンドに基づいて、機器が対応する操作を実行するように制御することと、を含む。
可能な一実現形態では、動作検出結果と操作コマンドとの対応関係を予め設定してもよい。対応関係について、1つの動作検出結果が1つの操作コマンドに対応してもよく、複数の動作検出結果が1つの操作コマンドに対応してもよい。操作される機器の種類及び操作要求に応じて操作コマンドの種類及び内容を決定することができる。本開示は操作コマンドの形態及び具体的な内容を限定しない。
可能な一実現形態では、操作コマンドを出力して、操作される機器を制御するようにしてもよい。動作検出結果はビデオストリームにおける動作をリアルタイムでトラッキングすることにより、出力された操作コマンドもビデオストリームにおける実行対象の動作をリアルタイムでトラッキングするので、操作者は操作される機器を精確に制御することができる。
本実施例では、対応関係及び動作検出結果に基づいて、動作検出結果に対応する操作コマンドを決定、出力することができる。動作検出結果のリアルタイム性や正確性により、操作コマンドもビデオストリームにおける実行対象の動作をリアルタイムでトラッキングすることができるので、操作者は機器をより精確に操作することができる。
可能な一実現形態では、前記操作コマンドに基づいて、機器が対応する操作を実行するように制御することは、前記操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器を制御することを含む。
可能な一実現形態では、車両に監視装置を設置して、車両中の運転者又は乗員の監視映像をビデオストリームとして撮影するようにしてもよい。撮影したビデオストリームに対してリアルタイムで動的動作検出を行うようにしてもよい。予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得し、次に操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器(例えば、車載マルチメディアデバイス、車載ロボット等)を制御するようにしてもよい。
可能な一実現形態では、機器が前記動作検出結果に対応する操作を実行するように制御することは、前記検出結果が定義済み動的動作であることに応じて、車両が前記定義済み動的動作に対応する操作を実行するように制御することを含む。
可能な一実現形態では、前記定義済み動的動作は、1本の指を時計方向/反時計方向に回転させる、掌を左/右へ振り動かす、2本の指で前へ突く、親指と小指を伸ばす、掌を下へ向けて下へ押す、親指を伸ばして左/右へ移動する、掌を左/右へ長くスライドさせる、掌の中央を上へ向けて拳を掌に変える、掌の中央を上へ向けて掌を拳に変える、掌の中央を下へ向けて掌を拳に変える、掌の中央を下へ向けて掌を拳に変える、1本の指をスライドさせる、複数の指を内へ向けて握る、1本の指でダブルクリックする、1本の指でシングルクリックする、複数の指でダブルクリックする、複数の指でシングルクリックするといったジェスチャーの少なくとも1つを含む動的ジェスチャーを含み、前記定義済み動的動作に対応する操作は、音量を大/小に調節する、曲を切り替える、曲を一時停止/継続する、電話を受ける又は起動する、電話を切る又は拒否する、エアコン温度を上げる又は下げる、マルチスクリーン・インタラクションを行う、サンルーフを開ける、サンルーフを閉める、ドアロックをかける、ドアロックを解除する、ナビゲーションをドラッグする、地図を縮小する、地図を拡大するといった操作の少なくとも1つを含む。
可能な一実現形態では、1本の指を時計方向/反時計方向に回転させる動的ジェスチャーにより、車両の音響装置に対して音量を大/小に調節する操作を行うようにしてもよい。掌を左/右へ振り動かす動的ジェスチャーにより、車両の音響装置に対して曲を切り替える操作を行うようにしてもよい。2本の指で前へ突く動的ジェスチャーにより、車両の音響装置に対して曲を一時停止/継続する操作を行うようにしてもよい。親指と小指を伸ばす動的ジェスチャーにより、車両の通信機器に対して電話を受ける又は起動する操作を行うようにしてもよい。掌を下へ向けて下へ押す動的ジェスチャーにより、車両の通信機器に対して電話を切る又は拒否する操作を行うようにしてもよい。親指を伸ばして左/右へ移動する動的ジェスチャーにより、車両のエアコン機器に対してエアコン温度を上げる又は下げる操作を行うようにしてもよい。掌を左/右へ長くスライドさせる動的ジェスチャーにより、車両のディスプレイスクリーンに対してマルチスクリーン・インタラクションを行う操作を行うようにしてもよい。掌の中央を上へ向けて拳を掌に変える動的ジェスチャーにより、車両に対してサンルーフを開ける操作(例えば、毎回10センチメートル開けるように毎回所定の長さ開ける)を行うようにしてもよい。掌の中央を上へ向けて掌を拳に変える動的ジェスチャーにより、車両に対してサンルーフを閉める操作を行うようにしてもよい。掌の中央を下へ向けて掌を拳に変える動的ジェスチャーにより、車両に対してドアロックをかける操作を行うようにしてもよい。掌の中央を下へ向けて拳を掌に変える動的ジェスチャーにより、車両に対してドアロックを解除する操作を行うようにしてもよい。1本の指をスライドさせる動的ジェスチャーにより、車両のナビゲーション装置に対してナビゲーションをドラッグする操作を行うようにしてもよい。複数の指を内へ向けて握る動的ジェスチャーにより、車両のナビゲーション装置に対して地図を縮小する操作を行うようにしてもよい。1本の指でダブルクリックする動的ジェスチャーにより、車両のナビゲーション装置に対して地図を拡大する操作を行うようにしてもよい。本実施例では、操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器を制御することができる。ビデオストリームから認識された動的動作に応じて、車両自身又は車両の車載システムに対して様々な操作を行うことができる。本開示の実施例における動的動作検出方法によれば、操作者は車両自身又は車載システムを精確に制御することができる。
応用例:図12は本開示の実施例による動作認識方法の応用例のフローチャットを示す。図12に示すように、車両に深度カメラを配置し、深度カメラにより運転者の監視画像をビデオストリームとして取得するようにしてもよい。撮影した監視画像に対してリアルタイムで動作認識を行ってもよい。本実施例では、運転者の手部動作に対する動作認識を行う。
1、先に検出された動作検出結果を取得する。ステップS210、第1のキュー及び第2のキューを空にし、動作検出結果も空にする。ビデオストリーム中のフレーム画像を時間順に第1のキューに加える。ステップS220、第1のキューのフレーム画像に動的動作があるか否かを検出する。動的動作なしの場合、ステップS230に進み、動的動作ありの場合、ステップS240に進む。
可能な一実現形態では、第1のキューの長さは10フレームのフレーム画像とするようにしてもよい。ビデオストリーム中の第1〜第10のフレームのフレーム画像を第1のキューに加えた後、第1のキューの10フレームのフレーム画像に動的動作があるか否かを判断するようにしてもよい。例えば、動的動作が手部動的動作である。具体的には、フレーム画像に手部があるか否かを順に認識し、第1のキューのフレーム画像に手部がある場合に、手部の指及び/又は掌に基づいて認識すべき画像におけるジェスチャーを認識するようにしてもよい。各フレーム画像におけるジェスチャーがマッチングする場合に、各フレーム画像におけるジェスチャーの動作軌跡及び/又は切換情報を決定するようにしてもよい。各フレーム画像におけるジェスチャーの動作軌跡及び/又は切換情報もマッチングする場合に、第1のキューにおける動的動作を検出するようにしてもよい。
ステップS230、ビデオストリーム中の各フレーム画像を時間順に第1のキューに加え続け、ステップS220に移行する。可能な一実現形態では、第11のフレームのフレーム画像を第1のキューの後端に加え、且つ第1のキューの最先端の第1のフレームのフレーム画像を第1のキューから削除するようにしてもよい。この時に、第1のキューに第2〜第11のフレームのフレーム画像が含まれ、ステップS220に移行してから、当該第1のキューに動作があるか否かを判断するようにしてもよい。動作なしの場合、続けて第12のフレームのフレーム画像を第1のキューに加え、且つ第2のフレームのフレーム画像を削除するようにしてもよい。ステップS220において第1のキューのフレーム画像に動作があると判断されるまで、上記の動作を繰り返す。
ステップS240、第1のキューのフレーム画像を第2のキューに移す。第1のキューを空にし、第2のキューのフレーム画像に基づいて動作検出結果を決定し、先に検出された動作検出結果を取得する。可能な一実現形態では、先に検出された動作検出結果が取得された後、第1のキューが空になり、第2のキューにビデオストリーム中の第23〜第32のフレームのフレーム画像といった10フレームのフレーム画像がある。第2のキューのフレーム画像における動作に応じて動作検出結果を決定できる。ビデオストリーム中の動作認識がなされていないフレーム画像は、認識すべきフレーム画像として後続に解析されてもよい。即ち、第33のフレームのフレーム画像からのフレーム画像を認識すべきフレーム画像として、後続の動的動作検出のステップS250に進む。
2、動的動作検出ステップ。ステップS250、ビデオストリーム中の認識すべきフレーム画像のそれぞれと動作検出結果とがマッチングするか否かを順に判断する。マッチングする場合に、ステップS260に進み、マッチングしない場合に、ステップS270に進む。
可能な一実現形態では、第33のフレームのフレーム画像及び第2のキューの最後端のフレーム画像(第32のフレームのフレーム画像)に基づいて、第33のフレームのフレーム画像と動作検出結果とがマッチングするか否かを決定してもよい。先に第33のフレームのフレーム画像におけるジェスチャーと第2のキューの第32のフレームのフレーム画像におけるジェスチャーとが一致するか否かを決定してもよい。ジェスチャーが一致している場合に、第33のフレームのフレーム画像におけるジェスチャーの動作軌跡及び/又は切換情報と動作検出結果に含まれるジェスチャーの動作軌跡及び/又は切換情報とがマッチングするか否かを決定する。ジェスチャーの動作軌跡及び/又は切換情報もマッチングする場合に、第33のフレームのフレーム画像と動作検出結果とがマッチングすると決定できる。
ステップS260、マッチングする場合に、前記認識すべきフレーム画像を第2のキューに加える。可能な一実現形態では、第33のフレームのフレーム画像を第2のキューに加えてから、第2のキューのフレーム画像が第24〜第33のフレームのフレーム画像に更新される。
ステップS270、マッチングしない場合に、前記認識すべきフレーム画像を第1のキューに加える。
ステップS280、前記第1のキューのフレーム画像における動的動作と動作検出結果とがマッチングするか否かを決定する。マッチングしない場合に、ステップS290に進む。
ステップS290、第1のキューのフレーム画像における動的動作と動作検出結果とがマッチングしない場合に、第2のキューを空にし、第1のキューのフレーム画像を第2のキューに移す。更新された第2のキューのフレーム画像における動作に応じて前記動作検出結果を更新する。
本開示で言及された上記各方法の実施例は、原理や論理を違反しない限り、相互に組み合わせて実施例を形成することができることが理解され、紙幅に限りがあるため、詳細は本開示では再度説明しない。当業者であれば、具体的な実施形態の上記方法において、各ステップの記述順序は厳密にその順に従って実行することを限定して、実施プロセスを何ら限定するものではなく、各ステップの具体的な実行順序はその機能および可能な内在的論理によって決定されるべきであることが理解される。
なお、本開示は、動的動作検出装置、動的動作制御装置、電子機器、コンピュータ読取可能記憶媒体、プログラムを更に提供し、いずれも本開示で提供されるいずれか1つの動的動作検出方法、動的動作制御方法を実現するために用いることができ、対応する技術的手段及び説明は方法の部分の対応する記載を参照すればよく、詳細は再度説明しない。
図13は本開示の実施例による動的動作検出装置のブロック図を示す。図13に示すように、前記動的動作検出装置は、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第1のキュー更新モジュール10と、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出するための動的動作検出モジュール20と、前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新するための動作検出結果更新モジュール30と、を含む。
可能な一実現形態では、前記装置は、前記第1のキューのフレーム画像に動的動作がある場合に、前記第1のキューのフレーム画像を第2のキューに移すことと、前記第2のキューのフレーム画像に基づいて前記動作検出結果を決定することとに用いられる、先に検出された動作検出結果の取得モジュールを更に含む。
可能な一実現形態では、前記動作検出結果に静的動作が含まれ、前記第1のキュー更新モジュール10は、前記ビデオストリーム中の認識すべきフレーム画像における静的動作を取得するための第1の取得サブモジュールと、前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第1の更新サブモジュールと、を含む。
可能な一実現形態では、前記動作検出結果に前記静的動作の動作軌跡及び/又は切換情報が更に含まれ、前記第1のキュー更新モジュール10は、前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングする場合に、前記認識すべきフレーム画像及び前記第2のキューのフレーム画像に基づいて、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定するための第2の取得サブモジュールと、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第2の更新サブモジュールと、を含む。
可能な一実現形態では、前記装置は、部分的に更新された前記第1のキューのフレーム画像に基づいて検出された前記動的動作と動作検出結果とがマッチングしない場合に、前記第2のキューを空にし、前記第1のキューのフレーム画像を前記第2のキューに移すためのキュー転移モジュールと、前記第2のキューのフレーム画像における動的動作に応じて、前記動作検出結果を更新するための動作検出結果更新モジュールと、を更に含む。
可能な一実現形態では、撮影したビデオストリームに対してリアルタイムで動的動作検出を行って、リアルタイムで検出して得られた動的動作に応じて電子機器の制御を行うようにしてもよい。ビデオストリーム中の認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報が動作検出結果にマッチングするか否かを検出し、マッチングしない場合に、認識すべきフレーム画像を第1のキューに加えて第1のキューを部分的に更新するようにしてもよい。部分的に更新された第1のキューのフレーム画像に新しい動的動作があることが検出された場合に、第2のキューを空にし、第1のキューのフレーム画像を全て第2のキューに移し、更新された第2のキューのフレーム画像における動的動作に応じて動作検出結果を更新するようにしてもよい。ビデオストリーム中の各フレーム画像をリアルタイムで解析して、動的動作検出のリアルタイム性や正確率を高めることができる。
可能な一実現形態では、前記装置は、前記認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングする場合に、前記認識すべきフレーム画像を前記第2のキューに加えるための第2のキュー更新モジュールを更に含む。
可能な一実現形態では、前記動的動作に少なくとも1つの静的動作及び前記静的動作の動作軌跡が含まれ、前記動的動作検出モジュール20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の動作軌跡に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第1の動的動作検出サブモジュールを含む。
可能な一実現形態では、前記動的動作に少なくとも2つの静的動作及び静的動作間の切換情報が含まれ、前記動的動作検出モジュール20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作及び静的動作の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第2の動的動作検出サブモジュールを含む。
可能な一実現形態では、前記動的動作に少なくとも2つの静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報が含まれ、前記動的動作検出モジュール20は、部分的に更新された前記第1のキューの各フレーム画像における静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第3の動的動作検出サブモジュールを含む。可能な一実現形態では、前記動的動作に手部動的動作が含まれ、前記静的動作にジェスチャーが含まれ、前記第1の取得サブモジュールは、前記認識すべきフレーム画像に手部が含まれるか否かを検出するための手部検出ユニットと、前記認識すべき画像に手部が含まれる場合に、前記手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを取得するためのジェスチャー決定ユニットと、を含む。
可能な一実現形態では、前記ジェスチャー決定ユニットは、指先又は指関節を含む、前記手部の指の第1のキーポイントの位置、及び/又は、掌の中央、手の甲又は掌の縁部での点を含む、掌の第2のキーポイントの位置に基づいて、前記認識すべき画像におけるジェスチャーを認識することに用いられる。
可能な一実現形態では、前記手部動的動作にジェスチャーの動作軌跡及び/又は切換情報が更に含まれ、前記第2の取得サブモジュールは、前記認識すべきフレーム画像における第1のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第1のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するための第1の取得ユニット、及び/又は前記認識すべきフレーム画像における第2のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第2のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するための第2の取得ユニットと、を含む。
可能な一実現形態では、前記動的動作に静的動作及び静的動作の動作軌跡が含まれ、前記動的動作検出モジュール20は、前記第1のキューのフレーム画像における静的動作を検出するための静的動作検出サブモジュールと、前記第1のキューの最初のフレーム画像における静的動作に対する、前記第1のキューの前記最初のフレーム画像以外のいずれか1つのフレーム画像を含む目標フレーム画像における静的動作の、X軸方向及びY軸方向の累積移動距離を計算するための累積移動距離決定サブモジュールと、前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて前記第1のキューのフレーム画像における動的動作を取得するための第4の動的動作検出サブモジュールと、を含む。
可能な一実現形態では、前記第4の動的動作検出サブモジュールは、前記目標フレーム画像における静的動作の累積移動距離が移動閾値よりも小さい場合に、前記第1のキューのフレーム画像における目標対象物の動的動作が断続動作であると決定することに用いられる。
可能な一実現形態では、前記第4の動的動作検出サブモジュールは、前記累積移動距離が前記移動閾値以上である場合に、各前記フレーム画像における静的動作の累積移動距離の、前記静的動作の所属する目標対象物の幅に対する比を計算することと、前記比が比閾値よりも小さい場合に、目標フレーム画像における静的動作の動作軌跡が回転動作軌跡であると決定することと、前記目標フレーム画像における静的動作及び前記回転動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することとに用いられる。
可能な一実現形態では、前記第4の動的動作検出サブモジュールは、更に、前記比が前記比閾値以上である場合に、目標フレーム画像における静的動作の動作軌跡が並進移動動作軌跡であると決定することと、前記目標フレーム画像における静的動作及び前記並進移動動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することとに用いられる。
図14は本開示の実施例による動的動作制御装置のブロック図を示す。図14に示すように、前記動的動作制御装置は、ビデオストリームを取得するためのビデオストリーム取得モジュール100と、上記動的動作検出装置を用いて前記ビデオストリームの動作検出結果を決定するための動作検出結果取得モジュール200と、機器が前記動作検出結果に対応する操作を実行するように制御するための操作実行モジュール300と、を含む。
可能な一実現形態では、制御操作が必要な機器に撮影装置を設置して、撮影装置によりリアルタイムでビデオストリームを取得するようにしてもよい。撮影装置により撮影したビデオストリームを取得してもよい。異なる撮影装置によりビデオストリームを撮影してもよい。撮影装置は、双眼カメラ、深度カメラ又は一般カメラを含んでもよい。動的動作検出要求に応じて異なる種類のカメラを選択してビデオストリームを撮影してもよい。
可能な一実現形態では、操作実行モジュール300は、予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得するための操作コマンド取得サブモジュールと、前記操作コマンドに基づいて、機器が対応する操作を実行するように制御するための操作実行サブモジュールと、を含む。
可能な一実現形態では、前記操作実行サブモジュールは、前記操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器を制御することに用いられる。
可能な一実現形態では、車両に監視装置を設置して、車両中の運転者又は乗員の監視映像をビデオストリームとして撮影するようにしてもよい。撮影したビデオストリームに対してリアルタイムで動的動作検出を行ってもよい。予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得し、次に操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器(例えば、車載マルチメディアデバイス、車載ロボット等)を制御するようにしてもよい。
可能な一実現形態では、前記操作実行モジュール300は、更に、前記検出結果が定義済み動的動作であることに応じて、車両が前記定義済み動的動作に対応する操作を実行するように制御することに用いられる。
可能な一実現形態では、前記定義済み動的動作は、1本の指を時計方向/反時計方向に回転させる、掌を左/右へ振り動かす、2本の指で前へ突く、親指と小指を伸ばす、掌を下へ向けて下へ押す、親指を伸ばして左/右へ移動する、掌を左/右へ長くスライドさせる、掌の中央を上へ向けて拳を掌に変える、掌の中央を上へ向けて掌を拳に変える、掌の中央を下へ向けて掌を拳に変える、掌の中央を下へ向けて拳を掌に変える、1本の指をスライドさせる、複数の指を内へ向けて握る、1本の指でダブルクリックする、1本の指でシングルクリックする、複数の指でダブルクリックする、複数の指でシングルクリックするといったジェスチャーの少なくとも1つを含む動的ジェスチャーを含み、前記定義済み動的動作に対応する操作は、音量を大/小に調節する、曲を切り替える、曲を一時停止/継続する、電話を受ける又は起動する、電話を切る又は拒否する、エアコン温度を上げる又は下げる、マルチスクリーン・インタラクションを行う、サンルーフを開ける、サンルーフを閉める、ドアロックをかける、ドアロックを解除する、ナビゲーションをドラッグする、地図を縮小する、地図を拡大するといった操作の少なくとも1つを含む。
いくつかの実施例では、本開示の実施例で提供された装置が有する機能又はモジュールは、上記方法の実施例に記載の方法を実行するために用いられ、その具体的な実現は上記方法の実施例の説明を参照すればよく、装置の技術的効果は対応する方法の実施例の記載を参考すればよく、説明を簡潔にするために、詳細は再度説明しない。
本開示の実施例は、コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドは、プロセッサにより実行されると、上記方法を実現させるコンピュータ読取可能記憶媒体を更に提案する。コンピュータ読取可能記憶媒体は、不揮発性のコンピュータ読取可能記憶媒体であってもよく、揮発性のコンピュータ読取可能記憶媒体であってもよい。
本開示の実施例は、プロセッサと、プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、前記プロセッサは、上記のいずれか1つの方法を実行するように構成される電子機器を更に提案する。電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
本開示の実施例は、コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、電子機器において実行されると、前記電子機器のプロセッサに本開示のいずれか1つの方法の実施例を実行させるコンピュータプログラムを更に提案する。
図15は例示的実施例による電子機器800のブロック図である。例えば、電子機器800は携帯電話、コンピュータ、デジタル放送端末、メッセージ送受信装置、ゲームコンソール、タブレット装置、医療機器、フィットネス器具、パーソナル・デジタル・アシスタントなどの端末であってもよい。
図15を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)のインタフェース812、センサコンポーネント814、および通信コンポーネント816のうちの一つ以上を含でもよい。
処理コンポーネント802は通常、電子機器800の全体的な動作、例えば表示、電話呼出し、データ通信、カメラ動作および記録動作に関連する動作を制御する。処理コンポーネント802は、命令を実行して上記方法の全てまたは一部のステップを実行するために、一つ以上のプロセッサ820を含んでもよい。また、処理コンポーネント802は、他のコンポーネントとのインタラクションのための一つ以上のモジュールを含んでもい。例えば、処理コンポーネント802は、マルチメディアコンポーネント808とのインタラクションのために、マルチメディアモジュールを含んでもい。
メモリ804は電子機器800での動作をサポートするための様々なタイプのデータを記憶するように構成される。これらのデータは、例として、電子機器800において操作するあらゆるアプリケーションプログラムまたは方法の命令、連絡先データ、電話帳データ、メッセージ、ピクチャー、ビデオなどを含む。メモリ804は、例えば静的ランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブル読み取り専用メモリ(EEPROM)、消去可能なプログラマブル読み取り専用メモリ(EPROM)、プログラマブル読み取り専用メモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスクまたは光ディスクなどの様々なタイプの揮発性または非揮発性記憶機器またはそれらの組み合わせによって実現できる。
電源コンポーネント806は電子機器800の各コンポーネントに電力を供給する。電源コンポーネント806は電源管理システム、一つ以上の電源、および電子機器800のための電力生成、管理および配分に関連する他のコンポーネントを含んでもよい。
マルチメディアコンポーネント808は前記電子機器800とユーザとの間で出力インタフェースを提供するスクリーンを含む。いくつかの実施例では、スクリーンは液晶ディスプレイ(LCD)およびタッチパネル(TP)を含んでもよい。スクリーンがタッチパネルを含む場合、ユーザからの入力信号を受信するタッチスクリーンとして実現してもよい。タッチパネルは、タッチ、スライドおよびタッチパネルでのジェスチャーを検知するために、一つ以上のタッチセンサを含む。前記タッチセンサはタッチまたはスライド動きの境界を検知するのみならず、前記タッチまたはスライド操作に関連する持続時間および圧力を検出するようにしてもよい。いくつかの実施例では、マルチメディアコンポーネント808は一つの前面カメラおよび/または後面カメラを含む。電子機器800が動作モード、例えば写真モードまたは撮影モードになる場合、前面カメラおよび/または後面カメラは外部のマルチメディアデータを受信するようにしてもよい。各前面カメラおよび後面カメラは、固定された光学レンズ系、または焦点距離および光学ズーム能力を有するものであってもよい。
オーディオコンポーネント810はオーディオ信号を出力および/または入力するように構成される。例えば、オーディオコンポーネント810は、一つのマイク(MIC)を含み、マイク(MIC)は、電子機器800が動作モード、例えば呼び出しモード、記録モードおよび音声認識モードになる場合、外部のオーディオ信号を受信するように構成される。受信されたオーディオ信号はさらにメモリ804に記憶されるか、または通信コンポーネント816によって送信されてもよい。いくつかの実施例では、オーディオコンポーネント810はさらに、オーディオ信号を出力するためのスピーカーを含む。
I/Oインタフェース812は処理コンポーネント802と周辺インタフェースモジュールとの間でインタフェースを提供し、上記周辺インタフェースモジュールはキーボード、クリックホイール、ボタンなどであってもよい。これらのボタンはホームボタン、音量ボタン、スタートボタンおよびロックボタンを含んでもよいが、これらに限定されない。
センサコンポーネント814は電子機器800の各面で状態評価のために一つ以上のセンサを含む。例えば、センサコンポーネント814は電子機器800のオン/オフ状態、例えば電子機器800の表示装置およびキーパッドのようなコンポーネントの相対的位置決めを検出でき、センサコンポーネント814はさらに、電子機器800または電子機器800のあるコンポーネントの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位または加減速および電子機器800の温度変化を検出できる。センサコンポーネント814は、いかなる物理的接触もない場合に近傍の物体の存在を検出するように構成された近接センサを含んでもよい。センサコンポーネント814はさらに、CMOSまたはCCDイメージセンサのような、イメージングアプリケーションにおいて使用するための光センサを含んでもよい。いくつかの実施例では、該センサコンポーネント814はさらに、加速度センサ、ジャイロスコープセンサ、磁気センサ、圧力センサまたは温度センサを含んでもよい。
通信コンポーネント816は電子機器800と他の機器との有線または無線通信を実現するように配置される。電子機器800は通信規格に基づく無線ネットワーク、例えばWiFi、2Gまたは3G、またはそれらの組み合わせにアクセスできる。一例示的実施例では、通信コンポーネント816は放送チャネルによって外部の放送管理システムの放送信号または放送関連情報を受信する。一例示的実施例では、前記通信コンポーネント816はさらに、近距離通信を促進させるために、近距離無線通信(NFC)モジュールを含む。例えば、NFCモジュールは無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術および他の技術によって実現できる。
例示的な実施例では、電子機器800は一つ以上の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理デバイス(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサまたは他の電子要素によって実現され、上記方法を実行するために用いることができる。
例示的な実施例では、さらに、非揮発性のコンピュータ読み取り可能記憶媒体、例えばコンピュータプログラム命令を含むメモリ804が提供され、上記コンピュータプログラム命令は、電子機器800のプロセッサ820によって実行されると、上記方法を実行することができる。
本開示はシステム、方法および/またはコンピュータプログラム製品であってもよい。コンピュータプログラム製品はプロセッサに本開示の各方面を実現させるためのコンピュータ読み取り可能プログラム命令を有しているコンピュータ読み取り可能記憶媒体を含んでもよい。コンピュータ読み取り可能記憶媒体は命令実行装置に使用される命令を保存および記憶可能な有形装置であってもよい。コンピュータ読み取り可能記憶媒体は例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置または上記の任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ読み取り可能記憶媒体のさらに具体的な例(非網羅的リスト)としては、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、静的ランダムアクセスメモリ(SRAM)、携帯型コンパクトディスク読み取り専用メモリ(CD−ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フロッピーディスク、例えば命令が記憶されているせん孔カードまたはスロット内突起構造のような機械的符号化装置、および上記の任意の適当な組み合わせを含む。ここで使用されるコンピュータ読み取り可能記憶媒体は瞬時信号自体、例えば無線電波または他の自由に伝播される電磁波、導波路または他の伝送媒体を経由して伝播される電磁波(例えば、光ファイバーケーブルを通過するパルス光)、または電線を経由して伝送される電気信号と解釈されるものではない。
ここで記述したコンピュータ読み取り可能プログラム命令はコンピュータ読み取り可能記憶媒体から各計算/処理機器にダウンロードされてもよいし、またはネットワーク、例えばインターネット、ローカルエリアネットワーク、広域ネットワークおよび/または無線ネットワークによって外部のコンピュータまたは外部記憶装置にダウンロードされてもよい。ネットワークは銅伝送ケーブル、光ファイバー伝送、無線伝送、ルーター、ファイアウォール、交換機、ゲートウェイコンピュータおよび/またはエッジサーバを含んでもよい。各計算/処理機器内のネットワークアダプタカードまたはネットワークインタフェースはネットワークからコンピュータ読み取り可能プログラム命令を受信し、該コンピュータ読み取り可能プログラム命令を転送し、各計算/処理機器内のコンピュータ読み取り可能記憶媒体に記憶させる。本開示の動作を実行するためのコンピュータプログラム命令はアセンブラ命令、命令セットアーキテクチャ(ISA)命令、機械語命令、機械依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk、C++などのオブジェクト指向プログラミング言語、および「C」言語または類似するプログラミング言語などの一般的な手続き型プログラミング言語を含む一つ以上のプログラミング言語の任意の組み合わせで書かれたソースコードまたは目標コードであってもよい。コンピュータ読み取り可能プログラム命令は、完全にユーザのコンピュータにおいて実行されてもよく、部分的にユーザのコンピュータにおいて実行されてもよく、スタンドアロンソフトウェアパッケージとして実行されてもよく、部分的にユーザのコンピュータにおいてかつ部分的にリモートコンピュータにおいて実行されてもよく、または完全にリモートコンピュータもしくはサーバにおいて実行されてもよい。リモートコンピュータに関与する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)または広域ネットワーク(WAN)を含む任意の種類のネットワークを経由してユーザのコンピュータに接続されてもよく、または、(例えばインターネットサービスプロバイダを利用してインターネットを経由して)外部コンピュータに接続されてもよい。いくつかの実施例では、コンピュータ読み取り可能プログラム命令の状態情報を利用して、例えばプログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)またはプログラマブル論理アレイ(PLA)などの電子回路をパーソナライズし、該電子回路によりコンピュータ読み取り可能プログラム命令を実行することにより、本開示の各方面を実現できるようにしてもよい。
ここで本開示の実施例による方法、装置(システム)およびコンピュータプログラム製品のフローチャートおよび/またはブロック図を参照しながら本開示の各方面を説明したが、フローチャートおよび/またはブロック図の各ブロックおよびフローチャートおよび/またはブロック図の各ブロックの組み合わせは、いずれもコンピュータ読み取り可能プログラム命令によって実現できることを理解すべきである。
これらのコンピュータ読み取り可能プログラム命令は、汎用コンピュータ、専用コンピュータまたは他のプログラマブルデータ処理装置のプロセッサへ提供されて、これらの命令はコンピュータまたは他のプログラマブルデータ処理装置のプロセッサによって実行されるときフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現するように装置を製造してもよい。これらのコンピュータ読み取り可能プログラム命令は、コンピュータ読み取り可能記憶媒体に記憶し、コンピュータ、プログラマブルデータ処理装置および/または他の機器を特定の方式で動作させるようにしてもよい。命令を記憶しているコンピュータ読み取り可能記憶媒体に、フローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作の各方面を実現するための命令を有する製品を含む。
コンピュータ読み取り可能プログラムは、コンピュータ、他のプログラマブルデータ処理装置、または他の機器にロードし、コンピュータ、他のプログラマブルデータ処理装置または他の機器に一連の動作ステップを実行させることにより、コンピュータにより実施なプロセスを生成し、コンピュータ、他のプログラマブルデータ処理装置、または他の機器において実行される命令によりフローチャートおよび/またはブロック図の一つ以上のブロックにおいて指定された機能/動作を実現する。
図面のうちフローチャートおよびブロック図は、本開示の複数の実施例によるシステム、方法およびコンピュータプログラム製品の実現可能なシステムアーキテクチャ、機能および動作を示す。この点では、フローチャートまたはブロック図における各ブロックは一つのモジュール、プログラムセグメントまたは命令の一部分を代表することができ、前記モジュール、プログラムセグメントまたは命令の一部分は指定された論理機能を実現するための一つ以上の実行可能命令を含む。いくつかの代替としての実現形態では、ブロックに表記される機能は図面に付した順序と異なって実現してもよい。例えば、二つの連続的なブロックは実質的に同時に実行してもよく、また、係る機能によって、逆な順序で実行してもよい場合がある。なお、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定される機能または動作を実行するハードウェアに基づく専用システムによって実現してもよいし、または専用ハードウェアとコンピュータ命令との組み合わせによって実現してもよいことに注意すべきである。論理を違反しない限り、本願のそれぞれの実施例は相互に組み合わせることができ、異なる実施例において重点として説明されるものが異なって、重点として説明されていない部分は他の実施例の記載を参照すればよい。
以上、本開示の各実施例を記述したが、上記説明は例示的なものに過ぎず、網羅的なものではなく、かつ披露された各実施例に限定されるものでもない。当業者にとって、説明された各実施例の範囲および精神から逸脱することなく、様々な修正および変更が自明である。本明細書に選ばれた用語は、各実施例の原理、実際の適用または市場における技術への改善を好適に解釈するか、または他の当業者に本明細書に披露された各実施例を理解させるためのものである。

Claims (45)

  1. ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することと、
    部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することと、
    前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新することと、を含むことを特徴とする動的動作検出方法。
  2. 前記先に検出された動作検出結果の取得方法として、
    前記第1のキューのフレーム画像に動的動作がある場合に、前記第1のキューのフレーム画像を第2のキューに移すことと、
    前記第2のキューのフレーム画像に基づいて前記動作検出結果を決定することと、を含むことを特徴とする請求項1に記載の方法。
  3. 前記動作検出結果に静的動作が含まれ、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することは、
    前記ビデオストリーム中の認識すべきフレーム画像における静的動作を取得することと、
    前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することと、を含むことを特徴とする請求項1又は2に記載の方法。
  4. 前記動作検出結果に前記静的動作の動作軌跡及び/又は切換情報が更に含まれ、ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することは、
    前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングする場合に、前記認識すべきフレーム画像及び前記第2のキューのフレーム画像に基づいて、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定することと、
    前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得することと、を含むことを特徴とする請求項3に記載の方法。
  5. 部分的に更新された前記第1のキューのフレーム画像に基づいて検出された前記動的動作と動作検出結果とがマッチングしない場合に、前記第2のキューを空にし、前記第1のキューのフレーム画像を前記第2のキューに移すことと、
    前記第2のキューのフレーム画像における動的動作に応じて、前記動作検出結果を更新することと、を更に含むことを特徴とする請求項2〜4のいずれか一項に記載の方法。
  6. 前記認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングする場合に、前記認識すべきフレーム画像を前記第2のキューに加えることを更に含むことを特徴とする請求項4又は5に記載の方法。
  7. 前記動的動作に少なくとも1つの静的動作及び前記静的動作の動作軌跡が含まれ、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の動作軌跡に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得することを含むことを特徴とする請求項1〜6のいずれか一項に記載の方法。
  8. 前記動的動作に少なくとも2つの静的動作及び静的動作間の切換情報が含まれ、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作及び静的動作の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得することを含むことを特徴とする請求項1〜6のいずれか一項に記載の方法。
  9. 前記動的動作に少なくとも2つの静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報が含まれ、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得することを含むことを特徴とする請求項1〜6のいずれか一項に記載の方法。
  10. 前記動的動作に手部動的動作が含まれ、前記静的動作にジェスチャーが含まれ、前記ビデオストリーム中の認識すべきフレーム画像における静的動作を取得することは、
    前記認識すべきフレーム画像に手部が含まれるか否かを検出することと、
    前記認識すべき画像に手部が含まれる場合に、前記手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを取得することと、を含むことを特徴とする請求項3〜9のいずれか一項に記載の方法。
  11. 前記手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを判断することは、
    指先又は指関節を含む、前記手部の指の第1のキーポイントの位置、及び/又は、掌の中央、手の甲又は掌の縁部での点を含む、掌の第2のキーポイントの位置に基づいて、前記認識すべき画像におけるジェスチャーを認識することを含むことを特徴とする請求項10に記載の方法。
  12. 前記手部動的動作にジェスチャーの動作軌跡及び/又は切換情報が更に含まれ、前記認識すべきフレーム画像及び前記第2のキューのフレーム画像に基づいて、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定することは、
    前記認識すべきフレーム画像における第1のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第1のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定すること、及び/又は
    前記認識すべきフレーム画像における第2のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第2のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定することを含むことを特徴とする請求項11に記載の方法。
  13. 前記動的動作に静的動作及び静的動作の動作軌跡が含まれ、部分的に更新された前記第1のキューのフレーム画像における動的動作を検出することは、
    前記第1のキューのフレーム画像における静的動作を検出することと、
    前記第1のキューの最初のフレーム画像における静的動作に対する、前記第1のキューの前記最初のフレーム画像以外のいずれか1つのフレーム画像を含む目標フレーム画像における静的動作の、X軸方向及びY軸方向の累積移動距離を計算することと、
    前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を含むことを特徴とする請求項1〜12のいずれか一項に記載の方法。
  14. 前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて、前記第1のキューのフレーム画像における動的動作を取得することは、
    前記目標フレーム画像における静的動作の累積移動距離が移動閾値よりも小さい場合に、前記第1のキューのフレーム画像における目標対象物の動的動作が断続動作であると決定することを含むことを特徴とする請求項13に記載の方法。
  15. 前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて、前記第1のキューのフレーム画像における動的動作を取得することは、
    前記累積移動距離が前記移動閾値以上である場合に、各前記フレーム画像における静的動作の累積移動距離の、前記静的動作の所属する目標対象物の幅に対する比を計算することと、
    前記比が比閾値よりも小さい場合に、目標フレーム画像における静的動作の動作軌跡が回転動作軌跡であると決定することと、
    前記目標フレーム画像における静的動作及び前記回転動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を含むことを特徴とする請求項13に記載の方法。
  16. 前記比が前記比閾値以上である場合に、目標フレーム画像における静的動作の動作軌跡が並進移動動作軌跡であると決定することと、
    前記目標フレーム画像における静的動作及び前記並進移動動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することと、を更に含むことを特徴とする請求項15に記載の方法。
  17. ビデオストリームを取得することと、
    請求項1〜16のいずれか一項に記載の方法を用いて前記ビデオストリームの動作検出結果を決定することと、
    機器が前記動作検出結果に対応する操作を実行するように制御することと、を含むことを特徴とする動的動作制御方法。
  18. 機器が前記動作検出結果に対応する操作を実行するように制御することは、
    予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得することと、
    前記操作コマンドに基づいて、機器が対応する操作を実行するように制御することと、を含むことを特徴とする請求項17に記載の方法。
  19. 前記操作コマンドに基づいて、機器が対応する操作を実行するように制御することは、
    前記操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器を制御することを含むことを特徴とする請求項18に記載の方法。
  20. 機器が前記動作検出結果に対応する操作を実行するように制御することは、
    前記検出結果が定義済み動的動作であることに応じて、車両が前記定義済み動的動作に対応する操作を実行するように制御することを含むことを特徴とする請求項17に記載の方法。
  21. 前記定義済み動的動作は、1本の指を時計方向/反時計方向に回転させる、掌を左/右へ振り動かす、2本の指で前へ突く、親指と小指を伸ばす、掌を下へ向けて下へ押す、親指を伸ばして左/右へ移動する、掌を左/右へ長くスライドさせる、掌の中央を上へ向けて拳を掌に変える、掌の中央を上へ向けて掌を拳に変える、掌の中央を下へ向けて掌を拳に変える、掌の中央を下へ向けて拳を掌に変える、1本の指をスライドさせる、複数の指を内へ向けて握る、1本の指でダブルクリックする、1本の指でシングルクリックする、複数の指でダブルクリックする、複数の指でシングルクリックするといったジェスチャーの少なくとも1つを含む動的ジェスチャーを含み、
    前記定義済み動的動作に対応する操作は、音量を大/小に調節する、曲を切り替える、曲を一時停止/継続する、電話を受ける又は起動する、電話を切る又は拒否する、エアコン温度を上げる又は下げる、マルチスクリーン・インタラクションを行う、サンルーフを開ける、サンルーフを閉める、ドアロックをかける、ドアロックを解除する、ナビゲーションをドラッグする、地図を縮小する、地図を拡大するといった操作の少なくとも1つを含むことを特徴とする請求項20に記載の方法。
  22. ビデオストリーム中のフレーム画像を第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第1のキュー更新モジュールと、
    部分的に更新された前記第1のキューのフレーム画像における動的動作を検出するための動的動作検出モジュールと、
    前記動的動作と、動作参照結果又は先に検出された動作検出結果を含む動作検出結果とがマッチングしない場合に、前記動的動作に応じて、前記動作検出結果を更新するための動作検出結果更新モジュールと、を含むことを特徴とする動的動作検出装置。
  23. 前記第1のキューのフレーム画像に動的動作がある場合に、前記第1のキューのフレーム画像を第2のキューに移すことと、前記第2のキューのフレーム画像に基づいて前記動作検出結果を決定することとに用いられる、先に検出された動作検出結果の取得モジュールを更に含むことを特徴とする請求項22に記載の装置。
  24. 前記動作検出結果に静的動作が含まれ、前記第1のキュー更新モジュールは、
    前記ビデオストリーム中の認識すべきフレーム画像における静的動作を取得するための第1の取得サブモジュールと、
    前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第1の更新サブモジュールと、を含むことを特徴とする請求項22又は23に記載の装置。
  25. 前記動作検出結果に前記静的動作の動作軌跡及び/又は切換情報が更に含まれ、前記第1のキュー更新モジュールは、
    前記認識すべきフレーム画像における静的動作と前記動作検出結果に含まれる静的動作とがマッチングする場合に、前記認識すべきフレーム画像及び前記第2のキューのフレーム画像に基づいて、前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報を決定するための第2の取得サブモジュールと、
    前記認識すべきフレーム画像における静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングしない場合に、前記認識すべきフレーム画像を前記第1のキューに加え、フレーム画像が部分的に更新された前記第1のキューを取得するための第2の更新サブモジュールと、を含むことを特徴とする請求項24に記載の装置。
  26. 部分的に更新された前記第1のキューのフレーム画像に基づいて検出された前記動的動作と動作検出結果とがマッチングしない場合に、前記第2のキューを空にし、前記第1のキューのフレーム画像を前記第2のキューに移すためのキュー転移モジュールと、
    前記第2のキューのフレーム画像における動的動作に応じて、前記動作検出結果を更新するための動作検出結果更新モジュールと、を更に含むことを特徴とする請求項23〜25のいずれか一項に記載の装置。
  27. 前記認識すべきフレーム画像における静的動作、静的動作の動作軌跡及び/又は切換情報と前記動作検出結果とがマッチングする場合に、前記認識すべきフレーム画像を前記第2のキューに加えるための第2のキュー更新モジュールを更に含むことを特徴とする請求項25又は26に記載の装置。
  28. 前記動的動作に少なくとも1つの静的動作及び前記静的動作の動作軌跡が含まれ、前記動的動作検出モジュールは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作及び各フレーム画像における静的動作の動作軌跡に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第1の動的動作検出サブモジュールを含むことを特徴とする請求項22〜27のいずれか一項に記載の装置。
  29. 前記動的動作に少なくとも2つの静的動作及び静的動作間の切換情報が含まれ、前記動的動作検出モジュールは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作及び静的動作の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第2の動的動作検出サブモジュールを含むことを特徴とする請求項22〜27のいずれか一項に記載の装置。
  30. 前記動的動作に少なくとも2つの静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報が含まれ、前記動的動作検出モジュールは、
    部分的に更新された前記第1のキューの各フレーム画像における静的動作、各静的動作の動作軌跡、及び静的動作間の切換情報に基づいて、部分的に更新された前記第1のキューのフレーム画像における動的動作を取得するための第3の動的動作検出サブモジュールを含むことを特徴とする請求項22〜27のいずれか一項に記載の装置。
  31. 前記動的動作に手部動的動作が含まれ、前記静的動作にジェスチャーが含まれ、前記第1の取得サブモジュールは、
    前記認識すべきフレーム画像に手部が含まれるか否かを検出するための手部検出ユニットと、
    前記認識すべき画像に手部が含まれる場合に、前記手部の指及び/又は掌に基づいて前記認識すべき画像におけるジェスチャーを取得するためのジェスチャー決定ユニットと、を含むことを特徴とする請求項24〜30のいずれか一項に記載の装置。
  32. 前記ジェスチャー決定ユニットは、
    指先又は指の関節を含む、前記手部の指の第1のキーポイントの位置、及び/又は、掌の中央、手の甲又は掌の縁部での点を含む、掌の第2のキーポイントの位置に基づいて、前記認識すべき画像におけるジェスチャーを認識することに用いられることを特徴とする請求項31に記載の装置。
  33. 前記手部動的動作にジェスチャーの動作軌跡及び/又は切換情報が更に含まれ、前記第2の取得サブモジュールは、
    前記認識すべきフレーム画像における第1のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第1のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するための第1の取得ユニット、及び/又は
    前記認識すべきフレーム画像における第2のキーポイント及びそれに対応する前記第2のキューのフレーム画像における第2のキーポイントに基づいて、前記認識すべきフレーム画像における動作軌跡及び/又は切換情報を決定するための第2の取得ユニットを含むことを特徴とする請求項32に記載の装置。
  34. 前記動的動作に静的動作及び静的動作の動作軌跡が含まれ、前記動的動作検出モジュールは、
    前記第1のキューのフレーム画像における静的動作を検出するための静的動作検出サブモジュールと、
    前記第1のキューの最初のフレーム画像における静的動作に対する、前記第1のキューの前記最初のフレーム画像以外のいずれか1つのフレーム画像を含む目標フレーム画像における静的動作の、X軸方向及びY軸方向の累積移動距離を計算するための累積移動距離決定サブモジュールと、
    前記目標フレーム画像における静的動作及び前記累積移動距離に基づいて前記第1のキューのフレーム画像における動的動作を取得するための第4の動的動作検出サブモジュールと、を含むことを特徴とする請求項22〜33のいずれか一項に記載の装置。
  35. 前記第4の動的動作検出サブモジュールは、
    前記目標フレーム画像における静的動作の累積移動距離が移動閾値よりも小さい場合に、前記第1のキューのフレーム画像における目標対象物の動的動作が断続動作であると決定することに用いられることを特徴とする請求項34に記載の装置。
  36. 前記第4の動的動作検出サブモジュールは、
    前記累積移動距離が前記移動閾値以上である場合に、各前記フレーム画像における静的動作の累積移動距離の、前記静的動作の所属する目標対象物の幅に対する比を計算することと、
    前記比が比閾値よりも小さい場合に、目標フレーム画像における静的動作の動作軌跡が回転動作軌跡であると決定することと、
    前記目標フレーム画像における静的動作及び前記回転動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することとに用いられることを特徴とする請求項34に記載の装置。
  37. 前記第4の動的動作検出サブモジュールは、更に、
    前記比が前記比閾値以上である場合に、目標フレーム画像における静的動作の動作軌跡が並進移動動作軌跡であると決定することと、
    前記目標フレーム画像における静的動作及び前記並進移動動作軌跡に基づいて、前記第1のキューのフレーム画像における動的動作を取得することとに用いられることを特徴とする請求項36に記載の装置。
  38. ビデオストリームを取得するためのビデオストリーム取得モジュールと、
    請求項22〜37のいずれか一項に記載の装置を用いて前記ビデオストリームの動作検出結果を決定するための動作検出結果取得モジュールと、
    機器が前記動作検出結果に対応する操作を実行するように制御するための操作実行モジュールと、を含むことを特徴とする動的動作制御装置。
  39. 操作実行モジュールは、
    予め設定された動作検出結果と操作コマンドとの対応関係に基づいて、前記動作検出結果に対応する操作コマンドを取得するための操作コマンド取得サブモジュールと、
    前記操作コマンドに基づいて、機器が対応する操作を実行するように制御するための操作実行サブモジュールと、を含むことを特徴とする請求項38に記載の装置。
  40. 前記操作実行サブモジュールは、
    前記操作コマンドに基づいて車両の車窓、車両のドア、車載システム、又は車載機器を制御することに用いられることを特徴とする請求項39に記載の装置。
  41. 前記操作実行モジュールは、更に、
    前記検出結果が定義済み動的動作であることに応じて、車両が前記定義済み動的動作に対応する操作を実行するように制御することに用いられることを特徴とする請求項38に記載の装置。
  42. 前記定義済み動的動作は、1本の指を時計方向/反時計方向に回転させる、掌を左/右へ振り動かす、2本の指で前へ突く、親指と小指を伸ばす、掌を下へ向けて下へ押す、親指を伸ばして左/右へ移動する、掌を左/右へ長くスライドさせる、掌の中央を上へ向けて拳を掌に変える、掌の中央を上へ向けて掌を拳に変える、掌の中央を下へ向けて掌を拳に変える、掌の中央を下へ向けて拳を掌に変える、1本の指をスライドさせる、複数の指を内へ向けて握る、1本の指でダブルクリックする、1本の指でシングルクリックする、複数の指でダブルクリックする、複数の指でシングルクリックするといったジェスチャーの少なくとも1つを含む動的ジェスチャーを含み、
    前記定義済み動的動作に対応する操作は、音量を大/小に調節する、曲を切り替える、曲を一時停止/継続する、電話を受ける又は起動する、電話を切る又は拒否する、エアコン温度を上げる又は下げる、マルチスクリーン・インタラクションを行う、サンルーフを開ける、サンルーフを閉める、ドアロックをかける、ドアロックを解除する、ナビゲーションをドラッグする、地図を縮小する、地図を拡大するといった操作の少なくとも1つを含むことを特徴とする請求項41に記載の装置。
  43. プロセッサと、
    プロセッサにより実行可能なコマンドを記憶するためのメモリと、を含み、
    前記プロセッサは請求項1〜21のいずれか一項に記載の方法を実行するように構成されることを特徴とする電子機器。
  44. コンピュータプログラムコマンドが記憶されているコンピュータ読取可能記憶媒体であって、前記コンピュータプログラムコマンドは、プロセッサにより実行されると、請求項1〜21のいずれか一項に記載の方法を実現させることを特徴とするコンピュータ読取可能記憶媒体。
  45. コンピュータ読取可能コードを含むコンピュータプログラムであって、前記コンピュータ読取可能コードは、電子機器において実行されると、前記電子機器のプロセッサに請求項1〜21のいずれか一項に記載の方法を実現するためのコマンドを実行させることを特徴とするコンピュータプログラム。
JP2021502886A 2018-08-24 2019-06-28 動的動作検出方法、動的動作制御方法及び装置 Active JP7127202B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810974244.8A CN109144260B (zh) 2018-08-24 2018-08-24 动态动作检测方法、动态动作控制方法及装置
CN201810974244.8 2018-08-24
PCT/CN2019/093583 WO2020038108A1 (zh) 2018-08-24 2019-06-28 动态动作检测方法、动态动作控制方法及装置

Publications (2)

Publication Number Publication Date
JP2021524116A true JP2021524116A (ja) 2021-09-09
JP7127202B2 JP7127202B2 (ja) 2022-08-29

Family

ID=64827872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021502886A Active JP7127202B2 (ja) 2018-08-24 2019-06-28 動的動作検出方法、動的動作制御方法及び装置

Country Status (6)

Country Link
US (1) US11455836B2 (ja)
JP (1) JP7127202B2 (ja)
KR (1) KR102321562B1 (ja)
CN (1) CN109144260B (ja)
SG (1) SG11202013098TA (ja)
WO (1) WO2020038108A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109144260B (zh) 2018-08-24 2020-08-18 上海商汤智能科技有限公司 动态动作检测方法、动态动作控制方法及装置
US11873000B2 (en) 2020-02-18 2024-01-16 Toyota Motor North America, Inc. Gesture detection for transport control
US20210253135A1 (en) * 2020-02-18 2021-08-19 Toyota Motor North America, Inc. Determining transport operation level for gesture control
EP3926544B1 (en) 2020-06-18 2024-03-13 Tata Consultancy Services Limited System and method of gesture recognition using a reservoir based convolutional spiking neural network
US11829443B2 (en) 2021-03-29 2023-11-28 International Business Machines Corporation Augmentation of video datasets for machine learning training
CN115600171B (zh) * 2022-10-24 2023-08-04 星空映画(武汉)科技有限公司 一种根据用户习惯判断的计算机用户动作识别***

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199623A (ja) * 2002-12-20 2004-07-15 Minolta Co Ltd 移動体の計数方法
US20050271279A1 (en) * 2004-05-14 2005-12-08 Honda Motor Co., Ltd. Sign based human-machine interaction
JP2006345081A (ja) * 2005-06-07 2006-12-21 Sony Corp 検出装置および方法、記録媒体、プログラム、並びに画像表示装置
US20110135148A1 (en) * 2009-12-08 2011-06-09 Micro-Star Int'l Co., Ltd. Method for moving object detection and hand gesture control method based on the method for moving object detection
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
JP2014042139A (ja) * 2012-08-22 2014-03-06 Fujitsu Ltd 符号化装置、符号化方法、及びプログラム
CN105894540A (zh) * 2016-04-11 2016-08-24 上海斐讯数据通信技术有限公司 一种基于移动终端的上下往复移动计数方法及***

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070057912A1 (en) 2005-09-14 2007-03-15 Romriell Joseph N Method and system for controlling an interface of a device through motion gestures
WO2009049314A2 (en) 2007-10-11 2009-04-16 Trustees Of Boston University Video processing system employing behavior subtraction between reference and observed video image sequences
CN101419499B (zh) * 2008-11-14 2010-06-02 东南大学 基于摄像头和话筒的多媒体人机交互方法
US8751215B2 (en) * 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
CN102053702A (zh) * 2010-10-26 2011-05-11 南京航空航天大学 动态手势控制***与方法
US20150193393A1 (en) * 2011-09-01 2015-07-09 Scott R. Violet Dynamic Display of Web Content
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium
JP2013235513A (ja) * 2012-05-10 2013-11-21 Sony Computer Entertainment Inc 画像生成装置、画像生成方法、プログラム及び情報記憶媒体
CN104239844A (zh) * 2013-06-18 2014-12-24 华硕电脑股份有限公司 图像识别***及图像识别方法
US9886094B2 (en) 2014-04-28 2018-02-06 Microsoft Technology Licensing, Llc Low-latency gesture detection
US20160162148A1 (en) * 2014-12-04 2016-06-09 Google Inc. Application launching and switching interface
US10097758B2 (en) * 2015-11-18 2018-10-09 Casio Computer Co., Ltd. Data processing apparatus, data processing method, and recording medium
JP2017191496A (ja) * 2016-04-14 2017-10-19 株式会社東海理化電機製作所 ジェスチャ判定装置
CN106648112A (zh) * 2017-01-07 2017-05-10 武克易 一种体感动作识别方法
CN106599882A (zh) * 2017-01-07 2017-04-26 武克易 一种体感动作识别装置
CN107169411B (zh) * 2017-04-07 2019-10-29 南京邮电大学 一种基于关键帧和边界约束dtw的实时动态手势识别方法
US10572072B2 (en) * 2017-09-29 2020-02-25 Apple Inc. Depth-based touch detection
CN109144260B (zh) * 2018-08-24 2020-08-18 上海商汤智能科技有限公司 动态动作检测方法、动态动作控制方法及装置
CN108197596B (zh) * 2018-01-24 2021-04-06 京东方科技集团股份有限公司 一种手势识别方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199623A (ja) * 2002-12-20 2004-07-15 Minolta Co Ltd 移動体の計数方法
US20050271279A1 (en) * 2004-05-14 2005-12-08 Honda Motor Co., Ltd. Sign based human-machine interaction
JP2006345081A (ja) * 2005-06-07 2006-12-21 Sony Corp 検出装置および方法、記録媒体、プログラム、並びに画像表示装置
US20110135148A1 (en) * 2009-12-08 2011-06-09 Micro-Star Int'l Co., Ltd. Method for moving object detection and hand gesture control method based on the method for moving object detection
CN102609093A (zh) * 2012-02-16 2012-07-25 中国农业大学 用手势控制视频播放的方法及装置
JP2014042139A (ja) * 2012-08-22 2014-03-06 Fujitsu Ltd 符号化装置、符号化方法、及びプログラム
CN105894540A (zh) * 2016-04-11 2016-08-24 上海斐讯数据通信技术有限公司 一种基于移动终端的上下往复移动计数方法及***

Also Published As

Publication number Publication date
KR20210030983A (ko) 2021-03-18
US20210248359A1 (en) 2021-08-12
US11455836B2 (en) 2022-09-27
CN109144260B (zh) 2020-08-18
WO2020038108A1 (zh) 2020-02-27
KR102321562B1 (ko) 2021-11-04
JP7127202B2 (ja) 2022-08-29
CN109144260A (zh) 2019-01-04
SG11202013098TA (en) 2021-02-25

Similar Documents

Publication Publication Date Title
JP2021524116A (ja) 動的動作検出方法、動的動作制御方法及び装置
EP3096184A1 (en) Method and device for controlling flash light and terminal
CN108234873A (zh) 一种获取图像的方法和装置
WO2022110614A1 (zh) 手势识别方法及装置、电子设备和存储介质
RU2651151C2 (ru) Способ и устройство управления иконками приложений
CN111680521A (zh) 一种翻译处理方法、装置和用于翻译处理的装置
CN110889382A (zh) 虚拟形象渲染方法及装置、电子设备和存储介质
CN104090721A (zh) 终端控制方法和装置
CN108476339B (zh) 一种遥控方法和终端
CN104065883B (zh) 拍摄方法及装置
KR20170142839A (ko) 단말기의 작업모드 확정방법, 장치, 프로그램 및 기록매체
CN110674801A (zh) 基于加速度计识别用户运动模式的方法、装置及电子设备
WO2017096958A1 (zh) 人机交互方法及装置、移动设备
CN110636383A (zh) 一种视频播放方法、装置、电子设备及存储介质
CN106168877A (zh) 进入单手模式的方法及装置
KR20210005508A (ko) 터치신호의 처리방법, 장치 및 매체
CN108398127A (zh) 一种室内定位方法及装置
CN108803892A (zh) 一种在输入法中调用第三方应用程序的方法和装置
CN107566615B (zh) 消息处理方法、装置及计算机可读存储介质
CN108986803A (zh) 场景控制方法及装置、电子设备、可读存储介质
JP2021534482A (ja) ジェスチャー認識方法、ジェスチャー処理方法及び装置
WO2023051119A1 (zh) 虚拟键盘设置方法、装置、存储介质及计算机程序产品
CN108073291A (zh) 一种输入方法和装置、一种用于输入的装置
CN105847675A (zh) 一种照相机模式切换方法、装置及移动设备
CN108227927B (zh) 基于vr的产品展示方法、装置及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220613

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220630

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220817

R150 Certificate of patent or registration of utility model

Ref document number: 7127202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150