JP6126738B2 - 手振り制御方法、装置およびシステム - Google Patents

手振り制御方法、装置およびシステム Download PDF

Info

Publication number
JP6126738B2
JP6126738B2 JP2016506752A JP2016506752A JP6126738B2 JP 6126738 B2 JP6126738 B2 JP 6126738B2 JP 2016506752 A JP2016506752 A JP 2016506752A JP 2016506752 A JP2016506752 A JP 2016506752A JP 6126738 B2 JP6126738 B2 JP 6126738B2
Authority
JP
Japan
Prior art keywords
hand
controlled device
gesture
hand movement
control center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016506752A
Other languages
English (en)
Other versions
JP2016518657A (ja
Inventor
▲劉▼▲はい▼▲軍▼
林立▲東▼
周▲雲▼▲軍▼
黄▲崢▼
▲みゃお▼川▲楊▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Publication of JP2016518657A publication Critical patent/JP2016518657A/ja
Application granted granted Critical
Publication of JP6126738B2 publication Critical patent/JP6126738B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C2201/00Transmission systems of control signals via wireless link
    • G08C2201/30User interface
    • G08C2201/32Remote control based on movements, attitude of remote control device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Image Analysis (AREA)
  • Details Of Television Systems (AREA)

Description

本発明は、通信分野に関し、具体的に手振り制御方法、装置およびシステムに関する。
デジタルマルチメディアとネットワークの発展により、人々の日常生活中の娯楽体験が豊かになる。人々はリモートコントローラ、手振りなどで1つの装置の再生を制御することができ、例えば直前のチャネル番組、次のチャネル番組を切り替えるように制御することなどである。
従来の、複数の装置に対する制御方式は、通常、装置のそれぞれのリモートコントローラを使用して制御するが、これらのリモートコントローラは、一般的に互いに共通しなく、多くの場合でネットワーク機能を備えなく、例えば従来のテレビ、音響器である。また、いくつかのネットワークをサポートするリモートコントローラもあり、例えば計算とネットワーク能力を備える装置(例えば携帯電話、PADなど)に共通プロトコルをサポートするソフトウェアをロードし、当該ソフトウェアに基づいて別の装置を制御する。
前記装置制御方式は、人々が山積されたリモートコントローラから装置に対応するリモートコントローラを選択して装置制御を行う必要があり、且つ制御しようとしている装置が異なるにつれてリモートコントローラを変えなければならず、または装置制御を行うようにコンピュータ操作に慣れた人だけがPAD、携帯電話などを操作したり、または簡単な手振りで単一の装置を制御するので、あまり便利ではない。このことから分かるように、異なる装置を制御するために、人々がどのように異なる操作ツールを使用するかを学習する必要があり、操作が煩雑になる。より簡単、より自然な操作方式を使用して装置を制御することがより望ましく、当該ニーズに基づいて、手振り制御が出現された。手振り制御は現在比較的新しい制御方式であり、手振り制御を行う場合に、1つの装置のカメラが手振り動作を監視して識別し、識別された手振り動作に対応する制御命令に応じて当該装置を制御する。
現在、手振り制御を実現するために、被制御装置は、カメラをインストールされる必要があり、手振り制御における視覚識別を実現するように構成される。実際の応用環境において、手振り制御をサポートする複数の装置がそれぞれ自分のカメラ、手振り識別ソフトウェアを備える可能性があり、これは、多くの繰り返しリソースを消費することだけでなく、手振り識別過程に誤り操作を引き起こすことも容易になり、例えばセットトップボックスがテレビに対する手振り指示を自体に対する操作として理解する。また、多くの装置にカメラ、手振り識別ソフトウェがインストールされなく、このような装置は、手振り制御を実現できない。
これを鑑みて、本発明の実施形態の主な目的は、手振り制御の統一を実現するように、手振り制御方法、装置およびシステムを提供することにある。
上記目的を達成するために、本実施形態の技術的解決手段は、以下のように実現される。
手振り制御方法は、
手振り制御センターは、被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信することと、被制御装置は、受信された操作情報に基づいて対応する操作を実行することとを含む。
ここで、前記手振りを識別する前に、手振り制御センターは、視覚範囲内の被制御装置をさらに識別する。
ここで、手振り制御センターは、視覚範囲内の被制御装置を識別する場合、被制御装置の装置識別子、装置アドレス、装置位置のうちの少なくとも1つを識別して記録する。
ここで、手振り制御センターは、被制御装置に対する手振りを識別する場合、手振りに対応する操作命令、手振りが指す被制御装置を識別する。
ここで、手振り制御センターは、手振りが指す被制御装置を識別する場合、
手振りと手振り制御センターのビデオ収集モジュールの角度を利用して計算すること、または、
手振り、被制御装置、手振り制御センターの間の距離を測定した後、三角式で計算することである。
ここで、手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信すること、および/または、
被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して操作命令に対応する操作を実行する。
ここで、被制御装置は、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了する。
手振り制御装置は、
被制御装置に対する手振りを取り込むように構成されるビデオ収集モジュールと、
前記手振りを識別するように構成される識別モジュールと、
識別された手振りに対応する操作情報を被制御装置へ送信するように構成される制御モジュールとを含む。
ここで、当該装置は、前記ビデオ収集モジュールと組み合わせて視覚範囲内の被制御装置を識別して前記手振り制御装置と被制御装置の間の距離を計算するように構成される距離測定モジュールをさらに含む。
ここで、当該装置は、視覚範囲内の被制御装置を識別する場合、識別された被制御装置の装置識別子、装置アドレス、装置位置のうちの少なくとも1つを記録するように構成されるデータ記憶モジュールをさらに含む。
ここで、前記識別モジュールは、
手振りに対応する操作命令を識別するように構成される画像識別モジュールと、
手振りが指す被制御装置を識別するように構成される手振り識別モジュールとを含む。
ここで、前記手振り識別モジュールは、手振りが指す被制御装置を識別する場合、
手振りと前記ビデオ収集モジュールの角度を利用して計算するように構成されること、または、
手振り、被制御装置、前記装置の間の距離を測定した後、三角式で計算するように構成されることである。
ここで、前記制御モジュールは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するように構成される。
ここで、前記装置は、被制御装置との接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成されるネットワークサービスモジュールを含む。
手振り制御システムは、
被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信するように構成される手振り制御センターと、
受信された操作情報に基づいて対応する操作を実行するように構成される被制御装置とを含む。
ここで、前記手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するするように構成されること、および/または、
前記被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、前記被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して、操作命令に対応する操作を実行するように構成されることである。
ここで、前記被制御装置は、受信された操作情報に基づいて操作を実行する場合、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成される。
本発明の実施形態の手振り制御技術により、手振り制御センターのような一つの手振り識別装置だけで複数の装置に対する手振り制御を実現できることを保証でき、手振り制御の統一を実現し、手振り識別過程において異なる装置に対する発生可能な誤り操作を避け、繰り返しリソースの消費も避けた。また、手振り識別制御をサポートしない装置のために便利な操作方式を提供し、装置のために手振り識別部材の追加コストを節約し、それによってユーザ満足度を効果的に向上させることができる。
本発明は、例えば、以下を提供する。
(項目1)
手振り制御方法であって、
手振り制御センターは、被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信することと、被制御装置は、受信された操作情報に基づいて対応する操作を実行することとを含む、前記手振り制御方法。
(項目2)
前記手振りを識別する前に、手振り制御センターは、視覚範囲内の被制御装置をさらに識別することを特徴とする
項目1に記載の手振り制御方法。
(項目3)
手振り制御センターは、視覚範囲内の被制御装置を識別する場合、被制御装置の装置識別子、装置アドレス、装置位置のうちの少なくとも1つを識別して記録することを特徴とする
項目2に記載の手振り制御方法。
(項目4)
手振り制御センターは、被制御装置に対する手振りを識別する場合、手振りに対応する操作命令、手振りが指す被制御装置を識別することを特徴とする
項目1〜3のいずれか1項に記載の手振り制御方法。
(項目5)
手振り制御センターは、手振りが指す被制御装置を識別する場合、
手振りと手振り制御センターのビデオ収集モジュールの角度を利用して計算すること、または、
手振り、被制御装置、手振り制御センターの間の距離を測定した後、三角式で計算することであることを特徴とする
項目4に記載の手振り制御方法。
(項目6)
手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信すること、および/または、
被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して操作命令に対応する操作を実行することであることを特徴とする
項目4に記載の手振り制御方法。
(項目7)
被制御装置は、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了することを特徴とする
項目1に記載の手振り制御方法。
(項目8)
手振り制御装置であって、
被制御装置に対する手振りを取り込むように構成されるビデオ収集モジュールと、
前記手振りを識別するように構成される識別モジュールと、
識別された手振りに対応する操作情報を被制御装置へ送信するように構成される制御モジュールとを含む、前記手振り制御装置。
(項目9)
前記ビデオ収集モジュールと組み合わせて視覚範囲内の被制御装置を識別して前記手振り制御装置と被制御装置の間の距離を計算するように構成される距離測定モジュールをさらに含むことを特徴とする
項目8に記載の手振り制御装置。
(項目10)
視覚範囲内の被制御装置を識別する場合、識別された被制御装置の装置識別子、装置アドレス、装置位置のうちの少なくとも1つを記録するように構成されるデータ記憶モジュールをさらに含むことを特徴とする
項目9に記載の手振り制御装置。
(項目11)
前記識別モジュールは、
手振りに対応する操作命令を識別するように構成される画像識別モジュールと、
手振りが指す被制御装置を識別するように構成される手振り識別モジュールとを含むことを特徴とする
項目8〜10のいずれか1項に記載の手振り制御装置。
(項目12)
前記手振り識別モジュールは、手振りが指す被制御装置を識別する場合、
手振りと前記ビデオ収集モジュールの角度を利用して計算するように構成されること、または、
手振り、被制御装置、前記装置の間の距離を測定した後、三角式で計算するように構成されることであることを特徴とする
項目11に記載の手振り制御装置。
(項目13)
前記制御モジュールは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するように構成されることを特徴とする
項目11に記載の手振り制御装置。
(項目14)
被制御装置との接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成されるネットワークサービスモジュールを含むことを特徴とする
項目8に記載の手振り制御装置。
(項目15)
手振り制御システムであって、
被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信するように構成される手振り制御センターと、
受信された操作情報に基づいて対応する操作を実行するように構成される被制御装置とを含む、前記手振り制御システム。
(項目16)
前記手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するように構成されること、および/または、
前記被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、前記被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して、操作命令に対応する操作を実行するように構成されることであることを特徴とする
項目15に記載の手振り制御システム。
(項目17)
前記被制御装置は、受信された操作情報に基づいて操作を実行する場合、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成されることを特徴とする
項目15または16に記載の手振り制御システム。
本発明の一つの実施形態に係る手振り制御システムを示す図である。 本発明の別の実施形態に係る手振り制御システムを示す図である。 本発明の実施形態に係る手振り制御を実現する場合に使用されるバーコードを示す図である。 本発明の実施形態に係る手振り制御を実現する場合に使用される2次元コードを示す図である。 本発明の実施形態に係る手振り制御プロセスを示す図である。 本発明の実施形態に係る手振り制御センターと被制御装置の間のメッセージフローを示す図である。 本発明の実施形態に係る手振り制御プロセスの模式図である。 本発明の実施形態に係る手振りが指す被制御装置の原理を示す図である。
本発明の実施形態が解決しようとする問題は、被制御装置を統一的に制御できる装置を応用して被制御装置に対する制御を実現することである。
上述した、被制御装置を統一的に制御できる装置は、手振り制御センターであって、手振り識別能力、ネットワーク能力を備え、手振り、手振りが指す被制御装置を識別して、手振りを操作命令に変換する、または手振り動作特徴を記憶することができる。手振り制御センターは、被制御装置と互いに接続して被制御装置へ操作命令または手振り動作特徴が含まれるメッセージを送信することもできる。
手振り制御センターは、次のステップが含まれる操作を実行することができる。
ステップ1において、手振り制御センターは、視覚範囲内の被制御装置を識別する。
ステップ2において、手振り制御センターは、手振りを識別する。
ステップ3において、手振り制御センターは、手振りが指す被制御装置へ操作情報を送信する。
ステップ4において、被制御装置は、受信された操作情報に基づいて対応する操作を実行する。
さらに、ステップ1において、手振り制御センターは、視覚範囲内の被制御装置を識別する場合、被制御装置の装置識別子、装置アドレス、装置位置などの情報のうちの少なくとも1つを識別して記録することができる。
さらに、ステップ2において、手振り制御セネターは、手振りを識別する場合、手振りに対応する操作命令、手振りが指す被制御装置を識別し、例えば手振りの動作特徴を分析することで識別することができる。
さらに、ステップ3において、手振り制御センターは、操作命令または手振り動作特徴データを送信することができる。送信された手振り動作特徴データが被制御装置によってさらに分析されることができ、対応する操作命令を受信する。
さらに、ステップ4において、被制御装置は、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了することができる。
さらに、操作命令、手振り動作特徴データがプロトコル命令、即ちある応用プロトコルにおいて規定されたプロトコルメッセージおよび対応するパラメータであってよい。
以下、図面と実施形態を参照して本発明を詳しく説明する。
図1を参照して、図1は、本発明の一つの実施形態に係る装置のシーンを示し、そのなかに各装置およびそれらの相互関係が含まれる。
図1において左から右までホーム記憶サーバ、DVDプレーヤー、テレビ、手振り制御センターの4つの装置を示し、すべての装置の配置関係は、手振り制御センターと他のいずれかの装置との間に遮蔽部がなく、この場合で、手振り制御センターからの光が遮蔽されなく直接装置に照射することができることである。
上記の4つの装置にネットワークインタフェース(例えばIEEE802.11b/g/nをサポートするネットワークインタフェース、またはIEEE 802.3をサポートするネットワークインタフェース)が設置され、それによってIPネットワークなどの通信ネットワークに接続されることができる。各装置に通信モジュールが含まれ、当該通信モジュールは、サービス能力を備え、他の装置と互いに発見し、接続して他の装置とメッセージを送信し、受信し、および操作命令処理、または操作命令転送などを行うことができるように構成される。前記サービス能力は、従来のユニバーサルプラグアンドプレイ(UPnP)技術により実現されることができ、マルチキャストドメイン名システム(mDNS)とドメイン名システムに基づくサービス発見(DNS−SD)技術により実現されることができ、IPネットワークに用いられ、シングルトキャスト、マルチキャストクエリで、予め定義されたメッセージフォーマットに従ってクエリに応答し、機能呼び出しを提供することができる。例えば、UPnP技術によりメディア表示装置(例えばTV)、サーバ(例えばDVDプレーヤー、ホーム記憶サーバ)がどのようにクエリに応答するか、どの呼び出し機能を提供するかが規定される。
手振り制御センターは、画像、ビデオ収集能力を備えるビデオ収集モジュール(例えばカメラ、以下にカメラを例とする)、および距離測定モジュールをさらに含む。手振り制御センターは、識別モジュール、データ記憶モジュール、制御モジュール、ネットワークサービスモジュールなどをさらに含む。手振り制御センターのカメラは、カメラの視覚範囲内の装置を撮像して装置ラベルの情報を識別すること、ユーザの手振り動作を取り込んで、対応する操作ターゲット、操作命令、または手振り動作特徴データを識別することの機能を完了することができる。距離測定モジュールは、手持ち型レーザ赤外線距離計と類似し、赤外線などの光の伝播と反射により手振り制御センターと被制御装置の間の距離を計算する。通常、精度が2mm程度である距離測定モジュールを選択することができる。制御モジュールは、識別された手振りに対応する操作情報を被制御装置へ送信することができ、それによって被制御装置は、受信された操作情報に基づいて対応する操作を実行することができる。識別モジュールは、画像識別モジュールと手振り識別モジュールを含み、それぞれ画像識別と手振り識別を実現することができる。
手振り制御センターは、その視覚範囲内の装置を識別でき、実現方法は、カメラ、距離測定モジュールが3次元の空間において画像を回転して収集し、収集された画像に予め定義されたラベルパターンを検索して分析することである。図1に示すように、手振り制御センターのカメラは、撮像により1枚の画像を収集し、画像にテレビ、DVDプレーヤーとホーム記憶サーバの3つの被制御装置があり、この3つの被制御装置にバーコードまたは2次元コードなどのラベルが貼着または印刷、インサートされている。手振り制御センターの画像識別モジュールは、画像を分析した後、画像に若干のラベルがあることを識別し、ラベルをそれぞれ識別して、識別されたラベル情報を記憶し、その後ラベルがある被制御装置に対して距離測定を行い、測定された距離とラベル情報を一緒に記憶する。
図1と類似し、図2にもテレビ、DVDプレーヤー、ホーム記憶サーバの3つの被制御装置があり、また、画像、ビデオ収集能力を備える3つのカメラをさらに含み、この3つのカメラが手振り制御センターに属する。図2における手振り制御センターは、距離測定機能を備えない。図2においてすべての装置の配置関係は、手振り制御センターと他のいずれかの装置の間に遮蔽部がなく、即ち手振り制御センターからの光が遮蔽されなく直接装置に照射することができることである。
上記の3つのカメラの間の相互空間位置関係は、確定されたものであって、即ち手振り制御センターが3つのカメラの間の相互距離、カメラ方向の相互角度を記録した。通常、3つのカメラは、同じ直線に位置しなく、それらの間の相互角度も平行できない、または90度を超えることができない。3つのカメラ同士が相互に通信でき、相互に収集された画像、ビデオを交換し、またはそれぞれの収集された画像、ビデオを指定された装置に送信することができる。
上記の位置関係(3つカメラの間の相互距離、角度)に基づいて、3つのカメラの収集範囲に属する被制御装置、手振りに対して、カメラは、それらの相対角度(例えば水平に対する角度)を収集した後、数学座標変換と三角式により被制御装置、手振りの位置および手振り方向を計算できる。
上記のバーコードが図3に示され、バーコードラベルの情報が「dvdplayer−192.1.1.1」であって、当該バーコードラベルに対応する被制御装置がDVDプレーヤーであり、ネットワークアドレスが192.1.1.1であることを示す。前記バーコードラベルは、DVDプレーヤーに粘着または印刷、インサートされることができる。
上記の2次元コードが図4に示され、2次元コードラベルの情報が「tv−192.1.1.2」であって、当該2次元コードラベルに対応する被制御装置がテレビであり、ネットワークアドレスが192.1.1.2であることを示す。前記2次元コードラベルは、テレビに粘着または印刷、インサートされることができる。
上記のバーコード、2次元コード以外、ラベル情報は、より多くの内容、例えば被制御装置の略称、カスタマイズ名などを含むことができる。例えば、直接に文字を被制御装置に付けて、手振り制御センターによって、被制御装置に付けられた文字に基づいて被制御装置を識別する。
被制御装置、手振り、手振りが指す被制御装置を識別するために、手振り制御センターの識別モジュールは、数学空間3次元座標系を確立でき、そのなかの座標原点が手振り制御センターに選択されてよく、カスタマイズされた空間位置点に選択されてもよく、当然この点が手振り制御センターに記憶される必要がある。図2に示す場合に対して、座標原点は、3つのカメラのうちの一つのカメラに選択されてもよい。手振り制御センターでの識別モジュールは、被制御装置の位置の測定、識別、計算、手振りが指す被制御装置の測定、識別、計算を担当する。
以下、図1、図5を参照して、手振り制御センターの動作プロセスを説明する。
1.手振り制御センターは、被制御装置を識別する。
手振り制御センターは、起動する時または周期的にカメラで視覚範囲内の画像を収集し、その後、収集された画像を識別し、識別可能な被制御装置があるかどうかをチェックする。具体的な識別方法が図2、図3に示すバーコード、2次元コードに関すれば、まず画像にバーコード、2次元コードがあるかどうかを確定し、バーコード、2次元コード領域を確定した後、バーコード、2次元コードに示される情報を識別することができる。
2.手振り制御センターは、識別された被制御装置と確認する。
被制御装置が識別された後、手振り制御センターは、被制御装置とネットワークインタラクションにより、例えば従来のUPnPプロトコルまたはDNS−SDを使用して当該被制御装置を検索し、当該被制御装置のアドレス、機能などの情報を確認することができる。
3.手振り制御センターは、手振り識別を準備する。
手振り制御センターのビデオ収集モジュール(例えばカメラ)は、ビデオ領域内の画像を監視し、手振り収集を行う。
手振り動作の識別は、ヒストグラム法または隠れマルコフモデル法を使用することができる。まずユーザの手振り動作がカメラの取り込み範囲に入る必要があり、このようにしてカメラは、手振りビデオを生成して識別モジュールに引き渡すことができ、識別モジュールは、色、輪郭、構造光分析などの方法により収集された手振りビデオの手振り画像から手の位置を識別し、手振り対象を検出して分割し、手振り特徴を抽出し、手振り動きをトラッキングする。次に指の方向、動き方向シーケンスを処理する。最後、手振り動作を完全に識別し、この場合に予め定義された手振り動作空間比較などの方法を使用して、ユーザの手振り動作意図を確定することができる。
上記の手振り動作識別は、手振りが指す被制御装置を識別することをさらに含む。
本実施形態において手振りが指す被制御装置を確定する方法は、手振りと被制御角度を利用して計算することである。例えば、ユーザを座標中心とすると、被制御装置とユーザの手振りは、角度がある。手振り制御センターは、手振りを識別する場合に、ユーザの手振り延長線と各被制御装置の間の角度、距離を識別できる。
具体的には、手振制御センターは、まずアームを識別し、肘を座標原点とすることができる。例えば、いかなる被制御装置がないシーンにおいて、手のひらが左から右へ動くと、角度が0°から360°に変化し、手のひらが上から下へ動くと、角度が0°から180°に変化する。ここで、識別モジュールは、被制御装置、手のひら、肘の3つの点からなる三角形における、肘−各被制御装置の線と手−肘(即ちアーム)の線との交角を計算しようとする。アームとある被制御装置との交角角度が小さいほど、手振りの指向がこの被制御装置に傾向することを示す。交角角度の大きさの具体的な意味が次の通りである。
0°−90°:手振りは、ユーザが制御したい被制御装置を指す可能性があることを示す。0°であれば、この確定された被制御装置を指すことを判定できる。
90°−180°:手振りは、ユーザが制御したい被制御装置を指しない可能性が大きいことを示す。各被制御装置と手振りとの角度を計算した後、手振り制御センターは、そのなかから角度の最も小さい被制御装置を確定し、この装置がユーザが制御したい被制御装置であることを判定する。
実際の応用において、手振り、被制御装置、手振り制御センターの間の距離を測定した後、被制御装置、手のひら、肘の3つの点からなる三角形における、肘−被制御装置の線と肘−手のひら(アーム)の線、手のひら−被制御装置の線という3本の線の長さを計算することができる。長さの計算において、識別モジュールは、直接上記の3本の線の長さを測定することができ、基準距離を測定した後に割合で計算し、その後三角式で上記の角度を計算し、判定することもできる。
どのように手振りが指す被制御装置を確定するかが図8に示され、手のひら−アームの線が一つの方向を指し、同時に、手のひら−アームの線と肘−装置の線が交角を形成し、例えば図8は肘−DVDプレーヤーの線と手のひら−アームの線との交角を示し、また肘−テレビの線と手のひら−アームの線との交角を示す。手振り制御センターは、この2つの交角を比較することで、ユーザが手振りでDVDプレーやーを制御することを確定する。図8は上記の三角形(合計で2つの三角形がある)を示し、別の角度計算方法として、この2つの三角形をそれぞれ三角式で計算することができる。図8に示す方法は、より多くの被制御装置に対する手振り制御に応用されることができる。
実際の応用において、測定対象(例えば手のひら、アーム、被制御装置)の中心点選択などの問題に関する可能性があり、これらは、数学演算により確定されることができる。
4.手振り制御センターは、手振り動作に対応する操作命令を識別した後、操作命令メッセージを対応する被制御装置に送信する。
手振り制御センターに手振り動作と命令メッセージとの対応関係が定義されて記憶されている。手振り制御センターは、操作命令、操作命令に対応する被制御装置を識別して確定した後、被制御装置とのネットワーク接続により操作命令を被制御装置に送信することができる。
操作命令は、メディアの再生、シャットダウンなどのような汎用命令であってよく、チャネル交換、音量増大などのような装置向け命令であってもよく、またプロトコル命令、即ちある応用プロトコルに規定された命令、例えばUPnPなどのプロトコルにおけるメディア内容共有などであってもよい。
5.操作命令メッセージを受信した被制御装置は、操作命令を実行する。
被制御装置は、ネットワーク接続により操作命令を受信して実行する。ステップ4で説明したように、被制御装置は、命令の具体的な内容に基づいて、内部プロトコルを実行し、または他の装置と通信し、連携して操作命令を完了する。
命令メッセージに手振り動作特徴データが含まれる場合、被制御装置は、特徴データを分析し、計算して、対応する命令を取得して実行する。
全体的には、図6に示す手振り制御センターと被制御装置の間のメッセージ交換プロセスにおいて、手振り制御センターの操作は、2つのステップに分かれ、それぞれ被制御装置の視覚発見の完了および操作命令送信の完了である。
具体的には、まず手振り制御センターは、視覚範囲内の被制御装置を走査し、走査された被制御装置のラベルを識別し、記憶する。この場合にネットワークを使用する必要がない。
被制御装置が識別された後、手振り制御センターは、被制御装置とネットワークを介してインタラクションを行い、例えば従来のUPnPプロトコルまたはDNS−SDを使用して当該被制御装置を検索して、当該被制御装置のアドレス、機能などの情報を確認することができる。
次に、手振り制御センターが手振り動作を識別した場合、手振り動作を分析し、動作対象、動作意図を分析して動作意図を操作命令または手振り動作特徴データにマッピングさせる。
その後、手振り制御センターは、操作命令を手振りが指す被制御装置に送信する。この場合、手振り制御センターと手振りが指す被制御装置同士は、ネットワーク接続が存在する必要があり、そしてUPnPプロトコルなどのプロトコルメッセージを使用してネットワークメッセージを送信することができる。
前記手振りが予め定義された連携手振りであり、例えば連続的にテレビ、DVDプレーヤーに対して手振り操作を行う場合、手振り制御センターは、それぞれ手振り動作を識別して対応する操作命令を対応する被制御装置に送信する。
最後、操作命令を受信した被制御装置は、操作命令に対応する操作を実行する。
前記制御命令がメディアの再生、シャットダウンなどのような汎用命令であってよく、チャネル交換、音量増大などのような装置向け命令であってもよく、またプロトコル命令、即ちある応用プロトコルに置いて規定された命令、例えばUPnPなどのプロトコルにおけるメディア内容共有などであってもよい。
被制御装置が前記テレビ、プレーヤー、記憶サーバなどに限られなく、コンピューター、音響器、サウンドボックス、プロジェクタ、セットトップボックスなどであってもよく、さらには工業分野における自動車、工作機械、船舶などであってもよいと説明すべきである。そして、被制御装置は、従来技術におけるカメラがインストルされ、視覚識別に基づいて手振り制御を独立して実現することができる装置であってよく、カメラがインストルされない他の装置であってもよい。
また、手振り制御センターのカメラは、様々な仕様であってよく、例えば固定焦点距離または焦点距離可変のカメラであってよく、回転空間が上下左右の各角度であってよく、左右角度のみをサポートする。距離測定モジュールは、赤外線レーザを使用して距離を測定することができ、他の波長域の光線を使用して距離を測定することもできる。上述した3つのカメラを使用して距離を測定することができ、より多くのカメラを使用して距離を測定することもできる(例えば重み付け調整などの方法を使用する)。
また、前記通信モジュールは、送受信器であってよく、距離測定モジュールは、距離計であってよく、識別モジュールは、シングルチップマイクロコンピュータ、プロセッサなどであってよく、画像識別モジュールは、画像を処理できるシングルチップマイクロコンピュータ、プロセッサなどであってよく、手振り識別モジュールは、手振りを処理できるシングルチップマイクロコンピュータ、プロセッサなどであってよく、データ記憶モジュールは、メモリであってよく、制御モジュールは、CPUなどのデータ処理および制御を行うことができる集積回路などであってよく、ネットワークサービスモジュールは、ネットワークサーバであってよい。
上述したように、本発明の実施形態の手振り制御技術は、図7に示すプロセスを示することができ、当該プロセスが以下のステップを含む。
ステップ710において、手振り制御センターは、被制御装置に対する手振りおよび手振りが指す被制御装置を識別する。
ステップ720において、手振り制御センターは、手振りが指す被制御装置へ操作情報を送信し、被制御装置が受信された操作情報に基づいて対応する操作を実行する。
上述したように、本発明の実施形態の手振り制御技術により、手振り制御センターのような一つの手振り識別装置だけで複数の装置に対する手振り制御を実現できることを保証でき、手振り制御の統一を実現し、手振り識別過程において異なる装置に対する発生可能な誤り操作を避け、繰り返しリソースの消費も避けた。また、手振り識別制御をサポートしない装置のために便利な操作方式を提供し、装置のために手振り識別部材の追加コストを節約し、それによってユーザ満足度を効果的に向上させることができる。
上記は、本発明の好ましい実施形態に過ぎなく、本発明の保護範囲を制限することに用いられるものではない。

Claims (13)

  1. 手振り制御方法であって、
    手振り制御センターは、被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信することと、被制御装置は、受信された操作情報に基づいて対応する操作を実行することとを含み、
    前記手振り制御センターは、前記手振りを識別する前に、視覚範囲内の被制御装置をさらに識別し、視覚範囲内の被制御装置を識別する場合、被制御装置のネットワークアドレスを識別して記録し、
    前記手振り制御センターは、前記被制御装置のネットワークアドレスに応じて、識別された手振りに対応する操作情報を被制御装置へ送信し、
    前記手振り制御センターは、被制御装置に対する手振りを識別する場合、肘−各被制御装置の線と手−肘(即ちアーム)の線との交角に応じて、手振りが指す被制御装置を識別する
    前記手振り制御方法。
  2. 手振り制御センターは、被制御装置に対する手振りを識別する場合、手振りに対応する操作命令識別することを特徴とする
    請求項に記載の手振り制御方法。
  3. 手振り制御センターは、手振りが指す被制御装置を識別する場合、
    手振りと手振り制御センターのビデオ収集モジュールの角度を利用して計算すること、
    または、
    手振り、被制御装置、手振り制御センターの間の距離を測定した後、三角式で計算することであることを特徴とする
    請求項に記載の手振り制御方法。
  4. 手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信すること、および/または、
    被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して操作命令に対応する操作を実行することであることを特徴とする
    請求項に記載の手振り制御方法。
  5. 被制御装置は、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了することを特徴とする
    請求項1に記載の手振り制御方法。
  6. 手振り制御装置であって、
    被制御装置に対する手振りを取り込むように構成されるビデオ収集モジュールと、
    前記手振りを識別するように構成される識別モジュールと、
    前記ビデオ収集モジュールと組み合わせて視覚範囲内の被制御装置を識別して前記手振り制御装置と被制御装置の間の距離を計算するように構成される距離測定モジュールと、
    視覚範囲内の被制御装置を識別する場合、識別された被制御装置の装ネットワークアドレスを記録するように構成されるデータ記憶モジュールと、
    前記被制御装置のネットワークアドレスに応じて、識別された手振りに対応する操作情報を被制御装置へ送信するように構成される制御モジュールとを含み、
    前記識別モジュールは、手振り識別モジュールをさらに含み、
    前記手振り識別モジュールは、肘−各被制御装置の線と手−肘(即ちアーム)の線との交角に応じて、手振りが指す被制御装置を識別するように構成される
    前記手振り制御装置。
  7. 前記識別モジュールは、
    手振りに対応する操作命令を識別するように構成される画像識別モジュール含むことを特徴とする
    請求項に記載の手振り制御装置。
  8. 前記手振り識別モジュールは、手振りが指す被制御装置を識別する場合、
    手振りと前記ビデオ収集モジュールの角度を利用して計算するように構成されること、
    または、
    手振り、被制御装置、前記装置の間の距離を測定した後、三角式で計算するように構成されることであることを特徴とする
    請求項に記載の手振り制御装置。
  9. 前記制御モジュールは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するように構成されることを特徴とする
    請求項に記載の手振り制御装置。
  10. 被制御装置との接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成されるネットワークサービスモジュールを含むことを特徴とする
    請求項に記載の手振り制御装置。
  11. 手振り制御システムであって、
    被制御装置に対する手振りを識別して、識別された手振りに対応する操作情報を被制御装置へ送信するように構成される手振り制御センターと、
    受信された操作情報に基づいて対応する操作を実行するように構成される被制御装置とを含み、
    前記手振り制御センターは、前記手振りを識別する前に、視覚範囲内の被制御装置をさらに識別し、視覚範囲内の被制御装置を識別する場合、被制御装置のネットワークアドレスを識別して記録し、
    前記手振り制御センターは、前記被制御装置のネットワークアドレスに応じて、識別された手振りに対応する操作情報を被制御装置へ送信し、
    前記手振り制御センターは、被制御装置に対する手振りを識別する場合、肘−各被制御装置の線と手−肘(即ちアーム)の線との交角に応じて、手振りが指す被制御装置を識別する
    前記手振り制御システム。
  12. 前記手振り制御センターは、操作情報を送信する場合、操作命令または手振り動作特徴データを送信するように構成されること、および/または、
    前記被制御装置により受信された操作情報が操作命令である場合、操作命令に対応する操作を実行し、前記被制御装置により受信された操作情報が手振り動作特徴データである場合、受信された手振り動作特徴データを分析して対応する操作命令を取得して、操作命令に対応する操作を実行するように構成されることであることを特徴とする
    請求項11に記載の手振り制御システム。
  13. 前記被制御装置は、受信された操作情報に基づいて操作を実行する場合、手振り制御センターとの接続を確立し、当該接続に基づいて会話モードでメッセージを使用して操作を完了するように構成されることを特徴とする
    請求項11または12に記載の手振り制御システム。
JP2016506752A 2013-04-15 2013-09-17 手振り制御方法、装置およびシステム Active JP6126738B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201310130673.4A CN104102335B (zh) 2013-04-15 2013-04-15 一种手势控制方法、装置和***
CN201310130673.4 2013-04-15
PCT/CN2013/083690 WO2014169566A1 (zh) 2013-04-15 2013-09-17 一种手势控制方法、装置和***

Publications (2)

Publication Number Publication Date
JP2016518657A JP2016518657A (ja) 2016-06-23
JP6126738B2 true JP6126738B2 (ja) 2017-05-10

Family

ID=51670543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016506752A Active JP6126738B2 (ja) 2013-04-15 2013-09-17 手振り制御方法、装置およびシステム

Country Status (8)

Country Link
US (1) US10013067B2 (ja)
EP (1) EP2988210B1 (ja)
JP (1) JP6126738B2 (ja)
KR (1) KR101969624B1 (ja)
CN (1) CN104102335B (ja)
DK (1) DK2988210T3 (ja)
HU (1) HUE043509T2 (ja)
WO (1) WO2014169566A1 (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160162039A1 (en) * 2013-07-21 2016-06-09 Pointgrab Ltd. Method and system for touchless activation of a device
CN105589550A (zh) * 2014-10-21 2016-05-18 中兴通讯股份有限公司 信息发布方法、信息接收方法、装置及信息共享***
CN105630142A (zh) * 2014-11-07 2016-06-01 中兴通讯股份有限公司 一种发布和传递识别信息的方法和装置及信息识别***
CN105807549A (zh) * 2014-12-30 2016-07-27 联想(北京)有限公司 一种电子设备
US10484827B2 (en) 2015-01-30 2019-11-19 Lutron Technology Company Llc Gesture-based load control via wearable devices
CN104699244B (zh) * 2015-02-26 2018-07-06 小米科技有限责任公司 智能设备的操控方法及装置
JP6442119B1 (ja) 2015-12-14 2018-12-19 フィリップス ライティング ホールディング ビー ヴィ 照明デバイスを制御する方法
CN106886279A (zh) * 2015-12-16 2017-06-23 华为技术有限公司 一种控制方法及装置
CN105681859A (zh) * 2016-01-12 2016-06-15 东华大学 基于人体骨骼追踪控制智能电视的人机交互方法
CN107436678B (zh) * 2016-05-27 2020-05-19 富泰华工业(深圳)有限公司 手势控制***及方法
EP3529675B1 (de) 2016-10-21 2022-12-14 Trumpf Werkzeugmaschinen GmbH + Co. KG Innenraum-personenortung-basierte fertigungssteuerung in der metallverarbeitenden industrie
KR20190077423A (ko) 2016-10-21 2019-07-03 트룸프 베르크초이그마쉬넨 게엠베하 + 코. 카게 금속가공 산업에서의 내부 추적 시스템에 기초한 제조 프로세스 제어
EP3681150A4 (en) 2017-09-04 2021-01-13 Kajita, Hiroki MULTI-POINT-OF-VIEW VIDEO IMAGE VIEWING SYSTEM AND CAMERA SYSTEM
CN108259671B (zh) * 2018-01-30 2020-01-03 深圳市科迈爱康科技有限公司 翻译内容传送方法和***
US10296102B1 (en) * 2018-01-31 2019-05-21 Piccolo Labs Inc. Gesture and motion recognition using skeleton tracking
US20210049998A1 (en) * 2018-03-15 2021-02-18 Sony Corporation Information processing apparatus, information processing method, and program
CN108389459A (zh) * 2018-03-15 2018-08-10 湖南工业大学 一种基于虚拟现实的印刷模拟***
US11003629B2 (en) * 2018-10-31 2021-05-11 EMC IP Holding Company LLC Dual layer deduplication for application specific file types in an information processing system
CN109934152B (zh) * 2019-03-08 2021-02-09 浙江理工大学 一种针对手语图像的改进小弯臂图像分割方法
US11543888B2 (en) 2019-06-27 2023-01-03 Google Llc Intent detection with a computing device
CN112698716A (zh) * 2019-10-23 2021-04-23 上海博泰悦臻电子设备制造有限公司 基于手势识别的车内设置、控制方法、***、介质及设备
US11144128B2 (en) * 2019-11-20 2021-10-12 Verizon Patent And Licensing Inc. Systems and methods for controlling video wall content using air gestures
CN111880422B (zh) * 2020-07-20 2024-01-05 Oppo广东移动通信有限公司 设备控制方法及装置、设备、存储介质
US11978283B2 (en) 2021-03-16 2024-05-07 Snap Inc. Mirroring device with a hands-free mode
US11809633B2 (en) * 2021-03-16 2023-11-07 Snap Inc. Mirroring device with pointing based navigation
US11798201B2 (en) 2021-03-16 2023-10-24 Snap Inc. Mirroring device with whole-body outfits
US11734959B2 (en) 2021-03-16 2023-08-22 Snap Inc. Activating hands-free mode on mirroring device
US11908243B2 (en) 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
CN113223344B (zh) * 2021-05-25 2022-08-23 湖南汽车工程职业学院 一种基于大数据的艺术设计用专业教学展示***
US20230076716A1 (en) * 2021-09-03 2023-03-09 Apple Inc. Multi-device gesture control
CN115778046B (zh) * 2023-02-09 2023-06-09 深圳豪成通讯科技有限公司 基于数据分析的智能安全帽调节控制方法和***

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1184982B1 (en) * 2000-08-24 2009-05-06 Sony Deutschland GmbH Remote control device
US20060125968A1 (en) * 2004-12-10 2006-06-15 Seiko Epson Corporation Control system, apparatus compatible with the system, and remote controller
KR101651975B1 (ko) * 2005-03-04 2016-08-29 애플 인크. 다기능 휴대용 장치
US9465450B2 (en) * 2005-06-30 2016-10-11 Koninklijke Philips N.V. Method of controlling a system
US8599132B2 (en) * 2008-06-10 2013-12-03 Mediatek Inc. Methods and systems for controlling electronic devices according to signals from digital camera and sensor modules
JP5544570B2 (ja) * 2010-08-27 2014-07-09 公立大学法人首都大学東京 情報提示システム、情報提示プログラム、及び情報提示方法
US20120068857A1 (en) * 2010-09-22 2012-03-22 Apple Inc. Configurable remote control
US9423878B2 (en) * 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR101690117B1 (ko) 2011-01-19 2016-12-27 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 멀티모달 및 제스처 제어를 위한 방법 및 시스템
CN102810023B (zh) 2011-06-03 2015-09-23 联想(北京)有限公司 识别手势动作的方法及终端设备
US9152376B2 (en) * 2011-12-01 2015-10-06 At&T Intellectual Property I, L.P. System and method for continuous multimodal speech and gesture interaction
CN102915111B (zh) * 2012-04-06 2017-05-31 寇传阳 一种腕上手势操控***和方法
CN102778954B (zh) * 2012-06-29 2016-05-11 Tcl集团股份有限公司 一种手势操作管理方法及装置

Also Published As

Publication number Publication date
US20160266653A1 (en) 2016-09-15
EP2988210A4 (en) 2016-05-25
EP2988210A1 (en) 2016-02-24
KR101969624B1 (ko) 2019-04-16
CN104102335A (zh) 2014-10-15
US10013067B2 (en) 2018-07-03
WO2014169566A1 (zh) 2014-10-23
EP2988210B1 (en) 2018-11-28
JP2016518657A (ja) 2016-06-23
CN104102335B (zh) 2018-10-02
HUE043509T2 (hu) 2019-08-28
DK2988210T3 (en) 2019-02-25
KR20150143724A (ko) 2015-12-23

Similar Documents

Publication Publication Date Title
JP6126738B2 (ja) 手振り制御方法、装置およびシステム
US10936082B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
US8230075B1 (en) Method and device for identifying devices which can be targeted for the purpose of establishing a communication session
US9639988B2 (en) Information processing apparatus and computer program product for processing a virtual object
US8386079B1 (en) Systems and methods for determining semantic information associated with objects
US20150138086A1 (en) Calibrating control device for use with spatial operating system
US20140267031A1 (en) Spatially aware pointer for mobile appliances
CN104866083B (zh) 手势识别方法、装置和***
US10410421B2 (en) Method and server for providing virtual reality image about object
KR101733115B1 (ko) 원격 스크린내 콘텐츠 원격 제어 방법 및 장치
CN104662558A (zh) 用于手势输入的指尖定位
WO2015127787A1 (zh) 手势识别方法、装置、***及计算机存储介质
JP2005179026A (ja) 機器管理システム
JP5868128B2 (ja) 情報処理装置およびその制御方法
Guan et al. DeepMix: mobility-aware, lightweight, and hybrid 3D object detection for headsets
CN110471580A (zh) 基于光标签的信息设备交互方法及***
CN104239842B (zh) 一种实现视觉识别的方法、装置和***
WO2016062191A1 (zh) 信息发布方法、信息接收方法、装置及信息共享***
JP2004030284A (ja) シームレスポインティングシステム
CN115243085A (zh) 显示设备及设备互联方法
WO2016070827A1 (zh) 一种发布和传递识别信息的方法和装置及信息识别***
TW202319886A (zh) 姿勢識別方法、設備及存儲介質
TW202211001A (zh) 頭戴式顯示器和其控制方法
CN116055774A (zh) 一种显示设备及显示设备的控制方法
CN115174313A (zh) 带算力的trdp网关设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170407

R150 Certificate of patent or registration of utility model

Ref document number: 6126738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250