JP2018507448A - スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス - Google Patents
スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス Download PDFInfo
- Publication number
- JP2018507448A JP2018507448A JP2016570245A JP2016570245A JP2018507448A JP 2018507448 A JP2018507448 A JP 2018507448A JP 2016570245 A JP2016570245 A JP 2016570245A JP 2016570245 A JP2016570245 A JP 2016570245A JP 2018507448 A JP2018507448 A JP 2018507448A
- Authority
- JP
- Japan
- Prior art keywords
- user
- motion trajectory
- camera
- image
- contour
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/013—Force feedback applied to a game
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20116—Active contour; Active surface; Snakes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
Abstract
本発明は、ユーザー画像データを収集するステップと、ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップとを含むスマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスを開示する。【選択図】図2
Description
本発明はコンピュータビジョンの技術分野に関し、具体的には、スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスに関する。
コンピュータビジョン技術の発展に伴い、体感ゲームがだんだん人々の生活に入り、従来のコントローラー又はジョイスティックに比べ、体感ゲーム機は、体感カメラで人体の動作を検出することによりゲームを操作し、例えば、マイクロソフト社製のXbox360の体感ゲーム機Kinectは、三つの体感カメラで人体の動作を収集し、かつ操作命令に変換してゲームを操作することにより、人々のゲームの操作エクスペリエンスが向上し、かつ人体は運動状態で鍛えられる。
しかし、現在、体感カメラが高価であるので、一部のユーザーは体感ゲームを体験できず、それに対して、スマートフォン、タブレットコンピュータ等のスマートデバイスは広く普及されているので、スマートフォンのカメラを体感カメラとして利用できれば、体感ゲーム等のような体感技術の人々の生活における応用の普及を大幅に向上させることできる。
しかし、現在、体感カメラが高価であるので、一部のユーザーは体感ゲームを体験できず、それに対して、スマートフォン、タブレットコンピュータ等のスマートデバイスは広く普及されているので、スマートフォンのカメラを体感カメラとして利用できれば、体感ゲーム等のような体感技術の人々の生活における応用の普及を大幅に向上させることできる。
本発明が解決しようとする技術的問題は、体感カメラが高価であることが体感技術の人々の生活における応用の妨げとなっているということである。
そのために、本発明の実施例は、ユーザー画像データを収集するステップと、ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップと、を含むカメラ付きのスマートデバイスに基づく体感制御の実現方法を提供する。
好ましくは、前記特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む。
好ましくは、前記ユーザー画像データを収集するステップと、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップとの間に、さらに、ユーザー画像を前景、背景から分離するステップを含む。
好ましくは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成するステップとの間に、さらに、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正するステップを含む。
好ましくは、前記距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールである。
好ましくは、前記距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールである。
本発明の実施例は、ユーザー画像データを収集する収集手段と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する体感データ手段とを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムをさらに提供する。
好ましくは、前記システムは、前記収集手段がユーザー画像データを収集することと、前記画像輪郭取得手段がユーザー画像データに基づいてユーザーの画像輪郭を取得することとの間に、ユーザー画像を前景、背景から分離する分離手段をさらに含む。
好ましくは、前記システムは、前記第2の運動軌跡手段が前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する修正手段をさらに含む。
本発明の実施例は、ユーザー画像データを収集するカメラと、ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーとを含む、スマートデバイスをさらに提供する。
本発明の実施例は、ユーザー画像データを収集するカメラと、ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーとを含む、スマートデバイスをさらに提供する。
好ましくは、前記プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ前記距離に基づいて前記第2の運動軌跡を修正する。
本実施例は、
一つ又は複数のプロセッサーと、
メモリと、
前記メモリに記憶され、前記一つ又は複数のプロセッサーにより実行される場合、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムとを含む、ことを特徴とするカメラ付きのスマートデバイスに基づく体感制御の実現システム。
一つ又は複数のプロセッサーと、
メモリと、
前記メモリに記憶され、前記一つ又は複数のプロセッサーにより実行される場合、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムとを含む、ことを特徴とするカメラ付きのスマートデバイスに基づく体感制御の実現システム。
前記システムは、前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する。
前記システムは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて前記第2の運動軌跡を修正する。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスは、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
図面を参照すると本発明の特徴及び利点をより明確に理解でき、図面は、本発明を限定するものではなく、例示的なものに過ぎないと理解すべきである。
以下、図面を参照しながら本発明の実施例を詳しく説明する。
図1に示すように、本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法は、カメラ付きのスマートデバイスを必要とし、該スマートデバイスは、スマートフォン、タブレットコンピュータ、ノートパソコン等である。好ましくは、ユーザーが該スマートデバイスのカメラから一定の距離を維持することにより、カメラはユーザーの全身の画像データを収集することができる。当然ながら、幾らかの体感制御は、手部の動作だけで制御する必要があり、この場合、カメラでユーザー手部の画像データだけを収集すればよい。
図2に示すように、本発明の実施例は、カメラ付きのスマートデバイスに基づく体感制御の実現方法を提供し、該方法は、以下のステップS1〜S6を含む。
S1、ユーザー画像データを収集する。図1に示すように、カメラはユーザーの結像面であるx−y平面上の画像データを収集する。
S2、ユーザー画像を前景、背景から分離する。該ステップはオプションステップであり、従来の任意の画像分離方法でユーザー画像を前景、背景から分離することにより、前景、背景画像による干渉を低減し、プロセッサーの後処理の計算量を低減することができる。
S3、ユーザー画像データに基づいてユーザーの画像輪郭を取得する。体感制御に対して、ユーザーの体の運動軌跡を取得するだけでよいので、ユーザーの体の画像の他の詳細を注目する必要がなく、画像輪郭を抽出することによりプロセッサーの後処理の計算量を低減することができる。
S4、画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する。画像がリアルタイムに収集されるので、隣接フレームの画像の変化に基づいてユーザーのx−y平面上の第1の運動軌跡を容易に取得できる。
S5、画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいてユーザーの結像面に垂直な方向における第2の運動軌跡を取得する。ユーザーからカメラまでの距離が近ければ近いほど、生成された画像が大きくなるので、ユーザーがカメラに向かって運動すると、生成された画像がだんだん大きくなることにより、画像輪郭上の特徴長さがだんだん大きくなることに基づいて、ユーザーがカメラに向かって運動していると判定できる。逆に、ユーザーがカメラから遠ざかるように運動すると、生成された画像がだんだん小さくなることにより、画像輪郭上の特徴長さがだんだん小さくなることに基づいて、ユーザーがカメラから遠ざかるように運動すると判定できる。特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅、頭部輪郭の長さ/幅等であり、例えば、手部輪郭の長さが長くなるか又は幅が広くなることを検出すると、手部がカメラに向かって運動すると判定し、手部輪郭の長さが短くなるか又は幅が狭くなることを検出すると、手部がカメラから遠ざかるように運動すると判定することにより、体の各部分のz方向における変化を判定できる。同時に、ユーザーが結像面に垂直な方向であるz方向に運動すると、カメラはユーザー画像をキャプチャするときに焦点距離を絶えず変更することにより明瞭な画像を取得するので、カメラの焦点距離の変化に基づいてもユーザーがカメラに向かって運動するか又は遠ざかるように運動するかを判定できる。この二つの方式のいずれか一つでもユーザーの結像面に垂直な方向における運動軌跡を判定でき、当然ながら、より正確な結果を取得するために、この両者に基づいて総合的に判断することにより、より正確な結果を取得してもよい。
S6、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する。結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を総合すれば、ユーザーの三次元空間での運動軌跡を取得することにより、体感データを取得でき、該体感データを体感機能付きのスマートテレビ又はコンピュータに入力すれば、体感ゲームを体験することができる。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法は、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
ユーザーの結像面に垂直な方向における第2の運動軌跡は、画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいて算出されたので、より正確な制御を必要とする幾らかの場合のニーズを満たしがたいので、第2の運動軌跡を修正する必要がある。そのために、z方向におけるユーザーからカメラまでの距離をより正確に取得するように距離測定モジュールを追加する必要があり、該距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールであり、距離測定モジュールは、有線又は無線の方式でスマートフォン等のようなスマートデバイスと接続することにより、測定した距離をスマートデバイスに送信し、スマートデバイスは、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を取得し、かつ取得した距離に基づいて第2の運動軌跡を修正し、最後に、第1の運動軌跡と修正後の第2の運動軌跡に基づいて、より正確な体感データを生成する。
本発明の実施例は、さらに、
ユーザー画像データを収集する収集手段1と、
ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段3と、
画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段4と、
好ましくは手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む画像輪郭の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいて、ユーザーの結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段5と、
第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する体感データ手段7とを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムを提供する。
ユーザー画像データを収集する収集手段1と、
ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段3と、
画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段4と、
好ましくは手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む画像輪郭の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいて、ユーザーの結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段5と、
第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する体感データ手段7とを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムを提供する。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現システムは、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
好ましくは、前記スマートデバイスに基づく体感制御の実現システムは、収集手段1がユーザー画像データを収集する動作と、画像輪郭取得手段3がユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する分離手段2をさらに含む。従って、前景、背景画像による干渉を低減し、プロセッサーの後処理の計算量を低減することができる。
好ましくは、前記スマートデバイスに基づく体感制御の実現システムは、第2の運動軌跡手段5が画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいてユーザーの結像面に垂直な方向における第2の運動軌跡を取得する動作と、体感データ手段7が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分からカメラまでの距離に基づいて、第2の運動軌跡を修正する修正手段6をさらに含む。従って、より正確な体感データを取得することにより、より正確な制御を必要とする幾らかの場合のニーズを満たすことができる。
本発明の実施例は、さらに、
ユーザー画像データを収集するカメラと、
ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーと、
を含むスマートデバイスを提供し、該スマートデバイスはスマートフォン、タブレットコンピュータ、ノートパソコン等である。
従って、本発明の実施例のスマートデバイスだけでユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
ユーザー画像データを収集するカメラと、
ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーと、
を含むスマートデバイスを提供し、該スマートデバイスはスマートフォン、タブレットコンピュータ、ノートパソコン等である。
従って、本発明の実施例のスマートデバイスだけでユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
好ましくは、該プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ該距離に基づいて第2の運動軌跡を修正する。従って、より正確な体感データを取得することにより、より正確な制御を必要とする幾らかの場合のニーズを満たすことができる。
本実施例は、一つ又は複数のプロセッサー200と、メモリ100と、前記メモリ100に記憶され、前記一つ又は複数のプロセッサー200により実行されると、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムとを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムを開示する。具体的には、図4に示すように、一つのプロセッサー200を含んでもよく、図5に示すように、二つのプロセッサー200を含んでもよい。
本実施例の前記システムは、好ましくは、前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する。
本実施例の前記システムは、好ましくは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する。
当業者にとって、本発明の実施例は、方法、システム、又はコンピュータプログラム製品として提供できると理解すべきである。従って、本発明は、ハードウェアだけの実施例、ソフトウェアだけの実施例、又はハードウェアとソフトウェアを組み合せた実施例の態様を採用することができる。さらに、本発明は、コンピュータ使用可能プログラムコードを含む一つ以上のコンピュータ使用可能記憶媒体(ディスクメモリ、CD−ROM、光メモリを含むが、これらに限られない)で実行されるコンピュータプログラム製品の態様を採用することができる。
本発明は、本発明の実施形態に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明されるものである。コンピュータプログラム命令によって、フローチャート及び/又はブロック図における各フロー及び/又はブロック、及びフローチャート及び/又はブロック図におけるフロー及び/又はブロックの組合せを実現できると理解すべきである。これらのコンピュータプログラム命令を、汎用コンピュータ、専用コンピュータ、組み込みプロセッサー又は他のプログラム可能なデータ処理装置のプロセッサーに提供して機器を生成することにより、コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサーにより実行される命令によって、フローチャートにおける1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現するための装置を生成することができる。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラム可能なデータ処理装置を特定の方式で動作させるようにガイドするコンピュータ可読メモリに記憶することにより、該コンピュータ可読メモリ内に記憶された命令によって、フローチャートの1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現する命令装置を含む製品を生成してもよい。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラム可能なデータ処理装置にインストールして、コンピュータにより実現されるプロセスを生成するようにコンピュータ又は他のプログラム可能な装置で一連の操作ステップを実行することにより、コンピュータ又は他のプログラム可能な装置で実行される命令によって、フローチャートにおける1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現するためのステップを提供してもよい。
組み合わせて本発明の実施形態を説明したが、当業者は、本発明の主旨及び範囲から逸脱しない限り、様々な補正及び変形を行うことができ、これらの補正及び変形は、いずれも添付の特許請求の範囲により限定される範囲に属すべきである。
Claims (13)
- カメラ付きのスマートデバイスに基づく体感制御の実現方法であって、
ユーザー画像データを収集するステップと、
ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、
前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、
前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、
前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップと、を含む
ことを特徴とする方法。 - 前記特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む
ことを特徴とする請求項1に記載の方法。 - 前記ユーザー画像データを収集するステップと、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップとの間に、さらに、
ユーザー画像を前景、背景から分離するステップを含む
ことを特徴とする請求項1に記載の方法。 - 前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成するステップとの間に、さらに、
距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正するステップを含む
ことを特徴とする請求項1〜3のいずれか一項に記載の方法。 - 前記距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールである
ことを特徴とする請求項4に記載の方法。 - カメラ付きのスマートデバイスに基づく体感制御の実現システムであって、
ユーザー画像データを収集する収集手段と、
ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段と、
前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段と、
前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段と、
前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する体感データ手段と、を含む
ことを特徴とするシステム。 - 前記収集手段がユーザー画像データを収集する動作と、前記画像輪郭取得手段がユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する分離手段をさらに含む
ことを特徴とする請求項6に記載のシステム。 - 前記第2の運動軌跡手段が前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいて、ユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する修正手段をさらに含む
ことを特徴とする請求項6又は7に記載のシステム。 - スマートデバイスであって、
ユーザー画像データを収集するカメラと、
ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーと、を含む
ことを特徴とするデバイス。 - 前記プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ前記距離に基づいて前記第2の運動軌跡を修正する
ことを特徴とする請求項9に記載のスマートデバイス。 - カメラ付きのスマートデバイスに基づく体感制御の実現システムであって、
一つ又は複数のプロセッサーと、
メモリと、
前記メモリに記憶され、前記一つ又は複数のプロセッサーにより実行されると、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムと、を含む
ことを特徴とするシステム。 - 前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離することを特徴とする請求項11に記載のスマートデバイス。
- 前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて前記第2の運動軌跡を修正する
ことを特徴とする請求項11又は12に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201511034014.6A CN105894533A (zh) | 2015-12-31 | 2015-12-31 | 基于智能设备实现体感控制的方法、***以及智能设备 |
CN201511034014.6 | 2015-12-31 | ||
PCT/CN2016/088314 WO2017113674A1 (zh) | 2015-12-31 | 2016-07-04 | 基于智能设备实现体感控制的方法、***以及智能设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018507448A true JP2018507448A (ja) | 2018-03-15 |
Family
ID=57002309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016570245A Pending JP2018507448A (ja) | 2015-12-31 | 2016-07-04 | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170193668A1 (ja) |
EP (1) | EP3206188A1 (ja) |
JP (1) | JP2018507448A (ja) |
CN (1) | CN105894533A (ja) |
WO (1) | WO2017113674A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106547357B (zh) * | 2016-11-22 | 2018-06-29 | 包磊 | 体感传感数据的通信处理方法及装置 |
CN107590823B (zh) * | 2017-07-21 | 2021-02-23 | 昆山国显光电有限公司 | 三维形态的捕捉方法和装置 |
CN109064776A (zh) * | 2018-09-26 | 2018-12-21 | 广东省交通规划设计研究院股份有限公司 | 预警方法、***、计算机设备和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041038A (ja) * | 2000-07-31 | 2002-02-08 | Taito Corp | 仮想楽器演奏装置 |
JP2006107060A (ja) * | 2004-10-04 | 2006-04-20 | Sharp Corp | 入退室検知装置 |
JP2010205286A (ja) * | 2010-04-29 | 2010-09-16 | Namco Bandai Games Inc | ゲーム装置 |
JP2012003364A (ja) * | 2010-06-15 | 2012-01-05 | Nippon Hoso Kyokai <Nhk> | 人物動作判定装置およびそのプログラム |
WO2015077978A1 (en) * | 2013-11-29 | 2015-06-04 | Intel Corporation | Controlling a camera with face detection |
JP2015158745A (ja) * | 2014-02-21 | 2015-09-03 | 日本電信電話株式会社 | 行動識別器生成装置、行動認識装置及びプログラム |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6374225B1 (en) * | 1998-10-09 | 2002-04-16 | Enounce, Incorporated | Method and apparatus to prepare listener-interest-filtered works |
US11325029B2 (en) * | 2007-09-14 | 2022-05-10 | National Institute Of Advanced Industrial Science And Technology | Virtual reality environment generating apparatus and controller apparatus |
JP5520463B2 (ja) * | 2008-09-04 | 2014-06-11 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、対象物追跡装置および画像処理方法 |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US8576253B2 (en) * | 2010-04-27 | 2013-11-05 | Microsoft Corporation | Grasp simulation of a virtual object |
CN102074018B (zh) * | 2010-12-22 | 2013-03-20 | Tcl集团股份有限公司 | 一种基于深度信息的轮廓跟踪方法 |
US8475367B1 (en) * | 2011-01-09 | 2013-07-02 | Fitbit, Inc. | Biometric monitoring device having a body weight sensor, and methods of operating same |
WO2012128399A1 (en) * | 2011-03-21 | 2012-09-27 | Lg Electronics Inc. | Display device and method of controlling the same |
CN102226880A (zh) * | 2011-06-03 | 2011-10-26 | 北京新岸线网络技术有限公司 | 一种基于虚拟现实的体感操作方法及*** |
CN102350057A (zh) * | 2011-10-21 | 2012-02-15 | 上海魔迅信息科技有限公司 | 基于电视机顶盒实现体感游戏操控的***及方法 |
US9734304B2 (en) * | 2011-12-02 | 2017-08-15 | Lumiradx Uk Ltd | Versatile sensors with data fusion functionality |
CN103577793B (zh) * | 2012-07-27 | 2017-04-05 | 中兴通讯股份有限公司 | 手势识别方法及装置 |
WO2014032162A1 (en) * | 2012-08-28 | 2014-03-06 | Solink Corporation | Transaction verification system |
CN103679124B (zh) * | 2012-09-17 | 2017-06-20 | 原相科技股份有限公司 | 手势识别***及方法 |
WO2014159726A1 (en) * | 2013-03-13 | 2014-10-02 | Mecommerce, Inc. | Determining dimension of target object in an image using reference object |
CN103345301B (zh) * | 2013-06-18 | 2016-08-10 | 华为技术有限公司 | 一种深度信息获取方法和装置 |
WO2015027196A1 (en) * | 2013-08-22 | 2015-02-26 | Bespoke, Inc. | Method and system to create custom products |
US20150058427A1 (en) * | 2013-08-23 | 2015-02-26 | Jean Rene' Grignon | Limited Area Temporary Instantaneous Network |
KR102233728B1 (ko) * | 2013-10-31 | 2021-03-30 | 삼성전자주식회사 | 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
US9916010B2 (en) * | 2014-05-16 | 2018-03-13 | Visa International Service Association | Gesture recognition cloud command platform, system, method, and apparatus |
US9922236B2 (en) * | 2014-09-17 | 2018-03-20 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable eyeglasses for providing social and environmental awareness |
US10048835B2 (en) * | 2014-10-31 | 2018-08-14 | Microsoft Technology Licensing, Llc | User interface functionality for facilitating interaction between users and their environments |
CN105138111A (zh) * | 2015-07-09 | 2015-12-09 | 中山大学 | 一种基于单摄像头的体感交互方法及*** |
US10213688B2 (en) * | 2015-08-26 | 2019-02-26 | Warner Bros. Entertainment, Inc. | Social and procedural effects for computer-generated environments |
-
2015
- 2015-12-31 CN CN201511034014.6A patent/CN105894533A/zh active Pending
-
2016
- 2016-07-04 EP EP16763711.5A patent/EP3206188A1/en not_active Withdrawn
- 2016-07-04 JP JP2016570245A patent/JP2018507448A/ja active Pending
- 2016-07-04 WO PCT/CN2016/088314 patent/WO2017113674A1/zh active Application Filing
- 2016-08-23 US US15/243,966 patent/US20170193668A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041038A (ja) * | 2000-07-31 | 2002-02-08 | Taito Corp | 仮想楽器演奏装置 |
JP2006107060A (ja) * | 2004-10-04 | 2006-04-20 | Sharp Corp | 入退室検知装置 |
JP2010205286A (ja) * | 2010-04-29 | 2010-09-16 | Namco Bandai Games Inc | ゲーム装置 |
JP2012003364A (ja) * | 2010-06-15 | 2012-01-05 | Nippon Hoso Kyokai <Nhk> | 人物動作判定装置およびそのプログラム |
WO2015077978A1 (en) * | 2013-11-29 | 2015-06-04 | Intel Corporation | Controlling a camera with face detection |
JP2015158745A (ja) * | 2014-02-21 | 2015-09-03 | 日本電信電話株式会社 | 行動識別器生成装置、行動認識装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3206188A4 (en) | 2017-08-16 |
CN105894533A (zh) | 2016-08-24 |
WO2017113674A1 (zh) | 2017-07-06 |
EP3206188A1 (en) | 2017-08-16 |
US20170193668A1 (en) | 2017-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3414742B1 (en) | Optimized object scanning using sensor fusion | |
CN106846403B (zh) | 一种三维空间中手部定位的方法、装置及智能设备 | |
EP3190781B1 (en) | Autofocus method, device and electronic apparatus | |
EP3164848B1 (en) | System and method of three-dimensional model generation | |
WO2017092334A1 (zh) | 一种图像渲染处理的方法及装置 | |
US20200265633A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20180184072A1 (en) | Setting apparatus to set movement path of virtual viewpoint, setting method, and storage medium | |
KR101718837B1 (ko) | 응용프로그램의 제어방법, 장치 및 전자장비 | |
KR20170031733A (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
US20130136302A1 (en) | Apparatus and method for calculating three dimensional (3d) positions of feature points | |
WO2021052208A1 (zh) | 用于运动障碍病症分析的辅助拍摄设备、控制方法和装置 | |
WO2017084319A1 (zh) | 手势识别方法及虚拟现实显示输出设备 | |
JP6079017B2 (ja) | 距離測定装置および距離計測方法 | |
JP2018507448A (ja) | スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス | |
CN107422844B (zh) | 一种信息处理方法及电子设备 | |
CN104094595A (zh) | 在立体视觉***中供处理影像的方法及其装置 | |
JP2017103688A5 (ja) | ||
TW201624096A (zh) | 校正導引系統和校正導引系統的操作方法 | |
KR20160129077A (ko) | 이미지 수집 방법 및 장치 | |
JP7103354B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6723720B2 (ja) | 表示システム、情報処理方法及びプログラム | |
RU2018140076A (ru) | Система и способ для обнаружения перемещения пользователя устройства для ухода за полостью рта и предоставления обратной связи | |
US9186056B2 (en) | Device and method for determining convergence eye movement performance of a user when viewing a stereoscopic video | |
CN103885465A (zh) | 一种基于视频处理生成动感座椅的动感数据的方法 | |
JP2021527888A (ja) | 軸外カメラを使用して眼追跡を実施するための方法およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20181120 |