JP2018507448A - スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス - Google Patents

スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス Download PDF

Info

Publication number
JP2018507448A
JP2018507448A JP2016570245A JP2016570245A JP2018507448A JP 2018507448 A JP2018507448 A JP 2018507448A JP 2016570245 A JP2016570245 A JP 2016570245A JP 2016570245 A JP2016570245 A JP 2016570245A JP 2018507448 A JP2018507448 A JP 2018507448A
Authority
JP
Japan
Prior art keywords
user
motion trajectory
camera
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016570245A
Other languages
English (en)
Inventor
建如 ▲陳▼
建如 ▲陳▼
Original Assignee
禾視控股(北京)有限公司
禾視移劫智能信息技▲術▼(北京)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 禾視控股(北京)有限公司, 禾視移劫智能信息技▲術▼(北京)有限公司 filed Critical 禾視控股(北京)有限公司
Publication of JP2018507448A publication Critical patent/JP2018507448A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20116Active contour; Active surface; Snakes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

本発明は、ユーザー画像データを収集するステップと、ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップとを含むスマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスを開示する。【選択図】図2

Description

本発明はコンピュータビジョンの技術分野に関し、具体的には、スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスに関する。
コンピュータビジョン技術の発展に伴い、体感ゲームがだんだん人々の生活に入り、従来のコントローラー又はジョイスティックに比べ、体感ゲーム機は、体感カメラで人体の動作を検出することによりゲームを操作し、例えば、マイクロソフト社製のXbox360の体感ゲーム機Kinectは、三つの体感カメラで人体の動作を収集し、かつ操作命令に変換してゲームを操作することにより、人々のゲームの操作エクスペリエンスが向上し、かつ人体は運動状態で鍛えられる。
しかし、現在、体感カメラが高価であるので、一部のユーザーは体感ゲームを体験できず、それに対して、スマートフォン、タブレットコンピュータ等のスマートデバイスは広く普及されているので、スマートフォンのカメラを体感カメラとして利用できれば、体感ゲーム等のような体感技術の人々の生活における応用の普及を大幅に向上させることできる。
本発明が解決しようとする技術的問題は、体感カメラが高価であることが体感技術の人々の生活における応用の妨げとなっているということである。
そのために、本発明の実施例は、ユーザー画像データを収集するステップと、ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップと、を含むカメラ付きのスマートデバイスに基づく体感制御の実現方法を提供する。
好ましくは、前記特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む。
好ましくは、前記ユーザー画像データを収集するステップと、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップとの間に、さらに、ユーザー画像を前景、背景から分離するステップを含む。
好ましくは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成するステップとの間に、さらに、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正するステップを含む。
好ましくは、前記距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールである。
本発明の実施例は、ユーザー画像データを収集する収集手段と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する体感データ手段とを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムをさらに提供する。
好ましくは、前記システムは、前記収集手段がユーザー画像データを収集することと、前記画像輪郭取得手段がユーザー画像データに基づいてユーザーの画像輪郭を取得することとの間に、ユーザー画像を前景、背景から分離する分離手段をさらに含む。
好ましくは、前記システムは、前記第2の運動軌跡手段が前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する修正手段をさらに含む。
本発明の実施例は、ユーザー画像データを収集するカメラと、ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーとを含む、スマートデバイスをさらに提供する。
好ましくは、前記プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ前記距離に基づいて前記第2の運動軌跡を修正する。
本実施例は、
一つ又は複数のプロセッサーと、
メモリと、
前記メモリに記憶され、前記一つ又は複数のプロセッサーにより実行される場合、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムとを含む、ことを特徴とするカメラ付きのスマートデバイスに基づく体感制御の実現システム。
前記システムは、前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する。
前記システムは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて前記第2の運動軌跡を修正する。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイスは、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
図面を参照すると本発明の特徴及び利点をより明確に理解でき、図面は、本発明を限定するものではなく、例示的なものに過ぎないと理解すべきである。
本発明の実施例に係るスマートデバイスに基づいて体感制御を実現するための応用場面を示す概略図である。 本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法を示す流れ図である。 本発明の実施例に係るスマートデバイスに基づく体感制御の実現システムを示す概略図である。 本発明の実施例に係る一つのプロセッサーを備えるスマートデバイスに基づく体感制御の実現システムを示す概略図である。 本発明の実施例に係る二つのプロセッサーを備えるスマートデバイスに基づく体感制御の実現システムを示す概略図である。
以下、図面を参照しながら本発明の実施例を詳しく説明する。
図1に示すように、本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法は、カメラ付きのスマートデバイスを必要とし、該スマートデバイスは、スマートフォン、タブレットコンピュータ、ノートパソコン等である。好ましくは、ユーザーが該スマートデバイスのカメラから一定の距離を維持することにより、カメラはユーザーの全身の画像データを収集することができる。当然ながら、幾らかの体感制御は、手部の動作だけで制御する必要があり、この場合、カメラでユーザー手部の画像データだけを収集すればよい。
図2に示すように、本発明の実施例は、カメラ付きのスマートデバイスに基づく体感制御の実現方法を提供し、該方法は、以下のステップS1〜S6を含む。
S1、ユーザー画像データを収集する。図1に示すように、カメラはユーザーの結像面であるx−y平面上の画像データを収集する。
S2、ユーザー画像を前景、背景から分離する。該ステップはオプションステップであり、従来の任意の画像分離方法でユーザー画像を前景、背景から分離することにより、前景、背景画像による干渉を低減し、プロセッサーの後処理の計算量を低減することができる。
S3、ユーザー画像データに基づいてユーザーの画像輪郭を取得する。体感制御に対して、ユーザーの体の運動軌跡を取得するだけでよいので、ユーザーの体の画像の他の詳細を注目する必要がなく、画像輪郭を抽出することによりプロセッサーの後処理の計算量を低減することができる。
S4、画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する。画像がリアルタイムに収集されるので、隣接フレームの画像の変化に基づいてユーザーのx−y平面上の第1の運動軌跡を容易に取得できる。
S5、画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいてユーザーの結像面に垂直な方向における第2の運動軌跡を取得する。ユーザーからカメラまでの距離が近ければ近いほど、生成された画像が大きくなるので、ユーザーがカメラに向かって運動すると、生成された画像がだんだん大きくなることにより、画像輪郭上の特徴長さがだんだん大きくなることに基づいて、ユーザーがカメラに向かって運動していると判定できる。逆に、ユーザーがカメラから遠ざかるように運動すると、生成された画像がだんだん小さくなることにより、画像輪郭上の特徴長さがだんだん小さくなることに基づいて、ユーザーがカメラから遠ざかるように運動すると判定できる。特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅、頭部輪郭の長さ/幅等であり、例えば、手部輪郭の長さが長くなるか又は幅が広くなることを検出すると、手部がカメラに向かって運動すると判定し、手部輪郭の長さが短くなるか又は幅が狭くなることを検出すると、手部がカメラから遠ざかるように運動すると判定することにより、体の各部分のz方向における変化を判定できる。同時に、ユーザーが結像面に垂直な方向であるz方向に運動すると、カメラはユーザー画像をキャプチャするときに焦点距離を絶えず変更することにより明瞭な画像を取得するので、カメラの焦点距離の変化に基づいてもユーザーがカメラに向かって運動するか又は遠ざかるように運動するかを判定できる。この二つの方式のいずれか一つでもユーザーの結像面に垂直な方向における運動軌跡を判定でき、当然ながら、より正確な結果を取得するために、この両者に基づいて総合的に判断することにより、より正確な結果を取得してもよい。
S6、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する。結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を総合すれば、ユーザーの三次元空間での運動軌跡を取得することにより、体感データを取得でき、該体感データを体感機能付きのスマートテレビ又はコンピュータに入力すれば、体感ゲームを体験することができる。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現方法は、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
ユーザーの結像面に垂直な方向における第2の運動軌跡は、画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいて算出されたので、より正確な制御を必要とする幾らかの場合のニーズを満たしがたいので、第2の運動軌跡を修正する必要がある。そのために、z方向におけるユーザーからカメラまでの距離をより正確に取得するように距離測定モジュールを追加する必要があり、該距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールであり、距離測定モジュールは、有線又は無線の方式でスマートフォン等のようなスマートデバイスと接続することにより、測定した距離をスマートデバイスに送信し、スマートデバイスは、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を取得し、かつ取得した距離に基づいて第2の運動軌跡を修正し、最後に、第1の運動軌跡と修正後の第2の運動軌跡に基づいて、より正確な体感データを生成する。
本発明の実施例は、さらに、
ユーザー画像データを収集する収集手段1と、
ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段3と、
画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段4と、
好ましくは手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む画像輪郭の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいて、ユーザーの結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段5と、
第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する体感データ手段7とを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムを提供する。
本発明の実施例に係るスマートデバイスに基づく体感制御の実現システムは、スマートフォン等のようなスマートデバイスのカメラだけでユーザー画像データを取得し、かつ該画像データに基づいてユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
好ましくは、前記スマートデバイスに基づく体感制御の実現システムは、収集手段1がユーザー画像データを収集する動作と、画像輪郭取得手段3がユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する分離手段2をさらに含む。従って、前景、背景画像による干渉を低減し、プロセッサーの後処理の計算量を低減することができる。
好ましくは、前記スマートデバイスに基づく体感制御の実現システムは、第2の運動軌跡手段5が画像輪郭上の特徴長さの変化及び/又はカメラの焦点距離の変化に基づいてユーザーの結像面に垂直な方向における第2の運動軌跡を取得する動作と、体感データ手段7が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分からカメラまでの距離に基づいて、第2の運動軌跡を修正する修正手段6をさらに含む。従って、より正確な体感データを取得することにより、より正確な制御を必要とする幾らかの場合のニーズを満たすことができる。
本発明の実施例は、さらに、
ユーザー画像データを収集するカメラと、
ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーと、
を含むスマートデバイスを提供し、該スマートデバイスはスマートフォン、タブレットコンピュータ、ノートパソコン等である。
従って、本発明の実施例のスマートデバイスだけでユーザーの結像面上の第1の運動軌跡と結像面に垂直な方向における第2の運動軌跡を取得することにより、ユーザーの三次元空間での運動軌跡を取得して体感データを生成し、ユーザーは別の装置を必要としなくても体感技術を体験でき、体感技術の普及と応用に役立つ。
好ましくは、該プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ該距離に基づいて第2の運動軌跡を修正する。従って、より正確な体感データを取得することにより、より正確な制御を必要とする幾らかの場合のニーズを満たすことができる。
本実施例は、一つ又は複数のプロセッサー200と、メモリ100と、前記メモリ100に記憶され、前記一つ又は複数のプロセッサー200により実行されると、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムとを含む、カメラ付きのスマートデバイスに基づく体感制御の実現システムを開示する。具体的には、図4に示すように、一つのプロセッサー200を含んでもよく、図5に示すように、二つのプロセッサー200を含んでもよい。
本実施例の前記システムは、好ましくは、前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する。
本実施例の前記システムは、好ましくは、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する。
当業者にとって、本発明の実施例は、方法、システム、又はコンピュータプログラム製品として提供できると理解すべきである。従って、本発明は、ハードウェアだけの実施例、ソフトウェアだけの実施例、又はハードウェアとソフトウェアを組み合せた実施例の態様を採用することができる。さらに、本発明は、コンピュータ使用可能プログラムコードを含む一つ以上のコンピュータ使用可能記憶媒体(ディスクメモリ、CD−ROM、光メモリを含むが、これらに限られない)で実行されるコンピュータプログラム製品の態様を採用することができる。
本発明は、本発明の実施形態に係る方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照して説明されるものである。コンピュータプログラム命令によって、フローチャート及び/又はブロック図における各フロー及び/又はブロック、及びフローチャート及び/又はブロック図におけるフロー及び/又はブロックの組合せを実現できると理解すべきである。これらのコンピュータプログラム命令を、汎用コンピュータ、専用コンピュータ、組み込みプロセッサー又は他のプログラム可能なデータ処理装置のプロセッサーに提供して機器を生成することにより、コンピュータ又は他のプログラム可能なデータ処理装置のプロセッサーにより実行される命令によって、フローチャートにおける1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現するための装置を生成することができる。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラム可能なデータ処理装置を特定の方式で動作させるようにガイドするコンピュータ可読メモリに記憶することにより、該コンピュータ可読メモリ内に記憶された命令によって、フローチャートの1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現する命令装置を含む製品を生成してもよい。
これらのコンピュータプログラム命令は、コンピュータ又は他のプログラム可能なデータ処理装置にインストールして、コンピュータにより実現されるプロセスを生成するようにコンピュータ又は他のプログラム可能な装置で一連の操作ステップを実行することにより、コンピュータ又は他のプログラム可能な装置で実行される命令によって、フローチャートにおける1つのフロー又は複数のフロー、及び/又はブロック図における1つのブロック又は複数のブロックにおいて指定された機能を実現するためのステップを提供してもよい。
組み合わせて本発明の実施形態を説明したが、当業者は、本発明の主旨及び範囲から逸脱しない限り、様々な補正及び変形を行うことができ、これらの補正及び変形は、いずれも添付の特許請求の範囲により限定される範囲に属すべきである。

Claims (13)

  1. カメラ付きのスマートデバイスに基づく体感制御の実現方法であって、
    ユーザー画像データを収集するステップと、
    ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップと、
    前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得するステップと、
    前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、
    前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するステップと、を含む
    ことを特徴とする方法。
  2. 前記特徴長さは、手部輪郭の長さ/幅、脚部輪郭の長さ/幅又は頭部輪郭の長さ/幅を含む
    ことを特徴とする請求項1に記載の方法。
  3. 前記ユーザー画像データを収集するステップと、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得するステップとの間に、さらに、
    ユーザー画像を前景、背景から分離するステップを含む
    ことを特徴とする請求項1に記載の方法。
  4. 前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得するステップと、第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成するステップとの間に、さらに、
    距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正するステップを含む
    ことを特徴とする請求項1〜3のいずれか一項に記載の方法。
  5. 前記距離測定モジュールは、赤外線距離測定モジュール又はレーザ距離測定モジュールである
    ことを特徴とする請求項4に記載の方法。
  6. カメラ付きのスマートデバイスに基づく体感制御の実現システムであって、
    ユーザー画像データを収集する収集手段と、
    ユーザー画像データに基づいてユーザーの画像輪郭を取得する画像輪郭取得手段と、
    前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する第1の運動軌跡手段と、
    前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する第2の運動軌跡手段と、
    前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する体感データ手段と、を含む
    ことを特徴とするシステム。
  7. 前記収集手段がユーザー画像データを収集する動作と、前記画像輪郭取得手段がユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離する分離手段をさらに含む
    ことを特徴とする請求項6に記載のシステム。
  8. 前記第2の運動軌跡手段が前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいて、ユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて、前記第2の運動軌跡を修正する修正手段をさらに含む
    ことを特徴とする請求項6又は7に記載のシステム。
  9. スマートデバイスであって、
    ユーザー画像データを収集するカメラと、
    ユーザー画像データに基づいてユーザーの画像輪郭を取得し、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得し、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得し、かつ前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成するプロセッサーと、を含む
    ことを特徴とするデバイス。
  10. 前記プロセッサーは、さらに、外部の距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離を受信し、かつ前記距離に基づいて前記第2の運動軌跡を修正する
    ことを特徴とする請求項9に記載のスマートデバイス。
  11. カメラ付きのスマートデバイスに基づく体感制御の実現システムであって、
    一つ又は複数のプロセッサーと、
    メモリと、
    前記メモリに記憶され、前記一つ又は複数のプロセッサーにより実行されると、ユーザー画像データを収集する動作と、ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作と、前記画像輪郭に基づいてユーザーの結像面上の第1の運動軌跡を取得する動作と、前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記第1の運動軌跡と前記第2の運動軌跡に基づいて体感データを生成する動作とを行う一つ又は複数のプログラムと、を含む
    ことを特徴とするシステム。
  12. 前記ユーザー画像データを収集する動作と、前記ユーザー画像データに基づいてユーザーの画像輪郭を取得する動作との間に、ユーザー画像を前景、背景から分離することを特徴とする請求項11に記載のスマートデバイス。
  13. 前記画像輪郭上の特徴長さの変化及び/又は前記カメラの焦点距離の変化に基づいてユーザーの前記結像面に垂直な方向における第2の運動軌跡を取得する動作と、前記体感データ手段が第1の運動軌跡と第2の運動軌跡に基づいて体感データを生成する動作との間に、距離測定モジュールで測定したユーザーの体の各部分から前記カメラまでの距離に基づいて前記第2の運動軌跡を修正する
    ことを特徴とする請求項11又は12に記載のシステム。
JP2016570245A 2015-12-31 2016-07-04 スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス Pending JP2018507448A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201511034014.6A CN105894533A (zh) 2015-12-31 2015-12-31 基于智能设备实现体感控制的方法、***以及智能设备
CN201511034014.6 2015-12-31
PCT/CN2016/088314 WO2017113674A1 (zh) 2015-12-31 2016-07-04 基于智能设备实现体感控制的方法、***以及智能设备

Publications (1)

Publication Number Publication Date
JP2018507448A true JP2018507448A (ja) 2018-03-15

Family

ID=57002309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016570245A Pending JP2018507448A (ja) 2015-12-31 2016-07-04 スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス

Country Status (5)

Country Link
US (1) US20170193668A1 (ja)
EP (1) EP3206188A1 (ja)
JP (1) JP2018507448A (ja)
CN (1) CN105894533A (ja)
WO (1) WO2017113674A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106547357B (zh) * 2016-11-22 2018-06-29 包磊 体感传感数据的通信处理方法及装置
CN107590823B (zh) * 2017-07-21 2021-02-23 昆山国显光电有限公司 三维形态的捕捉方法和装置
CN109064776A (zh) * 2018-09-26 2018-12-21 广东省交通规划设计研究院股份有限公司 预警方法、***、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041038A (ja) * 2000-07-31 2002-02-08 Taito Corp 仮想楽器演奏装置
JP2006107060A (ja) * 2004-10-04 2006-04-20 Sharp Corp 入退室検知装置
JP2010205286A (ja) * 2010-04-29 2010-09-16 Namco Bandai Games Inc ゲーム装置
JP2012003364A (ja) * 2010-06-15 2012-01-05 Nippon Hoso Kyokai <Nhk> 人物動作判定装置およびそのプログラム
WO2015077978A1 (en) * 2013-11-29 2015-06-04 Intel Corporation Controlling a camera with face detection
JP2015158745A (ja) * 2014-02-21 2015-09-03 日本電信電話株式会社 行動識別器生成装置、行動認識装置及びプログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6374225B1 (en) * 1998-10-09 2002-04-16 Enounce, Incorporated Method and apparatus to prepare listener-interest-filtered works
US11325029B2 (en) * 2007-09-14 2022-05-10 National Institute Of Advanced Industrial Science And Technology Virtual reality environment generating apparatus and controller apparatus
JP5520463B2 (ja) * 2008-09-04 2014-06-11 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、対象物追跡装置および画像処理方法
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
US8576253B2 (en) * 2010-04-27 2013-11-05 Microsoft Corporation Grasp simulation of a virtual object
CN102074018B (zh) * 2010-12-22 2013-03-20 Tcl集团股份有限公司 一种基于深度信息的轮廓跟踪方法
US8475367B1 (en) * 2011-01-09 2013-07-02 Fitbit, Inc. Biometric monitoring device having a body weight sensor, and methods of operating same
WO2012128399A1 (en) * 2011-03-21 2012-09-27 Lg Electronics Inc. Display device and method of controlling the same
CN102226880A (zh) * 2011-06-03 2011-10-26 北京新岸线网络技术有限公司 一种基于虚拟现实的体感操作方法及***
CN102350057A (zh) * 2011-10-21 2012-02-15 上海魔迅信息科技有限公司 基于电视机顶盒实现体感游戏操控的***及方法
US9734304B2 (en) * 2011-12-02 2017-08-15 Lumiradx Uk Ltd Versatile sensors with data fusion functionality
CN103577793B (zh) * 2012-07-27 2017-04-05 中兴通讯股份有限公司 手势识别方法及装置
WO2014032162A1 (en) * 2012-08-28 2014-03-06 Solink Corporation Transaction verification system
CN103679124B (zh) * 2012-09-17 2017-06-20 原相科技股份有限公司 手势识别***及方法
WO2014159726A1 (en) * 2013-03-13 2014-10-02 Mecommerce, Inc. Determining dimension of target object in an image using reference object
CN103345301B (zh) * 2013-06-18 2016-08-10 华为技术有限公司 一种深度信息获取方法和装置
WO2015027196A1 (en) * 2013-08-22 2015-02-26 Bespoke, Inc. Method and system to create custom products
US20150058427A1 (en) * 2013-08-23 2015-02-26 Jean Rene' Grignon Limited Area Temporary Instantaneous Network
KR102233728B1 (ko) * 2013-10-31 2021-03-30 삼성전자주식회사 전자 장치의 제어 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US9916010B2 (en) * 2014-05-16 2018-03-13 Visa International Service Association Gesture recognition cloud command platform, system, method, and apparatus
US9922236B2 (en) * 2014-09-17 2018-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Wearable eyeglasses for providing social and environmental awareness
US10048835B2 (en) * 2014-10-31 2018-08-14 Microsoft Technology Licensing, Llc User interface functionality for facilitating interaction between users and their environments
CN105138111A (zh) * 2015-07-09 2015-12-09 中山大学 一种基于单摄像头的体感交互方法及***
US10213688B2 (en) * 2015-08-26 2019-02-26 Warner Bros. Entertainment, Inc. Social and procedural effects for computer-generated environments

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002041038A (ja) * 2000-07-31 2002-02-08 Taito Corp 仮想楽器演奏装置
JP2006107060A (ja) * 2004-10-04 2006-04-20 Sharp Corp 入退室検知装置
JP2010205286A (ja) * 2010-04-29 2010-09-16 Namco Bandai Games Inc ゲーム装置
JP2012003364A (ja) * 2010-06-15 2012-01-05 Nippon Hoso Kyokai <Nhk> 人物動作判定装置およびそのプログラム
WO2015077978A1 (en) * 2013-11-29 2015-06-04 Intel Corporation Controlling a camera with face detection
JP2015158745A (ja) * 2014-02-21 2015-09-03 日本電信電話株式会社 行動識別器生成装置、行動認識装置及びプログラム

Also Published As

Publication number Publication date
EP3206188A4 (en) 2017-08-16
CN105894533A (zh) 2016-08-24
WO2017113674A1 (zh) 2017-07-06
EP3206188A1 (en) 2017-08-16
US20170193668A1 (en) 2017-07-06

Similar Documents

Publication Publication Date Title
EP3414742B1 (en) Optimized object scanning using sensor fusion
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
EP3190781B1 (en) Autofocus method, device and electronic apparatus
EP3164848B1 (en) System and method of three-dimensional model generation
WO2017092334A1 (zh) 一种图像渲染处理的方法及装置
US20200265633A1 (en) Image processing apparatus, image processing method, and storage medium
US20180184072A1 (en) Setting apparatus to set movement path of virtual viewpoint, setting method, and storage medium
KR101718837B1 (ko) 응용프로그램의 제어방법, 장치 및 전자장비
KR20170031733A (ko) 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들
US20130136302A1 (en) Apparatus and method for calculating three dimensional (3d) positions of feature points
WO2021052208A1 (zh) 用于运动障碍病症分析的辅助拍摄设备、控制方法和装置
WO2017084319A1 (zh) 手势识别方法及虚拟现实显示输出设备
JP6079017B2 (ja) 距離測定装置および距離計測方法
JP2018507448A (ja) スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス
CN107422844B (zh) 一种信息处理方法及电子设备
CN104094595A (zh) 在立体视觉***中供处理影像的方法及其装置
JP2017103688A5 (ja)
TW201624096A (zh) 校正導引系統和校正導引系統的操作方法
KR20160129077A (ko) 이미지 수집 방법 및 장치
JP7103354B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6723720B2 (ja) 表示システム、情報処理方法及びプログラム
RU2018140076A (ru) Система и способ для обнаружения перемещения пользователя устройства для ухода за полостью рта и предоставления обратной связи
US9186056B2 (en) Device and method for determining convergence eye movement performance of a user when viewing a stereoscopic video
CN103885465A (zh) 一种基于视频处理生成动感座椅的动感数据的方法
JP2021527888A (ja) 軸外カメラを使用して眼追跡を実施するための方法およびシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181120