JP5911846B2 - 肌色領域及び顔領域に基づく視点検出器 - Google Patents
肌色領域及び顔領域に基づく視点検出器 Download PDFInfo
- Publication number
- JP5911846B2 JP5911846B2 JP2013506319A JP2013506319A JP5911846B2 JP 5911846 B2 JP5911846 B2 JP 5911846B2 JP 2013506319 A JP2013506319 A JP 2013506319A JP 2013506319 A JP2013506319 A JP 2013506319A JP 5911846 B2 JP5911846 B2 JP 5911846B2
- Authority
- JP
- Japan
- Prior art keywords
- human
- face
- viewpoint
- computer
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Position Input By Displaying (AREA)
Description
技術の進歩は、より小さく、より高性能なコンピューティング装置をもたらしている。例えば、現在、様々なポータブルパーソナルコンピューティング装置が存在しており、小さく、軽量で、ユーザが持ち運ぶことが簡単な、ポータブルワイヤレス電話、携帯情報端末(PDA)、そしてページング装置、のようなワイヤレスコンピューティング装置を含む。より具体的には、ポータブルワイヤレス電話、例えばセルラ電話とインターネットプロトコル(IP)電話は、ワイヤレスネットワーク上で音声及びデータパケットを通信することができる。さらに、多くのそのようなワイヤレス電話は、そこの中に組込まれている他のタイプの装置を含む。例えば、ワイヤレス電話はまた、視聴者(viewer)の視点から見た画像を表示するための表示器、デジタルビデオカメラ及びデジタルスチルカメラを含むことができる。しかしながら、一般的にはカメラが照準を定める方向の画像のみが観察されることができる。即ち、視聴者が彼/彼女の視点を移動したとしても、視聴者は通常同じ画像を見ている。
以下に本件出願当初の特許請求の範囲に記載された発明を付記する。
[1] カメラによって撮像され、前記カメラに結合された装置に表示されるべき少なくとも1つの被写体を含む画像に対応する画像データを受信することと、前記カメラに結合された前記装置の表示器に対して人間の視点を決定することと、前記人間の前記決定された視点に応じて前記表示器に表示される前記少なくとも1つの被写体を移動することと、を備え、前記視点を決定することは、前記人間の決定された肌色領域に基づいて前記人間の顔領域を決定し、前記顔領域に基づいて前記人間の顔の位置を追跡することを備える、方法。
[2] 前記人間の前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて決定される、[1]に記載の方法。
[3] 前記人間の肌色の前記クロミナンス平均値と前記クロミナンス分散値を決定するためユーザ認識トレーニングプロセスを実行すること、をさらに備える[2]に記載の方法。
[4] 前記視点を検出することは、前記顔領域内の顔の位置を確認するために前記顔領域内の目を検出することをさらに備える、[1]に記載の方法。
[5] 前記視点を決定することは、顔の前の位置に基づいて処理されるべき前記画像の第1の領域を選択することをさらに備える、[1]に記載の方法。
[6] 前記選択された領域内で顔が検出されないことに応じて、前記第1の領域よりも大きい第2の領域が処理されるために選択される、[5]に記載の方法。
[7] 前記視点を決定することは、肌色の範囲内でクロミナンス値を有する画素を識別することをさらに備える、[1]に記載の方法。
[8] 前記顔の位置を追跡することは、ユーザ認識トレーニングモードに応じて:前記人間の前記顔領域に関する前記画像データの候補領域を走査すること、肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、前記候補領域における全ての画素を走査した後に:肌トーン閾値を計算すること、及び前記サンプリングされた画素データの測定された肌トーンの分散と平均値を計算することによって人間の顔領域の中心画素位置を推定すること;前記肌トーンしきい値内の画素サンプル毎に、前記平均値までの前記サンプル画素の距離を測定し、前記距離を前記分散と比較することによって選択的に尤度値を蓄積すること;前記距離が前記分散内にあるとき:水平及び垂直の尤度値を蓄積すること;前記尤度値の選択的な蓄積を完了したとき:前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び前記最大水平セグメントと前記最大垂直セグメントとに基づいて推定された中心画素位置を決定すること;を含む、[1]に記載の方法。
[9] 前記サンプリングされた画素データの前記測定された肌トーンの前記分散と前記平均値をリセットすること、をさらに備える[8]に記載の方法。
[10] 前記中心画素の位置が前記人間の前記顔領域内にあるということを確認すること、をさらに備える[8]に記載の方法。
[11] 前記顔の前の位置に基づいて、前記候補領域を最初に探索すること、をさらに備える[8]に記載の方法。
[12] 前記肌トーンしきい値は、特定の人間と関連づけられる、[8]に記載の方法。
[13] カメラによって撮像された画像に対応する画像データ内で人間の肌色領域を検出するように構成された肌色検出器と、前記人間の前記検出された肌色領域に基づいて、前記画像の顔領域を検出するように構成された顔検出器と、前記検出された肌色領域に少なくとも部分的に基づいて前記カメラに結合された装置の表示器に対して前記人間の視点を検出するように構成された視点検出器と、を備え、前記視点検出器は、前記検出された顔領域に基づいて前記人間の顔の位置を追跡するようにさらに構成され、前記画像内の被写体は、前記人間の前記検出された視点に応じて移動される、装置。
[14] 前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて検出される、[13]に記載の装置。
[15] 前記表示器と前記カメラをさらに備え、前記肌色検出器は、前記カメラから前記画像データを受信し、前記表示器に表示コンテンツを提供するために結合された画像処理パイプライン内にある、[13]に記載の装置。
[16] 前記顔の位置を追跡することは、ユーザ認識トレーニングモードに応じて:前記人間の前記顔領域に関する画像データの候補領域を走査すること、肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、前記候補領域内の全ての画素を走査した後に:肌トーンしきい値を計算すること、及び前記サンプリングされた画素データの測定された肌トーンの分散と平均値計算することによって前記人間の前記顔領域の中心画素位置を推定すること;前記肌トーンしきい値内の画素サンプル毎に、平均値までの前記サンプル画素の距離を測定し、前記距離を前記分散と比較することによって尤度値を選択的に蓄積すること;前記距離が前記分散内にあるとき:水平及び垂直の尤度値を蓄積すること;前記尤度値の選択的な蓄積を完了したとき:前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び前記最大水平セグメントと前記最大垂直セグメントとに基づいて推定された中心画素位置を決定すること;を含む、[13]に記載の装置。
[17] コンピュータによって実行可能なコードを格納するコンピュータ可読有体媒体であって、前記コードは、カメラによって撮像された画像に対応する画像データを受信することを前記コンピュータによって実行可能にするコードと、前記カメラに結合された装置の表示器に対して人間の視点を決定することを前記コンピュータによって実行可能にするコードと、前記人間の前記検出された視点に応じて前記画像内で被写体を移動することを前記コンピュータによって実行可能にするコードと、を備え、前記人間の視点を決定するためのコードは、前記人間の決定される肌色領域に基づいて前記人間の顔領域を決定することを前記コンピュータによって実行可能にするコードと、前記顔領域に基づいて前記人間の顔の位置を追跡することを前記コンピュータによって実行可能にするコードと、を備える、コンピュータ可読有体媒体。
[18] 前記人間の肌色に基づいて前記人間の肌色のクロミナンス分散値とクロミナンス平均値を決定するためにユーザ認識トレーニングプロセスを実行することを前記コンピュータによって実行可能にするコード、をさらに備える[17]に記載のコンピュータ可読有体媒体。
[19] 前記人間の前記視点を決定するためのコードは、前記顔領域内の顔の位置を確認するために前記顔領域内の目を検出することを前記コンピュータによって実行可能にするコードをさらに備える、[17]に記載のコンピュータ可読有体媒体。
[20] ユーザ認識トレーニングモードに応じて:前記人間の前記顔領域に関する画像データの候補領域を走査すること、肌トーン範囲内にある画素毎にサンプル画素データを蓄積すること、前記候補領域における全ての画素を走査した後で:肌トーン閾値を計算すること、及び前記サンプリングされた画素データの測定された肌トーンの分散値と平均値を計算することによって、前記人間の前記顔領域の中心ピクセル位置を推定する;前記肌トーン閾値内の画素サンプル毎に、前記平均値までの前記サンプル画素の距離を測定し、前記距離を前記分散値と比較することによって選択的に尤度値を蓄積する;前記距離が前記分散内にあるとき:水平及び垂直の尤度値を蓄積する;前記尤度値の前記選択的な蓄積を完了したとき:前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定する、前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出する、及び前記最大水平セグメントと前記最大垂直セグメントとに基づいて推定された中心画素位置を決定する;ためのコード、をさらに備える[17]に記載のコンピュータ可読有体媒体。
[21] 前記サンプリングされた画素データの前記測定された肌トーンの前記分散値及び前記平均値をリセットすることを前記コンピュータによって実行可能にするコード、をさらに備える[20]に記載のコンピュータ可読有体媒体。
[22] 前記中心画素位置が前記人間の前記顔領域内にあるということを確認することを前記コンピュータによって実行可能にするコード、をさらに備える[20]に記載のコンピュータ可読有体媒体。
[23] 前記顔の前の位置に基づいて前記候補領域を最初に探索することを前記コンピュータによって実行可能にするコード、をさらに備える[20]に記載のコンピュータ可読有体媒体。
[24] カメラによって撮像された画像に対応する画像データを受信するための手段と、前記カメラに結合された装置の表示器に対して人間の視点を決定するための手段と、前記人間の前記検出された視点に応じて前記画像内で被写体を移動するための手段と、を備え、前記視点を決定するための手段は、前記人間の決定された肌色領域に基づいて前記人間の顔領域を決定するための手段と、前記顔領域に基づいて前記人間の顔の位置を追跡するための手段とを備える、装置。
[25] 前記人間の前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて決定される、[24]に記載の装置。
[26] 前記顔の位置を追跡するための手段は、ユーザ認識トレーニングモードに応じて:前記人間の前記顔領域に関する画像データの候補領域を走査すること、肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、前記候補領域における全ての画素を走査した後で:肌トーン閾値を計算すること、及び前記サンプリングされた画素データの測定された肌トーンの分散値と平均値を計算することによって前記人間の前記顔領域の中心画素位置を推定すること;前記肌トーン閾値内の画素毎に、前記平均値までの前記サンプル画素の距離を測定すること、前記距離を前記分散値と比較すること、によって尤度値を選択的に蓄積すること;前記距離が前記分散内にあるとき:水平及び垂直の尤度値を蓄積すること;前記尤度値の前記選択的な蓄積を完了したとき:前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び前記最大水平セグメントと前記最大垂直セグメントに基づいて推定された中心画素位置を決定すること;を含む、[24]に記載の装置。
Claims (25)
- 遠近調整モジュールが、カメラによって撮像され、前記カメラに結合された装置に表示されるべき少なくとも1つの被写体を含む画像に対応する画像データをメモリから受信することと、
視点検出器が、前記カメラに結合された前記装置の表示器に対して人間の視点を決定することと、
前記遠近調整モジュールが、2次元表示器に3次元視覚効果を生成するために前記人間の決定された前記視点に応じて前記表示器に表示される前記少なくとも1つの被写体を移動することと、
を備え、前記視点を決定することは、前記人間の決定された肌色領域に基づいて前記人間の顔領域を決定し、前記顔領域に基づいて前記人間の顔の位置を追跡することを備え、前記顔の位置を追跡することは、前記人間の前記顔領域の推定された中心画素位置を決定することを含む、方法。 - 前記人間の前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて決定される、請求項1に記載の方法。
- 前記人間の肌色の前記クロミナンス平均値と前記クロミナンス分散値を決定するためユーザ認識トレーニングプロセスを実行すること、をさらに備える請求項2に記載の方法。
- 前記視点を検出することは、前記顔領域内の顔の位置を確認するために前記顔領域内の目を検出することをさらに備える、請求項1に記載の方法。
- 前記視点を決定することは、顔の前の位置に基づいて処理されるべき前記画像の第1の領域を選択することをさらに備える、請求項1に記載の方法。
- 前記視点を決定することは、肌色の範囲内でクロミナンス値を有する画素を識別することをさらに備える、請求項1に記載の方法。
- 前記推定された中心画素位置を決定することは、
ユーザ認識トレーニングモードに応じて:
前記人間の前記顔領域に関する前記画像データの候補領域を走査すること、
肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、
前記候補領域における全ての画素を走査した後に、
肌トーン閾値を計算すること、
前記サンプル画素データの測定された肌トーンの分散と平均値を計算することと、
前記肌トーン閾値内の画素サンプル毎に、前記平均値までのサンプル画素の距離を測定し、前記距離を前記分散と比較することによって選択的に尤度値を蓄積すること;
前記距離が前記分散内にあるとき、
水平及び垂直の尤度値を蓄積すること、
前記尤度値の前記選択的な蓄積を完了したとき、
前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、
前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び
前記最大水平セグメントと前記最大垂直セグメントとに基づいて前記推定された中心画素位置を決定すること、
を備える、請求項1に記載の方法。 - 前記サンプル画素データの前記測定された肌トーンの前記分散と前記平均値をリセットすること、をさらに備える請求項7に記載の方法。
- 前記中心画素位置が前記人間の前記顔領域内にあるということを確認すること、をさらに備える請求項7に記載の方法。
- 前記顔の前の位置に基づいて、前記候補領域を最初に探索すること、をさらに備える請求項7に記載の方法。
- 前記肌トーン閾値は、特定の人間と関連づけられる、請求項7に記載の方法。
- カメラによって撮像された画像に対応する画像データ内で人間の肌色領域を検出するように構成された肌色検出器と、
前記人間の前記検出された肌色領域に基づいて、前記画像の顔領域を検出するように構成された顔検出器と、
前記検出された肌色領域に少なくとも部分的に基づいて前記カメラに結合された装置の表示器に対して前記人間の視点を検出するように構成された視点検出器と、
を備え、前記視点検出器は、前記検出された顔領域に基づいて前記人間の顔の位置を追跡するようにさらに構成され、前記顔の位置を追跡するために、前記視点検出器は、前記人間の前記顔領域の推定された中心画素位置を決定するように構成され、メモリからの画像内の被写体は、2次元表示器に3次元視覚効果を生成するために前記人間の前記検出された視点に応じて移動される、装置。 - 前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて検出される、請求項12に記載の装置。
- 前記表示器と前記カメラをさらに備え、前記肌色検出器は、前記カメラから前記画像データを受信し、前記表示器に表示コンテンツを提供するために結合された画像処理パイプライン内にある、請求項12に記載の装置。
- 前記推定された中心画素位置を決定するために、前記視点検出器は、
ユーザ認識トレーニングモードに応じて、
前記人間の前記顔領域に関する画像データの候補領域を走査すること、
肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、
前記候補領域内の全ての画素を走査した後に、
肌トーン閾値を計算すること、
前記サンプル画素データの測定された肌トーンの分散と平均値を計算すること、
前記肌トーン閾値内の画素サンプル毎に、平均値までのサンプル画素の距離を測定し、前記距離を前記分散と比較することによって尤度値を選択的に蓄積すること;
前記距離が前記分散内にあるとき、
水平及び垂直の尤度値を蓄積すること、
前記尤度値の前記選択的な蓄積を完了したとき、
前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、
前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び
前記最大水平セグメントと前記最大垂直セグメントとに基づいて前記推定された中心画素位置を決定すること、
を行うように構成される、請求項12に記載の装置。 - コンピュータによって実行可能なコードを格納するコンピュータ可読記憶媒体であって、前記コードは、
カメラによって撮像された画像に対応する画像データを受信することを前記コンピュータによって実行可能にするコードと、
前記カメラに結合された装置の表示器に対して人間の視点を決定することを前記コンピュータによって実行可能にするコードと、
2次元表示器に3次元視覚効果を生成するために前記人間の検出された前記視点に応じて前記画像内で被写体を移動することを前記コンピュータによって実行可能にするコードと、
を備え、
前記人間の視点を決定するためのコードは、前記人間の決定される肌色領域に基づいて前記人間の顔領域を決定することを前記コンピュータによって実行可能にするコードと、前記顔領域に基づいて前記人間の顔の位置を追跡することを前記コンピュータによって実行可能にするコードとを備え、前記顔の位置を追跡するコードは、前記人間の前記顔領域の推定された中心画素位置を決定することを前記コンピュータによって実行可能にするコードを含む、
コンピュータ可読記憶媒体。 - 前記人間の肌色に基づいて前記人間の肌色のクロミナンス分散値とクロミナンス平均値を決定するためにユーザ認識トレーニングプロセスを実行することを前記コンピュータによって実行可能にするコード、をさらに備える請求項16に記載のコンピュータ可読記憶媒体。
- 前記人間の前記視点を決定するためのコードは、前記顔領域内の顔の位置を確認するために前記顔領域内の目を検出することを前記コンピュータによって実行可能にするコードをさらに備える、請求項16に記載のコンピュータ可読記憶媒体。
- 前記推定された中心画素位置を決定するためのコードは、
ユーザ認識トレーニングモードに応じて、
前記画像データにおいて前記人間の前記顔領域に関する画像データの候補領域を走査すること、
肌トーン範囲内にある画素毎にサンプル画素データを蓄積すること、
前記候補領域における全ての画素を走査した後で、
肌トーン閾値を計算すること、
前記サンプル画素データの測定された肌トーンの分散と平均値を計算すること、
前記肌トーン閾値内の画素サンプル毎に、前記平均値までのサンプル画素の距離を測定し、前記距離を前記分散と比較することによって選択的に尤度値を蓄積すること、
前記距離が前記分散内にあるとき、
水平及び垂直の尤度値を蓄積すること、
前記尤度値の前記選択的な蓄積を完了したとき、
前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、
前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び
前記最大水平セグメントと前記最大垂直セグメントとに基づいて前記推定された中心画素位置を決定すること、
を行うためのコード、を含む請求項16に記載のコンピュータ可読記憶媒体。 - 前記サンプル画素データの前記測定された肌トーンの前記分散と前記平均値をリセットすることを前記コンピュータによって実行可能にするコード、をさらに備える請求項19に記載のコンピュータ可読記憶媒体。
- 前記中心画素位置が前記人間の前記顔領域内にあるということを確認することを前記コンピュータによって実行可能にするコード、をさらに備える請求項19に記載のコンピュータ可読記憶媒体。
- 前記顔の前の位置に基づいて前記候補領域を最初に探索することを前記コンピュータによって実行可能にするコード、をさらに備える請求項19に記載のコンピュータ可読記憶媒体。
- カメラによって撮像された画像に対応する画像データを受信するための手段と、
前記カメラに結合された装置の表示器に対して人間の視点を決定するための手段と、
2次元表示器に3次元視覚効果を生成するために前記人間の検出された前記視点に応じて前記画像内で被写体を移動するための手段と、
を備え、前記視点を決定するための手段は、前記人間の決定された肌色領域に基づいて前記人間の顔領域を決定するための手段と、前記顔領域に基づいて前記人間の顔の位置を追跡するための手段とを備え前記顔の位置を追跡するための手段は、前記人間の前記顔領域の推定された中心画素位置を決定するための手段を含む、装置。 - 前記人間の前記肌色領域は、肌色に対応するクロミナンス分散値とクロミナンス平均値に基づいて決定される、請求項23に記載の装置。
- 前記人間の前記顔領域の前記推定された中心画素位置を決定するための手段は、
ユーザ認識トレーニングモードに応じて、
画像データにおいて前記人間の前記顔領域に関する前記画像データの候補領域を走査すること、
肌トーン範囲内にある画素毎に、サンプル画素データを蓄積すること、
前記候補領域における全ての画素を走査した後で、
肌トーン閾値を計算すること、
前記サンプル画素データの測定された肌トーンの分散と平均値を計算すること、
前記肌トーン閾値内の画素サンプル毎に、前記平均値までのサンプル画素の距離を測定し、前記距離を前記分散と比較することによって尤度値を選択的に蓄積すること、
前記距離が前記分散内にあるとき、
水平及び垂直の尤度値を蓄積すること、
前記尤度値の前記選択的な蓄積を完了したとき、
前記水平及び垂直の尤度値の各々において最大セグメントを見つけるために動的閾値を設定すること、
前記動的閾値の評価に基づいて最大水平セグメントと最大垂直セグメントを検出すること、及び
前記最大水平セグメントと前記最大垂直セグメントに基づいて前記推定された中心画素位置を決定すること、
を行うための手段を含む、請求項23に記載の装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/765,292 US8315443B2 (en) | 2010-04-22 | 2010-04-22 | Viewpoint detector based on skin color area and face area |
US12/765,292 | 2010-04-22 | ||
PCT/US2011/033543 WO2011133842A1 (en) | 2010-04-22 | 2011-04-22 | Viewpoint detector based on skin color area and face area |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013525906A JP2013525906A (ja) | 2013-06-20 |
JP5911846B2 true JP5911846B2 (ja) | 2016-04-27 |
Family
ID=44268139
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013506319A Active JP5911846B2 (ja) | 2010-04-22 | 2011-04-22 | 肌色領域及び顔領域に基づく視点検出器 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8315443B2 (ja) |
EP (1) | EP2561465A1 (ja) |
JP (1) | JP5911846B2 (ja) |
KR (1) | KR101560866B1 (ja) |
CN (1) | CN102859534B (ja) |
WO (1) | WO2011133842A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8325796B2 (en) | 2008-09-11 | 2012-12-04 | Google Inc. | System and method for video coding using adaptive segmentation |
US8866809B2 (en) | 2008-09-30 | 2014-10-21 | Apple Inc. | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface |
DE102010009737A1 (de) * | 2010-03-01 | 2011-09-01 | Institut für Rundfunktechnik GmbH | Verfahren und Anordnung zur Wiedergabe von 3D-Bildinhalten |
AU2011356545B2 (en) * | 2011-01-18 | 2013-12-19 | Hisense Electric Co., Ltd | Control method and apparatus for stereoscopic display |
US8984622B1 (en) * | 2012-01-17 | 2015-03-17 | Amazon Technologies, Inc. | User authentication through video analysis |
US9262670B2 (en) * | 2012-02-10 | 2016-02-16 | Google Inc. | Adaptive region of interest |
US9354748B2 (en) | 2012-02-13 | 2016-05-31 | Microsoft Technology Licensing, Llc | Optical stylus interaction |
US9075566B2 (en) | 2012-03-02 | 2015-07-07 | Microsoft Technoogy Licensing, LLC | Flexible hinge spine |
US9134807B2 (en) | 2012-03-02 | 2015-09-15 | Microsoft Technology Licensing, Llc | Pressure sensitive key normalization |
US20130300590A1 (en) | 2012-05-14 | 2013-11-14 | Paul Henry Dietz | Audio Feedback |
US9167201B2 (en) | 2012-06-07 | 2015-10-20 | Alcatel Lucent | Feedback-system for managing video conferencing with a portable multimedia device comprising a frontal camera |
US9256089B2 (en) | 2012-06-15 | 2016-02-09 | Microsoft Technology Licensing, Llc | Object-detecting backlight unit |
US20140009570A1 (en) * | 2012-07-03 | 2014-01-09 | Tourwrist, Inc. | Systems and methods for capture and display of flex-focus panoramas |
US20140063198A1 (en) * | 2012-08-30 | 2014-03-06 | Microsoft Corporation | Changing perspectives of a microscopic-image device based on a viewer' s perspective |
US9230158B1 (en) | 2012-12-18 | 2016-01-05 | Amazon Technologies, Inc. | Fraud detection for facial recognition systems |
US10257414B2 (en) | 2016-07-15 | 2019-04-09 | Qualcomm Incorporated | Method and system for smart group portrait |
CN112655016A (zh) * | 2018-09-11 | 2021-04-13 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07287761A (ja) | 1994-04-19 | 1995-10-31 | Canon Inc | 画像処理装置及び画像処理方法 |
US6608622B1 (en) | 1994-10-14 | 2003-08-19 | Canon Kabushiki Kaisha | Multi-viewpoint image processing method and apparatus |
JP3561985B2 (ja) * | 1994-11-28 | 2004-09-08 | ソニー株式会社 | 画像処理装置 |
DE19516664C1 (de) * | 1995-05-05 | 1996-08-29 | Siemens Ag | Verfahren zum Aufbau einer Farbtabelle in einer Computereinheit zur Klassifikation von Bildpunkten in einem Bild |
US6188777B1 (en) | 1997-08-01 | 2001-02-13 | Interval Research Corporation | Method and apparatus for personnel detection and tracking |
US6148092A (en) * | 1998-01-08 | 2000-11-14 | Sharp Laboratories Of America, Inc | System for detecting skin-tone regions within an image |
JP2000311248A (ja) * | 1999-04-28 | 2000-11-07 | Sharp Corp | 画像処理装置 |
US6972813B1 (en) | 1999-06-09 | 2005-12-06 | 3M Innovative Properties Company | Optical laminated bodies, lighting equipment and area luminescence equipment |
KR20050042399A (ko) | 2003-11-03 | 2005-05-09 | 삼성전자주식회사 | 게이즈 디텍션을 이용한 비디오 데이터 처리 장치 및 방법 |
GB2409028A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
JP2008507006A (ja) | 2004-06-01 | 2008-03-06 | マイケル エー. ベセリー | 水平透視シミュレータ |
US7221366B2 (en) * | 2004-08-03 | 2007-05-22 | Microsoft Corporation | Real-time rendering system and process for interactive viewpoint video |
GB0426523D0 (en) * | 2004-12-02 | 2005-01-05 | British Telecomm | Video processing |
KR100695174B1 (ko) | 2006-03-28 | 2007-03-14 | 삼성전자주식회사 | 가상 입체음향을 위한 청취자 머리위치 추적방법 및 장치 |
US8040389B2 (en) * | 2006-07-25 | 2011-10-18 | Nikon Corporation | Image processing method, image processing program and image processing apparatus for detecting object of an image |
EP2116919A1 (en) | 2008-05-09 | 2009-11-11 | MBDA UK Limited | display of 3-dimensional objects |
US20090322671A1 (en) * | 2008-06-04 | 2009-12-31 | Cybernet Systems Corporation | Touch screen augmented reality system and method |
JP5174908B2 (ja) * | 2008-06-30 | 2013-04-03 | 株式会社ソニー・コンピュータエンタテインメント | 携帯型ゲーム装置及び携帯型ゲーム装置の制御方法 |
US8866809B2 (en) | 2008-09-30 | 2014-10-21 | Apple Inc. | System and method for rendering dynamic three-dimensional appearing imagery on a two-dimensional user interface |
US20100100853A1 (en) * | 2008-10-20 | 2010-04-22 | Jean-Pierre Ciudad | Motion controlled user interface |
-
2010
- 2010-04-22 US US12/765,292 patent/US8315443B2/en active Active
-
2011
- 2011-04-22 JP JP2013506319A patent/JP5911846B2/ja active Active
- 2011-04-22 EP EP11721153A patent/EP2561465A1/en not_active Ceased
- 2011-04-22 KR KR1020127030530A patent/KR101560866B1/ko active IP Right Grant
- 2011-04-22 WO PCT/US2011/033543 patent/WO2011133842A1/en active Application Filing
- 2011-04-22 CN CN201180020144.8A patent/CN102859534B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
KR20130027520A (ko) | 2013-03-15 |
JP2013525906A (ja) | 2013-06-20 |
US20110262001A1 (en) | 2011-10-27 |
US8315443B2 (en) | 2012-11-20 |
EP2561465A1 (en) | 2013-02-27 |
WO2011133842A1 (en) | 2011-10-27 |
CN102859534B (zh) | 2016-01-27 |
KR101560866B1 (ko) | 2015-10-15 |
CN102859534A (zh) | 2013-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5911846B2 (ja) | 肌色領域及び顔領域に基づく視点検出器 | |
US10880495B2 (en) | Video recording method and apparatus, electronic device and readable storage medium | |
JP5592006B2 (ja) | 三次元画像処理 | |
US20120133754A1 (en) | Gaze tracking system and method for controlling internet protocol tv at a distance | |
TWI640199B (zh) | 影像擷取裝置及其攝影構圖的方法 | |
CN106981078B (zh) | 视线校正方法、装置、智能会议终端及存储介质 | |
CN108605087B (zh) | 终端的拍照方法、拍照装置和终端 | |
KR20150120317A (ko) | 리포커싱을 실행하는 방법 및 전자 기기 | |
CN103428428A (zh) | 影像捕获设备以及影像捕获方法 | |
KR101663321B1 (ko) | 파노라마 사진 촬영 방법 | |
WO2016184131A1 (zh) | 基于双摄像头拍摄图像的方法、装置及计算机存储介质 | |
TWI637288B (zh) | 用於眼球視線校正的影像處理方法及其系統 | |
KR102367648B1 (ko) | 전 방향 시차 영상 합성 방법, 장치 및 저장 매체 | |
CN107621867A (zh) | 熄屏控制方法、装置和终端设备 | |
WO2018014517A1 (zh) | 一种信息处理方法、装置及存储介质 | |
CN105227948B (zh) | 一种查找图像中畸变区域的方法及装置 | |
US20130308829A1 (en) | Still image extraction apparatus | |
TWI449408B (zh) | 三維影像擷取方法與裝置及三維影像顯示裝置 | |
TW201714010A (zh) | 設定攝影機焦點之方法及器件 | |
CN105608469B (zh) | 图像分辨率的确定方法及装置 | |
CN111325674A (zh) | 图像处理方法、装置及设备 | |
JP2004046464A (ja) | 移動物体3次元位置推定装置及びその方法、プログラム並びにその記録媒体 | |
JP2011217229A (ja) | 撮像装置および表示方法 | |
KR101132976B1 (ko) | 복수 개의 카메라를 구비한 모바일 기기, 이를 이용한 디스플레이 표시방법 | |
CN108924529A (zh) | 图像显示的控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141104 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20141118 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20141219 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20151211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160330 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5911846 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |