JP2010086336A - 画像制御装置、画像制御プログラムおよび画像制御方法 - Google Patents

画像制御装置、画像制御プログラムおよび画像制御方法 Download PDF

Info

Publication number
JP2010086336A
JP2010086336A JP2008255523A JP2008255523A JP2010086336A JP 2010086336 A JP2010086336 A JP 2010086336A JP 2008255523 A JP2008255523 A JP 2008255523A JP 2008255523 A JP2008255523 A JP 2008255523A JP 2010086336 A JP2010086336 A JP 2010086336A
Authority
JP
Japan
Prior art keywords
screen
face
image
viewer
image control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008255523A
Other languages
English (en)
Inventor
Susumu Sawai
進 澤井
Kazuo Ishida
一雄 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008255523A priority Critical patent/JP2010086336A/ja
Priority to US12/567,309 priority patent/US20100080464A1/en
Publication of JP2010086336A publication Critical patent/JP2010086336A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

【課題】操作者の負担を軽減しつつ、多様な操作を直感的に行うことを課題とする。
【解決手段】映像撮影カメラ10は、撮影された視聴者の映像に基づいて、撮影画面の顔領域を検出し、その顔領域の部分から撮影人物の顔の特徴点を抽出し、特徴点および顔認識データに基づいて、複数の撮影人物のうち、どの撮影人物が主視聴者であるかを判定する。そして、映像撮影カメラ10は、主視聴者の眼の位置を検出して、顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する。
【選択図】 図1

Description

この発明は、視聴者の顔や眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御装置、画像制御プログラムおよび画像制御方法に関する。
従来より、コンピュータの入力操作を行う場合に、マウスやキーボードを用いるのが一般的である。これに対して、近年では、マウスやキーボードを用いずに、コンピュータの入力操作として操作者の動作に関する情報を検出し、操作者の直感的な動きに応じて映像表示画面を制御する技術の開発が行われている。
例えば、このような映像表示画面を制御する技術として、操作者の視線の位置の変化に応じて、映像表示画面を制御する技術が知られている。具体的には、操作者の視線位置を検出し、視線位置の移動速度が所定の速度を超えた場合に、画面をスクロールする処理を行う(特許文献1参照)。
特開平8−22385号公報
ところで、上記した操作者の視線に対応して映像表示画面を制御する技術では、視線の移動方向に基づいて、画面をスクロールさせるので、平面的な操作しかできず、例えば、画面に表示されている対象物の画像を回転させるような立体的な操作ができない。この結果、多様な操作ができないという課題があった。
また、上記した操作者の視線に対応して映像表示画面を制御する技術では、操作者が視線の速度や向きを調整して移動させるので、眼に掛かる負担が大きく、操作者に掛かる負担が大きいという課題もあった。
そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、操作者の負担を軽減しつつ、多様な操作を直感的に行えることを実現することを目的とする。
上述した課題を解決し、目的を達成するため、この装置は、視聴者の顔または眼の位置を検出し、顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する。
開示の装置は、操作者の負担を軽減しつつ、多様な操作を直感的に行えるという効果を奏する。
以下に添付図面を参照して、この発明に係る画像制御装置、画像制御プログラムおよび画像制御方法の実施例を詳細に説明する。
以下の実施例では、実施例1に係る画面制御装置の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。なお、以下では、利用者の眼の位置と両目の位置関係に基づいて画面のスクロールと対象物の回転を制御する場合を説明する。
[画面制御装置の構成]
まず最初に、図1を用いて、画面制御装置1の構成を説明する。図1は、実施例1に係る画像制御装置1の構成を示すブロック図である。同図に示すように、この画像制御装置1は、映像撮影カメラ10、情報処理部20、映像表示部30を有し、バス等を介して各部が接続されている。
画面制御装置1では、卵形のEGGレンズ11を取り付けた映像撮影カメラ10を使用して撮影し、撮影された映像を情報処理部20で加工することにより、全周パノラマ映像を作成して映像表示部に表示する。以下にこれらの各部の処理を説明する。
映像撮影カメラ10は、視聴者の映像および視聴者が映像表示装置3で見る映像を撮影し、撮影した映像データを情報処理部20に送信しているが、特に、EGGレンズ11、CCD12、アナログ信号処理部13、A/D変換部14、内蔵メモリ15、AF制御部16、カメラ駆動部17を有する。
EGGレンズ11は、ドーナツ状に全集を撮影するための卵形のレンズである。撮像素子12は、撮影光学系による被写体像を光電変換して画像信号を生成し、アナログ信号処理部13に出力する。ここで、画像信号の座標について説明すると、座標(0,0,0)が画面の左端上の座標であることを示し、座標(x、y、0)が画面の右端下の座標であることを示している。
アナログ信号処理部13は、撮像素子12から出力された画像信号に対して感度補正やホワイトバランスを含む各種処理を施し、A/D変換部14に入力する。A/D変換部14は、アナログ信号処理部13から出力された画像信号をデジタル信号にデジタル変換し、映像撮影全周パノラマ映像として内蔵メモリ15に入力する。
内蔵メモリ15は、アナログ信号処理部13から出力された映像撮影全周パノラマ映像を記憶する。AF制御部16は、焦点調節にかかる各部の処理および動作の制御を行う。カメラ駆動部17は、EGGレンズ11を駆動して、全集を撮影できるように制御する。
情報処理部20は、映像撮影カメラ10によって撮影された映像を記憶し、視聴者の顔や眼を検出して映像表示装置30で表示される画面を制御するが、特に、処理部21、記憶部22を有する。
記憶部22は、制御部21による各種処理に必要なデータおよびプログラムを格納するが、特に、顔登録メモリ22aおよびTV画面メモリ22bを有する。
この顔登録メモリ22aは、人物の顔の特徴点に基づいて生成された顔認識データと、その顔認識データに対応する登録人物を示すためのインデックス画像データとを対応付けして記録する。具体的には、顔登録メモリ22aは、未知入力画像の顔特徴ベクトル(展開係数Ω)の計算に必要な視聴者顔認識データである固有顔(固有ベクトルの集合A)、平均顔(平均値ベクトルx)、およびユークリッド距離の計算に必要な顔特徴ベクトルの集合{Ω}を格納している。
ここで、顔登録メモリ22aに記憶される固有顔(固有ベクトルの集合A)、平均顔(平均値ベクトルx)、およびユークリッド距離の計算に必要な顔特徴ベクトルの集合{Ω}について説明する。まず、映像撮影カメラ10から取り込んだ視聴者顔認識データ(視聴者n人中k番目の視聴者の顔認識データ、以下「顔認識データ」と称す)の濃度値は、次元配列f(i、j)で表現され、これを1次元化したものをxとする。また、顔認識データのサイズをm×mピクセルとすると、下記(1)式となる。
Figure 2010086336
そして、n個の顔認識データ(の濃度値ベクトル)をxで示すと、下記(2)式のようになる。なお、「M=m×m」が総画素数を示し、「K」が顔認識データのインデックス画像データを示し、「l」が次元配列の画像を左上から1列に並べたときの画素番号を示している。
Figure 2010086336
そして、下記(3)に示すようなx全体の行列Xを顔濃度値行列と呼ぶ。また、顔濃度値行列Xから分散共分散行列Sを求め、固有値λi、固有ベクトルa(i=1,2・・・、L)を計算する。固有ベクトルで構成される行列Aは、下記(4)式に示すように、正規直交基底の変換行列となる。
Figure 2010086336
Figure 2010086336
顔画像に対する固有ベクトルは、特に固有顔と呼ぶ。各顔認識データxと固有顔aの内積から下記(5)式に示すように、展開係数を求める。平均値ベクトルxは平均顔と呼ぶ。この展開係数と固有顔によって各顔認識データを復元できるので、下記(6)式に示すような展開係数のベクトルΩを顔特徴ベクトルと呼ぶ。
Figure 2010086336
Figure 2010086336
図1の説明に戻ると、TV画面メモリ22bは、映像撮影カメラ10によって撮影された映像撮影全周パノラマ映像を記憶している。具体的には、TV画面メモリ22bは、TV画面特徴ベクトル(展開係数Ω)の計算に必要なアウェアネスTV画面データである固有TV画面(固有ベクトルの集合B)、平均TV画面(平均値ベクトルy)、およびユークリッド距離の計算に必要なTV画面特徴ベクトルの集合{Ω}を格納している。
ここで、顔登録メモリ22aに記憶される固有TV画面(固有ベクトルの集合B)、平均TV画面(平均値ベクトルy)、およびユークリッド距離の計算に必要なTV画面特徴ベクトルの集合{Ω}について説明する。
まず、映像撮影カメラ1から予め取り込んだアウェアネスTV画面データ(以下「TV画面データ」と称す)濃度値は、次元配列g(i,j)で表現され、これを1次元化したものをyとする。TV画面データのサイズをm×mピクセルとすると、上記した(1)式と同様になる。
個のTV画面データ(の濃度値ベクトル)をyで示すと、下記(7)式に示すようになる。ただし、M=m×mが総画素数である。Kは、TV画面データのインデックス画像データを示し、lは、次元配列の画像を左上から1列に並べたときの画素番号を示している。
Figure 2010086336
また、下記(8)式に示すようなy全体の行列YをTV画面濃度値行列と呼ぶ。TV画面濃度値行列Yから分散共分散行列sを求め、固有値λi、固有ベクトルb(i=1、2、・・・・・、L)を計算します。固有ベクトルで構成される行列Bは、下記(9)式に示すような正規直交基底の変換行列となる。
Figure 2010086336
Figure 2010086336
また、TV画面画像に対する固有ベクトルは特に固有TV画面と呼ぶ。各TV画面認識データyと固有TV画面bの内積から下記(10)式に示すように、展開係数を求める。
Figure 2010086336
平均値ベクトルyは、平均TV画面と呼ぶ。この展開係数と固有TV画面によって各TV画面認識データを復元できるので、下記(11)式に示すような展開係数のベクトルΩをTV画面特徴ベクトルと呼ぶ。
Figure 2010086336
また、未知入力画像にたいしても1次元化された濃度値ベクトルyを求めて復元できるので固有TV画面とbとの内積からTV画面特徴ベクトルΩを下記(12)を用いて作成する。ただし、下記(13)式から、この平均値ベクトルは、TV画面顔認識データから求めた平均TV画面である。
Figure 2010086336
Figure 2010086336
図1の説明に戻ると、制御部21は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行するが、特に、顔検出部21a、顔認識部21b、眼位置検出部21c、TV画像制御部21dを有する。
顔検出部21aは、映像撮影カメラ10によって撮影された視聴者の映像に基づいて、撮影画面の顔領域を検出し、その顔領域の部分から撮影人物の顔の特徴点を抽出し、顔認識部21bに通知する。
顔認識部21bは、顔検出部の抽出した特徴点および顔認識データに基づいて、複数の撮影人物のうち、どの撮影人物が主視聴者であるかを判定する。ここで主視聴者とは、図2に示すように、映像表示部30に最も近くにいる者とし、映像表示装置30から見て身体の重なりが一番前と認識できる顔やその顔領域の部分が最も大きい視聴者を主視聴者として認識する。そして、顔認識部21bは、認識された主視聴者を眼位置検出部21cに通知する。
ここで、顔認識処理について、図3を用いて具体的に説明する。同図に示すように、顔認識部21bは、顔の認識処理として、映像撮影カメラ10によって撮像された視聴者の画像(図3では、未知入力画像)に対しても1次元化された濃度値ベクトルxを算出し、固有顔とaとの内積から、下記(14)式のように、顔特徴ベクトル「Ω」を作成する。ただし、下記(15)式から、この平均値ベクトルは各顔認識データから求めた平均顔である。
Figure 2010086336
Figure 2010086336
顔認識部21bは、顔のマッチングの評価式として、ユークリッド距離を使用し、下記(16)式を用いて、距離dが最も小さい時の顔特徴ベクトルΩの人物(顔認識データのインデックス画像データk)を特定して、主視聴者として認識する。
Figure 2010086336
眼位置検出部21cは、視聴者の顔または眼の位置を検出する。具体的には、眼位置検出部23は、主視聴者の眼の位置を検出するとともに、主視聴者のゲイズアイコンタクトの有無を検出する。つまり、主視聴者が映像画像表示画面を見つめているか否かを確認する。
その結果、眼位置検出部21cは、主視聴者のゲイズアイコンタクト有りと判定した場合には、設定された検出間隔ごとに主視聴者の目の位置を検出し、主視聴者の眼の位置が移動したか否かを判定する。なお、主視聴者が映像画像表示画面を見つめているか否かまで厳密に確認する必要がない場合であれば、上記ゲイズアイコンタクトの有無の判定を行わなくともよい。
その結果、眼位置検出部21cは、主視聴者の顔または眼の位置が移動した場合には、その移動差分をTV画像制御部21dに通知する。なお、この場合の顔または目の位置の移動とは、上記特許文献1のような視線位置の移動とは異なり、映像撮影カメラ10が撮影した映像データ中における顔または目の位置の移動をいう。例えば、画像中における顔または目の位置を座標で表す場合であれば、上記設定された検出間隔ごとのその座標の変化をいうものとする。
TV画像制御部21dは、顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する。具体的には、TV画像制御部21dは、眼位置検出部21cから移動差分を受信すると、受信した移動差分に応じて、画面に表示される対象物の画像を制御する。
ここで、TV画面制御処理について図4の例を用いて具体的に説明する。同図に示すように、TV画像制御部21dは、(1)の位置にいる主視聴者が映像表示画面31の左上部分(3)をよく見ようと(2)の位置に接近した場合に、映像表示画面31の右上部分(4)によく見たかった部分が接近して拡大するように制御する。
また、TV画像制御部21dは、主視聴者の眼の位置(1)から主視聴者の眼の位置(2)への移動差分をユークリッド距離dである場合には、映像表示画面31から映像表示画面31への移動差分は、Cd(ユークリッド距離dの定数C倍)となる。なお、定数Cは、TV画面の大きさ(インチ数)で決まる。
つまり、TV画像制御部21dでは、TV画面の移動には視聴者の目の移動差分を反映するユークリッド距離dの定数Cが使用される。この定数Cは、映像表示部30の映像表示画面31の画面サイズにより、映像表示部30の初期設定時に利用者が設定する。したがって、TV画面の移動分は、下記(17)を用いてもとめられる。
Figure 2010086336
ここで、視聴者の眼の位置の変化に応じて、画面に表示された対象物の画像が変化する例について説明する。図5に例示するように、視聴者が顔を横に回転させた場合に、画面に表示される対象物(図5の例では、自動車)の画像が横方向に回転する。
また、図6に例示するように、視聴者が顔を横に平行移動すると、画像制御装置10は、視聴者の眼の位置を検出し、画面に表示される対象物の画像が横にスクロールする。また、図7に例示するように、視聴者が顔を画面に接近させると、画面に表示される対象物の画像がアップになる。
また、図8に例示するように、視聴者が顔を上に移動させると、画面に表示される対象物の上部の画像が見えるように回転する。また、図9に例示するように、視聴者が顔を下に移動させると、画面に表示される対象物の下部の画像が見えるように回転する。
また、図10に例示するように、視聴者が顔を傾けると、画面に表示される対象物の裏側の画像が見えるように回転する。つまり、視聴者の顔や眼の位置が移動することに連動させて、画面に表示される対象物の画像を移動または回転するように制御することで、画面内の対象物を立体的に操作できる。
映像表示部30は、情報処理部20のTV画面メモリ22bに記憶された映像を表示するが、特に、映像表示画面31、アウェアネスTV台32を有する。映像表示画面31は、前述したTV画面制御部21dによって制御され、情報処理部20のTV画面メモリ22bに記憶された映像撮影全周パノラマ映像のうちの一部の撮影画像を表示する。
入出力I/F40は、データを入出力する入出力インタフェースであり、例えば、TV画面制御処理を開始する旨の指示であるウェアネスTV機能検出の指示や、視聴者から眼の位置を検出する検出間隔の設定を受け付けるインタフェースである。入出力I/F40によって設定された検出間隔(例えば、1秒)に従って、前述した眼位置検出部21cが主視聴者の眼の位置を検出する。
[画像制御処理による処理]
次に、図11〜図13を用いて、実施例1に係る画像制御装置10による処理を説明する。図11は、実施例1に係る画面制御装置の全体の処理手順を説明するためのフローチャートである。図12は、実施例1に係る画面制御装置の主視聴者検出処理の手順を説明するためのフローチャートである。図13は、実施例1に係る画面制御装置のTV画面制御処理の手順を説明するためのフローチャートである。
同図に示すように、画像制御装置10は、電源が入力されると(ステップS101肯定)、TV画面メモリ22bに記憶された撮影画像を映像表示画面31に表示する(ステップS102)。そして、画像制御装置10は、アウェアネスTV機能検出の指示を受け付けると(ステップS103肯定)、複数の視聴者から主視聴者を検出する主視聴者検出処理(後に、図12を用いて詳述)を行う(ステップS104)。
そして、画像制御装置10は、主視聴者の眼の位置を検出し(ステップS105)、主視聴者の眼の位置が移動したか否かを判定する(ステップS106)。その結果、画像制御装置10は、主視聴者の眼の位置が移動した場合には(ステップS106肯定)、TV画面変更の指示があるとして、画面制御処(後に、図13を用いて詳述)を行って、TV画面を変更する処理を行う(ステップS107)。
続いて、画像制御装置10の主視聴者検出処理について図12を用いて説明する。同図に示すように、画像制御装置10は、映像撮影カメラ10の前の顔を検出し(ステップS201)、顔が検出されるか否かを判定する(ステップS202)。
その結果、画像制御装置10は、顔を検出すると(ステップS202肯定)、映像表示部30に最も近くにいる者を主視聴者として検出し、主視聴の眼の位置を検出し、ゲイズアイコンタクト(gaze eye contact)の有無を検出して(ステップS203)、主視聴者のゲイズアイコンタクトの有無を判定する(ステップS204)。つまり、主視聴者が映像画像表示画面を見つめているか否かを確認する。
その結果、画像制御装置10は、主視聴者のゲイズアイコンタクトが有ると判定した場合には(ステップS204肯定)、眼の位置の変化に応じて、画面に表示される対象部の画像を制御する処理を開始する(ステップS205)。
続いて、画像制御装置10のTV画面制御処理について図13を用いて説明する。同図に示すように、画像制御装置10は、主視聴者の目の移動差分を検出し(ステップS301)、移動差分がある場合には(ステップS302肯定)、TV画面移動差分を算出する処理を行い(ステップS303)、算出されたTV画面移動差分が0以上であるか判定する(ステップS304)。
そして、画像制御装置10は、TV画面移動差分が0以上である場合には(ステップS304肯定)、TV画面移動差分に応じて、画面に表示される対象物の画像を制御する(ステップS305)。
[実施例1の効果]
上述してきたように、画像制御装置10は、視聴者の顔または眼の位置をし、顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する。このため、視聴者の顔や眼の位置が移動することに連動させて、画面に表示される対象物の画像を移動または回転するように制御することで、画面内の対象物を立体的に操作できる結果、操作者の負担を軽減しつつ、多様な操作を直感的に行うことが可能である。
また、実施例1によれば、顔または眼の位置を検出する検出間隔の設定を受け付け、設定された検出間隔で、視聴者の顔または眼の位置を検出するので、画像が変化する頻度を調整することが可能である。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例2として本発明に含まれる他の実施例を説明する。
(1)画像制御
本実施例では、視聴者の視線の位置も用いて画像制御を行うようにしてもよい。具体的には、画像制御装置は、視聴者の視線の位置を検出し、検出された視線の位置が画面内にあるか判定する。その結果、画像制御装置は、検出された視線の位置が画面内にある場合には、顔または眼の位置の変化に応じて、画像を制御する。
一方、画像制御装置は、検出された視線の位置が画面内にない場合には、顔または眼の位置の変化に応じて、画像の制御を中止する。つまり、画像制御装置は、視線が画面内にないような場合には、視聴者が画面を操作する意図で無く、顔や眼を移動させたとして、画像の制御を行わない。
このように、視聴者の視線の位置を検出し、検出された視線の位置が画面内にある場合には、検出された顔または眼の位置の変化に応じて、画像を制御し、また、検出された視線の位置が画面内にない場合には、画像の制御を中止するので、誤作動を防止することが可能である。
(2)システム構成等
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、顔検出部21aと顔認識部21bを統合してもよい。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
(3)プログラム
ところで、上記の実施例で説明した各種の処理は、あらかじめ用意された画面制御プログラムをコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、上記の実施例と同様の機能を有するプログラムを実行するコンピュータの一例を説明する。図14は、画面制御プログラムを実行するコンピュータを示す図である。
同図に示すように、画面制御装置としてのコンピュータ600は、HDD610、RAM620、ROM630およびCPU640を有し、それぞれバス650を介して接続されている。
そして、ROM630には、上記の実施例と同様の機能を発揮する画面制御プログラム、つまり、図14に示すように、顔検出プログラム631、顔認識プログラム632、眼位置検出プログラム633、TV画面制御プログラム634が予め記憶されている。なお、プログラム631〜634については、図1に示した画面制御装置の各構成要素と同様、適宜統合または分散してもよい。
そして、CPU640が、これらのプログラム631〜634をROM630から読み出して実行することで、図14に示すように、各プログラム631〜634は、顔検出プロセス641、顔認識プロセス642、眼位置検出プロセス643、TV画面制御プロセス644として機能するようになる。各プロセス641〜644は、図1に示した顔検出部21a、顔認識部21b、眼位置検出部21c、TV画像制御部21dにそれぞれ対応する。
また、HDD610には、図14に示すように、顔登録テーブル611、TV画面テーブル612が設けられる。なお、顔登録テーブル611、TV画面テーブル612は、図1に示した顔登録メモリ22aおよびTV画面メモリ22bに対応する。そして、CPU640は、顔登録テーブル611、TV画面テーブル612に対してデータを登録するとともに、顔登録テーブル611、TV画面テーブル612から顔登録データ621、TV画面データ622をそれぞれ読み出してRAM620に格納し、RAM620に格納された顔登録データ621、TV画面データ622に基づいて処理を実行する。
以上の実施例1〜2を含む実施形態に関し、更に以下の付記を開示する。
(付記1)視聴者の顔または眼の位置を検出する位置検出部と、
前記位置検出部によって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御部と、
を備えることを特徴とする画像制御装置。
(付記2)前記位置検出部によって前記顔または眼の位置を検出する検出間隔の設定を受け付ける検出間隔設定受付部をさらに備え、
前記位置検出部は、前記検出間隔設定受付部によって設定された前記検出間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする付記1に記載の画像制御装置。
(付記3)前記視聴者の視線の位置を検出する視線検出部をさらに備え、
前記画像制御部は、前記視線検出部によって検出された前記視線の位置が前記画面内にある場合には、前記位置検出部によって検出された前記顔または眼の位置の変化に応じて、前記画像を制御し、また、前記視線検出部によって検出された前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴とする付記1または2に記載の画像制御装置。
(付記4)視聴者の顔または眼の位置を検出する位置検出手順と、
前記位置検出手順によって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御手順と、
をコンピュータに実行させることを特徴とする画像制御プログラム。
(付記5)前記位置検出手順によって前記顔または眼の位置を検出する検出間隔の設定を受け付ける検出間隔設定受付手順をさらにコンピュータに実行させ、
前記位置検出手順は、前記検出間隔設定受付手順によって設定された前記検出間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする付記4に記載の画像制御プログラム。
(付記6)前記視聴者の視線の位置を検出する視線検出手順をさらにコンピュータに実行させ、
前記画像制御手順は、前記視線検出手順によって検出された前記視線の位置が前記画面内にある場合には、前記位置検出手順によって検出された前記顔または眼の位置の変化に応じて、前記画像を制御し、また、前記視線検出手順によって検出された前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴とする付記4または5に記載の画像制御プログラム。
(付記7)視聴者の顔または眼の位置を検出する位置検出ステップと、
前記位置検出ステップによって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御ステップと、
を含んだことを特徴とする画像制御方法。
(付記8)前記位置検出ステップによって前記顔または眼の位置を検出する検出間隔の設定を受け付ける検出間隔設定受付ステップをさらに含み、
前記位置検出ステップは、前記検出間隔設定受付ステップによって設定された前記検出間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする付記7に記載の画像制御方法。
(付記9)前記視聴者の視線の位置を検出する視線検出ステップをさらにコンピュータに実行させ、
前記画像制御ステップは、前記視線検出ステップによって検出された前記視線の位置が前記画面内にある場合には、前記位置検出ステップによって検出された前記顔または眼の位置の変化に応じて、前記画像を制御し、また、前記視線検出ステップによって検出された前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴とする付記7または8に記載の画像制御プログラム。
実施例1に係る画面制御装置の構成を示すブロック図である。 視聴者の顔認識処理を説明するための図である。 主視聴者を認識する処理について説明するためのブロック図である。 TV画面制御処理を説明するための図である。 TV画面の変更例を示す図である。 TV画面の変更例を示す図である。 TV画面の変更例を示す図である。 TV画面の変更例を示す図である。 TV画面の変更例を示す図である。 TV画面の変更例を示す図である。 実施例1に係る画面制御装置の全体の処理手順を説明するためのフローチャートである。 実施例1に係る画面制御装置の主視聴者検出処理の手順を説明するためのフローチャートである。 実施例1に係る画面制御装置のTV画面制御処理の手順を説明するためのフローチャートである。 画面制御プログラムを実行するコンピュータを示す図である。
符号の説明
1 画像制御装置
10 映像撮影カメラ
20 情報処理装置
21 処理部
21a 顔検出部
21b 顔認識部
21c 眼位置検出部
21d TV画面制御部
22 記憶部
22a 顔登録メモリ
22b TV画面メモリ
30 映像表示部
40 入出力I/F

Claims (5)

  1. 視聴者の顔または眼の位置を検出する位置検出部と、
    前記位置検出部によって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御部と、
    を備えることを特徴とする画像制御装置。
  2. 前記位置検出部によって前記顔または眼の位置を検出する検出間隔の設定を受け付ける検出間隔設定受付部をさらに備え、
    前記位置検出部は、前記検出間隔設定受付部によって設定された前記検出間隔で、前記視聴者の顔または眼の位置を検出することを特徴とする請求項1に記載の画像制御装置。
  3. 前記視聴者の視線の位置を検出する視線検出部をさらに備え、
    前記画像制御部は、前記視線検出部によって検出された前記視線の位置が前記画面内にある場合には、前記位置検出部によって検出された前記顔または眼の位置の変化に応じて、前記画像を制御し、また、前記視線検出部によって検出された前記視線の位置が前記画面内にない場合には、前記画像の制御を中止することを特徴とする請求項1または2に記載の画像制御装置。
  4. 視聴者の顔または眼の位置を検出する位置検出手順と、
    前記位置検出手順によって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御手順と、
    をコンピュータに実行させることを特徴とする画像制御プログラム。
  5. 視聴者の顔または眼の位置を検出する位置検出ステップと、
    前記位置検出ステップによって検出された前記顔または眼の位置の変化に応じて、画面に表示される対象物の画像を制御する画像制御ステップと、
    を含んだことを特徴とする画像制御方法。
JP2008255523A 2008-09-30 2008-09-30 画像制御装置、画像制御プログラムおよび画像制御方法 Pending JP2010086336A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008255523A JP2010086336A (ja) 2008-09-30 2008-09-30 画像制御装置、画像制御プログラムおよび画像制御方法
US12/567,309 US20100080464A1 (en) 2008-09-30 2009-09-25 Image controller and image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008255523A JP2010086336A (ja) 2008-09-30 2008-09-30 画像制御装置、画像制御プログラムおよび画像制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013000264A Division JP2013061988A (ja) 2013-01-04 2013-01-04 表示制御装置、表示制御方法および表示制御プログラム

Publications (1)

Publication Number Publication Date
JP2010086336A true JP2010086336A (ja) 2010-04-15

Family

ID=42057557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008255523A Pending JP2010086336A (ja) 2008-09-30 2008-09-30 画像制御装置、画像制御プログラムおよび画像制御方法

Country Status (2)

Country Link
US (1) US20100080464A1 (ja)
JP (1) JP2010086336A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012145638A (ja) * 2011-01-07 2012-08-02 Toshiba Corp 映像表示装置、映像表示方法
JP2013162352A (ja) * 2012-02-06 2013-08-19 Canon Inc 画像処理装置、画像処理方法及びプログラム
JPWO2016113951A1 (ja) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727312B1 (en) * 2009-02-17 2017-08-08 Ikorongo Technology, LLC Providing subject information regarding upcoming images on a display
US10706601B2 (en) 2009-02-17 2020-07-07 Ikorongo Technology, LLC Interface for receiving subject affinity information
US9210313B1 (en) 2009-02-17 2015-12-08 Ikorongo Technology, LLC Display device content selection through viewer identification and affinity prediction
US20120314899A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Natural user interfaces for mobile image viewing
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
WO2013091132A1 (en) * 2011-12-20 2013-06-27 Intel Corporation Automatic adjustment of display image using face detection
US9626552B2 (en) * 2012-03-12 2017-04-18 Hewlett-Packard Development Company, L.P. Calculating facial image similarity
US9152227B2 (en) * 2012-10-10 2015-10-06 At&T Intellectual Property I, Lp Method and apparatus for controlling presentation of media content
EP2752730B1 (en) * 2013-01-08 2019-04-03 Volvo Car Corporation Vehicle display arrangement and vehicle comprising a vehicle display arrangement
WO2015001546A1 (en) * 2013-07-01 2015-01-08 Inuitive Ltd. Rotating display content responsive to a rotational gesture of a body part
US9846522B2 (en) * 2014-07-23 2017-12-19 Microsoft Technology Licensing, Llc Alignable user interface
WO2017030255A1 (en) * 2015-08-18 2017-02-23 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
CN107111371B (zh) * 2015-09-30 2019-12-06 华为技术有限公司 一种展示全景视觉内容的方法、装置及终端
JP6729054B2 (ja) * 2016-06-23 2020-07-22 富士ゼロックス株式会社 情報処理装置、情報処理システムおよび画像形成装置
US9874934B1 (en) * 2016-07-29 2018-01-23 International Business Machines Corporation System, method, and recording medium for tracking gaze with respect to a moving plane with a camera with respect to the moving plane
US11064102B1 (en) 2018-01-25 2021-07-13 Ikorongo Technology, LLC Venue operated camera system for automated capture of images
US10839523B2 (en) 2018-05-16 2020-11-17 Otis Elevator Company Position-based adjustment to display content
US11331006B2 (en) 2019-03-05 2022-05-17 Physmodo, Inc. System and method for human motion detection and tracking
US11103748B1 (en) 2019-03-05 2021-08-31 Physmodo, Inc. System and method for human motion detection and tracking
CN109981982B (zh) * 2019-03-25 2021-02-19 联想(北京)有限公司 控制方法、装置以及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (ja) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd 画像表示方法
JP2006202181A (ja) * 2005-01-24 2006-08-03 Sony Corp 画像出力方法および装置
JP2006236013A (ja) * 2005-02-25 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム
JP2008176438A (ja) * 2007-01-17 2008-07-31 Tokai Rika Co Ltd 画像表示装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4682159A (en) * 1984-06-20 1987-07-21 Personics Corporation Apparatus and method for controlling a cursor on a computer display
JP3058004B2 (ja) * 1994-03-23 2000-07-04 キヤノン株式会社 目視制御画像表示装置
US6157382A (en) * 1996-11-29 2000-12-05 Canon Kabushiki Kaisha Image display method and apparatus therefor
US6009210A (en) * 1997-03-05 1999-12-28 Digital Equipment Corporation Hands-free interface to a virtual reality environment using head tracking
US20020126090A1 (en) * 2001-01-18 2002-09-12 International Business Machines Corporation Navigating and selecting a portion of a screen by utilizing a state of an object as viewed by a camera
US6931596B2 (en) * 2001-03-05 2005-08-16 Koninklijke Philips Electronics N.V. Automatic positioning of display depending upon the viewer's location
US7391888B2 (en) * 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319217A (ja) * 2000-05-09 2001-11-16 Fuji Photo Film Co Ltd 画像表示方法
JP2006202181A (ja) * 2005-01-24 2006-08-03 Sony Corp 画像出力方法および装置
JP2006236013A (ja) * 2005-02-25 2006-09-07 Nippon Telegr & Teleph Corp <Ntt> 環境的情報提示装置、環境的情報提示方法およびこの方法のプログラム
JP2008176438A (ja) * 2007-01-17 2008-07-31 Tokai Rika Co Ltd 画像表示装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012145638A (ja) * 2011-01-07 2012-08-02 Toshiba Corp 映像表示装置、映像表示方法
JP2013162352A (ja) * 2012-02-06 2013-08-19 Canon Inc 画像処理装置、画像処理方法及びプログラム
JPWO2016113951A1 (ja) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント 頭部装着型表示装置、及び映像表示システム

Also Published As

Publication number Publication date
US20100080464A1 (en) 2010-04-01

Similar Documents

Publication Publication Date Title
JP2010086336A (ja) 画像制御装置、画像制御プログラムおよび画像制御方法
US8831282B2 (en) Imaging device including a face detector
US8934040B2 (en) Imaging device capable of setting a focus detection region and imaging method for imaging device
US9521310B2 (en) Method and apparatus for focusing on subject in digital image processing device
KR101679290B1 (ko) 영상 처리 방법 및 장치
JP2013076924A5 (ja)
US8626782B2 (en) Pattern identification apparatus and control method thereof
WO2014083721A1 (ja) 情報処理装置および情報処理方法
CN108605087B (zh) 终端的拍照方法、拍照装置和终端
WO2016132884A1 (ja) 情報処理装置および方法、並びにプログラム
WO2013159686A1 (en) Three-dimensional face recognition for mobile devices
JP2009086703A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP2009295031A (ja) 画像投影装置及びその制御方法
US10127424B2 (en) Image processing apparatus, image processing method, and image processing system
KR102228663B1 (ko) 촬영 가이드 제공 방법 및 이를 수행하는 시스템
JP2006268248A (ja) 撮影装置、顔の向きの判定方法
JP2011095985A (ja) 画像表示装置
JP5360406B2 (ja) 画像表示装置
JPWO2022074865A5 (ja) 生体検知装置、制御方法、及びプログラム
JP2016149678A (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
WO2015141185A1 (ja) 撮像制御装置、撮像制御方法および記録媒体
JP2013061988A (ja) 表示制御装置、表示制御方法および表示制御プログラム
JP6460510B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2019180017A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120903

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130111

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130405