JP6326808B2 - 顔画像処理装置、投影システム、画像処理方法及びプログラム - Google Patents

顔画像処理装置、投影システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6326808B2
JP6326808B2 JP2013261088A JP2013261088A JP6326808B2 JP 6326808 B2 JP6326808 B2 JP 6326808B2 JP 2013261088 A JP2013261088 A JP 2013261088A JP 2013261088 A JP2013261088 A JP 2013261088A JP 6326808 B2 JP6326808 B2 JP 6326808B2
Authority
JP
Japan
Prior art keywords
mouth
face image
image processing
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013261088A
Other languages
English (en)
Other versions
JP2015118514A (ja
Inventor
哲司 牧野
哲司 牧野
雅昭 佐々木
雅昭 佐々木
優一 宮本
優一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013261088A priority Critical patent/JP6326808B2/ja
Publication of JP2015118514A publication Critical patent/JP2015118514A/ja
Application granted granted Critical
Publication of JP6326808B2 publication Critical patent/JP6326808B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔画像処理装置、投影システム、画像処理方法及びプログラムに関する。
従来、撮像した画像中の被写体の顔領域と表情を表現するための制御点とに基づいて、顔画像を変形させる技術が知られている(例えば、特許文献1参照)。また、顔画像内の口領域の輝度分布から口の開き具合を検出する手法(例えば、特許文献2参照)や、顔画像内の口領域や歯領域の面積から口の開き具合を検出する手法(例えば、特許文献3参照)が知られている。
特開2012−185624号公報 特開2009−231879号公報 特開2005−234686号公報
ところで、口の開き具合を検出する手法を示している上記特許文献2記載の技術は、化粧や肌の色によって輝度分布が変化するため口の開き具合の検出を適正に行うことができない虞がある。また、上記特許文献3記載の技術は、表情を識別するためのものであるため、顔画像の変形に適した画像であるか否かを判定することが困難となっている。
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、口の開閉状態の特定を適正に行うことができる顔画像処理装置、投影システム、画像処理方法及びプログラムを提供することである。
上記課題を解決するため、本発明に係る顔画像処理装置は、
顔画像を取得する取得手段と、前記取得手段により取得された顔画像から口を検出する第一の検出手段と、前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段と、前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段と、を備えたことを特徴としている。
また、本発明に係る投影システムは、
本発明の顔画像処理装置と、スクリーンに顔画像を投影する投影装置と、を備えた投影システムであって、前記顔画像処理装置は、前記特定手段により閉じた状態であると特定された口の画像に対して変形処理を施す変形手段を更に備え、前記投影装置は、前記変形手段により変形処理が施された口の画像を前記スクリーンに投影することを特徴としている。
また、本発明に係る画像処理方法は、
顔画像処理装置を用いた画像処理方法であって、顔画像を取得する処理と、取得された顔画像から口を検出する処理と、検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する処理と、前記色情報どうしの相違度の検出結果に基づいて、口の開閉状態を特定する処理と、を含むことを特徴としている。
また、本発明に係るプログラムは、
顔画像処理装置のコンピュータを、顔画像を取得する取得手段、前記取得手段により取得された顔画像から口を検出する第一の検出手段、前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段、前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段、として機能させることを特徴としている。
本発明によれば、口の開閉状態の特定を適正に行うことができる。
本発明を適用した一実施形態の投影システムの全体構成を模式的に示す図である。 図1の投影システムによる投影状態を模式的に示す図である。 図1の投影システムを構成する画像処理装置の機能的構成を示すブロック図である。 図1の投影システムによる投影処理に係る動作の一例を示すフローチャートである。 図4の投影処理における顔画像特定処理に係る動作の一例を示すフローチャートである。 図5の顔画像特定処理に係る画像の一例を模式的に示す図である。
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。
図1は、本発明を適用した一実施形態の投影システム100の全体構成を模式的に示す図である。また、図2(a)は、映像コンテンツの非投影状態を模式的に示す投影システム100の正面図であり、図2(b)は、映像コンテンツの投影状態を模式的に示す投影システム100の正面図である。
図1に示すように、本実施形態の投影システム100は、画像処理装置1と、撮像装置2と、投影装置3と、スピーカ4と、スクリーン5等を備えて構成されている。また、投影システム100は、例えば、人物、キャラクタ、動物等の投影対象物が商品等の説明を行う映像コンテンツをスクリーン5に投影するものであり、図1には、映像コンテンツの聴衆Oと当該投影システム100の各構成要素との位置関係を模式的に表している。
なお、聴衆Oは、一人の場合もあるし、複数人の場合もある。
図3は、画像処理装置1の機能的構成を示すブロック図である。
図3に示すように、画像処理装置1は、中央制御部101と、操作入力部102と、表示部103と、記録部104と、画像処理部105と、撮像制御部106と、第1〜第3I/F107、108、109等を備えて構成されている。また、中央制御部101、表示部103、記録部104、画像処理部105、撮像制御部106並びに第1〜第3I/F107、108、109は、バスライン110を介して接続されている。
なお、画像処理装置1としては、例えば、パーソナルコンピュータやワークステーションなどのコンピュータ、端末装置等が適用可能である。また、画像処理装置1は、スクリーン5に投影される映像コンテンツの投影像が聴衆O側を向くように、映像コンテンツの各フレームの投影画像(フレーム画像)を補正する構成としても良い。
中央制御部101は、図示は省略するが、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)等を備えて構成される。中央制御部101のCPUは、記録部104の所定の記録領域に記録されているプログラムを読み出し、RAMのワークエリアに展開し、展開したプログラムに従って各種処理を実行する。中央制御部101のRAMは、揮発性のメモリであり、CPUにより実行される各種プログラムやこれら各種プログラムに係るデータ等を記憶するワークエリアを有する。
操作入力部102は、例えば、数値、文字等を入力するためのデータ入力キーや、データの選択、送り操作等を行うための上下左右移動キーや各種機能キー等によって構成されるキーボードやマウス等の操作部を備え、これらの操作部の操作に応じて所定の操作信号を中央制御部101に出力する。
表示部103は、例えば、LCD(Liquid Crystal Display)等により構成され、中央制御部101からの表示制御信号に従って、各種情報を表示領域に表示する。
記録部104は、例えば、HDD(Hard Disk Drive)や半導体の不揮発性メモリ等により構成される。また、記録部104は、中央制御部101で実行されるシステムプログラムや各種処理プログラム、これらのプログラムの実行に必要なデータ等を記録している。プログラムは、例えば、コンピュータ読み取り可能なプログラムコードの形態で所定の記録領域に格納されている。
また、記録部104は、投影用の映像コンテンツの映像データ104aを記録している。
映像データ104aは、例えば、三次元モデルの動画データを構成する各フレームの投影画像(例えば、投影対象物が正面方向を向いている画像等)のデータ及び各投影画像に対応する音声データにより構成されている。三次元モデルとは、三次元ポリゴン、三次元曲面、テクスチャ画像等によって構成された立体物の画像である。
また、映像データ104aは、映像コンテンツに含まれる投影対象物(特に、人の顔)の動きを表現するための動き情報(例えば、各顔構成部の動き情報等)を含んでいる。動き情報は、所定空間内における複数の制御点の動きを示す情報であり、例えば、複数の制御点の所定空間での位置座標(x, y)を示す情報や変形ベクトル等が時間軸に沿って並べられている。
画像処理部105は、画像取得部105aと、顔検出部105bと、口検出部105cと、第1相違度検出部105dと、第2相違度検出部105eと、開閉状態特定部105fと、画像変形部105gとを具備している。
なお、画像処理部105の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
画像取得部(取得手段)105aは、顔を含む画像を取得する。
すなわち、画像取得部105aは、例えば、撮像装置2により撮像された聴衆Oの顔を含む画像(例えば、顔のみの画像や胸から上の画像等)の画像データの複製を取得する。具体的には、画像取得部105aは、撮像装置2により撮像された撮像画像の画像データの複製を処理対象画像として取得する。
また、画像取得部105aは、撮像装置2により聴衆Oの顔の再度の撮像が行われると、撮像装置2により撮像された聴衆Oの顔を含む画像の画像データの複製を新たに取得する。
なお、画像取得部105aは、撮像装置2による聴衆Oを撮像後に記録部104に記録されている画像を読み出して取得しても良い。また、後述する画像処理部105による各処理は、処理対象画像の画像データ自体に対して行われても良いし、必要に応じて画像データを所定の比率で縮小した所定サイズ(例えば、VGAサイズ等)の縮小画像データに対して行われても良い。
顔検出部105bは、処理対象画像から顔領域A1を検出する。
すなわち、顔検出部105bは、画像取得部105aにより取得された処理対象画像の画像データに対して所定の顔検出処理を行って、顔が含まれる顔領域A1(図6(a)参照)を検出する。
なお、顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
口検出部(第一の検出手段)105cは、画像取得部105aにより処理対象画像として取得された顔を含む画像から口Pを検出する(図6(a)参照)。
すなわち、口検出部105cは、顔検出処理により検出された処理対象画像内の顔領域A1から、所定の検出処理(例えば、AAM(Active Appearance Model)等)を用いて、例えば、左右各々の目、鼻、口、眉、顔輪郭等の主要な顔構成部を検出する。
ここで、AAMとは、視覚的事象のモデル化の一手法であり、任意の顔領域の画像のモデル化を行う処理である。例えば、複数のサンプル顔画像における所定の特徴部位(例えば、目じりや鼻頭やフェイスライン等)の位置や画素値(例えば、輝度値)の統計的分析結果を用意しておき、口検出部105cは、上記の特徴部位の位置を基準として、顔の形状を表す形状モデルや平均的な形状における「Appearance」を表すテクスチャーモデルを設定し、これらのモデルを用いて顔画像をモデル化する。これにより、顔領域A1内で、例えば、左右各々の目、鼻、口、眉、顔輪郭等の顔構成部がモデル化される。
なお、検出処理としては、例えば、エッジ抽出処理、非等方拡散処理、テンプレートマッチング等の各種の処理を用いても良い。また、口検出部105cは、口Pを含む主要な顔構成部を検出するようにしたが、一例であってこれに限られるものではなく、少なくとも口Pを検出する構成であれば適宜任意に変更可能である。
第1相違度検出部(第二の検出手段)105dは、口検出部105cにより検出された口Pの中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する。
すなわち、第1相違度検出部105dは、例えば、口Pと重なるように所定方向(例えば、図6(b)における上下方向等)に並んだ所定形状(例えば、略矩形状等)の中央領域B1と当該中央領域B1を所定方向に挟む上唇領域B2及び下唇領域B3を設定する。そして、第1相違度検出部105dは、中央領域B1並びに上唇領域B2及び下唇領域B3内の画像データを所定の色空間(例えば、HSV色空間等)に変換し、各領域の所定の色空間におけるカラーマップを生成する。そして、第1相違度検出部105dは、中央領域B1のカラーマップと上唇領域B2及び下唇領域B3のカラーマップとに基づいて所定の演算を行って中央領域B1と上唇領域B2及び下唇領域B3のカラーマップの分布領域の相違度を第1相違度として検出する。
なお、中央領域B1、上唇領域B2及び下唇領域B3において、口Pを示す領域外は無視しても良い。
また、カラーマップどうしの相違度の検出手法としては、例えば、各領域のカラーマップにおける誤差を含めた使用頻度が高い値、つまり代表となる値を任意の数抽出し、各領域における値同士で総当たりで求めた差の合計とし、それをもって相違度とする手法等が挙げられる。
なお、口Pの周辺側の領域として、中央領域B1を所定方向に挟む上唇領域B2及び下唇領域B3を例示したが、一例であってこれに限られるものではなく、例えば、口Pの中央領域B1を囲繞する環状領域等に適宜任意に変更可能である。
第2相違度検出部(第三の検出手段)105eは、口検出部105cにより検出された口Pの中央側の領域及び当該領域と所定方向に隣合う領域のエッジ検出の評価値どうしの相違度を検出する。
すなわち、第2相違度検出部105eは、例えば、第1相違度検出部105dにより設定された中央領域B1並びに上唇領域B2及び下唇領域B3内の画像データに対して、所定のエッジ検出処理(例えば、ハフ変換やソーベルフィルタを用いた所定のマトリックス演算等)を行なって各領域のエッジをそれぞれ検出する。そして、第2相違度検出部105eは、中央領域B1のエッジの検出結果に基づいて所定の演算を行って上下方向のエッジに係る中央評価値を算出するとともに、上唇領域B2及び下唇領域B3のエッジの検出結果に基づいて所定の演算を行って上下方向のエッジに係る唇評価値を算出して、中央評価値と唇評価値との相違度を第2相違度として検出する。
上記したエッジ検出処理の内容は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、ソーベルフィルタの代わりに、例えば、微分フィルタ、プリューウィットフィルタ、ラプラシアンフィルタ等を用いても良いし、これらのうちの何れか二つ以上を用いても良い。
なお、口Pの中央領域B1と所定方向に隣合う領域として、中央領域B1を上下方向に挟む上唇領域B2及び下唇領域B3を例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。また、上唇領域B2及び下唇領域B3のうち、何れか一方の領域(例えば、上唇領域B2等)のみを用いても良い。
開閉状態特定部(特定手段)105fは、口検出部105cにより検出された口Pの開閉状態を特定する。
すなわち、開閉状態特定部105fは、第1相違度検出部105dによる口Pの中央領域B1と上唇領域B2及び下唇領域B3のカラーマップどうしの相違度(第1相違度)の検出結果に基づいて、口Pの開閉状態を特定する。具体的には、開閉状態特定部105fは、第1相違度検出部105dにより検出された第1相違度が所定値よりも大きいか否かを判定し、当該判定の結果、第1相違度が所定値よりも大きいと判定された場合に口Pが開いた状態であると特定する。
口Pが開いていると、上唇と下唇の間から歯が覗いた状態となって、中央領域B1のカラーマップと上唇領域B2及び下唇領域B3のカラーマップとの相違度(第1相違度)が大きくなると考えられるためである。
また、開閉状態特定部105fは、第2相違度検出部105eによる口Pの中央領域B1と上唇領域B2及び下唇領域B3のエッジ検出の評価値どうしの相違度(第2相違度)の検出結果に基づいて、口Pの開閉状態を特定する。具体的には、開閉状態特定部105fは、第2相違度検出部105eにより検出された第2相違度が所定値よりも大きいか否かを判定し、当該判定の結果、第2相違度が所定値よりも大きいと判定された場合に口Pが開いた状態であると特定する。
口Pが開いていると、上唇と下唇の間から歯が覗いた状態となって、主として歯に対応する中央領域B1の上下方向のエッジに係る中央評価値と、上唇領域B2及び下唇領域B3の上下方向のエッジに係る唇評価値との相違度(第2相違度)が大きくなると考えられるためである。
ここで、開閉状態特定部105fは、中央評価値と唇評価値との相違度が所定値よりも大きいか否かの判定に代えて、中央評価値が唇評価値よりも大きいか否かを判定し、中央評価値が唇評価値よりも大きいと判定された場合に口Pが開いた状態であると特定しても良い。
画像変形部(変形手段)105gは、開閉状態特定部105fにより閉じた状態であると特定された口Pの画像に対して変形処理を施す。
すなわち、画像変形部105gは、口検出部105cにより検出された口Pの所定位置に複数の制御点を設定し、設定された制御点の位置を変位させることで、当該口Pを変形させる変形処理を行う。
なお、変形処理は、公知の技術であるので、ここでは詳細な説明を省略する。
また、画像変形部105gは、投影装置3から投影される映像コンテンツに含まれる投影対象物の顔領域の口に対応する位置に、口検出部105cにより検出された口Pの画像を合成する。例えば、画像変形部105gは、投影対象物の顔領域の口の所定位置(例えば、重心等)に口検出部105cにより検出された口Pの対応する位置(例えば、重心等)を一致させるようにして口Pの画像を差し替えて合成する。そして、画像変形部105gは、映像コンテンツと対応付けられている口Pの動き情報(例えば、変形ベクトル等)に基づいて、口Pを変形させる変形処理を行う。
また、画像処理部105は、画像変形部105gによる変形処理が施された口Pを含む画像の画像データを映像データ104aとともに投影装置3に出力する。
なお、口Pの合成の手法として、補間対象領域とそれ以外の領域との境界部分や複数の置換画像どうしの境界部分の色や勾配をより自然に変化させた画像を生成するポアソン画像合成(Poisson Image Editing)を用いても良いが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
撮像制御部106は、撮像装置2による聴衆Oの撮像を制御する。具体的には、撮像制御部106は、新たな顔画像の取得を要請する再撮像要請部(要請手段)106aを具備している。
再撮像要請部106aは、開閉状態特定部105gにより口Pが開いた状態であると特定されると、撮像装置2により聴衆Oの顔の撮像を再度行わせるための制御信号を第1I/F107を介して撮像装置2に出力する。このとき、再撮像要請部106aは、スピーカ4から所定の内容の音声案内(例えば、聴衆Oの口Pが開いている旨や、聴衆Oの顔の再撮像を促す旨等)を出力させるための制御信号を第3I/F109を介してスピーカ4に出力する。
第1I/F107は、撮像装置2と接続され、当該撮像装置2との間でデータ送受信を行うためのインターフェースである。
撮像装置2は、スクリーン5を見ている聴衆Oを撮像するための撮像手段である。撮像装置2は、スクリーン5の直上に、その光軸方向がスクリーン5の面に垂直な方向となるように配置され、画像処理装置1からの指示に従って、スクリーン5の前面方向を撮像し、得られた撮像画像を第1I/F107を介して画像処理装置1に送信する。
第1I/F108は、投影装置3と接続され、当該投影装置3との間でデータ送受信を行うためのインターフェースである。
投影装置3は、例えば、画像処理装置1から送信された投影画像に基づいてスクリーン5の背面から映像コンテンツを投影する背面投射型の投影装置3である。投影装置3は、例えば、投影画像に基づいて、アレイ状に配列された複数個(例えば、XGAの場合、横1024画素×縦768画素)の微小ミラーの各傾斜角度を個々に高速でオン/オフ動作して表示動作することでその反射光により光像を形成する表示素子であるDMD(デジタルマイクロミラーデバイス)を利用したDLP(Digital Light Processing)(登録商標)プロジェクタが適用可能である。投影画像における投影対象物の領域に対応する位置の微小ミラーをオンし、その他の領域をオフすることで、投影対象物のみをスクリーン5に投影することが可能となる。
また、投影装置3は、画像処理部105から出力された画像変形部105gによる変形処理が施された口Pを含む画像の画像データ及び映像コンテンツの映像データ104aが第1I/F108を介して入力されると、映像コンテンツに含まれる投影対象物の顔領域内に合成された口Pが当該コンテンツの内容に応じて変形(例えば、リップシンク)するような映像コンテンツを投影する。
スクリーン5は、支持台51により床面に垂直になるように支持され、投影装置3の出力光照射方向に配置されている。
また、スクリーン5は、図1に示すように、投影対象物の形状に成型された透明アクリル板等の基材52の前面上側に背面投影用のスクリーンフィルム53が貼付され、下側に投影対象物の下半身が印刷されたフィルム54が貼付されて構成されている。
なお、本実施形態においては、投影システム100は投影対象物の上半身の映像コンテンツをスクリーン5に投影する構成としているが、一例であってこれに限られるものではなく、例えば、スクリーン5の基材52の全面に背面投影用のスクリーンフィルム53を貼付した構成とし、投影対象物の全身の映像コンテンツをスクリーン5に投影することとしても良い。
第3I/F109は、スピーカ4と接続され、当該スピーカ4との間でデータ送受信を行うためのインターフェースである。
スピーカ4は、中央制御部101から出力されて第3I/F109を介して入力された指示に応じて、所定の音声データ(例えば、映像データ104aに含まれる音声データ等)を音声信号に変換して出力する。
<投影処理>
次に、投影システム100による投影処理について、図4〜図6を参照して説明する。
図4は、投影処理に係る動作の一例を示すフローチャートである。
図4に示すように、先ず、撮像装置2は、聴衆Oを撮像して顔を含むライブビュー画像(例えば、顔のみの画像や胸から上の画像等)を生成し、画像処理装置1の画像取得部105aは、生成されたライブビュー画像の画像データの複製を取得する(ステップS1)。
次に、顔検出部105bは、画像取得部105aにより取得されたライブビュー画像の画像データに対して所定の顔検出処理を行って、顔が含まれる顔領域A1を検出する(ステップS2)。続けて、画像処理部105は、顔検出部105bにより顔領域A1が検出されたか否かを判定する(ステップS3)。
ステップS3にて、顔領域A1が検出されていないと判定されると(ステップS3;NO)、画像処理部105は、処理をステップS2に戻し、所定の時間間隔毎に顔検出処理を行う。
一方、ステップS3にて、顔領域A1が検出されたと判定されると(ステップS3;YES)、画像処理部105は、投影される映像コンテンツに合成される顔画像を特定する顔画像特定処理(図5参照)を行う(ステップS4)。
以下に、顔画像特定処理について、図5を参照して詳細に説明する。
<顔画像特定処理>
図5は、顔画像特定処理に係る動作の一例を示すフローチャートである。
なお、図6(a)及び図6(b)は、顔画像特定処理に係る画像の一例を模式的に示す図であり、これらに限られるものではなく、適宜任意に変更可能である。
図5に示すように、先ず、撮像装置2は、スピーカ4から発せられる音声案内にしたがって所定のタイミングで聴衆Oを撮像して顔を含む画像を生成し、画像処理装置1の画像取得部105aは、生成された撮像画像の画像データの複製を処理対象画像として取得する(ステップS11)。
次に、顔検出部105bは、画像取得部105aにより取得された処理対象画像の画像データに対して所定の顔検出処理を行って、顔が含まれる顔領域A1(図6(a)参照)を検出する(ステップS12)。
続けて、口検出部105cは、顔検出処理により検出された処理対象画像内の顔領域A1から、所定の検出処理(例えば、AAM等)を用いて、口Pを検出する(ステップS13)。このとき、口Pの検出と併せて、例えば、左右各々の目、鼻、眉、顔輪郭等の主要な顔構成部を検出しても良い。
次に、第1相違度検出部105dは、口Pと重なるように中央領域B1と上唇領域B2及び下唇領域B3を設定し(図6(b)参照)、中央領域B1並びに上唇領域B2及び下唇領域B3内の画像データを所定の色空間(例えば、HSV色空間等)に変換し、各領域の所定の色空間におけるカラーマップを生成する(ステップS14)。そして、第1相違度検出部105dは、所定の演算を行って中央領域B1と上唇領域B2及び下唇領域B3のカラーマップの分布領域の相違度を第1相違度として検出する(ステップS15)。
続けて、開閉状態特定部105fは、第1相違度検出部105dにより検出された口Pの中央領域B1と上唇領域B2及び下唇領域B3のカラーマップどうしの相違度(第1相違度)が所定値よりも大きいか否かを判定する(ステップS16)。
ここで、第1相違度が所定値よりも大きいと判定された場合(ステップS16;YES)、聴衆Oの口Pが開いた状態であると考えられるため、再撮像要請部106aは、スピーカ4から聴衆Oの顔の再撮像を促す旨の音声案内を出力させるための制御信号を第1I/F107を介してスピーカ4に出力する。スピーカ4は、入力された制御信号に応じて、聴衆Oの顔の再撮像を促す旨の音声案内を発する(ステップS17)。
その後、ステップS11にて、撮像装置2は、スピーカ4から発せられる音声案内にしたがって所定のタイミングで聴衆Oを再度撮像して顔を含む画像を生成し、画像取得部105aは、生成された撮像画像の画像データの複製を処理対象画像として取得する(ステップS11)。
なお、撮像装置2が聴衆Oの顔の再度の撮像を行う代わりに、予め聴衆Oを連続して撮像して顔を含む画像を複数生成しておき、画像取得部105aは、生成済みの複数の画像から処理対象画像を新たに取得しても良い。
ステップS12以降の各処理は、ステップS16にて、第1相違度が所定値よりも大きくないと判定(ステップS16;NO)されるまで繰り返し実行される。
ステップS16にて、第1相違度が所定値よりも大きくないと判定された場合(ステップS;YES)、第2相違度検出部105eは、中央領域B1並びに上唇領域B2及び下唇領域B3内の画像データに対して所定のエッジ検出処理を行なった後、中央領域B1のエッジの検出結果に基づいて所定の演算を行って上下方向のエッジに係る中央評価値を算出するとともに、上唇領域B2及び下唇領域B3のエッジの検出結果に基づいて所定の演算を行って上下方向のエッジに係る唇評価値を算出する(ステップS18)。そして、第2相違度検出部105eは、中央領域B1のエッジに係る中央評価値と上唇領域B2及び下唇領域B3のエッジに係る唇評価値との相違度を第2相違度として検出する(ステップS19)。
続けて、開閉状態特定部105fは、第2相違度検出部105eにより検出された中央領域B1と上唇領域B2及び下唇領域B3のエッジ検出の評価値どうしの相違度(第2相違度)が所定値よりも大きいか否かを判定する(ステップS20)。
ここで、第2相違度が所定値よりも大きいと判定された場合(ステップS20;YES)、聴衆Oの口Pが開いた状態であると考えられるため、処理をステップS17に移行し、再撮像要請部106aは、上記と略同様に、スピーカ4から聴衆Oの顔の再撮像を促す旨の音声案内を出力させるための制御信号を第1I/F107を介してスピーカ4に出力する。スピーカ4は、入力された制御信号に応じて、聴衆Oの顔の再撮像を促す旨の音声案内を発する(ステップS17)。
その後、処理をステップS11に戻し、ステップS11以降の各処理は、ステップS20にて、第2相違度が所定値よりも大きくないと判定(ステップS20;NO)されるまで繰り返し実行される。
ステップS20にて、第2相違度が所定値よりも大きくないと判定されると(ステップS20;NO)、画像変形部105gは、検出された口Pの所定位置に複数の制御点を設定し、当該複数の制御点を変形処理に用いられる制御点として登録する(ステップS21)。
これにより、顔画像特定処理を終了する。
図4に戻り、画像処理部105は、記録部104から指定されている映像コンテンツの映像データ104aを読み出して取得する(ステップS5)。ここで、映像コンテンツは、ユーザによる操作入力部102の所定操作に基づいて所望の映像コンテンツが中央制御部101のCPUにより予め指定されるようになっているが、例えば、聴衆Oが選択可能な複数の映像コンテンツを用意しておき、聴衆Oが所望の映像コンテンツを選択して指定するような構成としても良い。
次に、画像変形部105gは、変形処理により口Pを変形させた画像の画像データを生成し、画像処理部105は、画像変形部105gにより生成された画像データを映像コンテンツの映像データ104aとともに、第1I/F108を介して投影装置3に出力する(ステップS6)。
そして、投影装置3は、第1I/F108を介して入力された映像コンテンツの映像データ104a及び画像変形部105gにより生成された画像データに基づいて、映像コンテンツに含まれる投影対象物の顔領域内に合成された口Pを当該コンテンツの内容に応じて変形(リップシンク)させるような映像コンテンツをスクリーン5に投影する(ステップS7)。
このとき、画像変形部105gは、変形処理により口P以外の顔構成部を変形させた画像の画像データを生成し、投影装置3は、当該画像データに基づいて、映像コンテンツに含まれる投影対象物の顔領域内にて口P以外の顔構成部を変形させるような映像コンテンツをスクリーン5に投影しても良い。
次に、画像処理装置1にあっては、中央制御部101のCPUは、投影装置3による映像コンテンツの投影が終了したか否かを判定する(ステップS8)。
ここで、映像コンテンツの投影が終了していないと判定(ステップS8;NO)、中央制御部101のCPUは、当該判定処理を所定の時間間隔毎に行う。
一方、映像コンテンツの投影が終了したと判定されると(ステップS8;YES)、中央制御部101のCPUは、当該投影処理を終了させる。
以上のように、本実施形態の投影システム100によれば、顔画像から検出された口Pの中央側の領域(中央領域B1)及び周辺側の領域(上唇領域B2及び下唇領域B3)の所定の色空間における色情報どうしの相違度を検出し、当該検出結果に基づいて、口Pの開閉状態を特定するので、中央側の領域及び周辺側の領域の所定の色空間における色情報を用いて口Pの開閉状態の特定を適正に行うことができる。すなわち、口Pの中央側の領域及び周辺側の領域とで所定の色空間における色情報が相違している場合、上唇と下唇の間から歯が覗いて口Pが開いていると考えられる。そこで、口Pの中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度が大きい場合に、口Pが開いた状態であると特定するので、口Pの開閉状態を適正に特定することができる。
これにより、口Pに対する変形処理を、閉じた状態の口Pの画像を用いて行うことができることとなって、例えば、変形処理が施された口Pの画像をスクリーン5に投影した場合に、リップシンクをより自然なものとすることができる。
また、口Pの中央側の領域(中央領域B1)及び当該領域と所定方向に隣合う領域(上唇領域B2及び下唇領域B3)のエッジ検出の評価値どうしの相違度を検出し、当該検出結果に基づいて、口Pの開閉状態を特定するので、口Pの色情報に加えて中央側の領域及び当該領域と隣合う領域のエッジ検出の評価値を用いて口Pの開閉状態の特定をより適正に行うことができる。すなわち、口Pの中央側の領域及び当該領域と隣合う領域とでエッジ検出の評価値が相違している場合、上唇と下唇の間から歯が覗いて口Pが開いていると考えられる。そこで、中央側の領域及び当該領域と隣合う領域のエッジ検出の評価値どうしの相違度が大きい場合に、口Pが開いた状態であると特定するので、口Pの開閉状態をより適正に特定することができる。
さらに、口Pが開いた状態であると特定されると、新たな顔画像の取得を要請することで、当該要請に応じて、処理対象となる顔画像を新たに取得することができる。これにより、開いた状態の口Pの画像を用いて変形処理が行われてしまうことを抑制することができ、結果として、変形処理が施された口Pの画像をスクリーン5に投影した場合に、リップシンクが不自然になることを抑制することができる。
なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、スクリーン5に映像を投影する投影システム100を例示したが、一例であってこれに限られるものではなく、投影装置3を備えずに画像処理装置1単体から構成されていても良い。
また、上記実施形態では、画像処理装置1は、中央領域B1と上唇領域B2及び下唇領域B3のエッジ検出の評価値どうしの相違度(第2相違度)に応じて、口Pの開閉状態を特定するようにしたが、一例であってこれに限られるものではなく、必ずしも第2相違度を検出する第2相違度検出部105eを具備する必要はない。
さらに、画像処理装置1は、閉じた状態の口Pの画像に対して変形処理を施すようにしたが、一例であってこれに限られるものではなく、必ずしも口Pの画像を変形する画像変形部105gを具備する必要はない。
加えて、上記実施形態にあっては、取得手段、第一の検出手段、第二の検出手段、特定手段としての機能を、画像処理装置1の中央制御部101の制御下にて、画像取得部105a、口検出部105c、第1相違度検出部105d、開閉状態特定部105fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部101のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
すなわち、プログラムを記憶するプログラムメモリに、取得処理ルーチン、第一の検出処理ルーチン、第二の検出処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部101のCPUを、顔画像を取得する手段として機能させるようにしても良い。また、第一の検出処理ルーチンにより中央制御部101のCPUを、取得された顔画像から口Pを検出する手段として機能させるようにしても良い。また、第二の検出処理ルーチンにより中央制御部101のCPUを、検出された口Pの中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部101のCPUを、色情報どうしの相違度の検出結果に基づいて、口Pの開閉状態を特定する手段として機能させるようにしても良い。
同様に、消去手段、第3の検出手段、要請手段、変形手段についても、中央制御部101のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
顔画像を取得する取得手段と、
前記取得手段により取得された顔画像から口を検出する第一の検出手段と、
前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段と、
前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段と、
を備えたことを特徴とする顔画像処理装置。
<請求項2>
前記特定手段は、更に、
前記第二の検出手段により検出された相違度が大きい場合に、口が開いた状態であると特定することを特徴とする請求項1に記載の顔画像処理装置。
<請求項3>
前記第一の検出手段により検出された口の中央側の領域及び当該領域と所定方向に隣合う領域のエッジ検出の評価値どうしの相違度を検出する第三の検出手段を更に備え、
前記特定手段は、
前記第三の検出手段の検出結果に基づいて、口の開閉状態を特定することを特徴とする請求項1又は2に記載の顔画像処理装置。
<請求項4>
前記特定手段は、更に、
前記第三の検出手段により検出された相違度が大きい場合に、口が開いた状態であると特定することを特徴とする請求項3に記載の顔画像処理装置。
<請求項5>
前記特定手段により口が開いた状態であると特定されると、新たな顔画像の取得を要請する要請手段を更に備え、
前記取得手段は、
前記要請手段による要請に応じて、顔画像を新たに取得することを特徴とする請求項1〜4の何れか一項に記載の顔画像処理装置。
<請求項6>
請求項1〜5の何れか一項に記載の顔画像処理装置と、スクリーンに顔画像を投影する投影装置と、を備えた投影システムであって、
前記顔画像処理装置は、
前記特定手段により閉じた状態であると特定された口の画像に対して変形処理を施す変形手段を更に備え、
前記投影装置は、
前記変形手段により変形処理が施された口の画像を前記スクリーンに投影することを特徴とする投影システム。
<請求項7>
顔画像処理装置を用いた画像処理方法であって、
顔画像を取得する処理と、
取得された顔画像から口を検出する処理と、
検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する処理と、
前記色情報どうしの相違度の検出結果に基づいて、口の開閉状態を特定する処理と、
を含むことを特徴とする画像処理方法。
<請求項8>
顔画像処理装置のコンピュータを、
顔画像を取得する取得手段、
前記取得手段により取得された顔画像から口を検出する第一の検出手段、
前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段、
前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段、
として機能させることを特徴とするプログラム。
100 投影システム
1 画像処理装置
101 中央制御部
105 画像処理部
105a 画像取得部
105c 口検出部
105d 第1相違度検出部
105e 第2相違度検出部
105f 開閉状態特定部
105g 画像変形部
106 撮像制御部
106a 再撮像要請部
2 撮像装置
3 投影装置

Claims (9)

  1. 顔画像を取得する取得手段と、
    前記取得手段により取得された顔画像から口を検出する第一の検出手段と、
    前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段と、
    前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段と、
    を備えたことを特徴とする顔画像処理装置。
  2. 前記特定手段は、更に、
    前記第二の検出手段により検出された相違度が大きい場合に、口が開いた状態であると特定することを特徴とする請求項1に記載の顔画像処理装置。
  3. 前記第一の検出手段により検出された口の中央側の領域及び当該領域と所定方向に隣合う領域のエッジ検出の評価値どうしの相違度を検出する第三の検出手段を更に備え、
    前記特定手段は、
    前記第三の検出手段の検出結果に基づいて、口の開閉状態を特定することを特徴とする請求項1又は2に記載の顔画像処理装置。
  4. 前記特定手段は、更に、
    前記第三の検出手段により検出された相違度が大きい場合に、口が開いた状態であると特定することを特徴とする請求項3に記載の顔画像処理装置。
  5. 前記特定手段により口が開いた状態であると特定されると、新たな顔画像の取得を要請する要請手段を更に備え、
    前記取得手段は、
    前記要請手段による要請に応じて、顔画像を新たに取得することを特徴とする請求項1〜4の何れか一項に記載の顔画像処理装置。
  6. 請求項1〜5の何れか一項に記載の顔画像処理装置と、スクリーンに顔画像を投影する投影装置と、を備えた投影システムであって、
    前記顔画像処理装置は、
    前記特定手段により閉じた状態であると特定された口の画像に対して変形処理を施す変形手段を更に備え、
    前記投影装置は、
    前記変形手段により変形処理が施された口の画像を前記スクリーンに投影することを特徴とする投影システム。
  7. 顔画像処理装置を用いた画像処理方法であって、
    顔画像を取得する処理と、
    取得された顔画像から口を検出する処理と、
    検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する処理と、
    前記色情報どうしの相違度の検出結果に基づいて、口の開閉状態を特定する処理と、
    を含むことを特徴とする画像処理方法。
  8. 顔画像処理装置のコンピュータを、
    顔画像を取得する取得手段、
    前記取得手段により取得された顔画像から口を検出する第一の検出手段、
    前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段、
    前記第二の検出手段による検出結果に基づいて、口の開閉状態を特定する特定手段、
    として機能させることを特徴とするプログラム。
  9. 顔画像を取得する取得手段と、
    前記取得手段により取得された顔画像から口を検出する第一の検出手段と、
    前記第一の検出手段により検出された口の中央側の領域及び周辺側の領域の所定の色空間における色情報どうしの相違度を検出する第二の検出手段と、
    前記第二の検出手段により検出された相違度が大きい場合に、口が開いた状態であると特定する特定手段と、
    を備えたことを特徴とする顔画像処理装置。
JP2013261088A 2013-12-18 2013-12-18 顔画像処理装置、投影システム、画像処理方法及びプログラム Expired - Fee Related JP6326808B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013261088A JP6326808B2 (ja) 2013-12-18 2013-12-18 顔画像処理装置、投影システム、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013261088A JP6326808B2 (ja) 2013-12-18 2013-12-18 顔画像処理装置、投影システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015118514A JP2015118514A (ja) 2015-06-25
JP6326808B2 true JP6326808B2 (ja) 2018-05-23

Family

ID=53531187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013261088A Expired - Fee Related JP6326808B2 (ja) 2013-12-18 2013-12-18 顔画像処理装置、投影システム、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6326808B2 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000187499A (ja) * 1998-12-24 2000-07-04 Fujitsu Ltd 音声入力装置及び音声入力方法
JP4831259B1 (ja) * 2011-03-10 2011-12-07 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム

Also Published As

Publication number Publication date
JP2015118514A (ja) 2015-06-25

Similar Documents

Publication Publication Date Title
US9262671B2 (en) Systems, methods, and software for detecting an object in an image
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5880182B2 (ja) 画像生成装置、画像生成方法及びプログラム
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
JP5240795B2 (ja) 画像変形装置、電子機器、画像変形方法、および画像変形プログラム
JP5949030B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP2011022733A (ja) メーキャップシミュレーション装置、メーキャップシミュレーションプログラム及び対面販売支援方法
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP5966657B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP6098133B2 (ja) 顔構成部抽出装置、顔構成部抽出方法及びプログラム
JP6547244B2 (ja) 動作処理装置、動作処理方法及びプログラム
JP6476608B2 (ja) 動作処理装置、動作処理方法及びプログラム
JP6191418B2 (ja) 表示装置、表示方法及びプログラム
JP6326808B2 (ja) 顔画像処理装置、投影システム、画像処理方法及びプログラム
JP5092093B2 (ja) 画像処理装置
RU2703327C1 (ru) Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
JP6330312B2 (ja) 顔画像処理装置、投影システム、画像処理方法及びプログラム
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP6586978B2 (ja) 画像出力装置、画像出力方法及びプログラム
JP4349019B2 (ja) 画像補正装置
JP2003030684A (ja) 顔3次元コンピュータグラフィック生成方法及び装置及び顔3次元コンピュータグラフィック生成プログラム及び顔3次元コンピュータグラフィック生成プログラムを格納した記憶媒体
JP4345440B2 (ja) 輪郭判断装置及び輪郭判断方法
KR102334622B1 (ko) 멀티미디어 디바이스 제어 방법 및 멀티미디어 디바이스
JP2015106212A (ja) 表示装置、画像処理方法及びプログラム
JP6390210B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180402

R150 Certificate of patent or registration of utility model

Ref document number: 6326808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees