JP2016019092A - 情報処理装置、情報処理方法、情報処理システムおよびプログラム - Google Patents

情報処理装置、情報処理方法、情報処理システムおよびプログラム Download PDF

Info

Publication number
JP2016019092A
JP2016019092A JP2014139750A JP2014139750A JP2016019092A JP 2016019092 A JP2016019092 A JP 2016019092A JP 2014139750 A JP2014139750 A JP 2014139750A JP 2014139750 A JP2014139750 A JP 2014139750A JP 2016019092 A JP2016019092 A JP 2016019092A
Authority
JP
Japan
Prior art keywords
image
information processing
face
processing apparatus
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014139750A
Other languages
English (en)
Inventor
孝英 大谷
Takahide Otani
孝英 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014139750A priority Critical patent/JP2016019092A/ja
Publication of JP2016019092A publication Critical patent/JP2016019092A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カメラ目線に近い自分撮りを良好に行えるようにする。【解決手段】この情報処理装置は、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を具備する。制御部は、2つの画像のうち、相対的に下の位置から撮影された一方の画像の目の部分画像を、相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えて目線補正画像を生成する。【選択図】図1

Description

本技術は、カメラによって撮影されたユーザの顔画像を処理する機能を有する情報処理装置、情報処理方法、情報処理システムおよびプログラムに関する。
携帯電話、スマートフォンなどの携帯端末の楽しみ方の1つとして自分撮りがある。すなわち、携帯端末の多くにはカメラが搭載され、そのカメラによって撮影された画像をディスプレイの画面にリアルタイムで表示させることができる。このためユーザは、ディスプレイの画面で自分の顔を確認しながら、所望の表情の自分の顔を容易に撮影することができる。
通常、カメラはディスプレイの画面の位置から外れた位置に配置される。このため、ディスプレイの画面を見ながら撮影されたユーザの顔の画像は、目線がわずかにずれたものとなる。
被写体であるユーザの目線ずれを補正により修正する技術は既に知られている(例えば、特許文献2参照)。この特許文献2の技術では、カメラ付携帯電話機において、登録済みのカメラ目線画像から算出されたユーザの黒目の中心と、上カメラおよび下カメラによって各々撮影されたユーザの顔画像から顔の表示位置を修正した画像における黒目の中心とのずれ量から目線のずれ量が算出される。この目線ずれ量に基づいて、カメラ目線相当となるように目線を修正した画像が生成される。
特開2012−114557号公報(段落[0051])
スマートフォンなどの携帯端末に内蔵されたカメラを使って自分の顔を撮影した場合、目線が同様の向きに同じ程度にずれた顔ばかりが撮影される傾向がある。ユーザによっては、自分のベストショットを撮るために様々な表情での撮影を試みる。しかし、上記のような制約があるため、撮影できるカメラ目線の顔の表情のバリエーションに制限が生じるなど、カメラ目線に近い自分撮りを良好に行うには、まだまだ不十分な点がある。
以上のような事情に鑑み、本技術の目的は、カメラ目線に近い自分撮りを良好に行うことのできる情報処理装置、情報処理方法、情報処理システムおよびプログラムを提供することにある。
上記の課題を解決するために、本技術に係る第1の形態の情報処理装置は、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を具備する。
上記の第1の形態の情報処理装置において、前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成されたものであってよい。
上記の第1の形態の情報処理装置において、前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成されたものであってよい。
上記の第1の形態の情報処理装置において、前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高いものであってよい。
上記の第1の形態の情報処理装置において、前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成されたものであってよい。
上記の第1の形態の情報処理装置において、前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成されたものであってよい。
上記の第1の形態の情報処理装置において、前記第1の撮像部が、前記情報処理装置に内蔵され、前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部であってよい。
本技術に係る第2の形態の情報処理装置は、異なる位置から人物の顔を撮影する撮像ユニットと、前記撮像ユニットによって撮影された前記人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部とを具備する。
本技術に係る第3の形態の情報処理方法は、制御部が、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する、というものである。
本技術に係る第4の形態の情報処理システムは、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を具備する。
本技術に係る第5の形態のプログラムは、異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部としてコンピュータを機能させるプログラムである。
以上のように、本技術によれば、カメラ目線に近い自分撮りを良好に行うことができる。
なお、この効果は本技術の効果として限定されるものではなく、本開示中に記載されたいずれかの効果が本技術の効果であってよい。
本技術に係る第1の実施形態の顔画像処理システムの全体構成を示す図である。 図1の顔画像処理システムにおいて2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの動作を画像ベースで示す図である。 図1の顔画像処理システムにおいて2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの別の動作を画像ベースで示す図である。 本技術に係る第2の実施形態の顔画像処理システム1Aの構成を示す斜視図である。 図4の顔画像処理システム1Aにおいて携帯端末40Aに外付けカメラ10Aを装着した状態を示す斜視図である。 携帯端末40Aのハードウェア構成を示すブロック図である。 外付けカメラ10Aの外観を示す斜視図である。 図7の外付けカメラ10Aの撮影状態を示す斜視図である。 図7の外付けカメラ10Aのハードウェア構成を示すブロック図である。 図4の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第1の形態を示す図である。 図4の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第2の形態を示す図である。 4機のカメラを用いた変形例を説明する図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
[顔画像処理システムの全体構成]
図1は、本技術に係る第1の実施形態の顔画像処理システムの全体構成を示す図である。
この顔画像処理システム1は、2機のカメラ装置10,20(撮像ユニット)と、撮影時にユーザUが目線Eを合せる対象である目線対象物30と、情報処理装置40とを備える。
目線対象物30は、より具体的には、2機のカメラ装置10,20の少なくとも一方により撮影されたユーザUの顔の画像を表示するディスプレイの画面などであってよい。但し、目線対象物30は、必ずしもディスプレイの画面である必要はない。目線対象物30は、例えばミラーであってもよい。あるいは、ユーザUの目線Eを誘導する何らかのマークを付けた物体であってもよい。なお、本技術の構成において、目線対象物30は必須ではない。
2機のカメラ装置10,20は、ユーザUの顔の縦方向において異なる2つの位置からユーザUの顔を撮影可能なように配置される。すなわち、カメラ装置10は、前記縦方向において相対的に上の位置からユーザUの顔を撮影し、カメラ装置20は、前記縦方向において相対的に下の位置からユーザUの顔を撮影するように配置される。より具体的には、例えば、2機のカメラ装置10,20は、目線対象物30に目線Eを合せたユーザUの顔をユーザUの目線Eの高さ位置から上に若干ずれた高さ位置とユーザUの目線Eの高さ位置から下に若干ずれた高さ位置から撮像することが可能なように各々配置される。ユーザUの目線Eが真正面を向いている場合、ユーザUの顔を一方のカメラ装置10によって目線Eよりやや高い位置から撮影すると、撮影された画像におけるユーザUの顔全体は目線Eを含めやや下を向いたものとなる。また、ユーザUの顔を目線Eよりやや低い高さから他方のカメラ装置20で撮影すると、撮像された画像におけるユーザUの顔全体は目線Eを含めやや上を向いたものとなる。
以降の説明において、ユーザUの顔を目線Eよりやや高い位置から撮影するカメラ装置10を「上カメラ装置10」、ユーザUの顔を目線Eよりやや低い位置から撮影するカメラ装置20を「下カメラ装置20」と本明細書で呼ぶことにする。
各々のカメラ装置10,20は、撮影レンズと、撮像素子と、撮像素子の出力を現像する現像処理部と、コントローラとを備える。各々のカメラ装置10、20は、いずれも情報処理装置40の筐体41(図4参照)に撮像ユニットとして搭載されたカメラであってよい。あるいは、一方のカメラが、情報処理装置40に内蔵されたカメラで、もう一方が情報処理装置40に着脱可能なカメラ、あるいは情報処理装置に対して独立して配置されたカメラであってもよい。あるいは各々のカメラ装置10,20は、情報処理装置40に対して各々独立して設置されたカメラであってよい。
各々のカメラ装置10,20のより具体的な構成については、第2の実施形態で説明する。
情報処理装置40は、2機のカメラ装置10,20と有線もしくは無線で通信するための通信インタフェースと、CPU(Central Processing Unit)と、メモリと、ストレージと、ユーザのための入力部などを備える。情報処理装置40のCPUは、通信インタフェースを通じて接続された2機のカメラ装置を制御し、2機のカメラ装置10,20により各々撮影された2つの画像の合成処理などを行う。
なお、情報処理装置40は、具体的には、例えば、スマートフォン、パーソナルコンピュータ、あるいは、2機のカメラ装置10,20とネットワークを通じて接続されたサーバ装置などであってよい。
情報処理装置40のより具体的な構成については第2の実施形態で説明する。
[画像合成による目線補正]
上記の顔画像処理システム1において情報処理装置40では、画像の合成処理の1つとして目線補正を行うことが可能である。
目線補正とは、次のようなものである。
ここでは情報処理装置40としてスマートフォンを用いた場合の目線補正について説明する。例えば、スマートフォンに内蔵されたカメラでユーザが自分の顔を撮影するとき、ユーザは目線対象物であるディスプレイ画面にリアルタイムに表示された自分の顔を確認しながら、任意のタイミングでシャッターボタンを操作する。すると、その時点で撮影(表示)された画像が静止画として切り出されてストレージなどに保存される。多くのスマートフォンでは、カメラは筐体の前面においてディスプレイの画面が配置された位置から外れた位置、例えばユーザから見てディスプレイの画面よりも上の位置に配置されている。このため、ユーザが自分の顔を撮影すると、撮影された自分の顔画像は、目線の向きを含め顔全体がやや下を向いたものとなる。
一般的には、目線はやや上に向けたほうがポジティブ感があり印象的な目に見えると言われている。ユーザから見てディスプレイの画面よりも下の位置にカメラを配置すれば上向き目線の顔を撮影できるが、この場合、顔全体がやや上を向いた画像となってしまうため、上目線が引き立ちにくい。
なお、ユーザのニーズは様々であり、上目線よりも下目線の顔を撮影したい場合もある。この場合も、ユーザから見てディスプレイの画面よりもやや上の位置に配置されたカメラでユーザの顔を撮影しただけでは、単に顔全体をやや下に向けただけの顔画像となり、下目線が引き立つ顔画像とならない。
上記のように、ユーザが目線対象物30を見ながら、その目線対象物30の上や下に配置されたカメラでユーザの顔画像を撮影する環境においては、目線が同様の向きに同じ程度にずれた顔はがりが撮影される傾向があるため、撮影できるカメラ目線の顔の表情のバリエーションに制限が生じるなど、カメラ目線に近い自分撮りを良好に行うには、まだまだ不十分な点がある。
本技術に係る第1の実施形態の顔画像処理システム1は、このような課題を解決しようとするものである。但し、本技術の解決すべき課題はこれに限定されない。
[顔画像処理システムによる目線補正]
次に、本実施形態の顔画像処理システム1による目線補正の動作の概要を説明する。
(1)情報処理装置40のCPU(制御部)は、メモリに格納されたアプリケーションプログラムに従って、次のように制御を行う。
図1において、まず、情報処理装置40のCPUは2機のカメラ装置10,20に撮像を開始させる。2機のカメラ装置10,20において、上カメラ装置10はユーザUの顔を目線Eよりやや高い位置から撮影するように設置され、下カメラ装置20はユーザUの顔を目線Eよりやや低い位置から撮影するように設置されている。
(2)撮影時のユーザUの目線Eは、2機のカメラ装置10,20の間に配置された目線対象物30、例えばディスプレイの画面にあることとする。ディスプレイの画面には、例えば、上カメラ装置10または下カメラ装置20によって撮影中の自分の顔画像が動画像として表示される。あるいは、2機のカメラ装置10,20各々によって撮影された動画像が同時に表示されてもよい。
(3)ユーザUは、ディスプレイの画面を通して自分の顔の動画像を確認しつつ、任意のタイミングで静止画像の取り込みの指示を情報処理装置40の入力部を操作して入力する。
(4)情報処理装置40のCPUは、ユーザUからの静止画像の取り込みの指示を受けると、2機のカメラ装置10,20に静止画像の取り込みを指示する制御命令を供給する。
(5)2機のカメラ装置は各々、この制御命令に従って、ユーザUの顔の動画像から静止画を切り出し、情報処理装置40に伝送する。
図2は、2機のカメラ装置10,20によって各々撮像されたユーザUの顔画像から目線補正が行われた合成画像が得られるまでの動作を画像ベースで示す図である。
101は上カメラ装置10によって撮影された顔画像(静止画)、201は下カメラ装置20によって撮影された顔画像(静止画)である。上カメラ装置10によって撮影された顔画像101におけるユーザUの顔は目線を含めてやや下向きとなり、下カメラ装置20によって撮影された顔画像201におけるユーザUの顔は目線を含めてやや上向きとなる。
(6)情報処理装置40のCPUは、2機のカメラ装置10,20より各々撮像された顔画像101、201から目の部分の画像102、202を検出する。ここで、顔画像における目の部分の画像102、202の検出には、例えば、統計的学習手法により、多数の人の顔画像を解析して得られた目の部分の画像の特徴データを用いるなどして行われる。
なお、情報処理装置40のCPUは、目の部分の画像の検出において、フォーカスずれなどによって、その検出が失敗に終った場合にはエラーをユーザUに例えば表示、音声などによって通知する。
(7)情報処理装置40のCPUは、下カメラ装置20により撮影された顔画像201において検出された目の部分の画像202を目線補正用の画像203として切り出す。ここで目線補正用の画像203は、例えば、両目を含む矩形の範囲の画像などである。
(8)情報処理装置40のCPUは、この目線補正用の画像203を、上カメラ装置10により撮影された顔画像101において検出された目の部分の画像102と置き換えた目線補正画像を生成する。すなわち、下カメラ装置20により撮影された顔画像201から切り出された目線補正用の画像203と、上カメラ装置10により撮影された顔画像において検出された目の部分の画像102以外の画像103とを画素毎に加算する。この際、情報処理装置40のCPUは、画像の繋ぎ目を目立たなくするために、繋ぎ目部分に対してアルファブレンドなどの合成処理を行ってもよい。
(9)以上により、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像203を、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像102と置換した合成画像104が得られる。本明細書では、このような画像合成を必要に応じて「上目線補正」と呼ぶ。
また、次のような目線補正も可能である。
図3に示すように、
(7A)情報処理装置40のCPUは、上カメラ装置10により撮影された顔画像101において検出された目の部分の画像102を目線補正用の画像105として切り出す。
(8A)情報処理装置40のCPUは、この目線補正用の画像105を、下カメラ装置20により撮影された顔画像201において検出された目の部分の画像202と置き換える画像合成を行う。すなわち、上カメラ装置10により撮影された顔画像101から切り出された目線補正用の画像105と、下カメラ装置20により撮影された顔画像において検出された目の部分の画像202以外の画像205とを画素毎に加算する。
(9A)以上により、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像105を、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像102と置換した合成画像206が得られる。本明細書では、このような画像合成を必要に応じて「下目線補正」と呼ぶ。
[2機のカメラ装置10,20のスペックについて]
2機のカメラ装置10,20の画質の高低を左右するスペックに差がある場合、合成画像においてより広範囲を占める側の画像を撮影するカメラ装置のスペックがより高いことが望ましい。ここで、画質の高低を左右するスペックとしては、例えば、撮像素子のサイズ、レンズ特性などが挙げられる。もちろん、画質の高低を左右するスペックはこれらに限定されない。
例えば、上記の上目線補正では、上カメラ装置10により撮影された顔画像101のうち、目の部分以外の画像103が合成において使用される。したがって、上カメラ装置10は下カメラ装置20に比較して高スペックであることが全体的な画質を高めるために望ましい。
また、下目線補正では、下カメラ装置20により撮影された顔画像201のうち、目の部分以外の画像205が合成において使用されるので、下カメラ装置20が上カメラ装置10に比較して高スペックであることが全体的な画質を高めるために望ましい。
[2機のカメラ装置10,20により撮影された各顔画像の画調の整合]
2機のカメラ装置10,20の撮影時に用いられる例えば露出、ホワイトバランス、色合い、コントラスト、シャープネスなどの画調を左右する撮影パラメータの値が異なる場合、目の領域と他の領域とで画調が不自然に異なったものとなり、合成された画像であることが一目で分かるようなものになりかねない。
本実施形態の顔画像処理システム1では、撮影前に情報処理装置40のCPUが、2機のカメラ装置10,20の撮影パラメータの値を比較し、もし画調の違いをもたらすような差があるのであれば、少なくとも一方のカメラ装置により撮影された画像の画調を、信号処理によって、他方のカメラ装置により撮影された画像の画調に合せるようにする。
例えば、露出の値に違いがあれば、情報処理装置40のCPUは、例えば、一方のカメラ装置によって撮影された画像の輝度値を、各々のカメラ装置に設定された露出の値の差の分だけ増減させるように信号処理を行う。ホワイトバランス、色合い、コントラスト、シャープネスなどに差がある場合も同様に一方の画像に対する信号処理によって、画調の差を低減させる。
これにより、2機のカメラ装置10,20各々によって撮影された画像の画調を可及的に整合させることができ、合成された顔画像において、目の領域と他の領域との画調の不自然な違いを抑えることができる。
上下どちらのカメラ装置により撮影された画像の画調に揃えるかは、例えば、一意に決められていてもよいし、ユーザが適宜指定できてもよい。
なお、信号処理のトータル的な負荷を低減するために、カメラ装置から得られた顔画像の全体に信号処理を行うのではなく、合成する画像に対してのみ信号処理を行うことが望ましい。
また、ここでは、信号処理によって2つの画像の画調を合せる方法を述べたが、カメラ装置に設定されている撮影パラメータの値を一致させることによって、2機のカメラ装置10,20により撮影された各顔画像の画調を可及的に一致させるようにしてもよい。
すなわち、この方法は、撮影前に情報処理装置40のCPUが、2機のカメラ装置10,20の撮影パラメータの値を比較し、もし画調の違いをもたらすような差があるのであれば、少なくとも一方のカメラ装置の撮影パラメータの値を他方のカメラ装置の撮影パラメータの値に変更することによって実現される。あるいは、2機のカメラ装置10,20の撮影パラメータの値を各々の中間的な値に整合させてもよい。
以上のように、本実施形態の顔画像処理システム1では、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像203を、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像102と置換した合成画像104を得ることができる。このような顔画像は、顔全体の向きがやや下向きである中で、目の部分だけがやや上向きの顔画像となるので、顔全体がやや上を向いた画像に比べ、上目線が引き立ち、印象的な顔画像を得ることができる。
また、本実施形態の顔画像処理システム1では、上カメラ装置10により撮影されたやや下向きのユーザUの顔画像の目の部分の画像105を、下カメラ装置20により撮影されたやや上向きのユーザUの顔画像の目の部分の画像102と置換した合成画像206を得ることができる。このような顔画像は、顔全体の向きがやや上向きである中で、目の部分だけがやや下向きの顔画像となるので、顔全体がやや下を向いた画像に比べ、下目線が引き立ち、ユニークな顔画像を得ることができる。
<第2の実施形態>
次に、本技術に係る第2の実施形態の顔画像処理システム1Aについて構成を説明する。
図4および図5は、内蔵カメラ20Aを備えた携帯型の情報処理装置である携帯端末40Aと、この携帯端末40Aに着脱自在に取り付けられるカメラ10Aとで構成される顔画像処理システム1Aを示す斜視図である。携帯端末40Aに着脱自在に取り付けられるカメラ10Aを本明細書では「外付けカメラ10A」と呼ぶ。
なお、図4は携帯端末40Aに外付けカメラ10Aを装着する前の状態を示し、図5は外付けカメラ10Aを装着した状態を示す。
ここで、外付けカメラ10Aは上記の上カメラ装置10として用いられ、内蔵カメラ20Aは上記の下カメラ装置20として用いられる。
[携帯端末40Aの構成]
図4および図5に示すように、携帯端末40Aは、ユーザが片手で把持可能なサイズおよび形状の筐体41を有する。筐体41は、前面、裏面および4つの側面によって構成される板状の直方体形状を有する。筐体41の前面42には、例えば液晶パネル、有機ELパネルなどで構成されるディスプレイの画面43が配置されている。ディスプレイの画面43の上には透明なタッチセンサーパネル(図示省略)が配置されている。タッチセンサーパネルは、例えば、静電容量方式などのタッチセンサーパネルで構成される。タッチセンサーパネルは、ユーザによりタッチされた位置に対応する信号を生成し、この信号から座標情報を生成してCPUに供給する。
携帯端末40Aは、上述したようにカメラ20Aを内蔵する。以後、このカメラ20Aを本明細書において「内蔵カメラ20A」と呼ぶ。
筐体41の前面42には、光を内蔵カメラ20Aの撮像レンズ(図示せず)に取り込むための光透過部44が設けられている。この内蔵カメラ20Aの撮像レンズを通して取り込まれた光はCMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)などの撮像素子にて電気的な信号に変換される。この電気的な信号はA/D変換器によって画素毎のデジタルデータに変換されてRAWデータとなる。RAWデータは、信号処理回路によって、例えば、露出、ホワイトバランスなどが設定されたパラメータに従って調整され、現像処理を経て、画像データが生成される。
このように内蔵カメラ20Aによって得られた画像データは携帯端末40A内のCPUおよび表示制御回路によって表示用のデータとされ、ディスプレイに供給されることによってディスプレイの画面43に動画や静止画として表示される。CPUは、ユーザによって指示されたタイミングの画像データを静止画としてストレージやメディアなどに保存する。その際、例えばJPEG(Joint Photographic Experts Group)などの特定の画像フォーマットに変換されてもよい。
次に、この携帯端末40Aの具体的なハードウェア構成を説明する。
図6は、この携帯端末40Aのハードウェア構成を示すブロック図である。この携帯端末40Aのハードウェア構成は、上記第1の実施形態の情報処理装置40と同様である。
同図に示すように、携帯端末40Aは、CPU(制御部)401、メインメモリ402、ストレージ403、内蔵カメラ(下カメラ装置)20A、ディスプレイ404、タッチセンサーパネル405、表示制御部406、タッチセンサー制御部407、姿勢センサー408、無線通信部409およびシステムバス410を備える。
CPU401は、携帯端末40Aの各部の制御をしたり、メインメモリ402を作業空間として用いてアプリケーションプログラムを実行するための演算処理を実行したりするコントローラである。
メインメモリ402は、RAM(Random Access Memory)などで構成される。メインメモリ402には、オペレーティングシステム、このオペレーティングシステム上で実行されるアプリケーションプログラムおよびこのアプリケーションプログラムの動作に必要な各種のデータが格納される。
ストレージ403は、例えば、フラッシュメモリなどの不揮発性メモリで構成される。ストレージ403には、メインメモリ402に呼び出されるオペレーティングシステム、各種のアプリケーションプログラム、画像、音声、ドキュメントなどの各種のデータのファイルが格納される。
内蔵カメラ20Aは、前述したように携帯端末40Aに内蔵されたカメラである。内蔵カメラ20Aは、カメラ用のアプリケーションプログラムに従ってCPU401によって制御される。CPU401は、カメラ用のアプリケーションプログラムに従って、例えば、内蔵カメラ20Aの起動、撮影パラメータや解像度などの各種の撮影条件の設定、現像処理の制御、現像された画像データを表示制御部406に供給して動画や静止画をディスプレイ404に表示させる制御を行う。さらに、CPU401は、カメラ用のアプリケーションプログラムに従って、目線補正のための画像合成を、内蔵カメラ20Aにより撮影された画像および外付けカメラ10Aによって撮影された画像を用いて行う。
ディスプレイ404は、例えば、液晶パネル、有機EL(electroluminescence)パネルなどによって構成され、携帯端末40Aの各種操作画面の表示、静止画および動画などの画像の表示、その他のドキュメントなどの各種のファイルの内容の表示したりする。
表示制御部406は、上記の各種の情報についてディスプレイ404の仕様に対応した表示用のデータを生成する。
タッチセンサーパネル405は、前述したようにディスプレイ404の画面においてユーザにより選択された位置の座標を検出するデバイスである。
タッチセンサー制御部407は、タッチセンサーパネル405を制御し、検出された位置に対応する座標データを生成してCPU401に供給する。
姿勢センサー408は、前述したように携帯端末40Aの姿勢を検知するためのセンサーである。姿勢センサー408は、例えば、3軸方向の加速度を検出する加速度センサーや、角速度を検出するジャイロセンサーなどにより構成される。
無線通信部409は、外部装置(例えば下カメラ装置20)との間で、例えば、WiFi(登録商標)などの無線LAN(Local Area Network)や、例えばNFC(Near field communication)やBlue Tooth(登録商標)などの近距離無線通信などを行うためのインタフェースである。
システムバス410は、上記各ブロック間での各種の信号をやりとりするための伝送路である。
以上、携帯端末40Aの主なハードウェア構成について説明したが、その他の構成としては、例えば、WWAN(Wireless Wide Area Network)通信部、スピーカ、マイクロフォン、メモリカードリードライタ、バッテリおよびその制御回路、GPS(Global Positioning System)受信部、地上デジタルテレビジョン受信部などが搭載されていてもよい。
[外付けカメラ10Aの構成]
図7および図8は外付けカメラ10Aの外観を示す斜視図である。
この外付けカメラ10Aは、カメラ本体11とアダプター12とで構成される。アダプター12はカメラ本体11および外部機器(例えば、携帯端末40A)の各々に対して着脱可能とされている。但し、カメラ本体11とアダプター12は一体化されたものであってもよい。
カメラ本体11は、例えば円筒形の外筒部13を有する。外筒部13内には撮像レンズ、撮像素子、信号処理および画像処理のための回路、コントローラおよびメモリなどの制御用の回路、電源部、画像データ保存のためのストレージ、無線通信回路などが収容されている。
外筒部13の前面側の先端部には、前後方向において移動可能とされた内筒部14が支持されている。図8に示すように、この外付けカメラ10Aは、内筒部14が外筒部13に対して前方へ繰り出されて撮影状態とされ、前方へ繰り出されていた内筒部14が後方へ繰り込まれて外筒部13の内部に収納されることにより沈胴状態(図7)とされる。
内筒部14の前面部には略矩形状の光透過孔15が形成されている。内筒部8の前面部における後面側にはレンズバリアー9、9が開閉自在に支持されている。レンズバリアー9、9は図示しない開閉機構によって沈胴状態において閉じられ撮影状態において開かれる。従って、沈胴状態においてはレンズバリアー9、9によって内筒部8の光透過孔15が閉塞され(図7参照)、撮影状態においてはレンズバリアー9、9によって光透過孔15が開放される(図8参照)。
カメラ本体11の内部には複数の撮影用のレンズ群が光軸方向に離隔して配置されており、レンズバリアー9、9によって光透過孔15が開放されると撮影用のレンズ群に外部から光が入射される。撮影用のレンズ群を通過した光は撮像素子に入射し、画素毎の電気的な信号に変換される。画素毎の電気的な信号は、A/D変換器にてデジタル信号とされ、現像処理を経て、画像データとされる。
外筒部7の前端部の周面には操作リング16が回転自在に支持されている。操作リング16が回動操作されることにより、マニュアルフォーカスやズームが行われレンズ群が光軸方向へ移動される。
外筒部7の外周面には、シャッターボタン17、ズームスイッチ18、その他の操作ボタン/スイッチが設けられている。
アダプター12は、外部機器(例えば携帯端末40A)に掛止される一対の掛止部19、19を有する。一対の掛止部19、19は、アダプター12に対して伸縮自在であり、かつ、任意の伸縮位置でロックすることができる。
一対の掛止部19、19は、アダプター12に対して伸縮自在であることによって、この外付けカメラ10Aは、様々な形状およびサイズの外部機器の様々な部位に装着することができる。
[外付けカメラ10Aのハードウェア構成]
図9は外付けカメラ10Aのハードウェア構成を示すブロック図である。
同図に示すように、この外付けカメラ10Aは、コントローラ501、操作入力部502、撮像部503、信号処理部504、メカ駆動部505、電源部506、ストレージ507、無線通信部508およびシステムバス509を備える。
コントローラ501は、外付けカメラ10Aの各部を制御する。コントローラ501は、CPUとメモリを有する。メモリはメインメモリ402として用いられるRAMと、電源のON/OFF、撮像の開始、静止画の取り込み、および外部機器(例えば携帯端末40A)との通信制御などを実行するためのプログラムが格納されたROMを有する。
コントローラ501は、例えば、無線通信部508を用いて、近距離内に存在する外部機器(例えば携帯端末40A)を検出すると、電源部506に対して電源制御信号を出力し、外付けカメラ10A内の各部への電源の供給を開始させる。また、コントローラ501は、外付けカメラ10Aの各部への電源供給がオンであるとき、近距離内に外部機器(例えば携帯端末40A)が検出されなくなると、各部への電源供給をオフにするように電源部506に電源制御信号を供給する。これによりコントローラ501は機器検出の状態に戻る。
コントローラ501は、無線通信部508を用いて接続された外部機器(例えば携帯端末40A)からの、各種の指令を受け、その指令に応じた処理を行う。外部機器(例えば携帯端末40A)からの指示としては、例えば、撮影開始の指示、撮影中の動画からの静止画の切り出しと(例えば携帯端末40A)への無線伝送、さらにはズームアップ/ズームインなどがある。
操作入力部502は、ユーザからの操作入力を受け付け、操作信号をコントローラ501に出力する。
撮像部503は、撮影レンズと、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子などで構成される。
信号処理部504は、撮像部503の出力をデジタル信号に変換するA/D変換器と、A/D変換器の出力であるRAWデータに対して露光、ホワイトバランスなどの調整、現像処理などを行う。信号処理部504は、必要に応じて、例えばノイズ除去、色調補正、エッジ検出などを行う。
ストレージ507は、撮影された画像データのファイルを保存するために用いられる。ストレージ507は、例えば、フラッシュメモリなどで構成される。
メカ駆動部505は、フォーカス調整、ズーム変更のためにレンズ群を光軸方向に駆動するメカや、内筒部14を進退させる機構、およびレンズバリアー9、9を開閉する機構などの各メカを駆動する回路である。
電源部506は、バッテリと、バッテリから外付けカメラ10Aの各部を動作させるために必要な電力を生成し、各部に供給する。
無線通信部508は、外部装置(例えば携帯端末40A)との間で、例えば、WiFi(登録商標)などの無線LAN(Local Area Network)や、例えばNFC(Near field communication)やBlue Tooth(登録商標)などの近距離無線通信などを行うためのインタフェースである。
その他、カメラ装置は、ディスプレイ、スピーカ、GPS受信部、姿勢センサー、メディアリードライタなどを備えたものであってよい。
次に、この携帯端末40Aを利用するときの姿勢について説明する。
この携帯端末40Aの筐体41の形状は直方体であり、1軸(Z軸)の方向のサイズが特に小さいことによって薄型の直方体となっている。他の2軸(XY軸)の方向によって構成される二次元空間はディスプレイの画面43を配置するために比較的広くなっている。筐体41のX軸方向のサイズLxとY軸方向とのサイズLyとの関係はLx<Lyである。ディスプレイの画面43のX軸方向のサイズDxとY軸方向とのサイズDyの関係もDx<Dyである。
以降の説明において、Y軸方向をユーザから見て縦にした携帯端末40Aの姿勢を「縦姿勢」、X軸方向をユーザから見て縦にした携帯端末40Aの姿勢を「横姿勢」と呼ぶことにする。また、縦姿勢には、ユーザから見て内蔵カメラ20Aの位置がディスプレイの画面43よりも上側となる姿勢(第1の縦姿勢)と、下側となる姿勢(第2の縦姿勢)がある。同様に、横姿勢には、ユーザから見て内蔵カメラ20Aの位置がディスプレイの画面43の右側となる姿勢(第1の横姿勢)と、左側となる姿勢(第2の横姿勢)がある。
携帯端末40Aの上記の各姿勢は、内蔵された加速度センサーおよびジャイロセンサーなどによって検知され、例えば、ユーザから見た上下左右の向きとディスプレイの画面43に表示される画像の上下左右の向きとが一致するように、表示データの向きが回転されるようになっている。
[顔画像処理システム1Aの動作]
携帯端末40Aに、外付けカメラ10Aをアダプター12を介して装着することによって、携帯端末40Aと外付けカメラ10Aとの間での例えば近距離無線通信によって互いの機器が検出される。
外付けカメラ10Aのコントローラ501は、携帯端末40Aを検出すると、電源部506に対して、外付けカメラ10Aの各部への電力の供給を指示する。これにより、カメラユニットは、撮影可能な状態となり、携帯端末40Aからの指令を待機する。
一方、携帯端末40AのCPU401は、外付けカメラ10Aを検出すると、カメラ用のアプリケーションプログラムを起動させる。携帯端末40AのCPU401は、カメラ用のアプリケーションプログラムに従って、内蔵カメラ20Aを起動させて撮影を開始するように制御を行う。また、携帯端末40AのCPU401は、無線通信により、外付けカメラ10Aに対して撮影開始を指示する。これにより、内蔵カメラ20Aと外付けカメラ10Aの各々において撮影が開始される。
内蔵カメラ20Aが起動されると、この内蔵カメラ20Aによって撮影された画像が携帯端末40Aのディスプレイ404の画面43に動画として表示される。
ユーザは、自分の顔を撮影するために、ディスプレイ404の画面43を見ながら、携帯端末40Aの内蔵カメラ20Aの視野に自分の顔が入るように携帯端末40Aの位置と向きを決める。内蔵カメラ20Aのシャッターボタンがユーザによって操作されると、携帯端末40AのCPU401は、その時点で撮影された画像(静止画)を目線補正に用いる第1の顔画像としてメインメモリ402に保持する。
また、携帯端末40AのCPU401は、外付けカメラ10Aに対して、撮影中の動画からの静止画の切り出しとその静止画の伝送を無線通信によって要求する。カメラユニットのコントローラ501は、この要求を受けると、撮影中の動画から静止画を切り出し、この静止画を無線通信によって携帯端末40Aに伝送する。携帯端末40AのCPU401は、外付けカメラ10Aから伝送された画像(静止画)を目線補正に用いる第2の顔画像としてメインメモリ402に保持する。
この後、携帯端末40AのCPU401は、メインメモリ402に保持された2つの顔画像から、上述した目線補正のための合成処理を実行し、その結果をディスプレイ404の画面43に表示する。
なお、2つの顔画像の画調の整合については、本実施形態においても第1の実施形態と同様に行われる。
図10は、本実施形態の顔画像処理システム1Aを用いてユーザが自分の顔を撮影する第1の形態を示す図である。
この第1の撮影形態では、外付けカメラ10AをユーザUの顔を目線Eよりやや高い位置から撮影する上カメラ装置10(図1参照)として用い、内蔵カメラ20AをユーザUの顔を目線Eよりやや低い位置から撮影する下カメラ装置20(図1参照)として用いる場合を想定している。
これは、カメラの画質の高低を左右するスペックが、携帯端末40Aの内蔵カメラ20Aに比較して外付けカメラ10Aの方が高い場合であって、かつ上目線画像を合成する場合に最適な形態である。すなわち、外付けカメラ10Aによって撮影された比較的高画質な画像が、目の部分以外の広い範囲の部分に使用されるからである。
図11は、本実施形態の顔画像処理システム1Aを用いてユーザUが自分の顔を撮影する第2の形態を示す図である。
この第2の撮影形態では、第1の撮影形態とは逆に、外付けカメラ10AをユーザUの顔を目線Eよりやや低い位置から撮影する下カメラ装置20(図1参照)として用い、内蔵カメラ20AをユーザUの顔を目線Eよりやや高い位置から撮影する上カメラ装置10(図1参照)として用いる場合を想定したものである。
携帯端末40Aは、姿勢センサー408によって筐体41の上下の向きが検知されるため、携帯端末40Aの内蔵カメラ20Aおよび外付けカメラ10Aの各々において撮影された画像の上下の向きを回転させることによって、目線補正が施された合成画像を得ることができる。
これは、カメラの画質の高低を左右するスペックが、外付けカメラ10Aに比較して携帯端末40Aの内蔵カメラ20Aの方が高い場合であって、かつ上目線画像を合成する場合に最適な形態である。
<変形例1>
目線補正が施された画像合成後、携帯端末40AのCPU401は、その合成画像と、合成される前の2つの顔画像、あるいは合成される前の2つの顔画像のうち一方とを、ディスプレイ404の画面に同時に表示させるようにしてもよい。
携帯端末40AのCPU401は、同時に表示された上記の各顔画像において、好みの顔画像をユーザに選択させ、選択された顔画像のみを保存するようにしてもよい。
<変形例2>
以上の目線補正において、同時に、ユーザが指示する加工を合成された顔画像に施してもよい。例えば、目や瞳を大きくする加工、美肌加工などの画像編集内容、ユーザが目線補正のオプションとして選択できるようにすればよい。携帯端末40AのCPU401は、選択された目線補正のオプションに従って、合成された顔画像に対して、上記の画像編集を実行する。
<変形例3>
ネットワーク上のサーバ装置のCPUにおいて目線補正を行うようにしてもよい。すなわち、情報処理装置からネットワークを通じてサーバ装置に、2つのカメラによって撮影された2つの顔画像が送信される。サーバ装置のCPUは、受信した2つの顔画像に対して上記の目線補正を行い、合成画像を情報処理装置にネットワークを通じて返信するように構成される。
<変形例4>
外付けカメラ10Aから携帯端末40Aに伝送される画像はRAWデータであってもよい。携帯端末40A内で現像処理を行うことによって、現像処理部を備えていない外付けカメラを使用することが可能になる。
<変形例5>
上記実施形態では、カメラ装置を2機使用したが、1機のカメラ装置をユーザの顔の縦方向に移動させ、上下の各位置にてユーザの顔を計2回撮影するように構成してもよい。したがって、本技術において、カメラの数は1または2である。
<変形例6>
上記実施形態では、目線補正のための画像合成を情報処理装置40あるいは携帯端末40AのCPUで行うものとしたが、複数の情報処理装置で構成される情報処理システムにて処理を分散して行うようにしてもよい。または、1以上の情報処理装置と、これとネットワークを通じて接続されたサーバ装置で構成される情報処理システムにて処理を分散して行ってもよい。あるいは、ネットワークを通じて接続された複数のサーバ装置で構成される情報処理システムにて処理を分散して行ってもよい。
<変形例7>
以上では、静止画の目線補正について述べたが、本技術は、動画の目線補正にも同様に応用することができる。すなわち、例えば、フレーム単位あるいは1/Nフレームの単位で静止画に対する目線補正のための画像合成をすればよい。
この場合、携帯端末40Aをユーザが手にもって2機のカメラの画角内に自分の顔が入るようにする。このため、手振れなどによって、時折、2機のカメラの画角内から顔が外れたり、部分的に収まらなかったりすることがある。
変形例7では、2機のカメラの画角内から顔が外れたり、部分的に収まらなかったりして目線補正のための画像合成に失敗した場合、情報処理装置40あるいは携帯端末40AのCPU401が、最後に合成に成功した目線補正画像で、画像合成に失敗したフレームあるいは1/Nフレームを補間する。これにより、目線補正された動画が途切れることなく表示できる。
<変形例8>
本技術は、3機以上のカメラが接続されている場合にも応用することができる。
例えば、図12に示すように、携帯端末40Aの前方(ユーザU1の側)を視野とする2機のカメラ10A、20Aが縦方向の上下に配置され、それらと対称的に携帯端末40Aの後方を視野とする2機のカメラ10B、20Bが縦方向の上下に配置されたものなどが想定される。
この場合、図12に示すように、携帯端末40Aの前方(ユーザU1の側)を視野とする2機のカメラ10A、20Aは自分の目線補正画像を生成するための撮影に用いられる。携帯端末40Aの後方を視野とする2機のカメラ10B、20Bは、ユーザU1から携帯端末40Aの位置を挟んで反対側にいる人物U2の顔の目線補正画像を生成するための撮影に用いられる。
携帯端末40AのCPU401は、4機のカメラ10A、20A、10B、20Bによって各々撮影された画像から顔を検出し、同一人物の顔を含む画像ペアをもとに目線補正のための画像合成を行う。これにより、ユーザU1自身の目線補正された顔画像のみならず、他の人物U2の目線補正された顔画像を得ることができる。また、携帯端末40Aの後方を視野とする2機のカメラ10B、20Bによって撮影された画像のペアのみに同一人物(人U2)の顔が検出された場合には、その人物U2の目線補正された顔画像のみを合成して得ることができる。
なお、本技術は以下のような構成もとることができる。
(1)異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
具備する情報処理装置。
(2)前記(1)に記載の情報処理装置であって、
前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成された
情報処理装置。
(3)前記(2)に記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成された
情報処理装置。
(4)前記(2)または(3)に記載の情報処理装置であって、
前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高い
情報処理装置。
(5)前記(1)ないし(4)のいずれかに記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成された
情報処理装置。
(6)前記(1)ないし(5)のいずれかに記載の情報処理装置であって、
前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成された
情報処理装置。
(7)前記(2)ないし(6)のいずれかに記載の情報処理装置であって、
前記制御部は、前記取得した2つの画像の画調を合せるように、前記第1の撮像部および前記第2の撮像部の撮影パラメータを整合させるように構成された
情報処理装置。
(8)前記(2)ないし(7)のいずれかに記載の情報処理装置であって、
前記第1の撮像部が、前記情報処理装置に内蔵され、
前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部である
情報処理装置。
(9)前記(1)ないし(8)のいずれかに記載の情報処理装置であって、
前記制御部は、前記生成された目線補正画像に対して編集を行うように構成された
情報処理装置。
1…顔画像処理システム
1A…顔画像処理システム
10…上カメラ装置
10A…外付けカメラ
20…下カメラ装置
20A…内蔵カメラ
40…情報処理装置(情報処理システム)
40A…携帯端末
401…CPU
404…ディスプレイ
409…無線通信部
501…コントローラ
503…撮像部
508…無線通信部

Claims (13)

  1. 異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
    具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記被写体である人物の顔の縦方向において異なる位置から第1の撮像部および第2の撮像部によって撮影された前記人物の顔を含む2つの画像を取得するように構成された
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記取得した2つの画像のうち、相対的に下の位置から撮影された一方の前記画像の目の部分画像を、前記相対的に上の位置から撮影された他方の画像の目の部分画像と置き換えた前記目線補正画像を生成するように構成された
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記第1の撮像部は、前記被写体である人物の顔の縦方向において上側の撮像部であり、前記第2の撮像部は、前記被写体である人物の顔の縦方向において下側の撮像部であり、前記第1の撮像部は撮影画像の画質が前記第2の撮像部よりも高い
    情報処理装置。
  5. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記取得した2つの画像の画調を合せるように、少なくとも一方の画像に対して信号処理を行わせるように構成された
    情報処理装置。
  6. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記目線補正画像と、前記取得した2つの画像のうち少なくともいずれか一方を表示部に同時に表示させるように構成された
    情報処理装置。
  7. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記取得した2つの画像の画調を合せるように、前記第1の撮像部および前記第2の撮像部の撮影パラメータを整合させるように構成された
    情報処理装置。
  8. 請求項2に記載の情報処理装置であって、
    前記第1の撮像部が、前記情報処理装置に内蔵され、
    前記第2の撮像部が、前記情報処理装置に着脱自在に取れ付けられる別体の撮像部である
    情報処理装置。
  9. 請求項1に記載の情報処理装置であって、
    前記制御部は、前記生成された目線補正画像に対して編集を行うように構成された
    情報処理装置。
  10. 異なる位置から人物の顔を撮影する撮像ユニットと、
    前記撮像ユニットによって撮影された前記人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部と
    を具備する情報処理装置。
  11. 制御部が、
    異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する
    情報処理方法。
  12. 異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部を
    具備する情報処理システム。
  13. 異なる位置から撮影された人物の顔を含む2つの画像の、一方の前記画像における目の部分の画像に基づいて、他方の前記画像における目の部分の画像を変えた目線補正画像を生成する制御部として
    コンピュータを機能させるプログラム。
JP2014139750A 2014-07-07 2014-07-07 情報処理装置、情報処理方法、情報処理システムおよびプログラム Pending JP2016019092A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014139750A JP2016019092A (ja) 2014-07-07 2014-07-07 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014139750A JP2016019092A (ja) 2014-07-07 2014-07-07 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Publications (1)

Publication Number Publication Date
JP2016019092A true JP2016019092A (ja) 2016-02-01

Family

ID=55234033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014139750A Pending JP2016019092A (ja) 2014-07-07 2014-07-07 情報処理装置、情報処理方法、情報処理システムおよびプログラム

Country Status (1)

Country Link
JP (1) JP2016019092A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034157A1 (ja) * 2016-08-16 2018-02-22 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および撮像装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018034157A1 (ja) * 2016-08-16 2018-02-22 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および撮像装置
JPWO2018034157A1 (ja) * 2016-08-16 2019-06-13 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および撮像装置
EP3503530A4 (en) * 2016-08-16 2019-08-21 Sony Semiconductor Solutions Corporation IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, AND IMAGE CAPTURE DEVICE
US10878546B2 (en) 2016-08-16 2020-12-29 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and imaging device
JP7059185B2 (ja) 2016-08-16 2022-04-25 ソニーセミコンダクタソリューションズ株式会社 画像処理装置、画像処理方法、および撮像装置

Similar Documents

Publication Publication Date Title
JP6678122B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4442330B2 (ja) 電子カメラ、及び電子カメラシステム
JP6192940B2 (ja) 撮影機器及び連携撮影方法
US9332208B2 (en) Imaging apparatus having a projector with automatic photography activation based on superimposition
US8638372B2 (en) Image capture unit with changeable image capture direction
WO2015194084A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
KR102235231B1 (ko) 촬상 제어장치 및 그 제어 방법
US10063773B2 (en) Photographing apparatus, photographing method and computer-readable storage medium storing photographing program of photographing apparatus
JP2008118276A (ja) カメラ付き移動機器およびその撮影支援方法
JP2015186020A (ja) 表示機器、撮影機器及び表示方法
KR20170057574A (ko) 셀프 촬영용 스틱 및 셀프 촬영용 스틱의 제어 방법
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
JP2014068081A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2016063244A (ja) 撮像装置及び画像表示制御方法
JP2016019092A (ja) 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP7128347B2 (ja) 画像処理装置、画像処理方法及びプログラム、撮影装置
JP2019068261A (ja) 配信システムおよび配信方法、配信装置および配信プログラム、ならびに、受信装置および受信プログラム
JP5615086B2 (ja) 撮像装置、その制御方法及びプログラム
CN111953870A (zh) 电子设备、电子设备的控制方法和计算机可读介质
JP2015126243A (ja) 撮像装置、表示制御装置の制御方法、記録装置の制御方法
JP6456093B2 (ja) 撮像装置、および、撮像装置の制御方法
JP2013115656A (ja) 撮影機器
JP6840903B2 (ja) 撮像装置、撮像方法、及びプログラム
CN112653830B (zh) 合影拍摄实现方法、可穿戴设备、计算机设备和存储介质
JP7054437B2 (ja) 画像処理装置、画像処理方法及びプログラム