JP2018124457A - 顔画像処理装置 - Google Patents
顔画像処理装置 Download PDFInfo
- Publication number
- JP2018124457A JP2018124457A JP2017017120A JP2017017120A JP2018124457A JP 2018124457 A JP2018124457 A JP 2018124457A JP 2017017120 A JP2017017120 A JP 2017017120A JP 2017017120 A JP2017017120 A JP 2017017120A JP 2018124457 A JP2018124457 A JP 2018124457A
- Authority
- JP
- Japan
- Prior art keywords
- user
- image
- unit
- face
- imaging unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
<第1実施形態>
<第2実施形態>
<第3実施形態>
制御用IC12は、第1カメラ7Aと重複するディスプレイ3の領域に他ユーザBの両眼近傍の領域を表示させる。制御用IC12は、他ユーザBが操作する端末1Bから送信された画像情報を受け取る。この情報には、送信された画像情報における他ユーザBの瞳孔位置に関する情報も含まれている。端末1Cの制御用IC12は、当該瞳孔位置に関する情報を利用して、他ユーザBにおける両眼の一方、又は両眼を結ぶ直線の中央が第1カメラ7A上に位置するようにディスプレイ3に表示する。この構成によれば、自ユーザAがディスプレイ3に表示された他ユーザBと視線を合せたとき、第1カメラ7Aを見ることになる。自ユーザAがディスプレイ3に表示された他ユーザBと視線を合わせようとしたとき、自ユーザAの視線は自然に第1カメラ7Aの方向に向く。従って、違和感を低減させ得る画像を得ることができる。
通常、シャッターを切る操作は、端末1Cに備えられた物理的なボタンや、ディスプレイ3に表示されるアイコンが用いられる。この端末1Cでは、第1カメラ7Aによって得られた画像情報を利用してシャッター操作を行うこともできる。制御用IC12Aは、顔方向検出部23における処理によって、顔方向を示すベクトルをリアルタイムに得る。そして、当該ベクトルが所定の変化(例えば、被写体である自ユーザAが顔を上下に往復移動する変化、すなわち頷き動作)が生じたときに、画像を取得する。要するに、シャッターボタンを押す動作に変えて、自ユーザAが頷く動作をシャッター操作とすることができる。また、顔方向のベクトルが第1カメラ7Aと重複するとき、すなわち自ユーザAが第1カメラ7Aを見る動作(注視点を第1カメラ7Aと重複させる動作)をシャッター操作としてもよい。
撮像のタイミングを制御用IC12Aに委ねてもよい。例えば、自ユーザAが自撮り画像を得るとき、準備ができたと判断した自ユーザAはシャッターボタンを押すといった操作を行う。通常であれば、端末1Cはシャッターボタンが押された時点で画像情報を取得する。この機能によれば、シャッターボタンが押された時点では画像情報の取得は行われない。シャッターボタンが押された後に、予め設定された所定の条件を満たしたタイミングで制御用IC12Aが画像情報の取得を行う。従って、シャッターボタンが押されたタイミングでは、撮像に適さない条件(例えば、被写体が眼を閉じている等)であったとしても、制御用IC12Aがその後に現れる撮像に適した条件(例えば、被写体の眼が開いている等)であるときに画像情報を得る。
撮像のタイミングが自ユーザAに委ねられたとき、その撮像は必ずしも成功するわけではなく、失敗することもあり得る。ここでいう撮像のタイミングとは、撮像素子が画像を取得するタイミングともいえるし、事後的に閲覧可能なデータとして画像情報を保存するタイミングともいえる。また、撮像の失敗とは、例えば、被写体である人物が眼を閉じていたり、視線がずれていると感じられるような画像が得られることをいう。
また、位置制御部18と注視点検出部22とを利用することにより次のような機能を奏することもできる。図7に示すように、位置制御部18は、6つの複数の表示領域31a〜31fのそれぞれに顔画像を表示させる。これらの表示領域31a〜31fのそれぞれは、予め他ユーザU1〜U6の顔画像の表示用として割り当てられている。位置制御部18は、1以上の端末から入力された他ユーザU1〜U6の顔画像を、それぞれに割り当てられた表示領域31a〜31fに表示させるように制御する。表示領域31a〜31fの中央には、表示領域31a〜31fよりも目立つようにサイズの大きい表示領域31gが設定されている。これにより、相対的にディスプレイ3が小さくても、自ユーザAが見たい特定の他ユーザの表情等がよく見える状態でコミュニケーションを図ることができる。そして、これらの表示領域31a〜31fの対応する位置に、自ユーザAのユーザ顔画像を撮像するカメラがそれぞれ設けられるのではなく、表示領域31gの対応する位置に自ユーザAの顔画像AGを撮影する第1カメラ7Aが設けられる。この構成によれば、多人数間のコミュニケーションでも一台のカメラで対応できる。
Claims (27)
- 複数の発光素子を有し、前記発光素子を発光させて所定の画像を画像表示面に表示すると共に、前記発光素子を発光させないときに前記画像表示面から入射した光を前記画像表示面の逆側の裏面へ透過させる画像表示部と、
前記画像表示部の前記裏面に対面するように配置され、前記画像表示面から前記裏面へ透過した光を受ける少なくとも一個の撮像部と、
前記画像表示部及び前記撮像部を制御する制御部と、を備え、
前記制御部は、前記発光素子を発光させる第1期間と前記発光素子を発光させない第2期間とが繰り返されるように前記画像表示部を制御し、
前記制御部は、前記第2期間において、前記画像表示面から前記裏面へ透過した光に基づく画像を取得するように前記撮像部を制御する、顔画像処理装置。 - 前記画像表示部から前記撮像部までの距離は、前記第1期間において前記画像表示部から前記撮像部に入射する光の強度が前記撮像部の飽和強度を上回る距離に設定される、請求項1に記載の顔画像処理装置。
- 前記画像表示部と前記撮像部との間に配置され、前記画像表示部の前記裏面に対面する入射面と前記撮像部に対面する出射面とを有する光制御部と、
前記出射面及び前記撮像部を覆うように配置された光遮蔽部と、をさらに備え、
前記光制御部は、前記出射面から前記入射面へ向かう光の強度より前記入射面において反射される光の強度が強くなる関係を満たす反射率及び透過率を有する、請求項1又は2に記載の顔画像処理装置。 - 前記光遮蔽部と前記出射面との間に配置されると共に前記撮像部を囲む光吸収部をさらに備える、請求項3に記載の顔画像処理装置。
- 前記制御部は、外部装置から第1画像情報を受信すると共に、前記第1期間において前記第1画像情報に基づく画像を前記画像表示部に表示させる、請求項1〜4の何れか一項に記載の顔画像処理装置。
- 前記第1画像情報は、前記外部装置に対面する他ユーザの両眼を含んだ画像であり、
前記制御部は、前記撮像部と重複する前記画像表示面の領域に前記他ユーザの両眼近傍の領域を表示させる、請求項5に記載の顔画像処理装置。 - 前記制御部は、前記撮像部から第2画像情報を取得すると共に、前記第1期間において前記第2画像情報に基づく画像を前記画像表示部に表示させる、請求項1〜4の何れか一項に記載の顔画像処理装置。
- 前記第2画像情報は、前記撮像部に対面する自ユーザの両眼を含んだ画像であり、
前記制御部は、前記撮像部と重複する前記画像表示面の領域に前記自ユーザの両眼近傍の領域を表示させる、請求項7に記載の顔画像処理装置。 - 前記撮像部に対面する自ユーザの瞳孔の位置を検出する瞳孔検出部をさらに備える、請求項1〜8の何れか一項に記載の顔画像処理装置。
- 前記瞳孔検出部は、前記自ユーザの前記瞳孔の位置を示す三次元座標を取得する、請求項9に記載の顔画像処理装置。
- 前記制御部は、前記第2期間のうち前記撮像部の露光を行わない期間において、前記自ユーザに向けて光を照射すると共に、前記撮像部とは別の撮像部において前記自ユーザを含む画像を取得する、請求項9又は10に記載の顔画像処理装置。
- 前記自ユーザを含む画像を取得するための操作を前記自ユーザが行ったとき、
前記制御部は、前記自ユーザを含む複数枚の画像を一時的に保持し、
前記瞳孔検出部は、前記自ユーザを含む複数枚の画像に対して前記瞳孔を検出する処理を行い、
前記制御部は、前記瞳孔検出部における処理において、前記瞳孔が検出された画像を保存するように前記撮像部を制御する、請求項9〜11の何れか一項に記載の顔画像処理装置。 - 前記自ユーザを含む画像を取得するための操作を前記自ユーザが行ったとき、
前記瞳孔検出部は、リアルタイムに取得される前記自ユーザを含む画像に対して前記瞳孔を検出する処理を行い、
前記制御部は、前記瞳孔検出部における処理において、前記瞳孔が検出されたときに前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項9〜12の何れか一項に記載の顔画像処理装置。 - 前記自ユーザを含む画像には、前記自ユーザを含む複数の人物像が含まれ、
前記瞳孔検出部は、前記自ユーザを含む画像から、すべての前記人物像に対して瞳孔を検出する処理を行い、
前記制御部は、前記瞳孔検出部における処理において、すべての前記人物像から前記瞳孔が検出されたときに前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項9〜13の何れか一項に記載の顔画像処理装置。 - 前記撮像部に対面する自ユーザが注視する前記画像表示部上の注視点の位置を検出する注視点検出部をさらに備え、
前記注視点検出部は、前記撮像部に対面する前記自ユーザの瞳孔の位置と、
前記自ユーザに照射された光が前記自ユーザの角膜において反射した位置とを利用して前記注視点の位置を検出する、請求項1〜7の何れか一項に記載の顔画像処理装置。 - 前記自ユーザを含む画像を取得するための操作を前記自ユーザが行ったとき、
前記注視点検出部は、リアルタイムに取得される前記自ユーザを含む画像に対して前記注視点の位置を検出する処理を行い、
前記制御部は、前記画像表示部上における前記注視点の位置と前記撮像部の位置とを対比し、前記注視点の位置と前記撮像部の位置とがほぼ一致し、重複していると判断されたときに前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項15に記載の顔画像処理装置。 - 前記撮像部に対面する自ユーザの顔方向を検出する顔方向検出部を更に備え、
前記顔方向検出部は、前記自ユーザの鼻孔の位置と、前記自ユーザの瞳孔の位置とを利用して前記顔方向を検出する、請求項1〜8の何れか一項に記載の顔画像処理装置。 - 前記顔方向検出部は、リアルタイムに取得される前記自ユーザを含む画像に対して前記顔方向を検出する処理を行い、
前記制御部は、前記顔方向が所定の変化を生じたときに前記自ユーザを含む画像を保存するように前記撮像部を制御し、
前記所定の変化とは、前記自ユーザの頷きを示す前記顔方向の変化である、請求項17に記載の顔画像処理装置。 - 前記撮像部に対面する自ユーザの視線方向を検出する視線方向検出部をさらに備え、
前記視線方向検出部は、前記撮像部に対面する前記自ユーザが注視する前記画像表示部上の注視点の位置を検出する注視点検出部と、前記撮像部に対面する前記自ユーザの顔方向を検出する顔方向検出部を有し、
前記注視点検出部は、前記撮像部に対面する前記自ユーザの瞳孔の位置と、
前記自ユーザに照射された光が前記自ユーザの角膜において反射した位置とを利用して前記注視点の位置を検出し、
前記顔方向検出部は、前記自ユーザの鼻孔の位置と、前記自ユーザの瞳孔の位置とを利用して前記顔方向を検出する、請求項1〜8の何れか一項に記載の顔画像処理装置。 - 前記視線方向検出部は、リアルタイムに取得される前記自ユーザを含む画像に対して前記視線方向を検出する処理を行い、
前記制御部は、前記視線方向の延長線と前記撮像部とが重複するか否かを判断し、前記視線方向の延長線と前記撮像部とが重複するときに前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項19に記載の顔画像処理装置。 - 前記視線方向検出部及び前記顔方向検出部は、リアルタイムに取得される前記自ユーザを含む画像に対して前記視線方向及び前記顔方向の方向を検出する処理を行い、
前記制御部は、前記視線方向の延長線と前記撮像部とが重複するか否かを判断した結果、前記視線方向の延長線と前記撮像部とが重複すると共に、前記顔方向の延長線と前記撮像部とが重複するか否かを判断した結果、前記顔方向の延長線と前記撮像部とが重複するときに、前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項19に記載の顔画像処理装置。 - 前記自ユーザを含む画像には、前記自ユーザの像を含む複数の人物像が含まれ、
前記視線方向検出部は、前記自ユーザを含む画像から、すべての前記人物像に対して前記視線方向を検出する処理を行い、
前記制御部は、前記視線方向検出部における処理において、すべての前記人物像の前記視線方向の延長線と前記撮像部とが重複するときに前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項19に記載の顔画像処理装置。 - 前記自ユーザを含む画像には、前記自ユーザの像を含む複数の人物像が含まれ、
前記視線方向検出部及び前記顔方向検出部は、前記自ユーザを含む画像から、すべての前記人物像に対して前記視線方向及び前記顔方向を検出する処理を行い、
前記制御部は、すべての前記人物像における前記視線方向の延長線と前記撮像部とが重複するか否かを判断した結果、すべての前記人物像における前記視線方向の延長線と前記撮像部とが重複すると共に、すべての前記人物像における前記顔方向の延長線と前記撮像部とが重複するか否かを判断した結果、すべての前記人物像における前記顔方向の延長線と前記撮像部とが重複するときに、前記自ユーザを含む画像を保存するように前記撮像部を制御する、請求項19に記載の顔画像処理装置。 - 前記制御部は、外部装置と対面する自ユーザを含むと共に前記画像表示部に表示される画像のサイズを、前記外部装置で算出された前記自ユーザの両眼の三次元位置に応じて補正する、請求項1〜23の何れか一項に記載の顔画像処理装置。
- 前記制御部は、前記撮像部に対面する自ユーザの顔方向又は視線方向を基に、前記画像表示面に設定される複数の表示領域のうち前記顔方向又は前記視線方向が示す注目表示領域を特定し、前記注目表示領域に表示させる他ユーザの画像を強調表示させるように制御する、請求項1〜8の何れか一項に記載の顔画像処理装置。
- 前記制御部は、前記撮像部に対面する自ユーザの顔方向又は視線方向を基に、前記画像表示面に設定される複数の表示領域のうち前記顔方向又は前記視線方向が示す注目表示領域を特定し、前記注目表示領域に対応する他ユーザの使用する外部装置に対して、前記撮像部によって取得された前記自ユーザの画像とともに前記特定の結果を出力し、
前記外部装置から、前記他ユーザの画像とともに前記特定の結果を取得した場合には、前記他ユーザの画像を強調表示させるように制御する、請求項1〜8及び請求項25の何れか一項に記載の顔画像処理装置。 - 前記制御部は、外部からのドラック入力により、複数の他ユーザの画像の表示位置を、前記複数の表示領域の間で変更可能に構成される、請求項25又は26に記載の顔画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017120A JP2018124457A (ja) | 2017-02-01 | 2017-02-01 | 顔画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017017120A JP2018124457A (ja) | 2017-02-01 | 2017-02-01 | 顔画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018124457A true JP2018124457A (ja) | 2018-08-09 |
Family
ID=63109071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017017120A Pending JP2018124457A (ja) | 2017-02-01 | 2017-02-01 | 顔画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018124457A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020039014A (ja) * | 2018-08-31 | 2020-03-12 | 株式会社コロプラ | プログラム、情報処理装置、および方法 |
WO2021106513A1 (ja) * | 2019-11-29 | 2021-06-03 | ソニーセミコンダクタソリューションズ株式会社 | 電子機器 |
WO2023170929A1 (ja) * | 2022-03-11 | 2023-09-14 | マクセル株式会社 | 携帯情報端末及びそれに用いる画像表示方法 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981475A (ja) * | 1995-09-18 | 1997-03-28 | Toshiba Corp | 情報端末装置 |
JP2007004277A (ja) * | 2005-06-21 | 2007-01-11 | Sharp Corp | 監視装置、監視プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2007096440A (ja) * | 2005-09-27 | 2007-04-12 | Casio Comput Co Ltd | 撮像装置 |
JP2008182485A (ja) * | 2007-01-24 | 2008-08-07 | Fujifilm Corp | 撮影装置及び撮影方法 |
JP2010183160A (ja) * | 2009-02-03 | 2010-08-19 | Olympus Corp | 制御装置及び撮像装置 |
JP2010206307A (ja) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム |
US20130182062A1 (en) * | 2012-01-12 | 2013-07-18 | Samsung Electronics Co. Ltd. | Apparatus and method for taking image and conducting video communication |
US20150049165A1 (en) * | 2013-08-16 | 2015-02-19 | Kwonhue CHOI | Apparatus for eye contact video call |
JP2015049712A (ja) * | 2013-09-02 | 2015-03-16 | セイコーエプソン株式会社 | 情報処理装置および情報処理方法 |
JP2015232771A (ja) * | 2014-06-09 | 2015-12-24 | 国立大学法人静岡大学 | 顔検出方法、顔検出システム、および顔検出プログラム |
-
2017
- 2017-02-01 JP JP2017017120A patent/JP2018124457A/ja active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0981475A (ja) * | 1995-09-18 | 1997-03-28 | Toshiba Corp | 情報端末装置 |
JP2007004277A (ja) * | 2005-06-21 | 2007-01-11 | Sharp Corp | 監視装置、監視プログラムおよびコンピュータ読み取り可能な記録媒体 |
JP2007096440A (ja) * | 2005-09-27 | 2007-04-12 | Casio Comput Co Ltd | 撮像装置 |
JP2008182485A (ja) * | 2007-01-24 | 2008-08-07 | Fujifilm Corp | 撮影装置及び撮影方法 |
JP2010183160A (ja) * | 2009-02-03 | 2010-08-19 | Olympus Corp | 制御装置及び撮像装置 |
JP2010206307A (ja) * | 2009-02-27 | 2010-09-16 | Toshiba Corp | 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム |
US20130182062A1 (en) * | 2012-01-12 | 2013-07-18 | Samsung Electronics Co. Ltd. | Apparatus and method for taking image and conducting video communication |
US20150049165A1 (en) * | 2013-08-16 | 2015-02-19 | Kwonhue CHOI | Apparatus for eye contact video call |
JP2015049712A (ja) * | 2013-09-02 | 2015-03-16 | セイコーエプソン株式会社 | 情報処理装置および情報処理方法 |
JP2015232771A (ja) * | 2014-06-09 | 2015-12-24 | 国立大学法人静岡大学 | 顔検出方法、顔検出システム、および顔検出プログラム |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020039014A (ja) * | 2018-08-31 | 2020-03-12 | 株式会社コロプラ | プログラム、情報処理装置、および方法 |
WO2021106513A1 (ja) * | 2019-11-29 | 2021-06-03 | ソニーセミコンダクタソリューションズ株式会社 | 電子機器 |
US20220368833A1 (en) * | 2019-11-29 | 2022-11-17 | Sony Semiconductor Solutions Corporation | Electronic equipment |
WO2023170929A1 (ja) * | 2022-03-11 | 2023-09-14 | マクセル株式会社 | 携帯情報端末及びそれに用いる画像表示方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6569707B2 (ja) | 画像制御装置及び画像制御方法 | |
CN106471419B (zh) | 管理信息显示 | |
US10915180B2 (en) | Systems and methods for monitoring a user's eye | |
EP3809241B1 (en) | System and method for enabling communication through eye feedback | |
CN106132284B (zh) | 光学眼动追踪 | |
US9886111B2 (en) | Wearable electronic apparatus and acquisition control method | |
US9110502B2 (en) | Motion sensing display apparatuses | |
CN106663183A (zh) | 眼睛跟踪及用户反应探测 | |
KR20130108643A (ko) | 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들 | |
JP2018124457A (ja) | 顔画像処理装置 | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
US20240020371A1 (en) | Devices, methods, and graphical user interfaces for user authentication and device management | |
JP2017191546A (ja) | 医療用ヘッドマウントディスプレイ、医療用ヘッドマウントディスプレイのプログラムおよび医療用ヘッドマウントディスプレイの制御方法 | |
JP2013145323A (ja) | カメラ付きミラー装置、ミラー付き什器 | |
US20240104860A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240152244A1 (en) | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments | |
US20240104859A1 (en) | User interfaces for managing live communication sessions | |
US20240103608A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
US20240153205A1 (en) | Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences | |
US20240104819A1 (en) | Representations of participants in real-time communication sessions | |
US20240103677A1 (en) | User interfaces for managing sharing of content in three-dimensional environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200114 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210416 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210518 |