JP2015142317A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2015142317A
JP2015142317A JP2014015474A JP2014015474A JP2015142317A JP 2015142317 A JP2015142317 A JP 2015142317A JP 2014015474 A JP2014015474 A JP 2014015474A JP 2014015474 A JP2014015474 A JP 2014015474A JP 2015142317 A JP2015142317 A JP 2015142317A
Authority
JP
Japan
Prior art keywords
camera
user
smartphone
display area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014015474A
Other languages
English (en)
Inventor
浩志 和田
Hiroshi Wada
浩志 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014015474A priority Critical patent/JP2015142317A/ja
Priority to US15/108,333 priority patent/US10075629B2/en
Priority to PCT/JP2015/050719 priority patent/WO2015115173A1/ja
Priority to CN201580006197.2A priority patent/CN105940668A/zh
Publication of JP2015142317A publication Critical patent/JP2015142317A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】ユーザがカメラを正視した状態で自分撮りを行なうことができる電子機器を提供する。【解決手段】スマートフォンは、モニタと、モニタの表示面側に配置されたカメラと、スマートフォンを制御するためのCPU2とを備える。CPU2は、カメラが被写体を撮影中に、スマートフォンのユーザの視線をカメラに導くためのオブジェクトを、スマートフォンにおけるカメラの配置位置から予め定められた範囲内にあるモニタ上の第1の表示領域に表示するための表示制御部220を含む。【選択図】図3

Description

本開示は電子機器の制御に関し、より特定的には、撮影機能およびタッチ操作機能を備える電子機器の制御に関する。
近年、撮影機能を備えた、スマートフォン、タブレット端末その他の携帯型の電子機器が普及している。カメラが、所謂インカメラとして表示装置側に配置されている場合、電子機器のユーザは、リアルタイムに表示装置に表示されたスルー画像を確認しながら自分自身を撮影する、所謂自分撮りと呼ばれる撮影を実行できる。ユーザが自分撮りを行なう場合には、ユーザは、カメラではなくスルー画像を注視してしまう傾向にあり、撮影画像に写っているユーザの視線がユーザの意図しないものになることがある。
特許文献1は、このような問題を解決するために、「撮影光軸の撮影方向と、表示手段の表示方向が揃うような、自分撮り撮影の場合でも、被写体の視線が表示手段の表示を見たままで視線をはずした撮影にならない撮影装置」を開示している。当該撮像装置は、撮影を実行する直前にスルー画像を消すことによりユーザの視線をスルー画像から逸らす。
特開2007−116601号公報
ところで、近年の小型化されたスマートフォンなどの電子機器においては、カメラがいずれの場所に配置されているのかを把握することが困難な場合がある。特許文献1に開示される撮影装置のようにスルー画像が消されたからといって、ユーザは、当該撮像装置におけるカメラの配置位置を把握できるわけではない。このため、ユーザは、カメラを正視した状態で撮影を実行できず、依然として、撮影画像に写っているユーザの視線が意図しないものになる可能性がある。したがって、ユーザが自分撮りを行なう場合に、カメラを正視した状態でユーザを撮影するための技術が必要とされている。
本開示は、上述のような問題点を解決するためになされたものであって、ある局面における目的は、ユーザがカメラを正視した状態で自分撮りを行なうことができる電子機器を提供することである。
一実施の形態に従うと、モニタと、モニタの表示面側に配置されたカメラと、電子機器を制御するための制御装置とを備える電子機器が提供される。制御装置は、カメラが被写体を撮影中に、電子機器のユーザの視線をカメラに導くためのオブジェクトを、電子機器におけるカメラの配置位置から予め定められた範囲内にあるモニタ上の第1の表示領域に表示するための表示制御手段を含む。
ある局面において、電子機器は、ユーザがカメラを正視した状態で自分撮りを行なうことができる。
本発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
第1の実施の形態に従うスマートフォンの表示態様を示している図である。 第1の実施の形態に従うスマートフォンの主要なハードウェア構成を示すブロック図である。 第1の実施の形態に従うスマートフォンの機能構成を示すブロック図である。 第1の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第2の実施の形態に従うスマートフォンの表示態様を示している図である。 第3の実施の形態に従うスマートフォンの表示態様を示している図である。 第3の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第4の実施の形態に従うスマートフォン表示態様を示している図である。 第5の実施の形態に従うスマートフォンの表示態様を示している図である。 第6の実施の形態に従うスマートフォンの表示態様を示している図である。 第6の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第7の実施の形態に従うスマートフォンの表示態様を示している図である。 第7の実施の形態に従うスマートフォンの機能構成を示すブロック図である。 第7の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第8の実施の形態に従うスマートフォンの表示態様を示している図である。 第9の実施の形態に従うスマートフォンの表示態様を示している図である。 第9の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第10の実施の形態に従うスマートフォンをユーザが自分撮りをしている間に90度回転させた場合の表示態様を示している図である。 第10の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。 第11の実施の形態に従うスマートフォンの表示態様を示している図である。 第11の実施の形態に従うスマートフォンが実行する処理の一部を表わすフローチャートである。
以下、図面を参照しつつ、本実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。
なお、以下では、電子機器の一例として機能するスマートフォンの詳細について説明するが、電子機器は、スマートフォンに限定されるものではない。たとえば、電子機器は、タブレット端末、デジタルカメラ、ゲーム機、電子辞書、パソコン、PDA(Personal Digital Assistants)、自分撮りが可能なその他の携帯端末装置も含み得る。また、以下で説明される各実施の形態は、選択的に組み合わされてもよい。
<第1の実施の形態>
[概要]
図1を参照して、第1の実施の形態に係るスマートフォン100の概要について説明する。図1は、ユーザが自分撮りを行なっている場合のスマートフォン100の表示態様を示している図である。
図1(A)に示されるように、スマートフォン100は、カメラ4と、モニタ5とを備える。モニタ5は、スマートフォン100のユーザ30を撮影して得られたスルー画像をリアルタイムに表示している。カメラ4は、モニタ5の表示面側に配置され、これにより、ユーザ30は、スルー画像を確認しながら自分撮りを行なうことができる。
ユーザ30は、自分撮りを行なっている場合に、カメラ4ではなく、モニタ5に表示されたスルー画像を見てしまう傾向にある。ユーザ30がカメラ4を正視していない状態で撮影を実行すると、視線が不自然な撮影画像が得られる。
図1(B)に示されるように、スマートフォン100は、カメラ4が被写体を撮影中に、ユーザ30の視線をカメラ4に導くためのオブジェクトをカメラ4の配置位置から予め定められた範囲内にあるモニタ5上のオブジェクト表示領域32に表示する。これにより、ユーザは、カメラの近傍に表示されたオブジェクトを注視するようになり、カメラ4を正視した状態で撮影を行なうことが可能になる。
たとえば、オブジェクトとしては、ユーザ30の顔画像が挙げられる。ユーザの顔画像がオブジェクト表示領域32に表示されることにより、ユーザは、カメラ4に視線を向けながら、自身の表情などを確認することができ、カメラ4を正視した状態で撮影を実行でき、ユーザ30が意図した目線が自然な画像を得ることができる。
なお、オブジェクトは、顔画像に限定されない。たとえば、オブジェクトは、後述する、アニメーション、アイコン、矢印、撮影指示を受け付けるためのボタン、スルー画像自体などであってもよい。
[ハードウェア構成]
図2を参照して、第1の実施の形態に従うスマートフォン100のハードウェア構成の一例について説明する。図2は、スマートフォン100の主要なハードウェア構成を示すブロック図である。図2に示されるように、スマートフォン100は、ROM(Read Only Memory)1と、CPU(Central Processing Unit)2と、RAM(Random Access Memory)3と、カメラ4と、モニタ5と、センサ6と、カメラインタフェース(I/F)7と、ネットワークインタフェース(I/F)8と、記憶装置20とを備える。
ROM1は、オペレーティングシステム(OS:Operating System)、スマートフォン100の起動時に実行される初期プログラム(ブートプログラム)などを格納する。CPU2は、ROM1や記憶装置20などに格納された、オペレーティングシステムやスマートフォン100の制御プログラムなどの各種プログラムを実行することで、スマートフォン100の動作を制御する。RAM3は、CPU2でプログラムを実行するためのワーキングメモリとして機能し、プログラムの実行に必要な各種データを一時的に格納する。
カメラ4は、レンズと、CMOS(Complementary Metal-Oxide Semiconductor)その他の撮像素子と、オートフォーカス機構とを含む。モニタ5は、カメラ4が有する撮像素子からの出力を画像として表示する。また、モニタ5は、タッチセンサ(図示しない)と組み合わされてタッチパネルとして構成されてもよい。
センサ6は、加速度センサ、角速度センサ、スマートフォン100の傾きを検出するためのその他のセンサを含む。センサ6は、加速度、傾きなどの検出した結果をCPU2に出力する。
外部のカメラ装置とスマートフォン100とは、カメラI/F7を介して接続される。カメラI/F7は、たとえば、USB(Universal Serial Bus)である。外部のカメラ装置は、被写体を撮影して得た画像データをカメラI/F7を介してスマートフォン100に送ることができる。
ネットワークI/F8は、アンテナ8Aを介して、他の通信機器とデータの送受信を行なう。他の通信機器は、たとえば、スマートフォン、パソコン、サーバ装置、その他通信機能を有する電子機器などである。
記憶装置20は、たとえば、eMMC(Embedded MultiMediaCard)などの記憶媒体を含む。eMMCは、NANDフラッシュメモリと、制御回路とを含む。記憶装置20は、本実施の形態に従う各種の処理を実現するためのプログラムなどを格納する。また、記憶装置20は、オペレーティングシステムなどのプログラムを格納していてもよい。記憶装置20には、スマートフォン100上のカメラの位置を示すカメラ位置情報21が格納される。カメラ位置情報21は、たとえば、スマートフォン100上の座標として示される。
[機能構成]
図3を参照して、スマートフォン100の機能構成の一例について説明する。図3は、スマートフォン100の機能構成を示すブロック図である。CPU2は、抽出部210と、表示制御部220とを含む。
抽出部210は、カメラ4によって取得されたスルー画像からユーザの顔画像を抽出する。抽出部210は、たとえば、記憶装置20に予め登録された顔画像を基準画像として、スルー画像から基準画像を探索することにより顔画像を抽出する。抽出部210は、抽出した顔画像を表示制御部220に出力する。
表示制御部220は、予め定められたスマートフォン100上のカメラ位置情報21を取得して、当該カメラ位置情報21で示されるスマートフォン100上の位置から予め定められた範囲内にあるモニタ5上の領域をオブジェクト表示領域32として決定する。表示制御部220は、カメラ4が被写体を撮影中に、カメラ4から取得したスルー画像をオブジェクト表示領域32とは異なるモニタ5上の表示領域(以下、「スルー画像表示領域」ともいう。)に表示すると共に、抽出部210によって抽出された顔画像をオブジェクトとしてオブジェクト表示領域32に表示する。
なお、表示制御部220は、カメラ位置情報21で示される位置から最も近いモニタ上の領域をオブジェクト表示領域32として決定してもよい。
[制御構造]
図4を参照して、スマートフォン100の制御構造について説明する。図4は、スマートフォン100が実行する処理の一部を表わすフローチャートである。図4の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。
ステップS500において、CPU2は、ユーザの指示に基づいてカメラを起動する。ステップS510において、CPU2は、撮影モードが自分撮りモードであるか否かを判断する。CPU2は、撮影モードが自分撮りモードであると判断した場合には(ステップS510においてYES)、制御をステップS520に切り替える。そうでない場合には(ステップS510においてNO)、CPU2は、制御をステップS522に切り替える。
ステップS520において、CPU2は、抽出部210として、カメラ4から取得した画像に顔画像が含まれるか否かを判断する。CPU2は、カメラ4から取得した画像に顔画像が含まれると判断した場合には(ステップS520においてYES)、制御をステップS524に切り替える。そうでない場合には(ステップS520においてNO)、CPU2は、制御をステップS522に切り替える。
ステップS522において、CPU2は、オブジェクト表示領域32にオブジェクトを表示せずに、被写体を撮影して得られたスルー画像をモニタ5に表示する。ステップS524において、CPU2は、抽出部210として、撮影画像から顔画像を生成する。ある局面において、CPU2は、撮影画像から顔画像を切り出す(トリミング)ことにより顔画像を生成する。
ステップS526において、CPU2は、表示制御部220として、カメラ位置情報から画面レイアウトを構成し、当該レイアウトをモニタ5に表示する。ある局面において、CPU2は、カメラ位置情報21に応じて決定したオブジェクト表示領域32にオブジェクトを表示すると共に、被写体を撮影して得られたスルー画像をモニタ5に表示する。ステップS528において、CPU2は、タッチパネルとして構成されるモニタ5に対するユーザのタッチ操作に基づいて、撮影機能を実行する(カメラ4のシャッターを切る)。
<第2の実施の形態>
図5を参照して、第2の実施の形態に従うスマートフォン100Aの概要について説明する。図5は、ユーザが自分撮りをしている場合のスマートフォン100Aの表示態様を示している図である。スマートフォン100Aは、オブジェクトとして顔画像を表示する代わりに、カメラ4を指す矢印画像37をオブジェクト表示領域に表示する点で第1の実施の形態に従うスマートフォン100とは異なる。ハードウェア構成などのその他の点については第1の実施の形態に従うスマートフォン100と同じであるので、説明を繰り返さない。
矢印画像37のようにカメラ4を直接的に指す画像がオブジェクト表示領域に表示されることで、ユーザは、視線を向ける場所をより直感的に把握することができる。
<第3の実施の形態>
図6を参照して、第3の実施の形態に従うスマートフォン100Bの概要について説明する。図6は、ユーザが自分撮りをしている場合のスマートフォン100Bの表示態様を示している図である。スマートフォン100Bは、オブジェクトとして顔画像を表示する代わりに、アイコン38をオブジェクト表示領域に表示する点で第1の実施の形態に従うスマートフォン100とは異なる。ハードウェア構成などのその他の点については第1の実施の形態に従うスマートフォン100と同じであるので説明を繰り返さない。
スマートフォン100Bは、検出した表示領域が狭いために顔画像をモニタに表示できないような場合であっても、アイコンのような比較的小さくてもユーザが認識できるものがオブジェクト表示領域に表示されれば、ユーザの視線をカメラ4に導くことができる。
[制御構造]
図7を参照して、スマートフォン100Bの制御構造について説明する。図7は、スマートフォン100Bが実行する処理の一部を表わすフローチャートである。図7の処理は、CPU2がプログラムを実行することにより実現される。ある局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図7に示される各ステップのうち図4に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS600において、CPU2は、表示制御部220として、カメラ4が被写体を撮影中に、カメラ位置情報より決定したオブジェクト表示領域にアイコン38を表示すると共に、被写体を撮影して得られた画像をスルー画像表示領域に表示する。
ステップS602において、CPU2は、フォーカス調整などのカメラ制御、または、タッチパネルとして構成されるモニタ5へのユーザのタッチ操作に基づいて、後述するアニメーションによる視線の誘導を実行する。
<第4の実施の形態>
図8を参照して、第4の実施の形態に従うスマートフォン100Cの概要について説明する。図8は、ユーザが自分撮りをしている場合のスマートフォン100Cの表示態様を示している図である。スマートフォン100Cは、スルー画像から切り出した顔画像をオブジェクトとして表示する代わりに、スルー画像の顔位置31がカメラ4に近付くようにスルー画像自体をスライドして表示する点で、第1の実施の形態に従うスマートフォン100とは異なる。その他の点については第1の実施の形態に従うスマートフォン100と同じであるので説明を繰り返さない。
本実施の形態によれば、スマートフォン100Cがスルー画像自体をオブジェクト表示領域に表示することにより、ユーザは、カメラ4に視線を向けながら、かつ、自身の表情などを確認しながら撮影を実行することができる。
<第5の実施の形態>
図9を参照して、第5の実施の形態に従うスマートフォン100Dの概要について説明する。図9は、ユーザが自分撮りをしている場合のスマートフォン100Dの表示態様を示している図である。スマートフォン100Dは、カメラ4によって取得された画像を記憶装置20に保存するための撮影機能の実行を受け付けるボタン39をオブジェクトとしてオブジェクト表示領域に表示する点で、第1の実施の形態に従うスマートフォン100とは異なる。その他の点については第1の実施の形態に従うスマートフォン100と同じであるので、説明を繰り返さない。
本実施の形態によれば、撮影機能を実行するためのボタン39がカメラ4の近傍に表示されることで、ユーザは、ボタン39に視線を向けながら撮影機能を実行することができ、ユーザ30が意図するカメラ4を正視した画像を得ることができる。
<第6の実施の形態>
[概要]
図10を参照して、第6の実施の形態に従うスマートフォン100Eの概要について説明する。図10は、ユーザが自分撮りをしている場合のスマートフォン100Eの表示態様を示している図である。スマートフォン100Eは、顔位置31とカメラ4との間の表示領域に、ユーザ30の視線を顔位置31からカメラ4の方向に導くためのアニメーション35を表示する点で第1の実施の形態に従うスマートフォン100と異なる。
スマートフォン100Eは、ユーザが注視する傾向にある顔位置31を始点とするアニメーションをモニタ5に表示することで、顔位置31からカメラ4にユーザの視線を導くことができる。なお、第6の実施の形態に係るスマートフォン100Eのハードウェア構成は、図2に示される構成と同様である。したがって、ハードウェア構成の説明は繰り返さない。
[制御構造]
図11を参照して、スマートフォン100Eの制御構造について説明する。図11は、スマートフォン100Eが実行する処理の一部を表わすフローチャートである。図11の処理は、CPU2がプログラムを実行することにより実現される。ある局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図11に示される各ステップのうち図4に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS700において、CPU2は、表示制御部220として、カメラ4が被写体を撮影中に、モニタ5に表示されたスルー画像に含まれるユーザ30の顔位置31とカメラ4との間の表示領域にアニメーション35を表示する。なお、CPU2は、アニメーションを所定のタイミングで表示してもよい。たとえば、CPU2は、カメラ4のピントがあったことに基づいてアニメーション35を表示してもよい。ある局面において、スマートフォン100Eは、フォーカスの調整中にアニメーション35を表示してもよい。他の局面において、スマートフォン100Eは、ユーザのモニタ5に対するタッチ操作に基づいて、アニメーション35を表示してもよい。
<第7の実施の形態>
[概要]
図12を参照して、第7の実施の形態に従うスマートフォン100Fについて説明する。図12は、ユーザが自分撮りをしている場合のスマートフォン100Fの表示態様を示している図である。スマートフォン100Fは、ユーザの視線からカメラ位置を推定する点で第1の実施の形態に従うスマートフォン100と異なる。
なお、第7の実施の形態に係るスマートフォン100Fのハードウェア構成は、記憶装置20がカメラ位置情報21を有さなくてもよい点を除いて図2に示される構成と同様である。したがって、ハードウェア構成の説明は繰り返さない。
図12(A)に示されるように、ユーザ30は、上端にカメラ4が設けられたスマートフォン100Fを用いて自分撮りを行なっている。このとき、ユーザ30は、モニタ5に写った自身の顔を注視する傾向にあり、視線はカメラの配置位置と反対側に向く。たとえば、図12(B)に示されるように、カメラ4がスマートフォン100Fの上部に配置されている場合には、視線が下向きになる可能性が高い。スマートフォン100Fは、ユーザの視線とは反対側にカメラが配置されていると推定し、推定したカメラ位置から予め定められた範囲内にあるオブジェクト表示領域32にオブジェクト(たとえば、顔画像)を表示する。
スマートフォン100Fは、ユーザの視線からカメラ位置を推定できるので、カメラ位置情報が取得できない場合、または、カメラ位置情報が規定されていない場合などであっても、ユーザの視線をカメラ4に誘導することができる。また、スマートフォン100Fは、カメラ位置が規定されていないような電子機器であっても対応できるので、あらゆる機器に対応できるようになる。
[機能構成]
図13を参照して、スマートフォン100Fの機能構成の一例について説明する。図13は、スマートフォン100Fの機能構成を示すブロック図である。なお、図3に示される構成と同じ構成には同じ番号を付してある。したがって、同じ構成の説明は繰り返さない。
CPU2は、抽出部210と、表示制御部220と、視線検出部230と、推定部240とを含む。視線検出部230は、抽出部210によって抽出された顔画像から、スマートフォン100Fに向けられたユーザの視線を検出する。視線検出部230は、たとえば、顔画像に含まれるユーザの瞳孔の位置からユーザの視線を検出する。視線検出部230は、一例として、ユーザの視線をスマートフォン100F上の座標として検出する。
ある局面において、視線検出部230は、アイトラッキングにより視線を検出する。また、視線検出部230は、ユーザの眼球をビデオ撮影した動画像や、ユーザを撮像して得られた静止画像から画像処理によって視線を検出してもよい。視線検出部230は、検出した視線を推定部240に出力する。
推定部240は、スマートフォン100Fにおけるカメラ4の配置位置を視線検出部230によって出力された視線から推定する。推定部240は、たとえば、視線とは反対方向の、スマートフォン100F上の領域のうちモニタ5を除く縁領域内の位置をカメラ4の配置位置として推定する。
表示制御部220は、推定部240によって推定されたカメラ4の配置位置から予め定められた範囲内にあるモニタ5上の領域をオブジェクト表示領域として決定し、当該オブジェクト表示領域にオブジェクト(たとえば、顔画像)を表示する。
[制御構造]
図14を参照して、スマートフォン100Fの制御構造について説明する。図14は、スマートフォン100Fが実行する処理の一部を表わすフローチャートである。図14の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図14に示される各ステップのうち図4および図11に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS800において、CPU2は、視線検出部230として、顔画像を解析することによりユーザの視線を視線検出部230として検出する。CPU2は、推定部240として、検出した視線からカメラ位置を推定する。
ステップS802において、CPU2は、表示制御部220として、推定されたカメラ位置情報から画面レイアウトを構成し、当該画面レイアウトをモニタ5に表示する。ある局面において、CPU2は、推定されたカメラの配置位置に基づいて決定したオブジェクト表示領域32にオブジェクト(たとえば、顔画像)を表示すると共に、被写体を撮影して得られたスルー画像をモニタ5に表示する。
<第8の実施の形態>
図15を参照して、第8の実施の形態に従うスマートフォン100Gの概要について説明する。図15は、ユーザが自分撮りをしている場合のスマートフォン100Gの表示態様を示している図である。スマートフォン100Gは、アニメーション35の始点が、モニタ画像の顔位置ではなく、モニタ5の中心40である点で、第6の実施の形態に従うスマートフォン100Eとは異なる。その他の点については第6の実施の形態に従うスマートフォン100Eと同じであるので説明を繰り返さない。
本実施の形態によれば、アニメーションの始点をモニタ5の中心とすることで、画像から顔画像を検出せずともアニメーション35を表示できるようになり、より簡易な機能構成でユーザの視線をカメラ4に導くことができる。
<第9の実施の形態>
[概要]
図16を参照して、第9の実施の形態に従うスマートフォン100Hの概要について説明する。図16は、ユーザが自分撮りをしている場合のスマートフォン100Hの表示態様を示している図である。スマートフォン100Hは、アニメーション35の始点が、モニタ画像の顔位置ではなくモニタ5上のフォーカス位置43である点で、第6の実施の形態に従うスマートフォン100Eとは異なる。その他の点については第6の実施の形態に従うスマートフォン100Eと同じであるので説明を繰り返さない。
本実施の形態によれば、アニメーションの始点をフォーカス位置43とすることで、画像から顔画像を検出せずともアニメーション35を表示できるようになり、より簡易な機能構成でユーザの視線をカメラ4に導くことができる。
[制御構造]
図17を参照して、スマートフォン100Hの制御構造について説明する。図17は、スマートフォン100Hが実行する処理の一部を表わすフローチャートである。図17の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図17に示される各ステップのうち図4、図7、図11、および図14に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS830において、CPU2は、モニタ5に表示された画像から任意の範囲をオブジェクト表示領域に表示する画像として切り出す。たとえば、CPU2は、モニタ5の中心を中心とした一定の範囲、または、フォーカス位置を中心とした一定の範囲を切り出す範囲として決定する。
<第10の実施の形態>
[概要]
図18を参照して、第10の実施の形態に従うスマートフォン100Iの概要について説明する。図18は、ユーザが自分撮りをしている間にスマートフォン100Iを90度回転させた場合の表示態様を示している図である。スマートフォン100Iは、自端末の傾きに応じてカメラ位置を取得する点で、第1の実施の形態に従うスマートフォン100とは異なる。その他の点については第1の実施の形態に従うスマートフォン100と同じであるので説明を繰り返さない。
スマートフォン100Iは、自端末の筺体の向きが変わると、ユーザから見たカメラの位置も変わるため、カメラ位置を自端末の傾きに応じて再取得してオブジェクトを再表示する。スマートフォン100Iは、再取得したカメラ位置から予め定められた範囲内にあるモニタ5上の領域を新たなオブジェクト表示領域として、当該オブジェクト表示領域にオブジェクトを再表示する。
これにより、スマートフォン100Iの傾きがどの向きであってもカメラ4付近にオブジェクトを表示することが可能になる。すなわち、ユーザは、カメラ4を正視した状態で撮影機能を実行することができるようになる。
[制御構造]
図19を参照して、スマートフォン100Iの制御構造について説明する。図19は、スマートフォン100Iが実行する処理の一部を表わすフローチャートである。図19の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図19に示される各ステップのうち図4、図7、図11、図14、および図17に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS900において、CPU2は、自分撮り用のレイアウトを構成し、当該レイアウトを表示する。ステップS902において、CPU2は、スマートフォン100Iの傾きを検出するためのセンサ6(たとえば、加速度センサ、角速度センサ)からカメラ位置情報の変更通知を取得する。なお、CPU2は、センサからの情報が過去の情報とは異なるものになった場合に、カメラ位置が移動したと判断してもよい。
ステップS904において、CPU2は、スマートフォン100Iの傾きを検出するためのセンサ6からカメラ位置情報を取得する。たとえば、CPU2は、過去のカメラ位置を元にして、ユーザがスマートフォン100Iを傾けた傾き角度に応じてカメラ位置を特定してもよい。
<第11の実施の形態>
[概要]
図20を参照して、第11の実施の形態に従うスマートフォン100Jの概要について説明する。図20は、ユーザが自分撮りをしている場合のスマートフォン100Jの表示態様を示している図である。スマートフォン100Jは、カメラが外部デバイスとして接続される点で、第1の実施の形態に従うスマートフォン100とは異なる。なお、スマートフォン100Jのハードウェア構成は、図2に示される構成と同様である。したがって、ハードウェア構成の説明は繰り返さない。
図20に示されるように、スマートフォン100Jは、外部のカメラ装置を接続することが可能なカメラI/F7を含む。外部デバイスであるカメラ4Aは、カメラI/F7を介してスマートフォン100Jに接続される。カメラ4Aは、Webカメラ、その他の撮影機能を備えた電子機器を含む。カメラ4Aは、当該カメラ4Aに含まれる加速度センサなどのセンサにより当該カメラ4Aの位置を特定でき、特定した位置を表わす位置情報をスマートフォン100Jに出力する。スマートフォン100Jは、カメラ4Aから出力された位置情報から予め定められた範囲にあるモニタ5上の領域をオブジェクト表示領域として決定し、当該オブジェクト表示領域にオブジェクトを表示する。
ある局面において、スマートフォン100Jは、カメラ4Aとの任意のプロトコルによってカメラ4Aの位置を特定し、当該位置に基づいてオブジェクト表示領域を決定するように構成されてもよい。
[制御構造]
図21を参照して、スマートフォン100Jの制御構造について説明する。図21は、スマートフォン100Jが実行する処理の一部を表わすフローチャートである。図21の処理は、CPU2がプログラムを実行することにより実現される。他の局面において、処理の一部又は全部が、回路素子その他のハードウェアによって実行されてもよい。なお、図21に示される各ステップのうち図4、図7、図11、図14、図17に示されるフローチャートにおける処理と同様の処理には同じステップ番号を付してある。したがって、同様の処理の説明は繰り返さない。
ステップS1000において、CPU2は、カメラ4Aから位置情報を取得する。ステップS1002において、CPU2は、カメラ4Aから出力された位置情報から予め定められた範囲にあるモニタ5上の領域をオブジェクト表示領域として決定し、当該オブジェクト表示領域にオブジェクト(たとえば、顔画像)を表示する。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 ROM、2 CPU、3 RAM、4,4A カメラ、5 モニタ、6 センサ、7 カメラI/F、8 ネットワークI/F、8A アンテナ、20 記憶装置、21 カメラ位置情報、30 ユーザ、31 顔位置、32 オブジェクト表示領域、35 アニメーション、37 矢印画像、38 アイコン、39 ボタン、40 中心、43 フォーカス位置、100,100A〜100J スマートフォン、210 抽出部、220 表示制御部、230 視線検出部、240 推定部。

Claims (5)

  1. 電子機器であって、
    モニタと、
    前記モニタの表示面側に配置されたカメラと、
    前記電子機器を制御するための制御装置とを備え、
    前記制御装置は、前記カメラが被写体を撮影中に、前記電子機器のユーザの視線を前記カメラに導くためのオブジェクトを、前記電子機器における前記カメラの配置位置から予め定められた範囲内にある前記モニタ上の第1の表示領域に表示するための表示制御手段を含む、電子機器。
  2. 前記制御装置は、前記カメラによって取得された画像から前記ユーザの顔画像を抽出するための抽出手段をさらに含み、
    前記表示制御手段は、前記カメラが被写体を撮影中に、前記カメラから取得した画像を前記第1の表示領域とは異なる第2の表示領域に表示すると共に、前記抽出手段によって抽出された顔画像を前記オブジェクトとして前記第1の表示領域に表示する、請求項1に記載の電子機器。
  3. 前記表示制御手段は、前記カメラが被写体を撮影中に、前記第2の表示領域に表示された画像に含まれるユーザの顔位置と前記カメラとの間の表示領域に、前記ユーザの視線を前記顔位置から前記カメラの方向に導くためのアニメーションをさらに表示する、請求項2に記載の電子機器。
  4. 前記制御装置は、
    前記抽出手段によって抽出された顔画像から、前記電子機器に向けられた前記ユーザの視線を検出するための視線検出手段と、
    前記電子機器における前記カメラの配置位置を前記視線から推定するための推定手段とをさらに含み、
    前記表示制御手段は、前記推定手段によって推定された前記カメラの配置位置から前記予め定められた範囲内にある前記モニタ上の領域を前記第1の表示領域として、当該第1の表示領域に前記オブジェクトを表示する、請求項2または3に記載の電子機器。
  5. 前記電子機器は、前記カメラによって取得された画像を保存することが可能な記憶装置をさらに備え、
    前記表示制御手段は、前記カメラが被写体を撮影中に、前記カメラから取得した画像を前記第1の表示領域とは異なる第2の表示領域に表示すると共に、前記カメラによって取得された画像を前記記憶装置に保存するための撮影機能の実行を受け付けるボタンを前記オブジェクトとして前記第1の表示領域に表示する、請求項1に記載の電子機器。
JP2014015474A 2014-01-30 2014-01-30 電子機器 Pending JP2015142317A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014015474A JP2015142317A (ja) 2014-01-30 2014-01-30 電子機器
US15/108,333 US10075629B2 (en) 2014-01-30 2015-01-14 Electronic device for capturing images while user looks directly at camera
PCT/JP2015/050719 WO2015115173A1 (ja) 2014-01-30 2015-01-14 電子機器
CN201580006197.2A CN105940668A (zh) 2014-01-30 2015-01-14 电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014015474A JP2015142317A (ja) 2014-01-30 2014-01-30 電子機器

Publications (1)

Publication Number Publication Date
JP2015142317A true JP2015142317A (ja) 2015-08-03

Family

ID=53756750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014015474A Pending JP2015142317A (ja) 2014-01-30 2014-01-30 電子機器

Country Status (4)

Country Link
US (1) US10075629B2 (ja)
JP (1) JP2015142317A (ja)
CN (1) CN105940668A (ja)
WO (1) WO2015115173A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105430269A (zh) * 2015-12-10 2016-03-23 广东欧珀移动通信有限公司 一种应用于移动终端的拍照方法及装置
EP3157233A1 (en) * 2015-10-13 2017-04-19 Thomson Licensing Handheld device, method for operating the handheld device and computer program
JP2017138846A (ja) * 2016-02-04 2017-08-10 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム
WO2019058641A1 (ja) * 2017-09-20 2019-03-28 シャープ株式会社 電子機器、プログラム、制御装置および制御方法
WO2023170929A1 (ja) * 2022-03-11 2023-09-14 マクセル株式会社 携帯情報端末及びそれに用いる画像表示方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150039355A (ko) * 2013-10-02 2015-04-10 엘지전자 주식회사 이동 단말기 및 그 제어방법
CN106911886A (zh) * 2015-12-23 2017-06-30 展讯通信(上海)有限公司 用于自拍终端的自拍引导方法及装置
CN107864329A (zh) * 2016-09-22 2018-03-30 中兴通讯股份有限公司 一种自拍校准视线的方法、装置及终端
CN106937045B (zh) * 2017-02-23 2020-08-14 华为机器有限公司 一种预览图像的显示方法、终端设备及计算机存储介质
CN107277375B (zh) * 2017-07-31 2020-03-27 维沃移动通信有限公司 一种自拍方法和移动终端
WO2019047028A1 (zh) * 2017-09-05 2019-03-14 广东欧珀移动通信有限公司 拍摄界面显示方法、装置及终端
US10567643B2 (en) * 2018-02-20 2020-02-18 Motorola Mobility Llc Directional animation displays during image capture
CN112714237B (zh) 2019-10-24 2023-03-24 北京小米移动软件有限公司 一种终端设备、镜头调整方法及可读存储介质
JP2023062381A (ja) * 2021-10-21 2023-05-08 キヤノン株式会社 撮像装置及びその制御方法とプログラム
CN113891002B (zh) * 2021-11-12 2022-10-21 维沃移动通信有限公司 拍摄方法及装置
US11843469B2 (en) 2022-04-29 2023-12-12 Microsoft Technology Licensing, Llc Eye contact assistance in video conference

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341560A (ja) * 1999-05-31 2000-12-08 Sony Corp 映像撮影装置
JP2010182023A (ja) * 2009-02-04 2010-08-19 Fujifilm Corp 携帯機器および操作制御方法
JP2013121097A (ja) * 2011-12-08 2013-06-17 Nikon Corp 撮像装置及び方法、並びに画像生成装置及び方法、プログラム
JP2013131906A (ja) * 2011-12-21 2013-07-04 Nikon Corp デジタルカメラ

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116601A (ja) * 2005-10-24 2007-05-10 Canon Inc 撮影装置
JP2007208866A (ja) * 2006-02-06 2007-08-16 Nikon Corp カメラ
JP2009059257A (ja) 2007-09-03 2009-03-19 Sony Corp 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2009284309A (ja) * 2008-05-23 2009-12-03 Casio Comput Co Ltd 撮像装置、表示制御プログラム及び表示制御方法
KR101545883B1 (ko) * 2012-10-30 2015-08-20 삼성전자주식회사 단말의 카메라 제어 방법 및 그 단말
CN103049175B (zh) 2013-01-22 2016-08-10 华为终端有限公司 预览画面呈现方法、装置及终端
KR20150039355A (ko) * 2013-10-02 2015-04-10 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000341560A (ja) * 1999-05-31 2000-12-08 Sony Corp 映像撮影装置
JP2010182023A (ja) * 2009-02-04 2010-08-19 Fujifilm Corp 携帯機器および操作制御方法
JP2013121097A (ja) * 2011-12-08 2013-06-17 Nikon Corp 撮像装置及び方法、並びに画像生成装置及び方法、プログラム
JP2013131906A (ja) * 2011-12-21 2013-07-04 Nikon Corp デジタルカメラ

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3157233A1 (en) * 2015-10-13 2017-04-19 Thomson Licensing Handheld device, method for operating the handheld device and computer program
CN105430269A (zh) * 2015-12-10 2016-03-23 广东欧珀移动通信有限公司 一种应用于移动终端的拍照方法及装置
JP2017138846A (ja) * 2016-02-04 2017-08-10 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示方法、及びコンピュータが実行可能なプログラム
WO2019058641A1 (ja) * 2017-09-20 2019-03-28 シャープ株式会社 電子機器、プログラム、制御装置および制御方法
CN111066316B (zh) * 2017-09-20 2021-08-24 夏普株式会社 电子设备、存储介质、控制装置以及控制方法
US11265460B2 (en) 2017-09-20 2022-03-01 Sharp Kabushiki Kaisha Electronic device, control device, and control method
WO2023170929A1 (ja) * 2022-03-11 2023-09-14 マクセル株式会社 携帯情報端末及びそれに用いる画像表示方法

Also Published As

Publication number Publication date
CN105940668A (zh) 2016-09-14
US10075629B2 (en) 2018-09-11
WO2015115173A1 (ja) 2015-08-06
US20160323503A1 (en) 2016-11-03

Similar Documents

Publication Publication Date Title
WO2015115173A1 (ja) 電子機器
KR102114377B1 (ko) 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치
KR102494698B1 (ko) 카메라의 초점을 변경하는 방법 및 장치
CN111182205B (zh) 拍摄方法、电子设备及介质
CN107798733B (zh) 显示***、便携信息设备、可佩戴型终端和信息显示方法
EP2966854A1 (en) Imaging device, imaging method and program
JP6341755B2 (ja) 情報処理装置、方法及びプログラム並びに記録媒体
KR20170085760A (ko) 카메라 장치를 제어하기 위한 방법 및 그 전자 장치
EP2887648B1 (en) Method of performing previewing and electronic device for implementing the same
EP3503516B1 (en) Capturing method and ralated products
CN108369451B (zh) 信息处理装置、信息处理方法及计算机可读存储介质
JP7495459B2 (ja) 頭部装着型ディスプレイ装置、頭部装着型ディスプレイ装置の制御方法
CN113301247A (zh) 一种语音输入设备、其控制方法以及存储介质
JP2014241099A (ja) 撮像装置
WO2017134732A1 (ja) 入力装置、入力支援方法および入力支援プログラム
CN112788244B (zh) 拍摄方法、拍摄装置和电子设备
CN113302908B (zh) 控制方法、手持云台、***及计算机可读存储介质
KR20190135794A (ko) 이동 단말기
EP3573329B1 (en) Electronic device and method of automatically switching to panorama capture mode
US20110154267A1 (en) Method and Apparatus for Determining an Operation Associsated with a Continuous Stroke Input
US20220244788A1 (en) Head-mounted display
US20220334648A1 (en) Wearable information terminal, control method thereof, and storage medium
JP2017033195A (ja) 透過型ウェアラブル端末、データ処理装置、及びデータ処理システム
JPWO2019058641A1 (ja) 電子機器、プログラム、制御装置および制御方法
CN110164444A (zh) 语音输入启动方法、装置及计算机设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180213