JP5720758B2 - Display device and control method - Google Patents

Display device and control method Download PDF

Info

Publication number
JP5720758B2
JP5720758B2 JP2013238462A JP2013238462A JP5720758B2 JP 5720758 B2 JP5720758 B2 JP 5720758B2 JP 2013238462 A JP2013238462 A JP 2013238462A JP 2013238462 A JP2013238462 A JP 2013238462A JP 5720758 B2 JP5720758 B2 JP 5720758B2
Authority
JP
Japan
Prior art keywords
child
image
unit
face
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013238462A
Other languages
Japanese (ja)
Other versions
JP2014078956A (en
Inventor
晴夫 大場
晴夫 大場
祐介 阪井
祐介 阪井
森 栄二郎
栄二郎 森
憲一 岡田
憲一 岡田
田中 克典
克典 田中
真一 早矢仕
真一 早矢仕
智彦 後藤
智彦 後藤
辰吾 鶴見
辰吾 鶴見
亜佐子 蓼沼
亜佐子 蓼沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013238462A priority Critical patent/JP5720758B2/en
Publication of JP2014078956A publication Critical patent/JP2014078956A/en
Application granted granted Critical
Publication of JP5720758B2 publication Critical patent/JP5720758B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、表示装置および制御方法に関する。   The present invention relates to a display device and a control method.

近年、薄型テレビの市場拡大に伴い、例えばリビングルームに設置するための大画面テレビなどの画像表示装置の需要が高まっている。このような中、様々な機能を備えた画像表示装置が提案されている。   In recent years, with the expansion of the market for flat-screen televisions, for example, there is an increasing demand for image display devices such as large-screen televisions for installation in living rooms. Under such circumstances, image display devices having various functions have been proposed.

ところで、画像表示装置に表示された画像をユーザは任意の位置で視聴することができるため、ユーザが視聴に不適な位置で画像表示装置に表示された画像を視聴することがある。   By the way, since the user can view the image displayed on the image display apparatus at an arbitrary position, the user may view the image displayed on the image display apparatus at a position unsuitable for viewing.

例えば、子供は、放送内容にのめり込み易い傾向にあるため、テレビの画面に接近することがある。テレビの画面に接近して視聴し続けると、フォーカスが固定することに起因する視力の低下や癲癇の発生の虞がある。また、テレビの画面に過度に接近すると、テレビが転倒してけがをする虞がある。子供は、このような危険性を認識しがたいため、テレビの画面に接近させないようにする必要がある。また、子供は、テレビの画面に接近してテレビの表示部分を破壊したり、破損したテレビの表示部分によってけがをしたりする虞があるため、テレビの画面に接近させないようにする必要がある。   For example, a child tends to get into broadcast content, and thus may approach a television screen. If the user keeps approaching the TV screen, the visual acuity and wrinkle may be reduced due to the fixed focus. In addition, if the TV screen is excessively approached, the TV may fall and be injured. Since it is difficult for children to recognize such dangers, it is necessary to keep them away from the television screen. In addition, children may approach the television screen and destroy the display portion of the television, or may be injured by the damaged television display portion, so it is necessary to prevent the child from approaching the television screen. .

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、子供による視聴に不適な位置での視聴を防止することが可能な、新規かつ改良された表示装置および制御方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved display capable of preventing viewing at a position unsuitable for viewing by a child. It is to provide an apparatus and a control method.

本開示によれば、画像表示方向に対する所定の範囲の動画像を撮像する撮像部と、前記撮像部が撮像した動画像を解析して、視聴者が子供であるか大人であるかの判定を行い、子供であると判定された場合、子供の位置を算出する画像解析部と、前記画像解析部が算出した前記子供の位置が視聴に不適な位置である場合、前記子供を適切な視聴位置に誘導するための表示を表示部に行わせる表示制御部と、を備える表示装置が提供される。   According to the present disclosure, an image capturing unit that captures a moving image in a predetermined range with respect to an image display direction, and a moving image captured by the image capturing unit are analyzed to determine whether the viewer is a child or an adult. And when the child position is determined to be a child, the image analysis unit for calculating the position of the child, and the child position calculated by the image analysis unit is an inappropriate viewing position, And a display control unit that causes the display unit to perform display for guiding to the display.

また、本開示よれば、画像表示方向に対する所定の範囲の動画像を撮像することと、撮像した動画像を解析して、視聴者が子供であるか大人であるかの判定を行い、子供であると判定された場合、子供の位置を算出することと、算出した前記子供の位置が視聴に不適な位置である場合、前記子供を適切な視聴位置に誘導するための表示を表示部に行わせることと、を含む制御方法が提供される。   Further, according to the present disclosure, capturing a moving image within a predetermined range with respect to the image display direction, analyzing the captured moving image, and determining whether the viewer is a child or an adult. If it is determined that there is a child position, and if the calculated child position is inappropriate for viewing, a display for guiding the child to an appropriate viewing position is displayed on the display unit. A control method is provided.

以上説明したように本発明によれば、子供による視聴に不適な位置での視聴を防止することが可能な、新規かつ改良された表示装置および制御方法を提供することができる。   As described above, according to the present invention, it is possible to provide a new and improved display device and control method capable of preventing viewing at a position unsuitable for viewing by a child.

本発明の一実施形態にかかる画像表示装置100の外観について説明する説明図である。It is explanatory drawing explaining the external appearance of the image display apparatus 100 concerning one Embodiment of this invention. 本発明の一実施形態にかかる画像表示装置100の構成について説明する説明図である。It is explanatory drawing explaining the structure of the image display apparatus 100 concerning one Embodiment of this invention. 制御部110の構成について説明する説明図である。It is explanatory drawing explaining the structure of the control part. (A)は、撮像部104の撮像範囲内にユーザ1およびユーザ2が存在する場合を説明する説明図であり、(B)は、撮像部104で撮像された画像中に含まれるユーザ1の顔検出位置[a1,b1]、顔サイズ[w1,h1]とユーザ2の顔検出位置[a2,b2]、顔サイズ[w2,h2]を説明する説明図である。(A) is explanatory drawing explaining the case where the user 1 and the user 2 exist in the imaging range of the imaging part 104, (B) is the user 1 contained in the image imaged by the imaging part 104. It is explanatory drawing explaining face detection position [a1, b1], face size [w1, h1], face detection position [a2, b2] of user 2, and face size [w2, h2]. (A)は、撮像部104の撮像範囲内における基準距離d0と距離d1にユーザが存在する場合を説明する説明図であり、(B)は、撮像部104で撮像された画像における距離d1のユーザの顔サイズ[w1,h1]を説明する説明図であり、(C)は、撮像部104で撮像された画像における基準距離d0のユーザの基準顔サイズ[w0,h0]を説明する説明図である。(A) is explanatory drawing explaining the case where a user exists in the reference distance d0 and the distance d1 in the imaging range of the imaging part 104, (B) is distance d1 in the image imaged by the imaging part 104. FIG. It is explanatory drawing explaining a user's face size [w1, h1], (C) is explanatory drawing explaining the user's reference | standard face size [w0, h0] of the reference distance d0 in the image imaged by the imaging part 104. FIG. It is. 本発明の一実施形態にかかる画像表示装置100による子供接近防止処理の一例について示す流れ図である。It is a flowchart shown about an example of the child approach prevention process by the image display apparatus 100 concerning one Embodiment of this invention. (A)〜(D)は、最適な視聴位置への誘導方法を説明するための説明図である。(A)-(D) are explanatory drawings for demonstrating the guidance method to the optimal viewing-and-listening position. (A)〜(C)は、ユーザ距離の算出において、基準距離d0における基準顔サイズ[w0,h0]の補正方法を説明するための説明図である。(A)-(C) is explanatory drawing for demonstrating the correction method of the reference | standard face size [w0, h0] in the reference distance d0 in calculation of user distance. ユーザの属性情報の時系列的な変動を説明するための説明図である。It is explanatory drawing for demonstrating the time series fluctuation | variation of a user's attribute information. (A)および(B)は、ユーザが撮像部104に接近しすぎて、ユーザの顔が撮像部104の画角外に出てしまう場合を説明するための説明図である。(A) and (B) are explanatory diagrams for explaining a case where the user is too close to the imaging unit 104 and the user's face goes out of the angle of view of the imaging unit 104. ユーザが子供であるか否かの判定結果を説明するための説明図である。It is explanatory drawing for demonstrating the determination result whether a user is a child. ユーザが子供であるか否かの判定方法を説明するための説明図である。It is explanatory drawing for demonstrating the determination method of whether a user is a child.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

なお、説明は以下の順序で行うものとする。
<1.本発明の一実施形態>
[1−1.画像表示装置の構成]
[1−2.制御部の構成]
[1−3.子供接近防止処理]
The description will be made in the following order.
<1. One Embodiment of the Present Invention>
[1-1. Configuration of image display apparatus]
[1-2. Configuration of control unit]
[1-3. Child approach prevention process]

<1.本発明の一実施形態>
[1−1.画像表示装置の構成]
まず、本発明の一実施形態にかかる画像表示装置の構成について説明する。図1は、本発明の一実施形態にかかる画像表示装置100の外観について説明する説明図である。図1は、画像表示装置100を正面から見た場合の正面図である。以下、図1を用いて本発明の一実施形態にかかる画像表示装置100の外観について説明する。
<1. One Embodiment of the Present Invention>
[1-1. Configuration of image display apparatus]
First, the configuration of an image display apparatus according to an embodiment of the present invention will be described. FIG. 1 is an explanatory view illustrating the appearance of an image display device 100 according to an embodiment of the present invention. FIG. 1 is a front view of the image display device 100 as viewed from the front. Hereinafter, the external appearance of the image display apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

図1に示したように、本発明の一実施形態に係る画像表示装置100は、静止画像または動画像を表示する表示パネル102の上方中央部及び左右中央部に、動画像を撮像する撮像部104が備えられている。撮像部104は、画像表示装置100が表示パネル102で静止画像または動画像を表示する方向に対して、動画像の撮像を行うものである。本実施形態にかかる画像表示装置100は、撮像部104で撮像された画像を解析し、画像に映っているユーザの顔を検出する。また、画像表示装置100は、検出されたユーザの顔の画像を解析し、年齢や性別などのその他の属性情報を算出する。そして、画像表示装置100は、算出された属性情報に基づいて、ユーザが子供なのか大人なのかを判定する。また、画像表示装置100は、検出されたユーザの顔画像を解析し、顔検出位置や顔サイズを検出する。そして、画像表示装置100は、ユーザが子供なのか大人なのかの判定結果と、ユーザの顔検出位置や顔サイズの検出結果とに基づいて、ユーザの位置を算出する。本実施形態にかかる画像表示装置100は、ユーザが子供であって、子供が画像表示装置100の視聴に不適な位置、例えば表示パネル102から1mの範囲内にいる場合に、子供を最適な視聴位置、例えば表示パネル102から1m以上離れた位置に誘導するための表示や音を出力させることを特徴としている。   As shown in FIG. 1, an image display device 100 according to an embodiment of the present invention includes an imaging unit that captures a moving image at an upper central portion and a left and right central portion of a display panel 102 that displays a still image or a moving image. 104 is provided. The imaging unit 104 captures a moving image in a direction in which the image display apparatus 100 displays a still image or a moving image on the display panel 102. The image display apparatus 100 according to the present embodiment analyzes an image captured by the imaging unit 104 and detects a user's face shown in the image. Further, the image display apparatus 100 analyzes the detected user face image and calculates other attribute information such as age and sex. Then, the image display apparatus 100 determines whether the user is a child or an adult based on the calculated attribute information. Further, the image display apparatus 100 analyzes the detected face image of the user and detects a face detection position and a face size. Then, the image display device 100 calculates the position of the user based on the determination result of whether the user is a child or an adult and the detection result of the user's face detection position and face size. The image display apparatus 100 according to the present embodiment optimally views a child when the user is a child and the child is in a position unsuitable for viewing the image display apparatus 100, for example, within a range of 1 m from the display panel 102. A display or sound for guiding to a position, for example, a position away from the display panel 102 by 1 m or more is output.

また、本発明の一実施形態に係る画像表示装置100は、表示パネル102の下方中央部にセンサ106を備えている。センサ106は、画像表示装置100の前方の人間の有無を検知するものである。   In addition, the image display apparatus 100 according to an embodiment of the present invention includes a sensor 106 at the lower center portion of the display panel 102. The sensor 106 detects the presence or absence of a person in front of the image display apparatus 100.

なお、図1では、画像表示装置100は、画像の表示パネル102の周囲の3箇所に、動画像を撮像する撮像部104を備えていたが、本発明においては動画像を撮影する撮像部104の場所はかかる例に限定されないことは言うまでもなく、例えば、画像表示装置100とは別の装置を設け、画像表示装置100に当該装置を接続して、当該装置において動画像を撮影してもよい。また、撮像部104の数も3つに限られないことは言うまでもなく、2つ以下、または4つ以上の撮像部104を設けて撮像してもよい。さらに、センサ106の数も1つに限られないことは言うまでも無く、2つ以上のセンサを設けてもよい。   In FIG. 1, the image display apparatus 100 includes the imaging units 104 that capture a moving image at three locations around the image display panel 102. However, in the present invention, the imaging unit 104 captures a moving image. Needless to say, the location is not limited to this example. For example, a device different from the image display device 100 may be provided, the device may be connected to the image display device 100, and a moving image may be captured by the device. . Needless to say, the number of the imaging units 104 is not limited to three, and two or less, or four or more imaging units 104 may be provided for imaging. Furthermore, it goes without saying that the number of sensors 106 is not limited to one, and two or more sensors may be provided.

また、図1には図示しないが、画像表示装置100は、リモートコントローラ(図示せず)からの赤外線や無線等による制御信号を受信することができる信号受信部をさらに備えていてもよい。   Although not shown in FIG. 1, the image display apparatus 100 may further include a signal receiving unit that can receive a control signal by infrared rays or wireless from a remote controller (not shown).

以上、図1を用いて本発明の一実施形態にかかる画像表示装置100の外観について説明した。次に、本発明の一実施形態にかかる画像表示装置100の構成について説明する。   The appearance of the image display apparatus 100 according to the embodiment of the present invention has been described above with reference to FIG. Next, the configuration of the image display apparatus 100 according to an embodiment of the present invention will be described.

図2は、本発明の一実施形態にかかる画像表示装置100の構成について説明する説明図である。以下、図2を用いて本発明の一実施形態にかかる画像表示装置100の構成について説明する。   FIG. 2 is an explanatory diagram illustrating the configuration of the image display apparatus 100 according to the embodiment of the present invention. Hereinafter, the configuration of the image display apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

図2に示したように、本発明の一実施形態にかかる画像表示装置100は、表示パネル102と、撮像部104と、センサ106と、スピーカ108と、制御部110と、を含んで構成される。   As shown in FIG. 2, the image display apparatus 100 according to an embodiment of the present invention includes a display panel 102, an imaging unit 104, a sensor 106, a speaker 108, and a control unit 110. The

そして制御部110は、画像入力部112と、画像処理部114と、視聴状態解析部116と、視聴状態記録部118と、システム最適化処理部120と、システム制御部122と、を含んで構成される。   The control unit 110 includes an image input unit 112, an image processing unit 114, a viewing state analysis unit 116, a viewing state recording unit 118, a system optimization processing unit 120, and a system control unit 122. Is done.

表示パネル102は、本発明の表示部の一例であり、パネル駆動信号に基づいて静止画像または動画像を表示するものである。本実施形態においては、表示パネル102は液晶によって静止画像または動画像を表示する。もちろん発明においては、表示パネル102はかかる例に限定されないことは言うまでもない。表示パネル102は、有機EL(エレクトロルミネセンス)のような自発光型の表示デバイスによって静止画像または動画像を表示するものであってもよい。   The display panel 102 is an example of the display unit of the present invention, and displays a still image or a moving image based on a panel drive signal. In the present embodiment, the display panel 102 displays a still image or a moving image with liquid crystal. Of course, in the invention, the display panel 102 is not limited to such an example. The display panel 102 may display a still image or a moving image by a self-luminous display device such as an organic EL (electroluminescence).

撮像部104は、上述したように、静止画像または動画像を表示する表示パネル102の上方中央部および左右中央部に備えられるものであり、表示パネル102にパネル駆動信号が供給され、表示パネル102において動画像を表示している際に、画像表示装置100が表示パネル102で動画像を表示する方向に対して動画像の撮像を行うものである。撮像部104は、CCD(Charge Coupled Device)イメージセンサによって動画像の撮像を行うものであってもよく、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサによって動画像の撮像を行うものであってもよい。撮像部104で撮像された動画像は制御部110に送られる。   As described above, the imaging unit 104 is provided in the upper center portion and the left and right center portions of the display panel 102 that displays a still image or a moving image, and a panel drive signal is supplied to the display panel 102 to display the display panel 102. When displaying a moving image, the image display apparatus 100 captures a moving image in the direction in which the moving image is displayed on the display panel 102. The imaging unit 104 may capture a moving image with a CCD (Charge Coupled Device) image sensor, or may capture a moving image with a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The moving image captured by the imaging unit 104 is sent to the control unit 110.

センサ106は、上述したように、静止画像または動画像を表示する表示パネル102の下方中央部に備えられるものであり、例えば、画像表示装置100の前方の人間の有無を検知するものである。また、センサ106は、画像表示装置100の前方に人間が存在している場合には、画像表示装置100とその人間との間の距離を検出することができる。センサ106による検知結果及び距離情報は制御部110に送られる。スピーカ108は、本発明の音声出力部の一例であり、音声出力信号に基づいて音声を出力するものである。   As described above, the sensor 106 is provided in the lower center portion of the display panel 102 that displays a still image or a moving image. For example, the sensor 106 detects the presence or absence of a person in front of the image display device 100. Further, when a human is present in front of the image display device 100, the sensor 106 can detect the distance between the image display device 100 and the human. The detection result and distance information by the sensor 106 are sent to the control unit 110. The speaker 108 is an example of an audio output unit of the present invention, and outputs audio based on an audio output signal.

制御部110は、画像表示装置100の動作を制御するものである。以下で制御部110の各部について説明する。   The control unit 110 controls the operation of the image display apparatus 100. Below, each part of the control part 110 is demonstrated.

画像入力部112は、撮像部104で撮像された動画像を受け取るものである。画像入力部112が受け取った動画像は画像処理部114に送られ、画像処理部114での画像処理に用いられる。   The image input unit 112 receives a moving image captured by the imaging unit 104. The moving image received by the image input unit 112 is sent to the image processing unit 114 and is used for image processing in the image processing unit 114.

画像処理部114は、本発明の画像解析部の一例であり、画像入力部112から送られてきた、撮像部104で撮像された動画像に対する各種画像処理を実行するものである。画像処理部114が実行する画像処理には、撮像部104で撮像された動画像に含まれている動体の検出処理、動画像に含まれている人間の人数の検出処理、動画像に含まれている顔および顔の表情の検出処理が含まれる。画像処理部114による各種画像処理の結果は、視聴状態解析部116に送られて、画像表示装置100を視聴している人物の有無や視聴している人物の視聴状態や視聴位置の解析に用いられる。   The image processing unit 114 is an example of the image analysis unit of the present invention, and executes various image processing on the moving image captured by the imaging unit 104 sent from the image input unit 112. The image processing executed by the image processing unit 114 includes detection processing of a moving object included in the moving image captured by the imaging unit 104, detection processing of the number of humans included in the moving image, and included in the moving image. And detection processing of the face and facial expression. The results of various types of image processing performed by the image processing unit 114 are sent to the viewing state analysis unit 116, and are used to analyze the presence / absence of the person viewing the image display apparatus 100, the viewing state of the person being viewed, and the viewing position. It is done.

画像処理部114における、画像中に含まれる顔を検出する顔検出処理については、例えば特開2007−65766号公報や、特開2005−44330号公報に掲載されている技術を用いることができる。以下、顔検出処理について簡単に説明する。   For the face detection processing for detecting a face included in an image in the image processing unit 114, for example, techniques disclosed in Japanese Unexamined Patent Application Publication Nos. 2007-65766 and 2005-44330 can be used. Hereinafter, the face detection process will be briefly described.

画像からユーザの顔を検出するには、まず供給された画像における顔の位置、顔の大きさ、顔の方向を、それぞれ検出する。顔の位置と大きさが検出されることにより、顔画像の部分を画像から切り出すことができる。そして切り出した顔画像と、顔の方向の情報とから、顔の特徴的な部分(顔特徴位置)、例えば、眉毛、目、鼻、口といった特徴的な部分を検出する。顔特徴位置の検出には、例えば、AAM(Active Appearance Models)と呼ばれる方法を適用して、特徴位置を検出するようにすることが可能である。   In order to detect the user's face from the image, first, the position of the face, the size of the face, and the direction of the face in the supplied image are detected. By detecting the position and size of the face, the face image portion can be cut out from the image. Then, a characteristic part of the face (face characteristic position), for example, a characteristic part such as eyebrows, eyes, nose, or mouth is detected from the cut face image and face direction information. For detection of the facial feature position, for example, a method called AAM (Active Appearance Models) can be applied to detect the feature position.

顔特徴位置を検出すると、検出した顔特徴位置のそれぞれに対して局所特徴量を算出する。局所特徴量を算出し、算出した局所特徴量を顔画像と併せて記憶しておくことで、撮像部104で撮影された画像から顔の識別が可能となる。顔の識別方法については、例えば特開2007−65766号公報や、特開2005−44330号公報に掲載されている技術を用いることが出来るので、ここでは詳細な説明は省略する。また、顔画像や顔特徴位置によって、供給された画像に写っている顔が男性なのか女性なのか、また人物が何歳くらいなのかを判別することも可能である。また、予め顔の情報を記録しておくことで、供給された画像に写っている人物を記録された顔の中から探し出して、個人を特定することが可能である。   When the face feature position is detected, a local feature amount is calculated for each detected face feature position. By calculating the local feature amount and storing the calculated local feature amount together with the face image, the face can be identified from the image captured by the imaging unit 104. As for the face identification method, for example, techniques disclosed in Japanese Patent Application Laid-Open No. 2007-65766 and Japanese Patent Application Laid-Open No. 2005-44330 can be used, and detailed description thereof is omitted here. It is also possible to determine whether the face shown in the supplied image is a man or a woman and how old the person is based on the face image and face feature position. Further, by recording face information in advance, it is possible to search for a person shown in the supplied image from the recorded faces and specify an individual.

視聴状態解析部116は、本発明の画像解析部の一例であり、画像処理部114による各種画像処理の結果、並びにセンサ106の検知による検知結果及び距離情報を受け取り、画像処理部114による各種画像処理の結果、並びにセンサ106の検知による検知結果及び距離情報を用いて、画像表示装置100が表示している画像を視聴している人物が子供であるか大人であるかや視聴している人物の視聴状態や視聴位置の解析を実行するものである。視聴状態解析部116が人物が子供であるか大人であるかや視聴している人物の視聴状態や視聴位置を解析することで、画像表示装置100は、画像表示装置100を視聴している人物が子供であるか大人であるかや人物の視聴位置によって表示パネル102の輝度を低下させたり、表示パネル102の表示内容を制御したり、音声内容を制御したりすることができる。視聴状態解析部116での解析処理による解析結果は、視聴状態記録部118及びシステム最適化処理部120に送られる。   The viewing state analysis unit 116 is an example of the image analysis unit of the present invention, and receives various image processing results by the image processing unit 114, detection results by the detection of the sensor 106, and distance information, and various images by the image processing unit 114. The person who is viewing the image displayed on the image display device 100 is a child or an adult or the person who is viewing, using the processing result, the detection result by the detection of the sensor 106, and the distance information. The viewing state and viewing position are analyzed. When the viewing state analysis unit 116 analyzes whether the person is a child or an adult and the viewing state and viewing position of the person being viewed, the image display apparatus 100 is viewing the person who is viewing the image display apparatus 100. The brightness of the display panel 102 can be lowered, the display content of the display panel 102 can be controlled, and the audio content can be controlled depending on whether the person is a child or an adult and the viewing position of a person. An analysis result obtained by the analysis processing in the viewing state analysis unit 116 is sent to the viewing state recording unit 118 and the system optimization processing unit 120.

なお、視聴状態解析部116は、センサ106の検知による検知結果及び距離情報から、動体は検知できているが、センサ106とその動体との距離が所定の距離以上離れている場合には、その動体は検出の対象外としてもよい。   The viewing state analysis unit 116 can detect the moving object from the detection result and the distance information by the detection of the sensor 106, but if the distance between the sensor 106 and the moving object is more than a predetermined distance, The moving object may be excluded from detection.

視聴状態記録部118は、視聴状態解析部116の解析処理によって得られる解析結果を記録するものである。視聴状態記録部118が記録した視聴状態解析部116での解析結果は、システム最適化処理部120におけるシステム最適化処理に用いられる。また、視聴状態記録部118が記録した視聴状態解析部116での解析結果は、外部の情報収集サーバ200に送られるようにしてもよい。   The viewing state recording unit 118 records an analysis result obtained by the analysis process of the viewing state analysis unit 116. The analysis result in the viewing state analysis unit 116 recorded by the viewing state recording unit 118 is used for the system optimization processing in the system optimization processing unit 120. The analysis result by the viewing state analysis unit 116 recorded by the viewing state recording unit 118 may be sent to the external information collection server 200.

システム最適化処理部120は、本発明の画像解析部の一例であり、視聴状態解析部116の解析処理によって得られる解析結果を用いて、画像表示装置100の各部に対するシステム最適化処理を実行するためのシステム制御情報を算出するものである。画像表示装置100の各部に対するシステム最適化処理には、表示パネル102の輝度制御、表示パネル102の表示内容の制御、スピーカ108から出力される音声内容の制御や音声の音量制御等がある。   The system optimization processing unit 120 is an example of the image analysis unit of the present invention, and executes system optimization processing for each unit of the image display device 100 using the analysis result obtained by the analysis processing of the viewing state analysis unit 116. System control information is calculated. The system optimization processing for each part of the image display device 100 includes brightness control of the display panel 102, control of display contents of the display panel 102, control of sound contents output from the speaker 108, sound volume control, and the like.

画像表示装置100は、システム最適化処理部120が算出したシステム制御情報に基づいて、子供接近防止処理を実行することができる。システム最適化処理部120が算出したシステム制御情報はシステム制御部122に送られる。   The image display apparatus 100 can execute a child approach prevention process based on the system control information calculated by the system optimization processing unit 120. The system control information calculated by the system optimization processing unit 120 is sent to the system control unit 122.

システム制御部122は、本発明の表示制御部、音声制御部の一例であり、システム最適化処理部120が算出したシステム制御情報に基づいて、画像表示装置100の各部に対するシステム最適化処理を実行するものである。具体的には、システム制御部122は、システム最適化処理部120が算出したシステム制御情報に基づいて、表示パネル102の輝度制御、表示パネル102の表示内容の制御、スピーカ108から出力される音声内容の制御や音声の音量制御等を実行する。   The system control unit 122 is an example of the display control unit and the audio control unit of the present invention, and executes system optimization processing for each unit of the image display device 100 based on the system control information calculated by the system optimization processing unit 120. To do. Specifically, the system control unit 122 controls the brightness of the display panel 102, the display content of the display panel 102, and the sound output from the speaker 108 based on the system control information calculated by the system optimization processing unit 120. Performs content control, audio volume control, and the like.

以上、図2を用いて本発明の一実施形態にかかる画像表示装置100の構成について説明した。次に、本発明の一実施形態にかかる画像表示装置100に含まれる制御部110の構成について、より詳細に説明する。   The configuration of the image display apparatus 100 according to the embodiment of the present invention has been described above with reference to FIG. Next, the configuration of the control unit 110 included in the image display apparatus 100 according to an embodiment of the present invention will be described in more detail.

[1−2.制御部の構成]
図3は、本発明の一実施形態にかかる画像表示装置100に含まれる制御部110の構成について説明する説明図である。図3は、制御部110の中でも、制御部110に含まれる視聴状態解析部116の構成について説明するものである。以下、図3を用いて、視聴状態解析部116の構成について説明する。
[1-2. Configuration of control unit]
FIG. 3 is an explanatory diagram illustrating the configuration of the control unit 110 included in the image display device 100 according to the embodiment of the present invention. FIG. 3 illustrates the configuration of the viewing state analysis unit 116 included in the control unit 110 among the control units 110. Hereinafter, the configuration of the viewing state analysis unit 116 will be described with reference to FIG.

図3に示したように、視聴状態解析部116は、ユーザ方向/距離算出部132と、ユーザ属性算出部134と、を含んで構成される。   As shown in FIG. 3, the viewing state analysis unit 116 includes a user direction / distance calculation unit 132 and a user attribute calculation unit 134.

ユーザ方向/距離算出部132は、画像処理部114による各種画像処理の結果、並びに撮像部104の画角や解像度の情報等の光学情報を受け取り、画像処理部114による各種画像処理の結果、並びに撮像部104の光学情報を用いて、撮像部104の光軸に対するユーザの相対位置(方向[φ1,θ1]、距離d1)を算出する。図4(A)は、撮像部104の撮像範囲内にユーザ1およびユーザ2が存在する場合を説明する説明図であり、図4(B)は、撮像部104で撮像された画像中に含まれるユーザ1の顔検出位置[a1,b1]、顔サイズ[w1,h1]とユーザ2の顔検出位置[a2,b2]、顔サイズ[w2,h2]を説明する説明図である。また、図5(A)は、撮像部104の撮像範囲内における基準距離d0と距離d1にユーザが存在する場合を説明する説明図であり、図5(B)は、撮像部104で撮像された画像における距離d1のユーザの顔サイズ[w1,h1]を説明する説明図であり、図5(C)は、撮像部104で撮像された画像における基準距離d0のユーザの基準顔サイズ[w0,h0]を説明する説明図である。   The user direction / distance calculation unit 132 receives the results of various image processing by the image processing unit 114 and optical information such as information on the angle of view and resolution of the imaging unit 104, and the results of various image processing by the image processing unit 114, and Using the optical information of the imaging unit 104, the relative position (direction [φ1, θ1], distance d1) of the user with respect to the optical axis of the imaging unit 104 is calculated. 4A is an explanatory diagram illustrating a case where the user 1 and the user 2 exist within the imaging range of the imaging unit 104, and FIG. 4B is included in the image captured by the imaging unit 104. It is explanatory drawing explaining face detection position [a1, b1] of user 1 and face size [w1, h1] and face detection position [a2, b2] of user 2 and face size [w2, h2]. 5A is an explanatory diagram illustrating a case where a user is present at a reference distance d0 and a distance d1 within the imaging range of the imaging unit 104. FIG. 5B is an image captured by the imaging unit 104. FIG. 5C is an explanatory diagram for explaining the face size [w1, h1] of the user at the distance d1 in the captured image. FIG. 5C is the reference face size [w0 of the user at the reference distance d0 in the image captured by the imaging unit 104. , H0].

方向[φ1,θ1]は撮像画像サイズ[xmax,ymax]で正規化された顔検出位置[a1,b1]と撮像部104の画角[φ0,θ0]とから、
水平方向:φ1=φ0*a1
垂直方向:θ1=θ0*b1
として算出する。また、距離d1は基準距離d0における基準顔サイズ[w0,h0]から、
距離:d1=d0*(w0/w1)
として算出する。
The direction [φ1, θ1] is calculated from the face detection position [a1, b1] normalized by the captured image size [xmax, ymax] and the angle of view [φ0, θ0] of the imaging unit 104.
Horizontal direction: φ1 = φ0 * a1
Vertical direction: θ1 = θ0 * b1
Calculate as The distance d1 is calculated from the reference face size [w0, h0] at the reference distance d0.
Distance: d1 = d0 * (w0 / w1)
Calculate as

ユーザ属性算出部134は、画像処理部114による各種画像処理の結果、並びに画像処理部114より得られたユーザの年齢などの属性情報を受け取り、画像処理部114による各種画像処理の結果、並びに画像処理部114より得られた属性情報を用いて、ユーザが子供であるか大人であるかを判定する。   The user attribute calculation unit 134 receives the results of various image processing by the image processing unit 114 and the attribute information such as the user's age obtained from the image processing unit 114, receives the results of various image processing by the image processing unit 114, and the image Using the attribute information obtained from the processing unit 114, it is determined whether the user is a child or an adult.

ここで、画像処理部114からは、撮像画像と、撮像画像内における、画像表示装置100を利用しているユーザごとの顔検出情報(例えば、顔検出位置[a1,b1]、顔サイズ[w1,h1]、年齢や性別などのその他の属性情報等の情報)が、視聴状態解析部116のユーザ方向/距離算出部132やユーザ属性算出部134に送られる。視聴状態解析部116では、ユーザ方向/距離算出部132において、画像処理部114から送られてくる情報を用いた、画像表示装置100を視聴している人間の視聴位置の解析処理が行われる。また、ユーザ属性算出部134において、画像処理部114から送られてくる情報を用いた、画像表示装置100を視聴している人間が子供であるか大人であるかの解析処理が行われる。   Here, from the image processing unit 114, the captured image and face detection information (for example, face detection positions [a1, b1], face size [w1] for each user who uses the image display device 100 in the captured image). , H1], other attribute information such as age and gender) is sent to the user direction / distance calculation unit 132 and the user attribute calculation unit 134 of the viewing state analysis unit 116. In the viewing state analysis unit 116, the user direction / distance calculation unit 132 uses the information sent from the image processing unit 114 to analyze the viewing position of the person viewing the image display device 100. Further, the user attribute calculation unit 134 performs analysis processing using the information sent from the image processing unit 114 to determine whether the person viewing the image display device 100 is a child or an adult.

システム最適化処理部120は、ユーザ方向/算出部132及びユーザ属性算出部134による解析処理の結果を用いて、子供が画像表示装置100の視聴に適さない位置にいる場合に、子供を画像表示装置100の視聴に適した位置へ誘導するための処理(子供誘導実現処理)のためのシステム制御情報を算出するものである。子供を画像表示装置100の視聴に適した位置へ誘導することができる処理とは、例えば、表示パネル102の輝度を低下させるとともに、表示パネル102において最適な視聴位置への誘導メッセージを表示したり、表示パネル102において接近距離のグラフ表示と警告メッセージを表示したりする処理がある。また、例えば、表示パネル102の明るさをオフにするとともに、表示パネル102において最適な視聴位置への誘導メッセージを表示したり、スピーカ108から警告音声を発生させたりする処理がある。システム最適化処理部120が算出した子供誘導実現処理のためのシステム制御情報はシステム制御部122に送られ、子供接近防止処理に用いられる。   The system optimization processing unit 120 uses the results of the analysis processing by the user direction / calculation unit 132 and the user attribute calculation unit 134 to display an image of the child when the child is in a position that is not suitable for viewing the image display device 100. The system control information for the process (children guidance realization process) for guiding to a position suitable for viewing of the device 100 is calculated. The process that can guide the child to a position suitable for viewing of the image display device 100 includes, for example, lowering the brightness of the display panel 102 and displaying a guidance message to the optimal viewing position on the display panel 102. There is a process of displaying a graph of approaching distance and a warning message on the display panel 102. Further, for example, there is a process of turning off the brightness of the display panel 102, displaying a guidance message to an optimal viewing position on the display panel 102, and generating a warning sound from the speaker 108. The system control information for the child guidance realizing process calculated by the system optimization processing unit 120 is sent to the system control unit 122 and used for the child approach prevention process.

以上、図3を用いて本発明の一実施形態にかかる画像表示装置100に含まれる制御部110の構成について説明した。次に、本発明の一実施形態にかかる画像表示装置100による子供接近防止処理について説明する。   The configuration of the control unit 110 included in the image display device 100 according to the embodiment of the present invention has been described above with reference to FIG. Next, child approach prevention processing by the image display apparatus 100 according to an embodiment of the present invention will be described.

[1−3.子供接近防止処理]
図6は、本発明の一実施形態にかかる画像表示装置100による子供接近防止処理の一例について示す流れ図である。以下、図6を用いて本発明の一実施形態にかかる画像表示装置100による子供接近防止処理について説明する。
[1-3. Child approach prevention process]
FIG. 6 is a flowchart showing an example of the child approach prevention process by the image display apparatus 100 according to the embodiment of the present invention. Hereinafter, the child approach prevention processing by the image display apparatus 100 according to the embodiment of the present invention will be described with reference to FIG.

図6において、まず、画像表示装置100の撮像部104が撮像を開始すると、画像表示装置100の画像処理部114は、撮像部104で撮像された画像に含まれる顔の検出処理などを実行して、画像表示装置100が表示している画像を視聴している人物の顔を認識する(ステップS602)。   In FIG. 6, first, when the imaging unit 104 of the image display device 100 starts imaging, the image processing unit 114 of the image display device 100 executes processing for detecting a face included in the image captured by the imaging unit 104 and the like. Then, the face of the person viewing the image displayed on the image display device 100 is recognized (step S602).

次いで、画像表示装置100の視聴状態解析部116は、画像処理部114から送られてくる情報を用いた、画像表示装置100を視聴している人間の視聴位置の解析処理や子供であるか大人であるかの解析処理を行う。そして、画像表示装置100のシステム最適化処理部120は、視聴状態解析部116による解析処理の結果を用いて、子供が画像表示装置100の視聴に適さない位置にいるか、すなわち画像表示装置100に接近しているか否かを判別する。具体的には、システム最適化処理部120は、子供の顔を検出したか、かつ子供の顔の大きさ、すなわち顔サイズが所定値以上であるか否かを判別する(ステップS604)。なお、画像表示装置100には、基準位置における子供の基準顔サイズが予め登録されているものとする。また、所定値は画像表示装置100の視聴に適しない位置での子供の顔サイズである。   Next, the viewing state analysis unit 116 of the image display device 100 uses the information sent from the image processing unit 114 to analyze the viewing position of the person viewing the image display device 100, or to be a child or an adult. Analyze whether it is. Then, the system optimization processing unit 120 of the image display device 100 uses the result of the analysis processing by the viewing state analysis unit 116 to determine whether the child is in a position not suitable for viewing of the image display device 100, that is, to the image display device 100. It is determined whether or not they are approaching. Specifically, the system optimization processing unit 120 determines whether a child's face has been detected and whether the size of the child's face, that is, the face size is greater than or equal to a predetermined value (step S604). It is assumed that the child's reference face size at the reference position is registered in the image display device 100 in advance. The predetermined value is the face size of the child at a position that is not suitable for viewing the image display device 100.

ステップS604の判別の結果、子供の顔を検出し、かつ子供の顔サイズが所定値以上であるときは(ステップS604でYES)、システム最適化処理部120は、過去所定時間内に検出された子供接近の回数が所定数以上であるか否かを判別し(ステップS606)、過去所定時間内に検出された子供接近の回数が所定数以上でないときは(ステップS606でNO)、ステップS602の処理に戻る。また、所定時間は、適宜設定することができる。また、所定数は、設定された所定時間によって適宜変更することができる。   As a result of the determination in step S604, when the child's face is detected and the child's face size is greater than or equal to a predetermined value (YES in step S604), the system optimization processing unit 120 has detected the child within the past predetermined time. It is determined whether or not the number of child approaches is greater than or equal to a predetermined number (step S606). If the number of child approaches detected in the past predetermined time is not greater than or equal to the predetermined number (NO in step S606), step S602 is performed. Return to processing. The predetermined time can be set as appropriate. The predetermined number can be changed as appropriate according to the set predetermined time.

ステップS606の判別の結果、過去所定時間内に検出された子供接近の回数が所定数以上であるときは(ステップステップS606でYES)、システム最適化処理部120は、画像表示装置100に子供が接近していると判断する(ステップS608)。   As a result of the determination in step S606, when the number of child approaches detected in the past predetermined time is equal to or greater than the predetermined number (YES in step S606), the system optimization processing unit 120 causes the image display device 100 to display a child. It is determined that the vehicle is approaching (step S608).

次いで、システム最適化処理部120は、上述した子供誘導実現処理のためのシステム制御情報を算出して、算出したシステム制御情報をシステム制御部122に送る。そして、システム制御部122は、システム最適化処理部120から受け取ったシステム制御情報に基づいて、表示パネル102の輝度制御、表示パネル102の表示内容の制御、スピーカ108から出力される音声内容の制御等を実行する(ステップS610)。例えば、図7(A)に示すように、表示パネル102の輝度を低下させるとともに、表示パネル102において最適な視聴位置への誘導メッセージを表示する。また、図7(B)に示すように、表示パネル102の明るさをオフにするとともに、表示パネル102において最適な視聴位置への誘導メッセージを表示する。また、図7(C)に示すように、表示パネル102の輝度を低下させるとともに、表示パネル102において画像表示処理100とユーザとの接近距離のグラフ表示と警告メッセージを表示する。また、図7(D)に示すように、表示パネル102の明るさをオフにするとともに、スピーカ108から警告音声を発生させる。また、上述した処理とともに、リモートコントローラ(図示せず)を振動させてもよい。そして、ステップS602の処理に戻る。   Next, the system optimization processing unit 120 calculates system control information for the above-described child guidance realizing process, and sends the calculated system control information to the system control unit 122. Based on the system control information received from the system optimization processing unit 120, the system control unit 122 controls the brightness of the display panel 102, the display content of the display panel 102, and the control of the audio content output from the speaker 108. Etc. are executed (step S610). For example, as shown in FIG. 7A, the brightness of the display panel 102 is lowered and a guidance message to the optimal viewing position is displayed on the display panel 102. Further, as shown in FIG. 7B, the brightness of the display panel 102 is turned off, and a guidance message to the optimum viewing position is displayed on the display panel 102. Further, as shown in FIG. 7C, the brightness of the display panel 102 is reduced, and a graph display of the approach distance between the image display processing 100 and the user and a warning message are displayed on the display panel 102. Further, as shown in FIG. 7D, the brightness of the display panel 102 is turned off and a warning sound is generated from the speaker 108. Moreover, you may vibrate a remote controller (not shown) with the process mentioned above. Then, the process returns to step S602.

ステップS604の判別の結果、子供の顔を検出し、かつ子供の顔サイズが所定値以上でないときは(ステップS604でNO)、システム最適化処理部120は、所定値以下の顔サイズの子供を検出したか、もしくは子供以外の顔を検出したか否かを判別し(ステップS612)、所定値以下の顔サイズの子供や子供以外の顔を検出していないときは(ステップS612でNO)、ステップS602の処理に戻る。   As a result of the determination in step S604, when the child's face is detected and the child's face size is not equal to or larger than the predetermined value (NO in step S604), the system optimization processing unit 120 selects a child whose face size is equal to or smaller than the predetermined value. It is determined whether or not a face other than a child has been detected (step S612). When a face other than a child or child having a face size equal to or smaller than a predetermined value is not detected (NO in step S612), The process returns to step S602.

ステップS612の判別の結果、所定値以下の顔サイズの子供、もしくは子供以外の顔を検出したときは(ステップS612でYES)、システム最適化処理部120は、過去所定時間内に検出された子供接近の回数が所定数以下であるか否かを判別し(ステップS614)、過去所定時間内に検出された子供接近の回数が所定数以下でないときは(ステップS614でNO)、ステップS602の処理に戻る。   As a result of the determination in step S612, when a child having a face size equal to or smaller than the predetermined value or a face other than a child is detected (YES in step S612), the system optimization processing unit 120 detects the child detected within the past predetermined time. It is determined whether or not the number of approaches is less than or equal to a predetermined number (step S614). If the number of child approaches detected within the past predetermined time is not less than or equal to the predetermined number (NO in step S614), the process of step S602 is performed. Return to.

ステップS614の判別の結果、過去所定時間内に検出された子供接近の回数が所定数以下であるときは(ステップS614でYES)、システム最適化処理部120は、画像表示装置100に子供が接近していないと判断する(ステップS616)。   As a result of the determination in step S614, when the number of child approaches detected in the past predetermined time is equal to or less than the predetermined number (YES in step S614), the system optimization processing unit 120 causes the image display device 100 to approach the child. It is determined that it has not been done (step S616).

次いで、システム最適化処理部120は、システム制御部122が上述した子供誘導実現処理のためのシステム制御情報に基づいて、表示パネル102の輝度制御、表示パネル102の表示内容の制御、スピーカから出力される音声内容の制御等を実行している場合には、通常の表示処理に戻すためのシステム制御情報を算出して、算出したシステム制御情報をシステム制御部122に送る。そして、システム制御部122は、システム最適化処理部120から受け取ったシステム制御情報に基づいて、表示パネル102の輝度や表示内容、スピーカ108から出力される音声内容を通常の状態に戻す処理を実行する(ステップS618)。そして、ステップS602の処理に戻る。   Next, the system optimization processing unit 120 controls the brightness of the display panel 102, the display content of the display panel 102, and the output from the speaker based on the system control information for the child guidance realizing process described above by the system control unit 122. When the control of the audio content to be performed is executed, the system control information for returning to the normal display process is calculated, and the calculated system control information is sent to the system control unit 122. Based on the system control information received from the system optimization processing unit 120, the system control unit 122 executes processing for returning the luminance and display content of the display panel 102 and the audio content output from the speaker 108 to a normal state. (Step S618). Then, the process returns to step S602.

図6の子供接近防止処理によれば、過去所定時間内に検出された子供接近の回数が所定数以上であるときに、システム最適化処理部120が画像表示装置100に子供が接近していると判断する。そして、システム制御部122が子供を画像表示装置100の視聴に適した位置へ誘導するための処理、例えば、図7(A)に示す表示パネル102の輝度を低下させるとともに、表示パネル102において誘導メッセージを表示する処理を実行する。これにより、子供が画像表示装置100に接近して、子供が画像表示装置100の視聴に不適な位置で視聴するのを防止することができる。したがって、子供が画像表示装置100に接近して視聴し続けることによる、フォーカスが固定することに起因する視力の低下や癲癇の発生を防止することができる。また、子供が画像表示装置100に過度に接近することによる、画像表示装置100の転倒を防止することができる。また、子供が画像表示装置100に接近して画像表示装置100の表示部分を破壊したり、破損した画像表示装置100の表示部分によってけがをしたりする虞をなくすことができる。   According to the child approach prevention process of FIG. 6, when the number of child approaches detected in the past predetermined time is equal to or greater than the predetermined number, the system optimization processing unit 120 is approaching the image display device 100 with a child. Judge. Then, the system control unit 122 performs processing for guiding the child to a position suitable for viewing of the image display device 100, for example, reduces the luminance of the display panel 102 shown in FIG. Execute the process to display the message. Accordingly, it is possible to prevent the child from approaching the image display device 100 and viewing the child at a position unsuitable for viewing the image display device 100. Accordingly, it is possible to prevent a decrease in visual acuity and generation of wrinkles due to the fixed focus caused by the child continuing to watch the image display apparatus 100 while approaching. In addition, it is possible to prevent the image display apparatus 100 from being overturned when the child approaches the image display apparatus 100 excessively. Further, it is possible to eliminate the possibility that a child approaches the image display device 100 and destroys the display portion of the image display device 100, or the injury is caused by the damaged display portion of the image display device 100.

また、本実施の形態では、図8(A)〜図8(C)に示すように、ユーザの視聴位置の算出において、基準距離d0における基準顔サイズ[w0,h0]を以下のような補正テーブルを用いることで顔サイズのバラつきを補正してもよい。例えば、ユーザの年齢などの属性情報から、その年齢における平均的な顔サイズのデータテーブルを予め記憶しておき、例えばユーザが子供であれば基準顔サイズ[w0,h0]を図8(C)に示す基準顔サイズよりも小さい顔サイズ[w0C,h0C]にし、ユーザが大人であれば基準顔サイズ[w0,h0]を図8(B)に示す基準顔サイズよりも大きい顔サイズ[w0A,h0A]にしてもよい。   In the present embodiment, as shown in FIGS. 8A to 8C, the reference face size [w0, h0] at the reference distance d0 is corrected as follows in the calculation of the viewing position of the user. The variation in face size may be corrected by using a table. For example, based on attribute information such as the user's age, a data table of the average face size at that age is stored in advance. For example, if the user is a child, the reference face size [w0, h0] is shown in FIG. The face size [w0C, h0C] is smaller than the reference face size shown in FIG. 8, and if the user is an adult, the reference face size [w0, h0] is larger than the reference face size shown in FIG. 8B [w0A, h0A].

また、本実施の形態では、ユーザの視聴位置の算出において、画像表示装置100を利用するユーザ、例えば画像表示装置100の設置場所の家族などを予め画像表示装置100に登録する際に、ユーザ毎の顔サイズをデータテーブルとして登録してもよい。これにより、ユーザ毎に基準顔サイズを変更することができる。ユーザ毎の顔サイズの登録方法としては、別の距離センサ(図示せず)と連動して距離情報とともに撮影することや、ユーザを一定距離に誘導してから撮影することや、基準となる尺度と同じ距離で撮影することなどで実現可能である。   In the present embodiment, in calculating the viewing position of a user, when a user who uses the image display device 100, for example, a family at a place where the image display device 100 is installed, is registered in the image display device 100 in advance. May be registered as a data table. Thereby, the reference face size can be changed for each user. The registration method of the face size for each user includes photographing with distance information in conjunction with another distance sensor (not shown), photographing after guiding the user to a certain distance, and a standard scale This can be achieved by shooting at the same distance.

また、図9に示すように、同一のユーザであっても、ユーザの属性情報は時系列的に変動が生ずることがあるため、本実施の形態では、システム最適化処理部120におけるユーザが子供であるか大人であるかの判定においては、時系列的な傾向をもとに、すなわち過去の判定履歴を用いて判定を行う。例えば、図9に示すように、t1時点においては、ユーザの属性情報は子供の属性情報であり、t2時点においては、ユーザの属性情報は大人の属性情報であり、t3時点においては、ユーザの属性情報は子供の属性情報であるとする。この場合、所定時間の間、すなわちt1〜t3の間における子供の判定が一定数、例えば2以上であるので子供であると判定することができる。   In addition, as shown in FIG. 9, even in the same user, the user attribute information may vary in time series. Therefore, in this embodiment, the user in the system optimization processing unit 120 is a child. In determining whether the person is an adult or not, the determination is made based on a time-series tendency, that is, using a past determination history. For example, as shown in FIG. 9, at time t1, the user's attribute information is child attribute information, at time t2, the user's attribute information is adult attribute information, and at time t3, the user's attribute information. It is assumed that the attribute information is child attribute information. In this case, it is possible to determine that the child is a child because the determination of the child during a predetermined time, that is, between t1 and t3 is a certain number, for example, 2 or more.

また、本実施の形態では、過去所定時間内に検出された子供接近の回数が所定数以上であるときに、子供接近と判定したが、図10(A)及び図10(B)に示すように、ユーザがt3時点でのように撮像部104に接近しすぎて、ユーザの顔が撮像部104の画角外に出てしまい顔を検出できなくなる場合がある。このため、本実施の形態では、ユーザの顔が検出されなくなったt3時点の直前のt1時点及びt2時点での情報、すなわち過去の位置の算出履歴を用いてt3時点での位置を算出または推測して、ユーザが撮像部104の撮像範囲を超えて接近していると判断してもよい。また、ユーザの身体の一部が撮像部104を覆っている場合には、背景差分や動体検出(動き領域の大きさ)等によって、上述したユーザが撮像部104の撮像範囲を超えて接近していることの判定精度を向上させることができる。   In the present embodiment, when the number of child approaches detected within the past predetermined time is greater than or equal to the predetermined number, it is determined that the child is approaching, but as shown in FIGS. 10A and 10B. In addition, the user may be too close to the imaging unit 104 as at time t3, and the user's face may go out of the angle of view of the imaging unit 104, making it impossible to detect the face. For this reason, in the present embodiment, the position at the time t3 is calculated or estimated using the information at the time t1 and the time t2 immediately before the time t3 when the user's face is no longer detected, that is, the past position calculation history. Then, it may be determined that the user is approaching beyond the imaging range of the imaging unit 104. Further, when a part of the user's body covers the imaging unit 104, the above-described user approaches the imaging range of the imaging unit 104 due to background difference, moving object detection (the size of the motion region), or the like. It is possible to improve the determination accuracy.

また、本実施の形態では、ユーザの年齢などの属性情報を用いた、ユーザが子供であるか大人であるかの判定において、ユーザが子供であるか否かの判定と、ユーザが大人であるか否かの判定とを組み合わせて行うことにより、子供判定における誤判定の割合を低減する。以下、具体的に子供判定における誤判定の割合の低減方法について説明する。   In the present embodiment, in determining whether the user is a child or an adult using attribute information such as the user's age, whether the user is a child and whether the user is an adult This is combined with the determination of whether or not to reduce the rate of erroneous determination in child determination. Hereinafter, a method for reducing the erroneous determination ratio in the child determination will be specifically described.

まず、ユーザが子供であるか否かの判定の結果としては、図11に示すように、以下の4つのケースがある。
ケースA:TruePositive(正しく子供と判定した。)
ケースB:FalseNegative(子供と判定すべきところを子供と判定しなかった。)
ケースC:FalsePositive(子供と判定すべきでないところを子供と判定した。)
ケースD:TrueNegative(正しく子供と判定しなかった。)
First, as a result of the determination as to whether or not the user is a child, there are the following four cases as shown in FIG.
Case A: TruePositive (determined correctly as a child)
Case B: FalseNegative (where a child should not be determined as a child)
Case C: FalsePositive (where a child should not be determined as a child)
Case D: TrueNegative (not correctly determined as a child)

本実施の形態では、子供が画像表示装置100に接近することを正しく検知したいため、ユーザが子供であるか否かの判定では、ケースCの子供と判定すべきでないところを子供と判定するのを削減したい。例えば、子供であるか否かの判定精度が85%@FPR10%とする。ここで、
FPR(False Positive Rate)=ケースC/(ケースC+ケースD)、
精度(Precision)=ケースA/(ケースA+ケースC)
とする。
In the present embodiment, since it is desired to correctly detect that the child is approaching the image display apparatus 100, in the determination as to whether or not the user is a child, a portion that should not be determined as a child in case C is determined as a child. Want to reduce. For example, the determination accuracy of whether or not a child is 85% @ FPR10%. here,
FPR (False Positive Rate) = Case C / (Case C + Case D),
Precision (Precision) = Case A / (Case A + Case C)
And

実際に子供である100人の人物と、実際に大人である150人の人物とを上述した判定精度で子供であるか否かの判定を行った場合において、100人が子供であると判定されたときは、ケースAに該当するのは85人となり、ケースBに該当するのは15人となり、ケースCに該当するのは15人となり、ケースDに該当するのは135人となる。したがって、実際に子供である100人の人物の内、85人を正しく子供と判定し、実際に大人である150人の人物の内、15人を間違って子供と判定することになる。   When it is determined whether 100 persons who are actually children and 150 persons who are actually adults are children with the above-described determination accuracy, 100 persons are determined to be children. In this case, 85 people correspond to case A, 15 people fall into case B, 15 people fall into case C, and 135 people fall into case D. Therefore, 85 out of 100 persons who are actually children are correctly determined as children, and 15 out of 150 persons who are actually adults are erroneously determined as children.

本実施の形態では、図12に示すように、子供であるか否かの判定を行った後に、大人であるか否かの判定を行う。例えば、上述したように、子供であるか否かの判定において、子供と判定された実際に子供である85人の人物と、実際には大人である15人の人物とを大人であるか否かの判定を行った場合、実際に大人である人物は実際には子供である人物よりも大人と判定されやすいと期待できるため、例えば、実際には子供である85人の人物の内、10人を間違って大人と判定し、実際に大人である15人の人物の内、10人を正しく大人と判定することが期待できる。したがって、実際に子供である85人の人物の内、75人を正しく大人でないと判定し、実際に大人である15人の人物の内、5人を間違って大人でないと判定することになる。このように、本実施の形態では、子供であるか否かの判定と、大人であるか否かの判定とを組み合わせて子供であるか否かの判定を行うので、図12に示すように、子供であるか否かの判定精度を、子供であるか否かのみでの判定精度85%から、子供であるか否かの判定と大人であるか否かの判定との組み合わせでの判定精度93.75%に向上させることができる。   In the present embodiment, as shown in FIG. 12, after determining whether or not a child, it is determined whether or not an adult. For example, as described above, in the determination of whether or not a child, whether or not 85 persons who are actually children and 15 persons who are actually adults are adults. Since it can be expected that a person who is actually an adult is more likely to be determined to be an adult than a person who is actually a child, for example, among the 85 persons who are actually children, 10 It can be expected that a person is erroneously determined as an adult, and that 10 out of 15 persons who are actually adults are correctly determined as adults. Therefore, of the 85 persons who are actually children, 75 are determined not to be adults correctly, and among the 15 persons who are actually adults, 5 are erroneously determined not to be adults. As described above, in the present embodiment, the determination as to whether or not a child is combined with the determination as to whether or not an adult is performed to determine whether or not a child is present, as shown in FIG. The determination accuracy of whether or not a child is determined based on a combination of determination of whether or not a child and determination of whether or not an adult from 85% determination accuracy based only on whether or not a child The accuracy can be improved to 93.75%.

なお、上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware, or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

100 画像表示装置
102 表示パネル
104 撮像部
106 センサ
108 スピーカ
110 制御部
112 画像入力部
114 画像処理部
116 視聴状態解析部
118 視聴状態記録部
120 システム最適化処理部
122 システム制御部
132 ユーザ方向/距離算出部
134 ユーザ属性解析部

DESCRIPTION OF SYMBOLS 100 Image display apparatus 102 Display panel 104 Image pick-up part 106 Sensor 108 Speaker 110 Control part 112 Image input part 114 Image processing part 116 Viewing state analysis part 118 Viewing state recording part 120 System optimization process part 122 System control part 132 User direction / distance Calculation unit 134 User attribute analysis unit

Claims (7)

画像表示方向に対する所定の範囲の動画像を撮像する撮像部と、
前記撮像部が撮像した動画像を解析して、視聴者の顔の検出および前記視聴者が子供であるか大人であるかの判定を行い、前記視聴者が子供であると判定される場合で、前記子供の顔の大きさが所定の大きさ以上であるときに、接近回数をカウントする画像解析部と、
前記接近回数が所定の回数以上である場合、前記子供を適切な視聴位置に誘導するための表示を表示部に行わせる表示制御部と、
を備える表示装置。
An imaging unit that captures a predetermined range of moving images with respect to the image display direction;
When the moving image captured by the imaging unit is analyzed to detect the viewer's face and determine whether the viewer is a child or an adult, and the viewer is determined to be a child An image analysis unit that counts the number of approaches when the size of the child's face is equal to or larger than a predetermined size ;
When the number of times of approach is a predetermined number or more, a display control unit that causes the display unit to perform display for guiding the child to an appropriate viewing position;
A display device comprising:
前記所定の大きさは、ユーザの年齢に応じた大きさである、請求項に記載の表示装置 The display device according to claim 1 , wherein the predetermined size is a size according to a user's age. 前記所定の大きさは、ユーザ毎に登録される、請求項に記載の表示装置。 The display device according to claim 1 , wherein the predetermined size is registered for each user. 前記画像解析部は、さらに前記画像解析部の前記子供であるかの判定の履歴を用いて視聴者が子供であるかの判定を行う、請求項に記載の表示装置。 The display device according to claim 1 , wherein the image analysis unit further determines whether or not the viewer is a child using a history of determining whether or not the image analysis unit is the child. 前記画像解析部は、さらに、子供の顔が検出されなくなった場合、過去の検出結果を用いて前記子供の位置が視聴に不適な位置であるかの判定を行う、請求項に記載の表示装置。 The display according to claim 1 , wherein the image analysis unit further determines whether the position of the child is unsuitable for viewing using a past detection result when the face of the child is no longer detected. apparatus. 前記画像解析部は、視聴者が子供であるか大人であるかの判定において、視聴者が子供であるか否かの判定と、視聴者が大人であるか否かの判定と、を組み合わせて判定を行う、請求項1に記載の表示装置。   In the determination of whether the viewer is a child or an adult, the image analysis unit combines the determination of whether the viewer is a child and the determination of whether the viewer is an adult. The display device according to claim 1, wherein the determination is performed. 画像表示方向に対する所定の範囲の動画像を撮像することと、
撮像した動画像を解析して、視聴者の顔の検出および前記視聴者が子供であるか大人であるかの判定を行い、前記視聴者が子供であると判定される場合で、前記子供の顔の大きさが所定の大きさ以上であるときに、接近回数をカウントすることと、
前記接近回数が所定の回数以上である場合、前記子供を適切な視聴位置に誘導するための表示を表示部に行わせることと、
を含む制御方法。
Capturing a predetermined range of moving images in the image display direction;
The captured moving image is analyzed to detect a viewer's face and determine whether the viewer is a child or an adult. When the viewer is determined to be a child, Counting the number of approaches when the face size is greater than or equal to a predetermined size ,
When the number of approaches is a predetermined number or more, causing the display unit to display to guide the child to an appropriate viewing position;
Control method.
JP2013238462A 2013-11-19 2013-11-19 Display device and control method Expired - Fee Related JP5720758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013238462A JP5720758B2 (en) 2013-11-19 2013-11-19 Display device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013238462A JP5720758B2 (en) 2013-11-19 2013-11-19 Display device and control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009210988A Division JP5418093B2 (en) 2009-09-11 2009-09-11 Display device and control method

Publications (2)

Publication Number Publication Date
JP2014078956A JP2014078956A (en) 2014-05-01
JP5720758B2 true JP5720758B2 (en) 2015-05-20

Family

ID=50783886

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013238462A Expired - Fee Related JP5720758B2 (en) 2013-11-19 2013-11-19 Display device and control method

Country Status (1)

Country Link
JP (1) JP5720758B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021093083A (en) * 2019-12-12 2021-06-17 シャープ株式会社 Display device, suppression processing method, control program, and recording medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07303195A (en) * 1994-05-09 1995-11-14 Kazuo Matsumura Controller for image display device
JP3350721B2 (en) * 1994-10-07 2002-11-25 シャープ株式会社 Clothing amount measuring device and clothing amount measuring method
JP2000152109A (en) * 1998-11-11 2000-05-30 Matsushita Electric Ind Co Ltd Television receiver
JP2001016514A (en) * 1999-06-30 2001-01-19 Matsushita Electric Ind Co Ltd Display device with recognizing function

Also Published As

Publication number Publication date
JP2014078956A (en) 2014-05-01

Similar Documents

Publication Publication Date Title
JP5418093B2 (en) Display device and control method
JP5568929B2 (en) Display device and control method
US10182720B2 (en) System and method for interacting with and analyzing media on a display using eye gaze tracking
JP5263092B2 (en) Display device and control method
US9298246B2 (en) Information processing device, system, and information processing method
JP4697279B2 (en) Image display device and detection method
JP2007265125A (en) Content display
US9286850B2 (en) Display method and display apparatus
WO2007074842A1 (en) Image processing apparatus
KR20160121287A (en) Device and method to display screen based on event
JPH1124603A (en) Information display device and information collecting device
JP2013115644A (en) Display device and display method
KR101647969B1 (en) Apparatus for detecting user gaze point, and method thereof
CN110825220A (en) Eyeball tracking control method and device, intelligent projector and storage medium
US11477433B2 (en) Information processor, information processing method, and program
WO2018112838A1 (en) Head-mounted display apparatus, and visual-aid providing method thereof
JP5720758B2 (en) Display device and control method
TW201709022A (en) Non-contact control system and method
CN114740966A (en) Multi-modal image display control method and system and computer equipment
JP6198187B2 (en) Signal processing apparatus and signal processing method
JP2012174057A (en) Display device, television receiver, specification method, computer program and recording medium
KR101414345B1 (en) Input device using camera and method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150309

R151 Written notification of patent or utility model registration

Ref document number: 5720758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees