JP4225307B2 - Television receiver - Google Patents

Television receiver Download PDF

Info

Publication number
JP4225307B2
JP4225307B2 JP2005265456A JP2005265456A JP4225307B2 JP 4225307 B2 JP4225307 B2 JP 4225307B2 JP 2005265456 A JP2005265456 A JP 2005265456A JP 2005265456 A JP2005265456 A JP 2005265456A JP 4225307 B2 JP4225307 B2 JP 4225307B2
Authority
JP
Japan
Prior art keywords
viewer
unit
data
television receiver
television
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005265456A
Other languages
Japanese (ja)
Other versions
JP2007081677A (en
Inventor
康生 政木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2005265456A priority Critical patent/JP4225307B2/en
Publication of JP2007081677A publication Critical patent/JP2007081677A/en
Application granted granted Critical
Publication of JP4225307B2 publication Critical patent/JP4225307B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Circuits Of Receivers In General (AREA)

Description

本発明はテレビジョン受信装置に関し、より特定的には、視聴者に応じた表示あるいは音声出力を行なうテレビジョン受信装置に関する。   The present invention relates to a television receiver, and more particularly to a television receiver that performs display or audio output according to a viewer.

テレビジョン受信装置(以下、単に「テレビ」という。)の視聴者は、テレビのリモコン端末を操作することにより、画面の表示を切り替え、あるいは音量を調整する。このようなテレビに対して、視聴者の認識機能を有し、認識された視聴者に応じた動作を行なうテレビが提案されている。   A viewer of a television receiving device (hereinafter simply referred to as “TV”) switches the screen display or adjusts the volume by operating a remote control terminal of the television. For such a television, a television having a viewer recognition function and performing an operation according to the recognized viewer has been proposed.

たとえば、特開平8−9282号公報(特許文献1)は、過去の受信頻度に限定されず、視聴者の嗜好に応じた番組を選択して提示することができるテレビジョン選局装置を開示する。このテレビジョン選局装置は、リモコン装置に設けられた個人認識センサおよび個人認識論理部によって、リモコンを操作する視聴者を個人認識する。復調分離部は、チューナで受信された放送から、番組と番組内容を説明する番組情報とを分離する。番組評価部は、番組毎に番組情報からキーワードを抽出し、このキーワード毎の適合度を視聴者毎に記憶されたフィルタリングパラメータ記憶・更新部から読み出し、適合度の合計である評価値を番組毎に計算する。番組提示部は、各チャンネルの画像をテクスチャ化し、評価値の高い番組を手前に3次元空間内にテクスチャを貼り付けてCRT(Cathode Ray Tube)に表示する。その結果、過去の受信頻度に限定されず、視聴者の嗜好に応じた番組が、選択して提示される。   For example, Japanese Patent Laid-Open No. 8-9282 (Patent Document 1) discloses a television channel selection device that can select and present a program according to the viewer's preference without being limited to the past reception frequency. . This television channel selection device recognizes a viewer who operates the remote control by a personal recognition sensor and a personal recognition logic unit provided in the remote control device. The demodulating / separating unit separates the program and the program information explaining the program contents from the broadcast received by the tuner. The program evaluation unit extracts a keyword from the program information for each program, reads out the suitability for each keyword from the filtering parameter storage / update unit stored for each viewer, and calculates an evaluation value that is the sum of the suitability for each program. To calculate. The program presentation unit textures the image of each channel, pastes the texture in the three-dimensional space in front of a program with a high evaluation value, and displays it on a CRT (Cathode Ray Tube). As a result, the program according to the viewer's preference is selected and presented without being limited to the past reception frequency.

また、特開2001−16514号公報(特許文献2)は、視聴者に応じた動作を行なうことができる認識機能付表示装置を開示する。この表示装置は、視聴者の眼の虹彩パターンを撮影する虹彩認識カメラと、虹彩認識カメラで撮影された虹彩パターンに基づいて視聴者を特定する視聴者特定手段とを備える。視聴者が幼児や未成年者の場合には、教育上悪影響を与える画面が表示されるときに、チャンネルが切り替えられ、警告が発せられ、あるいは、電源が遮断される。   Japanese Patent Laying-Open No. 2001-16514 (Patent Document 2) discloses a display device with a recognition function that can perform an operation according to a viewer. The display device includes an iris recognition camera that captures an iris pattern of the viewer's eyes, and a viewer identification unit that identifies the viewer based on the iris pattern captured by the iris recognition camera. When the viewer is an infant or a minor, the channel is switched, a warning is issued, or the power is shut off when a screen that adversely affects education is displayed.

また、特開2002−112218号公報(特許文献3)は、個々の視聴者にとって最適な条件で視聴することが可能な、あるいは、電力の浪費を抑制可能な表示装置を開示する。この表示装置は、利用状態を識別する利用状態識別手段からの識別情報と、当該識別情報に対応した制御情報を記憶するデータ記憶手段と、識別情報に基づいて画像を制御する画面制御手段と音声を制御する音声制御手段とに信号を出力する情報処理手段とを備える。   Japanese Patent Laying-Open No. 2002-112218 (Patent Document 3) discloses a display device that can be viewed under optimum conditions for individual viewers or can suppress waste of power. The display device includes identification information from a utilization state identification unit that identifies a utilization state, data storage unit that stores control information corresponding to the identification information, a screen control unit that controls an image based on the identification information, and audio And an information processing means for outputting a signal to the sound control means for controlling the sound.

さらに、特開平10−243309号公報(特許文献4)は、番組視聴中などでも視聴者が視聴制限の操作や設定に煩わされることがない放送受信装置を開示する。この放送受信装置は、放送された番組を受信する受信部と、受信部により受信された番組を出力する出力部を用いて番組を視聴する視聴者を撮像するための視聴者撮像部と、視聴者撮像部の撮像画像から視聴者を認識する視聴者認識部と、視聴者認識部により認識された視聴者に、出力部により出力される番組の視聴が許可されているか否かを判別する視聴許可判別部と、視聴許可判別部の判別結果に従って出力部の出力内容を制御する出力内容制御部とを備える。   Furthermore, Japanese Patent Laid-Open No. 10-243309 (Patent Document 4) discloses a broadcast receiving apparatus in which the viewer is not bothered by the operation and setting of viewing restriction even during program viewing. The broadcast receiving apparatus includes: a receiving unit that receives a broadcasted program; a viewer imaging unit that images a viewer who views the program using an output unit that outputs the program received by the receiving unit; A viewer recognition unit that recognizes the viewer from the captured image of the viewer imaging unit, and a viewing that determines whether or not the viewer recognized by the viewer recognition unit is permitted to view the program output by the output unit An permission determining unit and an output content control unit that controls the output content of the output unit according to the determination result of the viewing permission determining unit.

このように、上記の各技術によれば、視聴者による操作を必要とすることなく、視聴者に応じてテレビの動作を制御することが可能になる。
特開平8−9282号公報 特開2001−16514号公報 特開2002−112218号公報 特開平10−243309号公報
Thus, according to each of the above-described techniques, it is possible to control the operation of the television according to the viewer without requiring an operation by the viewer.
JP-A-8-9282 JP 2001-16514 A JP 2002-112218 A Japanese Patent Laid-Open No. 10-243309

しかしながら、特開平8−9282号公報に開示された技術によれば、番組と番組情報とを含む放送信号に対して適用可能である。そのため、番組情報を含まない放送信号に対しては、視聴者の嗜好に応じた番組を選択して提示できない可能性がある。   However, the technique disclosed in Japanese Patent Laid-Open No. 8-9282 can be applied to a broadcast signal including a program and program information. Therefore, for broadcast signals that do not include program information, there is a possibility that a program according to the viewer's preference cannot be selected and presented.

また、特開2001−16514号公報に開示された技術によれば、表示装置と視聴者の虹彩との距離によっては虹彩パターンが認識されない可能性がある。また、視聴者が眼鏡を着用している場合、レンズのために虹彩パターンが認識されない可能性もある。   Further, according to the technique disclosed in Japanese Patent Laid-Open No. 2001-16514, the iris pattern may not be recognized depending on the distance between the display device and the viewer's iris. Also, if the viewer is wearing glasses, the iris pattern may not be recognized due to the lens.

また、特開2002−112218号公報に開示された技術によれば、同一の視聴者は、日によって異なった場所で視聴しても、同一の条件で視聴することになり、最適な視聴が実現されない可能性もある。   Further, according to the technology disclosed in Japanese Patent Laid-Open No. 2002-112218, even if the same viewer views at different places depending on the day, the viewer can view under the same conditions, thereby realizing optimal viewing. It may not be possible.

また、特開平10−243309号公報に開示された技術によれば、視聴者の位置に応じた動作の制御が行なわれないという問題がある。   In addition, according to the technique disclosed in Japanese Patent Laid-Open No. 10-243309, there is a problem that the operation is not controlled according to the position of the viewer.

さらに、上述の各技術によれば、一人の視聴者を認識して、認識結果に応じた制御は可能であっても、複数の視聴者が視聴している場合には、当該制御が実現されないという問題もある。   Furthermore, according to each of the above-described techniques, even if one viewer is recognized and control according to the recognition result is possible, the control is not realized when a plurality of viewers are viewing. There is also a problem.

本発明は、上述の問題点を解決するためになされたものであって、その第1の目的は、視聴者が視聴する位置に応じて動作を調整できるテレビジョン受信装置を提供することである。   The present invention has been made to solve the above-described problems, and a first object of the present invention is to provide a television receiver capable of adjusting the operation according to the position where the viewer views. .

第2の目的は、視聴者の位置が日によって異なっても、動作を調整できるテレビジョン受信装置を提供することである。   The second object is to provide a television receiver capable of adjusting the operation even when the position of the viewer varies from day to day.

第3の目的は、複数の視聴者が視聴していても、動作を調整できるテレビジョン受信装置を提供することである。   A third object is to provide a television receiver capable of adjusting the operation even when a plurality of viewers are viewing.

上記の課題を解決するために、この発明のある局面に従うテレビジョン受信装置は、被写体を撮影して画像データを生成する撮像部と、入力される信号に応じて音声を出力する音声出力部と、テレビジョン受信装置に対して予め定められた標準の視聴位置における視聴者を撮影することにより生成された画像データから算出された特徴量と、視聴者の位置に応じて音声の出力を制御する制御データとを格納する記憶部とを備える。特徴量は、視聴者の顔の特徴点間の画素数を含む。テレビジョン受信装置は、テレビジョン受信装置の視聴に応答して、撮像手段に視聴者を撮影させる撮影制御手段と、視聴に応答して撮影された被写体の画像データから、視聴者の顔の画像が含まれる画像領域を抽出する検出手段と、画像領域に対応するデータに基づいて、視聴に応答して撮影された視聴者の顔の特徴点間の画素数を算出する算出手段と、記憶部に格納されている画素数と算出手段により算出された画素数とに基づいて、視聴者がテレビジョン受信装置に登録されている視聴者であるか否かを確認する確認手段と、視聴者がテレビジョン受信装置に登録されていることが確認された場合に、記憶部に格納されている画素数と算出手段により算出された画素数との比に基づいて、標準の視聴位置と視聴時の位置との位置関係を表わす情報を算出する位置情報算出手段とを備える。位置関係は、テレビジョン受信装置と視聴者との遠近関係を含む。テレビジョン受信装置は、遠近関係と制御データとに基づいて、視聴時に、音声の音量を制御する音量制御手段とを備える。   In order to solve the above problems, a television receiver according to an aspect of the present invention includes an imaging unit that shoots a subject and generates image data, and an audio output unit that outputs audio in accordance with an input signal. The audio output is controlled in accordance with the feature amount calculated from the image data generated by photographing the viewer at the standard viewing position predetermined for the television receiver and the position of the viewer. And a storage unit for storing control data. The feature amount includes the number of pixels between feature points of the viewer's face. The television receiver is configured to capture an image of the viewer's face from a photographing control unit that causes the imaging unit to photograph the viewer in response to viewing of the television receiver, and image data of a subject photographed in response to viewing. Detecting means for extracting an image area including the image area, calculating means for calculating the number of pixels between feature points of the face of the viewer photographed in response to viewing based on data corresponding to the image area, and a storage unit Confirmation means for confirming whether or not the viewer is a viewer registered in the television receiving device based on the number of pixels stored in the display and the number of pixels calculated by the calculation means; When it is confirmed that it is registered in the television receiver, the standard viewing position and the viewing time are determined based on the ratio between the number of pixels stored in the storage unit and the number of pixels calculated by the calculation unit. The positional relationship with the position And a position information calculation means for calculating Wath information. The positional relationship includes a perspective relationship between the television receiver and the viewer. The television receiver includes volume control means for controlling the volume of audio during viewing based on perspective relation and control data.

この発明の他の局面に従うテレビジョン受信装置は、視聴者の撮影により生成された画像データを取得する取得手段と、取得された画像データに基づいて、視聴者の顔の特徴量を算出する算出手段と、テレビジョン受信装置に対して予め定められた標準の視聴位置における視聴者を撮影することにより生成された画像データから算出された特徴量と、視聴者の位置に応じてテレビジョン受信装置の動作を制御する制御データとを格納する記憶部と、記憶部に格納されている特徴量と算出手段により算出された特徴量とに基づいて、視聴者がテレビジョン受信装置に登録されている視聴者であるか否かを確認する確認手段と、視聴者がテレビジョン受信装置に登録されていることが確認された場合に、記憶部に格納されている特徴量と算出手段により算出された特徴量とに基づいて標準の視聴位置と視聴時の位置との位置関係を表わす情報を算出する位置情報算出手段と、位置関係と制御データとに基づいて、テレビジョン受信装置の動作を制御する制御手段とを備える。特徴量は、前記視聴者の顔の特徴点間の画素数を含む。 According to another aspect of the present invention, a television receiver includes an acquisition unit that acquires image data generated by photographing of a viewer, and a calculation that calculates a feature amount of the viewer's face based on the acquired image data. Means, a feature amount calculated from image data generated by photographing a viewer at a standard viewing position predetermined with respect to the television receiver, and a television receiver according to the position of the viewer The viewer is registered in the television receiver based on the storage unit that stores the control data for controlling the operation of the camera, the feature amount stored in the storage unit, and the feature amount calculated by the calculation unit. Confirmation means for confirming whether or not the viewer is a viewer, and when it is confirmed that the viewer is registered in the television receiver, the feature amount and calculation means stored in the storage unit Position information calculating means for calculating information representing the positional relationship between the standard viewing position and the viewing position based on the calculated feature amount, and the television receiver based on the positional relationship and control data. Control means for controlling the operation. The feature amount includes the number of pixels between feature points of the viewer's face.

好ましくは、取得手段は、テレビジョン受信装置に接続されている撮像装置から出力されるデータの入力を受け付ける外部入力部を含む。撮像装置は、被写体を撮影して被写体の画像データを出力する。   Preferably, the acquisition unit includes an external input unit that receives an input of data output from an imaging device connected to the television receiver. The imaging device photographs a subject and outputs image data of the subject.

好ましくは、取得手段は、被写体を撮影して画像データを生成する撮像部を含む。
好ましくは、テレビジョン受信装置は、テレビジョン受信装置の視聴に応答して、撮像部に視聴者を撮影させる撮影制御手段をさらに備える。算出手段は、視聴に応答して撮影された被写体の画像データから、視聴者の顔の画像が含まれる画像領域を抽出する検出手段と、画像領域に対応するデータに基づいて、視聴に応答して撮影された視聴者の顔の特徴量を算出する特徴量算出手段とを含む。
Preferably, the acquisition unit includes an imaging unit that captures a subject and generates image data.
Preferably, the television receiving device further includes photographing control means for causing the imaging unit to photograph the viewer in response to viewing of the television receiving device. The calculation means responds to viewing based on detection means for extracting an image area including an image of the viewer's face from image data of a subject photographed in response to viewing, and data corresponding to the image area. Characteristic amount calculating means for calculating the characteristic amount of the face of the viewer photographed in this way.

好ましくは、位置情報算出手段は、撮影された視聴者とテレビジョン受信装置との遠近関係を表わす情報を算出する。   Preferably, the position information calculation means calculates information representing a perspective relationship between the photographed viewer and the television receiver.

好ましくは、テレビジョン受信装置は、入力される信号に基づいて音声を出力する音声出力部をさらに備える。制御データは、遠近関係に基づいて、出力される音声の音量を制御する音量制御データを含む。制御手段は、音量制御データと遠近関係とに基づいて、音声出力部から出力される音声の音量を制御する音量制御手段を含む。   Preferably, the television receiver further includes an audio output unit that outputs audio based on an input signal. The control data includes volume control data for controlling the volume of the output voice based on the perspective relationship. The control means includes volume control means for controlling the volume of the sound output from the sound output unit based on the volume control data and the perspective relationship.

好ましくは、記憶は、視聴者の属性を表わす属性データをさらに格納している。属性データと音量制御データとは関連付けられている。音量制御手段は、視聴者の属性に応じて音量を制御する。 Preferably, the storage unit further stores attribute data representing an attribute of the viewer. The attribute data and the volume control data are associated with each other. The volume control means controls the volume according to the viewer's attribute.

好ましくは、テレビジョン受信装置は、入力される信号に基づいて映像を表示する表示部と、表示部に文字を表示するための文字データを生成する生成手段とをさらに備える。制御データは、遠近関係に基づいて、文字の表示態様を規定する表示制御データを含む。制御手段は、表示制御データに基づいて、遠近関係に応じた表示態様で文字を表示する文字データを生成手段に生成させる。   Preferably, the television receiver further includes a display unit that displays an image based on an input signal, and a generation unit that generates character data for displaying characters on the display unit. The control data includes display control data that defines the display mode of characters based on the perspective relationship. The control unit causes the generation unit to generate character data for displaying the character in a display mode corresponding to the perspective relationship based on the display control data.

好ましくは、記憶は、視聴者の属性を表わす属性データをさらに格納している。属性データと表示制御データとは関連付けられている。生成手段は、視聴者の属性に応じて文字データを生成する。 Preferably, the storage unit further stores attribute data representing an attribute of the viewer. The attribute data and the display control data are associated with each other. The generation means generates character data according to the viewer's attributes.

好ましくは、属性データは、視聴者の年齢を表わすためのデータを含む。
好ましくは、テレビジョン受信装置は、入力される信号に基づいて音声を出力する複数の音声出力部をさらに備える。制御データは、視聴者の位置に応じて、各音声出力部から出力される音声の音量を制御する音量制御データを含む。位置情報算出手段は、標準の視聴位置からの視聴者の左右方向における位置関係を表わす情報を算出する。制御手段は、左右方向における位置関係と音量を制御するデータとに基づいて、各音声出力部により出力される音声の音量を制御する。
Preferably, the attribute data includes data for representing the age of the viewer.
Preferably, the television receiver further includes a plurality of audio output units that output audio based on the input signal. The control data includes volume control data for controlling the volume of audio output from each audio output unit according to the position of the viewer. The position information calculation means calculates information representing the positional relationship in the left-right direction of the viewer from the standard viewing position. The control means controls the volume of the sound output by each sound output unit based on the positional relationship in the left-right direction and the data for controlling the sound volume.

好ましくは、位置情報算出手段は、視聴者がテレビジョン受信装置に登録されていることが確認された場合に、位置関係を表わす情報を算出する。   Preferably, the position information calculation means calculates information representing the positional relationship when it is confirmed that the viewer is registered in the television receiver.

本発明に係るテレビジョン受信装置によれば、視聴者が視聴する位置に応じて動作が調整される。また、視聴者の位置が日によって異なっても、同一の視聴者のために、動作が制御される。   According to the television receiving apparatus of the present invention, the operation is adjusted according to the position where the viewer views. Even if the viewer's position varies from day to day, the operation is controlled for the same viewer.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<第1の実施の形態>
図1および図2を参照して、本発明の実施の形態に係るテレビ100について説明する。図1は、テレビ100を正面から表わす図である。図2は、テレビ100のハードウェア構成を表わすブロック図である。
<First Embodiment>
A television 100 according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram showing the television 100 from the front. FIG. 2 is a block diagram illustrating a hardware configuration of television 100.

図1に示されるように、テレビ100は、ディスプレイ130とカメラ150と、スピーカ140a,140bとを備える。スピーカ140a,140bは、たとえばステレオ音声の出力が可能なスピーカである。   As shown in FIG. 1, the television 100 includes a display 130, a camera 150, and speakers 140a and 140b. The speakers 140a and 140b are speakers that can output stereo sound, for example.

図2に示されるように、テレビ100は、アンテナ102と、外部入力部104と、受光部106と、操作部108と、CPU(Central Processing Unit)110と、チューナ114と、切換回路116とを備える。CPU110は、メモリ112を含む。   As shown in FIG. 2, the television 100 includes an antenna 102, an external input unit 104, a light receiving unit 106, an operation unit 108, a CPU (Central Processing Unit) 110, a tuner 114, and a switching circuit 116. Prepare. The CPU 110 includes a memory 112.

アンテナ102により受信された放送信号は、チューナ114に伝送される。チューナ114は、CPU110からの制御信号に基づいて選局が指示されたチャンネルを選択する。   A broadcast signal received by the antenna 102 is transmitted to the tuner 114. The tuner 114 selects a channel for which channel selection is instructed based on a control signal from the CPU 110.

外部入力部104は、外部から映像音声信号の入力を受け付ける。映像音声信号は、外部入力部104から切換回路116に伝送される。外部入力部104は、映像信号と音声信号とを別々に入力を受け付けるものであってもよいし、各々の信号を伝送するケーブルを1つにまとめたものであってもよい。   The external input unit 104 receives an input of a video / audio signal from the outside. The video / audio signal is transmitted from the external input unit 104 to the switching circuit 116. The external input unit 104 may accept input of the video signal and the audio signal separately, or may combine the cables for transmitting each signal into one.

切換回路116は、CPU110からの切換指令に基づいてチューナ114から出力される信号と外部入力部104から出力される信号とのいずれかを選択的に出力する。   Switching circuit 116 selectively outputs either a signal output from tuner 114 or a signal output from external input unit 104 based on a switching command from CPU 110.

テレビ100はさらに、カメラ150と、メモリ152と、解析装置160とを備える。カメラ150は、たとえばCCD(Charge Coupled Device)固体撮像素子を含む。メモリ152は、たとえばフラッシュメモリである。カメラ150は、CPU110から出力される撮影指令に基づいて被写体を撮影し、その被写体の画像データをメモリ152に対して伝送する。メモリ152は、CPU110から出力される書込指令に基づいてその指令によって特定された領域に画像データを格納する。解析装置160は、CPU110からの指令に基づいてカメラ150の撮影により取得された画像データを解析する。解析処理については後述する。   The television 100 further includes a camera 150, a memory 152, and an analysis device 160. The camera 150 includes, for example, a CCD (Charge Coupled Device) solid-state imaging device. The memory 152 is, for example, a flash memory. The camera 150 shoots a subject based on a shooting command output from the CPU 110, and transmits image data of the subject to the memory 152. The memory 152 stores the image data in the area specified by the command based on the write command output from the CPU 110. The analysis device 160 analyzes image data acquired by photographing with the camera 150 based on a command from the CPU 110. The analysis process will be described later.

図2を再び参照して、テレビ100は、信号処理回路120と、ドライバ128と、ディスプレイ130と、アンプ136a,136bと、スピーカ140a,140bとを備える。信号処理回路120は、分離回路122と、OSD(On Screen Display)回路124とを含む。   Referring to FIG. 2 again, the television 100 includes a signal processing circuit 120, a driver 128, a display 130, amplifiers 136a and 136b, and speakers 140a and 140b. The signal processing circuit 120 includes a separation circuit 122 and an OSD (On Screen Display) circuit 124.

切換回路116から出力された信号は、分離回路122に入力される。分離回路122は、CPU110からの指令に基づいて、映像信号と音声信号とを分離するための処理を実行する。分離回路122から出力される映像信号は、OSD回路124に入力される。分離回路122から出力される音声信号は、アンプ136a,136bにそれぞれ伝送される。   The signal output from the switching circuit 116 is input to the separation circuit 122. The separation circuit 122 executes processing for separating the video signal and the audio signal based on a command from the CPU 110. The video signal output from the separation circuit 122 is input to the OSD circuit 124. The audio signal output from the separation circuit 122 is transmitted to the amplifiers 136a and 136b, respectively.

OSD回路124は、CPU110からの指令に基づいてディスプレイ130に画像を表示するための信号を生成する。画像は、文字情報を含む。文字情報には、チューナ114により選局されているチャンネルを表わす数字、音量レベルを表わす表示、テレビ100の動作を表わす表示を含む。動作を表わす表示は、音量のアップまたはダウン、コントラストの変更等を含む。より具体的には、OSD回路124は、分離回路122から出力される映像信号とメモリ112に格納されているデータに基づいて生成される画像信号とを合成し、当該合成により生成された信号をドライバ128に対して出力する。   The OSD circuit 124 generates a signal for displaying an image on the display 130 based on a command from the CPU 110. The image includes character information. The character information includes a number indicating the channel selected by tuner 114, a display indicating the volume level, and a display indicating the operation of television 100. The display representing the operation includes volume up / down, contrast change, and the like. More specifically, the OSD circuit 124 combines the video signal output from the separation circuit 122 and the image signal generated based on the data stored in the memory 112, and the signal generated by the combining is combined. Output to the driver 128.

ドライバ128は、OSD回路124から出力される信号に基づいてディスプレイ130における映像の表示処理を実行する。アンプ136a,136bは、分離回路122から出力される各々の音声信号を増幅してスピーカ140a,140bにそれぞれ伝送する。スピーカ140a,140bは、その信号に基づいて音声を出力する。   The driver 128 executes video display processing on the display 130 based on the signal output from the OSD circuit 124. The amplifiers 136a and 136b amplify the respective audio signals output from the separation circuit 122 and transmit them to the speakers 140a and 140b, respectively. Speakers 140a and 140b output sound based on the signals.

図3を参照して、解析装置160について説明する。図3は、解析装置160によって実現される機能の構成を表わすブロック図である。解析装置160は、入力部310と、顔画像領域抽出部320と、特徴量算出部330と、データ書込指令部340と、個人認証部350と、認証結果生成部360と、出力部370とを備える。   The analysis device 160 will be described with reference to FIG. FIG. 3 is a block diagram showing a configuration of functions realized by analysis device 160. The analysis device 160 includes an input unit 310, a face image region extraction unit 320, a feature amount calculation unit 330, a data write command unit 340, a personal authentication unit 350, an authentication result generation unit 360, and an output unit 370. Is provided.

入力部310は、信号線(図示しない)を介してCPU110からの指令の入力を受け付ける。また、入力部310は、メモリ152に格納されているデータの入力を受け付ける。顔画像領域抽出部320は、メモリ152から読み出された画像データに基づいて、被写体の顔に相当する画像領域を抽出する。この抽出処理については後述する。特徴量算出部330は、顔画像領域抽出部320により抽出された顔の画像データに基づいてその画像の特徴量を算出する。   The input unit 310 receives a command input from the CPU 110 via a signal line (not shown). Further, the input unit 310 accepts input of data stored in the memory 152. The face image area extraction unit 320 extracts an image area corresponding to the face of the subject based on the image data read from the memory 152. This extraction process will be described later. The feature amount calculation unit 330 calculates the feature amount of the image based on the face image data extracted by the face image region extraction unit 320.

ここで、特徴量とは、抽出された領域を特定するためのデータによって算出されるその領域の属性をいう。特徴量には、たとえば、画像を構成する画素の数、画像の濃淡部の濃淡の程度、複数の濃淡部が存在する場合における各濃淡部の距離などが含まれる。画素の数が特徴量として使用される場合、視聴者の顔の各部のサイズを規定するデータが、画素の数として表現される。たとえば、目の間隔(両目の目元の距離)、目元と口元との距離、眉毛の長さ、等が特徴量として使用される。   Here, the feature amount refers to an attribute of the region calculated by data for specifying the extracted region. The feature amount includes, for example, the number of pixels constituting the image, the degree of shading of the shading portion of the image, the distance between the shading portions when a plurality of shading portions exist, and the like. When the number of pixels is used as the feature amount, data defining the size of each part of the viewer's face is expressed as the number of pixels. For example, the distance between the eyes (the distance between the eyes of both eyes), the distance between the eyes and the mouth, the length of the eyebrows, and the like are used as the feature amount.

データ書込指令部340は、特徴量算出部330によって算出された特徴量をメモリ152に格納するための指令を生成する。この指令は、出力部370を介して出力される。個人認証部350は、特徴量算出部330によって算出された特徴量と、メモリ152に予め格納されている視聴者の特徴量とに基づいて被写体の認証処理を行なう。認証処理は、たとえば算出された特徴量と予め記憶されている特徴量とが一致するか否かを判断することにより行なわれる。たとえば、各特徴量の差異が予め定められた範囲よりも小さい場合には、撮影された被写体は、予め登録されている被写体と同一であると判断される。そうでない場合には、登録されていない被写体が撮影されたと判断されることになる。   The data write command unit 340 generates a command for storing the feature amount calculated by the feature amount calculation unit 330 in the memory 152. This command is output via the output unit 370. The personal authentication unit 350 performs subject authentication processing based on the feature amount calculated by the feature amount calculation unit 330 and the viewer's feature amount stored in advance in the memory 152. The authentication process is performed, for example, by determining whether or not the calculated feature quantity matches a pre-stored feature quantity. For example, when the difference between the feature amounts is smaller than a predetermined range, it is determined that the photographed subject is the same as the subject registered in advance. Otherwise, it is determined that an unregistered subject has been shot.

認証結果生成部360は、個人認証部350によって認証された結果を表わすデータを生成する。このデータは、出力部370を介してCPU110に対して伝送される。   The authentication result generation unit 360 generates data representing the result authenticated by the personal authentication unit 350. This data is transmitted to the CPU 110 via the output unit 370.

次に、図4を参照して、本発明に係るテレビ100を実現するCPU110について説明する。図4は、CPU110によって実現される機能の構成を表わすブロック図である。CPU110は、入力部410と、相対位置関係特定部420と、音量比較部430と、音量調整指令部440と、スピーカ出力指令部450と、個人情報取得部460と、OSD文字調整指令部470と、文章表現調整部480と、出力部490とを備える。相対位置関係特定部420は、特徴量比較部422を含む。   Next, the CPU 110 that realizes the television 100 according to the present invention will be described with reference to FIG. FIG. 4 is a block diagram showing a configuration of functions realized by CPU 110. CPU 110 includes an input unit 410, a relative positional relationship identification unit 420, a volume comparison unit 430, a volume adjustment command unit 440, a speaker output command unit 450, a personal information acquisition unit 460, and an OSD character adjustment command unit 470. , A sentence expression adjustment unit 480 and an output unit 490. The relative positional relationship specifying unit 420 includes a feature amount comparing unit 422.

入力部410は、CPU110の外部から信号の入力を受け付ける。ここで外部とは、受光部106、操作部108を含む。CPU110は、さらに解析装置160からのデータの入力を受け付ける。このデータも、入力部410を介して内部に伝送される。   The input unit 410 receives a signal input from the outside of the CPU 110. Here, the outside includes the light receiving unit 106 and the operation unit 108. CPU 110 further accepts data input from analysis device 160. This data is also transmitted to the inside via the input unit 410.

相対位置関係特定部420は、メモリ152に格納されているデータに基づいて、カメラ150によって撮影された被写体の位置関係を特定するための処理を実行する。具体的には、相対位置関係特定部420は、被写体がテレビ100からどの程度離れているか(以下適宜「前後方向」という)あるいは、テレビ100の正面に対してどの程度左右にずれているか(以下適宜「左右方向」という)を表わす情報を算出する。ずれを表わす情報は、たとえば、画素数を単位として表現される。   The relative positional relationship specifying unit 420 executes a process for specifying the positional relationship of the subject photographed by the camera 150 based on the data stored in the memory 152. Specifically, the relative positional relationship specifying unit 420 indicates how far the subject is from the television 100 (hereinafter, referred to as “front-rear direction” as appropriate), or how much the subject is deviated from the left and right with respect to the front of the television 100 (hereinafter referred to as “right”). Information indicating “right and left direction” is calculated as appropriate. The information indicating the deviation is expressed in units of the number of pixels, for example.

特徴量比較部422は、予め記憶されている特徴量と新たに算出された特徴量とを比較する。予め記憶されている特徴量は、テレビ100に対する標準的な視聴位置において視聴者を撮影することにより取得された画像データから算出されたものである。   The feature amount comparison unit 422 compares the feature amount stored in advance with the newly calculated feature amount. The feature amount stored in advance is calculated from image data acquired by photographing a viewer at a standard viewing position with respect to the television 100.

音量比較部430は、特徴量比較部422の結果に基づいてスピーカ140a,140bから出力される音量を予めメモリ112に格納されている音量と比較する。音量調整指令部440は、音量比較部430による比較の結果に基づいてスピーカ140a,140bから出力される音量を調整するための指令を生成する。スピーカ出力指令部450は、音量調整指令部440によって生成された指令に基づいてアンプ136a,136bに対して音声信号のレベルを変更するように指令する。この指令は、出力部490を介してアンプ136a,136bに伝送される。   The volume comparison unit 430 compares the volume output from the speakers 140 a and 140 b with the volume stored in advance in the memory 112 based on the result of the feature amount comparison unit 422. The volume adjustment command unit 440 generates a command for adjusting the volume output from the speakers 140a and 140b based on the comparison result by the volume comparison unit 430. The speaker output command unit 450 commands the amplifiers 136a and 136b to change the level of the audio signal based on the command generated by the volume adjustment command unit 440. This command is transmitted to the amplifiers 136a and 136b via the output unit 490.

個人情報取得部460は、メモリ112に格納されているデータから、解析装置160によって認証された個人(すなわち被写体)に対応するデータを読み出す。読み出されたデータは、音量調整指令部440に伝送される。音量調整指令部440は、他の局面においては、特定された個人に応じた音量調整の指令を生成する。   The personal information acquisition unit 460 reads data corresponding to the individual (that is, the subject) authenticated by the analysis device 160 from the data stored in the memory 112. The read data is transmitted to the volume adjustment command unit 440. In another aspect, volume adjustment command unit 440 generates a volume adjustment command according to the identified individual.

OSD文字調整指令部470は、個人情報取得部460によって取得されたデータに基づいて、ディスプレイ130に表示される文字の表示態様を調整する指令を生成する。指令は、出力部490を介してOSD回路124に伝送される。ここで表示態様には、文字のサイズ、大きさ、文字色、書体、文書のスタイル等が含まれる。当該スタイルは、たとえばコマンドの平仮名表示、カタカナ表示等を含む。   The OSD character adjustment command unit 470 generates a command for adjusting the display mode of characters displayed on the display 130 based on the data acquired by the personal information acquisition unit 460. The command is transmitted to the OSD circuit 124 via the output unit 490. Here, the display mode includes character size, size, character color, typeface, document style, and the like. The style includes, for example, command hiragana display and katakana display.

文章表現調整部480は、個人情報取得部460によって取得されたデータに基づいてディスプレイ130に表示されるメッセージを調整する指令を生成する。メッセージには、音量、画面のコントラストその他テレビ100の機能を実行するためのメッセージなどが含まれる。ディスプレイ130における表示態様は後述する。   The sentence expression adjustment unit 480 generates a command for adjusting a message displayed on the display 130 based on the data acquired by the personal information acquisition unit 460. The message includes a volume, screen contrast, and other messages for executing the functions of the television 100. A display mode on the display 130 will be described later.

図5〜図8を参照して、テレビ100のデータ構造について説明する。図5は、メモリ152におけるデータの格納の一態様を概念的に表わす図である。メモリ152は、データを格納するための領域510〜540を含む。   The data structure of the television 100 will be described with reference to FIGS. FIG. 5 is a diagram conceptually showing one mode of data storage in memory 152. The memory 152 includes areas 510 to 540 for storing data.

図5に示されるように、視聴者を特定するためのデータ(視聴者ID(Identification))は、領域510に格納されている。予めカメラ150によって撮影された標準位置における顔画像ファイルは、領域520に格納されている。ここで標準位置とは、テレビ100から正面方向に予め定められた距離だけ離れた位置をいう。この位置に被写体が位置し、カメラ150がその被写体を撮影することにより、認証処理に使用されるデータが取得される。このデータは、判断の基準となるデータとして使用される。視聴者の年齢は、領域530に格納されている。   As shown in FIG. 5, data for identifying the viewer (viewer ID (Identification)) is stored in area 510. A face image file at the standard position previously captured by the camera 150 is stored in the area 520. Here, the standard position refers to a position away from the television 100 by a predetermined distance in the front direction. When the subject is located at this position and the camera 150 captures the subject, data used for the authentication process is acquired. This data is used as data serving as a criterion for determination. The viewer's age is stored in area 530.

視聴者の顔の第1の特徴量としての目の間隔は、領域540に格納されている。領域540における目の間隔は、説明を簡単にするために、長さ(mm)として表わされているが、データ処理上は、画素数として取り扱われてもよい。   The distance between eyes as the first feature amount of the viewer's face is stored in area 540. The interval between the eyes in the region 540 is expressed as a length (mm) for the sake of simplicity of explanation, but may be handled as the number of pixels in data processing.

同様に、第2の特徴量としての目と口との間隔は、領域550に格納されている。なお、視聴者の顔の特徴量は、上述のものに限られない。顔の特徴量は、目、口、耳、鼻その他の顔の認識技術の分野において、顔の特徴点間の距離その他の位置関係を表わすものであればよい。   Similarly, the distance between the eyes and the mouth as the second feature amount is stored in the area 550. Note that the feature amount of the viewer's face is not limited to the above. The facial feature amount may be any distance that represents the distance between facial feature points and other positional relationships in the field of facial recognition technology such as eyes, mouth, ears, nose and the like.

領域510から540に格納されているデータは、それぞれ相互に関連付けられている。したがって視聴者IDを参照することにより、その視聴者の顔画像データ、年齢、その他の属性などが一意に特定されることになる。   The data stored in areas 510 to 540 are associated with each other. Therefore, by referring to the viewer ID, the viewer's face image data, age, other attributes, etc. are uniquely specified.

なお、メモリ152に格納されているデータは、視聴者の初期登録時に格納されるが、その後の更新動作によって書き替え可能であってもよい。   The data stored in the memory 152 is stored at the time of initial registration of the viewer, but may be rewritten by a subsequent update operation.

図6は、CPU110の内部のメモリ112におけるデータの格納の一態様を表わす図である。メモリ112は、テーブル600,610,620,640を含む。テーブル600は、データを格納する領域602,604を含む。テーブル610は、領域612,614を含む。テーブル620は、領域622,624,626を含む。テーブル630は、領域632,634,636を含む。   FIG. 6 is a diagram showing one mode of data storage in memory 112 inside CPU 110. The memory 112 includes tables 600, 610, 620, and 640. The table 600 includes areas 602 and 604 for storing data. The table 610 includes areas 612 and 614. Table 620 includes regions 622, 624, 626. Table 630 includes regions 632, 634, and 636.

テーブル600に格納されているデータを特定するためのデータは、領域602に格納されている。スピーカ140a,140bから出力される基準音量を決定するためのデータは、領域604に格納されている。基準音量は、たとえばテレビ100の製造時に予め設定される。基準音量は、音量を調整する判断の基準として使用される。   Data for specifying data stored in the table 600 is stored in the area 602. Data for determining the reference volume output from the speakers 140 a and 140 b is stored in the area 604. The reference volume is set in advance when the television 100 is manufactured, for example. The reference volume is used as a reference for determining the volume.

テーブル610において、視聴者の年齢を特定するためのデータは、領域612に格納されている。各年齢層に応じて設定された基準音量レベルは、領域614に格納されている。図6に示される例では、スピーカ140a,140bから出力される音量のレベルは、最大レベルが「レベル20」である。標準の基準音量レベルは、レベル10である(領域604)。また、たとえば年齢が「20以下」の視聴者に対しては、基準音量レベルとして「レベル9」が設定されている。したがって、テレビ100の視聴者の年齢が「20以下」であると判断された場合には、レベル10で出力されていた音声は、レベル9まで引き下げられることになる。   In the table 610, data for specifying the age of the viewer is stored in an area 612. The reference volume level set according to each age group is stored in area 614. In the example shown in FIG. 6, the maximum level of the volume output from the speakers 140a and 140b is “level 20”. The standard reference volume level is level 10 (area 604). For example, for a viewer whose age is “20 or less”, “level 9” is set as the reference volume level. Therefore, when it is determined that the age of the viewer of the television 100 is “20 or less”, the sound output at level 10 is lowered to level 9.

逆に、たとえば年齢が「81以上」の視聴者に対しては、基準音量レベルは、「レベル13」である。したがって、視聴者の年齢が「81以上」であると判断された場合に、出力されている音量のレベルが「レベル13」よりも小さい場合には、テレビ100は、音量レベルを「レベル13」まで高くし、スピーカ140a,140bからそれぞれ音声を出力する。その結果、標準レベルの音声を聞き取りにくい年齢層に属する視聴者も、テレビ100からの音声を聴き取りやすくなる。   On the other hand, for example, for a viewer whose age is “81 or higher”, the reference volume level is “level 13”. Therefore, when it is determined that the viewer's age is “81 or higher” and the output volume level is lower than “level 13”, the television 100 sets the volume level to “level 13”. The sound is output from the speakers 140a and 140b. As a result, a viewer who belongs to an age group that is difficult to hear the standard-level sound can easily hear the sound from the television 100.

テーブル620を参照して、認識された視聴者の位置(相対位置)を特定するデータは、領域622に格納されている。左スピーカからの音量レベルを規定するためのデータは、領域624に格納されている。右スピーカからの音量レベルを規定するためのデータは、領域626に格納されている。   Data that identifies the position (relative position) of the recognized viewer with reference to table 620 is stored in area 622. Data for defining the volume level from the left speaker is stored in area 624. Data for defining the volume level from the right speaker is stored in area 626.

たとえば、視聴者の位置が標準位置よりも「右より」であると認識された場合には、左スピーカからの音量レベルは「レベル10」から「レベル11」に変更される。逆に、右スピーカからの音量レベルは、「レベル10」から「レベル9」に変更される。CPU110は、変更後のデータに基づいて制御信号を生成し、アンプ136a,136bに対して送出する。   For example, when it is recognized that the viewer's position is “from the right” rather than the standard position, the volume level from the left speaker is changed from “level 10” to “level 11”. Conversely, the volume level from the right speaker is changed from “level 10” to “level 9”. The CPU 110 generates a control signal based on the changed data and sends it to the amplifiers 136a and 136b.

その結果、視聴者から遠くなったスピーカからの音声は、大きくなる。視聴者は、このスピーカからの音声も正確に聴き取ることができる。一方、視聴者に近いスピーカからの音声は、小さくなる。視聴者は、このスピーカからの音声を大きすぎると感じなくなる。これにより、視聴者は、テレビからの音声を快適に聴くことができる。   As a result, the sound from the speaker far from the viewer becomes louder. The viewer can also accurately hear the sound from the speaker. On the other hand, the sound from the speaker close to the viewer is reduced. The viewer will not feel the sound from this speaker too loud. Thereby, the viewer can listen to the sound from the television comfortably.

図6を再び参照して、テーブル630に示されるように、認識された視聴者の位置(相対位置)を特定するデータは、領域632に格納されている。左スピーカからの音量レベルを規定するためのデータは、領域634に格納されている。右スピーカからの音量レベルを規定するためのデータは、領域636に格納されている。   Referring to FIG. 6 again, as shown in table 630, data for specifying the position (relative position) of the recognized viewer is stored in area 632. Data for defining the volume level from the left speaker is stored in area 634. Data for defining the volume level from the right speaker is stored in area 636.

たとえば、視聴者の位置が標準位置よりも「前方」であると認識された場合には、左スピーカからの音量レベルは「レベル10」から「レベル8」に変更される。逆に、右スピーカからの音量レベルは、「レベル10」から「レベル12」に変更される。CPU110は、変更後のデータに基づいて制御信号を生成し、アンプ136a,136bに対して送出する。   For example, when it is recognized that the position of the viewer is “front” than the standard position, the volume level from the left speaker is changed from “level 10” to “level 8”. Conversely, the volume level from the right speaker is changed from “level 10” to “level 12”. The CPU 110 generates a control signal based on the changed data and sends it to the amplifiers 136a and 136b.

その結果、視聴者がテレビ100に対して標準位置よりも近くにいる場合には、スピーカ136a,136bからの音声は、通常の音量レベルよりも小さく出力される。一方、視聴者が標準位置よりも離れて存在する場合には、スピーカ136a,136bからの音声は、通常の音量レベルよりも大きく出力される。これにより、視聴者は、テレビからの音声を快適に聴くことができる。   As a result, when the viewer is closer to the television 100 than the standard position, the sound from the speakers 136a and 136b is output smaller than the normal volume level. On the other hand, when the viewer is present away from the standard position, the sound from the speakers 136a and 136b is output larger than the normal volume level. Thereby, the viewer can listen to the sound from the television comfortably.

なお、年齢層別に設定される基準音量レベルは、図6に示される区分に限られない。また、基準音量レベルを設定するための年齢差は、領域612に示される区分に限られない。さらに細かいものであってもよいし、逆に間隔が粗いものであってもよい。   The reference volume level set for each age group is not limited to the category shown in FIG. Further, the age difference for setting the reference volume level is not limited to the category shown in area 612. It may be finer, or conversely, the gap may be coarse.

また、音量レベルの変更は、標準の視聴位置に対して前方、後方のいずれかのみに対応するものに限られない。たとえば、音量レベルは、標準の視聴位置から離れた距離に応じて連続的に変更されてもよいし、段階的に変更されてもよい。   Further, the change of the sound volume level is not limited to the one corresponding only to either the front or the rear of the standard viewing position. For example, the volume level may be changed continuously according to the distance away from the standard viewing position, or may be changed in stages.

さらに、音量レベルの調整は、前後方向と左右方向とを組み合わせた位置関係に基づくものであってもよい。たとえば視聴者の位置が標準位置に対して、「左前方」、「左後方」、「右前方」、「右後方」等の位置であってもよい。この場合、テーブル620および630に格納されているデータをくみあわせて調整量が決定される。たとえば、左右方向の調整量(テーブル620)と前後方向の調整量(テーブル630)の各々に対して、重み係数を加えた算術和により導出される調整量が、音量レベルの調整量として使用されてもよい。   Furthermore, the adjustment of the volume level may be based on a positional relationship that combines the front-rear direction and the left-right direction. For example, the position of the viewer may be a position such as “front left”, “back left”, “front right”, “back right”, etc. with respect to the standard position. In this case, the adjustment amount is determined by combining the data stored in the tables 620 and 630. For example, an adjustment amount derived by an arithmetic sum obtained by adding a weight coefficient to each of the adjustment amount in the left-right direction (table 620) and the adjustment amount in the front-rear direction (table 630) is used as the adjustment amount of the volume level. May be.

このようにすると、音量がスムーズに調整されるため、たとえば、視聴者が番組の視聴中に位置を変更した場合であっても、当該視聴者は、違和感を感じることなく視聴を続けることができる。   In this way, since the volume is adjusted smoothly, for example, even when the viewer changes the position while watching the program, the viewer can continue watching without feeling uncomfortable. .

図7は、メモリ112におけるデータの格納の一態様を表わす図である。このデータは、ディスプレイ130に表示される文字の表示態様を調整するために使用される。メモリ112は、テーブル700,710を含む。テーブル700は、領域702,704,706を含む。テーブル710は、領域712,714,716を含む。   FIG. 7 is a diagram illustrating an aspect of data storage in memory 112. This data is used to adjust the display mode of characters displayed on the display 130. The memory 112 includes tables 700 and 710. The table 700 includes areas 702, 704, and 706. Table 710 includes regions 712, 714, 716.

テーブル700に格納されているデータの種類を特定するための情報は、領域702に格納されている。表示される文字のサイズを規定するデータは、領域704に格納されている。表示される文字の書体を規定するデータは、領域706に格納されている。テーブル700は、標準の表示態様として予め設定されたデータを含む。   Information for specifying the type of data stored in the table 700 is stored in the area 702. Data defining the size of the displayed character is stored in area 704. Data defining the typeface of the displayed character is stored in area 706. The table 700 includes data set in advance as a standard display mode.

テーブル710において、視聴者の年齢層を規定するデータは、領域712に格納されている。ディスプレイ130に表示される文字のサイズを規定するデータは、領域714に格納されている。その文字の書体を規定するデータは、領域716に格納されている。領域712,714,716に格納されているデータは、それぞれ関連付けられている。したがって、年齢層が特定されることにより、ディスプレイ130に表示される文字のサイズおよび書体が特定されることになる。たとえばテレビ100の視聴者が「20以下」であると判断された場合、表示される文字のサイズは、「15ポイント」であり、書体は「丸文字 標準」となる。   In the table 710, data defining the viewer's age group is stored in the area 712. Data defining the size of characters displayed on the display 130 is stored in the area 714. Data defining the typeface of the character is stored in area 716. The data stored in the areas 712, 714, and 716 are associated with each other. Therefore, by specifying the age group, the size and typeface of characters displayed on the display 130 are specified. For example, when it is determined that the viewer of the television 100 is “20 or less”, the size of the displayed character is “15 points”, and the typeface is “round character standard”.

図8は、メモリ112におけるテーブル800の格納の一態様を表わす図である。テーブル800は、データを格納する領域810,820,830,840を含む。テーブル800に格納されているデータは、ディスプレイ130に表示される文章の表現を調整するために使用される。当該文章は、テレビ100の内部で作成されたデータに基づいて表示されるテキスト映像として表示される(以下、適宜「OSD表示」という)。   FIG. 8 is a diagram illustrating one mode of storage of table 800 in memory 112. The table 800 includes areas 810, 820, 830, and 840 for storing data. Data stored in the table 800 is used to adjust the expression of the text displayed on the display 130. The sentence is displayed as a text image that is displayed based on data created inside the television 100 (hereinafter referred to as “OSD display” as appropriate).

ディスプレイ130にOSD表示される文字は、領域810に格納されている。視聴者の年齢が「12歳以下」である場合に表示される文字は、領域820に格納されている。視聴者の年齢が「13歳〜60歳」である場合に表示される文字は、領域830に格納されている。視聴者の年齢が「60歳以上」である場合に表示される文字は、領域840に格納されている。領域810〜840に格納されているデータはそれぞれ相互に関連付けられている。   Characters that are OSD-displayed on display 130 are stored in area 810. Characters displayed when the age of the viewer is “12 years or younger” are stored in area 820. Characters displayed when the age of the viewer is “13 to 60 years old” are stored in area 830. Characters displayed when the age of the viewer is “60 years or older” are stored in area 840. The data stored in the areas 810 to 840 are associated with each other.

この場合、領域810のデータ項目と視聴者の年齢層とが特定されることにより、年齢層に応じて表示される文字が決定される。たとえば、テレビ100の視聴者の年齢が「12歳以下」である場合に、ディスプレイ130に表示される文字が「ミュート」である場合、実際にはディスプレイ130は、「ミュート」の代わりに「しずかにする」というメッセージを表示する。このようにすると、通常表示されるメッセージの理解が視聴者にとって難解であっても、視聴者は、代わりに表示されるメッセージを見ることにより、テレビ100の動作の内容を容易に理解することができる。   In this case, by specifying the data item in the region 810 and the viewer's age group, the characters to be displayed are determined according to the age group. For example, when the age of the viewer of the television 100 is “12 years old or less”, if the character displayed on the display 130 is “mute”, the display 130 is actually “slave” instead of “mute”. Message is displayed. In this way, even if it is difficult for the viewer to understand the normally displayed message, the viewer can easily understand the content of the operation of the television 100 by looking at the displayed message instead. it can.

図9および図10を参照して、本実施の形態に係るテレビ100の制御構造について説明する。図9は、視聴者を最初に認証するためにCPU110と解析装置160とが実行する処理の手順を表わすフローチャートである。   With reference to FIG. 9 and FIG. 10, a control structure of television 100 according to the present embodiment will be described. FIG. 9 is a flowchart showing a procedure of processing executed by CPU 110 and analysis device 160 to first authenticate the viewer.

ステップS910にて、CPU110は、受光部106を介して入力されるリモコン端末(図示しない)による指示に基づいて、テレビ100の動作モードをカメラ150による撮影モードに切り換えるための指示を検知する。ステップS920にて、CPU110は、受光部106によって受信されるリモコン端末からの撮影指示信号に基づいて、カメラ150の撮影ボタン(図示しない)の押下の指令を検知する。CPU110は、カメラ150に対して予め設定された撮影モードにて被写体を撮影するように指令を出力する。撮影モードには、絞り、シャッタスピード等が含まれる。カメラ150は、その指令に応答して撮影処理を実行する。その撮影処理の後、カメラ150は、画像データをメモリ152に対して送出する。   In step S <b> 910, CPU 110 detects an instruction for switching the operation mode of television 100 to the shooting mode by camera 150 based on an instruction from a remote control terminal (not shown) input via light receiving unit 106. In step S920, CPU 110 detects an instruction to press a shooting button (not shown) of camera 150 based on the shooting instruction signal from the remote control terminal received by light receiving unit 106. CPU 110 outputs a command to camera 150 to shoot the subject in a preset shooting mode. The shooting mode includes an aperture, a shutter speed, and the like. The camera 150 executes the photographing process in response to the command. After the photographing process, the camera 150 sends image data to the memory 152.

ステップS930にて、CPU110は、カメラ150からメモリ152に伝送されたデータを、メモリ152において予め確保した領域に格納する。ステップS940にて、CPU110は、解析装置160に対して、メモリ152に格納されたデータを用いて解析するように指示する。   In step S930, CPU 110 stores the data transmitted from camera 150 to memory 152 in an area reserved in advance in memory 152. In step S940, CPU 110 instructs analysis device 160 to analyze using the data stored in memory 152.

ステップS950にて、解析装置160は、その指示に基づいてメモリ152から画像データを読み出し、RAM(Random Access Memory)(図示しない)のワーク領域に格納する。ステップS960にて、解析装置160は、そのデータから顔に相当する画像領域を抽出する。この抽出処理は、たとえば公知の画像処理を用いて実現される。   In step S950, analysis device 160 reads image data from memory 152 based on the instruction, and stores it in a work area of a RAM (Random Access Memory) (not shown). In step S960, analysis device 160 extracts an image region corresponding to a face from the data. This extraction process is realized using, for example, known image processing.

ステップS970にて、解析装置160は、その画像領域に対して特徴量を算出するための処理を実行する。算出される特徴量は、CPU110によって予め指定されたものである。ステップS980にて、解析装置160は、算出した特徴量をメモリ152において予め確保された領域に格納する。その結果、テレビ100に対して標準位置に位置する視聴者の認証処理が完了し、その視聴者を特定するためのデータは、メモリ152に格納されることになる。   In step S970, analysis device 160 executes processing for calculating a feature amount for the image region. The calculated feature amount is specified in advance by the CPU 110. In step S980, analysis device 160 stores the calculated feature amount in an area secured in advance in memory 152. As a result, the authentication process for the viewer located at the standard position with respect to the television 100 is completed, and data for specifying the viewer is stored in the memory 152.

図10は、テレビ100の動作を制御するためにCPU110が実行する処理の手順を表わすフローチャートである。なお、図9に示される処理と同一の処理には同一のステップ番号を付してある。処理の内容も同じである。したがって、ここではそれらについての説明は繰り返さない。   FIG. 10 is a flowchart showing a procedure of processing executed by CPU 110 to control the operation of television 100. The same steps as those shown in FIG. 9 are denoted by the same step numbers. The contents of the process are the same. Therefore, description thereof will not be repeated here.

ステップS1010にて、CPU110は、メモリ152に既に保存されている特徴量と、新たに算出された特徴量とを比較する。ステップS1020にて、CPU110は、各特徴量の比の値に基づく比例関係によって視聴者の位置を推定する。   In step S1010, CPU 110 compares the feature amount already stored in memory 152 with the newly calculated feature amount. In step S1020, CPU 110 estimates the position of the viewer based on a proportional relationship based on the ratio value of each feature amount.

ステップS1030にて、CPU110は、これらの特徴量が一致するか否かを判断する。特徴量が一致する場合には(ステップS1030にてYES)、処理をステップS1040に移される。そうでない場合には(ステップS1030にてNO)、処理はステップS1050に移される。   In step S1030, CPU 110 determines whether or not these feature amounts match. If the feature amounts match (YES in step S1030), the process proceeds to step S1040. If not (NO in step S1030), the process proceeds to step S1050.

ステップS1040にて、CPU110は、メモリ152に予め登録されている視聴者の属性に応じた音量調整の指示をアンプ136a,136bに対して送出する。ステップS1050にて、CPU110は、初期値として予め設定されている音量調整指示をアンプ136a,136bにそれぞれ送出する。アンプ136a,136bは、音声信号のレベルを当該指示によって規定されるレベルに調整して、調整後の音声信号をスピーカ140a,140bにそれぞれ伝送する。その結果、スピーカ140a,140bは、視聴者に応じた音量レベルの音声を出力する。   In step S1040, CPU 110 sends an instruction for volume adjustment according to the viewer attributes registered in advance in memory 152 to amplifiers 136a and 136b. In step S1050, CPU 110 sends a volume adjustment instruction preset as an initial value to amplifiers 136a and 136b. The amplifiers 136a and 136b adjust the level of the audio signal to a level specified by the instruction, and transmit the adjusted audio signal to the speakers 140a and 140b, respectively. As a result, the speakers 140a and 140b output sound at a volume level corresponding to the viewer.

図11および図12を参照して、テレビ100の表示態様について説明する。図11は、音量レベルが調整される場合にディスプレイ130に表示される画面を表わす図である。   A display mode of the television 100 will be described with reference to FIGS. 11 and 12. FIG. 11 is a diagram showing a screen displayed on display 130 when the volume level is adjusted.

画面(A)は、基準の音量レベル(レベル10)が設定されている場合に、レベル表示の指示に応答して表示される画面である。その後、テレビ100の視聴者の年齢が「20以下」であることが認識されると、画面(B)に示されるように、音量レベルは、「レベル9」まで引下げられる。   Screen (A) is a screen that is displayed in response to a level display instruction when a reference volume level (level 10) is set. Thereafter, when it is recognized that the age of the viewer of the television 100 is “20 or less”, the volume level is lowered to “level 9” as shown in the screen (B).

あるいは、視聴者の位置が予め定められた標準の視聴位置に対して近いと判断されると、音量レベルは、現在の位置に応じて引き下げられる。この場合、メモリ112のテーブル630に格納されているデータに基づいて、音量レベルは、「レベル8」間で引き下げられる。   Alternatively, if it is determined that the viewer's position is close to a predetermined standard viewing position, the volume level is lowered according to the current position. In this case, the volume level is lowered between “level 8” based on the data stored in the table 630 of the memory 112.

一方、視聴者の年齢が「61から80」であると判断されると、音量レベルは、「レベル12」まで引上げられる(画面(C))。   On the other hand, when it is determined that the age of the viewer is “61 to 80”, the volume level is raised to “level 12” (screen (C)).

このように、ディスプレイ130がそのときに出力されている音声の音量レベルを表示するため、視聴者は、どの程度の音量レベルが設定されているか容易に認識することができる。なお、図11に示される画面の推移は、あくまで例示であり、推移の順序は、図11に示されるものに限られない。   Thus, since the display 130 displays the volume level of the sound output at that time, the viewer can easily recognize how much volume level is set. Note that the transition of the screen shown in FIG. 11 is merely an example, and the order of the transition is not limited to that shown in FIG.

図12は、文章表現が調整される場合にディスプレイ130に表示される画面を表わす図である。   FIG. 12 is a diagram showing a screen displayed on display 130 when the sentence expression is adjusted.

画面(A)は、視聴者が認識されていない場合、あるいはテレビ100が初期値に基づいて表示を行なっている場合に示される画面を表わす。すなわちディスプレイ130は、音量を大きくするためのメッセージとして「ボリュームアップ」を表示する。その後、視聴者の年齢が12歳以下であると認識された場合、ディスプレイ130は、文字の表示を変更し、「おと おおきくする」に切り換える。これにより、若年層の視聴者も、テレビ100の動作の内容を容易に理解することができる。一方、視聴者の年齢が「61以上」であると認識されると、ディスプレイ130は、「ボリュームアップ」の表示に代えて「音量 大きくする」と表示する。これにより、たとえばカタカナ用語に不慣れな視聴者であっても、テレビ100の動作を容易に制御することができる。   Screen (A) represents a screen displayed when the viewer is not recognized or when television 100 performs display based on the initial value. That is, the display 130 displays “Volume up” as a message for increasing the volume. Thereafter, when it is recognized that the age of the viewer is 12 years old or less, the display 130 changes the display of characters and switches to “Largely”. Thereby, a young viewer can easily understand the content of the operation of the television 100. On the other hand, when it is recognized that the age of the viewer is “61 or more”, the display 130 displays “increase volume” instead of “volume up”. Thereby, for example, even a viewer unfamiliar with katakana terms can easily control the operation of the television 100.

以上のようにして、本発明の第1の実施の形態に係るテレビ100は、標準の視聴位置として予め定められた位置において撮影された視聴者の顔画像の特徴量を格納している。テレビ100は、視聴者を再度撮影し、視聴者を認識し、顔画像のデータに基づいて算出される特徴量を比較することにより、視聴者の位置を確認する。特徴量の比較の結果、テレビ100が認識した顔画像が、既に登録されている顔画像に一致することが確認されると、テレビ100は、その視聴者の位置に応じた動作、たとえば音声の出力、文字サイズの変更等の調整を行なう。これにより、視聴者にとって最適な音量レベルによる音声の出力、視認しやすい文字の表示、理解が容易なOSD表示等が実現される。   As described above, the television 100 according to the first embodiment of the present invention stores the feature amount of the face image of the viewer photographed at a predetermined position as the standard viewing position. The television 100 captures the viewer again, recognizes the viewer, and compares the feature amount calculated based on the face image data to confirm the position of the viewer. As a result of the feature amount comparison, when it is confirmed that the face image recognized by the television 100 matches the already registered face image, the television 100 performs an operation according to the position of the viewer, for example, an audio Adjust output, change text size, etc. As a result, voice output at a volume level optimum for the viewer, easy-to-view character display, easy-to-understand OSD display, and the like are realized.

<第2の実施の形態>
以下、本発明の第2の実施の形態について説明する。本実施の形態に係るテレビ1300は、画像の解析機能を有さない点で、当該機能を有するテレビ100と異なる。すなわちテレビ1300は、外部の解析装置によって解析された結果の入力を受けて、入力された結果に基づいて音量の制御その他の機能を実行することができる。この場合、通常の構成を有するテレビジョン受信装置が、テレビ1300として使用可能である。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. Television 1300 according to the present embodiment is different from television 100 having the function in that it does not have an image analysis function. That is, the television 1300 can receive an input of a result analyzed by an external analysis device, and can perform volume control and other functions based on the input result. In this case, a television receiver having a normal configuration can be used as the television 1300.

図13を参照して、本発明の第2の実施の形態に係るテレビ1300のハードウェア構成について説明する。テレビ1300は、図2に示される構成に対して、カメラとメモリと解析装置160とを有さない。テレビ1300は、CPU110に接続されたインターフェイス1310をさらに備える。インターフェイス1310には、カメラユニット1400が接続ケーブル(図示しない)を介して電気的に接続される。インターフェイス1310は、カメラユニット1400から出力される信号の入力を受け付けて、CPU110に伝送する。   With reference to FIG. 13, a hardware configuration of television 1300 according to the second embodiment of the present invention will be described. The television 1300 does not have a camera, a memory, and an analysis device 160 in contrast to the configuration shown in FIG. Television 1300 further includes an interface 1310 connected to CPU 110. The camera unit 1400 is electrically connected to the interface 1310 via a connection cable (not shown). The interface 1310 receives a signal output from the camera unit 1400 and transmits the signal to the CPU 110.

図14を参照して、解析機能を有するカメラユニット1400について説明する。図14は、カメラユニット1400のハードウェア構成を表わすブロック図である。   A camera unit 1400 having an analysis function will be described with reference to FIG. FIG. 14 is a block diagram showing a hardware configuration of camera unit 1400.

カメラユニット1400は、入力部1420と、CPU1410と、レンズ1430と、CCD素子1440と、信号処理回路1450と、メモリ1460と、解析装置1470と、インターフェイス1480とを含む。   The camera unit 1400 includes an input unit 1420, a CPU 1410, a lens 1430, a CCD element 1440, a signal processing circuit 1450, a memory 1460, an analysis device 1470, and an interface 1480.

入力部1420は、外部からの信号の入力を受け付ける。外部から入力される信号には、テレビ1300から入力される制御信号、あるいは、カメラユニット1400がリモコン機能を有する場合には、対応するリモコン端末からの信号等が含まれる。その信号は、CPU1410に伝送される。CPU1410は、入力される信号に基づいてカメラユニット1400のハードウェアの動作を制御する。   The input unit 1420 receives an external signal input. The signal input from the outside includes a control signal input from the television 1300 or a signal from a corresponding remote control terminal when the camera unit 1400 has a remote control function. The signal is transmitted to the CPU 1410. The CPU 1410 controls the hardware operation of the camera unit 1400 based on the input signal.

レンズ1430は、カメラユニット1400に対して予め定められた位置に配置されている。レンズ1430によって集められた光信号は、CCD素子1440に伝送される。CCD素子1440は、CPU1410からの指示に基づいて駆動し、光信号を電気信号に変換し、生成された電気信号を信号処理回路1450に送出する。   The lens 1430 is disposed at a predetermined position with respect to the camera unit 1400. The optical signal collected by the lens 1430 is transmitted to the CCD element 1440. The CCD element 1440 is driven based on an instruction from the CPU 1410, converts an optical signal into an electrical signal, and sends the generated electrical signal to the signal processing circuit 1450.

信号処理回路1450は、CPU1410から出力される指示に基づいて、CCD素子1440から出力された電荷に対して予め定められた信号処理を行なう。信号処理回路1450から出力されたデータは、メモリ1460において予め確保された領域に格納される。   The signal processing circuit 1450 performs predetermined signal processing on the charge output from the CCD element 1440 based on an instruction output from the CPU 1410. Data output from the signal processing circuit 1450 is stored in an area secured in advance in the memory 1460.

解析装置1470は、CPU1410からの指令に基づいてメモリ1460に格納されているデータを読み出し、そのデータを用いて解析処理を実行する。具体的には、解析装置1470は、図2に示される解析装置160によって実現される機能と同様の機能を実現する。   The analysis device 1470 reads data stored in the memory 1460 based on a command from the CPU 1410, and executes analysis processing using the data. Specifically, the analysis device 1470 realizes a function similar to the function realized by the analysis device 160 shown in FIG.

インターフェイス1480は、解析装置1470から出力される信号の入力を受け付ける。インターフェイス1480は、その信号をカメラユニット1400の外部に出力する。これにより、解析結果が、テレビ1300に伝送される。   The interface 1480 receives an input of a signal output from the analysis device 1470. The interface 1480 outputs the signal to the outside of the camera unit 1400. Thus, the analysis result is transmitted to the television 1300.

以上のようにして、本発明の第2の実施の形態によれば、テレビ1300は、カメラユニット1400からの信号に基づいて、視聴者の現在の位置情報を取得する。テレビ1300は、その情報に基づいて、視聴者が標準の視聴位置に対してどのような位置に存在しているかを認識する。テレビ1300は、その認識結果に基づいて、現在の視聴者の位置に応じて音量レベルの調節、表示される文字サイズの調節などを行なう。これにより、視聴者の位置に応じた制御が実現される。   As described above, according to the second embodiment of the present invention, the television 1300 acquires the current position information of the viewer based on the signal from the camera unit 1400. Based on the information, the television 1300 recognizes where the viewer is located with respect to the standard viewing position. Based on the recognition result, the television 1300 adjusts the volume level and the displayed character size according to the current viewer position. Thereby, control according to a viewer's position is realized.

このようにすると、テレビ1300は、従来の構成を有する装置により実現されるため、カメラユニット1400を接続するだけで、既存のテレビジョン受信装置を本発明に係るテレビジョン受信装置として機能させることができる。   Thus, since the television 1300 is realized by a device having a conventional configuration, the existing television receiver can be made to function as the television receiver according to the present invention only by connecting the camera unit 1400. it can.

ここで、図15を参照して、前述の各実施の形態における顔画像データの抽出処理について説明する。図15は、メモリ152に格納された顔画像を概念的に表わす図である。   Here, the face image data extraction process in each of the above-described embodiments will be described with reference to FIG. FIG. 15 is a diagram conceptually showing the face image stored in the memory 152.

被写体がテレビ100のディスプレイ130の正面に位置した状態で撮影処理が正常に実行されると、撮影処理によって生成されたデータは、メモリ152に格納される。被写体の顔は、肌色の部分とそうでない部分とを含む。たとえば頭髪、眉あるいは瞳は、多くの場合、黒色である。このような被写体の画像に対してたとえば画像データの2値化処理あるいは濃淡処理を行なうと、濃淡の程度が異なる画像が生成される。   When the photographing process is normally executed with the subject positioned in front of the display 130 of the television 100, the data generated by the photographing process is stored in the memory 152. The face of the subject includes a skin color portion and a portion that is not. For example, hair, eyebrows or pupils are often black. For example, when binarization processing or shading processing of image data is performed on such an object image, images having different shading levels are generated.

図15に示されるように、眉1502a,1502bと、瞳1504a,1504bと、口1508とがそれぞれ抽出される。メモリ152の領域が予め特定されている場合、たとえば目の間隔1512と、目の長さ1510,1514と、口元の幅1516と、目尻と口の中心部との距離1518とがそれぞれ算出される。距離は、たとえば画素の数により表わされる。たとえば、間隔1512の値と間隔1518の値とは、それぞれ左右方向の情報、上下方向の情報としてメモリ152に格納される。これにより、カメラ150の撮影により生成された画像に対応する被写体がどの位置にいるかを容易に特定することができる。   As shown in FIG. 15, eyebrows 1502a and 1502b, pupils 1504a and 1504b, and a mouth 1508 are extracted. When the area of the memory 152 is specified in advance, for example, an eye interval 1512, eye lengths 1510 and 1514, a mouth width 1516, and a distance 1518 between the corner of the eye and the center of the mouth are calculated. . The distance is expressed by the number of pixels, for example. For example, the value of the interval 1512 and the value of the interval 1518 are stored in the memory 152 as left-right direction information and up-down direction information, respectively. Thereby, it is possible to easily specify the position of the subject corresponding to the image generated by the shooting of the camera 150.

図16を参照して、本発明に係るテレビが使用される場合における「標準位置」について説明する。図16は、テレビ100が設置された部屋10を上部から表わした図である。部屋10において、視聴者11は、テレビ100を視聴している。   With reference to FIG. 16, the “standard position” when the television according to the present invention is used will be described. FIG. 16 is a diagram showing the room 10 in which the television 100 is installed from above. In the room 10, the viewer 11 is watching the television 100.

視聴者11は、テレビ100に対して「標準位置」に位置している。ここで、標準位置とは、テレビ100に対して予め定められた位置である。この位置は、たとえば、テレビ100からの距離と、テレビの中心を通る軸からの距離とによって特定される。   The viewer 11 is located at the “standard position” with respect to the television 100. Here, the standard position is a position predetermined with respect to the television 100. This position is specified by, for example, a distance from the television 100 and a distance from an axis passing through the center of the television.

図16に示される例では、標準位置は、点線1620と点線1630との交点となる。点線1630は、テレビ100の基準の位置に対応する点線1610から予め定められた距離だけ離れた位置に相当する。点線1620は、テレビ100の中心線、たとえばディスプレイ130の中心を通り、ディスプレイ130に垂直に交叉するような線に対応する。   In the example shown in FIG. 16, the standard position is an intersection of a dotted line 1620 and a dotted line 1630. A dotted line 1630 corresponds to a position away from the dotted line 1610 corresponding to the reference position of the television 100 by a predetermined distance. A dotted line 1620 corresponds to a center line of the television 100, for example, a line passing through the center of the display 130 and perpendicularly intersecting the display 130.

このような状態で、視聴者11は、テレビ100に対する初期登録を行なう。すなわち、カメラ150による撮影を受け、解析装置160が視聴者11の顔画像を認識し、特徴量を算出する。その結果、視聴者11が正常に認識され、テレビ100に特徴量が登録されると、その後、視聴者11は、テレビ100を視聴する都度、カメラ150に撮影され、新たに算出された特徴量と保存済みの特徴量との比較が行なわれることになる。   In such a state, the viewer 11 performs initial registration with respect to the television 100. That is, upon receiving a photograph by the camera 150, the analysis device 160 recognizes the face image of the viewer 11 and calculates a feature amount. As a result, when the viewer 11 is normally recognized and the feature amount is registered in the television 100, the viewer 11 is then photographed by the camera 150 each time the television 100 is viewed, and the newly calculated feature amount. And the stored feature amount are compared.

視聴者が標準位置よりもテレビ100に近い位置にて視聴する場合も考えられる。たとえば、視聴者が、点線1631に対応する位置12において視聴する場合がある。あるいは、逆に、テレビ100から離れた点線1632に対応する位置13にて視聴する場合も考えられる。   It is also conceivable that the viewer views at a position closer to the television 100 than the standard position. For example, the viewer may view at the position 12 corresponding to the dotted line 1631. Alternatively, conversely, a case of viewing at a position 13 corresponding to a dotted line 1632 away from the television 100 may be considered.

このような場合、カメラ150までの距離が短くなるが、本発明においては、特徴量の比が、視聴者の認識に使用される。たとえば、視聴者の目の間隔と目と口の間隔との比が、認識に使用される。この場合、同一の視聴者であれば、カメラ150からの距離が異なっても、当該比は、同一の値になるため、別の視聴者として誤って認識されることはない。したがって、その後のテレビ100の動作の制御も、視聴者に応じた正確な制御が実現可能になる。   In such a case, the distance to the camera 150 is shortened, but in the present invention, the feature amount ratio is used for viewer recognition. For example, the ratio of the viewer's eye spacing to the eye-mouth spacing is used for recognition. In this case, if the viewers are the same, even if the distance from the camera 150 is different, the ratios are the same, so that they are not erroneously recognized as different viewers. Therefore, the subsequent control of the operation of the television 100 can also be accurately controlled according to the viewer.

さらに、視聴者が、テレビ100に対して、中心軸からずれた位置において視聴する場合もある。たとえば、複数の視聴者がテレビ100の映像を視聴する場合である。具体的には、図16に示されるように、視聴者が点線1621,1622上の位置において視聴する場合である。   Further, the viewer may view the television 100 at a position shifted from the central axis. For example, this is a case where a plurality of viewers view the video on the television 100. Specifically, as shown in FIG. 16, the viewer watches at positions on dotted lines 1621 and 1622.

このような場合も、特徴量の比の値は、予め登録された特徴量の比の値に対して大きくずれないため、視聴者を正確に認証することができる。その結果、予め登録されたデータに基づいて、視聴者に応じたテレビ100の制御が可能になる。   Even in such a case, the feature value ratio value does not greatly deviate from the previously registered feature value ratio value, so that the viewer can be accurately authenticated. As a result, the television 100 can be controlled in accordance with the viewer based on data registered in advance.

なお、標準位置と異なる位置は、図16に示されるものに限られない。部屋10の中で、テレビ100の映像を視聴可能な位置は、標準位置と異なる位置になり得る。   The position different from the standard position is not limited to that shown in FIG. In the room 10, the position where the video on the television 100 can be viewed can be different from the standard position.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明は、テレビジョン受像装置その他の表示機能を有する表示装置に適用可能である。   The present invention is applicable to a television receiver and other display devices having a display function.

本発明の第1の実施の形態に係るテレビ100を正面から表わす図である。It is a figure showing the television 100 which concerns on the 1st Embodiment of this invention from the front. テレビ100のハードウェア構成を表わすブロック図である。2 is a block diagram showing a hardware configuration of television 100. FIG. 解析装置160によって実現される機能の構成を表わすブロック図である。3 is a block diagram illustrating a configuration of functions realized by an analysis device 160. FIG. CPU110によって実現される機能の構成を表わすブロック図である。It is a block diagram showing the structure of the function implement | achieved by CPU110. メモリ152におけるデータの格納の一態様を概念的に表わす図である。FIG. 3 is a diagram conceptually showing one mode of data storage in a memory 152. CPU110の内部のメモリ112におけるデータの格納の一態様を表わす図である。It is a figure showing the one aspect | mode of the storage of the data in the memory 112 inside CPU110. メモリ112におけるデータの格納の一態様を表わす図である。3 is a diagram illustrating an aspect of data storage in a memory 112. FIG. メモリ112におけるテーブル800の格納の一態様を表わす図である。It is a figure showing one mode of storage of table 800 in memory 112. 視聴者を最初に認証するためにCPU110と解析装置160とが実行する処理の手順を表わすフローチャートである。It is a flowchart showing the procedure of the process which CPU110 and the analysis apparatus 160 perform in order to authenticate a viewer first. テレビ100の動作を制御するためにCPU110が実行する処理の手順を表わすフローチャートである。4 is a flowchart showing a procedure of processing executed by CPU 110 to control the operation of television 100. 音量レベルが調整される場合にディスプレイ130に表示される画面を表わす図である。It is a figure showing the screen displayed on the display when a volume level is adjusted. 文章表現が調整される場合にディスプレイ130に表示される画面を表わす図である。It is a figure showing the screen displayed on the display 130 when a text expression is adjusted. 本発明の第2の実施の形態に係るテレビ1300のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the television 1300 which concerns on the 2nd Embodiment of this invention. カメラユニット1400のハードウェア構成を表わすブロック図である。2 is a block diagram illustrating a hardware configuration of a camera unit 1400. FIG. メモリ152に格納された顔画像を概念的に表わす図である。3 is a diagram conceptually showing a face image stored in a memory 152. FIG. 図16は、テレビ100が設置された部屋10を上部から表わした図である。FIG. 16 is a diagram showing the room 10 in which the television 100 is installed from above.

符号の説明Explanation of symbols

100 テレビ、102 アンテナ、104 外部入力部、106 受光部、108 操作部、110,1410 CPU、112,152,1460 メモリ、114 チューナ、116 切換回路、120,1450 信号処理回路、122 分離回路、124 OSD回路、128 ドライバ、130 ディスプレイ、136a,136b アンプ、140a,140b スピーカ、150 カメラ、160,1470 解析装置、310,410,1420 入力部、320 顔画像領域抽出部、330 特徴量算出部、340 データ書込指令部、350 個人認証部、360 認証結果生成部、370,490 出力部、420 相対位置関係特定部、422 特徴量比較部、430 音量比較部、440 音量調整指令部、450 スピーカ出力指令部、460 個人情報取得部、470 OSD文字調整指令部、480 文章表現調整部、1310,1480 インターフェイス、1400 カメラユニット、1430 レンズ、1440 CCD素子。   100 TV, 102 antenna, 104 external input unit, 106 light receiving unit, 108 operation unit, 110, 1410 CPU, 112, 152, 1460 memory, 114 tuner, 116 switching circuit, 120, 1450 signal processing circuit, 122 separation circuit, 124 OSD circuit, 128 driver, 130 display, 136a, 136b amplifier, 140a, 140b speaker, 150 camera, 160, 1470 analyzer, 310, 410, 1420 input unit, 320 face image area extraction unit, 330 feature quantity calculation unit, 340 Data write command unit, 350 personal authentication unit, 360 authentication result generation unit, 370, 490 output unit, 420 relative positional relationship specifying unit, 422 feature amount comparison unit, 430 volume comparison unit, 440 volume adjustment command unit, 450 speaker output finger Department, 460 personal information acquisition unit, 470 OSD character adjustment command unit, 480 written expression adjuster, 1310,1480 interface 1400 camera unit, 1430 a lens, 1440 CCD elements.

Claims (13)

テレビジョン受信装置であって、
被写体を撮影して画像データを生成する撮像部と、
入力される信号に応じて音声を出力する音声出力部と、
前記テレビジョン受信装置に対して予め定められた標準の視聴位置における視聴者を撮影することにより生成された画像データから算出された特徴量と、前記視聴者の位置に応じて前記音声の出力を制御する制御データとを格納する記憶部とを備え、前記特徴量は、前記視聴者の顔の特徴点間の画素数を含み、
前記テレビジョン受信装置の視聴に応答して、前記撮像手段に視聴者を撮影させる撮影制御手段と、
前記視聴に応答して撮影された被写体の画像データから、前記視聴者の顔の画像が含まれる画像領域を抽出する検出手段と、
前記画像領域に対応するデータに基づいて、前記視聴に応答して撮影された視聴者の顔の特徴点間の画素数を算出する算出手段と、
前記記憶部に格納されている画素数と前記算出手段により算出された画素数とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する確認手段と、
前記視聴者が前記テレビジョン受信装置に登録されていることが確認された場合に、前記記憶部に格納されている画素数と前記算出手段により算出された画素数との比に基づいて、前記標準の視聴位置と視聴時の位置との位置関係を表わす情報を算出する位置情報算出手段とを備え、前記位置関係は、前記テレビジョン受信装置と前記視聴者との遠近関係を含み、
前記遠近関係と前記制御データとに基づいて、前記視聴時に、前記音声の音量を制御する音量制御手段とを備える、テレビジョン受信装置。
A television receiver,
An imaging unit that shoots a subject and generates image data;
An audio output unit that outputs audio in accordance with an input signal;
A feature amount calculated from image data generated by photographing a viewer at a standard viewing position predetermined for the television receiver, and output of the sound according to the position of the viewer. A storage unit for storing control data to be controlled, and the feature amount includes the number of pixels between feature points of the viewer's face,
In response to viewing of the television receiving device, photographing control means for causing the imaging means to photograph a viewer;
Detecting means for extracting an image area including an image of the viewer's face from image data of a subject photographed in response to the viewing;
Calculating means for calculating the number of pixels between feature points of the face of the viewer photographed in response to the viewing based on the data corresponding to the image region;
Confirmation as to whether or not the viewer is a viewer registered in the television receiver based on the number of pixels stored in the storage unit and the number of pixels calculated by the calculation unit Means,
When it is confirmed that the viewer is registered in the television receiver, based on the ratio between the number of pixels stored in the storage unit and the number of pixels calculated by the calculation unit, Position information calculating means for calculating information representing a positional relationship between a standard viewing position and a viewing position, the positional relationship includes a perspective relationship between the television receiver and the viewer;
A television receiver, comprising: volume control means for controlling the volume of the audio during the viewing based on the perspective relationship and the control data.
テレビジョン受信装置であって、
視聴者の撮影により生成された画像データを取得する取得手段と、
取得された画像データに基づいて、前記視聴者の顔の特徴量を算出する算出手段と、
前記テレビジョン受信装置に対して予め定められた標準の視聴位置における視聴者を撮
影することにより生成された画像データから算出された特徴量と、前記視聴者の位置に応じて前記テレビジョン受信装置の動作を制御する制御データとを格納する記憶部と、
前記記憶部に格納されている特徴量と前記算出手段により算出された特徴量とに基づいて、前記視聴者が前記テレビジョン受信装置に登録されている視聴者であるか否かを確認する確認手段と、
前記視聴者が前記テレビジョン受信装置に登録されていることが確認された場合に、前記記憶部に格納されている特徴量と前記算出手段により算出された特徴量とに基づいて、前記標準の視聴位置と視聴時の位置との位置関係を表わす情報を算出する位置情報算出手段と、
前記位置関係と前記制御データとに基づいて、前記テレビジョン受信装置の動作を制御する制御手段とを備え、
前記特徴量は、前記視聴者の顔の特徴点間の画素数を含む、テレビジョン受信装置。
A television receiver,
Acquisition means for acquiring image data generated by photographing of the viewer;
Calculation means for calculating a feature amount of the viewer's face based on the acquired image data;
The television receiver according to the feature amount calculated from the image data generated by photographing the viewer at a standard viewing position predetermined for the television receiver and the position of the viewer A storage unit for storing control data for controlling the operation of
Confirmation as to whether or not the viewer is a viewer registered in the television receiving device based on the feature amount stored in the storage unit and the feature amount calculated by the calculation unit Means,
When it is confirmed that the viewer is registered in the television receiver, the standard value is calculated based on the feature value stored in the storage unit and the feature value calculated by the calculation unit. Position information calculating means for calculating information representing a positional relationship between the viewing position and the position at the time of viewing;
Control means for controlling the operation of the television receiver based on the positional relationship and the control data;
The television reception device, wherein the feature amount includes the number of pixels between feature points of the viewer's face.
前記取得手段は、前記テレビジョン受信装置に接続されている撮像装置から出力されるデータの入力を受け付ける外部入力部を含み、前記撮像装置は、被写体を撮影して前記被写体の画像データを出力する、請求項2に記載のテレビジョン受信装置。   The acquisition unit includes an external input unit that receives input of data output from an imaging device connected to the television receiving device, and the imaging device images a subject and outputs image data of the subject The television receiver according to claim 2. 前記取得手段は、被写体を撮影して画像データを生成する撮像部を含む、請求項2に記載のテレビジョン受信装置。   The television receiver according to claim 2, wherein the acquisition unit includes an imaging unit that captures an image of a subject and generates image data. 前記テレビジョン受信装置の視聴に応答して、前記撮像部に視聴者を撮影させる撮影制御手段をさらに備え、
前記算出手段は、
前記視聴に応答して撮影された被写体の画像データから、前記視聴者の顔の画像が含まれる画像領域を抽出する検出手段と、
前記画像領域に対応するデータに基づいて、前記視聴に応答して撮影された視聴者の顔の特徴量を算出する特徴量算出手段とを含む、請求項4に記載のテレビジョン受信装置。
In response to viewing of the television receiver, the image capturing unit further includes photographing control means for photographing the viewer,
The calculating means includes
Detecting means for extracting an image area including an image of the viewer's face from image data of a subject photographed in response to the viewing;
5. The television receiver according to claim 4, further comprising: a feature amount calculating unit that calculates a feature amount of a viewer's face photographed in response to the viewing based on data corresponding to the image region.
前記位置情報算出手段は、前記撮影された視聴者と前記テレビジョン受信装置との遠近関係を表わす情報を算出する、請求項2に記載のテレビジョン受信装置。   The television receiving device according to claim 2, wherein the position information calculating unit calculates information representing a perspective relationship between the photographed viewer and the television receiving device. 入力される信号に基づいて音声を出力する音声出力部をさらに備え、
前記制御データは、前記遠近関係に基づいて、出力される音声の音量を制御する音量制御データを含み、
前記制御手段は、前記音量制御データと前記遠近関係とに基づいて、前記音声出力部から出力される音声の音量を制御する音量制御手段を含む、請求項6に記載のテレビジョン受信装置。
An audio output unit that outputs audio based on the input signal;
The control data includes volume control data for controlling the volume of the output voice based on the perspective relationship,
The television receiver according to claim 6, wherein the control unit includes a volume control unit that controls a volume of sound output from the sound output unit based on the volume control data and the perspective relationship.
前記記憶部は、前記視聴者の属性を表わす属性データをさらに格納し、前記属性データと前記音量制御データとは関連付けられており、
前記音量制御手段は、前記視聴者の属性に応じて前記音量を制御する、請求項7に記載のテレビジョン受信装置。
The storage unit further stores attribute data representing an attribute of the viewer, and the attribute data and the volume control data are associated with each other,
The television receiver according to claim 7, wherein the volume control unit controls the volume according to an attribute of the viewer.
入力される信号に基づいて映像を表示する表示部と、
前記表示部に文字を表示するための文字データを生成する生成手段とをさらに備え、
前記制御データは、前記遠近関係に基づいて、前記文字の表示態様を規定する表示制御データを含み、
前記制御手段は、前記表示制御データに基づいて、前記遠近関係に応じた表示態様で文字を表示する文字データを前記生成手段に生成させる、請求項6に記載のテレビジョン受信装置。
A display unit for displaying an image based on an input signal;
Generating means for generating character data for displaying characters on the display unit;
The control data includes display control data that defines a display mode of the character based on the perspective relationship,
The television receiver according to claim 6, wherein the control unit causes the generation unit to generate character data for displaying a character in a display mode corresponding to the perspective relationship based on the display control data.
前記記憶部は、前記視聴者の属性を表わす属性データをさらに格納し、前記属性データと前記表示制御データとは関連付けられており、
前記生成手段は、前記視聴者の属性に応じて前記文字データを生成する、請求項9に記載のテレビジョン受信装置。
The storage unit further stores attribute data representing an attribute of the viewer, and the attribute data and the display control data are associated with each other,
The television receiving device according to claim 9, wherein the generation unit generates the character data according to an attribute of the viewer.
前記属性データは、前記視聴者の年齢を表わすためのデータを含む、請求項8または10に記載のテレビジョン受信装置。   The television receiving device according to claim 8 or 10, wherein the attribute data includes data for representing an age of the viewer. 入力される信号に基づいて音声を出力する複数の音声出力部をさらに備え、
前記制御データは、前記視聴者の位置に応じて、各前記音声出力部から出力される音声の音量を制御する音量制御データを含み、
前記位置情報算出手段は、前記標準の視聴位置からの前記視聴者の左右方向における位置関係を表わす情報を算出し、
前記制御手段は、前記左右方向における位置関係と前記音量を制御するデータとに基づいて、各前記音声出力部により出力される音声の音量を制御する、請求項2に記載のテレビジョン受信装置。
It further includes a plurality of audio output units that output audio based on the input signal,
The control data includes volume control data for controlling the volume of audio output from each of the audio output units according to the position of the viewer,
The position information calculation means calculates information representing a positional relationship in the horizontal direction of the viewer from the standard viewing position;
The television receiver according to claim 2, wherein the control unit controls a volume of sound output from each of the sound output units based on a positional relationship in the left-right direction and data for controlling the volume.
前記位置情報算出手段は、前記視聴者が前記テレビジョン受信装置に登録されていることが確認された場合に、前記位置関係を表わす情報を算出する、請求項2に記載のテレビジョン受信装置。   3. The television receiver according to claim 2, wherein the position information calculation unit calculates information representing the positional relationship when it is confirmed that the viewer is registered in the television receiver.
JP2005265456A 2005-09-13 2005-09-13 Television receiver Expired - Fee Related JP4225307B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005265456A JP4225307B2 (en) 2005-09-13 2005-09-13 Television receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005265456A JP4225307B2 (en) 2005-09-13 2005-09-13 Television receiver

Publications (2)

Publication Number Publication Date
JP2007081677A JP2007081677A (en) 2007-03-29
JP4225307B2 true JP4225307B2 (en) 2009-02-18

Family

ID=37941532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005265456A Expired - Fee Related JP4225307B2 (en) 2005-09-13 2005-09-13 Television receiver

Country Status (1)

Country Link
JP (1) JP4225307B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010107773A (en) * 2008-10-30 2010-05-13 Toshiba Corp Display control device and display control method
JP2010273276A (en) * 2009-05-25 2010-12-02 Car Mate Mfg Co Ltd Television control device
JP5418093B2 (en) * 2009-09-11 2014-02-19 ソニー株式会社 Display device and control method
JP5568929B2 (en) * 2009-09-15 2014-08-13 ソニー株式会社 Display device and control method
KR101923447B1 (en) * 2012-02-22 2018-11-29 엘지전자 주식회사 Multimedia device for providing a different interface depending on the location or position of user and method for controlling the same
CN115379297A (en) * 2021-05-18 2022-11-22 南宁富联富桂精密工业有限公司 Directional sound transmission method, electronic device and storage medium
TW202333491A (en) * 2021-12-28 2023-08-16 日商索尼集團公司 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2007081677A (en) 2007-03-29

Similar Documents

Publication Publication Date Title
JP4225307B2 (en) Television receiver
US7835551B2 (en) Television set and authentication device
US9927948B2 (en) Image display apparatus and image display method
JP5239126B2 (en) Electronic camera
JP4902795B2 (en) Display device, television receiver, display device control method, program, and recording medium
US20160014540A1 (en) Soundbar audio content control using image analysis
JP6973394B2 (en) Information processing equipment, information processing methods, and programs
JP2007212664A (en) Liquid crystal display device
JP4756980B2 (en) Television receiver
US8279299B2 (en) Imaging device and associated methodology of setting adjustable aspect ratios
JP2007174229A (en) Color video image display device
JP2014077994A (en) Image display device, control method and control program for the same, and imaging device
JPH11164329A (en) Stereoscopic video image display device
EP2458881A2 (en) Information Processing Apparatus, Information Processing Method and Program
US20130093848A1 (en) Image output device, method and program
JP2008244917A (en) Receiver control system
JP2008277983A (en) Television receiver
KR101591396B1 (en) Image capture apparatus, a communication method, a storage medium and a communication system
JP2006086717A (en) Image display system, image reproducer, and layout controller
EP3796673A1 (en) An application for assisting a hearing device wearer
JP5580486B2 (en) Image output apparatus, method and program
CN109391769A (en) Control equipment, control method and storage medium
US20140247327A1 (en) Image processing device, method, and recording medium therefor
EP2518917A1 (en) Video display apparatus and video display method
TW201740738A (en) Method and device for displaying multi-channel video

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees