JP5685685B2 - Video display device - Google Patents

Video display device Download PDF

Info

Publication number
JP5685685B2
JP5685685B2 JP2010180966A JP2010180966A JP5685685B2 JP 5685685 B2 JP5685685 B2 JP 5685685B2 JP 2010180966 A JP2010180966 A JP 2010180966A JP 2010180966 A JP2010180966 A JP 2010180966A JP 5685685 B2 JP5685685 B2 JP 5685685B2
Authority
JP
Japan
Prior art keywords
video
unit
display device
subject
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010180966A
Other languages
Japanese (ja)
Other versions
JP2012042507A (en
Inventor
裕美 西浦
裕美 西浦
秀敏 寺岡
秀敏 寺岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Maxell Energy Ltd
Original Assignee
Hitachi Maxell Energy Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Energy Ltd filed Critical Hitachi Maxell Energy Ltd
Priority to JP2010180966A priority Critical patent/JP5685685B2/en
Publication of JP2012042507A publication Critical patent/JP2012042507A/en
Application granted granted Critical
Publication of JP5685685B2 publication Critical patent/JP5685685B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

視聴者に対して情報を提供する映像表示装置に関する。   The present invention relates to a video display device that provides information to a viewer.

視聴者に対して情報を提供する映像表示装置の背景技術として下記の特許文献1がある。特許文献1では、表示装置を見る人に適切な広告を流すため、表示装置を見るユーザに向けられたカメラを用いてユーザの顔を検出し、性別や大人・子供といった属性を取得し、その検出頻度に応じて表示装置に表示する広告などの画像を選択し表示する技術が開示されている。   As a background art of a video display device that provides information to a viewer, there is Patent Document 1 below. In Patent Document 1, in order to send an appropriate advertisement to a person who views a display device, the user's face is detected using a camera directed to the user who views the display device, and attributes such as sex, adult / children are acquired, A technique for selecting and displaying an image such as an advertisement to be displayed on a display device in accordance with the detection frequency is disclosed.

特開2005−267611号公報JP 2005-267611 A

視聴者が広告コンテンツを途中から視聴開始すると、広告コンテンツの内容を全て視聴することができない場合がある。この場合、広告者側としては視聴者に全ての情報を提供できず、広告効果に欠けることになる。視聴者側としても全ての情報を取得できずに終わるという問題がある。また、遠くから視認できるように映像内の例えば文字などを大きく表示した場合は、近くから見ている人にとっては見難く感じ、近くから見ている人が見易い大きさで表示すると、遠くからは見難くなる。
不特定多数の人物の状況や位置に応じて情報を伝達するという目的と、表示装置を見ている人物に適切な情報を伝達するという目的との両方を満たすような広告表示が望まれる。
When the viewer starts viewing the advertising content from the middle, there are cases where the entire content of the advertising content cannot be viewed. In this case, the advertiser side cannot provide all information to the viewer, and the advertising effect is lacking. There is also a problem that the viewer side ends without obtaining all the information. In addition, when displaying large characters such as characters in the image so that they can be viewed from a distance, it may be difficult to see for those who are viewing from close, and when viewing in a size that is easy for those who are viewing from a distance, It becomes difficult to see.
An advertisement display that satisfies both the purpose of transmitting information according to the situation and position of an unspecified number of persons and the purpose of transmitting appropriate information to the person watching the display device is desired.

前記した課題を解決するため、映像情報を表示する映像表示部を有する映像表示装置であって、複数のカメラから供給されたカメラ映像を取得して被写体を解析する映像解析部と、該映像解析部で解析された前記被写体と前記映像表示装置との間の距離を算出する距離算出部と、前記複数のカメラのうち所定の1台のカメラから供給されたカメラ映像が含む前記被写体の、前記距離算出部で算出された前記映像表示装置との間の距離に基づき、他のカメラが撮像する画角を制御するカメラ制御部と、前記距離算出部で算出された前記被写体と前記映像表示装置との間の距離に基づき前記映像表示部に2つ以上の表示領域を設け、前記カメラ制御部で制御された前記他のカメラから供給されたカメラ画像の被写体の前記映像解析部における解析結果に基づき前記映像表示部に映像情報を表示させる制御部と、を有する映像表示装置を提供する。   In order to solve the above-described problem, a video display device having a video display unit that displays video information, a video analysis unit that acquires camera videos supplied from a plurality of cameras and analyzes a subject, and the video analysis A distance calculation unit that calculates a distance between the subject analyzed by the unit and the video display device, and the subject included in a camera video supplied from a predetermined one of the plurality of cameras, A camera control unit that controls an angle of view captured by another camera based on a distance from the video display device calculated by a distance calculation unit, the subject calculated by the distance calculation unit, and the video display device Two or more display areas are provided in the video display unit based on the distance between the camera and the subject of the camera image supplied from the other camera controlled by the camera control unit in the video analysis unit To provide a video display device and a control unit for displaying the image information on the image display unit based on the results.

本発明によれば、映像表示装置は各視聴者に情報を提供しながら、不特定多数の視聴者に対しても情報を提供することができるという効果がある。   According to the present invention, the video display apparatus can provide information to an unspecified number of viewers while providing information to each viewer.

映像表示装置のブロック図の一例である。It is an example of the block diagram of a video display apparatus. 映像表示装置の第1の設置状況を示す図の一例である。It is an example of the figure which shows the 1st installation condition of a video display apparatus. 映像表示装置と被写体の位置関係を示す平面図の一例である。It is an example of the top view which shows the positional relationship of a video display apparatus and a to-be-photographed object. 映像表示装置の第2の設置状況を示す図の一例である。It is an example of the figure which shows the 2nd installation condition of a video display apparatus. カメラBの処理フロー図の一例である。It is an example of a processing flow diagram of the camera B. 対象被写体決定処理の処理フロー図の一例である。It is an example of the processing flowchart of an object subject determination process. 映像表示装置への映像コンテンツ表示の処理フロー図の一例である。It is an example of the processing flowchart of a video content display on a video display apparatus. カメラAの処理フロー図の一例である。It is an example of the processing flowchart of the camera A. カメラの撮影領域を示す図の一例である。It is an example of the figure which shows the imaging | photography area | region of a camera.

図面を用いて実施形態の例を説明する。ただし、本発明は本実施例に限定されない。
図1は、映像表示装置100のブロック図の一例である。撮像素子101及び102は被写体を撮像する。カメラ信号処理部103及び104は、撮像素子101及び102が撮像した撮像情報を光信号から電気信号に変換し、アナログ電気信号をデジタル信号に変換する。カメラ制御部105は、カメラ信号処理部103及び104の信号処理動作を制御する。システム制御部200は、CPU(Central Processing Unit)による制御作用を有し、映像解析部201、距離算出部202、被写体決定部203、書き込み部204、読み出し部205、表示領域決定部301、表示サイズ制御部302、表示内容選択部303を有し、映像表示装置100の全体の動作を制御する。
Embodiments will be described with reference to the drawings. However, the present invention is not limited to this embodiment.
FIG. 1 is an example of a block diagram of the video display device 100. The image sensors 101 and 102 image a subject. The camera signal processing units 103 and 104 convert imaging information captured by the imaging elements 101 and 102 from an optical signal to an electrical signal, and convert an analog electrical signal to a digital signal. The camera control unit 105 controls signal processing operations of the camera signal processing units 103 and 104. The system control unit 200 has a control action by a CPU (Central Processing Unit), and includes a video analysis unit 201, a distance calculation unit 202, a subject determination unit 203, a writing unit 204, a reading unit 205, a display area determination unit 301, a display size. A control unit 302 and a display content selection unit 303 are provided to control the overall operation of the video display device 100.

映像解析部201、距離算出部202、被写体決定部203、書き込み部204、読み出し部205、表示領域決定部301、表示サイズ制御部302、表示内容選択部303は、システム制御部200が、内蔵メモリ500に記憶された映像解析プログラム201、距離算出プログラム202、被写体決定プログラム203、書き込みプログラム204、読み出しプログラム205、表示領域決定プログラム301、表示サイズ制御プログラム302、表示内容選択プログラム303を実行することでソフトウェアとして、映像解析、距離算出、被写体決定、書き込み、読み出し、表示領域決定、表示サイズ制御、表示内容選択の各機能を実現することができる。   The video analysis unit 201, the distance calculation unit 202, the subject determination unit 203, the writing unit 204, the reading unit 205, the display area determination unit 301, the display size control unit 302, and the display content selection unit 303 are included in the system control unit 200. By executing the video analysis program 201, the distance calculation program 202, the subject determination program 203, the writing program 204, the reading program 205, the display area determination program 301, the display size control program 302, and the display content selection program 303 stored in 500. As software, functions of video analysis, distance calculation, subject determination, writing, reading, display area determination, display size control, and display content selection can be realized.

また、ソフトウェアとして実現された各機能は映像解析部201、距離算出部202、被写体決定部203、書き込み部204、読み出し部205、表示領域決定部301、表示サイズ制御部302、表示内容選択部303などのように各処理を行う処理部として集積回路化するなどしてハードウェアとして実現することもできる。以下では説明を簡略化するために、映像解析プログラム201、距離算出プログラム202、被写体決定プログラム203、書き込みプログラム204、読み出しプログラム205、表示領域決定プログラム301、表示サイズ制御プログラム302、表示内容選択プログラム303をシステム制御部200が実行することで実現される各処理を、各処理部が主体となって行うものとして説明する。なお、各処理部をハードウェアで実現した場合には、その各処理部が主体となって各処理を行う。   Each function implemented as software includes a video analysis unit 201, a distance calculation unit 202, a subject determination unit 203, a writing unit 204, a reading unit 205, a display area determination unit 301, a display size control unit 302, and a display content selection unit 303. It can also be realized as hardware by making an integrated circuit as a processing unit for performing each processing. In the following, in order to simplify the description, the video analysis program 201, the distance calculation program 202, the subject determination program 203, the writing program 204, the reading program 205, the display area determination program 301, the display size control program 302, and the display content selection program 303 In the following description, it is assumed that each processing realized by the system control unit 200 is performed mainly by each processing unit. When each processing unit is realized by hardware, each processing unit mainly performs each process.

表示部300は、例えば記憶部500に記憶された映像コンテンツ、例えば商品の広告情報の表示を行う。入出力端子401から入力された映像情報を表示する機能があっても良い。電源部400は、映像表示装置100を駆動するため、電池または商用電源から取得した電力を映像表示装置100に供給する。入出力端子401は外部接続された他機器との間で情報信号を授受する。記憶部500は、HDD(Hard Disk Drive)やSSD(Solid State Drive)、DVD(Digital Versatile Disk)、BD(Blu−ray Disk)、ICカード(Integrated Circuit Card)、半導体メモリなどの記憶装置であり、映像や映像の再生順、プログラム、テーブルなどの情報を記憶する。映像や映像の再生順などの情報は、例えば入出力端子401から供給され、書き込み部204により記憶部500に書き込まれる。なお、記憶部500は複数あってもよく、異なる種類の記憶手段であってもよい。さらに、記憶部500は内蔵でも外付けでもよい。   The display unit 300 displays, for example, video content stored in the storage unit 500, for example, advertisement information of a product. There may be a function of displaying video information input from the input / output terminal 401. The power supply unit 400 supplies power acquired from a battery or a commercial power source to the video display device 100 in order to drive the video display device 100. The input / output terminal 401 exchanges information signals with other externally connected devices. The storage unit 500 is an HDD (Hard Disk Drive), an SSD (Solid State Drive), a DVD (Digital Versatile Disk), a BD (Blu-ray Disk), an IC card (Integrated Circuit Card), a memory such as a semiconductor, or a memory. , Information such as video, video playback order, program, table, etc. is stored. Information such as video and video playback order is supplied from, for example, the input / output terminal 401 and written into the storage unit 500 by the writing unit 204. Note that there may be a plurality of storage units 500, or different types of storage means. Further, the storage unit 500 may be internal or external.

また、記憶部500に保持された情報は、読み出し部205により読み出されて各構成要素に供給されるが、入出力端子401を経由して外部接続された他機器に伝送されても良い。入出力端子401はネットワーク(図示せず)を介して他機器と接続されても良い。この場合、映像表示装置100は、ネットワークを介して他機器から送信された映像コンテンツを表示部300に表示することができる。   The information held in the storage unit 500 is read by the reading unit 205 and supplied to each component, but may be transmitted to another externally connected device via the input / output terminal 401. The input / output terminal 401 may be connected to other devices via a network (not shown). In this case, the video display device 100 can display video content transmitted from another device via the network on the display unit 300.

本実施例では、2個のカメラを映像表示装置100に搭載したが、外部接続された2個のカメラからの映像を映像表示装置100に入力する構成でもよい。
また、本実施例ではカメラの個数を2個としたが、2個以上であってもよい。
In this embodiment, two cameras are mounted on the video display device 100. However, a configuration may be adopted in which videos from two externally connected cameras are input to the video display device 100.
In this embodiment, the number of cameras is two, but may be two or more.

図2は、映像表示装置100の第1の設置状況を示す図の一例である。映像表示装置100の上部にカメラを2個設置している。映像表示装置100の前に被写体A、被写体B、被写体C、被写体D、被写体群Eが存在している。被写体Bと被写体Dは映像表示装置100を見ておらず、その他の被写体は映像表示装置100を見ているとする。   FIG. 2 is an example of a diagram illustrating a first installation state of the video display device 100. Two cameras are installed on the top of the video display device 100. A subject A, subject B, subject C, subject D, and subject group E exist in front of the video display device 100. It is assumed that the subject B and the subject D do not look at the video display device 100, and other subjects look at the video display device 100.

図3は、映像表示装置100と被写体の位置関係を示す平面図の一例であり、図2の映像表示装置100と被写体A〜Eを上方から見下ろした状態を示している。
人物が立ち止まって表示画面を見ている場合や、映像表示装置100に近付くといった動作を行った場合には、表示されている内容に興味があると考えられる。映像表示装置100は立ち止まって表示画面を見ている人物、もしくは映像表示装置100に近づくといった動作を行っている人物をカメラBが撮影した映像から探索する。映像表示装置100が行う探索方法として、例えば、撮像した被写体の形状や色から人の顔やその位置を検出し、その向きや動きから映像表示装置100を見ている被写体A、C、Eを検出するという方法がある。映像表示装置100は、検出した人物の中からカメラAを用いて最も映像表示装置100の近くにいる被写体Aを特定し、被写体Aをズームしたり、被写体Aが撮像できるようにカメラAの向きを変えるなどして被写体Aを追跡する。例えば、被写体Aが第1の表示領域1に表示された広告に興味を持ち、ある場所で立ち止まり、もう少し情報が欲しいため映像表示装置100に近付いたとする。この時、カメラAは被写体Aにズームし追跡しながら前記した被写体Aが映像表示装置100を見ているか否かと、映像表示装置100と被写体Aとの距離の変化を得る。
FIG. 3 is an example of a plan view showing the positional relationship between the video display device 100 and the subject, and shows a state where the video display device 100 and subjects A to E in FIG. 2 are looked down from above.
When a person stops and looks at the display screen, or when an operation such as approaching the video display device 100 is performed, it is considered that the displayed content is interesting. The video display device 100 searches the video captured by the camera B for a person who stops and looks at the display screen or who is performing an operation such as approaching the video display device 100. As a search method performed by the video display device 100, for example, a person's face and its position are detected from the shape and color of the captured subject, and the subjects A, C, and E looking at the video display device 100 from their orientation and movement are detected. There is a method of detecting. The video display device 100 uses the camera A to identify the subject A that is closest to the video display device 100 from among the detected persons, and zooms the subject A so that the subject A can be imaged. To track the subject A. For example, it is assumed that the subject A is interested in an advertisement displayed in the first display area 1, stops at a certain place, and approaches the video display device 100 because he wants more information. At this time, the camera A zooms and tracks the subject A to obtain whether or not the subject A is looking at the video display device 100 and a change in the distance between the video display device 100 and the subject A.

また、第1の表示領域1と別の領域に、被写体Aの位置に応じて第2の表示領域2を作成し、映像表示装置100に対し比較的近い位置にいる被写体Aにとって、適切な状態で広告を表示する。映像出力装置100は、適切な状態にするために、例えば、第2の表示領域2の大きさ、位置などを変更する。例えば被写体Aと映像出力装置100との距離が第1の閾値よりも遠い場合は、映像出力装置100は第2の表示領域2を標準の大きさよりも大きく表示することで、映像を視認しやすくする。また、前記の距離が第2の閾値よりも近い場合は、映像出力装置100は第2の表示領域2を標準の大きさよりも小さく表示することで、映像全体の把握を容易にさせる。
また、第1の表示領域1は例えば被写体群Eのいる遠い場所から認識しやすいように文字や画像を大きく表示するが、第2の表示領域2は被写体A向けの適切な大きさの文字や画像を表示することができる。ここで、適切な大きさの文字や画像とは、被写体Aが視認しやすい大きさの文字や画像のことである。被写体Aが映像表示装置100の近くに移動することによって、細かい文字や小さな画像でも充分に視認できる場合がある。このため、映像表示装置100と被写体との距離が閾値よりも小さい場合は、文字や画像を標準よりも小さくする代わりに情報量を増大させることができる。さらに、後述する方法で映像解析部201が人物の認識を行った結果、被写体Aが高齢者であると判断した場合は、映像表示装置100は、文字や画像の大きさを標準の大きさよりも大きく表示するといった制御を行ってもよい。
In addition, a second display area 2 is created in a different area from the first display area 1 according to the position of the subject A, and the state is appropriate for the subject A that is relatively close to the video display device 100. To display ads. For example, the video output device 100 changes the size, position, and the like of the second display area 2 in order to obtain an appropriate state. For example, when the distance between the subject A and the video output device 100 is farther than the first threshold, the video output device 100 displays the second display area 2 larger than the standard size so that the video can be easily viewed. To do. When the distance is shorter than the second threshold, the video output device 100 displays the second display area 2 smaller than the standard size, thereby making it easy to grasp the entire video.
The first display area 1 displays characters and images large so that the object group E can be easily recognized from a distant place, for example. The second display area 2 An image can be displayed. Here, characters and images of an appropriate size are characters and images of a size that is easy for the subject A to visually recognize. When the subject A moves close to the video display device 100, there may be a case where a fine character or a small image can be sufficiently visually recognized. For this reason, when the distance between the video display device 100 and the subject is smaller than the threshold, the amount of information can be increased instead of making the characters and images smaller than the standard. Furthermore, when the video analysis unit 201 recognizes a person by a method described later and determines that the subject A is an elderly person, the video display device 100 sets the size of characters and images to be larger than the standard size. You may control to display large.

図4は、映像表示装置100の第2の設置状況を示す図の一例である。本設置例では複数の映像表示装置100A〜100Iを組み合わせて大画面を実現している。ここでは、6個の映像表示装置100A〜100Fを用いて第1の表示領域1を実現し、画面下部の映像表示装置100G〜100Iのそれぞれ、或いはいずれか一つを第2の表示領域2として利用する例を示している。図4の例においても、第1の表示領域1は例えば被写体群Eのいる遠い場所から認識しやすいように文字や画像を大きく表示するが、上述したように、第2の表示領域2は被写体A向けの適切な大きさの文字や画像を表示することができる。
図5は、カメラBの処理フロー図の一例である。以下、図1の撮像素子101とカメラ信号処理部103はカメラAの構成要素、撮像素子102とカメラ信号処理部104はカメラBの構成要素とする。
FIG. 4 is an example of a diagram illustrating a second installation state of the video display device 100. In this installation example, a large screen is realized by combining a plurality of video display devices 100A to 100I. Here, the first display area 1 is realized using six video display devices 100A to 100F, and each or any one of the video display devices 100G to 100I at the bottom of the screen is used as the second display area 2. An example of use is shown. In the example of FIG. 4 as well, the first display area 1 displays characters and images large so that they can be easily recognized from a distant place where the subject group E is present, for example. As described above, the second display area 2 is the subject. Characters and images of an appropriate size for A can be displayed.
FIG. 5 is an example of a processing flowchart of the camera B. Hereinafter, the image sensor 101 and the camera signal processing unit 103 in FIG. 1 are components of the camera A, and the image sensor 102 and the camera signal processing unit 104 are the components of the camera B.

映像解析部201は、撮像素子102で撮像した映像をカメラ信号処理部104を介して取得する(ステップS501)。映像解析部201は、取得した映像を解析する(ステップS502)。映像解析部201は例えば被写体である人物の顔を、色や目、鼻、口を検出して認識することや、人物が映っていない予め取得しておいた画像と入力画像との差分により人物の位置を認識するなどの解析を行う。距離算出部202は、予め画面内の画素位置と距離とがマッピングされ記憶部500に保持されたマッピング情報から、映像解析部201が認識した被写体と映像表示装置100の間の距離情報を算出する(ステップS503)。   The video analysis unit 201 acquires the video captured by the image sensor 102 via the camera signal processing unit 104 (step S501). The video analysis unit 201 analyzes the acquired video (step S502). The video analysis unit 201 detects, for example, the face of a person who is a subject by detecting colors, eyes, nose, and mouth, or the difference between an input image and a previously acquired image that does not show a person. Analysis such as recognizing the position of. The distance calculation unit 202 calculates distance information between the subject recognized by the video analysis unit 201 and the video display device 100 from mapping information in which pixel positions and distances in the screen are mapped in advance and stored in the storage unit 500. (Step S503).

被写体決定部203は、ステップS502で映像解析部201が解析した人物などの被写体情報と、ステップS503で距離算出部202が取得した距離情報から、対象となる被写体を決定する(ステップS600)。被写体決定部203は、例えば図2で示した被写体のうち、映像表示装置100を見ており、かつ最も映像表示装置100に近い被写体である被写体Aを対象と決定する。なお、ステップS600については図6で詳しく説明する。   The subject determination unit 203 determines a target subject from the subject information such as the person analyzed by the video analysis unit 201 in step S502 and the distance information acquired by the distance calculation unit 202 in step S503 (step S600). The subject determination unit 203 determines, for example, the subject A that is looking at the video display device 100 and is closest to the video display device 100 among the subjects illustrated in FIG. Step S600 will be described in detail with reference to FIG.

次に、システム制御部200は、カメラ制御部105からカメラAがズーム中であるかどうかを取得する(ステップS504)。カメラAがズーム中でなければ(図のNo)、システム制御部200はカメラAを制御し、カメラAをステップS600で決定した対象の被写体へズームする(ステップS505)。カメラAがズーム中であれば(図のYes)、システム制御部200はカメラA制御情報を、例えば記憶部500に保持しておく(ステップS506)。カメラA制御情報は、次のズーム対象者に関する例えば位置情報であり、図2で示した例えば被写体Cに関わる情報である。システム制御部200は、ズーム時に表示部300に表示していたコンテンツを示すコンテンツの名称やIDなどのコンテンツ情報を、記憶部500に保持する(ステップS507)。   Next, the system control unit 200 acquires whether the camera A is being zoomed from the camera control unit 105 (step S504). If the camera A is not being zoomed (No in the figure), the system control unit 200 controls the camera A and zooms the camera A to the target subject determined in step S600 (step S505). If the camera A is being zoomed (Yes in the figure), the system control unit 200 holds the camera A control information in, for example, the storage unit 500 (step S506). The camera A control information is, for example, position information regarding the next person to be zoomed, and is information regarding, for example, the subject C shown in FIG. The system control unit 200 stores content information such as a content name and ID indicating the content displayed on the display unit 300 during zooming in the storage unit 500 (step S507).

図6は、対象被写体決定処理S600の処理フロー図の一例である。
映像解析部201は、カメラAの現在のズーム対象である被写体以外に、映像表示装置100を見ている人がいるかどうかをカメラBの画像から判定する(ステップS601)。ステップS601における映像解析部201の解析は、ステップS502における解析と同様の方法を用いることができる。映像解析部201は、例えば図2におけるカメラAが現在ズーム対象としてる被写体A以外に、被写体Cや被写体群Eのように映像表示装置100を見ている人がいるかどうかをカメラBの画像から判定する。映像表示装置100を見ている人がいる場合は(図のYes)被写体決定部203は、該当する人の中から最も映像表示装置100からの距離が近い人をカメラAの被写体として選択する(ステップS602)。映像表示装置100を見ている人がいない場合は(図のNo)、映像解析部201は、映像表示装置100の周辺に人物がいるかどうかを判定する(ステップS603)。ステップS603において、映像解析部201は、例えば図2における被写体Bや被写体Dのように、映像表示装置100を見ていない人物がいるかどうかを判定する。映像表示装置100を見ている人物がいる場合は(図のYes)、被写体決定部203は、いずれかの人物をカメラAの被写体として選択する(ステップS604)。その際、予め設定した領域内にいる人物を選択してもよく、最も多く人物がいる領域中の人物を選択してもよい。一方、映像出力装置100を見ている人物がいない場合は(図のNo)、被写体決定部203は、予め設定した所定位置をカメラAの撮像対象として選択する(ステップS605)。
被写体決定部203は、カメラBにより次に選択する対象被写体エリアを選択する(ステップS603)。ここでは、カメラA向けに選択した被写体以外で例えば最も人がいる箇所を選択する。図2の例の場合は被写体群Eのエリアを選択する。上記の最も人がいる箇所の判断方法として、映像処理部201がカメラAが撮像した映像を複数の領域に分割し、分割された領域の中で最も多くの顔を検知できた領域を最も人がいる箇所として判断する方法が例としてあげられる。
FIG. 6 is an example of a process flow diagram of the target subject determination process S600.
The video analysis unit 201 determines from the image of the camera B whether there is a person watching the video display device 100 other than the subject that is the current zoom target of the camera A (step S601). The analysis by the video analysis unit 201 in step S601 can use the same method as the analysis in step S502. The video analysis unit 201 determines whether there is a person watching the video display device 100 such as the subject C or the subject group E in addition to the subject A that the camera A in FIG. judge. When there is a person watching the video display device 100 (Yes in the figure), the subject determination unit 203 selects a person who is closest to the video display device 100 from the corresponding people as the subject of the camera A ( Step S602). If there is no person watching the video display device 100 (No in the figure), the video analysis unit 201 determines whether there is a person around the video display device 100 (step S603). In step S603, the video analysis unit 201 determines whether there is a person who is not looking at the video display device 100, such as the subject B or the subject D in FIG. If there is a person watching the video display device 100 (Yes in the figure), the subject determination unit 203 selects any person as the subject of the camera A (step S604). At that time, a person in a preset area may be selected, or a person in an area having the most people may be selected. On the other hand, when there is no person watching the video output device 100 (No in the figure), the subject determination unit 203 selects a predetermined position set in advance as an imaging target of the camera A (step S605).
The subject determining unit 203 selects a target subject area to be selected next by the camera B (step S603). Here, for example, a place where the person is the most other than the subject selected for the camera A is selected. In the case of the example in FIG. 2, the area of the subject group E is selected. As a method of determining the place where the person is most, the video processing unit 201 divides the video image captured by the camera A into a plurality of areas, and the area where the most faces can be detected among the divided areas An example is a method of determining that there is a spot.

以上述べたように、図5と図6のフローにより、画角の広いカメラBで撮像した被写体の映像を用いて、そのうちから特定の被写体を選択してカメラAをズームし、該被写体の行動に関わる情報を得ることができる。
次に、映像コンテンツ表示処理フローを図7を用いて説明する。
As described above, according to the flow of FIG. 5 and FIG. 6, using a subject image captured by the camera B with a wide angle of view, a specific subject is selected from among them, and the camera A is zoomed. You can get information about.
Next, the video content display processing flow will be described with reference to FIG.

図7は、映像表示装置100への映像コンテンツ表示の処理フロー図の一例である。
本処理は、図5のステップS503においてカメラBによりカメラA及びカメラBの対象被写体までの距離を算出した後に行う。また図5のステップS507で保持したコンテンツ情報を使用する場合には、図5の処理フローが終了した後に開始して良い。
FIG. 7 is an example of a processing flowchart of video content display on the video display device 100.
This process is performed after the distances from the camera B and the target subject of the camera B are calculated by the camera B in step S503 in FIG. Further, when the content information held in step S507 in FIG. 5 is used, the content information may be started after the processing flow in FIG.

表示領域決定部301は、カメラAとカメラBの対象被写体向けの表示領域の大きさを決定する(ステップS701)。表示領域の大きさの決定方法として、カメラAまたはカメラBの対象被写体と、映像表示装置100との距離に一定の比率を乗じた値を表示領域の大きさとしてもよい。また、予め被写体と映像表示装置100の距離に閾値を設定しておき、閾値よりも近くなった場合に標準の大きさよりも小さいサイズに表示領域を縮小し、閾値よりも遠くなった場合に標準の大きさよりも大きいサイズに表示領域を拡大してもよい。また、表示領域決定部301は、カメラAとカメラBの対象被写体の位置に応じて表示部300における表示位置を決定する。例えば表示領域決定部301は、図4のように、被写体がBの位置にいる場合は表示領域100Hを選択し、Aの位置にいる場合は表示領域100Gを選択する、つまり、被写体Aが映像表示装置100の正面の右側にいる場合には右に位置する表示領域を選択し、左側に被写体Aがいる場合は左に位置する表示領域を選択する、というように、第2の表示領域2の位置を被写体Aの付近に表示させる。   The display area determination unit 301 determines the size of the display area for the target subjects of the camera A and the camera B (step S701). As a method for determining the size of the display area, a value obtained by multiplying the distance between the target subject of the camera A or the camera B and the video display device 100 by a certain ratio may be set as the size of the display area. In addition, a threshold is set in advance for the distance between the subject and the video display device 100, the display area is reduced to a size smaller than the standard size when the distance is closer than the threshold, and the standard is set when the distance is larger than the threshold. The display area may be enlarged to a size larger than the size of. The display area determination unit 301 determines the display position on the display unit 300 according to the positions of the target subjects of the camera A and the camera B. For example, as shown in FIG. 4, the display area determination unit 301 selects the display area 100H when the subject is at the position B, and selects the display area 100G when the subject is at the position A, that is, the subject A is an image. The second display area 2 is such that when the display device 100 is on the right side of the front of the display device 100, the display area located on the right is selected, and when the subject A is on the left side, the display area located on the left is selected. Is displayed near the subject A.

表示内容選択部303は、ステップS701で決定した表示領域に表示する映像を決定する(ステップS702)。例えば表示内容選択部303は、ステップS507で保持したコンテンツや、そのコンテンツに予め関連付けられたコンテンツを選択する。これは、カメラBにより探索した現在表示中のコンテンツに興味を持った被写体に対して、もう一度情報を提示してコンテンツの最初から表示する、または詳細情報を提示するためである。   The display content selection unit 303 determines the video to be displayed in the display area determined in step S701 (step S702). For example, the display content selection unit 303 selects the content held in step S507 and the content associated in advance with the content. This is to present information once again to the subject interested in the currently displayed content searched by the camera B and display it from the beginning of the content, or to present detailed information.

表示サイズ制御部302は、決定したコンテンツの表示サイズを決定する(ステップS703)。ステップS703において、表示サイズ制御部302は、ステップS701で決めた表示領域に対して、コンテンツをどの大きさで表示するかを、例えば対象被写体までの距離に応じて決定する。距離に応じて表示の大きさを変える方法の一例として、対象被写体と映像表示装置100との距離が予め設定された閾値よりも遠い場合はコンテンツをスクロールさせるなどして、文字や画像を標準の大きさよりも大きく表示し、対象被写体と映像表示装置100との距離が予め設定された閾値よりも近い場合は、コンテンツを一画面にスクロールさせずに表示させる方法がある。   The display size control unit 302 determines the display size of the determined content (step S703). In step S703, the display size control unit 302 determines in what size the content is displayed in the display area determined in step S701, for example, according to the distance to the target subject. As an example of a method of changing the display size in accordance with the distance, when the distance between the target subject and the video display device 100 is larger than a preset threshold, the content is scrolled, for example, so that characters and images are standardized. When the image is displayed larger than the size and the distance between the target subject and the video display device 100 is closer than a preset threshold, there is a method of displaying the content without scrolling on one screen.

表示部300は、表示領域決定部301及び表示内容選択部303及び表示サイズ制御部302から取得した情報に基づき映像コンテンツを表示する(ステップS704)。
次に、カメラBにより制御されたカメラAの処理フローを図8を用いて説明する。
The display unit 300 displays the video content based on the information acquired from the display area determination unit 301, the display content selection unit 303, and the display size control unit 302 (step S704).
Next, a processing flow of the camera A controlled by the camera B will be described with reference to FIG.

図8は、カメラAの処理フロー図の一例である。
本処理は、ステップS507で保持したコンテンツ情報を使用する場合には、図5の処理フローが終了した後に開始する。即ち、図7で示した映像コンテンツ表示の処理フローと並行して行っても良く、いずれかを先に行っても良い。
システム制御部200は、カメラAのカメラ信号処理部103から映像を取得する(ステップS801)。映像解析部201は、取得した映像を解析する(ステップS802)。たとえば顔の検知、器官検出、視線検出、表情検出などを行う。映像解析部201は、映像内に顔があるかどうかを色や目、鼻、口を検出して判定する(ステップS803)。顔が判定できる場合は(図のYes)、映像解析部201は、ステップS803で取得した視線や表情などの検出した情報を取得し、前記情報を記憶部500に記憶させる。これにより、ユーザが表示している映像コンテンツのどの部分に興味を持ったあるいは持たなかったなどの情報を収集する(ステップS805)。
FIG. 8 is an example of a processing flowchart of the camera A.
This process is started after the processing flow of FIG. 5 is completed when the content information held in step S507 is used. That is, it may be performed in parallel with the processing flow of the video content display shown in FIG. 7, or any one may be performed first.
The system control unit 200 acquires a video from the camera signal processing unit 103 of the camera A (step S801). The video analysis unit 201 analyzes the acquired video (step S802). For example, face detection, organ detection, gaze detection, facial expression detection, and the like are performed. The video analysis unit 201 determines whether there is a face in the video by detecting colors, eyes, nose, and mouth (step S803). If the face can be determined (Yes in the figure), the video analysis unit 201 acquires the detected information such as the line of sight and facial expression acquired in step S803 and stores the information in the storage unit 500. Thereby, information such as which part of the video content displayed by the user is interested or not interested is collected (step S805).

一方、顔が判定できない場合は(図のNo)、映像内に人(顔)が検出されていないので、システム制御部200はカメラ制御部105に対し、カメラBへカメラBでの映像解析時に除外する領域情報を送信する(ステップS806)。例えば、図9の例に示す領域Aの位置及びサイズ情報を送信する。カメラBでは領域Aが小さいため詳細に解析できなかったが、カメラAをズームすることで詳細な映像を撮像することができ、解析できなかった領域Aを解析できることがある。これにより、例えばカメラBで決定した対象被写体情報が間違っていることをカメラBにフィードバックすることで、対象被写体決定の精度向上が可能となる。または、カメラBにおける映像解析時に領域Aが小さいため詳細に解析できなかった対象を解析対象から除外することにより、映像解析時間の短縮が可能となりリアルタイム性が向上する。   On the other hand, when the face cannot be determined (No in the figure), no person (face) is detected in the video, so the system control unit 200 instructs the camera control unit 105 to analyze the video from the camera B to the camera B. The area information to be excluded is transmitted (step S806). For example, the position and size information of the area A shown in the example of FIG. 9 is transmitted. In camera B, since area A is small, detailed analysis cannot be performed, but by zooming camera A, a detailed video can be captured, and area A that cannot be analyzed may be analyzed. Thus, for example, by feeding back to the camera B that the target subject information determined by the camera B is incorrect, the accuracy of the target subject determination can be improved. Alternatively, by omitting from the analysis target an object that could not be analyzed in detail because the area A is small at the time of video analysis in the camera B, the video analysis time can be shortened and the real-time performance is improved.

システム制御部200は、次にどの被写体にズームすればよいかという、ステップS506で記憶部500に保持したカメラAに係るカメラ制御情報を取得してカメラ制御部105に供給する(ステップS807)。カメラ制御部105は、供給された制御情報に基づきカメラAに対してカメラ制御を行う(ステップS808)。   The system control unit 200 obtains the camera control information related to the camera A held in the storage unit 500 in step S506 and supplies it to the camera control unit 105 as to which subject should be zoomed next (step S807). The camera control unit 105 performs camera control on the camera A based on the supplied control information (step S808).

本実施例によれば、表示装置を見る不特定多数の人に適切に情報を伝達することができる。また、例えば広告コンテンツに興味を持った人に対して、特定の表示領域を用い先頭から視聴することや、より詳細な広告コンテンツを視聴することで、対象人物が欲しいと思っている情報を確実に伝達できる。また該当人物にカメラをズームすることで対象者の情報を取得することができるため広告者側としても有用な情報を得ることができる。このように視聴者側、広告社側共に利便性が向上する。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
According to the present embodiment, information can be appropriately transmitted to an unspecified number of people who view the display device. In addition, for example, for those who are interested in advertising content, by viewing from the top using a specific display area or viewing more detailed advertising content, the information that the target person wants is surely Can communicate to. Further, since the information of the target person can be acquired by zooming the camera to the corresponding person, useful information can be obtained also on the advertiser side. Thus, convenience is improved on both the viewer side and the advertising company side.
In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、システム制御部200がそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記憶媒体に置くことができる。   Each of the above-described configurations, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by the system control unit 200 interpreting and executing a program that realizes each function. Information such as programs, tables, and files for realizing each function can be stored in a memory, a storage device such as a hard disk or an SSD, or a storage medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。   Further, the control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

100:映像表示装置、101:撮像素子、102:撮像素子、103:カメラ信号処理部、104:カメラ信号処理部、105:カメラ制御部、200:システム制御部、201:映像解析部、202:距離算出部、203:被写体決定部、204:書き込み部、205:読み出し部、300:表示部、301:表示領域決定部、302:表示サイズ制御部、303:表示内容洗濯部、400:電源部、401:他機器入出力端子、500:記憶部。   100: Video display device, 101: Image sensor, 102: Image sensor, 103: Camera signal processing unit, 104: Camera signal processing unit, 105: Camera control unit, 200: System control unit, 201: Video analysis unit, 202: Distance calculation unit, 203: subject determination unit, 204: writing unit, 205: reading unit, 300: display unit, 301: display area determination unit, 302: display size control unit, 303: display content washing unit, 400: power supply unit 401: Other device input / output terminal, 500: Storage unit.

Claims (7)

映像情報を表示する映像表示部を有する映像表示装置であって、
複数のカメラから供給されたカメラ映像を取得して被写体を解析する映像解析部と、
該映像解析部で解析された前記被写体と前記映像表示装置との間の距離を算出する距離算出部と、
前記複数のカメラのうち所定の1台のカメラから供給されたカメラ映像が含む前記被写体の、前記距離算出部で算出された前記映像表示装置との間の距離に基づき、他のカメラが撮像する画角を制御するカメラ制御部と、
前記カメラ制御部で制御された前記他のカメラから供給されたカメラ画像の被写体の前記映像解析部における解析結果に基づき前記映像表示部に前記被写体に提供する映像情報を表示する表示領域を設け、前記距離算出部で算出された前記被写体と前記映像表示装置との間の距離に基づき前記映像表示部に映像情報を表示させる制御部と、
前記カメラ制御部で制御された前記他のカメラから供給されたカメラ画像の被写体の、前記映像解析部における解析結果に基づき映像情報を表示する場合に、前記2つ以上の表示領域のうち、前記被写体に提供する映像情報を表示する表示領域に、他の表示領域に表示している映像情報を表示する表示内容選択部
を有することを特徴とする映像表示装置。
A video display device having a video display unit for displaying video information,
A video analysis unit that acquires camera video supplied from multiple cameras and analyzes the subject;
A distance calculation unit that calculates a distance between the subject analyzed by the video analysis unit and the video display device;
Based on the distance between the subject included in the camera video supplied from a predetermined one of the plurality of cameras and the video display device calculated by the distance calculation unit, another camera captures an image. A camera control unit for controlling the angle of view;
A display area for displaying video information to be provided to the subject on the video display unit based on an analysis result in the video analysis unit of the subject of the camera image supplied from the other camera controlled by the camera control unit; A control unit for displaying video information on the video display unit based on a distance between the subject calculated by the distance calculation unit and the video display device;
When displaying video information based on the analysis result in the video analysis unit of the subject of the camera image supplied from the other camera controlled by the camera control unit, of the two or more display regions, A video display device comprising: a display area for displaying video information to be provided to a subject; and a display content selection unit for displaying video information displayed in another display area .
請求項1に記載の映像表示装置であって、
前記映像解析部が行う解析とは、前記被写体が映像表示装置を見ているか否かをカメラ映像から解析することであり、
前記制御部は、前記被写体が前記映像表示装置を見ている場合は、前記映像表示部に前記被写体に映像情報を提供する表示領域を作成し、
前記被写体が前記映像表示装置を見ていない場合は、前記映像表示部に前記被写体に映像情報を提供する表示領域を作成しないこと、
を特徴とする映像表示装置。
The video display device according to claim 1,
The analysis performed by the video analysis unit is to analyze from the camera video whether or not the subject is viewing the video display device,
The control unit creates a display area for providing video information to the subject in the video display unit when the subject is viewing the video display device;
If the subject does not look at the video display device, do not create a display area for providing video information to the subject in the video display unit;
A video display device characterized by the above.
請求項1に記載の映像表示装置であって、
前記制御部は、前記距離算出部が算出した距離が閾値よりも遠い場合は、前記距離算出部が算出した距離が前記閾値よりも近い場合に表示するサイズよりも大きなサイズの映像、文字を、前記映像表示部に作成した前記被写体に映像情報を提供する表示領域に表示すること、
を特徴とする映像表示装置。
The video display device according to claim 1,
When the distance calculated by the distance calculation unit is farther than the threshold, the control unit, when the distance calculated by the distance calculation unit is closer than the threshold, images and characters having a size larger than the size to be displayed, Displaying in a display area that provides video information to the subject created in the video display unit;
A video display device characterized by the above.
請求項に記載の映像表示装置であって、
前記表示内容選択部は、前記被写体に提供する映像情報を表示する表示領域に、他の表示領域に表示している映像情報を表示する場合に、他の表示領域に表示している映像情報を先頭から表示する
ことを特徴とする映像表示装置。
The video display device according to claim 1 ,
The display content selection unit displays the video information displayed in the other display area when displaying the video information displayed in the other display area in the display area displaying the video information provided to the subject. A video display device characterized by displaying from the top.
請求項1に記載の映像表示装置であって、
前記映像解析部は、前記他のカメラから供給されたカメラ映像により解析された特定領域を、前記所定の1台のカメラ映像における映像解析対象から除く
ことを有することを特徴とする映像表示装置。
The video display device according to claim 1,
The video display unit, wherein the video analysis unit includes removing a specific area analyzed by a camera video supplied from the other camera from a video analysis target in the predetermined one camera video.
請求項1に記載の映像表示装置であって、
前記映像解析部が解析した結果の情報と解析時に前記映像表示部に表示していた映像とを関連付けて記憶する記憶部
を有することを特徴とする映像表示装置。
The video display device according to claim 1,
A video display device comprising: a storage unit that stores information related to a result of analysis by the video analysis unit and a video displayed on the video display unit at the time of analysis.
請求項1に記載の映像表示装置であって、
映像情報を記憶する記憶部と、
前記映像表示部に表示する映像情報をネットワーク経由で外部から受信して前記記憶部に記憶させる書き込み部と、
前記記憶部に記憶された映像情報を読み出して前記ネットワーク経由で外部へ送信する読み出し部と、
を有することを特徴とする映像表示装置。
The video display device according to claim 1,
A storage unit for storing video information;
A writing unit for receiving video information to be displayed on the video display unit from the outside via a network and storing the information in the storage unit;
A readout unit that reads out video information stored in the storage unit and transmits the video information to the outside via the network;
A video display device comprising:
JP2010180966A 2010-08-12 2010-08-12 Video display device Active JP5685685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010180966A JP5685685B2 (en) 2010-08-12 2010-08-12 Video display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010180966A JP5685685B2 (en) 2010-08-12 2010-08-12 Video display device

Publications (2)

Publication Number Publication Date
JP2012042507A JP2012042507A (en) 2012-03-01
JP5685685B2 true JP5685685B2 (en) 2015-03-18

Family

ID=45898955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010180966A Active JP5685685B2 (en) 2010-08-12 2010-08-12 Video display device

Country Status (1)

Country Link
JP (1) JP5685685B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012058475A (en) * 2010-09-08 2012-03-22 Sharp Corp Multi-display device
KR101401809B1 (en) * 2012-11-13 2014-05-29 재단법인대구경북과학기술원 Multi-user interface providing device and method in screen
KR101414362B1 (en) * 2013-01-30 2014-07-02 한국과학기술원 Method and apparatus for space bezel interface using image recognition
JP6094274B2 (en) * 2013-03-06 2017-03-15 株式会社リコー Management device, program, and display system
KR101522340B1 (en) * 2013-05-30 2015-05-20 (주)피엑스디 Apparatus and method for displaying interactive muti layers using detection of object, and recording medium thereof
US10701349B2 (en) 2015-01-20 2020-06-30 Misapplied Sciences, Inc. Method for calibrating a multi-view display
US10928914B2 (en) 2015-01-29 2021-02-23 Misapplied Sciences, Inc. Individually interactive multi-view display system for non-stationary viewing locations and methods therefor
EP3266200B1 (en) 2015-03-03 2021-05-05 Misapplied Sciences, Inc. System and method for displaying location dependent content
JP2017054100A (en) * 2015-09-11 2017-03-16 株式会社東芝 Display control device and display control system
JP7081901B2 (en) * 2016-10-21 2022-06-07 株式会社デンソーテン Display control device and display control method
JP7163817B2 (en) 2019-02-20 2022-11-01 トヨタ自動車株式会社 Vehicle, display method and program
KR102683868B1 (en) * 2021-02-02 2024-07-10 주식회사 코맥스 Smart mirror apparatus for providing augmented reality service and operating method thereof

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09322053A (en) * 1996-05-24 1997-12-12 Nippon Hoso Kyokai <Nhk> Image pickup method for object in automatic image pickup camera system
JP2001045465A (en) * 1999-07-29 2001-02-16 Nec Eng Ltd Remote monitor system
JP3963261B2 (en) * 2002-06-07 2007-08-22 中央電子株式会社 Automatic tracking imaging method and automatic tracking imaging device for moving images
JP2005049656A (en) * 2003-07-29 2005-02-24 Nec Plasma Display Corp Display system and position conjecture system
GB2410359A (en) * 2004-01-23 2005-07-27 Sony Uk Ltd Display
JP4169705B2 (en) * 2004-02-02 2008-10-22 株式会社ナナオ Display device
JP4835898B2 (en) * 2004-10-22 2011-12-14 ソニー株式会社 Video display method and video display device
JP2006333341A (en) * 2005-05-30 2006-12-07 Nippon Telegr & Teleph Corp <Ntt> Information abbreviating and reproducing apparatus, and method and program
JP5271612B2 (en) * 2008-06-16 2013-08-21 日本電信電話株式会社 Information presenting system, information presenting method, information presenting program and storage medium thereof

Also Published As

Publication number Publication date
JP2012042507A (en) 2012-03-01

Similar Documents

Publication Publication Date Title
JP5685685B2 (en) Video display device
US20200252547A1 (en) Image Processing Device, Image Processing Method and Program
US8659649B2 (en) Information processing apparatus and information processing method
JP6165846B2 (en) Selective enhancement of parts of the display based on eye tracking
JP5765019B2 (en) Display control apparatus, display control method, and program
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
US20090251421A1 (en) Method and apparatus for tactile perception of digital images
JP5643543B2 (en) Information presentation system, control method therefor, and program
US10694115B2 (en) Method, apparatus, and terminal for presenting panoramic visual content
US20150061973A1 (en) Head mounted display device and method for controlling the same
US10846535B2 (en) Virtual reality causal summary content
JP5966834B2 (en) Image processing apparatus, image processing method, and image processing program
JP2013210989A (en) Image processing device, image processing method, and image processing program
JP5651639B2 (en) Information processing apparatus, information display apparatus, information processing method, and program
JP5920152B2 (en) Image processing apparatus, image processing method, and image processing program
JP5910446B2 (en) Image processing apparatus, image processing method, and image processing program
US20230410417A1 (en) Information processing apparatus, information processing method, and storage medium
JP2013211821A (en) Image processing device, image processing method, and image processing program
JP5983259B2 (en) Image processing apparatus, image processing method, and image processing program
JP5843943B2 (en) Information processing apparatus, information display apparatus, information processing method, and program
Jung et al. Chameleo-AD: Real-time Targeted Interactive Advertisement for Digital Signage
JP2013211820A (en) Image processing device, image processing method, and image processing program
JP2013211819A (en) Image processing device, image processing method, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140819

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140905

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140912

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140918

R150 Certificate of patent or registration of utility model

Ref document number: 5685685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250