JPH11155154A - Stereoscopic video processing unit - Google Patents

Stereoscopic video processing unit

Info

Publication number
JPH11155154A
JPH11155154A JP9318151A JP31815197A JPH11155154A JP H11155154 A JPH11155154 A JP H11155154A JP 9318151 A JP9318151 A JP 9318151A JP 31815197 A JP31815197 A JP 31815197A JP H11155154 A JPH11155154 A JP H11155154A
Authority
JP
Japan
Prior art keywords
image
filter coefficient
filter
area
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9318151A
Other languages
Japanese (ja)
Inventor
Toru Sugiyama
徹 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP9318151A priority Critical patent/JPH11155154A/en
Publication of JPH11155154A publication Critical patent/JPH11155154A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a more real stereoscopic image space by applying signal processing to image signals, so that a highest stereoscopic effect appears at a region in the vicinity of a noted point. SOLUTION: A left eye image signal and a right eye image signal are given to a display control section 107 via filter arithmetic sections 104, 105 respectively. Each filter coefficient of the filter arithmetic sections 104, 105 is set variable, depending on the coefficient from a filter coefficient generating section 112. The filter coefficient generating section 112 generates a filter coefficient for controlling the gain of the high frequency component at an arbitrary position of the left eye image signal and a right eye image signal in a time-base direction. A noted point parallax detection section 111 sets a region of an image to be noted and the filter generating section 112 generates a different filter coefficient for the setting area so that the regions other than the setting region.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、立体映像処理装
置に関するもので、特に観察者の注視点と違う視差量に
ある部分の空間周波数特性を制御してぼけた映像とし、
立体映像効果及び立体映像撮影の融通性を拡大できるよ
うにしたものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing apparatus, and more particularly to a blurred image by controlling a spatial frequency characteristic of a portion having a different amount of parallax from an observer's gazing point.
It is intended to expand the flexibility of stereoscopic video effects and stereoscopic video photography.

【0002】[0002]

【従来の技術】被写体を左右の眼が異なる方向から見る
と左右網膜像の空間的ずれ(両眼視差)が得られ、人間
は奥行き感を知覚することができる。この現象を利用し
て左右両眼に別々のずれた画像を与え、観察者に立体感
を感じさせるようにした立体ディスプレイの研究、開発
が行われている。
2. Description of the Related Art When a subject sees a left and right eye from different directions, a spatial shift (binocular parallax) between left and right retinal images is obtained, and a human can perceive a sense of depth. Research and development of a three-dimensional display in which a left and right eye are separately shifted by using this phenomenon so that an observer feels a three-dimensional effect are being performed.

【0003】また立体画像を取り扱うのにその圧縮方法
の研究も要望されている。例えば、左右2枚の画像をそ
のまま伝送するのではなく、片方の片側画像と、左右画
像間の視差情報のみを伝送する方法が考えられている。
視差情報に関しては、全視差情報でなくても輪郭部の視
差情報のみを伝送することにより、伝送量は、原画像の
数パーセント以下になることが報告されている。
There is also a demand for research on a compression method for handling a stereoscopic image. For example, a method of transmitting only one side image and parallax information between the left and right images instead of transmitting the two left and right images as they are has been considered.
Regarding disparity information, it has been reported that the transmission amount is reduced to several percent or less of the original image by transmitting only the disparity information of the contour part, not the entire disparity information.

【0004】[0004]

【発明が解決しようとする課題】従来の立体ディスプレ
イ装置の立体映像表示は、画面のすべての点で焦点が合
った状態の映像を用いて実現されている。しかし、普段
人間が奥行きを感知しながら周辺を見ている状態では、
両眼視差の他に、調節、輻輳、運動視差等のパラメータ
が関与している。
The stereoscopic image display of the conventional stereoscopic display device is realized by using an image in which all the points on the screen are in focus. However, in a state where humans usually look around while sensing the depth,
In addition to binocular parallax, parameters such as accommodation, convergence, and motion parallax are involved.

【0005】ここで人間観察動作において、調節とピン
トとの関係を述べると次のような関係がある。即ち、複
数の奥行きの違う複数の物体を観察するときは、自然視
の状態では、注視物体の位置に調節点が有り、その物体
にピントがあっている。このときは、周辺の物体は、注
視物体とは奥行きが異なるのでぼけた状態で感知されて
いる。
The relationship between adjustment and focus in the human observation operation is as follows. That is, when observing a plurality of objects having different depths, in the state of natural vision, there is an adjustment point at the position of the watched object, and the object is in focus. At this time, the surrounding object is sensed in a blurred state because the depth of the surrounding object is different from that of the gazing object.

【0006】ところが従来の立体表示装置では、スクリ
ーンのすべての位置において、ピントのあった画像を映
し出して、立体視させようとしている。このために、立
体画像を長い時間見ると視覚疲労が伴ったり、立体効果
が薄れるいわゆる書き割り効果等の原因となっている。
However, in the conventional stereoscopic display device, an in-focus image is projected at all positions on the screen to make the image be stereoscopically viewed. For this reason, viewing a stereoscopic image for a long time causes visual fatigue and causes a so-called split effect in which the stereoscopic effect is weakened.

【0007】そこでこの発明は、注視点に従って画像の
空間周波数成分を操作する信号処理を行い、より現実的
な立体画像空間を得ることができる立体映像処理装置を
提供することを目的とする。
It is therefore an object of the present invention to provide a stereoscopic video processing apparatus capable of performing signal processing for operating a spatial frequency component of an image in accordance with a point of gaze and obtaining a more realistic stereoscopic image space.

【0008】[0008]

【課題を解決するための手段】この発明は上記の目的を
達成するために、立体映像を観察者が見るときに注視す
ると思われる注視領域を、映像信号から検出し、この検
出した領域と違う視差量の領域の信号について、空間周
波数成分が低域通過形となるフィルタ処理を行う。
SUMMARY OF THE INVENTION In order to achieve the above object, the present invention detects, from a video signal, a gazing area which is considered to be gazing when a viewer views a stereoscopic video, and differs from the detected area. Filter processing is performed on the signal in the region of the amount of parallax so that the spatial frequency component has a low-pass type.

【0009】上記の手段により、観察者は立体映像を観
察する場合に注視領域と違う奥行きに位置する領域はぼ
けた状態で知覚するために、画像ではなく通常の自然を
観察している感覚に近付き、疲労感がなく、また効果的
な立体視を行うことができる。
According to the above-mentioned means, the observer perceives an area located at a depth different from the gazing area in a blurred state when observing a stereoscopic image. It is possible to perform effective stereoscopic vision without approaching and feeling tired.

【0010】[0010]

【発明の実施の形態】以下この発明の実施の形態を図面
を参照して説明する。図1はこの発明の一実施の形態を
示す図である。入力端子101には左眼用画像信号が入
力する。また入力端子102には、左眼用画像と右眼用
画像の差分である視差情報が入力する。視差情報は、例
えば少なくとも左右画像の輪郭成分と、左右画像の画素
間のずれである視差量を含む。左眼用画像信号は、右眼
用画像再構成部103とフィルタ演算部104に入力さ
れる。右眼用画像再構成部103は視差情報と左眼用画
像信号を用いて右眼用画像信号を作成し、これをフィル
タ演算部105に供給する。フィルタ演算部104、1
05の出力は、表示制御部107に左画像用、右画像用
として入力される。表示制御部107は、左右画像を表
示し立体視画像を生成する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an embodiment of the present invention. The input terminal 101 receives an image signal for the left eye. Further, disparity information which is a difference between the image for the left eye and the image for the right eye is input to the input terminal 102. The parallax information includes, for example, at least a contour component of the left and right images and a parallax amount which is a shift between pixels of the left and right images. The left-eye image signal is input to the right-eye image reconstruction unit 103 and the filter calculation unit 104. The right-eye image reconstruction unit 103 creates a right-eye image signal using the parallax information and the left-eye image signal, and supplies this to the filter operation unit 105. Filter operation unit 104, 1
The output 05 is input to the display control unit 107 for the left image and the right image. The display control unit 107 displays the left and right images and generates a stereoscopic image.

【0011】視差情報は、右眼用画像再構成部103
と、注視点視差検出部111と、フィルタ係数発生部1
12に入力される。注視点視差検出部111は、注視点
領域設定手段の1つであるリモコンインターフェース1
13を通じて指定した注視点付近の画素の視差量を視差
情報から抽出し、注視点付近の平均視差量を求める。ま
た注視点付近の平均視差量と、全領域における視差量と
の差分を求め、これをフィルタ係数発生部112に供給
する。。このフィルタ係数発生部112は求めた差分に
もとづいて、各領域に対するフィルタ係数を出力し、フ
ィルタ演算部104及びフィルタ演算部105に供給す
る。
The parallax information is obtained by a right-eye image reconstruction unit 103.
Gazing point parallax detecting section 111, filter coefficient generating section 1
12 is input. The gazing point parallax detecting unit 111 is a remote control interface 1 which is one of gazing point area setting means.
Then, the parallax amount of the pixel near the point of interest specified through 13 is extracted from the parallax information, and the average parallax amount near the point of interest is determined. Further, a difference between the average parallax amount in the vicinity of the gazing point and the parallax amount in the entire region is obtained, and the difference is supplied to the filter coefficient generator 112. . The filter coefficient generator 112 outputs a filter coefficient for each area based on the obtained difference, and supplies the filter coefficients to the filter calculator 104 and the filter calculator 105.

【0012】フィルタ係数発生部112のフィルタ係数
は、リモコンインターフェース113を介して供給され
る係数調整データにより、そのレンジを調整することが
できる。係数調整データは、観察者がリモコンを通して
供給することができる。
The range of the filter coefficient of the filter coefficient generator 112 can be adjusted by coefficient adjustment data supplied via the remote control interface 113. The coefficient adjustment data can be supplied by the observer through a remote controller.

【0013】差分値とフィルタ係数との関係は、例えば
図2にような関係である。即ち、図2に示すように差分
値が大きくなるにしたがってその画素近傍の空間周波数
の高周波成分がより除去されるような特性となってい
る。このことは、注視点における被写体の奥行き感(立
体感)とずれているもの(遠近距離が異なるもの)は、
その高周波成分が抑圧され、ぼけた状態に制御されると
言うことである。差分0を中心にして前後(奥行き)方
向の成分の高周波成分が低減されている。低減の度合い
(高周波成分に対する抑圧の程度;言い換えるとカット
オフ周波数の値)は、係数調整データを観察者が調整す
ることにより可変することができる。
The relationship between the difference value and the filter coefficient is, for example, as shown in FIG. That is, as shown in FIG. 2, the characteristic is such that as the difference value increases, the high-frequency component of the spatial frequency near the pixel is more removed. This means that if the subject's depth perception (three-dimensional appearance) at the point of gaze is shifted (different perspective distance),
That is, the high-frequency component is suppressed and controlled to a blurred state. The high-frequency component of the component in the front-back (depth) direction with the difference 0 as the center is reduced. The degree of reduction (the degree of suppression of high-frequency components; in other words, the value of the cutoff frequency) can be changed by adjusting the coefficient adjustment data by the observer.

【0014】図3には、複数の物体A,B,C,D,E
を立体表示し、それぞれの奥行き感が異なる場合を示し
ている。図3(a)は、表示画面例を示し、図3(b)
は各物体A,B,C,D,Eの奥行き感を示している。
また図3(c)は、オリジナルの周波数特性、図3
(d)は注視点がBの場合の各物体に与えられる周波数
特性、図3(e)は注視点がCの場合の各物体像に与え
られる周波数特性を示している。注視点の像から立体的
に遠ざかるにしたがって周波数特性が抑圧されており、
ぼけた像となる。gはゲインであり、fは周波数であ
る。
FIG. 3 shows a plurality of objects A, B, C, D, E
Are displayed three-dimensionally, and the sense of depth is different. FIG. 3A shows an example of a display screen, and FIG.
Indicates the sense of depth of each of the objects A, B, C, D, and E.
FIG. 3C shows an original frequency characteristic, and FIG.
3D shows frequency characteristics given to each object when the gazing point is B, and FIG. 3E shows frequency characteristics given to each object image when the gazing point is C. The frequency characteristics are suppressed as the distance from the fixation point image increases in three dimensions,
It becomes a blurred image. g is a gain and f is a frequency.

【0015】図4はこの発明の他の実施の形態である。
図1の実施の形態と同一部分は同一符号を付す。先の実
施の形態では、注視点を観察者がリモコンを通じて指定
したが、この実施の形態では、画像の特徴から注視点を
自動的に設定するようにしている。2次元画像から注視
点を推定する場合、1)一般に画像の中央付近にある象
に対する注目度が高い。2)複雑な形の像に対する注目
度が高い。3)大きな像に対する注目度が高い。4)動
いている像に対する注目度が高い。
FIG. 4 shows another embodiment of the present invention.
The same parts as those in the embodiment of FIG. 1 are denoted by the same reference numerals. In the above embodiment, the point of interest is specified by the observer through the remote controller. However, in this embodiment, the point of interest is automatically set from the features of the image. When estimating a gazing point from a two-dimensional image, 1) generally, the degree of attention to an elephant near the center of the image is high. 2) High attention is paid to images of complicated shapes. 3) High attention to a large image. 4) The degree of attention to the moving image is high.

【0016】図5には、上記の1)の条件を基本にし
て、左眼画像から注視点の視差量を検出するアルゴリズ
ムの例を示している。画面内の中心付近の領域に対し
て、その画素に対応する視差量を加算し、中心領域の画
素数で除算を行うことで、中心領域の視差量の平均を求
めている。即ち、画素は画面の中央領域に属するかどう
かを調べ(ステップS1)、属する場合には、その画素
は中央領域の最初の画素かどうかを調べる(ステップS
2)。最初の画素である場合には、視差量の累積加算デ
ータのレジスタを一旦零にリセットする(ステップS
3)。次に、その画素の視差量を累積加算データに加算
する(ステップS4)。そして、対象となる画素が中央
領域の画素の最後の画素となるまで視差量を累積加算
し、最終的な累積加算データを中央領域の画素数で除算
する(ステップS5,S6)。視差量を視差情報に含ま
れているのでこれを利用する。
FIG. 5 shows an example of an algorithm for detecting the amount of parallax of a gazing point from a left-eye image based on the above condition 1). The average of the parallax amount of the central region is obtained by adding the parallax amount corresponding to the pixel to the region near the center in the screen and dividing by the number of pixels of the central region. That is, it is determined whether or not the pixel belongs to the central region of the screen (step S1). If so, it is determined whether or not the pixel is the first pixel of the central region (step S1).
2). If it is the first pixel, the register of the cumulative addition data of the parallax amount is once reset to zero (step S
3). Next, the parallax amount of the pixel is added to the cumulative addition data (step S4). Then, the amount of parallax is cumulatively added until the target pixel becomes the last pixel of the pixels in the central area, and the final cumulatively added data is divided by the number of pixels in the central area (steps S5 and S6). Since the amount of parallax is included in the parallax information, this is used.

【0017】図6はこの発明のさらに別の実施の形態で
ある。先の実施の形態と同一部分には同一符号が付され
ている。先の実施の形態と異なる点は、注視点データ入
力装置200が設けられ、注視点のデータが注視点視差
検出部111に与えられるように構成されていることで
ある。この注視点データ入力装置200は、例えば着脱
が可能であり、この注視点データ入力装置200は、観
察者が画面上のいずれの箇所を注目しているかを検出
し、その検出データを注視点領域として注視点視差検出
部111に与えることができる。
FIG. 6 shows still another embodiment of the present invention. The same parts as those in the above embodiment are denoted by the same reference numerals. The difference from the previous embodiment is that a point-of-regard data input device 200 is provided, and the point-of-regard data is provided to the point-of-registration parallax detection unit 111. This point-of-interest data input device 200 is, for example, detachable. The point-of-interest data input device 200 detects which part of the screen the observer is looking at, and places the detected data in the point-of-interest area. Can be given to the gazing point parallax detection unit 111 as

【0018】図7には、上記の注視点データ入力装置2
00の具体的構成例を示している。この装置は、視線感
知装置を利用したものである。観察者の眼球に対して赤
外線LED201から赤外線を照射し、その反射光はレ
ンズ202を介してCCD受光素子203に入力する。
これにより、眼球の注目方向を検出し、この検出情報を
検出データを先の注視点視差検出部111に与える。
FIG. 7 shows the gazing point data input device 2 described above.
00 shows a specific configuration example. This device utilizes a line-of-sight sensing device. An infrared ray is emitted from the infrared LED 201 to the eyeball of the observer, and the reflected light is input to the CCD light receiving element 203 via the lens 202.
In this way, the direction of interest of the eyeball is detected, and the detection information is given to the point of interest parallax detection unit 111 as detection data.

【0019】これにより、注視点の領域のフィルタ特性
が、高解像度特性とされ、他の領域が高周波を低減させ
た特性となる。上記の視線感知装置は、観察者の頭部に
装着されるものとして説明した。しかしこのタイプに限
るものではない。
As a result, the filter characteristic in the region of the gazing point is a high-resolution characteristic, and the other regions are characteristics in which the high frequency is reduced. The above-described line-of-sight sensing device has been described as being mounted on the observer's head. However, it is not limited to this type.

【0020】図8にはこの発明の他の実施の形態を示し
ている。先の実施の形態とう同一部分には同一符号を付
している。この実施の形態は、フィルタ演算部104、
105に与えられるフィルタ係数のモードが、視距離測
定部300からの情報により切換えられるように構成さ
れている点である。
FIG. 8 shows another embodiment of the present invention. The same parts as those in the above embodiment are denoted by the same reference numerals. In this embodiment, a filter operation unit 104,
The point is that the mode of the filter coefficient given to 105 is configured to be switched based on information from the viewing distance measuring unit 300.

【0021】視距離測定部300は、観察者とディスプ
レイとの距離を測定し、この距離で適切な立体効果が得
られるような視差を持つ領域の映像を注視点映像とし、
他の領域の映像の高周波を低減するためのものである。
The viewing distance measuring unit 300 measures the distance between the observer and the display, and sets an image of a region having a parallax such that an appropriate stereoscopic effect can be obtained at this distance as a gazing point image,
This is for reducing the high frequency of an image in another area.

【0022】図9には、ディスプレイを観察する距離
と、スクリーン上の左眼用画像と右眼用画像と、奥行き
を感じる立体像との関係を示している。表示制御部のス
クリーン面311に対して左眼用画像11L,右眼用画
像11Rがずれて写っているものとする。このスクリー
ンを視距離aの観察者Aが見ると、立体像PAが見え
る。これに対して、スクリーンを視距離bの観察者Bが
見ると、立体像PBが見える。
FIG. 9 shows the relationship between the viewing distance of the display, the left-eye image and the right-eye image on the screen, and the three-dimensional image for which the depth is felt. It is assumed that the image 11L for the left eye and the image 11R for the right eye are shifted from the screen surface 311 of the display control unit. When this screen is viewed by an observer A at a viewing distance a, a stereoscopic image PA is seen. On the other hand, when an observer B at a viewing distance b views the screen, a stereoscopic image PB is seen.

【0023】このように同じ条件でスクリーン面311
に写った左右眼用画像を見ても、観察者の視距離により
奥行き感が異なる。逆に、観察者の位置が同じであって
も、左右眼用画像のずれ量(視差量)を可変すると奥行
き感を可変することができることである。
As described above, the screen surface 311 is operated under the same conditions.
Even when looking at the images for the left and right eyes, the sense of depth varies depending on the viewing distance of the observer. Conversely, even if the observer's position is the same, the depth perception can be varied by varying the shift amount (parallax amount) between the left and right eye images.

【0024】従って、図8に示す実施の形態では、観察
者の視距離を検出し、この視距離に応じて、フィルタ係
数を可変するようにしている。被写界深度は、観察距離
の2乗に比例して深度は深くなる。よって、観察者の距
離が離れるに従って、図10に示すように視点対象とな
る領域の周辺の領域に存在する信号の高周波成分を低減
するように制御する。これにより、観察距離が離れるに
従って注視点以外の像もはっきりとした像となり、違和
感が低減される。
Therefore, in the embodiment shown in FIG. 8, the visual distance of the observer is detected, and the filter coefficient is varied according to the visual distance. The depth of field increases in proportion to the square of the observation distance. Therefore, as the distance to the observer increases, control is performed so as to reduce the high-frequency components of the signals existing in the area around the area to be viewed, as shown in FIG. As a result, as the observation distance increases, images other than the gazing point become clearer, and the sense of discomfort is reduced.

【0025】なお立体映像表示装置としては、各種の方
式があるので上述した方式のものに限定されるものでは
ない。立体画像を見る方法としては、フィルタ眼がね方
式がある。代表的なフィルタ眼がね方式としては、アナ
グリフ方式、温度差方式、偏向フィルタ方式がある。ア
ナグリフ方式は、補色関係にある2色(例えば赤と青)
で描かれた両眼視差のある画像を共通の透過波長域を持
たない色フィルタで左右像を選択し、分離して立体視す
るものである。温度差方式は、左右の眼に透過率の異な
るフィルタを装着して動きのある平面画像を観察する
と、透過率の差による知覚時間差に応じた奥行き感のあ
る画像が見える視覚特性を利用したものである。偏向フ
ィルタ方式は直交した偏向素子の組み合わせによる遮光
効果を利用して左右眼に画像を分離するものである。
There are various types of stereoscopic video display devices, and the present invention is not limited to the above-mentioned type. As a method of viewing a stereoscopic image, there is a filter eye drop method. Typical filter eye drop systems include an anaglyph system, a temperature difference system, and a deflection filter system. The anaglyph method uses two complementary colors (for example, red and blue)
The left and right images are selected by a color filter that does not have a common transmission wavelength range, and the images with binocular parallax drawn in step (1) are stereoscopically viewed. The temperature difference method uses the visual characteristics that, when a filter with different transmittance is attached to the left and right eyes and a moving planar image is observed, an image with a sense of depth corresponding to the perceived time difference due to the difference in transmittance is used. It is. The deflection filter system separates an image into right and left eyes by using a light shielding effect by a combination of orthogonal deflection elements.

【0026】眼がね方式としては、フィルタ眼がねの他
にシャッタ眼がねがある。この方式では左右画像を経時
的に交互に切換えて両眼に提示し、シャッタをこれに同
期させて開閉することにより立体視を得るものである。
As the eye drop system, there is a shutter eye in addition to a filter eye. In this method, the left and right images are alternately switched over time and presented to both eyes, and the shutter is opened and closed in synchronization with this to obtain stereoscopic vision.

【0027】眼がね無しの方式としては、パララックス
バリア方式や、レンチキュラ方式がある。パララックス
バリア方式は、パララックスバリアと呼ばれる細いスリ
ット状の開口部の裏側に適当な間隔を置いて左右2眼分
の画像を交互に配置し、特定の視点からこの開口ぶを通
して見たときに、左右像が正しく分離して観察され立体
視が可能になるものである。レンチキュラ方式では半円
筒径の形状をしたレンチキュラスクリーンと呼ばれるレ
ンチキュラレンズの焦点面に左右画像を配置し、このレ
ンズの焦点面に左右画像を配置し、このレンズを通して
観察するとレンズの指向性によって左右画像が分離され
て立体視が可能になるものである。
There are a parallax barrier method and a lenticular method as a method without eyelashes. The parallax barrier method arranges images for the left and right eyes alternately at an appropriate interval behind a thin slit-shaped opening called a parallax barrier, and when viewed through this opening from a specific viewpoint The left and right images can be correctly separated and observed to enable stereoscopic viewing. In the lenticular method, the left and right images are arranged on the focal plane of a lenticular lens called a lenticular screen having a semi-cylindrical diameter, and the left and right images are arranged on the focal plane of this lens. Are separated to enable stereoscopic viewing.

【0028】[0028]

【発明の効果】以上説明したようにこの発明によれば、
注視点付近の領域に最も立体効果が現れるような信号処
理を行い、より現実的な立体画像空間を得ることができ
る。
As described above, according to the present invention,
By performing signal processing such that the three-dimensional effect appears most in the region near the fixation point, a more realistic three-dimensional image space can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の一実施の形態を示す図。FIG. 1 is a diagram showing an embodiment of the present invention.

【図2】 図1の装置の動作を説明するために示したカ
ットオフ周波数特性の図。
FIG. 2 is a view of a cut-off frequency characteristic shown for explaining the operation of the device of FIG. 1;

【図3】 この発明の装置の動作の例を説明するために
示した説明図。
FIG. 3 is an explanatory view showing an example of the operation of the device of the present invention.

【図4】 この発明の他の実施の形態を示す図。FIG. 4 is a diagram showing another embodiment of the present invention.

【図5】 この発明の装置の動作例を説明するために示
した説明図。
FIG. 5 is an explanatory diagram for explaining an operation example of the device of the present invention.

【図6】 この発明の装置のさらに他の実施の形態の例
を示す図。
FIG. 6 is a diagram showing an example of still another embodiment of the device of the present invention.

【図7】 図6の注視点データ入力装置の一例を示す
図。
FIG. 7 is a diagram showing an example of a gazing point data input device of FIG. 6;

【図8】 この発明のさらに他の実施の形態を示す図。FIG. 8 is a diagram showing still another embodiment of the present invention.

【図9】 立体像と視距離との関係を示す説明図。FIG. 9 is an explanatory diagram showing a relationship between a stereoscopic image and a viewing distance.

【図10】図9の装置の動作例を説明するために示した
カットオフ周波数特性の図。
FIG. 10 is a diagram of cut-off frequency characteristics shown for explaining an operation example of the device of FIG. 9;

【符号の説明】[Explanation of symbols]

103…右眼用画像再校正部、104、105…フィル
タ演算部、107…表示制御部、111…注視点視差検
出部、112…フィルタ係数発生部、113…リモコン
インターフェース、200…注視点データ入力装置、3
00…視距離測定部。
103: right eye image recalibration unit, 104, 105: filter operation unit, 107: display control unit, 111: gazing point parallax detecting unit, 112: filter coefficient generating unit, 113: remote control interface, 200: gazing point data input Device, 3
00: viewing distance measurement unit.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 右眼用画像信号が入力される第1のフィ
ルタ演算部と、 左眼用画像信号が入力される第2のフィルタ演算部と、 前記第1と第2のフィルタ演算部の出力が入力され、立
体画像表示を得る表示制御部と、 前記右眼用画像信号及び左眼用画像信号の時間軸方向の
任意の位置の高域成分の利得を制御するために前記第1
及び第2のフィルタ演算部にフィルタ係数を与えるフィ
ルタ係数発生部と、 前記画像信号のいずれか一方の信号が生成する画像のう
ち注視される領域を設定する注視点領域設定手段と、 注視点領域設定手段による設定領域の視差量と異なる視
差量を持つ領域との前記フィルタ係数の値が異なるよう
に前記フィルタ係数発生部を制御する手段とを具備した
ことを特徴とする立体映像処理装置。
A first filter operation unit to which a right-eye image signal is input, a second filter operation unit to which a left-eye image signal is input, and a first and a second filter operation units. A display control unit to which an output is input to obtain a stereoscopic image display; and the first control unit controls a gain of a high-frequency component at an arbitrary position in a time axis direction of the image signal for the right eye and the image signal for the left eye.
A filter coefficient generating unit for providing a filter coefficient to the second filter operation unit, a gazing point region setting unit for setting a gazing region in an image generated by one of the image signals, a gazing point region Means for controlling the filter coefficient generator so that the value of the filter coefficient is different from the parallax amount of the set area by the setting means and an area having a different parallax amount.
【請求項2】 前記注視点領域設定手段は、リモートコ
ントロール手段からの制御信号に基づいて注視点の領域
が設定されることを特徴とする請求項1記載の立体映像
処理装置。
2. The three-dimensional image processing apparatus according to claim 1, wherein the point of interest area setting means sets an area of a point of interest based on a control signal from a remote control means.
【請求項3】 前記注視点領域設定手段は、前記左眼用
画像信号または右眼用画像信号のいずれか一方の画像を
用い、画像の性質が動画またはスクリーンの中央にある
等の予め設定した性質である領域を注視点の領域として
設定することを特徴とする立体画像処理装置。
3. The gazing point area setting means uses one of the left-eye image signal and the right-eye image signal, and sets a property such that an image property is at a center of a moving image or a screen. A three-dimensional image processing apparatus, wherein an area having a property is set as an area of a gazing point.
【請求項4】 前記注視点領域設定手段は、外部より観
察者の注視点測定手段からの入力データに基づいて前記
注視点の領域を設定することを特徴とする立体画像処理
装置。
4. The three-dimensional image processing apparatus according to claim 3, wherein the gazing point area setting means sets the gazing point area based on input data from an external observer's gazing point measuring means.
【請求項5】 前記フィルタ係数発生部が出力するフィ
ルタ係数のレンジは観察者の位置を検出する視距離測定
手段からの制御信号に基づいて制御されることを特徴と
する請求項1記載の立体画像処理装置。
5. The three-dimensional object according to claim 1, wherein the range of the filter coefficient output from the filter coefficient generator is controlled based on a control signal from a viewing distance measuring means for detecting a position of an observer. Image processing device.
JP9318151A 1997-11-19 1997-11-19 Stereoscopic video processing unit Pending JPH11155154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9318151A JPH11155154A (en) 1997-11-19 1997-11-19 Stereoscopic video processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9318151A JPH11155154A (en) 1997-11-19 1997-11-19 Stereoscopic video processing unit

Publications (1)

Publication Number Publication Date
JPH11155154A true JPH11155154A (en) 1999-06-08

Family

ID=18096064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9318151A Pending JPH11155154A (en) 1997-11-19 1997-11-19 Stereoscopic video processing unit

Country Status (1)

Country Link
JP (1) JPH11155154A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216513A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Photographing system and photographing method, and program
JP2011010128A (en) * 2009-06-26 2011-01-13 Canon Inc Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2012019509A (en) * 2010-07-08 2012-01-26 Samsung Electronics Co Ltd Stereoscopic glasses and display apparatus including the same
EP2482562A1 (en) 2011-01-26 2012-08-01 NLT Technologies, Ltd. Image display device, image display method, and program
JP2012165272A (en) * 2011-02-08 2012-08-30 Canon Inc Image display device, image display method, and program
WO2013094332A1 (en) * 2011-12-19 2013-06-27 富士フイルム株式会社 Image output device, method and program, and recording medium therefor
JP2014045473A (en) * 2012-07-31 2014-03-13 Nlt Technologies Ltd Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method
JP2015039059A (en) * 2010-08-27 2015-02-26 株式会社東芝 Stereoscopic vision image processor, stereoscopic vision image processing method and stereoscopic vision image processing program
WO2017085803A1 (en) * 2015-11-18 2017-05-26 株式会社日立製作所 Video display device and video display method
WO2019150668A1 (en) * 2018-01-30 2019-08-08 ソニー株式会社 Image processing device, image processing method, and program

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008216513A (en) * 2007-03-02 2008-09-18 Fujifilm Corp Photographing system and photographing method, and program
US8836760B2 (en) 2009-06-26 2014-09-16 Canon Kabushiki Kaisha Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2011010128A (en) * 2009-06-26 2011-01-13 Canon Inc Image reproducing apparatus, image capturing apparatus, and control method therefor
JP2012019509A (en) * 2010-07-08 2012-01-26 Samsung Electronics Co Ltd Stereoscopic glasses and display apparatus including the same
JP2015039059A (en) * 2010-08-27 2015-02-26 株式会社東芝 Stereoscopic vision image processor, stereoscopic vision image processing method and stereoscopic vision image processing program
EP2482562A1 (en) 2011-01-26 2012-08-01 NLT Technologies, Ltd. Image display device, image display method, and program
US9736450B2 (en) 2011-01-26 2017-08-15 Nlt Technologies, Ltd. Image display device, image display method, and program
US9307220B2 (en) 2011-01-26 2016-04-05 Nlt Technologies, Ltd. Image display device, image display method, and program
JP2012165272A (en) * 2011-02-08 2012-08-30 Canon Inc Image display device, image display method, and program
JP5580486B2 (en) * 2011-12-19 2014-08-27 富士フイルム株式会社 Image output apparatus, method and program
US9124866B2 (en) 2011-12-19 2015-09-01 Fujifilm Corporation Image output device, method, and recording medium therefor
WO2013094332A1 (en) * 2011-12-19 2013-06-27 富士フイルム株式会社 Image output device, method and program, and recording medium therefor
JP2014045473A (en) * 2012-07-31 2014-03-13 Nlt Technologies Ltd Stereoscopic image display device, image processing apparatus, and stereoscopic image processing method
WO2017085803A1 (en) * 2015-11-18 2017-05-26 株式会社日立製作所 Video display device and video display method
WO2019150668A1 (en) * 2018-01-30 2019-08-08 ソニー株式会社 Image processing device, image processing method, and program
CN111656776A (en) * 2018-01-30 2020-09-11 索尼公司 Image processor, image processing method, and program
US11386527B2 (en) 2018-01-30 2022-07-12 Sony Corporation Image processor and imaging processing method
CN111656776B (en) * 2018-01-30 2022-08-09 索尼公司 Image processor, image processing method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
US7092003B1 (en) 3-D imaging arrangements
JP6520119B2 (en) Image processing apparatus and image processing method
JP6308513B2 (en) Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
WO2010084724A1 (en) Image processing device, program, image processing method, recording method, and recording medium
WO2011108702A1 (en) Stereoscopic video display device and operation method of stereoscopic video display device
US11785197B2 (en) Viewer-adjusted stereoscopic image display
JPH11164328A (en) Stereoscopic video image display device
WO2007133918A2 (en) Enhancement of visual perception iii
JP2002223458A (en) Stereoscopic video image generator
US20030103136A1 (en) Method and system for 2D/3D illusion generation
Honda et al. Three-dimensional display technologies satisfying" super multiview condition"
JPH11155154A (en) Stereoscopic video processing unit
JPH0638246A (en) Vision display device
KR100751290B1 (en) Image system for head mounted display
WO2019017290A1 (en) Stereoscopic image display device
JPH0685590B2 (en) Stereoscopic display system
JP3425402B2 (en) Apparatus and method for displaying stereoscopic image
JP2004282217A (en) Multiple-lens stereoscopic video image display apparatus
JP2001112024A (en) Multiple-lens stereoscopic photographing display device
KR100906784B1 (en) Plug-in module for stereographic imaging program and stereographic imaging method
JP2013024910A (en) Optical equipment for observation
US20060152580A1 (en) Auto-stereoscopic volumetric imaging system and method
JP2015094831A (en) Stereoscopic imaging device, control method thereof, and control program
JP7339278B2 (en) Stereoscopic display adjusted to the viewer
CN108234990B (en) Stereoscopic display device and stereoscopic display method