KR20050121080A - Apparatus and method for converting 2d image signal into 3d image signal - Google Patents
Apparatus and method for converting 2d image signal into 3d image signal Download PDFInfo
- Publication number
- KR20050121080A KR20050121080A KR1020040046228A KR20040046228A KR20050121080A KR 20050121080 A KR20050121080 A KR 20050121080A KR 1020040046228 A KR1020040046228 A KR 1020040046228A KR 20040046228 A KR20040046228 A KR 20040046228A KR 20050121080 A KR20050121080 A KR 20050121080A
- Authority
- KR
- South Korea
- Prior art keywords
- value
- pixel
- pixels
- parallax
- edge detection
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/225—Image signal generators using stereoscopic image cameras using a single 2D image sensor using parallax barriers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
- H04N13/264—Image signal generators with monoscopic-to-stereoscopic image conversion using the relative movement of objects in two video frames or fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
Abstract
동영상신호는 물론 정지 영상신호를 3차원 영상신호로 변환하는 변환장치 및 방법을 제공한다.Provided are a converting apparatus and method for converting a moving image signal as well as a still image signal into a three-dimensional image signal.
각각의 프레임의 영상신호에서 픽셀들의 휘도신호의 값을 이용하여 에지검출 기준값을 추출하고, 추출한 소정 픽셀의 에지검출 기준값과 인접한 다른 픽셀의 에지검출 기준값의 크기를 이용하여 휘도신호의 각 픽셀들의 영역을 분할하며, 분할한 각 영역의 픽셀들 중에서 하나의 픽셀을 기준픽셀로 설정한 후 그 설정한 기준픽셀의 위치정보 값과 미리 설정된 임계값을 비교하여 비교 결과에 따라 해당 영역의 픽셀들의 시차 값을 결정하며, 결정한 시차 값에 따라 2차원 영상신호를 시차 처리하여 3차원 영상신호로 변환한다.The edge detection reference value is extracted from the image signal of each frame using the value of the luminance signal of the pixels, and the area of each pixel of the luminance signal using the magnitude of the edge detection reference value of another pixel adjacent to the extracted edge detection reference value of the predetermined pixel. After setting one pixel among the divided pixels of each divided area as the reference pixel, compare the position information value of the set reference pixel with the preset threshold and compare the parallax value of the pixels of the corresponding area according to the comparison result. The 2D video signal is parallaxed and converted into a 3D video signal according to the determined parallax value.
Description
본 발명은 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법에 관한 것으로 특히 각 프레임의 영상신호에서 픽셀들의 휘도신호의 값을 이용하여 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for converting a 2D video signal into a 3D video signal. In particular, an apparatus for converting a 2D video signal into a 3D video signal using the luminance signal values of pixels in the video signal of each frame. And to a method.
3차원 영상기술은 차세대 정보통신 서비스의 총아로서 수요가 많고, 기술개발의 경쟁이 치열한 첨단의 고도화 기술중의 하나이다. 또한 3차원 영상기술은 정보통신, 방송, 의료, 교육 훈련, 군사, 게임, 애니메이션, 가상현실, CAD 및 산업기술 등을 비롯한 각종 분야에서 다양하게 사용할 수 있는 것으로서 응용 분야가 매우 다양하고, 여러 분야에서 공통적으로 요구하고 있는 차세대의 임장감을 제공하는 3차원 입체 멀티미디어 정보통신의 핵심 기반기술이라고 할 수 있다.3D image technology is one of the next generation information and communication services, one of the high-tech advanced technologies with high demand and fierce competition in technology development. In addition, 3D imaging technology can be used in various fields such as information communication, broadcasting, medical care, education and training, military, games, animation, virtual reality, CAD, and industrial technology. It is the core base technology of 3D stereoscopic multimedia information communication that provides the next-generation presence that is commonly required in the world.
통상적으로 사람들이 실제로 두 눈을 통해 소정의 사물을 보는 정보는 입체영상이므로 영상시스템에서는 사람들이 일상적으로 보고 있는 자연계의 정경에 보다 가깝고, 자연스럽게 보이도록 하는 하는데 많은 노력을 기울이고 있다. 그리고 현재 세계 여러 국가에서는 '보고 듣는' 멀티미디어형의 서비스로부터 3차원 정보 중심의 '보다 자연스럽고 실감이 있도록 보고 즐길 수 있는' 실감형의 3차원 입체 멀티미디어 서비스를 개발하고 있는 추세이다.In general, the information that people actually see a certain object through their eyes is a three-dimensional image, so in the video system, much effort is made to make it look more natural and closer to the scene of the natural world that people see everyday. Currently, many countries in the world are developing realistic 3D stereoscopic multimedia services that can be viewed and enjoyed more naturally and realistically based on 3D information-oriented services.
3차원 정보기술은 차세대 고부가가치의 핵심기술로서 세계 여러 국가에서는 미래의 정보통신 시장에서의 기술선점이라는 차원에서 3차원 정보기술의 실용화에 경쟁적으로 나서고 있다. 또한 3차원 정보기술은 현재 전 세계적으로 기술 개발의 초기 단계에 있으므로 아직 해외기술의 의존도가 낮으며, 대한민국만의 독자적인 기술을 보유할 수 있는 유망 기술로 전망되고 있다.Three-dimensional information technology is the next generation of high value-added core technology. Many countries are competing for the practical use of three-dimensional information technology in terms of technology preoccupation in the future information and communication market. In addition, since 3D information technology is in the early stages of technology development worldwide, it is still less dependent on foreign technology and is expected to be a promising technology that can possess Korea's own technology.
따라서 대한민국에서 앞을 다투어 선점해야 할 3차원 정보기술 중의 하나로 2차원 영상신호를 자동으로 3차원 영상신호로 실시간 변환하는 기술이다.Therefore, one of the three-dimensional information technology to preoccupy the front in the Republic of Korea is a technology that automatically converts a two-dimensional video signal to a three-dimensional video signal in real time.
사람들이 소정의 사물을 3차원으로 볼 수 있는 것은 양안시차(binocular disparity)에 의한 것으로, 양안시차는 인간이 동일 물체를 볼 때 우안과 좌안을 통해 서로 다른 영상을 보는 것이다. 이렇게 서로 다른 2가지의 영상을 뇌에서 하나의 입체 영상으로 만드는 것이다.People can see a given object in three dimensions by binocular disparity, which is when a human sees the same object and sees different images through his right and left eyes. These two different images are made into one stereoscopic image in the brain.
그러나 텔레비전 수상기 또는 모니터 등의 영상 표시기기들은 평면에 2차원 영상을 표시하는 것이므로 좌안과 우안이 모두 동일한 영상을 보게 되고, 이로 인하여 사용자가 일상적으로 사물을 볼 때의 입체효과를 느낄 수 없었다.However, since video display devices such as a television receiver or a monitor display a two-dimensional image on a plane, both the left and right eyes see the same image, and thus the user cannot feel the stereoscopic effect when viewing an object on a daily basis.
그러므로 텔레비전 수상기 또는 모니터 등으로 소정의 영상을 볼 경우에 사용자가 입체 효과를 느낄 수 있도록 하기 위해서 종래에는 바로 이전의 프레임 영상신호를 기준으로 하여 현재 프레임의 영상신호의 움직임 및 주변의 이동상태를 검출하여 분석하고, 분석한 결과를 이용하여 영상신호에 표시되는 각 물체들의 시차 값을 추출하며, 추출한 시차 값에 따라 적합한 시차 처리를 수행하여 입체감을 생성하였다.Therefore, in order to allow a user to feel a stereoscopic effect when watching a predetermined image on a television receiver or a monitor, the motion of the video signal of the current frame and the movement state of the surroundings are detected based on the previous frame video signal. By using the analysis result, the parallax value of each object displayed on the image signal is extracted, and the parallax processing is performed according to the extracted parallax value to generate a three-dimensional effect.
그러나 상기한 종래의 기술은 프레임을 기반으로 영상신호를 입력받아 입체 영상으로 변환하는 것이므로 영상신호에 따른 화면이 다른 화면으로 전환될 때 오류가 발생하고, 또한 물체의 움직임 및 주변의 이동상태를 검출하여 시차 값을 추출하므로 움직임이 거의 없는 영상신호나 정지 영상신호에 대해서는 3차원 영상신호로 변환할 수 없었으며, 또한 다양한 화면의 구도를 가지는 영상신호에 대해서는 입체 영상으로 변환하기가 어려운 문제점이 있었다.However, since the conventional technique is to receive an image signal based on a frame and convert the image signal into a stereoscopic image, an error occurs when the screen according to the image signal is switched to another screen, and also detects the movement of the object and the movement of the surroundings. Since the parallax value is extracted, it is impossible to convert the video signal or the static video signal with little motion into a 3D video signal, and it is difficult to convert the video signal having various screen composition into a 3D video. .
그러므로 본 발명의 목적은 동영상신호는 물론 정지 영상신호를 3차원 영상신호로 변환하는 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법을 제공하는데 있다.It is therefore an object of the present invention to provide an apparatus and method for converting a video signal as well as a 2D video signal for converting a still image signal into a 3D video signal.
이러한 목적을 가지는 본 발명의 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법은, 각각의 프레임의 영상신호에서 픽셀들의 휘도신호의 값을 이용하여 에지검출 기준값을 추출하고, 추출한 소정 픽셀의 에지검출 기준값과 인접한 다른 픽셀의 에지검출 기준값의 크기를 이용하여 휘도신호의 각 픽셀들의 영역을 분할하며, 분할한 각 영역의 픽셀들 중에서 하나의 픽셀을 기준픽셀로 설정한 후 그 설정한 기준픽셀의 위치정보 값과 미리 설정된 임계값을 비교하여 비교 결과에 따라 해당 영역의 픽셀들의 시차 값을 결정하며, 결정한 시차 값에 따라 2차원 영상신호를 시차 처리하여 3차원 영상신호로 변환한다.An apparatus and method for converting a 2D video signal to a 3D video signal having the above object include extracting an edge detection reference value using a luminance signal value of pixels from a video signal of each frame, and extracting a predetermined pixel. The area of each pixel of the luminance signal is divided by using the edge detection reference value of another pixel adjacent to the edge detection reference value of, and one of the pixels of each divided area is set as the reference pixel, and then the reference is set. The parallax value of the pixels of the corresponding area is determined by comparing the position information value of the pixel with a preset threshold value, and the 2D image signal is parallaxed and converted into a 3D image signal according to the determined parallax value.
이하, 첨부된 도면을 참조하여 본 발명의 2차원 영상신호를 3차원 영상신호로 변환하는 장치 및 방법을 상세히 설명한다.Hereinafter, an apparatus and method for converting a 2D video signal to a 3D video signal according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 변환장치의 전체 구성을 보인 블록도이다. 이에 도시된 바와 같이 입력되는 2차원의 영상신호에서 휘도신호를 추출하는 휘도신호 추출부(100)와, 상기 휘도신호 추출부(100)가 추출한 휘도신호를 각각의 프레임으로 분리하는 프레임 분리수단(110)과, 상기 프레임 분리수단(110)에서 분리된 각 프레임의 휘도신호의 값으로 에지를 검출할 에지검출 기준값을 추출하고 추출한 에지검출 기준값의 크기 변화에 따라 영역을 분할하여 각 영역에서 기준픽셀을 설정하며 설정한 기준픽셀의 위치정보 값에 따라 해당 영역의 픽셀들의 시차 값을 설정하는 시차 값 설정수단(120)과, 상기 시차 값 설정수단(120)에서 시차 값이 설정될 때까지의 시간동안 상기 입력되는 2차원 영상신호를 지연시키는 시간 지연부(130)와, 상기 시간 지연부(130)에서 지연된 2차원 영상신호를 상기 시차 값 설정수단(120)에서 설정된 시차 값에 따라 시차 처리하여 3차원 영상신호로 변환하는 시차 처리부(140)로 구성하였다.1 is a block diagram showing the overall configuration of a converter of the present invention. As shown in the drawing, the brightness signal extracting unit 100 extracts the brightness signal from the input two-dimensional image signal, and the frame separating means for separating the brightness signal extracted by the brightness signal extracting unit 100 into each frame ( 110, and extracts an edge detection reference value for detecting an edge with the luminance signal value of each frame separated by the frame separation means 110, and divides an area according to the change in the size of the extracted edge detection reference value, thereby separating the reference pixels in each area. Time difference until the parallax value is set by the parallax value setting means 120 and the parallax value setting means 120 to set the parallax value of the pixels of the corresponding area according to the position information value of the reference pixel which is set. A time delay unit 130 for delaying the input two-dimensional image signal and a time difference set by the time difference setting unit 120 for the two-dimensional image signal delayed by the time delay unit 130. The parallax processing unit 140 converts the parallax into three-dimensional image signals according to the values.
상기 프레임 분리수단(110)은, 상기 휘도신호 추출부(100)에서 추출한 휘도신호를 각각의 프레임으로 분리하는 디멀티플렉서(111)와, 상기 디멀티플렉서(110)가 분리한 각 프레임의 휘도신호를 교대로 저장하는 제 1 및 제 2 프레임 메모리(113, 115)와, 상기 제 1 및 제 2 프레임 메모리(113, 115)에 교대로 저장된 각 프레임의 휘도신호를 교대로 선택하여 상기 시차 값 설정수단(120)으로 출력하는 멀티플렉서(117)로 구성된다.The frame separating means 110 alternately alternates the demultiplexer 111 for separating the luminance signal extracted by the luminance signal extractor 100 into respective frames and the luminance signal of each frame separated by the demultiplexer 110. The parallax value setting means 120 alternately selects the first and second frame memories 113 and 115 to store and the luminance signal of each frame that is alternately stored in the first and second frame memories 113 and 115. It consists of a multiplexer 117 to output to.
상기 시차 값 설정수단(120)은, 상기 휘도신호 추출부(100)에서 출력되는 각 픽셀의 휘도신호 값 및 그 픽셀에 바로 인접한 픽셀들의 휘도신호의 값에 미리 설정한 계수 값을 각기 곱하고 합산하며, 그 합산한 값을 에지검출 기준값으로 추출하는 에지검출 기준값 추출부(121)와, 상기 에지검출 기준값 추출부(121)가 추출한 각 픽셀의 에지검출 기준값과 그 픽셀에 대하여 수평 및 수직 방향으로 인접한 픽셀의 에지검출 기준값의 차이값을 검출하고 검출한 차이 값과 미리 설정된 기준값을 비교하여 영역을 분할하는 영역 분할부(123)와, 상기 영역 분할부(123)에서 분할된 각 영역에서 하나의 기준픽셀을 설정하는 기준픽셀 설정부(125)와, 상기 기준픽셀 설정부(125)에서 설정한 각 영역의 기준픽셀의 에지검출 기준값과 미리 설정된 제 1 및 제 2 임계값을 비교하고 비교 결과에 따라 각 영역에 소정의 시차 값을 설정하여 시차지도를 생성하는 시차지도 생성부(127)로 구성하였다.The parallax value setting means 120 multiplies and sums a predetermined coefficient value by a luminance signal value of each pixel output from the luminance signal extraction unit 100 and a luminance signal value of pixels immediately adjacent to the pixel. An edge detection reference value extraction unit 121 for extracting the summed value as an edge detection reference value, and an edge detection reference value of each pixel extracted by the edge detection reference value extraction unit 121 and adjacent to each other in the horizontal and vertical directions. An area dividing unit 123 for dividing an area by detecting a difference value of an edge detection reference value of a pixel, comparing the detected difference value with a preset reference value, and one reference in each area divided by the area dividing unit 123 The reference pixel setting unit 125 for setting the pixel and the edge detection reference value of the reference pixel of each area set by the reference pixel setting unit 125 are compared with the preset first and second threshold values. Comparison was made up of a differential map generation unit 127, which sets the predetermined time difference value, generating a difference map for each area based on the results.
상기 에지검출 기준값 추출부(121)는 도 2에 도시된 바와 같이 상기 휘도신호 추출부(100)에서 출력되는 각 픽셀의 휘도신호 값(I5) 및 그 픽셀에 바로 인접한 픽셀들의 휘도신호의 값(I1∼I4, I6∼I9)을 일시 저장하는 복수의 버퍼(121-11∼121-19)와, 상기 복수의 버퍼(121-11∼121-19)에 저장된 휘도신호의 값에 미리 설정된 소정의 계수 값(W1∼W9)을 곱하는 복수의 곱셈기(121-21∼121-29)와, 상기 복수의 곱셈기(121-21∼121-29)의 출력신호 값을 합하여 각 픽셀에 대한 에지검출 기준값으로 출력하는 가산기(121-31)로 구성하였다.As shown in FIG. 2, the edge detection reference value extractor 121 extracts the luminance signal value I5 of each pixel output from the luminance signal extractor 100 and the luminance signal value of pixels immediately adjacent to the pixel ( Predetermined predetermined values of the plurality of buffers 121-11 to 121-19 for temporarily storing I1 to I4 and I6 to I9 and the luminance signals stored in the plurality of buffers 121-11 to 121-19. The plurality of multipliers 121-21 to 121-29 multiplying the coefficient values W1 to W9 and the output signal values of the multipliers 121-21 to 121-29 are added together as edge detection reference values for each pixel. It comprised with the adder 121-31 which outputs.
상기 영역 분할부(123)는, 도 3에 도시된 바와 같이 소정의 픽셀의 에지검출 기준값(CM, N)과, 그 소정의 픽셀에 수평 방향으로 다음 위치에 인접한 픽셀의 에지검출 기준값(CM+1, N) 또는 수직 방향으로 다음 위치에 인접한 픽셀의 에지검출 기준값(CM, N+1)의 차이값을 계산하는 감산기(123-1)와, 상기 감산기(123-1)의 출력 값을 절대값으로 변환하는 절대값 변환기(123-3)와, 상기 절대값 변환기(123-3)의 출력값을 미리 설정된 기준값과 크기를 비교하는 비교기(123-5)와, 상기 비교기(123-5)의 비교 결과 값에 따라 상기 소정 픽셀(CM, N)의 영역을 결정하는 영역 결정부(123-7)로 구성하였다.As shown in FIG. 3, the area dividing unit 123 includes edge detection reference values C M and N of a predetermined pixel, and edge detection reference values C of pixels adjacent to a next position in the horizontal direction to the predetermined pixel. M + 1, N ) or a subtractor 123-1 for calculating a difference value of the edge detection reference values C M, N + 1 of pixels adjacent to the next position in the vertical direction, and an output of the subtractor 123-1. An absolute value converter 123-3 for converting a value into an absolute value, a comparator 123-5 for comparing an output value of the absolute value converter 123-3 with a preset reference value, and the comparator 123- The area determining unit 123-7 determines the area of the predetermined pixel C M and N according to the comparison result value of 5).
상기 시차지도 생성부(127)는 도 4에 도시된 바와 같이 상기 기준픽셀 설정부(125)에서 설정된 각 영역의 기준픽셀의 위치정보 값과 미리 설정된 제 1 및 제 2 임계값을 각기 비교하는 비교기(127-1, 127-3)와, 상기 비교기(127-1, 127-3)의 비교 결과에 따라 기준픽셀이 속하는 해당 영역의 시차 값을 결정하는 시차 값 결정부(127-5)로 구성하였다.As illustrated in FIG. 4, the disparity map generator 127 compares the position information of the reference pixel of each region set by the reference pixel setting unit 125 with the preset first and second threshold values, respectively. (127-1, 127-3) and a parallax value determination unit (127-5) for determining the parallax value of the corresponding area to which the reference pixel belongs according to the comparison result of the comparators (127-1, 127-3). It was.
이와 같이 구성된 본 발명의 2차원 영상신호를 3차원 영상신호로 변환하는 장치는 외부에서 입력되는 2차원 영상신호에서 휘도신호 추출부(100)가 휘도신호를 추출하고, 추출한 휘도신호는 프레임 분리수단(110)으로 입력된다.In the apparatus for converting a 2D video signal of the present invention configured as described above into a 3D video signal, the luminance signal extractor 100 extracts a luminance signal from an externally input 2D image signal, and the extracted luminance signal is a frame separation means. Input 110.
상기 프레임 분리수단(110)은 상기 휘도신호 추출부(100)로부터 입력되는 휘도신호를 디멀티플렉서(111)가 프레임 단위로 분리하여 제 1 및 제 2 프레임 메모리(113, 115)에 교대로 저장하고, 그 저장한 프레임 단위의 휘도신호를 멀티플렉서(117)가 교대로 선택하여 시차 값 설정수단(120)으로 출력한다.The frame separating unit 110 alternately stores the luminance signal input from the luminance signal extracting unit 100 in the first and second frame memories 113 and 115 by separating the demultiplexer 111 in units of frames. The multiplexer 117 alternately selects the stored luminance signals in frame units and outputs them to the parallax value setting means 120.
즉, 디멀티플렉서(111)가 프레임 단위로 휘도신호를 분리하여 제 1 프레임 메모리(113)에 저장하고, 제 1 프레임 메모리(113)에 저장이 완료될 경우에 다음 프레임의 휘도신호를 제 2 프레임 메모리(115)에 저장하며, 이 때, 멀티플렉서(117)는 제 1 프레임 메모리(113)에 저장된 휘도신호를 독출하여 시차 값 설정수단(120)으로 출력하며, 제 1 프레임 메모리(113)의 독출 및 제 2 프레임 메모리(115)의 저장이 완료될 경우에 디멀티플렉서(111)가 분리하는 프레임 단위의 휘도신호를 다시 제 1 프레임 메모리(113)에 저장하고, 제 2 프레임 메모리(115)에 저장된 휘도신호는 멀티플렉서(117)가 독출하여 시차 값 설정수단(120)으로 출력하는 것을 반복한다.That is, the demultiplexer 111 separates the luminance signal in units of frames and stores the luminance signal in the first frame memory 113, and when the storage is completed in the first frame memory 113, the luminance signal of the next frame is stored in the second frame memory. At this time, the multiplexer 117 reads out the luminance signal stored in the first frame memory 113 and outputs it to the parallax value setting means 120. When the storage of the second frame memory 115 is completed, the luminance signal of the frame unit separated by the demultiplexer 111 is stored in the first frame memory 113 again, and the luminance signal stored in the second frame memory 115 is stored. Is repeated by the multiplexer 117 to read and output to the parallax value setting means 120.
상기 시차 값 검출수단(120)은 에지검출 기준값 추출부(121)가, 각 픽셀의 휘도신호의 값 및 그 픽셀에 바로 인접한 픽셀들의 휘도신호의 값에 미리 설정한 계수 값을 각기 곱한 후 합산하고, 그 합산한 값을 에지검출 기준값으로 추출한다.The parallax detecting unit 120 multiplies the edge detection reference value extracting unit 121 by multiplying a predetermined coefficient value by a value of a luminance signal of each pixel and a luminance signal of pixels immediately adjacent to the pixel, and then summing them. The summed value is extracted as the edge detection reference value.
즉, 에지검출 기준값 추출부(121)는, 예를 들면, 도 5에 도시된 바와 같이 소정의 픽셀(P5)의 에지검출 기준값을 추출한다고 가정할 경우에 그 소정의 픽셀(P5)의 휘도신호의 값(I5)과, 픽셀(P5)의 주변에 바로 인접한 복수의 픽셀들(P1∼P4, P6∼P9)들의 휘도신호의 값(I1∼I4, I6∼I9)을 버퍼(121-11∼121-19)에 각기 저장한 후 실험적으로 미리 구하여 설정한 소정의 계수 값(W1∼W9)을 각기 곱셈기(121-21∼121-29)에서 곱하고, 그 곱한 결과 값을 가산기(121-31)에서 모두 가산하여 소정의 픽셀(P5)에 대한 에지검출 기준값(C)으로 추출한다.That is, when the edge detection reference value extracting unit 121 extracts the edge detection reference value of the predetermined pixel P5 as shown in FIG. 5, for example, the luminance signal of the predetermined pixel P5. The value I5 and the values I1 to I4 and I6 to I9 of the luminance signals of the plurality of pixels P1 to P4 and P6 to P9 immediately adjacent to the periphery of the pixel P5 are buffered. 121-19), and then multiply the predetermined coefficient values W1 to W9, which have been experimentally obtained and set in advance, by the multipliers 121-21 to 121-29, and multiply the multiplier by the adder 121-31. Are added and extracted as the edge detection reference value C for the predetermined pixel P5.
이와 같이 하여 각각의 픽셀에 대한 에지검출 기준값(C)의 추출이 완료되면, 영역 분할부(123)는 소정의 픽셀의 에지검출 기준값(CM, N)에서 그 소정의 픽셀에 수평 방향으로 다음 위치에 인접한 픽셀의 에지검출 기준값(CM+1, N)을 감산기(123-1)에서 감산한 후 절대값 변환기(123-3)에서 절대값으로 변환하고, 그 변환한 절대값과 미리 설정된 기준값을 비교기(123-5)로 비교하여 비교 결과에 따라 영역 결정부(123-7)가 영역을 분리한다.In this way, when the extraction of the edge detection reference value C for each pixel is completed, the area dividing unit 123 is next to the predetermined pixel in the horizontal direction from the edge detection reference values C M and N of the predetermined pixel. The edge detection reference values C M + 1 and N of pixels adjacent to the position are subtracted by the subtractor 123-1, and then converted into absolute values by the absolute value converter 123-3, and the converted absolute values and preset values are set. The reference value is compared with the comparator 123-5, and the area determiner 123-7 separates the areas according to the comparison result.
예를 들면, 에지검출 기준값 추출부(121)에서 도 6a에 도시된 바와 같이 각각의 픽셀들(P1∼P100)에 대하여 각기 에지검출 기준값(C1∼C100)이 추출되었다고 가정할 경우에 영역 분할부(123)는 픽셀(P1)(P2)의 에지검출 기준값(C1)(C2)의 차이값 |C1-C2|을 계산한 후 기준값과 비교하여 |C1-C2|<기준값일 경우에 상기 픽셀(P1)(P2)을 동일 영역으로 결정하고, |C1-C2|<기준값이 아닐 경우에 상기 픽셀(P1)(P2)을 다른 영역으로 결정한다. 다음에는 픽셀(P2)(P3)의 에지검출 기준값(C2)(C3)의 차이값 |C2-C3|을 계산한 후 기준값과 비교하여 |C2-C3|<기준값일 경우에 상기 픽셀(P2)(P3)을 동일 영역으로 결정하고, |C2-C3|<기준값이 아닐 경우에 상기 픽셀(P2)(P3)을 다른 영역으로 결정하는 것을 계속 반복 수행한다.For example, when the edge detection reference value extractor 121 assumes that the edge detection reference values C1 to C100 are extracted for each of the pixels P1 to P100 as shown in FIG. Reference numeral 123 calculates a difference value C1-C2 of the edge detection reference values C1 and C2 of the pixels P1 and P2 and compares the reference value with the reference value to determine if the pixel C1 | P1) (P2) is determined to be the same area, and when | C1-C2 | <is not a reference value, the pixel P1 (P2) is determined to be another area. Next, the difference value | C2-C3 | of the edge detection reference values C2 and C3 of the pixels P2 and P3 is calculated and compared with the reference value, the pixel P2 when | C2-C3 | (P3) is determined to be the same area, and when | C2-C3 | <is not a reference value, the pixel P2 (P3) is determined to be another area is repeatedly repeated.
그리고 하나의 수평 라인의 픽셀들(P1∼P10)에 대한 영역 결정이 완료되면, 다음의 수평라인에 존재하는 복수의 픽셀들(P11∼P20)(P21∼P30)(P31∼P40)(P41∼P50)(P51∼P60)(P61∼P70)(P71∼P80) (P81∼P90)(P91∼P100)에 대해서도 상기한 방법을 반복 수행하여 영역을 결정한다.When the area determination of the pixels P1 to P10 of one horizontal line is completed, a plurality of pixels P11 to P20 (P21 to P30) (P31 to P40) (P41 to P40) present in the next horizontal line are completed. P50) (P51 to P60) (P61 to P70) (P71 to P80) (P81 to P90) (P91 to P100) is also repeated to determine the area.
이와 같이 하여 각각의 수평라인에 대한 영역의 결정이 완료되면, 수직라인에 대해서도 수평라인과 동일하게 소정의 픽셀의 에지검출 기준값(CM, N)에서 그 소정의 픽셀에 수직 방향으로 다음 위치에 인접한 픽셀의 에지검출 기준값(CM, N+1)을 감산기(123-1)에서 감산한 후 절대값 변환기(123-3)에서 절대값으로 변환하고, 그 변환한 절대값과 미리 설정된 기준값을 비교기(123-5)로 비교하여 비교 결과에 따라 영역 결정부(123-7)가 영역의 분리 동작을 수행하여 예를 들면, 도 6b에 도시된 바와 같이 복수의 영역(V1∼V7)으로 구획한다.In this way, when the determination of the area for each horizontal line is completed, the edge detection reference values C M and N of the predetermined pixel are also moved to the next position perpendicular to the predetermined pixel in the same way as the horizontal line for the vertical line. The edge detection reference values C M and N + 1 of adjacent pixels are subtracted by the subtractor 123-1, and then converted into absolute values by the absolute value converter 123-3, and the converted absolute values and the preset reference values are converted into absolute values. Compared with the comparator 123-5, the area determining unit 123-7 performs the separation operation according to the comparison result, for example, divided into a plurality of areas V1 to V7 as shown in FIG. 6B. do.
여기서, 상기 영역은 예를 들면, 화면상에 표시되는 배경화면 및 등장인물 등을 비롯한 각종 피사체들의 영역에 해당된다.Here, the area corresponds to, for example, an area of various subjects including a background screen and a character displayed on the screen.
이와 같이 하여 영역 분할부(123)에서 복수의 영역(V1∼V7)이 분할되면, 기준픽셀 설정부(125)는 상기 분할한 각각의 영역(V1∼V7)내에 존재하는 픽셀들 중에서 하나의 픽셀을 3차원 영상의 시차 값을 검출할 기준픽셀로 설정한다. 예를 들면, 도 6b와 같이 분할된 각각의 영역(V1∼V7) 내의 가장 아래에 위치하는 수평라인의 픽셀들 중에서 가장 좌측에 위치하는 픽셀들(P21, P37, P53, P61, P67, P91, P96)을 기준 픽셀로 각기 설정한다.When the plurality of regions V1 to V7 are divided in the region divider 123 in this manner, the reference pixel setting unit 125 may select one pixel among the pixels existing in the divided regions V1 to V7. Set as a reference pixel to detect the parallax value of the 3D image. For example, as shown in FIG. 6B, the pixels P21, P37, P53, P61, P67, P91, which are located on the leftmost side among the pixels in the bottommost horizontal line in each of the divided regions V1 to V7, as shown in FIG. 6B. P96) is set as the reference pixel, respectively.
이와 같이 기준픽셀(P21, P37, P53, P61, P67, P91, P96)이 설정되면, 그 기준 픽셀(P21, P37, P53, P61, P67, P91, P96)의 에지검출 기준값(C21, C37, C53, C61, C67, C91, C96)을 비교기(127-1)(127-3)가 미리 설정된 제 1 임계값 및 제 2 임계값과 비교하고, 비교 결과에 따라 시차 값 결정부(127-5)각 영역의 시차 값을 설정하여 시차지도를 생성한다. 예를 들면, 영역(V1)(V2)의 기준픽셀(P21)(P37)의 에지검출 기준값(C21)(C37)이 미리 설정된 제 1 임계값의 크기보다 작을 경우에 시차값 결정부(127-5)는 영역(V1)(V2)에 존재하는 모든 픽셀들(P1∼P7, P11∼P18, P21, P22, P24, P26∼P28, P37, P38)을 도 6c에 도시된 바와 같이 포지티브 시차(Positive Parallax)로 시차 값을 부여할 영역(V11)으로 결정하고, 영역(V3, V4, V5)의 기준픽셀(P53, P61, P67)의 에지검출 기준값(C53, C61, C67)이 미리 설정된 제 1 임계값의 크기보다는 크고, 제 2 임계값보다는 작을 경우에 시차값 결정부(127-5)는 영역(V3, V4, V5)에 존재하는 모든 픽셀들(P8∼P10, P19, P20, P23, P25, P29∼P36, P39∼P53, P56∼P63, P67, P68)을 제로 시차(Positive Parallax)로 시차 값을 부여할 영역(V12)으로 결정하며, 영역(V6, V7)의 기준픽셀(P91, P96)의 에지검출 기준값(C91, C96)이 미리 설정된 제 1 및 제 2 임계값의 크기보다는 클 경우에 시차값 결정부(127-5)는 영역(V6, V7)에 존재하는 모든 픽셀들(P54, P55, P64∼P66, P69∼P100)을 네가티브 시차(Minus Parallax)로 시차 값을 부여할 영역(V12)으로 결정한다.When reference pixels P21, P37, P53, P61, P67, P91, and P96 are set in this manner, edge detection reference values C21, C37, P96 of the reference pixels P21, P37, P53, P61, P67, P91, and P96 are set. The C53, C61, C67, C91, and C96 are compared with the first and second thresholds set by the comparators 127-1 and 127-3, and the parallax value determining unit 127-5 according to the comparison result. Creates a parallax map by setting the parallax value of each area. For example, when the edge detection reference values C21 and C37 of the reference pixels P21 and P37 of the regions V1 and V2 are smaller than the size of the first threshold value preset, the parallax value determining unit 127-. 5 shows a positive parallax (P1 to P7, P11 to P18, P21, P22, P24, P26 to P28, P37, and P38 in the regions V1 and V2, as shown in FIG. 6C). Positive parallax) is used to determine the area V11 to give the parallax value, and the edge detection reference values C53, C61, and C67 of the reference pixels P53, P61, and P67 of the areas V3, V4, and V5 are preset. When larger than the size of one threshold and smaller than the second threshold, the parallax value determining unit 127-5 includes all pixels P8 to P10, P19, P20, and P23 present in the regions V3, V4, and V5. , P25, P29 to P36, P39 to P53, P56 to P63, P67, and P68 are determined as the area V12 to give a parallax value with a positive parallax, and the reference pixels of the areas V6 and V7 First and second threshold values in which edge detection reference values C91 and C96 of P91 and P96 are preset. If the size is larger than the size, the parallax value determining unit 127-5 sets the parallax value of all the pixels P54, P55, P64 to P66, and P69 to P100 in the areas V6 and V7 as the negative parallax. The area V12 to be given is determined.
한편, 외부에서 입력되는 2차원 영상신호가, 시차 값 검출수단(120)에서 시차 값을 검출할 때까지 소요되는 시간동안 시간 지연부(130)에서 시간 지연된 후 시차 처리부(140)로 입력되는 것으로 시차 처리부(140)는 3차원 영상신호의 각각의 픽셀들에 대하여 상기 시차 값 검출수단(120)의 시차값 결정부(127-5)에서 결정된 시차 값에 따라 시차 처리하여 3차원 영상신호로 변환한다. 예를 들면, 시간 지연부(130)로부터 입력되는 2차원 영상신호의 각각의 픽셀들 중에서 도 6c의 영역(V11)에 해당되는 픽셀들에 대해서는 도 7a에 도시된 바와 같이 초점이 화면의 뒤쪽에 위치하는 포지티브 시차 값으로 처리하고, 영역(V12)에 해당되는 픽셀들에 대해서는 도 7b에 도시된 바와 같이 초점이 화면상에 위치하도록 제로 시차 값으로 처리하며, 영역(V13)에 해당되는 픽셀들에 대해서는 도 7c에 도시된 바와 같이 초점이 화면의 앞에 위치하도록 네가티브 시차 값으로 처리하여 3차원 영상신호로 변환한다.On the other hand, the two-dimensional image signal input from the outside is delayed by the time delay unit 130 for a time required until the parallax value detection means 120 detects the parallax value is input to the parallax processing unit 140 The parallax processor 140 performs parallax processing on each pixel of the 3D image signal according to the parallax value determined by the parallax value determiner 127-5 of the parallax value detecting unit 120 and converts the pixels into 3D image signals. do. For example, among the pixels of the 2D image signal input from the time delay unit 130, the pixels corresponding to the area V11 of FIG. 6C are focused on the back of the screen as shown in FIG. 7A. Pixels corresponding to the area V12 are positioned, and pixels corresponding to the area V12 are processed to zero parallax values so that the focal point is located on the screen, as shown in FIG. 7B. As shown in FIG. 7C, the image is processed into a negative parallax value so that the focal point is located in front of the screen and converted into a 3D video signal.
도 8은 본 발명의 변환방법을 보인 신호흐름도이다. 이에 도시된 바와 같이 단계(200)에서 외부로부터 2차원 영상신호를 입력받아 시간 지연부(130)가 시간 지연시킴과 아울러 휘도신호 추출부(100)가 휘도신호를 추출하고, 단계(202)에서 상기 추출한 휘도신호를 프레임 분리수단(110)이 프레임 단위로 분리하며, 단계(204)에서 상기 분리한 각 프레임의 휘도신호에 존재하는 각각의 픽셀들의 에지검출 기준값을 계산한다. 즉, 상술한 바와 같이 소정의 픽셀의 휘도신호 값과, 그 소정의 픽셀에 인접한 8개의 픽셀들의 휘도신호 값에 실험적으로 미리 결정한 소정의 계수 값을 각기 곱하고, 곱한 결과 값을 모두 가산하여 에지검출 기준값을 계산한다.8 is a signal flow diagram showing a conversion method of the present invention. As shown in FIG. 2, the time delay unit 130 receives the 2D image signal from the outside in step 200, and the luminance signal extractor 100 extracts the luminance signal in step 202. The extracted brightness signal is separated by the frame separating means 110 in units of frames, and in step 204, edge detection reference values of respective pixels present in the separated brightness signals of the respective frames are calculated. That is, as described above, the luminance signal value of a predetermined pixel and the luminance signal value of eight pixels adjacent to the predetermined pixel are each multiplied by a predetermined coefficient value experimentally determined in advance, and the result of multiplying adds all edge values to detect edges. Calculate the reference value.
다음 단계(206)에서는 영역분할부(123)가 상기 추출한 각 픽셀들의 에지검출 기준값을 이용하여 영역을 분할한다. 즉, 소정 픽셀의 에지검출 기준값과, 그 소정 픽셀에 수평 또는 수직으로 바로 인접한 픽셀의 에지검출 기준값의 차이 값을 계산하고, 계산한 차이값의 크기를 판단하여 복수의 픽셀들의 영역을 분할한다.In the next step 206, the area divider 123 divides the area by using the edge detection reference values of the extracted pixels. That is, a difference value between an edge detection reference value of a predetermined pixel and an edge detection reference value of a pixel immediately adjacent to the predetermined pixel horizontally or vertically is calculated, and the magnitude of the calculated difference value is determined to segment the plurality of pixels.
다음 단계(208)에서는 기준픽셀 설정부(125)가 상기 분할한 영역 내에서 하나의 픽셀 예를 들면, 분할된 각각의 영역 내의 가장 아래에 위치하는 수평라인의 픽셀들 중에서 가장 좌측에 위치하는 픽셀들을 각각의 영역의 기준 픽셀로 각기 설정한다.In the next step 208, the reference pixel setting unit 125 is one pixel in the divided region, for example, the pixel positioned at the leftmost position among the pixels of the horizontal line located at the bottom of each divided region. Set them to the reference pixels of each region.
다음 단계(210)에서 시차지도 생성부(127)가 상기 설정한 기준픽셀의 위치정보 값과 실험적으로 미리 설정한 제 1 및 제 2 임계값을 비교하고, 단계(212)에서 상기 비교 결과에 따라 해당 영역의 픽셀들의 시차 값을 계산하여 시차 지도를 생성하고, 단계(214)에서 상기 지연한 2차원 영상신호의 픽셀들을 상기 설정한 시차 값에 따라 시차 처리부(140)가 시차 처리하여 3차원 영상신호로 변환한다.In the next step 210, the parallax map generation unit 127 compares the position information value of the reference pixel with the experimentally preset first and second threshold values, and in step 212 according to the comparison result. A parallax map is generated by calculating parallax values of pixels of a corresponding region, and the parallax processor 140 performs parallax processing on pixels of the delayed 2D image signal according to the set parallax value in step 214 to perform a 3D image. Convert to a signal.
한편, 상기에서는 본 발명을 특정의 바람직한 실시 예에 관련하여 도시하고 설명하였지만, 이하의 특허청구범위에 의해 마련되는 본 발명의 정신이나 분야를 이탈하지 않는 한도 내에서 본 발명이 다양하게 개조 및 변화될 수 있다는 것을 당 업계에서 통상의 지식을 가진 자는 용이하게 알 수 있다.On the other hand, while the present invention has been shown and described with respect to specific preferred embodiments, various modifications and changes of the present invention without departing from the spirit or field of the invention provided by the claims below It can be easily understood by those skilled in the art.
예를 들면, 상기에서는 2차원의 동영상신호를 3차원의 동영상 신호로 변환하는 것을 예로 들어 설명한 것으로서 본 발명은 이에 한정되지 않고, 1 프레임의 2차원 정지영상신호를 3차원 정지 영상신호로 변환할 수 있고, 이 경우에는 상기 프레임 분리수단을 사용하지 않을 수도 있다. 그리고 상기에서는 하나의 네가티브 시차, 제로시차 및 포지티브 시차로 시차 값을 설정하여 3차원 영상신호로 변환하는 것을 설명한 것으로서 본 발명에서는 상기 임계값을 복수 개 설정하여 복수의 시차를 가지는 3차원 영상신호로 변환할 수 있는 등 여러 가지로 변환 실시할 수 있다.For example, in the above description, the two-dimensional video signal is converted into a three-dimensional video signal as an example, and the present invention is not limited thereto. The two-dimensional still image signal of one frame may be converted into a three-dimensional still image signal. In this case, the frame separating means may not be used. In the above description, the parallax value is set by one negative parallax, zero parallax, and positive parallax, and the parallax value is converted into a 3D video signal. Conversion can be performed in various ways.
이상에서 설명한 바와 같이 본 발명은 프레임의 영상신호에서 각 픽셀들의 휘도신호를 이용하여 시차 값을 설정하며, 설정한 시차값에 따라 2차원 영상신호를 3차원 영상신호로 변환하므로 움직임이 거의 없는 2차원의 동영상신호는 물론 2차원의 정지 영상신호를 간단히 3차원 영상신호로 변환할 수 있고, 또한 다양한 화면의 구도를 가지는 영상신호에 대해서는 3차원 영상신호로 간단히 변환할 수 있는 효과가 있다.As described above, the present invention sets the parallax value using the luminance signal of each pixel in the video signal of the frame, and converts the 2D video signal to the 3D video signal according to the set parallax value so that there is almost no motion. The two-dimensional still image signal as well as the two-dimensional video signal can be easily converted to the three-dimensional video signal, and the video signal having the composition of various screens can be easily converted to the three-dimensional video signal.
도 1은 본 발명의 변환장치의 전체 구성을 보인 블록도.1 is a block diagram showing an overall configuration of a converter of the present invention.
도 2는 도 1의 에지검출 기준값 추출부의 상세 블록도.FIG. 2 is a detailed block diagram of the edge detection reference value extractor of FIG. 1. FIG.
도 3은 도 1의 영역 분할부의 상세 블록도.3 is a detailed block diagram of an area divider of FIG. 1;
도 4는 도 1의 시차지도 생성부의 상세 블록도.FIG. 4 is a detailed block diagram of the parallax map generating unit of FIG. 1. FIG.
도 5는 본 발명의 변환장치에서 에지검출 기준값 추출부가 에지검출 기준값을 추출하는 동작을 설명하기 위한 도면.FIG. 5 is a view for explaining an operation of extracting an edge detection reference value by an edge detection reference value extractor in the converter of the present invention; FIG.
도 6a 내지 도 6c는 본 발명의 변환장치에서 영역 분할부, 기준픽셀 설정부 및 시차지도 생성부의 동작을 설명하기 위한 도면.6A to 6C are diagrams for explaining the operation of the region dividing unit, the reference pixel setting unit, and the parallax map generating unit in the conversion apparatus of the present invention.
도 7a 내지 도 7c는 본 발명의 변환장치에서 시차 처리부가 설정된 시차 값에 따라 2차원 영상신호를 처리하여 3차원 영상신호로 변환하는 동작을 설명하기 위한 도면.7A to 7C are views for explaining an operation of converting a 2D video signal into a 3D video signal by processing a 2D video signal according to a set parallax value in the conversion device of the present invention.
도 8은 본 발명의 변환방법을 보인 신호흐름도.8 is a signal flow diagram showing a conversion method of the present invention.
* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
100 : 휘도신호 추출부 110 : 프레임 분리수단100: luminance signal extraction unit 110: frame separation means
111 : 디멀티플렉서 113, 115 : 제 1 및 제 2 프레임메모리111: demultiplexer 113, 115: first and second frame memories
117 : 멀티플렉서 120 : 시차 값 설정수단117: multiplexer 120: parallax value setting means
121 : 에지검출 기준값 추출부 121-11∼121-19 : 버퍼121: Edge detection reference value extraction section 121-11 to 121-19: buffer
121-21∼121-29 : 곱셈기 121-31 : 가산기121-21 to 121-29: Multiplier 121-31: Adder
123 : 영역 분할부 123-1 : 감산기123: region divider 123-1: subtractor
123-3 : 절대값 변환기 123-5, 127-1, 127-3 : 비교기123-3: Absolute value converter 123-5, 127-1, 127-3: Comparator
123-7 : 영역 결정부 125 : 기준픽셀 설정부123-7: area determining unit 125: reference pixel setting unit
127 : 시차지도 생성부 127-5 : 시차값 결정부127: parallax map generation unit 127-5: parallax value determination unit
130 : 시간 지연부 140 : 시차 처리부130: time delay unit 140: time difference processing unit
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040046228A KR100607072B1 (en) | 2004-06-21 | 2004-06-21 | Apparatus and method for converting 2D image signal into 3D image signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040046228A KR100607072B1 (en) | 2004-06-21 | 2004-06-21 | Apparatus and method for converting 2D image signal into 3D image signal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050121080A true KR20050121080A (en) | 2005-12-26 |
KR100607072B1 KR100607072B1 (en) | 2006-08-01 |
Family
ID=37293351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040046228A KR100607072B1 (en) | 2004-06-21 | 2004-06-21 | Apparatus and method for converting 2D image signal into 3D image signal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100607072B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010101362A2 (en) * | 2009-03-04 | 2010-09-10 | Samsung Electronics Co,. Ltd. | Metadata generating method and apparatus and image processing method and apparatus using metadata |
WO2011087279A2 (en) * | 2010-01-12 | 2011-07-21 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
KR101055411B1 (en) * | 2010-03-12 | 2011-08-09 | 이상원 | Method and apparatus of generating stereoscopic image |
US8045793B2 (en) | 2007-08-06 | 2011-10-25 | Samsung Mobile Display Co., Ltd. | Stereo matching system and stereo matching method using the same |
WO2012157833A1 (en) * | 2011-05-16 | 2012-11-22 | Samsung Electronics Co., Ltd. | Apparatus and method for converting 2d content into 3d content, and computer-readable storage medium thereof |
KR101359351B1 (en) * | 2011-10-10 | 2014-02-12 | 전자부품연구원 | Fast method for matching stereo images according to operation skip |
US9225960B2 (en) | 2010-10-04 | 2015-12-29 | Samsung Electronics Co., Ltd. | Apparatus and method for attenuating stereoscopic sense of stereoscopic image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100888459B1 (en) | 2007-03-14 | 2009-03-19 | 전자부품연구원 | Method and system for calculating depth information of object in image |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998004087A1 (en) * | 1996-07-18 | 1998-01-29 | Sanyo Electric Co., Ltd. | Device and method for converting two-dimensional video into three-dimensional video |
KR100450836B1 (en) * | 2001-12-11 | 2004-10-01 | 삼성전자주식회사 | Apparatus for generating 3-dimensional image from 2-dimensional image |
-
2004
- 2004-06-21 KR KR1020040046228A patent/KR100607072B1/en not_active IP Right Cessation
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8045793B2 (en) | 2007-08-06 | 2011-10-25 | Samsung Mobile Display Co., Ltd. | Stereo matching system and stereo matching method using the same |
WO2010101362A2 (en) * | 2009-03-04 | 2010-09-10 | Samsung Electronics Co,. Ltd. | Metadata generating method and apparatus and image processing method and apparatus using metadata |
WO2010101362A3 (en) * | 2009-03-04 | 2010-11-25 | Samsung Electronics Co,. Ltd. | Metadata generating method and apparatus and image processing method and apparatus using metadata |
US8294754B2 (en) | 2009-03-04 | 2012-10-23 | Samsung Electronics Co., Ltd. | Metadata generating method and apparatus and image processing method and apparatus using metadata |
WO2011087279A2 (en) * | 2010-01-12 | 2011-07-21 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
WO2011087279A3 (en) * | 2010-01-12 | 2011-12-08 | (주)인디에스피 | Stereoscopic image conversion method and stereoscopic image conversion device |
KR101055411B1 (en) * | 2010-03-12 | 2011-08-09 | 이상원 | Method and apparatus of generating stereoscopic image |
WO2011112028A2 (en) * | 2010-03-12 | 2011-09-15 | Seok Bo Ra | Stereoscopic image generation method and a device therefor |
WO2011112028A3 (en) * | 2010-03-12 | 2012-01-12 | Seok Bo Ra | Stereoscopic image generation method and a device therefor |
US9225960B2 (en) | 2010-10-04 | 2015-12-29 | Samsung Electronics Co., Ltd. | Apparatus and method for attenuating stereoscopic sense of stereoscopic image |
WO2012157833A1 (en) * | 2011-05-16 | 2012-11-22 | Samsung Electronics Co., Ltd. | Apparatus and method for converting 2d content into 3d content, and computer-readable storage medium thereof |
KR101359351B1 (en) * | 2011-10-10 | 2014-02-12 | 전자부품연구원 | Fast method for matching stereo images according to operation skip |
Also Published As
Publication number | Publication date |
---|---|
KR100607072B1 (en) | 2006-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4762994B2 (en) | Parallax map | |
KR101385514B1 (en) | Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information | |
KR101520619B1 (en) | Method and apparatus for determining view positions of stereoscopic images for stereo synchronization | |
KR101185870B1 (en) | Apparatus and method for processing 3 dimensional picture | |
KR100445619B1 (en) | Device and method for converting two-dimensional video into three-dimensional video | |
RU2421933C2 (en) | System and method to generate and reproduce 3d video image | |
KR101038452B1 (en) | Multi-view image generation | |
KR100505334B1 (en) | Real-time stereoscopic image conversion apparatus using motion parallaxr | |
CN1745589B (en) | Video filtering for stereo images | |
KR100517517B1 (en) | Method for reconstructing intermediate video and 3D display using thereof | |
JP2012108922A (en) | Depth perception device and method | |
CA2302199A1 (en) | Image processing method and apparatus | |
CN102474644A (en) | Three-dimensional image display system, disparity conversion device, disparity conversion method, and program | |
US9214052B2 (en) | Analysis of stereoscopic images | |
CA2488925A1 (en) | Method for producing stereoscopic images from monoscopic images | |
KR100607072B1 (en) | Apparatus and method for converting 2D image signal into 3D image signal | |
KR100540732B1 (en) | Apparatus for converting 2D image signal into 3D image signal | |
KR100263936B1 (en) | Apparatus and method for converting 2-d video sequence to 3-d video using virtual stereoscopic video | |
JP2002245451A (en) | Stereoscopic image evaluating device | |
CN102281423B (en) | 3D (Dimension) video field frequency conversion system and field frequency conversion method thereof | |
JP5664356B2 (en) | Generation apparatus and generation method | |
KR100503276B1 (en) | Apparatus for converting 2D image signal into 3D image signal | |
US8947507B2 (en) | Method of processing 3D images, and corresponding system including the formulation of missing pixels using windows of details from first and second views | |
JP2649810B2 (en) | 3D image redundancy compression device | |
JP2004201204A (en) | Apparatus and method of generating distance image, program thereof, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20110624 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |