KR20010001341A - 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor - Google Patents
3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor Download PDFInfo
- Publication number
- KR20010001341A KR20010001341A KR1019990020487A KR19990020487A KR20010001341A KR 20010001341 A KR20010001341 A KR 20010001341A KR 1019990020487 A KR1019990020487 A KR 1019990020487A KR 19990020487 A KR19990020487 A KR 19990020487A KR 20010001341 A KR20010001341 A KR 20010001341A
- Authority
- KR
- South Korea
- Prior art keywords
- binocular
- viewpoint
- distance
- dimensional
- viewpoints
- Prior art date
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D46/00—Filters or filtering processes specially modified for separating dispersed particles from gases or vapours
- B01D46/0002—Casings; Housings; Frame constructions
- B01D46/0005—Mounting of filtering elements within casings, housings or frames
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D2258/00—Sources of waste gases
- B01D2258/06—Polluted air
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B01—PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
- B01D—SEPARATION
- B01D2271/00—Sealings for filters specially adapted for separating dispersed particles from gases or vapours
- B01D2271/02—Gaskets, sealings
Landscapes
- Chemical & Material Sciences (AREA)
- Chemical Kinetics & Catalysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법에 관한 것이다.The present invention relates to a method for generating a 3D graphic image and a binocular disparity adjusting method therefor.
3차원 컴퓨터 그래픽을 위한 종래의 시차 발생 방식은 컴퓨터 모니터에 양안이 보는 영상을 교대로 뿌려주는 방식이다. 따라서 3차원 세계에서 각각 서로 다른 깊이를 가지는 여러 영상이 실제로는 물리적으로 동일 거리에 있는 모니터 화면상에 뿌려지게 된다. 이 때, 인간이 모니터상에 뿌려진 영상을 보려고 한다면 인간의 양안은 시차에 의해 대상 물체가 물리적으로 위치하는 깊이에서 양안의 중심 축이 교차하도록 움직인다. 이 위치는 시차에 따라 실제 모니터의 앞이나 뒤가 될 것이다. 그런데, 실제로 그 대상 물체의 영상은 모니터 바로 위에 위치하게 되므로 인간의 양안은 모니터 위에 초점을 맞추게 된다. 이는 인간이 3차원 세계를 바라볼 때 동작하는 양안의 수렴-초점(convergence-focus) 시스템과는 다르게 양안을 움직이도록 한다.The conventional parallax generating method for three-dimensional computer graphics is a method of alternately spraying the image seen by both eyes on the computer monitor. Therefore, in the three-dimensional world, several images having different depths are actually scattered on the monitor screen which are physically at the same distance. At this time, if a human is to see the image sprayed on the monitor, both human eyes move so that the central axis of both eyes intersect at the depth where the object is physically located by parallax. This position will be in front of or behind the actual monitor depending on the time difference. However, since the image of the object is actually located directly on the monitor, both eyes of the human being are focused on the monitor. This allows the binocular to move differently from the convergence-focus system of the binocular, which operates when a human looks at the three-dimensional world.
도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이고, 도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.FIG. 1A illustrates how a human sees a three-dimensional world, and FIG. 1B illustrates a stereo image synthesis method in computer graphics.
일반적으로, 수렴을 위해 눈동자 자체를 움직이는 근육과 초점을 맞추도록 수정체를 움직이는 근육의 메커니즘은 독립적이다. 그러나, 인간이 공간적인 깊이감을 느끼는 경험을 수없이 겪게 되면서 두 시스템은 경험적으로 매우 밀접하게 결합되어 동작한다. 따라서, 수렴-초점의 불일치(discrepancy)는 3차원 세계를 보는 것과는 다른 부자연스러운 느낌을 주므로, 인간의 눈에 피로감을 준다. 그러나, 인간이 3차원 세계를 볼 때는 관심의 대상이 되는 물체가 항상 수렴과 초점이 일치되도록 움직이고 이를 기준으로 다른 물체들의 상대적인 깊이감을 인식하기 때문에 피로감을 느끼지 못한다.In general, the mechanisms of the muscles that move the lens to focus and the muscles that move the eyes themselves for convergence are independent. However, as the human being experiences a sense of spatial depth, the two systems work closely together empirically. Thus, the convergence-focused discrepancy gives an unnatural feeling that is different from seeing a three-dimensional world, resulting in fatigue in the human eye. However, when a human sees a three-dimensional world, the object of interest always moves so that convergence and focus coincide, and based on it, he does not feel tired because he perceives the relative depth of other objects.
또한, 인간이 양안을 통해 관심을 가지고 임의의 깊이에 위치하는 물체를 보고 있는 경우 이와 현저하게 차이가 있는 깊이에 있는 물체는 둘로 보이게 된다. 이를 더블 비젼(double-vision)이라 한다. 이는 물체가 가지는 시차가 인간이 깊이감을 느낄 수 있는 양안 융합 범위를 초과함으로써 발생한다. 실제로, 손가락을 눈앞에 가까이 위치시키고 눈은 멀리 떨어져 있는 다른 물체를 보면 손가락이 둘로 보이는 이치와도 같다.In addition, when a human is looking at an object located at an arbitrary depth with interest through both eyes, an object at a depth that is significantly different from this is seen as two. This is called double-vision. This occurs because the parallax of an object exceeds the range of binocular fusion in which humans can feel a sense of depth. In fact, if you look at another object with your fingers near your eyes and your eyes far away, it's like having two fingers.
종래의 3차원 컴퓨터 그래픽을 위한 시차 발생 방법은 3차원 세계를 모니터상에 스테레오 렌더링(stereo rendering)하는 경우, 관찰자가 관심을 가지고보는 물체를 알 수 없기 때문에 어느 한 깊이를 기준으로 인간의 수렴-초점 시스템을 모의실험(simulation)하거나 무한대의 거리를 시차 발생의 기준으로하여 3차원 그래픽을 생성한다. 따라서, 인간이 관심을 가지고 보는 물체가 지정된 물체와 일치하지 않을 경우 수렴-초점 불일치가 발생한다. 이러한 상태에서는 양안에 투영되는 영상의 시차를 인간의 양안 융합 범위 안에 들어오도록 하더라도 더블 비젼만을 해결할 수 있다. 결과적으로, 양안에 투영되는 영상의 시차가 고정되어 있으므로, 관찰자가 관심있게 보는 영역에 대해 수렴과 초점을 일치시키는 과정이 없다면 수렴-초점 불일치 문제를 해결되지 않는다.The conventional parallax generation method for three-dimensional computer graphics is that when stereo rendering a three-dimensional world on a monitor, the convergence of the human being based on one depth is not known because the observer does not know the object of interest. Simulate a focus system or generate 3D graphics based on parallax generation based on infinite distances. Thus, convergence-focus mismatch occurs when the object that a human is interested in does not match the specified object. In this state, even if the parallax of the image projected by both eyes falls within the range of human binocular fusion, only double vision can be solved. As a result, since the parallax of the image projected by both eyes is fixed, the convergence-focus mismatch problem is not solved unless there is a process of matching convergence and focus on an area that the viewer is interested in.
본 발명이 이루고자하는 기술적 과제는 사용자가 관심을 가지고 보는 물체가 변경될 때마다 그 정보를 사용자로부터 입력받고 해당 물체에 대해 수렴과 초점이 일치되도록 컴퓨터 그래픽에서 양안에 해당되는 두 시점(viewpoint)을 통하여 보는 2개의 투사된 영상을 생성하고 이를 렌더링하여 3차원 그래픽 영상을 생성하는 방법 및 이를 위해 생성된 영상간에 발생하는 최대 시차가 인간의 양안 융합 범위를 초과하지 않도록 두 시점사이의 거리를 조절하는 방법을 제공하는데 있다.The technical problem to be achieved by the present invention is to receive two points of view (viewpoint) corresponding to both eyes in the computer graphics so that the information is received from the user whenever the object that the user is interested in is changed and the convergence and focus of the object are matched. A method of generating two projected images and rendering them to generate a 3D graphic image, and adjusting the distance between two viewpoints so that the maximum parallax between the generated images does not exceed the range of human binocular fusion. To provide a method.
도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이다.1A illustrates how a human sees a three-dimensional world.
도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.1B illustrates a stereo image synthesis method in computer graphics.
도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다.2 is a flowchart illustrating a method of generating a 3D graphic image according to the present invention.
도 3은 3차원 세계 좌표와 가상 시점 좌표를 도시한 것이다.3 illustrates three-dimensional world coordinates and virtual viewpoint coordinates.
도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다.4 illustrates an example of crossing an optical axis at a binocular viewpoint for an object of interest.
상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; 상기 양안 시점의 방향을 구하는 제5단계; 및 상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로한다.According to an aspect of the present invention, there is provided a method including: a first step of calculating three-dimensional information and a moving position of a virtual viewpoint from an observation point movement information and virtual viewpoint movement information of an object input by a user; Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a position of the binocular viewpoints from the obtained binocular viewpoint distances; A fifth step of obtaining a direction of the binocular viewpoint; And a sixth step of obtaining images projected in two dimensions with respect to a three-dimensional world from the positions and directions of the binocular viewpoint, respectively, and stereo rendering the obtained two images to generate a three-dimensional graphic image.
상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; 및 상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로한다.According to an aspect of the present invention, there is provided a method including: a first step of calculating three-dimensional information and a moving position of a virtual viewpoint from an observation point movement information and virtual viewpoint movement information of an object input by a user; Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a location of the binocular viewpoints from the obtained distances; And a fifth step of obtaining a direction of the binocular viewpoint.
이하에서 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하기로 한다. 도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다. 도 2에 따른 3차원 그래픽 영상 생성 방법은 사용자의 정보입력 단계(200), 물체의 3차원 정보 및 가상 시점 이동 위치 계산 단계(202), 가상 시점의 위치와 3차원 세계간 최대, 최소 거리 계산 단계(204), 양안 시점간 거리 계산 단계(206), 양안 시점의 위치 계산 단계(208), 양안 시점의 방향 계산 단계(210), 양안 시점에서 2차원 투사 영상 생성 단계(212) 및 렌더링 단계(214)를 포함한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. 2 is a flowchart illustrating a method of generating a 3D graphic image according to the present invention. In the method of generating a 3D graphic image according to FIG. 2, the user inputs information 200, calculates 3D information of an object and a virtual viewpoint moving position 202, and calculates maximum and minimum distances between a virtual viewpoint and a 3D world. Step 204, the distance between the binocular viewpoint calculation step 206, the position calculation step 208 for the binocular viewpoint, the direction calculation step 210 for the binocular viewpoint, the two-dimensional projection image generation step 212 and the rendering step at both eyes 214.
먼저, 사용자는 다수의 물체들이 존재하는 3차원 컴퓨터 그래픽 영상을 생성하고자할 때, 두가지 정보를 입력한다(200단계). 하나는 사용자가 관심을 가지고 보는 물체를 변경하거나 동일한 물체에서도 관찰점을 변경하는 경우 사용자는 이에 대한 정보를 입력 장치, 예를 들어, 응시 인식 장치 또는 마우스 등을 통해 입력한다. 여기서, 관찰점이란 관찰자의 양안에 해당하는 좌/우 두 시점이 바라보는 물체에 위치하는 점이다. 예를 들어, 관찰점은 해당 물체의 중심점이 될 수 있다. 물체의 중심점은 다음 식과 같이 해당 물체의 3차원 경계값을 평균한 값으로부터 구할 수 있다.First, when a user wants to generate a 3D computer graphic image in which a plurality of objects exist, the user inputs two pieces of information (step 200). For example, when the user changes an object of interest or changes an observation point in the same object, the user inputs information about the object through an input device, for example, a gaze recognition device or a mouse. Here, the observation point is a point where two left and right viewpoints corresponding to both eyes of the observer are located on the object viewed. For example, the observation point may be the center point of the object. The center point of an object can be obtained from an average of three-dimensional boundary values of the object as shown in the following equation.
여기서, Ox,Oy,Oz는 해당 물체의 3차원 중심좌표이고, imax,imin는 각각 해당 물체의 i축 방향으로의 최대, 최소 경계값이다.Here, O x , O y , O z are the three-dimensional center coordinates of the object, and i max and i min are the maximum and minimum boundary values in the i-axis direction of the object, respectively.
다른 하나는 3차원 세계를 자유로이 이동하기 위해서 사용자가 입력하는 가상 시점의 이동 정보이다. 시점은 3차원 세계를 2차원 모니터상에 투영하기 위해, 예를 들어, 카메라와 같은 투영장치가 위치하는 3차원 공간상의 한 점이다. 인간이 3차원 세계를 바라보기 위해서는 두 눈이 있어야하고 그 두 눈이 어디를 향하고 있으며 두 눈을 포함하는 머리의 공간적 방향을 정해야 한다. 마찬가지로 시점도 상술한 요소들을 모두 포함해야한다. 도 3은 이러한 요소들을 도시한 것이다. 도 3에 따르면, 3차원 세계 좌표(X,Y,Z) 상의 3차원 물체를 2차원 모니터에 투영하기 위해서는 시점(V), 시점에서 바라보는 방향을 나타내는 방향 벡터(O), 시점의 법선 방향을 가리키는 헤드 벡터(H)가 필요하다.The other is movement information of a virtual viewpoint input by a user in order to move freely in the 3D world. A viewpoint is a point in three-dimensional space in which a projection device such as a camera is located, for example, to project a three-dimensional world onto a two-dimensional monitor. In order to see a three-dimensional world, humans must have two eyes, where they are facing, and determine the spatial direction of the head that contains them. Similarly, the viewpoint must include all of the above-mentioned elements. 3 illustrates these elements. According to FIG. 3, in order to project a three-dimensional object on three-dimensional world coordinates (X, Y, Z) onto a two-dimensional monitor, the viewpoint V, a direction vector O indicating a direction viewed from the viewpoint, and a normal direction of the viewpoint A head vector H is needed.
가상 시점은 인간의 양안에 해당되는 좌우 두 시점을 얻기 위해 편의상 정의한 시점으로서, 3차원 공간상에서 좌우 두 시점을 이은 선분의 중심점에 위치한다.The virtual viewpoint is a viewpoint defined for convenience to obtain two left and right viewpoints corresponding to both eyes of a human, and is located at the center point of a line segment connecting two left and right viewpoints in three-dimensional space.
이렇게 입력된 정보들을 이용하여 3차원 세계에서 해당 물체의 임의의 점을 관찰점으로 정한다. 이를 이용하여 현재 가상 시점 위치로부터 이동 후의 가상 시점의 새로운 위치를 계산한다(202단계).Using the inputted information, an arbitrary point of the object in the three-dimensional world is determined as an observation point. Using this, a new position of the virtual viewpoint after the movement is calculated from the current virtual viewpoint position (step 202).
다음으로, 현재 정의된 모든 물체를 포함하는 3차원 세계와 가상 시점사이의 최대 및 최소 거리를 구한다(204단계). 최대 및 최소 거리는 각각 가상 시점에서 3차원 세계까지의 최대 및 최소 깊이에 해당한다.Next, the maximum and minimum distances between the three-dimensional world and the virtual viewpoint including all currently defined objects are calculated (step 204). The maximum and minimum distances correspond to the maximum and minimum depths from the virtual viewpoint to the three-dimensional world, respectively.
204단계에서 구해진 최대 및 최소 거리간 차(깊이)를 구한다. 이 차로부터 가시거리에 따라 허용되는 양안 시점간 거리를 구한다(206단계). 실험적으로 결정된 양안 시점간 거리 ES는 다음 식과 같이 구할 수 있다.The difference (depth) between the maximum and minimum distances obtained in step 204 is obtained. From this difference, the distance between the binocular viewpoints allowed according to the visible distance is calculated (step 206). The experimentally determined distance between binocular viewpoints ES can be obtained as follows.
여기서, z는 최대 거리와 최소 거리의 차이고, s는 모니터 스크린의 높이이다.Where z is the difference between the maximum and minimum distances and s is the height of the monitor screen.
수학식 2에 따르면, 모니터 스크린의 높이가 일정하다고 가정하면, 양안 시점간 거리는 바라보는 3차원 세계의 최대 거리와 최소 거리의 차가 클수록 작아지고, 차이가 클수록 커지는 것을 알 수 있다. 따라서, 3차원 세계 전체의 깊이 차가 큰 경우 양안 시점 사이의 거리를 줄임으로써 결과적으로 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 작아진다.According to Equation 2, assuming that the height of the monitor screen is constant, it can be seen that the distance between the binocular viewpoints becomes smaller as the difference between the maximum distance and the minimum distance of the three-dimensional world viewed is larger, and the larger the difference is. Therefore, when the depth difference of the entire three-dimensional world is large, the distance between the binocular viewpoints is reduced, and as a result, the parallax for the same object between the left and right images projected on the monitor is reduced.
반대로, 3차원 세계 전체의 깊이 차가 작은 경우, 양안 시점 사이의 거리를 늘림으로써 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 커져서 전체적으로 깊이감이 크게 된다.On the contrary, when the depth difference of the whole 3D world is small, the parallax with respect to the same object between the left and right images projected on a monitor becomes large by increasing the distance between binocular viewpoints, and the depth sense becomes large overall.
상기 수학식 2에 따라 결정된 양안 시점간 거리 ES로부터 양안 시점의 위치를 결정한다(208단계). 좌측 시점의 위치 EL, 우측 시점의 위치 ER는 각각 다음 식과 같이 결정된다.In step 208, the position of the binocular viewpoint is determined from the distance ES between the binocular viewpoint determined according to Equation 2 above. Position E at the left viewL, Position E at rightRAre respectively determined by the following equations.
구해진 양안 시점의 위치에서 바라보는 방향이 그 물체의 중심점에서 일치하도록 좌측 시점의 방향 ELO, 우측 시점의 방향 ERO를 다음 식과 같이 결정한다(210단계).The direction E LO of the left view and the direction E RO of the right view are determined as shown in the following equation so that the direction viewed from the obtained position of the binocular view coincides with the center point of the object (step 210).
이와 같이 설정된 양안 시점에서 생성된 3차원 세계의 2차원 투영 영상에서 사용자가 관심을 가지는 물체의 시차는 0이 되고, 물리적인 깊이는 컴퓨터 모니터 위가 되어 수렴과 초점이 일치하게 된다.The parallax of the object of interest to the user in the two-dimensional projection image of the three-dimensional world generated at the binocular viewpoint set as described above becomes zero, and the physical depth is on the computer monitor so that convergence and focus are coincident.
도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다. 도시된 바에 따르면, 양안 시점의 위치에서 바라보는 방향이 관심있는 물체(물체 2)의 중심점에서 일치하도록 결정되었음을 알 수 있다.4 illustrates an example of crossing an optical axis at a binocular viewpoint for an object of interest. As shown, it can be seen that the direction viewed from the position of the binocular viewpoint was determined to coincide at the center point of the object of interest (object 2).
상술한 바와 같이 결정된 양안 시점의 위치와 양안 시점이 바라보는 방향을 이용하여 3차원 공간에 대한 2개의 투사된 영상을 생성하고(212단계), 스테레오 렌더링하여 3차원 그래픽 영상을 생성한다(214단계).Using the position of the binocular viewpoint and the direction viewed by the binocular viewpoint determined as described above, two projected images of the three-dimensional space are generated (step 212), and stereo rendering to generate a three-dimensional graphic image (step 214). ).
본 발명에 따르면, 사용자로부터 응시할 물체의 변경 또는 동일 물체내에서의 관찰점 변경에 대한 정보를 입력받고, 해당 물체에 대한 수렴 및 초점이 일치되도록 카메라의 양안 시점의 위치 및 방향을 결정하여 2차원으로 투영함으로써 주변 물체들에 대해 상대적 깊이감을 얻을 수 있고, 눈의 피로감을 감소시킬 수 있다.According to the present invention, the user receives information about a change of an object to be gazed or a change of an observation point within the same object, and determines the position and direction of binocular viewpoints of the camera so that convergence and focus of the object are matched, and thus two-dimensional. By projecting in, the relative depth of the surrounding objects can be obtained, and the eye fatigue can be reduced.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990020487A KR100294925B1 (en) | 1999-06-03 | 1999-06-03 | 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990020487A KR100294925B1 (en) | 1999-06-03 | 1999-06-03 | 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010001341A true KR20010001341A (en) | 2001-01-05 |
KR100294925B1 KR100294925B1 (en) | 2001-07-12 |
Family
ID=19589835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019990020487A KR100294925B1 (en) | 1999-06-03 | 1999-06-03 | 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100294925B1 (en) |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002015595A1 (en) * | 2000-08-18 | 2002-02-21 | Georae. Ltd. | A method and system of revision for 3-dimensional image |
US7084838B2 (en) | 2001-08-17 | 2006-08-01 | Geo-Rae, Co., Ltd. | Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse |
US8290244B2 (en) | 2005-08-31 | 2012-10-16 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling depth of three-dimensional image |
WO2012169693A1 (en) * | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | Method for processing image and apparatus for processing image |
WO2013067683A1 (en) * | 2011-11-08 | 2013-05-16 | Industrial Technology Research Institute | Method and image acquisition system for rendering stereoscopic images from monoscopic images |
WO2014007414A1 (en) * | 2012-07-06 | 2014-01-09 | Lg Electronics Inc. | Terminal for increasing visual comfort sensation of 3d object and control method thereof |
US9058653B1 (en) | 2011-06-10 | 2015-06-16 | Flir Systems, Inc. | Alignment of visible light sources based on thermal images |
US9143703B2 (en) | 2011-06-10 | 2015-09-22 | Flir Systems, Inc. | Infrared camera calibration techniques |
US9235023B2 (en) | 2011-06-10 | 2016-01-12 | Flir Systems, Inc. | Variable lens sleeve spacer |
US9292909B2 (en) | 2009-06-03 | 2016-03-22 | Flir Systems, Inc. | Selective image correction for infrared imaging devices |
USD765081S1 (en) | 2012-05-25 | 2016-08-30 | Flir Systems, Inc. | Mobile communications device attachment with camera |
US9451183B2 (en) | 2009-03-02 | 2016-09-20 | Flir Systems, Inc. | Time spaced infrared image enhancement |
US9473681B2 (en) | 2011-06-10 | 2016-10-18 | Flir Systems, Inc. | Infrared camera system housing with metalized surface |
US9509924B2 (en) | 2011-06-10 | 2016-11-29 | Flir Systems, Inc. | Wearable apparatus with integrated infrared imaging module |
US9517679B2 (en) | 2009-03-02 | 2016-12-13 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US9521289B2 (en) | 2011-06-10 | 2016-12-13 | Flir Systems, Inc. | Line based image processing and flexible memory system |
US9635285B2 (en) | 2009-03-02 | 2017-04-25 | Flir Systems, Inc. | Infrared imaging enhancement with fusion |
US9635220B2 (en) | 2012-07-16 | 2017-04-25 | Flir Systems, Inc. | Methods and systems for suppressing noise in images |
US9674458B2 (en) | 2009-06-03 | 2017-06-06 | Flir Systems, Inc. | Smart surveillance camera systems and methods |
US9706137B2 (en) | 2011-06-10 | 2017-07-11 | Flir Systems, Inc. | Electrical cabinet infrared monitor |
US9706139B2 (en) | 2011-06-10 | 2017-07-11 | Flir Systems, Inc. | Low power and small form factor infrared imaging |
US9706138B2 (en) | 2010-04-23 | 2017-07-11 | Flir Systems, Inc. | Hybrid infrared sensor array having heterogeneous infrared sensors |
US9716843B2 (en) | 2009-06-03 | 2017-07-25 | Flir Systems, Inc. | Measurement device for electrical installations and related methods |
US9723227B2 (en) | 2011-06-10 | 2017-08-01 | Flir Systems, Inc. | Non-uniformity correction techniques for infrared imaging devices |
US9756264B2 (en) | 2009-03-02 | 2017-09-05 | Flir Systems, Inc. | Anomalous pixel detection |
US9756262B2 (en) | 2009-06-03 | 2017-09-05 | Flir Systems, Inc. | Systems and methods for monitoring power systems |
US9807319B2 (en) | 2009-06-03 | 2017-10-31 | Flir Systems, Inc. | Wearable imaging devices, systems, and methods |
US9811884B2 (en) | 2012-07-16 | 2017-11-07 | Flir Systems, Inc. | Methods and systems for suppressing atmospheric turbulence in images |
US9819880B2 (en) | 2009-06-03 | 2017-11-14 | Flir Systems, Inc. | Systems and methods of suppressing sky regions in images |
US9843742B2 (en) | 2009-03-02 | 2017-12-12 | Flir Systems, Inc. | Thermal image frame capture using de-aligned sensor array |
US9848134B2 (en) | 2010-04-23 | 2017-12-19 | Flir Systems, Inc. | Infrared imager with integrated metal layers |
US9900526B2 (en) | 2011-06-10 | 2018-02-20 | Flir Systems, Inc. | Techniques to compensate for calibration drifts in infrared imaging devices |
US9918023B2 (en) | 2010-04-23 | 2018-03-13 | Flir Systems, Inc. | Segmented focal plane array architecture |
US9948872B2 (en) | 2009-03-02 | 2018-04-17 | Flir Systems, Inc. | Monitor and control systems and methods for occupant safety and energy efficiency of structures |
US9961277B2 (en) | 2011-06-10 | 2018-05-01 | Flir Systems, Inc. | Infrared focal plane array heat spreaders |
US9973692B2 (en) | 2013-10-03 | 2018-05-15 | Flir Systems, Inc. | Situational awareness by compressed display of panoramic views |
US9986175B2 (en) | 2009-03-02 | 2018-05-29 | Flir Systems, Inc. | Device attachment with infrared imaging sensor |
US9998697B2 (en) | 2009-03-02 | 2018-06-12 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US10051210B2 (en) | 2011-06-10 | 2018-08-14 | Flir Systems, Inc. | Infrared detector array with selectable pixel binning systems and methods |
US10079982B2 (en) | 2011-06-10 | 2018-09-18 | Flir Systems, Inc. | Determination of an absolute radiometric value using blocked infrared sensors |
US10091439B2 (en) | 2009-06-03 | 2018-10-02 | Flir Systems, Inc. | Imager with array of multiple infrared imaging modules |
US10169666B2 (en) | 2011-06-10 | 2019-01-01 | Flir Systems, Inc. | Image-assisted remote control vehicle systems and methods |
US10244190B2 (en) | 2009-03-02 | 2019-03-26 | Flir Systems, Inc. | Compact multi-spectrum imaging with fusion |
US10389953B2 (en) | 2011-06-10 | 2019-08-20 | Flir Systems, Inc. | Infrared imaging device having a shutter |
US10757308B2 (en) | 2009-03-02 | 2020-08-25 | Flir Systems, Inc. | Techniques for device attachment with dual band imaging sensor |
US10841508B2 (en) | 2011-06-10 | 2020-11-17 | Flir Systems, Inc. | Electrical cabinet infrared monitor systems and methods |
US11297264B2 (en) | 2014-01-05 | 2022-04-05 | Teledyne Fur, Llc | Device attachment with dual band imaging sensor |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101747929B1 (en) * | 2010-12-21 | 2017-06-16 | 한국전자통신연구원 | Apparatus and method for improving image quality of stereoscopic images |
KR102299774B1 (en) | 2014-08-28 | 2021-09-09 | 삼성전자주식회사 | Method for configuring screen, electronic apparatus and storage medium |
-
1999
- 1999-06-03 KR KR1019990020487A patent/KR100294925B1/en not_active IP Right Cessation
Cited By (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002015595A1 (en) * | 2000-08-18 | 2002-02-21 | Georae. Ltd. | A method and system of revision for 3-dimensional image |
US7084838B2 (en) | 2001-08-17 | 2006-08-01 | Geo-Rae, Co., Ltd. | Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse |
US7091931B2 (en) | 2001-08-17 | 2006-08-15 | Geo-Rae Co., Ltd. | Method and system of stereoscopic image display for guiding a viewer's eye motion using a three-dimensional mouse |
US8290244B2 (en) | 2005-08-31 | 2012-10-16 | Samsung Electronics Co., Ltd. | Apparatus and method for controlling depth of three-dimensional image |
US10757308B2 (en) | 2009-03-02 | 2020-08-25 | Flir Systems, Inc. | Techniques for device attachment with dual band imaging sensor |
US10244190B2 (en) | 2009-03-02 | 2019-03-26 | Flir Systems, Inc. | Compact multi-spectrum imaging with fusion |
US9517679B2 (en) | 2009-03-02 | 2016-12-13 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US10033944B2 (en) | 2009-03-02 | 2018-07-24 | Flir Systems, Inc. | Time spaced infrared image enhancement |
US9998697B2 (en) | 2009-03-02 | 2018-06-12 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US9986175B2 (en) | 2009-03-02 | 2018-05-29 | Flir Systems, Inc. | Device attachment with infrared imaging sensor |
US9948872B2 (en) | 2009-03-02 | 2018-04-17 | Flir Systems, Inc. | Monitor and control systems and methods for occupant safety and energy efficiency of structures |
US9756264B2 (en) | 2009-03-02 | 2017-09-05 | Flir Systems, Inc. | Anomalous pixel detection |
US9635285B2 (en) | 2009-03-02 | 2017-04-25 | Flir Systems, Inc. | Infrared imaging enhancement with fusion |
US9451183B2 (en) | 2009-03-02 | 2016-09-20 | Flir Systems, Inc. | Time spaced infrared image enhancement |
US9843742B2 (en) | 2009-03-02 | 2017-12-12 | Flir Systems, Inc. | Thermal image frame capture using de-aligned sensor array |
US9819880B2 (en) | 2009-06-03 | 2017-11-14 | Flir Systems, Inc. | Systems and methods of suppressing sky regions in images |
US9843743B2 (en) | 2009-06-03 | 2017-12-12 | Flir Systems, Inc. | Infant monitoring systems and methods using thermal imaging |
US9716843B2 (en) | 2009-06-03 | 2017-07-25 | Flir Systems, Inc. | Measurement device for electrical installations and related methods |
US9807319B2 (en) | 2009-06-03 | 2017-10-31 | Flir Systems, Inc. | Wearable imaging devices, systems, and methods |
US9674458B2 (en) | 2009-06-03 | 2017-06-06 | Flir Systems, Inc. | Smart surveillance camera systems and methods |
US9756262B2 (en) | 2009-06-03 | 2017-09-05 | Flir Systems, Inc. | Systems and methods for monitoring power systems |
US9292909B2 (en) | 2009-06-03 | 2016-03-22 | Flir Systems, Inc. | Selective image correction for infrared imaging devices |
US10091439B2 (en) | 2009-06-03 | 2018-10-02 | Flir Systems, Inc. | Imager with array of multiple infrared imaging modules |
US9848134B2 (en) | 2010-04-23 | 2017-12-19 | Flir Systems, Inc. | Infrared imager with integrated metal layers |
US9918023B2 (en) | 2010-04-23 | 2018-03-13 | Flir Systems, Inc. | Segmented focal plane array architecture |
US9706138B2 (en) | 2010-04-23 | 2017-07-11 | Flir Systems, Inc. | Hybrid infrared sensor array having heterogeneous infrared sensors |
US9723227B2 (en) | 2011-06-10 | 2017-08-01 | Flir Systems, Inc. | Non-uniformity correction techniques for infrared imaging devices |
US9961277B2 (en) | 2011-06-10 | 2018-05-01 | Flir Systems, Inc. | Infrared focal plane array heat spreaders |
US9706139B2 (en) | 2011-06-10 | 2017-07-11 | Flir Systems, Inc. | Low power and small form factor infrared imaging |
US9723228B2 (en) | 2011-06-10 | 2017-08-01 | Flir Systems, Inc. | Infrared camera system architectures |
US9706137B2 (en) | 2011-06-10 | 2017-07-11 | Flir Systems, Inc. | Electrical cabinet infrared monitor |
US10841508B2 (en) | 2011-06-10 | 2020-11-17 | Flir Systems, Inc. | Electrical cabinet infrared monitor systems and methods |
WO2012169693A1 (en) * | 2011-06-10 | 2012-12-13 | 엘지전자 주식회사 | Method for processing image and apparatus for processing image |
US10389953B2 (en) | 2011-06-10 | 2019-08-20 | Flir Systems, Inc. | Infrared imaging device having a shutter |
US9538038B2 (en) | 2011-06-10 | 2017-01-03 | Flir Systems, Inc. | Flexible memory systems and methods |
US9521289B2 (en) | 2011-06-10 | 2016-12-13 | Flir Systems, Inc. | Line based image processing and flexible memory system |
US9509924B2 (en) | 2011-06-10 | 2016-11-29 | Flir Systems, Inc. | Wearable apparatus with integrated infrared imaging module |
US9473681B2 (en) | 2011-06-10 | 2016-10-18 | Flir Systems, Inc. | Infrared camera system housing with metalized surface |
US9900526B2 (en) | 2011-06-10 | 2018-02-20 | Flir Systems, Inc. | Techniques to compensate for calibration drifts in infrared imaging devices |
US10250822B2 (en) | 2011-06-10 | 2019-04-02 | Flir Systems, Inc. | Wearable apparatus with integrated infrared imaging module |
US9269177B2 (en) | 2011-06-10 | 2016-02-23 | Lg Electronics Inc. | Method for processing image and apparatus for processing image |
US9716844B2 (en) | 2011-06-10 | 2017-07-25 | Flir Systems, Inc. | Low power and small form factor infrared imaging |
US10230910B2 (en) | 2011-06-10 | 2019-03-12 | Flir Systems, Inc. | Infrared camera system architectures |
US9235023B2 (en) | 2011-06-10 | 2016-01-12 | Flir Systems, Inc. | Variable lens sleeve spacer |
US9143703B2 (en) | 2011-06-10 | 2015-09-22 | Flir Systems, Inc. | Infrared camera calibration techniques |
US9058653B1 (en) | 2011-06-10 | 2015-06-16 | Flir Systems, Inc. | Alignment of visible light sources based on thermal images |
US10051210B2 (en) | 2011-06-10 | 2018-08-14 | Flir Systems, Inc. | Infrared detector array with selectable pixel binning systems and methods |
US10079982B2 (en) | 2011-06-10 | 2018-09-18 | Flir Systems, Inc. | Determination of an absolute radiometric value using blocked infrared sensors |
US10169666B2 (en) | 2011-06-10 | 2019-01-01 | Flir Systems, Inc. | Image-assisted remote control vehicle systems and methods |
WO2013067683A1 (en) * | 2011-11-08 | 2013-05-16 | Industrial Technology Research Institute | Method and image acquisition system for rendering stereoscopic images from monoscopic images |
USD765081S1 (en) | 2012-05-25 | 2016-08-30 | Flir Systems, Inc. | Mobile communications device attachment with camera |
WO2014007414A1 (en) * | 2012-07-06 | 2014-01-09 | Lg Electronics Inc. | Terminal for increasing visual comfort sensation of 3d object and control method thereof |
US9674501B2 (en) | 2012-07-06 | 2017-06-06 | Lg Electronics Inc. | Terminal for increasing visual comfort sensation of 3D object and control method thereof |
US9811884B2 (en) | 2012-07-16 | 2017-11-07 | Flir Systems, Inc. | Methods and systems for suppressing atmospheric turbulence in images |
US9635220B2 (en) | 2012-07-16 | 2017-04-25 | Flir Systems, Inc. | Methods and systems for suppressing noise in images |
US9973692B2 (en) | 2013-10-03 | 2018-05-15 | Flir Systems, Inc. | Situational awareness by compressed display of panoramic views |
US11297264B2 (en) | 2014-01-05 | 2022-04-05 | Teledyne Fur, Llc | Device attachment with dual band imaging sensor |
Also Published As
Publication number | Publication date |
---|---|
KR100294925B1 (en) | 2001-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100294925B1 (en) | 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor | |
US11989842B2 (en) | Head-mounted display with pass-through imaging | |
US8130260B2 (en) | System and method for 3-dimensional display of image data | |
Ware et al. | Dynamic adjustment of stereo display parameters | |
KR101926577B1 (en) | Expanded 3D stereoscopic display system | |
Bruder et al. | Distance estimation in large immersive projection systems, revisited | |
KR20130028878A (en) | Combined stereo camera and stereo display interaction | |
JP5167439B1 (en) | Stereoscopic image display apparatus and stereoscopic image display method | |
JPH0676073A (en) | Method and apparats for generating solid three- dimensional picture | |
WO2009136207A1 (en) | Display of 3-dimensional objects | |
WO2018158765A1 (en) | Display system with video see-through | |
Ware | Dynamic stereo displays | |
JPH1074269A (en) | Stereoscopic cg moving image generator | |
JP2018151459A (en) | Stereoscopic vision device | |
Baker | Generating images for a time-multiplexed stereoscopic computer graphics system | |
US20210327121A1 (en) | Display based mixed-reality device | |
Pastoor et al. | Mixed reality displays | |
Zhang | Design of Head mounted displays | |
JPH03296176A (en) | High-speed picture generating/displaying method | |
JP2011215176A (en) | Image processing apparatus and method | |
JP2020031413A (en) | Display device, mobile body, mobile body control system, manufacturing method for them, and image display method | |
KR100893381B1 (en) | Methods generating real-time stereo images | |
Teng et al. | Manipulation of motion parallax gain distorts perceived distance and object depth in virtual reality | |
US6614426B1 (en) | Method and device for displaying simulated 3D space as an image | |
US20050162392A1 (en) | Display system and three-dimensional display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120329 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20130328 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20160330 Year of fee payment: 16 |
|
FPAY | Annual fee payment |
Payment date: 20170330 Year of fee payment: 17 |
|
LAPS | Lapse due to unpaid annual fee |