KR20010001341A - 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor - Google Patents

3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor Download PDF

Info

Publication number
KR20010001341A
KR20010001341A KR1019990020487A KR19990020487A KR20010001341A KR 20010001341 A KR20010001341 A KR 20010001341A KR 1019990020487 A KR1019990020487 A KR 1019990020487A KR 19990020487 A KR19990020487 A KR 19990020487A KR 20010001341 A KR20010001341 A KR 20010001341A
Authority
KR
South Korea
Prior art keywords
binocular
viewpoint
distance
dimensional
viewpoints
Prior art date
Application number
KR1019990020487A
Other languages
Korean (ko)
Other versions
KR100294925B1 (en
Inventor
김도균
장의선
Original Assignee
윤종용
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 윤종용, 삼성전자 주식회사 filed Critical 윤종용
Priority to KR1019990020487A priority Critical patent/KR100294925B1/en
Publication of KR20010001341A publication Critical patent/KR20010001341A/en
Application granted granted Critical
Publication of KR100294925B1 publication Critical patent/KR100294925B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D46/00Filters or filtering processes specially modified for separating dispersed particles from gases or vapours
    • B01D46/0002Casings; Housings; Frame constructions
    • B01D46/0005Mounting of filtering elements within casings, housings or frames
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D2258/00Sources of waste gases
    • B01D2258/06Polluted air
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B01PHYSICAL OR CHEMICAL PROCESSES OR APPARATUS IN GENERAL
    • B01DSEPARATION
    • B01D2271/00Sealings for filters specially adapted for separating dispersed particles from gases or vapours
    • B01D2271/02Gaskets, sealings

Landscapes

  • Chemical & Material Sciences (AREA)
  • Chemical Kinetics & Catalysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PURPOSE: A method for generating a three-dimension graphic image and a binocular vision difference controlling method therefor are provided to generate a three-dimension graphic image by rendering image signals inputted from two points and to prevent the maximum vision difference between two images from exceeding a fusion range of both eyes. CONSTITUTION: A method for generating a three-dimension graphic image and a binocular vision difference controlling method therefor comprise the following steps. The first step is to calculate three-dimension information on an object and a moved position of a virtual viewpoint. The second step is to calculate a maximum and minimum distances between the calculated virtual viewpoint and a three-dimension world. The third step is to calculate a position of binocular viewpoints based upon the distance between the binocular viewpoints. The fifth step is to calculate an orientation of the binocular viewpoints. The sixth step is to acquire images projected from a three dimension to a two dimension world and generate a three-dimension graphic image by a stereo rendering of the two acquired images. Accordingly, a feeling of depth relative to circumferential objects is acquired and a feeling of fatigue is reduced.

Description

3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법{3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor}3D graphic image generation method and binocular disparity adjustment method therefor {3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor}

본 발명은 3차원 그래픽 영상 생성 방법 및 이를 위한 양안 시차 조절 방법에 관한 것이다.The present invention relates to a method for generating a 3D graphic image and a binocular disparity adjusting method therefor.

3차원 컴퓨터 그래픽을 위한 종래의 시차 발생 방식은 컴퓨터 모니터에 양안이 보는 영상을 교대로 뿌려주는 방식이다. 따라서 3차원 세계에서 각각 서로 다른 깊이를 가지는 여러 영상이 실제로는 물리적으로 동일 거리에 있는 모니터 화면상에 뿌려지게 된다. 이 때, 인간이 모니터상에 뿌려진 영상을 보려고 한다면 인간의 양안은 시차에 의해 대상 물체가 물리적으로 위치하는 깊이에서 양안의 중심 축이 교차하도록 움직인다. 이 위치는 시차에 따라 실제 모니터의 앞이나 뒤가 될 것이다. 그런데, 실제로 그 대상 물체의 영상은 모니터 바로 위에 위치하게 되므로 인간의 양안은 모니터 위에 초점을 맞추게 된다. 이는 인간이 3차원 세계를 바라볼 때 동작하는 양안의 수렴-초점(convergence-focus) 시스템과는 다르게 양안을 움직이도록 한다.The conventional parallax generating method for three-dimensional computer graphics is a method of alternately spraying the image seen by both eyes on the computer monitor. Therefore, in the three-dimensional world, several images having different depths are actually scattered on the monitor screen which are physically at the same distance. At this time, if a human is to see the image sprayed on the monitor, both human eyes move so that the central axis of both eyes intersect at the depth where the object is physically located by parallax. This position will be in front of or behind the actual monitor depending on the time difference. However, since the image of the object is actually located directly on the monitor, both eyes of the human being are focused on the monitor. This allows the binocular to move differently from the convergence-focus system of the binocular, which operates when a human looks at the three-dimensional world.

도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이고, 도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.FIG. 1A illustrates how a human sees a three-dimensional world, and FIG. 1B illustrates a stereo image synthesis method in computer graphics.

일반적으로, 수렴을 위해 눈동자 자체를 움직이는 근육과 초점을 맞추도록 수정체를 움직이는 근육의 메커니즘은 독립적이다. 그러나, 인간이 공간적인 깊이감을 느끼는 경험을 수없이 겪게 되면서 두 시스템은 경험적으로 매우 밀접하게 결합되어 동작한다. 따라서, 수렴-초점의 불일치(discrepancy)는 3차원 세계를 보는 것과는 다른 부자연스러운 느낌을 주므로, 인간의 눈에 피로감을 준다. 그러나, 인간이 3차원 세계를 볼 때는 관심의 대상이 되는 물체가 항상 수렴과 초점이 일치되도록 움직이고 이를 기준으로 다른 물체들의 상대적인 깊이감을 인식하기 때문에 피로감을 느끼지 못한다.In general, the mechanisms of the muscles that move the lens to focus and the muscles that move the eyes themselves for convergence are independent. However, as the human being experiences a sense of spatial depth, the two systems work closely together empirically. Thus, the convergence-focused discrepancy gives an unnatural feeling that is different from seeing a three-dimensional world, resulting in fatigue in the human eye. However, when a human sees a three-dimensional world, the object of interest always moves so that convergence and focus coincide, and based on it, he does not feel tired because he perceives the relative depth of other objects.

또한, 인간이 양안을 통해 관심을 가지고 임의의 깊이에 위치하는 물체를 보고 있는 경우 이와 현저하게 차이가 있는 깊이에 있는 물체는 둘로 보이게 된다. 이를 더블 비젼(double-vision)이라 한다. 이는 물체가 가지는 시차가 인간이 깊이감을 느낄 수 있는 양안 융합 범위를 초과함으로써 발생한다. 실제로, 손가락을 눈앞에 가까이 위치시키고 눈은 멀리 떨어져 있는 다른 물체를 보면 손가락이 둘로 보이는 이치와도 같다.In addition, when a human is looking at an object located at an arbitrary depth with interest through both eyes, an object at a depth that is significantly different from this is seen as two. This is called double-vision. This occurs because the parallax of an object exceeds the range of binocular fusion in which humans can feel a sense of depth. In fact, if you look at another object with your fingers near your eyes and your eyes far away, it's like having two fingers.

종래의 3차원 컴퓨터 그래픽을 위한 시차 발생 방법은 3차원 세계를 모니터상에 스테레오 렌더링(stereo rendering)하는 경우, 관찰자가 관심을 가지고보는 물체를 알 수 없기 때문에 어느 한 깊이를 기준으로 인간의 수렴-초점 시스템을 모의실험(simulation)하거나 무한대의 거리를 시차 발생의 기준으로하여 3차원 그래픽을 생성한다. 따라서, 인간이 관심을 가지고 보는 물체가 지정된 물체와 일치하지 않을 경우 수렴-초점 불일치가 발생한다. 이러한 상태에서는 양안에 투영되는 영상의 시차를 인간의 양안 융합 범위 안에 들어오도록 하더라도 더블 비젼만을 해결할 수 있다. 결과적으로, 양안에 투영되는 영상의 시차가 고정되어 있으므로, 관찰자가 관심있게 보는 영역에 대해 수렴과 초점을 일치시키는 과정이 없다면 수렴-초점 불일치 문제를 해결되지 않는다.The conventional parallax generation method for three-dimensional computer graphics is that when stereo rendering a three-dimensional world on a monitor, the convergence of the human being based on one depth is not known because the observer does not know the object of interest. Simulate a focus system or generate 3D graphics based on parallax generation based on infinite distances. Thus, convergence-focus mismatch occurs when the object that a human is interested in does not match the specified object. In this state, even if the parallax of the image projected by both eyes falls within the range of human binocular fusion, only double vision can be solved. As a result, since the parallax of the image projected by both eyes is fixed, the convergence-focus mismatch problem is not solved unless there is a process of matching convergence and focus on an area that the viewer is interested in.

본 발명이 이루고자하는 기술적 과제는 사용자가 관심을 가지고 보는 물체가 변경될 때마다 그 정보를 사용자로부터 입력받고 해당 물체에 대해 수렴과 초점이 일치되도록 컴퓨터 그래픽에서 양안에 해당되는 두 시점(viewpoint)을 통하여 보는 2개의 투사된 영상을 생성하고 이를 렌더링하여 3차원 그래픽 영상을 생성하는 방법 및 이를 위해 생성된 영상간에 발생하는 최대 시차가 인간의 양안 융합 범위를 초과하지 않도록 두 시점사이의 거리를 조절하는 방법을 제공하는데 있다.The technical problem to be achieved by the present invention is to receive two points of view (viewpoint) corresponding to both eyes in the computer graphics so that the information is received from the user whenever the object that the user is interested in is changed and the convergence and focus of the object are matched. A method of generating two projected images and rendering them to generate a 3D graphic image, and adjusting the distance between two viewpoints so that the maximum parallax between the generated images does not exceed the range of human binocular fusion. To provide a method.

도 1a는 인간이 3차원 세계를 보는 방법을 도시한 것이다.1A illustrates how a human sees a three-dimensional world.

도 1b는 컴퓨터 그래픽에서 스테레오 영상 합성 방법을 도시한 것이다.1B illustrates a stereo image synthesis method in computer graphics.

도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다.2 is a flowchart illustrating a method of generating a 3D graphic image according to the present invention.

도 3은 3차원 세계 좌표와 가상 시점 좌표를 도시한 것이다.3 illustrates three-dimensional world coordinates and virtual viewpoint coordinates.

도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다.4 illustrates an example of crossing an optical axis at a binocular viewpoint for an object of interest.

상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계; 상기 양안 시점의 방향을 구하는 제5단계; 및 상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로한다.According to an aspect of the present invention, there is provided a method including: a first step of calculating three-dimensional information and a moving position of a virtual viewpoint from an observation point movement information and virtual viewpoint movement information of an object input by a user; Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a position of the binocular viewpoints from the obtained binocular viewpoint distances; A fifth step of obtaining a direction of the binocular viewpoint; And a sixth step of obtaining images projected in two dimensions with respect to a three-dimensional world from the positions and directions of the binocular viewpoint, respectively, and stereo rendering the obtained two images to generate a three-dimensional graphic image.

상기 기술적 과제를 이루기위한, 본 발명은 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; 및 상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로한다.According to an aspect of the present invention, there is provided a method including: a first step of calculating three-dimensional information and a moving position of a virtual viewpoint from an observation point movement information and virtual viewpoint movement information of an object input by a user; Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a location of the binocular viewpoints from the obtained distances; And a fifth step of obtaining a direction of the binocular viewpoint.

이하에서 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세히 설명하기로 한다. 도 2는 본 발명에 따른 3차원 그래픽 영상 생성 방법에 대한 흐름도이다. 도 2에 따른 3차원 그래픽 영상 생성 방법은 사용자의 정보입력 단계(200), 물체의 3차원 정보 및 가상 시점 이동 위치 계산 단계(202), 가상 시점의 위치와 3차원 세계간 최대, 최소 거리 계산 단계(204), 양안 시점간 거리 계산 단계(206), 양안 시점의 위치 계산 단계(208), 양안 시점의 방향 계산 단계(210), 양안 시점에서 2차원 투사 영상 생성 단계(212) 및 렌더링 단계(214)를 포함한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. 2 is a flowchart illustrating a method of generating a 3D graphic image according to the present invention. In the method of generating a 3D graphic image according to FIG. 2, the user inputs information 200, calculates 3D information of an object and a virtual viewpoint moving position 202, and calculates maximum and minimum distances between a virtual viewpoint and a 3D world. Step 204, the distance between the binocular viewpoint calculation step 206, the position calculation step 208 for the binocular viewpoint, the direction calculation step 210 for the binocular viewpoint, the two-dimensional projection image generation step 212 and the rendering step at both eyes 214.

먼저, 사용자는 다수의 물체들이 존재하는 3차원 컴퓨터 그래픽 영상을 생성하고자할 때, 두가지 정보를 입력한다(200단계). 하나는 사용자가 관심을 가지고 보는 물체를 변경하거나 동일한 물체에서도 관찰점을 변경하는 경우 사용자는 이에 대한 정보를 입력 장치, 예를 들어, 응시 인식 장치 또는 마우스 등을 통해 입력한다. 여기서, 관찰점이란 관찰자의 양안에 해당하는 좌/우 두 시점이 바라보는 물체에 위치하는 점이다. 예를 들어, 관찰점은 해당 물체의 중심점이 될 수 있다. 물체의 중심점은 다음 식과 같이 해당 물체의 3차원 경계값을 평균한 값으로부터 구할 수 있다.First, when a user wants to generate a 3D computer graphic image in which a plurality of objects exist, the user inputs two pieces of information (step 200). For example, when the user changes an object of interest or changes an observation point in the same object, the user inputs information about the object through an input device, for example, a gaze recognition device or a mouse. Here, the observation point is a point where two left and right viewpoints corresponding to both eyes of the observer are located on the object viewed. For example, the observation point may be the center point of the object. The center point of an object can be obtained from an average of three-dimensional boundary values of the object as shown in the following equation.

여기서, Ox,Oy,Oz는 해당 물체의 3차원 중심좌표이고, imax,imin는 각각 해당 물체의 i축 방향으로의 최대, 최소 경계값이다.Here, O x , O y , O z are the three-dimensional center coordinates of the object, and i max and i min are the maximum and minimum boundary values in the i-axis direction of the object, respectively.

다른 하나는 3차원 세계를 자유로이 이동하기 위해서 사용자가 입력하는 가상 시점의 이동 정보이다. 시점은 3차원 세계를 2차원 모니터상에 투영하기 위해, 예를 들어, 카메라와 같은 투영장치가 위치하는 3차원 공간상의 한 점이다. 인간이 3차원 세계를 바라보기 위해서는 두 눈이 있어야하고 그 두 눈이 어디를 향하고 있으며 두 눈을 포함하는 머리의 공간적 방향을 정해야 한다. 마찬가지로 시점도 상술한 요소들을 모두 포함해야한다. 도 3은 이러한 요소들을 도시한 것이다. 도 3에 따르면, 3차원 세계 좌표(X,Y,Z) 상의 3차원 물체를 2차원 모니터에 투영하기 위해서는 시점(V), 시점에서 바라보는 방향을 나타내는 방향 벡터(O), 시점의 법선 방향을 가리키는 헤드 벡터(H)가 필요하다.The other is movement information of a virtual viewpoint input by a user in order to move freely in the 3D world. A viewpoint is a point in three-dimensional space in which a projection device such as a camera is located, for example, to project a three-dimensional world onto a two-dimensional monitor. In order to see a three-dimensional world, humans must have two eyes, where they are facing, and determine the spatial direction of the head that contains them. Similarly, the viewpoint must include all of the above-mentioned elements. 3 illustrates these elements. According to FIG. 3, in order to project a three-dimensional object on three-dimensional world coordinates (X, Y, Z) onto a two-dimensional monitor, the viewpoint V, a direction vector O indicating a direction viewed from the viewpoint, and a normal direction of the viewpoint A head vector H is needed.

가상 시점은 인간의 양안에 해당되는 좌우 두 시점을 얻기 위해 편의상 정의한 시점으로서, 3차원 공간상에서 좌우 두 시점을 이은 선분의 중심점에 위치한다.The virtual viewpoint is a viewpoint defined for convenience to obtain two left and right viewpoints corresponding to both eyes of a human, and is located at the center point of a line segment connecting two left and right viewpoints in three-dimensional space.

이렇게 입력된 정보들을 이용하여 3차원 세계에서 해당 물체의 임의의 점을 관찰점으로 정한다. 이를 이용하여 현재 가상 시점 위치로부터 이동 후의 가상 시점의 새로운 위치를 계산한다(202단계).Using the inputted information, an arbitrary point of the object in the three-dimensional world is determined as an observation point. Using this, a new position of the virtual viewpoint after the movement is calculated from the current virtual viewpoint position (step 202).

다음으로, 현재 정의된 모든 물체를 포함하는 3차원 세계와 가상 시점사이의 최대 및 최소 거리를 구한다(204단계). 최대 및 최소 거리는 각각 가상 시점에서 3차원 세계까지의 최대 및 최소 깊이에 해당한다.Next, the maximum and minimum distances between the three-dimensional world and the virtual viewpoint including all currently defined objects are calculated (step 204). The maximum and minimum distances correspond to the maximum and minimum depths from the virtual viewpoint to the three-dimensional world, respectively.

204단계에서 구해진 최대 및 최소 거리간 차(깊이)를 구한다. 이 차로부터 가시거리에 따라 허용되는 양안 시점간 거리를 구한다(206단계). 실험적으로 결정된 양안 시점간 거리 ES는 다음 식과 같이 구할 수 있다.The difference (depth) between the maximum and minimum distances obtained in step 204 is obtained. From this difference, the distance between the binocular viewpoints allowed according to the visible distance is calculated (step 206). The experimentally determined distance between binocular viewpoints ES can be obtained as follows.

여기서, z는 최대 거리와 최소 거리의 차이고, s는 모니터 스크린의 높이이다.Where z is the difference between the maximum and minimum distances and s is the height of the monitor screen.

수학식 2에 따르면, 모니터 스크린의 높이가 일정하다고 가정하면, 양안 시점간 거리는 바라보는 3차원 세계의 최대 거리와 최소 거리의 차가 클수록 작아지고, 차이가 클수록 커지는 것을 알 수 있다. 따라서, 3차원 세계 전체의 깊이 차가 큰 경우 양안 시점 사이의 거리를 줄임으로써 결과적으로 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 작아진다.According to Equation 2, assuming that the height of the monitor screen is constant, it can be seen that the distance between the binocular viewpoints becomes smaller as the difference between the maximum distance and the minimum distance of the three-dimensional world viewed is larger, and the larger the difference is. Therefore, when the depth difference of the entire three-dimensional world is large, the distance between the binocular viewpoints is reduced, and as a result, the parallax for the same object between the left and right images projected on the monitor is reduced.

반대로, 3차원 세계 전체의 깊이 차가 작은 경우, 양안 시점 사이의 거리를 늘림으로써 모니터에 투영되어 나타나는 좌/우 영상사이의 동일 물체에 대한 시차가 커져서 전체적으로 깊이감이 크게 된다.On the contrary, when the depth difference of the whole 3D world is small, the parallax with respect to the same object between the left and right images projected on a monitor becomes large by increasing the distance between binocular viewpoints, and the depth sense becomes large overall.

상기 수학식 2에 따라 결정된 양안 시점간 거리 ES로부터 양안 시점의 위치를 결정한다(208단계). 좌측 시점의 위치 EL, 우측 시점의 위치 ER는 각각 다음 식과 같이 결정된다.In step 208, the position of the binocular viewpoint is determined from the distance ES between the binocular viewpoint determined according to Equation 2 above. Position E at the left viewL, Position E at rightRAre respectively determined by the following equations.

구해진 양안 시점의 위치에서 바라보는 방향이 그 물체의 중심점에서 일치하도록 좌측 시점의 방향 ELO, 우측 시점의 방향 ERO를 다음 식과 같이 결정한다(210단계).The direction E LO of the left view and the direction E RO of the right view are determined as shown in the following equation so that the direction viewed from the obtained position of the binocular view coincides with the center point of the object (step 210).

이와 같이 설정된 양안 시점에서 생성된 3차원 세계의 2차원 투영 영상에서 사용자가 관심을 가지는 물체의 시차는 0이 되고, 물리적인 깊이는 컴퓨터 모니터 위가 되어 수렴과 초점이 일치하게 된다.The parallax of the object of interest to the user in the two-dimensional projection image of the three-dimensional world generated at the binocular viewpoint set as described above becomes zero, and the physical depth is on the computer monitor so that convergence and focus are coincident.

도 4는 관심있는 물체에 대해 양안 시점에서 광축을 교차시키는 예를 도시한 것이다. 도시된 바에 따르면, 양안 시점의 위치에서 바라보는 방향이 관심있는 물체(물체 2)의 중심점에서 일치하도록 결정되었음을 알 수 있다.4 illustrates an example of crossing an optical axis at a binocular viewpoint for an object of interest. As shown, it can be seen that the direction viewed from the position of the binocular viewpoint was determined to coincide at the center point of the object of interest (object 2).

상술한 바와 같이 결정된 양안 시점의 위치와 양안 시점이 바라보는 방향을 이용하여 3차원 공간에 대한 2개의 투사된 영상을 생성하고(212단계), 스테레오 렌더링하여 3차원 그래픽 영상을 생성한다(214단계).Using the position of the binocular viewpoint and the direction viewed by the binocular viewpoint determined as described above, two projected images of the three-dimensional space are generated (step 212), and stereo rendering to generate a three-dimensional graphic image (step 214). ).

본 발명에 따르면, 사용자로부터 응시할 물체의 변경 또는 동일 물체내에서의 관찰점 변경에 대한 정보를 입력받고, 해당 물체에 대한 수렴 및 초점이 일치되도록 카메라의 양안 시점의 위치 및 방향을 결정하여 2차원으로 투영함으로써 주변 물체들에 대해 상대적 깊이감을 얻을 수 있고, 눈의 피로감을 감소시킬 수 있다.According to the present invention, the user receives information about a change of an object to be gazed or a change of an observation point within the same object, and determines the position and direction of binocular viewpoints of the camera so that convergence and focus of the object are matched, and thus two-dimensional. By projecting in, the relative depth of the surrounding objects can be obtained, and the eye fatigue can be reduced.

Claims (10)

사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계;A first step of calculating three-dimensional information about the object and a moving position of the virtual viewpoint from the observation point movement information and the virtual viewpoint movement information of the object input by the user; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계;Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 양안 시점 거리로부터 양안 시점의 위치를 구하는 제4단계;A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a position of the binocular viewpoints from the obtained binocular viewpoint distances; 상기 양안 시점의 방향을 구하는 제5단계; 및A fifth step of obtaining a direction of the binocular viewpoint; And 상기 양안 시점의 위치 및 방향에서 각각 3차원 세계에 대해 2차원으로 투사된 영상들을 얻고, 얻어진 두 영상들을 스테레오 렌더링하여 3차원 그래픽 영상을 생성하는 제6단계를 포함함을 특징으로하는 3차원 그래픽 영상 생성 방법.And a sixth step of obtaining images projected in two dimensions with respect to a three-dimensional world from the positions and directions of the binocular views, respectively, and stereo rendering the obtained two images to generate a three-dimensional graphics image. How to create an image. 제1항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식The method of claim 1, wherein the distance between the binocular viewpoints ES of the fourth step is represented by the following equation when z represents the difference between the maximum distance and the minimum distance, and s represents the height of the monitor screen. 과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.3D graphic image generating method, characterized in that determined as follows. 제1항에 있어서, 상기 제4단계의 양안 시점의 위치는According to claim 1, wherein the position of the binocular viewpoint of the fourth step 구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 EL 및 우측 시점의 위치 ER각각은 다음의 수학식If the calculated distance between the binocular viewpoints is ES, then the position E of the left viewpointL And position E at the right viewpointREach of the following equations 과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.3D graphic image generating method, characterized in that determined as follows. 제1항에 있어서, 상기 제5단계의 양안 시점의 방향은The direction of the binocular viewpoint of the fifth step is 상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.And a direction in which the object is viewed at the position of the binocular viewpoint obtained in the fourth step is determined to coincide with the center point of the object. 제4항에 있어서, 상기 양안 시점의 방향은The method of claim 4, wherein the binocular viewpoint is 상기 제4단계에서 구해진 좌측 시점의 위치를 EL, 우측 시점의 위치를 ER, 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 ELO및 우측 시점의 방향 ERO은 각각 다음의 수학식When the position of the left view obtained in the fourth step is E L , the position of the right view is E R , and the three-dimensional coordinates of the object of interest are O, the direction E LO of the left view and the direction E RO of the right view are Each of the following equations 과 같이 결정됨을 특징으로하는 3차원 그래픽 영상 생성 방법.3D graphic image generating method, characterized in that determined as follows. 사용자가 입력한 물체의 관찰점 이동정보 및 가상 시점 이동 정보로부터 해당 물체에 대한 3차원 정보 및 가상 시점의 이동위치를 계산하는 제1단계;A first step of calculating three-dimensional information about the object and a moving position of the virtual viewpoint from the observation point movement information and the virtual viewpoint movement information of the object input by the user; 계산된 가상 시점과 3차원 세계간 최대, 최소 거리를 구하는 제2단계;Obtaining a maximum and minimum distance between the calculated virtual viewpoint and the three-dimensional world; 상기 최대 및 최소 거리간 차를 구하고, 구해진 차로부터 양안 시점 사이의 거리를 구하며, 구해진 거리로부터 양안 시점의 위치를 구하는 제4단계; 및A fourth step of obtaining a difference between the maximum and minimum distances, a distance between the binocular viewpoints from the obtained difference, and a location of the binocular viewpoints from the obtained distances; And 상기 양안 시점의 방향을 구하는 제5단계를 포함함을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.And a fifth step of obtaining a direction of the binocular viewpoint. 제6항에 있어서, 상기 제4단계의 양안 시점간 거리 ES는 z가 상기 최대 거리와 최소 거리의 차를 나타내고, s가 모니터 스크린의 높이를 나타낼 때, 다음의 수학식The method of claim 6, wherein the distance between the binocular viewpoints ES of the fourth step is represented by the following equation when z represents the difference between the maximum distance and the minimum distance, and s represents the height of the monitor screen. 과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.The binocular disparity adjusting method for three-dimensional graphics, characterized in that determined as follows. 제6항에 있어서, 상기 제4단계의 양안 시점의 위치는The method of claim 6, wherein the position of the binocular viewpoint of the fourth step is 구해진 양안 시점간 거리를 ES라 하면, 좌측 시점의 위치 EL 및 우측 시점의 위치 ER각각은 다음의 수학식If the calculated distance between the binocular viewpoints is ES, then the position E of the left viewpointL And position E at the right viewpointREach of the following equations 과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.The binocular disparity adjusting method for three-dimensional graphics, characterized in that determined as follows. 제6항에 있어서, 상기 제5단계의 양안 시점의 방향은The method of claim 6, wherein the direction of the binocular viewpoint in the fifth step is 상기 제4단계에서 구해진 양안 시점의 위치에서 물체를 바라보는 방향이 그 물체의 중심점에서 일치하도록 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.The method of controlling binocular disparity for three-dimensional graphics, characterized in that the direction in which the object is viewed at the position of the binocular viewpoint obtained in the fourth step is determined to coincide with the center point of the object. 제9항에 있어서, 상기 양안 시점의 방향은The method of claim 9, wherein the binocular viewpoint is 상기 제4단계에서 구해진 좌측 시점의 위치를 EL, 우측 시점의 위치를 ER, 그리고 관심있는 물체의 3차원 좌표를 O라 할 때, 좌측 시점의 방향 ELO및 우측 시점의 방향 ERO은 각각 다음의 수학식When the position of the left view obtained in the fourth step is E L , the position of the right view is E R , and the three-dimensional coordinates of the object of interest are O, the direction E LO of the left view and the direction E RO of the right view are Each of the following equations 과 같이 결정됨을 특징으로하는 3차원 그래픽을 위한 양안 시차 조절 방법.The binocular disparity adjusting method for three-dimensional graphics, characterized in that determined as follows.
KR1019990020487A 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor KR100294925B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Publications (2)

Publication Number Publication Date
KR20010001341A true KR20010001341A (en) 2001-01-05
KR100294925B1 KR100294925B1 (en) 2001-07-12

Family

ID=19589835

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990020487A KR100294925B1 (en) 1999-06-03 1999-06-03 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor

Country Status (1)

Country Link
KR (1) KR100294925B1 (en)

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002015595A1 (en) * 2000-08-18 2002-02-21 Georae. Ltd. A method and system of revision for 3-dimensional image
US7084838B2 (en) 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
US8290244B2 (en) 2005-08-31 2012-10-16 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
WO2013067683A1 (en) * 2011-11-08 2013-05-16 Industrial Technology Research Institute Method and image acquisition system for rendering stereoscopic images from monoscopic images
WO2014007414A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747929B1 (en) * 2010-12-21 2017-06-16 한국전자통신연구원 Apparatus and method for improving image quality of stereoscopic images
KR102299774B1 (en) 2014-08-28 2021-09-09 삼성전자주식회사 Method for configuring screen, electronic apparatus and storage medium

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002015595A1 (en) * 2000-08-18 2002-02-21 Georae. Ltd. A method and system of revision for 3-dimensional image
US7084838B2 (en) 2001-08-17 2006-08-01 Geo-Rae, Co., Ltd. Method and system for controlling the motion of stereoscopic cameras using a three-dimensional mouse
US7091931B2 (en) 2001-08-17 2006-08-15 Geo-Rae Co., Ltd. Method and system of stereoscopic image display for guiding a viewer's eye motion using a three-dimensional mouse
US8290244B2 (en) 2005-08-31 2012-10-16 Samsung Electronics Co., Ltd. Apparatus and method for controlling depth of three-dimensional image
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10033944B2 (en) 2009-03-02 2018-07-24 Flir Systems, Inc. Time spaced infrared image enhancement
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9918023B2 (en) 2010-04-23 2018-03-13 Flir Systems, Inc. Segmented focal plane array architecture
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9723228B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Infrared camera system architectures
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
WO2012169693A1 (en) * 2011-06-10 2012-12-13 엘지전자 주식회사 Method for processing image and apparatus for processing image
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9538038B2 (en) 2011-06-10 2017-01-03 Flir Systems, Inc. Flexible memory systems and methods
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10250822B2 (en) 2011-06-10 2019-04-02 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9269177B2 (en) 2011-06-10 2016-02-23 Lg Electronics Inc. Method for processing image and apparatus for processing image
US9716844B2 (en) 2011-06-10 2017-07-25 Flir Systems, Inc. Low power and small form factor infrared imaging
US10230910B2 (en) 2011-06-10 2019-03-12 Flir Systems, Inc. Infrared camera system architectures
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
WO2013067683A1 (en) * 2011-11-08 2013-05-16 Industrial Technology Research Institute Method and image acquisition system for rendering stereoscopic images from monoscopic images
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
WO2014007414A1 (en) * 2012-07-06 2014-01-09 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3d object and control method thereof
US9674501B2 (en) 2012-07-06 2017-06-06 Lg Electronics Inc. Terminal for increasing visual comfort sensation of 3D object and control method thereof
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9635220B2 (en) 2012-07-16 2017-04-25 Flir Systems, Inc. Methods and systems for suppressing noise in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor

Also Published As

Publication number Publication date
KR100294925B1 (en) 2001-07-12

Similar Documents

Publication Publication Date Title
KR100294925B1 (en) 3-D graphic image manufacturing method and binocular visual disparity adjustment method therefor
US11989842B2 (en) Head-mounted display with pass-through imaging
US8130260B2 (en) System and method for 3-dimensional display of image data
Ware et al. Dynamic adjustment of stereo display parameters
KR101926577B1 (en) Expanded 3D stereoscopic display system
Bruder et al. Distance estimation in large immersive projection systems, revisited
KR20130028878A (en) Combined stereo camera and stereo display interaction
JP5167439B1 (en) Stereoscopic image display apparatus and stereoscopic image display method
JPH0676073A (en) Method and apparats for generating solid three- dimensional picture
WO2009136207A1 (en) Display of 3-dimensional objects
WO2018158765A1 (en) Display system with video see-through
Ware Dynamic stereo displays
JPH1074269A (en) Stereoscopic cg moving image generator
JP2018151459A (en) Stereoscopic vision device
Baker Generating images for a time-multiplexed stereoscopic computer graphics system
US20210327121A1 (en) Display based mixed-reality device
Pastoor et al. Mixed reality displays
Zhang Design of Head mounted displays
JPH03296176A (en) High-speed picture generating/displaying method
JP2011215176A (en) Image processing apparatus and method
JP2020031413A (en) Display device, mobile body, mobile body control system, manufacturing method for them, and image display method
KR100893381B1 (en) Methods generating real-time stereo images
Teng et al. Manipulation of motion parallax gain distorts perceived distance and object depth in virtual reality
US6614426B1 (en) Method and device for displaying simulated 3D space as an image
US20050162392A1 (en) Display system and three-dimensional display method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120329

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20130328

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 16

FPAY Annual fee payment

Payment date: 20170330

Year of fee payment: 17

LAPS Lapse due to unpaid annual fee