KR20060063265A - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20060063265A KR20060063265A KR1020040102386A KR20040102386A KR20060063265A KR 20060063265 A KR20060063265 A KR 20060063265A KR 1020040102386 A KR1020040102386 A KR 1020040102386A KR 20040102386 A KR20040102386 A KR 20040102386A KR 20060063265 A KR20060063265 A KR 20060063265A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- distance
- distance information
- cameras
- images
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Geometry (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 영상 처리 방법 및 장치에 관한 것으로, 영상의 색깔이나 패턴과는 상관없이 촬영된 대상의 거리 정보를 이용하여 해당 대상을 영상에서 제거하고 합성하는 방법 및 장치에 관한 것이다.
이를 위하여, 본 발명에 따른 영상 처리 방법은, 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 한다.
영상 처리, 합성, 거리, 양안차
Description
도 1은 본 발명에 따른 영상 처리 방법의 흐름도.
도 2는 본 발명에 따라 대응되는 픽셀을 맵핑하는 과정을 설명하기 위한 도면.
도 3은 본 발명에 따라 두 영상의 양안차와 촬영된 대상까지의 거리를 계산하는 방법을 설명하기 위한 도면.
도 4는 본 발명에 따라 사용자가 배경을 제거하고 제거된 배경에 다른 영상을 합성한 예를 나타내는 도면.
도 5는 본 발명에 따른 영상 처리 장치의 구성도.
본 발명은 영상 처리 방법 및 장치에 관한 것으로, 보다 상세하게는 화상 통화나 영상 촬영 시 촬영된 영상에서 카메라로부터 일정 거리의 영상을 제거하고 합성할 수 있는 방법 및 장치에 관한 것이다.
동영상이나 정지영상 촬영에서 사용자 또는 정해진 물체의 주위로 보여지는 배경부분을 제거하여 사용자가 설정한 배경으로 변환하는 방법은 사용자에게 매우 다양한 서비스를 제공할 수 있다. 이러한 기술의 핵심은 카메라를 통하여 촬영된 영상에서 제거하려는 대상을 얼마나 정확하게 추출하느냐는 것이다.
이를 위해 종래에는 하나의 카메라로부터 얻어진 영상에서 색깔이나 에지 검출(Edge Detection) 등을 통한 패턴 인식을 통하여 제거하려는 영상을 추출하였다. 그러나 1차원 영상 정보만으로는 제거하려는 대상과 남기려는 대상의 구분이 모호할 뿐만 아니라 패턴 인식이 가지는 많은 제한으로 인해 제거하려는 대상의 추출 시 오류 확률이 높다. 예를 들어, 사람이 입고 있는 의상과 배경에 동일한 색깔이 존재하게 되면 1차원 영상에서는 그 구분이 모호할 수 밖에 없다. 한편, 이러한 종래의 패턴 인식 방법은 여러 단계의 처리 과정으로 인해 1초에 여러 프레임으로 이루어진 동영상에서는 처리 속도의 문제로 실시간으로 영상을 처리해야 하는 시스템에서는 실현 가능성이 적다.
상술한 문제점을 해결하기 위하여, 본 발명의 목적은 촬영된 대상의 거리 정보를 이용하여 해당 대상을 영상에서 제거하고 합성하는데 있다.
본 발명의 다른 목적은 두 대의 카메라를 이용하여 동일 대상을 촬영하고 두 카메라의 양안차를 이용하여 촬영 대상의 거리 정보를 추출하여 해당 대상을 영상에서 제거하고 합성하는데 있다.
본 발명의 또 다른 목적은 사용자가 영상에서 제거하고자 하는 범위를 직접 입력함으로써 선택적으로 영상을 제거하거나 합성할 수 있도록 하는데 있다.
본 발명의 또 다른 목적은 영상의 색깔이나 패턴과는 상관없이 정확하게 대상을 추출하는데 있다.
이를 위하여, 본 발명에 따른 영상 처리 방법은, 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 한다.
이를 위해 본 발명에 따른 영상 처리 방법은, 상기 두 대의 카메라를 이용하여 각각 영상을 촬영하는 과정; 상기 각 영상에 대해 동일한 대상의 대응 픽셀(Pixel)을 맵핑(Mapping)하는 과정; 상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 양안차를 계산하는 과정; 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 과정; 상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 제거하는 과정; 및 상기 제거된 영상을 다른 영상으로 합성하는 과정을 포함하는 것을 특징으로 한다.
그리고 상기 맵핑 과정은 상기 두 영상에 대하여 서브 블록 단위로 상관(Correlation) 값을 비교하여 수행된다. 상기 촬영 대상까지의 거리 정보는 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 계산된다.
그리고 본 발명에 따른 영상 처리 장치는, 각각 영상을 촬영하는 두 대의 카메라; 상기 두 카메라로부터 촬영된 각각의 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 픽셀 맵핑부; 상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 각 영상에 대한 양안차를 계산하고, 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 거리 정보 추출부; 및 상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 영상 합성부를 구비하는 것을 특징으로 한다.
여기서, 상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인(Epipolar Line)이 일치되도록 설치되어, 상기 두 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기로 촬영된다.
상기 픽셀 맵핑부는 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 상기 대응 픽셀을 맵핑한다.
상기 거리 정보 추출부는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 상기 촬영 대상까지의 거리 정보를 계산한다.
이하, 본 발명에 따른 바람직한 실시 예에 대하여 첨부 도면을 참조하여 상세히 설명한다.
도 1은 본 발명에 따라 거리 정보를 이용하여 영상을 처리하는 영상 처리 방법의 흐름도이다.
먼저 본 발명은 거리 정보를 추출하기 위하여 두 대의 카메라(이하 각각 '제 1 카메라', '제 2 카메라'라고 칭함)를 이용하여 각각 영상을 촬영한다(S11). 제 1 카메라에서 촬영된 제 1 영상과 제 2 카메라에서 촬영된 제 2 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것이 바람직하며, 양안차를 얻기 위하여 두 카메라의 에피폴라 라인을 일치시켜 좌우 대칭이 되도록 촬영되는 것이 바람직하다.
두 대의 카메라로부터 영상이 촬영되면 두 영상에서 동일한 대상에 대한 대응되는 픽셀을 찾아 맵핑한다(S12). 대응되는 픽셀을 맵핑한다는 것은 제 1 영상과 제 2 영상에서 동일한 좌표의 픽셀을 맵핑한다는 것이 아니라, 동일한 대상에 대하여 동일한 모양과 위치에 해당하는 픽셀을 각각 제 1 영상과 제 2 영상에서 찾는다는 것이다. 도 2를 참조하여 설명하면, 제 1 영상(21)에서 x, y 좌표 값이 (4, 3)인 픽셀 23과 매핑되는 제 2 영상(22)의 픽셀은, 같은 좌표 값 (4, 3)을 갖는 픽셀 24가 아니라 픽셀 25가 된다. 왜냐하면, 제 1 영상(21)의 픽셀 23은 삼각형의 한 꼭짓점이므로, 제 2 영상(22)에서도 동일한 대상인 삼각형에 대하여 동일한 모양과 위치(밑변의 양쪽을 구성하는 꼭짓점이 아닌 다른 꼭짓점으로서 모양과 위치가 동일함)에 해당하는 픽셀 25가 매핑되는 것이다.
상술한 바와 같은 대응되는 픽셀의 맵핑은 제 1 영상과 제 2 영상을 먼저 버퍼에 넣어두고 서브블록 단위로 상관(Correlation) 값을 구하여 대응되는 픽셀을 찾음으로써 수행된다.
두 영상의 동일한 대상에 대하여 픽셀이 맵핑되면, 대응되는 픽셀 정보를 이 용하여 제 1 영상과 제 2 영상의 양안차를 계산하고(S13) 이를 이용하여 촬영된 대상까지의 거리를 계산한다(S14). 즉, 동일 대상에 대하여 제 1 영상에서의 위치와 제 2 영상에서의 위치 차를 이용하여 양안차를 구하고 이를 이용하여 해당 대상까지의 거리를 계산한다.
도 3을 참조하여 제 1 영상과 제 2 영상의 양안차와 촬영된 대상까지의 거리를 계산하는 방법에 대하여 보다 상세하게 설명한다.
P는 촬영 대상이고, A와 B는 P가 각각 제 1 카메라와 제 2 카메라에 의해 촬영된 영상이다. CA는 제 1 카메라로 찍히는 영상의 중심이고 CB는 제 2 카메라로 찍히는 영상의 중심이다.
그리고 계산에 사용되는 각 파라미터는 다음과 같다.
L : 제 1 카메라의 중심(CA)과 제 2 카메라의 중심(CB) 사이의 거리.
f : 각 카메라의 포커스 길이.
dl : 제 1 카메라의 중심(CA)으로부터 제 1 카메라에 의해 촬영된 영상(A)까지의 거리.
dr : 제 2 카메라의 중심(CB)으로부터 제 2 카메라에 의해 촬영된 영상(B)까지의 거리.
a : 제 1 카메라로 찍히는 영상의 왼쪽 기준면으로부터 제 1 카메라에 의해 촬영된 영상(A)까지의 거리.
b : 제 2 카메라로 찍히는 영상의 왼쪽 기준면으로부터 제 2 카메라에 의해 촬영된 영상(B)까지의 거리.
X : 두 카메라의 중점으로부터 촬영된 대상 P까지의 거리.
도 3에서 X는 수학식 1과 같이 계산된다.
여기서 (dl+dr)은 (b-a)이므로, 수학식 1은 수학식 2과 같다.
여기서 (b-a)는 촬영 대상이 각 카메라에 의해 촬영된 영상의 상대적 차이 값으로 양안차라고 한다.
수학식 2에 의해 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이 및 양안차 정보를 알면 촬영 대상까지의 거리를 구할 수 있다. 이중 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이는 일반적으로 고정되어 있을 가능성이 크므로 양안차 정보만 있으면 물체까지의 거리를 쉽게 구할 수 있다. 그리고 수학식 2를 살펴보면, 양안차가 클수록 촬영 대상이 가까운 거리에 위치하고 양안차가 작을수록 먼 거리에 위치함을 알 수 있다. 본 발명은 이러한 거리 정보를 이용하여 색깔이나 에지 정보를 이용하는 것보다 더욱 정확하게 촬영된 영상으로부터 사물을 구별하는 것을 특징으로 한다.
보다 구체적으로, 본 발명을 이동 전화기에 적용한 실시 예를 통하여 본 발명의 특징을 더욱 상세하게 설명한다. 본 발명은 수학식 2에 의해 알 수 있듯이, 두 카메라의 중심 사이의 거리와 카메라의 포커스 길이 및 양안차에 영향을 받으므 로, 이동 전화기에 어떠한 종류의 카메라를 얼마만큼의 거리 차이로 설치하였느냐에 따라 거리 측정의 정밀도나 거리 측정 범위가 조금씩 변경될 수 있다.
본 실시 예에서는 카메라를 CMOS(Complementary Metal-Oxide Semiconductor) 이미지 센서로 구현하고, 카메라의 포커스 길이가 3mm이며, 두 카메라의 거리를 5cm가 되도록 설치하였다고 가정한다. 만약 CMOS 이미지 센서로 촬영되는 영상의 크기가 (1152×864)이면 영상의 한 픽셀의 크기는 3.2㎛가 되어 영상의 양안차 값을 3.2㎛의 해상도(Resolution)로 검출할 수 있게 된다.
이때 이러한 이동 전화기로 검출할 수 있는 가장 가까운 거리(XL)는 수학식 3과 같이 구할 수 있다.
여기서 단위는 cm이고, 이동 전화기로 검출할 수 있는 가장 가까운 거리에 물체가 위치할 때 양안차는 최대일 것이므로 이 때의 양안차 값은 영상의 가로 픽셀의 길이 즉, 이미지 센서의 폭이 된다.
변수의 값을 대입하면, XL = (5 × 0.3) / (1152 × 0.00032) 이므로, 이동 전화기로 검출할 수 있는 가장 가까운 거리는 약 5cm이다.
또한, 이러한 이동 전화기로 검출할 수 있는 가장 먼 거리(XH)는 수학식 4와 같이 구할 수 있다.
여기서 단위는 cm이고, 이동 전화기로 검출할 수 있는 가장 먼 거리에 물체가 위치할 때 양안차는 최소일 것이므로 이 때의 양안차 값은 픽셀 하나의 길이가 된다.
변수의 값을 대입하면, XL = (5 × 0.3) / (0.00032) 이므로, 이동 전화기로 약 46m까지의 거리를 구분할 수 있다. 그 이상의 거리는 가장 먼 위치의 영상과 같은 위치에 촬영되므로 원거리를 제거하는 경우에는 영향을 받지 않는다.
한편, 수학식 2를 면밀히 살펴보면, 가까운 거리일수록 세밀하게 측정할 수 있고 먼 거리일수록 해상도가 낮아지는 것을 알 수 있다. 하지만 이동 전화기로 화상 통화를 하는 경우에는 사람과 카메라가 장착되어 있는 이동 전화기 사이의 거리가 일반적으로 사람의 팔 길이 이상을 넘지 않을 것이므로 충분한 해상도를 확보할 수 있다. 이를 식으로 검증해 보면, 사람이 화상 통화를 할 경우 카메라와 사람 사이의 거리가 대략 30cm라고 하면, 수학식 2에 의해 양안차는 0.5mm가 되고, 한 픽셀의 크기가 3.2㎛이므로 대략 2mm 정도의 거리 차이를 구분해 낼 수 있는 해상도를 확보할 수 있다. 다시 말해서 화상 통화를 하는 사람이 위치하는 근방의 거리 정보는 2mm정도의 차이까지 구분해 낼 수 있다는 말이 된다. 본 발명은 이러한 특징을 이용하여 촬영된 영상에서 근소한 거리 차이의 대상까지 구분하여 제거할 수 있다.
한편, 각 픽셀 당 거리 정보가 추출되면, 각 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되는지의 여부를 판단한다(S15). 그리고 해당 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되면 해당 픽셀의 영상을 표시하고(S16), 그렇지 않으면 해당 픽셀 부분에 다른 영상을 합성할 것인지 판단한다(S17). 다른 영상을 합성할 것으로 판단되면, 해당 픽셀에 다른 영상을 합성하여 표시한다(S18). 즉, 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되지 않는 픽셀 부분에 다른 영상을 표시하는 것이다. 픽셀의 거리 정보가 영상에 표시될 거리의 범위에 포함되지 않으면서 해당 픽셀에 다른 영상을 합성할 것으로 판단되지 않으면, 해당 픽셀 부분에 어떠한 영상도 표시하지 않는다(S19). 이를 정리하면, 각 픽셀 당 거리 정보를 추출하여 영상에 표시될 거리의 범위에 포함되지 않을 경우 촬영된 대상을 영상에서 제거하고, 경우에 따라 제거된 영상 부분에 다른 영상을 합성하여 표시하는 것이다. 상술한 과정 S15 내지 S19에 대한 일 예를 프로그램으로 표현하면 다음과 같다.
for (x=0; x<=1152(영상의 가로 픽셀 수); x++)
{
for(y=0; y<=864(영상의 세로 픽셀 수); y++)
{
if( d(x.y)>=Disp_L && d(x,y)<=Disp_H )
{
SetPixel(x,y,image_from_camera(x,y));
}
else
{
SetPixel(x,y,image_from_userdefine(x,y);
}
}
}
여기서 변수는 다음과 같다.
x : 영상에서 x축 방향의 픽셀 위치.
y : 영상에서 y축 방향의 픽셀 위치.
d(x, y) : 좌표 (x, y) 위치에 있는 픽셀의 양안차.
Disp_L : 영상에 나타낼 거리 값 중 최소 거리의 양안차.
Disp_H : 영상에 나타낼 거리 값 중 최대 거리의 양안차.
즉, 상기 프로그램에 의해 영상에 표시되는 거리의 범위(DP)는 Disp_L ≤ DP ≤ Disp_H 이다. 그리고 Disp_L 와 Disp_H 은 영상에 나타낼 대상의 거리 정보만 있다면 수학식 2에 의해 쉽게 계산된다. SetPixel(x,y,image_from_camera(x,y))는 해당 좌표가 DP 내에 있을 경우 카메라에 의해 촬영된 영상을 그대로 나타내는 함수이고, SetPixel(x,y,image_from_userdefine(x,y)는 해당 좌표가 DP 내에 없을 경우 촬영된 영상을 대체하도록 미리 설정된 영상을 나타내는 함수이다.
한편, 일정 거리의 대상을 영상에서 제거하고 영상이 제거된 부분을 다른 영상으로 합성하는데 있어서, 제거될 대상의 거리 설정과 합성될 영상의 설정은 기본값으로 미리 설정되거나 사용자에 의해 설정될 수 있다. 또는 기본값으로 설정된 것을 사용자가 필요에 따라 변경하여 사용할 수도 있다.
예를 들면, 화상 통화 시 이동 전화기를 들고 화상 통화를 하는 사용자는 일반적으로 이동 전화기로부터 대략 15cm~1m 정도의 거리를 두고 화상 통화를 시도한다. 그러므로 두 대의 카메라로부터 양안차를 구하여 이를 거리로 환산하였을 때 15cm~1m 사이의 거리 값을 기본값으로 설정한다. 그리고 촬영된 영상에 대하여 픽셀의 거리 값이 기본값에 해당하면 해당 픽셀은 화면에 나타내고, 나머지 픽셀은 제거하여 이 부분에 기본값으로 설정된 영상이나 사용자가 설정한 영상을 합성하여 화면에 나타낸다.
그리고 사용자가 합성될 영상을 설정할 때에는 화상 통화 이전에 카메라의 미리 보기(Preview) 기능을 통해 일정 거리의 영상이 제거된 화면을 미리 확인하면서 영상에 나타내는 거리 범위를 수동으로 조절할 수 있다. 이때 사용자는 거리 범위를 cm 단위 또는 m 단위로 직접 입력할 수 있고, 이 값은 수학식 2에 의해 양안차 값으로 변환되어 상기 프로그램의 Disp_L 값과 Disp_H 값으로 설정된다.
또는 화면에 거리 범위를 설정하는 부분을 프로그레스 바(Progress Bar) 형태로 구성하여, 사용자가 미리 보기를 통해 제거될 영상의 범위를 눈으로 직접 확인하면서 프로그레스 바를 이용하여 조절할 수도 있다. 이때 Disp_L 값과 Disp_H 값은 프로그레스 바에 맞추어 자동 설정된다. 예를 들어, 화상 통화 시 사무실에서 자신의 모습만 전송하던 사용자가 사무실의 모습까지 전송하되 창 밖으로 보이는 배경은 전송하고 싶지 않다면 통화 중에 프로그레스 바를 이용하여 거리 범위를 조절하여 사무실의 모습까지만 보이도록 설정할 수 있다. 이때 창 밖 배경을 유럽이나 북극 등 다른 영상으로 바꾸어 전송할 수도 있다. 이렇게 거리 범위를 실시간으 로 조절해 가면서 영상을 제거하고 합성하는 것은 종래의 하나의 카메라로 패턴을 인식하는 방법으로는 수행할 수 없다.
도 4는 프로그레스 바를 이용하여 사용자가 배경을 제거하고 제거된 배경에 다른 영상을 합성한 예를 나타낸다.
a는 화면에 나타낼 거리를 멀리 하여 사용자와 배경이 모두 보이는 화면이고, b는 사용자가 프로그레스 바를 이용하여 화면에 나타낼 거리를 좀더 가까이 조절함으로써 사용자만 보이도록 하고 배경은 제거되도록 한 화면이다. c는 사용자만 보이도록 조절된 거리 상태에서 제거된 배경 부분에 다른 배경을 합성한 화면이다.
한편, 화면에 표시되는 화면은 두 대의 카메라 중 하나의 카메라에서 촬영된 영상인 것이 바람직하다. 물론 두 카메라에는 양안차가 존재하여 각 카메라로부터 촬영 대상까지의 거리는 오차가 발생한다. 그러나 본 발명에서 사용하는 거리 정보는 각 카메라로부터 촬영 대상까지의 거리 정보가 아니라, 두 카메라의 중심에서부터 촬영 대상까지의 거리 정보이므로 상기 오차는 문제가 되지 않는다.
도 5는 본 발명에 따라 상술한 바와 같이 거리 정보를 이용하여 영상을 처리하는 장치의 일 실시 예를 나타낸다.
도시된 바와 같이 본 발명에 따른 영상 처리 장치는 제 1 카메라(51), 제 2 카메라(52), 픽셀 맵핑부(53), 거리 정보 추출부(54), 및 영상 합성부(55)를 구비한다.
제 1 카메라(51)와 제 2 카메라(52)는 일정한 거리차를 두고 설치된다. 제 1 카메라(51)에서 촬영된 제 1 영상과 제 2 카메라(52)에서 촬영된 제 2 영상은 픽셀 맵핑부(53)에 저장된다. 제 1 영상과 제 2 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것이 바람직하며, 양안차를 얻기 위하여 제 1 카메라(51)와 제 2 카메라(52)는 에피폴라 라인을 일치시켜 좌우 대칭이 되도록 설치하는 것이 바람직하다.
픽셀 맵핑부(53)는 제 1 영상과 제 2 영상에서 동일한 대상에 대하여 대응되는 픽셀을 찾아 맵핑한다. 대응되는 픽셀을 맵핑한다는 것은 제 1 영상과 제 2 영상에서 동일한 좌표의 픽셀을 맵핑한다는 것이 아니라, 동일한 대상에 대하여 동일한 모양과 위치에 해당하는 픽셀을 각각 제 1 영상과 제 2 영상에서 찾는다는 것이다. 대응되는 픽셀의 맵핑은 제 1 영상과 제 2 영상을 먼저 버퍼에 넣어두고 서브블록 단위로 상관(Correlation) 값을 구하여 대응되는 픽셀을 찾음으로써 수행된다.
거리 정보 추출부(54)는 픽셀 맵핑부(53)에서 맵핑된 대응되는 픽셀 정보를 이용하여 제 1 영상과 제 2 영상의 양안차를 계산하고 이를 이용하여 촬영된 대상까지의 거리를 계산한다. 여기서 양안차와 거리 정보의 계산은 상술한 바와 같다.
거리 정보 추출부(54)에서 각 픽셀 당 거리 정보가 추출되면, 영상 합성부(55)는 추출된 거리 정보를 이용하여 제거 대상을 영상에서 제거한다. 그리고 경우에 따라 제거된 영상 부분에 다른 영상을 합성한다. 영상 합성부(55)가 일정 거리의 대상을 영상에서 제거하고 영상이 제거된 부분을 다른 영상으로 합성하는데 있어서, 제거될 대상의 거리 설정과 합성될 영상의 설정은 기본값으로 미리 설정되거나 사용자에 의해 설정될 수 있다. 또는 기본값으로 설정된 것을 사용자가 필요에 따라 변경하여 사용할 수도 있다.
화면에 표시되는 화면은 두 대의 카메라 중 하나의 카메라에서 촬영된 영상이다. 물론 두 카메라에는 양안차가 존재하여 각 카메라에서 촬영 대상까지의 거리는 오차가 발생한다. 그러나 본 발명에서 사용하는 거리 정보는 각 카메라로부터 촬영 대상까지의 거리 정보가 아니라, 두 카메라의 중심에서부터 촬영 대상까지의 거리 정보이므로 상기 오차는 문제가 되지 않는다.
이상, 상술한 바와 같은 본 발명은 주로 화상 통신을 할 수 있는 이동 전화기에 적합하다. 이는 사용자가 주로 이동 전화기를 손으로 들고 사용하는데다 이동 전화기에 설치되는 일반적인 카메라의 사양으로 인해 촬영되는 영상의 거리가 제한적이기 때문이다. 이와 비슷하게 본 발명은 PC를 이용한 화상 통신에도 적합하다. PC를 이용한 화상 통신은 사용자가 주로 PC에 설치된 카메라 앞에 앉아 마이크 사용과 함께 이루어지므로, 거리에 변동이 적고 제한적이기 때문이다. 한편, 본 발명은 캠코더(Camcorder)나 방송용 카메라 등을 이용한 동영상 촬영, 정지영상을 찍는 디지털 카메라 등 영상을 촬영하는 장치에는 모두 적용될 수 있다.
본 발명은 상술한 바와 같이 두 대의 카메라를 이용하여 추출한 거리 정보를 통해 일정 거리의 영상을 제거하면, 픽셀 값의 변화나 색의 유사성과 상관없이 정확하게 영상에 표시할 대상만을 추출할 수 있다. 그리고 계산량이 적어 실시간으로 영상을 제거하거나 합성할 수 있다.
Claims (11)
- 두 대의 카메라를 이용하여 각각 영상을 촬영하고, 상기 각 영상에 대한 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하고, 추출된 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 것을 특징으로 하는 영상 처리 방법.
- 제 1항에 있어서,상기 두 대의 카메라를 이용하여 각각 영상을 촬영하는 과정;상기 각 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 과정;상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 양안차를 계산하는 과정;상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 과정;상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 제거하는 과정; 및상기 제거된 영상을 다른 영상으로 합성하는 과정을 포함하는 것을 특징으로 하는 영상 처리 방법.
- 제 2항에 있어서,상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인이 일치되도록 설치된 것을 특징으로 하는 영상 처리 방법.
- 제 3항에 있어서,상기 두 영상은 동일한 시각에 동일한 대상을 촬영한 동일한 크기의 영상인 것을 특징으로 하는 영상 처리 방법.
- 제 4항에 있어서,상기 맵핑 과정은, 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 수행되는 것을 특징으로 하는 영상 처리 방법.
- 제 5항에 있어서,상기 촬영 대상까지의 거리 정보는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 계산되는 것을 특징으로 하는 영상 처리 방법.
- 각각 영상을 촬영하는 두 대의 카메라;상기 두 카메라로부터 촬영된 각각의 영상에 대해 동일한 대상의 대응 픽셀을 맵핑하는 픽셀 맵핑부;상기 대응 픽셀에 대한 상기 각 영상 간의 위치 차로서 상기 각 영상에 대한 양안차를 계산하고, 상기 양안차를 이용하여 촬영 대상까지의 거리 정보를 추출하는 거리 정보 추출부; 및상기 거리 정보를 이용하여 일정 거리에 존재하는 촬영 대상의 영상을 처리하는 영상 합성부를 구비하는 것을 특징으로 하는 영상 처리 장치.
- 제 7항에 있어서,상기 두 카메라는 일정 간격으로 떨어져 에피폴라 라인이 일치되도록 설치된 것을 특징으로 하는 영상 처리 장치.
- 제 8항에 있어서,상기 두 카메라는 동일한 시각에 동일한 대상을 동일한 크기의 영상으로 촬영하는 것을 특징으로 하는 영상 처리 장치.
- 제 9항에 있어서,상기 픽셀 맵핑부는, 상기 두 영상에 대하여 서브 블록 단위로 상관 값을 비교하여 상기 대응 픽셀을 맵핑하는 것을 특징으로 하는 영상 처리 장치.
- 제 10항에 있어서,상기 거리 정보 추출부는, 상기 두 카메라에 대한 중심 사이의 거리 정보와 상기 각 카메라의 포커스 길이 정보 및 상기 양안차 정보를 이용하여 상기 촬영 대상까지의 거리 정보를 계산하는 것을 특징으로 하는 영상 처리 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040102386A KR20060063265A (ko) | 2004-12-07 | 2004-12-07 | 영상 처리 방법 및 장치 |
US11/296,665 US20060120712A1 (en) | 2004-12-07 | 2005-12-07 | Method and apparatus for processing image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020040102386A KR20060063265A (ko) | 2004-12-07 | 2004-12-07 | 영상 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20060063265A true KR20060063265A (ko) | 2006-06-12 |
Family
ID=36574327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020040102386A KR20060063265A (ko) | 2004-12-07 | 2004-12-07 | 영상 처리 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20060120712A1 (ko) |
KR (1) | KR20060063265A (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101052221B1 (ko) * | 2008-06-13 | 2011-07-29 | 가부시키가이샤 신가와 | 압착볼 직경 검출 장치 및 방법 |
KR101400400B1 (ko) * | 2012-09-28 | 2014-05-27 | 엘지전자 주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
Families Citing this family (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697827B2 (en) | 2005-10-17 | 2010-04-13 | Konicek Jeffrey C | User-friendlier interfaces for a camera |
TW200834471A (en) * | 2007-02-15 | 2008-08-16 | Ind Tech Res Inst | Image filling methods, and machine readable medium thereof |
JP2008306512A (ja) * | 2007-06-08 | 2008-12-18 | Nec Corp | 情報提供システム |
USD765081S1 (en) | 2012-05-25 | 2016-08-30 | Flir Systems, Inc. | Mobile communications device attachment with camera |
US9235876B2 (en) | 2009-03-02 | 2016-01-12 | Flir Systems, Inc. | Row and column noise reduction in thermal images |
US9451183B2 (en) | 2009-03-02 | 2016-09-20 | Flir Systems, Inc. | Time spaced infrared image enhancement |
WO2012170946A2 (en) | 2011-06-10 | 2012-12-13 | Flir Systems, Inc. | Low power and small form factor infrared imaging |
US9986175B2 (en) | 2009-03-02 | 2018-05-29 | Flir Systems, Inc. | Device attachment with infrared imaging sensor |
US9473681B2 (en) | 2011-06-10 | 2016-10-18 | Flir Systems, Inc. | Infrared camera system housing with metalized surface |
US10244190B2 (en) | 2009-03-02 | 2019-03-26 | Flir Systems, Inc. | Compact multi-spectrum imaging with fusion |
US9208542B2 (en) | 2009-03-02 | 2015-12-08 | Flir Systems, Inc. | Pixel-wise noise reduction in thermal images |
US9635285B2 (en) | 2009-03-02 | 2017-04-25 | Flir Systems, Inc. | Infrared imaging enhancement with fusion |
US9674458B2 (en) | 2009-06-03 | 2017-06-06 | Flir Systems, Inc. | Smart surveillance camera systems and methods |
US9948872B2 (en) | 2009-03-02 | 2018-04-17 | Flir Systems, Inc. | Monitor and control systems and methods for occupant safety and energy efficiency of structures |
US9998697B2 (en) | 2009-03-02 | 2018-06-12 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US10757308B2 (en) | 2009-03-02 | 2020-08-25 | Flir Systems, Inc. | Techniques for device attachment with dual band imaging sensor |
US9517679B2 (en) | 2009-03-02 | 2016-12-13 | Flir Systems, Inc. | Systems and methods for monitoring vehicle occupants |
US9843742B2 (en) | 2009-03-02 | 2017-12-12 | Flir Systems, Inc. | Thermal image frame capture using de-aligned sensor array |
US9756264B2 (en) | 2009-03-02 | 2017-09-05 | Flir Systems, Inc. | Anomalous pixel detection |
US9843743B2 (en) | 2009-06-03 | 2017-12-12 | Flir Systems, Inc. | Infant monitoring systems and methods using thermal imaging |
US9819880B2 (en) | 2009-06-03 | 2017-11-14 | Flir Systems, Inc. | Systems and methods of suppressing sky regions in images |
US9756262B2 (en) | 2009-06-03 | 2017-09-05 | Flir Systems, Inc. | Systems and methods for monitoring power systems |
US9292909B2 (en) | 2009-06-03 | 2016-03-22 | Flir Systems, Inc. | Selective image correction for infrared imaging devices |
US9716843B2 (en) | 2009-06-03 | 2017-07-25 | Flir Systems, Inc. | Measurement device for electrical installations and related methods |
US10091439B2 (en) | 2009-06-03 | 2018-10-02 | Flir Systems, Inc. | Imager with array of multiple infrared imaging modules |
US9706138B2 (en) | 2010-04-23 | 2017-07-11 | Flir Systems, Inc. | Hybrid infrared sensor array having heterogeneous infrared sensors |
US9848134B2 (en) | 2010-04-23 | 2017-12-19 | Flir Systems, Inc. | Infrared imager with integrated metal layers |
US9207708B2 (en) | 2010-04-23 | 2015-12-08 | Flir Systems, Inc. | Abnormal clock rate detection in imaging sensor arrays |
US8723912B2 (en) * | 2010-07-06 | 2014-05-13 | DigitalOptics Corporation Europe Limited | Scene background blurring including face modeling |
GB2483434A (en) * | 2010-08-31 | 2012-03-14 | Sony Corp | Detecting stereoscopic disparity by comparison with subset of pixel change points |
KR101640404B1 (ko) * | 2010-09-20 | 2016-07-18 | 엘지전자 주식회사 | 휴대 단말기 및 그 동작 제어방법 |
US8520080B2 (en) | 2011-01-31 | 2013-08-27 | Hand Held Products, Inc. | Apparatus, system, and method of use of imaging assembly on mobile terminal |
US9235023B2 (en) | 2011-06-10 | 2016-01-12 | Flir Systems, Inc. | Variable lens sleeve spacer |
US9509924B2 (en) | 2011-06-10 | 2016-11-29 | Flir Systems, Inc. | Wearable apparatus with integrated infrared imaging module |
US10051210B2 (en) | 2011-06-10 | 2018-08-14 | Flir Systems, Inc. | Infrared detector array with selectable pixel binning systems and methods |
US10079982B2 (en) | 2011-06-10 | 2018-09-18 | Flir Systems, Inc. | Determination of an absolute radiometric value using blocked infrared sensors |
US9706137B2 (en) | 2011-06-10 | 2017-07-11 | Flir Systems, Inc. | Electrical cabinet infrared monitor |
KR101778353B1 (ko) | 2011-06-10 | 2017-09-13 | 플리어 시스템즈, 인크. | 적외선 이미징 장치용 불균일성 교정 기술 |
EP2719166B1 (en) | 2011-06-10 | 2018-03-28 | Flir Systems, Inc. | Line based image processing and flexible memory system |
US9143703B2 (en) | 2011-06-10 | 2015-09-22 | Flir Systems, Inc. | Infrared camera calibration techniques |
US10389953B2 (en) | 2011-06-10 | 2019-08-20 | Flir Systems, Inc. | Infrared imaging device having a shutter |
US9961277B2 (en) | 2011-06-10 | 2018-05-01 | Flir Systems, Inc. | Infrared focal plane array heat spreaders |
US10169666B2 (en) | 2011-06-10 | 2019-01-01 | Flir Systems, Inc. | Image-assisted remote control vehicle systems and methods |
US9900526B2 (en) | 2011-06-10 | 2018-02-20 | Flir Systems, Inc. | Techniques to compensate for calibration drifts in infrared imaging devices |
US9058653B1 (en) | 2011-06-10 | 2015-06-16 | Flir Systems, Inc. | Alignment of visible light sources based on thermal images |
US10841508B2 (en) | 2011-06-10 | 2020-11-17 | Flir Systems, Inc. | Electrical cabinet infrared monitor systems and methods |
US9811884B2 (en) | 2012-07-16 | 2017-11-07 | Flir Systems, Inc. | Methods and systems for suppressing atmospheric turbulence in images |
KR102065410B1 (ko) * | 2013-09-04 | 2020-01-13 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어 방법 |
US9973692B2 (en) | 2013-10-03 | 2018-05-15 | Flir Systems, Inc. | Situational awareness by compressed display of panoramic views |
US11297264B2 (en) | 2014-01-05 | 2022-04-05 | Teledyne Fur, Llc | Device attachment with dual band imaging sensor |
JP6565188B2 (ja) * | 2014-02-28 | 2019-08-28 | 株式会社リコー | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム |
JP6561512B2 (ja) * | 2014-03-27 | 2019-08-21 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム |
CN106471803A (zh) * | 2014-12-04 | 2017-03-01 | 深圳市大疆创新科技有限公司 | 成像***及方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5751927A (en) * | 1991-03-26 | 1998-05-12 | Wason; Thomas D. | Method and apparatus for producing three dimensional displays on a two dimensional surface |
US5383013A (en) * | 1992-09-18 | 1995-01-17 | Nec Research Institute, Inc. | Stereoscopic computer vision system |
US6463176B1 (en) * | 1994-02-02 | 2002-10-08 | Canon Kabushiki Kaisha | Image recognition/reproduction method and apparatus |
JP2919284B2 (ja) * | 1994-02-23 | 1999-07-12 | 松下電工株式会社 | 物体認識方法 |
US5852672A (en) * | 1995-07-10 | 1998-12-22 | The Regents Of The University Of California | Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects |
US5818959A (en) * | 1995-10-04 | 1998-10-06 | Visual Interface, Inc. | Method of producing a three-dimensional image from two-dimensional images |
JP4392060B2 (ja) * | 1995-12-19 | 2009-12-24 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 視差深度依存画素シフト |
US5748199A (en) * | 1995-12-20 | 1998-05-05 | Synthonics Incorporated | Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture |
US5940139A (en) * | 1996-08-07 | 1999-08-17 | Bell Communications Research, Inc. | Background extraction in a video picture |
US6404901B1 (en) * | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
US6865289B1 (en) * | 2000-02-07 | 2005-03-08 | Canon Kabushiki Kaisha | Detection and removal of image occlusion errors |
US6671399B1 (en) * | 1999-10-27 | 2003-12-30 | Canon Kabushiki Kaisha | Fast epipolar line adjustment of stereo pairs |
AU2001250802A1 (en) * | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP4313560B2 (ja) * | 2001-10-31 | 2009-08-12 | パナソニック株式会社 | 携帯電話 |
EP1600898B1 (en) * | 2002-02-05 | 2018-10-17 | Panasonic Intellectual Property Management Co., Ltd. | Personal authentication method, personal authentication apparatus and image capturing device |
US7526120B2 (en) * | 2002-09-11 | 2009-04-28 | Canesta, Inc. | System and method for providing intelligent airbag deployment |
JP2004165943A (ja) * | 2002-11-13 | 2004-06-10 | Fujitsu Ltd | 携帯電子機器及びその撮影方法 |
US7103212B2 (en) * | 2002-11-22 | 2006-09-05 | Strider Labs, Inc. | Acquisition of three-dimensional images by an active stereo technique using locally unique patterns |
US7146036B2 (en) * | 2003-02-03 | 2006-12-05 | Hewlett-Packard Development Company, L.P. | Multiframe correspondence estimation |
US7068815B2 (en) * | 2003-06-13 | 2006-06-27 | Sarnoff Corporation | Method and apparatus for ground detection and removal in vision systems |
GB2407635B (en) * | 2003-10-31 | 2006-07-12 | Hewlett Packard Development Co | Improvements in and relating to camera control |
US7623674B2 (en) * | 2003-11-05 | 2009-11-24 | Cognex Technology And Investment Corporation | Method and system for enhanced portal security through stereoscopy |
US20050140670A1 (en) * | 2003-11-20 | 2005-06-30 | Hong Wu | Photogrammetric reconstruction of free-form objects with curvilinear structures |
US7542034B2 (en) * | 2004-09-23 | 2009-06-02 | Conversion Works, Inc. | System and method for processing video images |
-
2004
- 2004-12-07 KR KR1020040102386A patent/KR20060063265A/ko not_active IP Right Cessation
-
2005
- 2005-12-07 US US11/296,665 patent/US20060120712A1/en not_active Abandoned
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101052221B1 (ko) * | 2008-06-13 | 2011-07-29 | 가부시키가이샤 신가와 | 압착볼 직경 검출 장치 및 방법 |
KR101400400B1 (ko) * | 2012-09-28 | 2014-05-27 | 엘지전자 주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
US20060120712A1 (en) | 2006-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20060063265A (ko) | 영상 처리 방법 및 장치 | |
CN108932051B (zh) | 增强现实图像处理方法、装置及存储介质 | |
US7623733B2 (en) | Image combination device, image combination method, image combination program, and recording medium for combining images having at least partially same background | |
CN108600576B (zh) | 图像处理装置、方法和***以及计算机可读记录介质 | |
JP5178553B2 (ja) | 撮像装置 | |
KR101354899B1 (ko) | 파노라마 사진 촬영 방법 | |
EP2199978B1 (en) | Image capturing apparatus having subject cut-out function | |
KR100657522B1 (ko) | 휴대용 단말기를 이용한 아웃 포커싱 촬영 장치 및 방법 | |
KR101663321B1 (ko) | 파노라마 사진 촬영 방법 | |
WO2014023231A1 (zh) | 宽视场超高分辨率光学成像***及方法 | |
JP2015012480A (ja) | 画像処理装置及び画像処理方法 | |
US8269819B2 (en) | Image generating apparatus for generating three-dimensional image having high visibility | |
JP2001005948A (ja) | 虹彩撮像装置 | |
TWI394085B (zh) | 辨識被攝主體之維度形態的方法 | |
KR20120118144A (ko) | 촬영 장치에서 피사체를 촬영하기 위한 장치 및 방법 | |
JP2009176208A (ja) | 顔認証装置、システム、方法及びプログラム | |
US8908012B2 (en) | Electronic device and method for creating three-dimensional image | |
JP5247338B2 (ja) | 画像処理装置及び画像処理方法 | |
WO2018196854A1 (zh) | 一种拍照方法、拍照装置及移动终端 | |
JPH09305796A (ja) | 画像情報処理装置 | |
JP7021036B2 (ja) | 電子機器及び通知方法 | |
JP2009159525A (ja) | 撮像装置及び画像合成プログラム | |
JP6367037B2 (ja) | 画像処理装置、画像処理プログラム、電子機器及び画像処理方法 | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
JP2015035070A (ja) | 画像照合装置、画像照合方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
E801 | Decision on dismissal of amendment | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
E801 | Decision on dismissal of amendment | ||
B601 | Maintenance of original decision after re-examination before a trial | ||
S901 | Examination by remand of revocation | ||
E902 | Notification of reason for refusal | ||
S601 | Decision to reject again after remand of revocation |