KR100930626B1 - 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법 - Google Patents

스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법 Download PDF

Info

Publication number
KR100930626B1
KR100930626B1 KR1020070084856A KR20070084856A KR100930626B1 KR 100930626 B1 KR100930626 B1 KR 100930626B1 KR 1020070084856 A KR1020070084856 A KR 1020070084856A KR 20070084856 A KR20070084856 A KR 20070084856A KR 100930626 B1 KR100930626 B1 KR 100930626B1
Authority
KR
South Korea
Prior art keywords
image
recognized
group data
point group
stereo camera
Prior art date
Application number
KR1020070084856A
Other languages
English (en)
Other versions
KR20090020251A (ko
Inventor
전세웅
김봉석
이종배
박창우
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020070084856A priority Critical patent/KR100930626B1/ko
Publication of KR20090020251A publication Critical patent/KR20090020251A/ko
Application granted granted Critical
Publication of KR100930626B1 publication Critical patent/KR100930626B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법에 관한 것으로서, 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어지는 3차원 점군 데이터(3D Point Cloud)를 획득하여 데이터 베이스에 저장하고, 스테레오 카메라로 상기 인식 대상 물체를 촬영한 영상의 실효성 있는 특징점(Constrained Feature)들로 이루어지는 3차원 점군 데이터를 획득한 후, 두 개의 3차원 점군 데이터를 정합하여 촬영한 인식 대상 물체의 자세를 인식하는 것을 특징으로 한다.
본 발명에 의하면, ICP(Iterative Closest Point) 알고리즘을 사용하여 두 영상을 정합함으로써, 물체를 바라보는 위치에 관계없이 인식이 가능하고 또한 물체가 부분적으로 가려지더라도 정확한 포즈 인식이 가능하며, 동일한 물체에 대한 두 개의 영상에서 동일한 특징을 찾아 정합함으로써, ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 줄일 수 있다
물체 인식, 로봇, 스테레오 카메라, ICP 알고리즘, 영상 정합, 포즈

Description

스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법{ Method for object pose recognition of robot with stereo camera }
본 발명은 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법에 관한 것으로, 보다 상세하게는 로봇이 가정 또는 공장 현장에 있어서 물체의 종류를 알고 있다고 하였을 때, 물체의 자세(Pose)를 정확히 인식하여 파지하도록 하기 위한 물체 자세 인식 방법에 관한 것이다.
최근 로봇 산업은 산업용 로봇에서 출발하여 군사용이나 과학기술 용도를 벗어나 가정용 로봇으로까지 그 활동 영역을 넓혀가고 있다.
여기서, 로봇이 주어진 임무를 수행하기 위해서는 물체 인식(Object Recognition) 기술이 필수적이다. 물체 인식 기술이란 영상 처리를 통해 일정 공간 속에 놓인 컵, 책상, 의자, 전화 등과 같이 다양한 물체들을 구분해내는 기술을 말한다.
예를 들어, 가정용 로봇에게 "식탁 위에 있는 빵을 갖고 와라"고 명령했을 때, 가정용 로봇이 "식탁"과 "빵"이 무엇인지 그리고 어디에 있는지를 인식해야 한다.
물체 인식 기술은 1970년대 컴퓨터가 본격적으로 나오면서부터 활발히 연구되어 왔고, 1980년대에 2차원 모양 매칭에 기반하여 주로 산업 비전에서 부품 검사 등에 이용되었으며, 1980년대 말부터 3차원 모델기반의 물체 인식 기술이 활발히 연구되었다. 특히 3차원 다면체 인식을 위해 얼라인먼트(Alignment) 기법이 성공적으로 적용되었다.
그리고 1990년대 중반부터 영상기반기법이 대두되면서 좀 더 본격적인 물체인식연구가 진행되었는데, PCA(Principle Component Analysis)와 같은 주성분 분석기법을 이용한 물체 인식 기술이 그 중 한 예이다.
물체 인식 기술 중 3차원 인식 기술은 물체에 대한 3차원 정보를 추출하는 단계, 3차원 영상 데이터로부터 물체의 기하학적인 특징을 추출하는 단계, 추출된 기하학적인 특징의 유효성을 검증하는 단계, 실측 데이터와 데이터 베이스 내의 데이터를 서로 비교 분석하는 단계, 물체를 인식하는 단계 등으로 구분되어 진행된다.
종래의 물체 인식 기술은 데이터 베이스 상에 있는 물체와 인식 대상 물체 전체의 3차원 점군 데이터를 이용하여 정합하는 과정을 수행함으로써, 물체를 인식하는데 많은 시간이 소요된다는 문제점이 있다.
본 발명의 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법의 바람직한 실시예는, 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하여 데이터 베이스에 저장하는 단계와, 스테레오 카메라를 이용하여 상기 인식 대상 물체를 촬영한 후, 촬영한 영상으로부터 3차원 점군 데이터를 획득하는 단계와, 상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상의 3차원 점군 데이터를 정합하여 상기 촬영한 인식 대상 물체의 자세를 인식하는 단계를 포함하여 이루어지며, 상기 3차원 점군 데이터는 상기 인식 대상 물체의 ㅅ시실효성 있는 특징점(Constrained Feature)들로 이루어지는 것을 특징으로 한다.
여기서, 상기 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하는 단계는, 상기 인식 대상 물체의 전면부의 3차원 점군 데이터를 획득하는 단계와, 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 획득하는 단계와, 상기 인식 대상 물체의 전면부의 3차원 점군 데이터와 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 병합(Merge)하는 단계를 포함하여 이루어지는 것을 특징 으로 한다.
한편, 상기 3차원 점군 데이터의 획득은, 상기 인식 대상 물체의 영상으로부터 변위 지도(Disparity Map) 이미지를 획득하는 단계와, 상기 인식 대상 물체의 영상으로부터 에지(Edge) 이미지를 검출하는 단계와, 상기 변위 지도 이미지와 상기 에지 이미지를 AND 연산하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
여기서, 상기 에지(Edge) 이미지를 검출하는 단계는, 상기 인식 대상 물체의 영상에 가우시안 필터(Gaussian Filter)를 이용하여 평활화(Equalization)를 실시하는 단계와, 미분 연산자를 이용하여 상기 영상의 기울기(Gradient) 크기 및 기울기 방향을 구하는 단계와, 상기 기울기 방향에 따라 상기 영상에 non-maximum suppression을 적용하는 단계와, 히스테리시스(Hystersis) 기법을 사용하여 상기 영상의 에지를 검출하는 단계를 포함하여 이루어지는 것을 특징으로 한다.
본 발명에 의하면, 현재 촬영한 인식 대상 물체의 3차원 점군 데이터(3D Point Cloud)와 데이터 베이스 상에 저장되어 있는 동일 물체의 전체 3차원 점군 데이터(3D Point Cloud)를 정합(Matching)하는데 있어 ICP(Iterative Closest Point) 알고리즘을 사용함으로써, 물체를 바라보는 위치에 관계없이 인식이 가능하고 또한 물체가 부분적으로 가려지더라도 정확한 포즈 인식이 가능하다.
그리고, 동일한 물체에 대한 두 개의 영상에서 동일한 특징을 찾아 정합 함으로써, 3차원 점군 데이터를 줄일 수 있으며 그로 인해 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 줄일 수 있다.
본 발명에 의하면, 인식 대상 물체의 위치나 자세를 정확히 인식할 수 있기 때문에 부품 검사, 자동 조립, 용접 등의 작업을 효율적으로 수행할 수 있다.
이하, 도 1 내지 도 5를 참조하여 본 발명의 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법에 대해 상세히 설명한다.
도 1은 본 발명의 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법의 개괄적인 흐름을 나타낸 순서도이다.
이에 도시된 바와 같이, 먼저 로봇이 파지하고자하는 물체 전체의 3D Point Cloud(3차원 점군 데이터)를 획득하여 데이터 베이스에 저장한다(S 100). 여기서, 3D Point Cloud는 상기 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진다.
이때, 상기 물체 전체의 3D Point Cloud DB를 생성하는 방법으로는 다음과 같다. 즉, 로봇의 스테레오 카메라로 상기 물체의 전면부를 촬상하여 전면부의 3D Point Cloud를 획득하고, 로봇의 스테레오 카메라로 상기 물체의 후면부를 촬상하여 후면부의 3D Point Cloud를 획득한 후, 이를 정교하게 병합(Merge)하여 상기 물체의 전체 3D Point Cloud를 획득한다.
다음으로, 로봇의 스테레오 카메라를 이용하여 현재 공간상에 있는 인식 대상 물체의 3D Point Cloud를 획득한다(S 110). 여기서, 3D Point Cloud는 상기 인 식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진다.
상기 단계 S 100 및 단계 S 110에서, 상기 물체의 3D Point Cloud를 획득하는 과정은 이후에 자세히 설명하기로 한다.
이어서, 상기 인식 대상 물체의 3D Point Cloud와 데이터 베이스 상에 저장되어 있는 3D Point Cloud를 정합(Matching) 하는 과정을 수행함으로써, 현재 공간상에 있는 인식 대상 물체의 포즈가 데이터 베이스 상에 저장된 기준 포즈로부터 어느 정도 변화하여 있는지를 검출한다(S 120).
여기서, 공간좌표(X, Y, Z)의 형태로 구성된 상기 3D Point Cloud는 각기 획득한 위치 및 물체의 포즈가 서로 다르기 때문에 이를 정합하는 데에는 수학적인 방법이 필요하며, 이때 사용되는 알고리즘으로는 ICP(Iterative Closest Point) 알고리즘이 있다.
상기 ICP 알고리즘은 두 개의 3차원 점군 데이터(3D Point Cloud)의 대응관계를 모르는 상황에서도 적용가능하다는 장점이 있다.
상기 ICP 알고리즘을 통해 두 개의 3차원 점군 데이터 사이의 관계를 나타내는 벡터 즉, 회전 벡터(Rotation Vector)와 병진 벡터(Translation Vector)를 구할 수 있으며, 이를 통해 현재 공간상에 있는 물체의 포즈(Pose)가 데이터 베이스 상에 저장된 물체의 기준 포즈와 얼마만큼의 변화가 있는지를 정확히 인식할 수 있게 된다.
한편, ICP 알고리즘을 통해 인식 대상 물체의 3D Point Cloud와 데이터 베이스 상에 저장되어 있는 3D Point Cloud를 정합하는 과정을 살펴보면 다음과 같다.
i) 입력된 두 영상 데이터 간에 미리 정의된 영역에서 데이터의 각 점마다 대응하는 가장 가까운 모델의 점 집합(Point Set)을 찾는다. 이때 각 점들 간의 거리는 유클리디안 거리(Euclidean Distance)를 이용하여 계산한다.
ii) 상기 구해진 각 점 집합(Point Set) 간의 거리를 최소화하는 3차원 변환 파라미터 즉, 회전 벡터(Rotation Vector)와 병진 벡터(Translation Vector)를 구한다.
iii) 상기 점 집합(Point Set) 간의 정합을 위해 상기 ii) 과정에서 구한 회전 벡터(Rotation Vector) 및 병진 벡터(Translation Vector)를 적용하여 데이터 점들을 변환한다.
즉, 상기 병진 벡터(Translation Vector)를 통해 대상 데이터를 이동시키면서 두 영상 데이터에서 거리가 가장 가까운 점 집합을 찾고, 그 거리를 최소화시키는 회전 벡터(Rotation Vector)를 구하여 두 영상 데이터를 일치시켜 나간다.
iv) 거리 오차가 최소가 될 때까지 위의 과정을 반복하여 두 영상 데이터를 일치시킨다.
이와 같이 ICP 알고리즘을 이용한 3차원 영상 정합 과정을 도 2에서 개략적으로 나타내었다.
본 발명에서는 먼저 물체의 모든 3차원 좌표값을 알고 있는 기준 모델을 정하여 두고, 현재 스테레오 카메라로부터 얻어진 물체의 3차원 좌표값들이 기준 모델로부터 얼마만큼 변화되어 있는지를 계산하여 주어진 3D 물체의 포즈를 인식하도록 하는데, 이때 기준 모델과 현재 얻어진 영상을 정합하는 방법으로 ICP 알고리즘 을 사용한다.
또한, 본 발명에서는 물체의 3D Point Cloud를 획득하는 경우, 물체의 전체 면에 대한 점군 데이터가 아닌 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어진 점군 데이터를 사용한다.
도 3은 본 발명의 3D Point Cloud를 획득하는 과정을 나타낸 순서도이다. 이러한 과정은 물체 전체의 3D Point Cloud DB를 생성(즉, 물체의 전면부의 3D Point Cloud를 획득할 때와 물체의 후면부의 3D Point Cloud를 획득할 때)하는 경우와, 현재 공간상에 있는 인식 대상 물체의 3D Point Cloud를 획득하는데 경우에 모두 사용된다.
먼저, 로봇의 스테레오 카메라로 인식 대상 물체를 촬영한 영상에서 변위 지도(Disparity Map)를 추출한다(S 200).
본 발명에서는 스테레오 카메라를 이용한 스테레오 비전 처리 기술을 통해 물체의 3차원 공간상에서의 위치 정보를 얻게 되는데, 스테레오 비전 처리 기술이란 서로 다른 관측 지점에서 획득한 두 개 이상의 영상 및 카메라 파라미터를 이용하여 관측 공간상의 거리 및 관측 물체의 3차원 형태를 감지하는 기술을 말한다.
한편, 스테레오 비전의 기본 원리를 도 4를 참조하여 설명하면 다음과 같다.
여기서, 두 관측점 사이의 거리를 b(baseline)로, 두 렌즈의 초점 거리(focal length)를 f로, 왼쪽 영상의 중심과 상기 왼쪽 영상에 맺힌 물체 사이의 거리를 dl, 오른쪽 영상의 중심과 상기 오른쪽 영상에 맺힌 물체 사이의 거리를 dr 이라고 가정한다.
이와 같이, 임의의 거리(b, baseline)를 두고 배치된 두 대의 카메라를 통해 촬영된 두 개 영상에서 피사체 간의 거리 차를 변위(disparity)라고 하며, 이때 변위 d = dl - dr 이 된다.
그리고 수학식 1을 참조하면, 상기 변위 d와 렌즈의 초점 거리 f 및 두 관측점 사이의 거리 b를 이용하여 카메라로부터 물체와의 실제 거리 r를 알 수 있다.
Figure 112007061057033-pat00001
여기서, 변위 지도(Disparity Map)는 상기 스테레오 비전의 기본 원리를 이용하여 두 영상 사이의 일치점을 찾는 스테레오 영상 정합 과정을 통해 구해지게 된다.
스테레오 영상 정합 방법 중 상관도(Correlation) 기반 스테레오는 영상으로부터 특징점 추출 과정이 없이 두 영상에서 각 화소들 사이의 상관도를 계산하여 대응점을 찾는 방법이다.
이는 영상에서 정합하려는 대상점 주변에 윈도우를 설정하고, 이 윈도우와 같은 사이즈의 윈도우를 다른 영상에 적용하여 수평 라인 선상으로 검색하는 것이다. 이때 유사도를 나타내는 기준에 의해 검색 구간 내에서 최적인 점을 찾아 선택 하게 된다.
이렇게 상관도 기법을 이용하여 두 영상으로부터 변위(disparity) 영역 간의 값을 구할 수 있으며, 이는 도 5에 나타낸 바와 같은 3차원 변위 공간상에 저장되게 된다.
이 3차원 공간에서 최적의 값을 갖는 변위(disparity) 값의 데이터를 맵핑(Mapping) 해놓은 것이 변위 지도(Disparity Map)이다. 상기 변위 지도를 통해 물체의 3차원 좌표값과 거리 정보를 알 수 있다.
즉, 상기 변위 지도는 스테레오 영상 정합 결과 가까운 물체는 밝게 표시하고, 멀리 떨어져 있는 물체일수록 어둡게 표시하여 대상 물체의 거리 정보를 표시한다.
다음으로, 인식 대상 물체의 에지(Edge)를 추출한다(S 210).
여기서, 상기 인식 대상 물체의 에지(Edge)는 캐니 에지 알고리즘(Canny Edge Algorithm)을 이용하여 추출하는 것이 바람직하다.
상기 캐니 에지 알고리즘은 i) 이미지에 존재하는 대부분의 실제 에지(Edge)를 추출할 수 있어야 하고(Good Detection), ii) 추출된 에지는 실제 이미지 내에서 가능한 가까이 있어야 하며(Good Localization), iii) 이미지 내의 주어진 에지는 단 한 번만 표시되어야 하고, 이미지의 잡음이 잘못된 에지를 만들어서는 안 된다(Minimum Response)는 조건을 만족하여 우수한 성능을 나타낸다.
본 발명에서 캐니 에지 알고리즘을 사용하여 인식 대상 물체의 에지를 추출 하는 과정은 다음과 같다.
step 1. 먼저 이미지 내의 잡음(Noise)을 줄이기 위해 가우시안 필터(Gaussian Filter)를 이용하여 평활화(Equalization)를 실시한다. 이때, 가우시안 마스크(Gaussian Mask)를 크게 할수록 잡음에 대한 민감도는 떨어지게 된다.
step 2. x, y 축 소벨 연산자(Sobel Operator)를 사용하여 기울기(Gradient)의 크기를 계산하고, 상기 소벨 연산자에 의해 구해진 x, y 축 벡터를 이용해 기울기의 방향을 구한다.
step 3. 정해진 기울기 방향에 따라 비 최대치 억제(non-maximum suppression) 과정을 적용한다. 이는 정해진 기울기 방향에 존재하는 평활화된 픽셀(equalized pixel) 값 중 최대 값(maximum)을 제외하고 0으로 지정하는 것으로, 최소한의 에지를 구할 수 있게 된다.
step 4. 에지(Edge)의 결정은 히스테리시스(Hysteresis)라는 기법을 통해 이루어지며, 이 방법은 에지를 이루는 픽셀(Pixel) 값의 편차가 클 경우 단일한 임계(Threshold) 값이 적용되었을 때 에지의 일정 부분이 제거되는 것을 방지하기 위한 것이다.
따라서, 로우(Low)와 하이(High) 두 개의 임계값이 사용되며, 하이(High) 보다 큰 값은 edge로 간주하고, 로우(Low) 보다 작은 값은 non-edge로 간주한다. 그리고 로우(Low)와 하이(High) 사이의 값은 주변에 하이(High) 이상인 값이 있을 경우 에지로 간주한다.
이어서, 상기 변위 지도(Disparity Map) 이미지와 인식 대상 물체의 에지(Edge) 이미지를 앤드(AND) 연산하여 3D Point Cloud를 획득한다(S 220).
즉, 스테레오 카메라로 촬영한 영상으로부터 3D 정보가 포함되어 있는 2차원 변위 지도(Disparity Map)를 추출하고, 캐니 에지 알고리즘을 통해 2차원 에지 데이터를 추출한 후, 상기 변위 지도와 에지 데이터를 AND 연산한다.
상기 변위 지도(Disparity Map) 이미지와 캐니 에지 이미지를 AND 연산하여 얻어지는 것이 Feature Constrained Edge인데 이것이 촬영 영상의 3D Point Cloud가 되며, 여기에는 변위 지도에 포함된 3D 정보가 반영되어 있다.
이와 같이 본 발명은 3D Point Cloud를 획득하는 방식에 있어서, 변위 지도(Disparity Map) 이미지를 추출하고, 캐니 에지 이미지를 추출한 후, 상기 추출한 변위 지도 이미지와 캐니 에지 이미지를 AND 연산하는 것에 그 특징이 있다.
이러한 방식으로 3D Point Cloud를 획득하면 점 군의 개수가 줄어들어 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 획기적으로 줄일 수 있다.
본 발명에 의해 획득한 3D Point Cloud는 인식 대상 물체의 실효성 있는 특징점(Constrained Feature) 들로 이루어지기 때문에, 3D Point Cloud의 점 군의 개수가 줄어들더라도 인식 대상 물체의 3차원 정보를 잘 반영하며, 그로 인해 ICP(Iterative Closest Point) 알고리즘 수행시 두 영상 간의 정합에 지장을 주지 않는다.
즉, 기존에는 ICP(Iterative Closest Point) 알고리즘 수행시 작업 시간을 줄이고자 3D Point Cloud의 점 군의 개수를 줄였을 때, 3D Point Cloud에 인식 대상 물체의 3차원 정보가 제대로 반영되지 않아 매칭이 잘 되지 않았는데, 본 발명에 의하면 이러한 문제를 해결할 수 있게 된다.
이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다.
그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
도 1은 본 발명의 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법의 개괄적인 흐름을 나타낸 순서도.
도 2는 본 발명의 ICP 알고리즘을 이용한 3차원 영상 정합 과정을 나타낸 도면.
도 3은 본 발명의 3D Point Cloud를 획득하는 과정을 나타낸 순서도.
도 4는 본 발명의 스테레오 비전의 기본 원리를 나타낸 도면.
도 5는 본 발명의 상관도(Correlation) 기반 스테레오 영상 정합 기법에 있어서, 두 영상의 변위(disparity) 영역 간의 값이 3차원 변위 공간상에 저장되는 상태를 나타낸 도면.

Claims (9)

  1. 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하여 데이터 베이스에 저장하는 단계;
    스테레오 카메라를 이용하여 상기 인식 대상 물체를 촬영한 후, 촬영한 영상으로부터 3차원 점군 데이터를 획득하는 단계; 및
    상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상의 3차원 점군 데이터를 정합하여 상기 촬영한 인식 대상 물체의 자세를 인식하는 단계를 포함하여 이루어지며,
    상기 3차원 점군 데이터는 상기 인식 대상 물체의 실효성 있는 특징점(Constrained Feature)들로 이루어지고,
    상기 인식 대상 물체 전체의 3차원 점군 데이터(3D Point Cloud)를 획득하는 단계는,
    상기 인식 대상 물체의 전면부의 3차원 점군 데이터를 획득하는 단계;
    상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 획득하는 단계; 및
    상기 인식 대상 물체의 전면부의 3차원 점군 데이터와 상기 인식 대상 물체의 후면부의 3차원 점군 데이터를 병합(Merge)하는 단계를 포함하여 이루어지는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 데이터 베이스에 저장된 물체 전체의 3차원 점군 데이터와 상기 촬영한 영상의 3차원 점군 데이터의 정합은 ICP(Iterative Closest Point) 알고리즘을 이용하여 수행하는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  4. 제3항에 있어서,
    상기 촬영한 인식 대상 물체의 자세를 인식하는 단계는,
    상기 ICP(Iterative Closest Point) 알고리즘을 수행한 결과 얻어진 회전 벡터(Rotation Vector) 및 병진 벡터(Translation Vector)를 이용하는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  5. 제1항 또는 제3항에 있어서,
    상기 3차원 점군 데이터의 획득은,
    상기 인식 대상 물체의 영상으로부터 변위 지도(Disparity Map) 이미지를 획득하는 단계;
    상기 인식 대상 물체의 영상으로부터 에지(Edge) 이미지를 검출하는 단계; 및
    상기 변위 지도 이미지와 상기 에지 이미지를 AND 연산하는 단계를 포함하여 이루어지는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  6. 제5항에 있어서,
    상기 변위 지도(Disparity Map) 이미지를 획득하는 단계는,
    상관도(Correlation) 기반의 스테레오 영상 정합 기법을 이용하는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  7. 제5항에 있어서,
    상기 에지(Edge) 이미지의 검출은,
    캐니 에지 알고리즘(Canny Edge Algorithm)을 이용하는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  8. 제7항에 있어서,
    상기 에지(Edge) 이미지를 검출하는 단계는,
    상기 인식 대상 물체의 영상에 가우시안 필터(Gaussian Filter)를 이용하여 평활화(Equalization)를 실시하는 단계;
    미분 연산자를 이용하여 상기 영상의 기울기(Gradient) 크기 및 기울기 방향을 구하는 단계;
    상기 기울기 방향에 따라 상기 영상에 비 최대치 억제(non-maximum suppression)과정을 적용하는 단계; 및
    히스테리시스(Hystersis) 기법을 사용하여 상기 영상의 에지를 검출하는 단계를 포함하여 이루어지는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
  9. 제8항에 있어서,
    상기 미분 연산자는 소벨 연산자(Sobel Operator)를 이용하는 것을 특징으로 하는 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법.
KR1020070084856A 2007-08-23 2007-08-23 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법 KR100930626B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070084856A KR100930626B1 (ko) 2007-08-23 2007-08-23 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070084856A KR100930626B1 (ko) 2007-08-23 2007-08-23 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법

Publications (2)

Publication Number Publication Date
KR20090020251A KR20090020251A (ko) 2009-02-26
KR100930626B1 true KR100930626B1 (ko) 2009-12-09

Family

ID=40687745

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070084856A KR100930626B1 (ko) 2007-08-23 2007-08-23 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법

Country Status (1)

Country Link
KR (1) KR100930626B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9159131B2 (en) 2013-04-22 2015-10-13 Samsung Electronics Co., Ltd. Data matching method and data matching apparatus for matching data groups according to alignment parameters

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101327321B1 (ko) * 2009-12-11 2013-11-11 한국전자통신연구원 모션 캡쳐 데이터의 포즈 검색 장치 및 방법
KR101933921B1 (ko) * 2013-06-03 2018-12-31 삼성전자주식회사 포즈 추정 방법 및 장치
KR102550931B1 (ko) * 2016-11-29 2023-07-04 삼성전자주식회사 스테레오 매칭 방법 및 장치
CN106908052B (zh) * 2017-02-09 2020-06-02 北京光年无限科技有限公司 用于智能机器人的路径规划方法及装置
KR101932041B1 (ko) * 2017-03-02 2018-12-24 충북대학교 산학협력단 듀얼 라이다 센서 캘리브레이션 방법 및 장치
CN108279670B (zh) * 2017-12-29 2021-12-10 百度在线网络技术(北京)有限公司 用于调整点云数据采集轨迹的方法、设备以及计算机可读介质
KR102094004B1 (ko) 2018-07-13 2020-03-26 동의대학교 산학협력단 탁구 로봇 제어 방법 및 이를 위한 시스템
CN109458994B (zh) * 2018-10-24 2021-04-13 北京控制工程研究所 一种空间非合作目标激光点云icp位姿匹配正确性判别方法及***
CN109903326B (zh) * 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242509A (ja) 2001-12-13 2003-08-29 Toshiba Corp パターン認識装置及びその方法
JP2004326693A (ja) 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
KR20050027796A (ko) * 2003-09-16 2005-03-21 한국과학기술원 물체 인식 및 추적방법
JP2006065399A (ja) * 2004-08-24 2006-03-09 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003242509A (ja) 2001-12-13 2003-08-29 Toshiba Corp パターン認識装置及びその方法
JP2004326693A (ja) 2003-04-28 2004-11-18 Sony Corp 画像認識装置及び方法、並びにロボット装置
KR20050027796A (ko) * 2003-09-16 2005-03-21 한국과학기술원 물체 인식 및 추적방법
JP2006065399A (ja) * 2004-08-24 2006-03-09 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9159131B2 (en) 2013-04-22 2015-10-13 Samsung Electronics Co., Ltd. Data matching method and data matching apparatus for matching data groups according to alignment parameters

Also Published As

Publication number Publication date
KR20090020251A (ko) 2009-02-26

Similar Documents

Publication Publication Date Title
KR100930626B1 (ko) 스테레오 카메라를 구비한 로봇의 물체 자세 인식 방법
KR100920931B1 (ko) Tof 카메라를 이용한 로봇의 물체 자세 인식 방법
JP6430064B2 (ja) データを位置合わせする方法及びシステム
US6865289B1 (en) Detection and removal of image occlusion errors
US8588512B2 (en) Localization method for a moving robot
CN106960454B (zh) 景深避障方法、设备及无人飞行器
KR101633620B1 (ko) 영상 기반의 위치 인식을 위한 특징점 등록 장치 및 그 방법
JP6955783B2 (ja) 情報処理方法、装置、クラウド処理デバイス及びコンピュータプログラム製品
CN108470356B (zh) 一种基于双目视觉的目标对象快速测距方法
US11625842B2 (en) Image processing apparatus and image processing method
EP2339294A1 (en) Systems and methods for matching scenes using mutual relations between features
KR102118173B1 (ko) 왜곡계수 추정을 통한 영상 보정 시스템 및 방법
KR20150053438A (ko) 스테레오 매칭 시스템과 이를 이용한 시차 맵 생성 방법
US20190313082A1 (en) Apparatus and method for measuring position of stereo camera
US20100262290A1 (en) Data matching apparatus, data matching method and mobile robot
Paudel et al. 2D-3D camera fusion for visual odometry in outdoor environments
JP2007114168A (ja) 画像処理方法および装置、並びにプログラム
JP2961272B1 (ja) 特徴ベクトルを利用した物体の認識装置および方法
Yang et al. Design flow of motion based single camera 3D mapping
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP3728460B2 (ja) ステレオカメラの最適配置決定方法とそのシステム
CN113723432A (zh) 一种基于深度学习的智能识别、定位追踪的方法及***
JP2001116545A (ja) 距離画像算出装置
KR101747350B1 (ko) 비주얼 서보잉을 위한 객체의 좌표 인식 방법
JP2008003800A (ja) 画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 7