KR20060091137A - 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치 - Google Patents

컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치 Download PDF

Info

Publication number
KR20060091137A
KR20060091137A KR1020050012003A KR20050012003A KR20060091137A KR 20060091137 A KR20060091137 A KR 20060091137A KR 1020050012003 A KR1020050012003 A KR 1020050012003A KR 20050012003 A KR20050012003 A KR 20050012003A KR 20060091137 A KR20060091137 A KR 20060091137A
Authority
KR
South Korea
Prior art keywords
image
kernel
pixel
line pattern
convolution
Prior art date
Application number
KR1020050012003A
Other languages
English (en)
Other versions
KR100643305B1 (ko
Inventor
박동렬
방석원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050012003A priority Critical patent/KR100643305B1/ko
Priority to US11/350,847 priority patent/US7657099B2/en
Priority to JP2006035961A priority patent/JP4242391B2/ja
Publication of KR20060091137A publication Critical patent/KR20060091137A/ko
Application granted granted Critical
Publication of KR100643305B1 publication Critical patent/KR100643305B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F17/00Coin-freed apparatus for hiring articles; Coin-freed facilities or services
    • G07F17/0014Coin-freed apparatus for hiring articles; Coin-freed facilities or services for vending, access and use of specific services not covered anywhere else in G07F17/00
    • G07F17/0021Access to services on a time-basis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/02Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Nonlinear Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 스트럭쳐드 라이트(Structured light) 거리 센서를 이용하는 SLAM(Simultaneous Localization And Mapping)에 관한 것으로, 보다 상세하게는 스트럭쳐드 라이트에 의하여 생성된 이미지에서 라인 패턴을 처리하여 잡음을 제거하는 방법 및 장치에 관한 것이다.
본 발명에 따른 라인 패턴을 처리하는 장치는, 소정의 위치에 형성된 단순 라인 패턴을 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는 커널 학습부와, 상기 결정된 커널 모양 및 최적 문턱값을 이용하여, 포착된 실제 테스트 이미지에 컨볼루션을 적용하는 컨볼루션 적용부와, 상기 컨볼루션이 적용된 이미지에 포함된 픽셀 칼럼을 세로 방향으로 스캔하여 픽셀 값이 0이 아닌 복수의 픽셀군이 존재하는 경우 이 중 선택된 하나의 픽셀군 이외의 픽셀군의 픽셀 값을 0으로 설정하는 영역 선택부로 이루어진다.
스트럭쳐드 라이트, 거리 센서, SLAM, 라인 패턴

Description

컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치{Method and apparatus for processing line pattern using convolution kernel}
도 1은 스트럭쳐드 라이트 거리 센서의 기본 개념을 나타내는 도면.
도 2는 스트럭쳐드 라이트 거리 센서를 이용한 종래 방법의 기본 개념을 나타내는 도면.
도 3은 도 2의 방법에 따른 히스토그램을 나타내는 도면.
도 4는 본 발명의 일 실시예에 따른 라인 패턴 처리 장치의 구성을 나타내는 블록도.
도 5는 커널 학습 환경의 예를 나타내는 도면.
도 6은 이미지의 세로 구간 및 학습시의 레이저 조사 거리의 관계를 나타내는 도면.
도 7은 조사된 라인 레이저에 의하여 라인 패턴이 발생하는 예를 나타내는 도면.
도 8은 도 7의 라인 패턴이 촬영된 이미지를 나타내는 도면.
도 9는 본 발명의 일 실시예에 따른 컨볼루션 커널을 나타내는 도면.
도 10은 컨볼루션 커널을 적용하는 개념을 설명하는 도면.
도 11은 처리된 라인 패턴을 이용하여 맵을 작성하는 개념을 설명하는 도면.
도 12는 본 발명의 일 실시예에 따른 라인 패턴 처리 과정을 나타낸 흐름도.
도 13은 도 12의 S100 단계를 보다 자세히 나타낸 흐름도.
도 14는 커널 모양을 선정하는 방법을 보여주는 도면.
도 15는 본 발명의 또 다른 실시예에 따른 컨볼루션 커널을 나타내는 도면.
도 16a 내지 도 16g는 각각의 거리에서 생성된 이진화 이미지 및 이 때 몇몇의 Th.에 따른 컨볼루션 적용 이미지를 나타내는 도면.
도 17은 도 12의 S500 단계를 보다 자세히 나타낸 흐름도.
도 18은 영역 선택 과정의 이해를 돕기 위한 도면.
도 19a 내지 도 19e는 본 발명의 실시예와 비교실시예의 제1 실험 결과를 보여 주는 도면.
도 20a 내지 도 20c는 본 발명의 실시예와 비교실시예의 제2 실험 결과를 보여 주는 도면.
(도면의 주요부분에 대한 부호 설명)
200 : 라인 패턴 처리 장치 210 : 제어부
220 : 메모리 230 : 카메라/광원 제어부
240 : 카메라 모듈 250 : 광원 모듈
260 : 커널 학습부 270 : 컨볼루션 적용부
280 : 영역 선택부 290 : 거리 정보 계산부
본 발명은 스트럭쳐드 라이트(Structured light) 거리 센서를 이용하는 SLAM(Simultaneous Localization And Mapping)에 관한 것으로, 보다 상세하게는 스트럭쳐드 라이트에 의하여 생성된 이미지에서 라인 패턴을 처리하여 잡음을 제거하는 방법 및 장치에 관한 것이다.
스스로 이동이 가능한 이동 로봇은 고정된 위치나 혹은 미리 구조화된 작업 환경에서 임의의 작업장이나 실외 등과 같이 넓은 작업 영역을 갖게 되어, 그 역할 면이나 작업의 다양성 면에서 고정된 로봇에 비해 탁월한 능력을 가질 수 있다. 근래 이동 로봇은 심해나 원전 지역 등과 같이 인간의 접근이 용이하지 않은 곳에서 인간의 작업을 대신함으로써 인간의 안전을 도모하는데 크게 기여하고 있다.
이동 로봇은 주변 환경에 대한 사전 정보가 부족한 곳에서도 이동하거나 작업을 수행하는 데에 필요한 자율적인 경로 계획과 장애물 탐지 및 충돌 회피 능력을 가질 필요가 있는데, 근래 들어 사전 정보가 부족한 장소를 이동하면서 자동적으로 지도를 생성함과 동시에 로봇의 위치를 추정하는 기술인 '동시 위치 추정 및 지도 생성 기술(Simultaneous Localization and Map Building, SLAM)'에 대한 연구가 활발히 진행되고 있다.
이동 로봇이 SLAM을 수행하기 위해서는 주변 환경으로부터 위치 추정에 사용할 수 있는 정보의 추출 능력이 필수적이다. 시각 센서나 초음파 센서, 혹은 접촉 센서 등을 이용한 여러 가지 방법들이 이에 적용되고 있는데, 특히 레이저(laser) 등의 스트럭쳐드 라이트(structured light)와 카메라를 이용한 시각 센서와 이를 통한 3차원 인식 알고리즘은 계산량의 부담이 적고 밝기의 변화가 심한 곳에서도 사용될 수 있으므로 매우 효과적인 방법이다.
이러한 방식은 레이저와 같은 능동 광원(active vision)을 이용하여 미리 결정된 형태로 빛을 대상물에 비추고 카메라와 같은 센서를 사용하여 이미지를 얻어낸다. 그리고 나서, 얻어 낸 이미지 내에서 레이저 반사 지점을 포착하면 그 포착 지점의 카메라 이미지 좌표와 그 때의 주사 각도, 카메라와 레이저 빔의 발사 지점까지의 거리에 의하여 레이저 발사 지점과 레이저 반사 지점 사이의 거리를 삼각도법(triangular method)에 의해 계산해 낼 수 있다. 이러한 삼각도법이란, 레이저의 발사 지점과 레이저(LASER)의 반사 지점, 그리고 레이저 발사 지점과 카메라 사이의 거리의 관계를 삼각형의 기하학적 관계로 변환하여 거리를 구하는 방법을 의미한다.
스트럭쳐드 라이트 거리 센서는 도 1과 같이 카메라(Camera)와 라인 레이저(line laser)를 이용하여 장애물까지의 거리를 파악하는 장치이다. 이를 위하여 카메라에는 광학 필터(optical filter)를 부착하여 레이저 패턴 이외의 외부 잡음을 제거한다. 그러나, 거리에 따라 레이저 패턴의 굵기가 달라지므로 거리 검출 범위가 좁다는 문제점이 있다. 또한, 카메라에 스트럭쳐드 라이트의 반사된 패턴이 나타나는 경우, 또는 주변 환경에 의한 잡음(예: 자연광)이 발생하는 경우 등에서는 그 기능이 제대로 발휘되지 못한다.
이러한 스트럭쳐드 라이트를 이용하는 시스템에서의 이미지 처리 방법으로서, 입력 이미지를 이진화(Image binarization)하고 이진화된 이미지의 히스토그램 (histogram)을 이용하는 방법이 알려져 있다. 예를 들어, 상기 방법을 적용한 장치(예: 자동차)는 도 2와 같이 프런트 범퍼(front bumper)에 레이저 및 카메라를 장착하고, 대상 물체에 레이저를 조사하여 그 반사되는 이미지를 입력 받는다. 그리고, 밝기가 어느 이상인 픽셀(pixel)의 개수를 도 3과 같은 히스토그램으로 표현하고 그 개수를 카운트함으로써 물체의 코너 부분을 인식할 수 있다. 그러나, 이러한 기술은 검출 대상이 단순한 경우에 한하여 적용될 수 있고, 최초 검출 이후에 추적이 용이한 물체에만 적용될 수 있어서, 가정용 로봇에는 채택하기가 어렵다.
본 발명은 상기한 문제점을 고려하여 창안된 것으로, 스트럭쳐드 라이트에 의하여 생성된 이미지 상의 라인 패턴로부터 효율적으로 잡음을 제거하는 방법 및 장치를 제공하는 것을 목적으로 한다.
특히 본 발명은, 상기 이미지에서 미러 효과에 의해 반사된 라인 패턴 잡음을 제거하는 것을 또 다른 목적으로 한다.
상기한 목적을 달성하기 위하여, 소정의 광원을 조사(照射)하는 광원 모듈과 상기 광원이 조사된 이미지를 포착하는 카메라 모듈을 구비하고 상기 포착된 이미지에 포함된 라인 패턴을 처리하는 장치에 있어서, 소정의 위치에 형성된 단순 라인 패턴을 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는 커널 학습부; 상기 결정된 커널 모양 및 최적 문턱값을 이용하여, 포착된 실제 테스트 이미지에 컨볼루션을 적용하는 컨볼루션 적용부; 및 상기 컨볼루션이 적용된 이미지에 포함된 픽셀 칼럼을 세로 방향으로 스캔하여 픽셀 값이 0이 아닌 복수의 픽셀군이 존재하는 경우 이 중 선택된 하나의 픽셀군 이외의 픽셀군의 픽셀 값을 0으로 설정하는 영역 선택부를 포함한다.
상기한 목적을 달성하기 위하여, 소정의 광원이 조사(照射)된 이미지를 포착하여 상기 포착된 이미지에 포함된 라인 패턴을 처리하는 방법에 있어서, (a) 소정의 위치에 형성된 단순 라인 패턴을 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는 단계; (b) 상기 결정된 커널 모양 및 최적 문턱값을 이용하여, 포착된 실제 테스트 이미지에 컨볼루션을 적용하는 단계; 및 (c) 상기 컨볼루션이 적용된 이미지에 포함된 픽셀 칼럼을 세로 방향으로 스캔하여 픽셀 값이 0이 아닌 복수의 픽셀군이 존재하는 경우 이 중 선택된 하나의 픽셀군 이외의 픽셀군의 픽셀 값을 0으로 설정하는 단계를 포함한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
전술한 바와 같이, 스트럭쳐드 라이트 거리 센서를 이용하여 SLAM을 구현하 기 위해서는 스트럭쳐드 라이트를 조사(irradiation)한 후 포착되는 이미지에서 잡음을 정확하게 제거하는 것이 매우 중요하다. 따라서, 본 발명에서는 상기 포착된 이미지에서 스트럭쳐드 라이트 조사에 의하여 발생되는 이미지 이외의 모든 잡음을 효율적으로 제거하는, 즉 라인 패턴(line pattern)을 처리하는 기술을 제시하고자 한다.
이러한 라인 패턴 처리 기술은 기본적으로, 레이저 조사 후 포착되는 이미지에는 실제 레이저에 의한 패턴 외에 잡음이 포함될 수 있고, 이러한 잡음이 이후 거리 측정 등의 어플리케이션에서 오류를 일으키는 원인이 되기 때문에, 이와 같은 잡음을 효율적으로 제거하고자 하는 데 주안점을 둔다.
이를 위하여, 본 발명에서는 포착된 이미지는 세로 방향을 따라서 서로 다른 거리를 가지므로, 레이저 패턴도 서로 다른 두께를 가진다는 점에 착안하여, 상기 포착된 이미지를 소정 개수의 세로 구간으로 구분한 후, 각 구간 별로 서로 다른 라인 패턴 처리 방법을 적용한다. 또한, 미러 효과(mirror effect)에 의하여 발생하는 잡음을 제거하기 위한 "영역 선택" 과정도 아울러 수행한다.
본 발명의 일 실시예에 따른 라인 패턴 처리 장치(200)는 도 4에 도시된다. 라인 패턴 처리 장치(200)는 제어부(210), 메모리(220), 카메라/광원 제어부(230), 카메라 모듈(240), 광원 모듈(250), 커널 학습부(260), 컨볼루션 적용부(270), 및 영역 선택부(280)를 포함하여 구성될 수 있다. 물론, 라인 패턴 처리 장치(200)가 라인 패턴 처리된 이미지를 이용하여 거리 정보를 계산하기 위해서는 거리 정부 계산부(290)를 더 포함할 수 있다.
제어부(210)는 라인 패턴 처리 장치(200) 내부의 다른 구성요소들을 제어하고 인터럽트를 처리하는 기능을 수행한다. 제어부(210)는 중앙 처리 장치(CPU), 또는 마이콤(micro-processor) 등에 의하여 구현될 수 있다.
메모리(220)는 라인 패턴 처리 장치(200)의 동작에 있어서 필요한 각종 변수들을 임시 저장하고, 라인 패턴 처리 결과 생성되는 이미지를 저장한다.
카메라/광원 제어부(230)는 카메라 모듈(240) 및 광원 모듈(250)의 동작을 제어한다. 카메라/광원 제어부(230)는 라인 패턴을 입력 받기 위하여 광원 모듈(250)을 동작시킨 상태에서 카메라 모듈(240)의 동작시킨다.
광원 모듈(250)은 카메라/광원 제어부(230)의 제어에 따라서, 라인 레이저(line laser)를 조사한다. 라인 레이저는 도 1에서와 같이 수평 방향으로 펼쳐져서 조사된다.
카메라 모듈(240)은 카메라/광원 제어부(230)의 제어에 따라서, 상기 라인 레이저가 조사된 이미지를 포착한다. 이 때, 카메라 모듈(240)에는 소정의 주파수 대역의 광원 만을 입력 받을 수 있도록 대역 통과 필터(band pass filter)가 설치되어 있다. 따라서, 카메라 모듈(240)은 레이저 광원의 주파수에 근접하는 광원 만을 입력 받게 된다. 그러나, 이와 같이 대역 통과 필터가 구비된다고 하더라도, 레이저 광원 주파수에 근처의 다른 종류의 광원(즉, 잡음)이 여전히 존재할 수 있다. 특히, 자연광은 넓은 주파수 대역을 가지므로, 카메라 모듈(240)에 입력되는 이미지 중에 잡음으로 포함될 가능성이 크다.
커널 학습부(260)는 소정의 위치에 형성된 라인 레이저 패턴을 포함한 입력 이미지를 이용하여, 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정한다.
이를 위하여, 커널 학습부(260)는 광원 모듈(250)로 하여금 소정의 위치에 학습용 라인 레이저 패턴을 조사하게 하고, 카메라 모듈(240)로 하여금 상기 레이저 패턴이 포함된 이미지를 포착하게 한다. 이러한 학습용 라인 레이저 패턴(이하, '단순 라인 패턴'이라고 함)은 장애물이 전혀 없는 상태에서 조사하는 것이 바람직하다. 도 5에 도시하는 바와 같이, 광원 모듈(250)은 소정의 위치 라인 레이저를 조사하고 카메라 모듈(240)은 레이저 패턴이 포함된 이미지를 포착하는데, 이러한 과정은 소정의 위치 각각에 대하여 반복된다.
이러한 커널 학습 과정은, 이와 같이 소정 위치에 라인 레이저를 조사하고 이미지를 포착하는 과정과, 현재 위치에서의 커널 모양을 선정하는 과정과, 현재 위치에서의 최적 문턱값을 계산하는 과정으로 크게 나눌 수 있다. 커널 학습 과정에 대한 보다 자세한 설명은 후술하는 도 13의 설명에서 하기로 한다.
이와 같은 커널 학습 과정을 통하여 상기 위치 별로 커널 모양 및 최적 문턱값을 결정하였다면, 이들은 도 6과 같이 입력 이미지(20)에 대하여 상기 위치가 대표할 수 있는 구간에서의 커널 모양 및 최적 문턱값으로 사용된다. 예를 들어, 소정의 위치는 3개로 구분되며 제1 위치가 40cm이고, 제2 위치가 80cm, 제3 위치가 120cm라고 하면, 0cm 에서 60cm 까지는 제1 위치에서 결정된 커널 모양 및 최적 문턱값을, 60cm 에서 100cm 까지는 제2 위치에서 결정된 커널 모양 및 최적 문턱값을, 100cm 이상에서는 제3 위치에서 결정된 커널 모양 및 최적 문턱값을 이용할 수 있을 것이다. 실제로 이러한 구간은 카메라 모듈(240)에 의하여 포착된 이미지에서는 도 6과 같이 세로 방향으로 구분되는 구간들로 나뉘어 질 수 있다.
컨볼루션 적용부(270)는 커널 학습부(260)에 의하여 결정되는 커널 모양 및 최적 문턱값을 이용하여, 도 7과 같이 실제 장애물이 존재하는 환경에서 라인 레이저를 조사하고 포착한 이미지(이하, 테스트 이미지이라고 함)에 컨볼루션을 적용한다. 이와 같이 컨볼루션을 적용할 때에는 각 구간 별로 서로 다른 커널 모양 및 최적 문턱값을 적용하게 된다. 도 8은 도 7에서 포착한 이미지를 나타낸 것인데, 라인 레이저 패턴(30)을 이루는 픽셀들(31, 32, 33 등)은 서로 속하는 구간이 다를 수 있다. 따라서, 각 픽셀(31, 32, 33)에는 속하는 구간에 따라 서로 다른 커널 모양 및 최적 문턱값이 적용된다.
한편, 본 발명에서 사용되는 커널(컨볼루션 커널)은 도 9와 같이 정의될 수 있다. 여기서, kernelm ,n은 세로 방향으로 픽셀 m~n개를 통과시키는 컨볼루션 커널을 의미하고, m, n은 각각 최소 라인 두께(최소 커널 크기) 및 최대 라인 두께(최대 커널 크기)를 의미한다. 이러한 커널을 세로 방향으로 적용시키면 m~n의 두께를 갖는 픽셀 만이 통과된다.
예를 들어, m이 2이고, n이 6인 경우에 커널은 다음의 수학식 1과 같이 나타난다. 이와 같은 커널은 인접한 2개 내지 6개의 픽셀을 통과시키는 역할을 한다.
Figure 112005007651626-PAT00001
물론, 이러한 커널을 적용한 결과, 픽셀의 통과 여부를 결정하기 위해서는 이러한 기준이 되는 문턱값이 필요하다. 만약, 문턱값이 m×255이라면(하나의 픽셀은 8비트로 표현된다고 가정함), 이진 영상의 경우 정확하게 연속된 2개의 white 픽셀 내지 연속된 6개의 white 픽셀은 커널을 통과할 수 있다.
그러나, 실제 테스트 영상은 이진 영상이 아니며 0 내지 255의 값(8비트의 경우)로 표현될 수 있으므로, 정확하게 2개 내지 6개의 연속된 픽셀이 통과되지는 않는다. 또한 문턱값도 m×255를 이용하는 것은 아니고, 커널 학습부(260)에서 결정된 최적 문턱값(m×255보다는 작은 값이다)을 이용한다.
이러한 컨볼루션은 도 10과 같은 방식으로 적용된다. 하나의 픽셀 칼럼에 대하여 커널을 세로 방향으로 이동시키면서 컨볼루션 적용 값을 계산하고 그 계산 값이 문턱값을 넘는가를 판단하여 문턱값이 넘는 경우에 해당 픽셀을 통과시킨다. 만약, 도 10과 같은 위치에서 커널(50)을 이용하여 컨볼루션 적용 값 C를 계산하면, 다음의 수학식 2와 같다. 여기서, 포착된 라인 레이저 패턴(40)의 픽셀 값은 모두 P라고 가정하고 그 이외의 영역은 모두 0이라고 가정한다.
Figure 112005007651626-PAT00002
그리고, 이렇게 계산된 컨볼루션 적용 값을 해당 구간의 최적 문턱값과 비교하여 상기 최적 문턱값을 넘는 픽셀만을 통과시키게 된다. 컨볼루션 적용 결과 생성되는 이미지(이하 "컨볼루션 적용 이미지"라 함)는 이진 영상으로서, 상기 컨볼루션 커널을 통과하는 픽셀들은 모두 255로(8비트로 표시하는 경우) 표시되고 나머 지 통과하지 않는 픽셀들은 모두 0으로 표시된다.
이와 같은 컨볼루션 적용 과정을 특정 픽셀 칼럼(60)에 대하여 모두 수행한 후 다음 픽셀 칼럼에 대하여도 마찬가지 과정을 수행한다. 이와 같은 과정은 전체 이미지에 모두 적용한 후에 종료된다. 컨볼루션 적용 과정은 커널 학습부(260)에 의하여 세로 구간 별로 서로 다른 커널 모양 및 최적 문턱값을 이용하여 수행되므로, 각 구간에서 커널이 갖는 범위(m 내지 n 사이)를 벗어나는 잡음 픽셀을 걸러낼 수 있는 것이다.
영역 선택부(280)는 컨볼루션 적용부(270)에 의하여 컨볼루션이 적용된 이미지를 세로 방향으로 스캔하여 하나의 픽셀 칼럼에 2이상의 0이 아닌 불연속 픽셀들이 존재하는지를 판단하고 상기 불연속 픽셀들 중에서 두께가 가장 두꺼운 연속 픽셀들을 선택한다. 이와 같은 과정을 통하여 최종적인 라인 패턴 처리된 이진 이미지(이하 "출력 이진 이미지"라 함)가 생성된다. 영역 선택부(280)에서 수행되는 영역 선택 과정은 도 17을 참조하여 보다 자세히 설명하기로 한다. 이러한 영역 선택 과정은 레이저 패턴의 반사가 일어나는 경우에는 하나의 픽셀 칼럼 내에서도 연속되지 않은 복수의 픽셀군(내지 영역)이 존재할 수 있으므로, 이 중에서 반사로 인하여 발생된 패턴을 제거하기 위한 과정이다. 반사된 패턴은 원 패턴보다 두께가 더 가늘 것이라는 가정하에, 상기 존재하는 복수의 픽셀군 중에서 가장 두께가 두꺼운 영역 만을 선택하는 것이다.
한편, 본 발명에 따른 라인 패턴 처리 장치(200)는 상기 출력 이진 이미지를 이용하여 2차원 맵(map)을 작성하는 거리 정보 계산부(290)를 더 포함할 수 있다.
거리 정보 계산부(290)는 본 발명에 따른 라인 패턴 장치(200)에 의하여 생성되는 출력 이진 이미지를 이용하여 장애물과의 거리를 계산하고, 계산된 결과에 따라서 맵을 작성한다.
이 때, 출력 이진 이미지에 존재하는 각각의 포인트에 대한 정보는 도 11과 같이, 삼각도법에 의한 거리 계산법에 의해 평면에서의 좌표값으로 변환되며, 그 결과로서 거리 데이터를 얻을 수 있다. 이 때, 상기 평면은 도 7에서 도시한 광원 모듈(250)과 장애물을 위에서 바라본 평면을 의미한다. 이것을 도 6에서 도시하고 있는데, 출력 이진 이미지(70)에서 임의의 좌표를 [xs ys]T고 하고, 삼각도법에 의한 변환 함수를 F라고 하면, 평면 좌표(80)는 [Zp Xp]T = F(xs, ys) 로 나타낼 수 있다. 여기서 Z 방향은 레이저 발사 지점으로부터 장애물, 즉 발사된 레이저에 의해 반사되는 반사체에 대한 거리 방향을 나타낸다. 여기서 F(xs, ys)는 다음 수학식 3과 같이 정의될 수 있다.
Figure 112005007651626-PAT00003
여기서 xo와 yo는 영상 중심의 위치 (픽셀 단위), PY는 카메라와 레이저를 발사하는 레이저 모듈(250)과의 거리,
Figure 112005007651626-PAT00004
는 카메라의 기울어진 각도, a와 b는 영상 픽셀 단위와 공간 상의 거리와의 비를 나타내는 스케일(scale)에 관련된 상수이다. 여기서 함수 F는 2차원 벡터로서 통상적인 2차원 벡터에 적용되는 덧셈, 뺄셈, 및 절대치 계산이 적용된다.
지금까지 도 4의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.
도 12는 본 발명의 일 실시예에 따른 라인 패턴 처리 과정을 나타낸 흐름도이다.
먼저, 커널 학습부(260)는 소정의 위치에 형성된 라인 레이저 패턴을 포함한 입력 이미지를 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는, 커널 학습 과정을 수행한다(S100). 커널 학습 과정은 후술하는 도 13의 설명에서 보다 자세히 설명하기로 한다. 이러한 커널 학습이 완료되면, 이미지의 세로 구간 별로 최적의 커널 모양 및 최적 문턱값이 결정되어 메모리(220)에 저장된다. 그리고 이후에는 실제 테스트 이미지를 입력 받고 이들을 이용하여 상기 입력된 이미지에 포함된 라인 패턴을 처리하는 과정을 수행할 수 있다.
카메라/광원 제어부(230)는 카메라 제어 신호와 광원 제어 신호를 송출하여, 광원 모듈(250)로 하여금 소정의 광원(레이저)를 조사하게 하고, 카메라 모듈(240)로 하여금 상기 광원이 조사된 이미지를 포착하게 한다(S200).
그리고, 제어부(210)는 메모리(220)에 저장된 세로 구간별 커널 모양 및 최적 문턱값을 로딩(loading)한다(S300).
컨볼루션 적용부(270)는 제어부(210)의 제어에 따라서 상기 로딩된 커널 모양 및 최적 문턱값을 이용하여 상기 카메라 모듈(240)에 의하여 포착된 이미지에 대하여 컨볼루션을 적용한다(S400). 이러한 컨볼루션 적용 과정시에는 대상 픽셀이 속하는 세로 구간에 따라서 서로 다른 커널 모양 및 최적 문턱값이 적용된다.
영역 선택부(280)는 컨볼루션 적용부(270)에 의하여 컨볼루션이 적용된 이미지를 세로 방향으로 스캔하여 하나의 픽셀 칼럼에 픽셀값이 0이 아닌 연속된 픽셀들의 집합(이하, '픽셀군'이라 함)을 찾아내고, 상기 픽셀군들 중에서 두께가 가장 두꺼운 연속 픽셀들(즉, 영역)을 선택하는 과정(S500)을 통하여, 최종적인 출력 이진 이미지를 생성한다.
제어부(210)는 영역 선택부(280)에서 생성된 출력 이진 이미지를 메모리(220)에 저장하고(S600), 거리 정보 계산부(290)는 상기 저장된 출력 이진 이미지를 이용하여 장애물과의 거리를 계산하고 계산된 결과에 따라서 맵을 작성한다(S700).
도 13은 도 12의 커널 학습 과정(S100)을 보다 자세히 나타낸 흐름도이다.
먼저, 광원 모듈(250)은 소정 거리에 라인 레이저를 조사하고(S105), 카메라 모듈(240)은 상기 레이저가 조사된 이미지를 포착한다(S110).
그 후, 커널 학습부(260)는 상기 포착된 이미지를 이진화한다(S120). 이러한 이진화는 입력된 영상의 각 픽셀에 대하여 소정의 임계치를 넘으면 white 픽셀(8비트의 경우 픽셀 값은 255임)로, 소정의 임계치를 넘지 않으면 black 픽셀(픽셀 값은 0임)로 변환하는 과정이다.
커널 학습부(260)는 상기 이진화된 이미지의 라인 패턴에 따라서 커널 모양을 선정한다. 상기 커널 모양은 본 발명에 따른 도 9와 같은 커널에서 m, n이 결정됨에 따라서 정해진다. 도 14에서와 같이, 이진화된 이미지(90)에 포함된 라인 패턴(40)의 최대 두께가 n이라고 하고, 최소 두께가 m이라고 하면 도 9와 같이 최소 크기 m, 최대 크기 n을 갖는 커널 모양이 결정된다. 본 발명의 커널 학습에 있어서, 도 9와 같은 커널을 이용할 수도 있지만, 잡음에 대한 강인성(robustness)를 증대하기 위하여 도 15와 같은 변형된 커널을 이용할 수도 있다. 도 15와 같이 변형된 커널에서는 어두운 부분(-m/2)이 다소 확대되는 효과가 있다(즉, 잡음이 통과될 가능성이 상대적으로 낮다).
다음으로, 커널 학습부(260)는 최소 커널 크기(m)을 이용하여 문턱값 구간(Th. 구간)을 선정한다(S140). 이러한 문턱값 구간은 0 ~ 255×m 의 범위로 지정될 수 있다.
커널 학습부(260)는 초기 문턱값을 상기 문턱값 구간의 1/2되는 값, 즉 255×m×1/2로 설정하고(S150), 선정된 커널 모양 및 현재의 문턱값(Th.)을 이용하여 컨볼루션 적용부(270)로 하여금 상기 이진화되기 전 영상, 즉 카메라 모듈(240)에 입력된 영상에 대하여 컨볼루션을 적용하게 한다(S160).
컨볼루션 적용 후, 커널 학습부(260)는 abs(Diff)가 min_Ch 보다 작은지를 판단하여(S170), 그러하다면 S180 단계로 진행하지만, 그렇지 않다면 아직 최적의 문턱값을 얻지 못한 경우이므로 다시 S190 단계로 진행한다.
여기서, abs(.) 함수는 절대치를 구하는 함수를 의미하고, Diff는 상기 이진화된 이미지에서 상기 S160 단계에서의 컨볼루션을 적용 이미지를 뺀 결과의 합계, 즉 양 이미지 간에 대응되는 픽셀 값의 차이를 합계를 의미한다. 그리고, min_Ch는 허용되는 Diff의 임계치를 의미하는데, min_Ch는 사용자에 따라 적절한 다른 값으로 선택될 수 있다. 다만, min_Ch가 너무 크면 최적의 문턱값을 얻기 어렵고, min_Ch가 너무 작으면 도 13의 루프(S170, S190, S160으로 이어지는 과정)를 다수회 반복하여야 하는 단점이 있다. 상기 min_Ch는 대략 255×5 정도의 값(8비트 이미지의 경우)으로 선택할 수 있다. 물론, 본 실시예와 달리 min_Ch를 사용하지 않고 abs(Diff)가 최소가 되는 문턱값을 반복적으로 찾아낼 수도 있다.
S190 단계에서, 커널 학습부(260)는 Diff가 0보다 큰지를 판단하여(S190), 그러하다면 Th.를 소정의 크기만큼 감소시키고(S191), 그렇지 아니하다면 Th.를 상기 크기만큼 증가시킨다(S192). Diff가 0보다 크다는 것은 이진화된 이미지에 비하여 컨볼루션 적용 이미지가 더 어둡다는 의미이므로 S191에 의하여 문턱값을 낮춤으로써 컨볼루션 적용 이미지를 상대적으로 더 밝게 하고, Diff가 0보다 작다는 것은 이진화된 이미지에 비하여 컨볼루션 적용 이미지가 더 밝다는 의미이므로 S192에 의하여 문턱값을 높임으로써 컨볼루션 적용 이미지를 상대적으로 더 밝게 하여 야 하기 때문이다.
본 발명의 실시예에서 Th.를 변경하는 상기 소정의 크기는 초기 문턱값을 소정의 갯수 N으로 나눈 값을 의미한다.
S191, S192 단계를 거친 이후 다시 S160 단계 및 S170 단계를 반복 수행한다. 이러한 반복 수행 과정은 S170 단계에서의 조건이 만족될 때까지 수행된다.
S170 단계에서 abs(Diff)가 min_Ch 보다 작다면(S170의 아니오), 소정의 모든 거리에 대하여 수행하였는지를 판단하여(S180) 그러하다면 종료하고 그렇지 아니하다면 다시 다른 거리에 레이저를 조사하여 S105 이하 과정을 반복한다.
도 13과 같은 학습 과정의 이해를 돕기 위하여 보다 자세한 예를 들어 설명한다. 레이저를 조사할 소정의 거리를 {40, 55, 70, 100, 220, 340, 460}(cm)라고 하고, 세로 크기가 480인 이미지에서 상기 거리에 각각 대응되는 세로 픽셀 구간은 아래에서 위쪽 방향으로 {0~59, 60~79, 80~109, 110~179, 180~249, 250~299, 300~479}으로 나눈다고 가정한다. 이 경우 각각의 거리에서 생성된 이진화 이미지 및 이 때 몇몇의 Th.에 따른 컨볼루션 적용 이미지는 다음의 도 16a 내지 도 16e에서 나타내는 바와 같다.
도 16a는 40cm 거리에서 입력된 이미지로부터 이진화된 이미지(90a)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95a)를 나타낸 도면이다. 여기서, 최소 크기는 2이고, 최대 크기가 15인 커널이 선정된다. 컨볼루션 적용 이미지(95a) 중에서, abs(Diff)의 최소값은 2178이며, 이 때의 Th.인 200.39가 최적 문턱값이 된다.
그리고, 도 16b는 55cm 거리에서 입력된 이미지로부터 이진화된 이미지(90b) 와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95b)를 나타낸 도면이다. 여기서, 최소 크기는 2이고, 최대 크기가 13인 커널이 선정된다. 컨볼루션 적용 이미지(95b) 중에서, abs(Diff)의 최소값은 1508이며, 이 때의 Th.인 167.43이 최적 문턱값이 된다.
도 16c는 70cm 거리에서 입력된 이미지로부터 이진화된 이미지(90c)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95c)를 나타낸 도면이다. 여기서, 최소 크기는 2이고, 최대 크기가 9인 커널이 선정된다. 컨볼루션 적용 이미지(95c) 중에서, abs(Diff)의 최소값은 834이며, 이 때의 Th.인 87.58이 최적 문턱값이 된다.
또한, 도 16d는 100cm 거리에서 입력된 이미지로부터 이진화된 이미지(90d)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95d)를 나타낸 도면이다. 여기서, 최소 크기는 2이고, 최대 크기가 8인 커널이 선정된다. 컨볼루션 적용 이미지(95d) 중에서, abs(Diff)의 최소값은 1294이며, 이 때의 Th.인 116.43이 최적 문턱값이 된다.
다음, 도 16e는 220cm 거리에서 입력된 이미지로부터 이진화된 이미지(90e)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95e)를 나타낸 도면이다. 여기서, 최소 크기는 2이고, 최대 크기가 7인 커널이 선정된다. 컨볼루션 적용 이미지(95e) 중에서, abs(Diff)의 최소값은 590이며, 이 때의 Th.인 327.64가 최적 문턱값이 된다.
그리고, 도 16f는 340cm 거리에서 입력된 이미지로부터 이진화된 이미지(90f)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95f)를 나타낸 도면이다. 여기 서, 최소 크기는 2이고, 최대 크기가 6인 커널이 선정된다. 컨볼루션 적용 이미지(95f) 중에서, abs(Diff)의 최소값은 649이며, 이 때의 Th.인 255.00가 최적 문턱값이 된다.
마지막으로, 도 16g는 460cm 거리에서 입력된 이미지로부터 이진화된 이미지(90g)와 몇몇의 Th.에 따른 컨볼루션 적용 이미지(95g)를 나타낸 도면이다. 여기서, 커널은 최소 크기는 2이고, 최대 크기가 6인 커널이 선정된다. 컨볼루션 적용 이미지(95g) 중에서, abs(Diff)의 최소값은 180.32이며, 이 때의 Th.인 182.36이 최적 문턱값이 된다.
도 16a 내지 도 16g에서 선택된 커널 모양 및 최적 문턱값은 다음의 표 1에 나타내 바와 같이 세로 픽셀 구간 별로 선정되고 메모리(220)에 저장된다.
픽셀 범위 (아래방향으로) 커널 모양 문턱값
m n
0~59 2 6 182.36
60~79 2 6 255
80~109 2 7 327.64
110~179 2 8 116.43
180~249 2 9 87.58
250~299 2 13 167.43
300~479 2 15 200.39
도 17은 도 12의 영역 선택 과정(S500)을 보다 자세히 나타낸 흐름도이다. 이러한 영역 선택 과정은 미러 효과에 의하여 반사된 레이저 패턴(잡음의 일종)을 제거하기 위한 과정이다. 도 18과 같이 S400 단계에 의하여 생성된 컨볼루션 적용 이미지가 있다고 할 때, 어떤 픽셀 칼럼(60)에 대하여 세로 방향으로 스캔하여 복수의 픽셀군(61, 62)이 발견된다고 한다면, 이중에서 픽셀의 두께가 두꺼운 픽셀군(61)이 실제 레이저 패턴이며, 두께가 얇은 픽셀군(62)은 반사된 레이저 패턴을 가능성이 크다. 왜냐하면, 광원 모듈(250)에 의하여 수평 방향으로 라인 레이저를 조사하여 포착된 이미지에서는, 이론상 수직 방향으로 하나의 레이저 패턴, 즉 하나의 픽셀군 만이 발견되어야 할 것이기 때문이다. 그리고, 상기 컨볼루션 적용 이미지는 전술한 바와 같이 커널의 통과 여부에 따라서 0 또는 255 값을 갖는(8비트 영상을 가정할 때) 이진 이미지이다.
영역 선택 과정(S500)을 수행하기 위하여, 먼저 영역 선택부(280)는 카메라 모듈(240)에 포착된 이미지(20)의 어떤 픽셀 칼럼에 대하여 세로 방향으로 스캔한다(S510). 이러한 픽셀 칼럼 스캔은 가장 좌측의 픽셀 칼럼에서 가장 우측의 픽셀 칼럼까지에 대하여 수행된다.
만약, 이러한 스캔 과정 중 픽셀 값이 0인 픽셀군이 발견된다면(S520의 예), 영역 선택부(280)는 픽셀군에 포함된 연속된 픽셀의 두께를 계산한다(S530).
그리고, 상기 픽셀군이 처음 발견된 것이라면(S540의 예) S550 단계로 진행하고, 그렇지 않다면(S540의 아니오) S541 단계로 진행한다.
S541 단계에서, 영역 선택부(280)는 메모리(220)에 현재 픽셀군의 픽셀 정보를 저장하고(S541), 아래쪽 방향으로 다음 픽셀로 이동한 후(S542), 세로 방향 스캔을 계속한다(S510). 여기서, 픽셀 정보는 픽셀군의 좌표 정보, 픽셀 두께 정보를 포함한다.
한편, S550 단계에서, 영역 선택부(280)는 현재 픽셀군의 픽셀 두께가 기 저장된 픽셀 두께보다 더 두꺼운가를 판단하여(S550), 그러하다면 기 저장된 픽셀 값을 모두 0으로 교체한다(S560). 그리고, 현재 픽셀군의 픽셀 정보를 저장하고(S570) S580 단계로 진행한다.
S550 단계에서, 그러하지 아니하다면 현재 픽셀군의 픽셀 값을 모두 0으로 교체하고(S561), 현재 픽셀군의 픽셀 정보를 저장한 후(S570) S580 단계로 진행한다.
S580 단계에서, 영역 선택부(280)는 해당 픽셀 칼럼의 모든 픽셀에 대하여 스캔을 완료하였으면(S580의 예) 종료하고, 그렇지 아니하다면 다음 픽셀로 이동한다(S542).
이상의 도 17의 흐름도는 어떤 하나의 픽셀 칼럼에 대하여 수행한 것이지만, 영역 선택 과정은 이미지를 구성하는 모든 픽셀 칼럼에 대하여 도 17의 과정이 반복하여 수행된다.
이하 도 19a 내지 도 19e, 및 도 20a 내지 도 20c는, 본 발명에 따른 실험 결과를 보여주는 도면들이다.
도 19a와 같은 라인 레이저 패턴을 포함한 이미지가 카메라 모듈(240)에 입력된다고 할 때, 본 발명에 따른 거리별 컨볼루션 커널-문턱값 조합을 이용하지 않고 거리에 무관하게 단순히 하나의 컨볼루션 커널만을 적용한 결과(이하 "비교실시예"라 함)는 도 19b에 나타나는 바와 같다. 그 결과를 보면 거리에 따라서 인식이 잘되는 부분과 그렇지 않은 부분이 모두 존재함을 알 수 있다. 이러한 비교실시예에 의한 라인 패턴 처리 결과에 대하여, 도 11의 예와 같이 삼각도법에 의한 거리 계산을 적용하여 생성된 맵은 도 19c에 나타낸 바와 같다. 상기 라인 패턴 처리 결과가 정확하지 않으므로 도 19c의 맵에서 생성된 장애물의 형상 또한 정확하지 않음을 알 수 있다.
도 19d는 도 19a의 입력 이미지에 대하여 본 발명에 따른 방법을 적용한 라인 패턴 처리 결과를 나타낸 것이다. 그 결과를 보면 거리에 상관 없이 입력 영상의 라인 레이저 패턴을 정확하게 나타내고 있음을 알 수 있다. 도 19d의 라인 패턴 처리 결과에 거리 계산을 적용하여 생성된 맵은 도 19e와 같이 나타난다. 여기서 보면, 상기 라인 패턴에 따른 장애물의 형상이 정확하게 나타남을 알 수 있다.
한편, 도 20a 내지 20c는 반사된 라인 레이저 패턴이 존재하는 경우에 대한 실험 결과를 나타낸 것이다. 도 20a와 같은 이미지가 입력된다고 할 때, 비교실시예에 의한 라인 패턴 처리 결과는 도 20b와 같다. 도 20b를 보면, 입력 이미지에 나타난 미러 효과가 그대로 반영되어 나타남을 알 수 있다. 반면에, 본 발명에 따른 라인 패턴 처리 결과를 나타내는 도 20c를 보면, 반사된 라인 패턴은 제거되고, 라인 레이저 조사에 의하여 생성된 원래의 라인 패턴만이 나타난다는 것을 알 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.
본 발명에 따르면, 스트럭쳐드 라이트에 의하여 생성된 이미지 상의 라인 패턴에서 효율적으로 잡음을 제거할 수 있다.
본 발명에 따르면 특히, 미러 효과에 의해 반사된 라인 패턴 잡음을 효과적으로 제거할 수 있다.

Claims (18)

  1. 소정의 광원을 조사(照射)하는 광원 모듈과 상기 광원이 조사된 이미지를 포착하는 카메라 모듈을 구비하고 상기 포착된 이미지에 포함된 라인 패턴을 처리하는 장치에 있어서,
    소정의 위치에 형성된 단순 라인 패턴을 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는 커널 학습부;
    상기 결정된 커널 모양 및 최적 문턱값을 이용하여, 포착된 실제 테스트 이미지에 컨볼루션을 적용하는 컨볼루션 적용부; 및
    상기 컨볼루션이 적용된 이미지에 포함된 픽셀 칼럼을 세로 방향으로 스캔하여 픽셀 값이 0이 아닌 복수의 픽셀군이 존재하는 경우 이 중 선택된 하나의 픽셀군 이외의 픽셀군의 픽셀 값을 0으로 설정하는 영역 선택부를 포함하는 라인 패턴 처리 장치.
  2. 제1항에 있어서,
    상기 광원은 라인 레이저(line laser)인 라인 패턴 처리 장치.
  3. 제1항에 있어서,
    상기 카메라 모듈은 상기 광원의 주파수에 근접하는 신호만을 입력 받기 위한 대역 통과 필터를 구비하는 라인 패턴 처리 장치.
  4. 제1항에 있어서,
    상기 커널 모양은, 최소 커널 크기가 m이고 커널의 최대 크기가 n이라고 할 때, 순서대로 -m과, (n-m)/2개의 0과, m개의 1과, (n-m)/2개의 0과, -m으로 구성되는 라인 패턴 처리 장치.
  5. 제1항에 있어서,
    상기 커널 모양은, 최소 커널 크기가 m이고 커널의 최대 크기가 n이라고 할 때, 순서대로 2개의 -m/2과, (n-m)/2개의 0과, m개의 1과, (n-m)/2개의 0과, 2개의 -m/2로 구성되는 라인 패턴 처리 장치.
  6. 제4항 또는 제5항에 있어서,
    상기 최적의 문턱값은 상기 최소 크기 m을 이용하여 결정되는 라인 패턴 처리 장치.
  7. 제1항에 있어서,
    상기 영역 선택부를 거친 이미지에 대해 삼각도법을 적용하여, 장애물과의 거리를 계산하는 거리 정보 계산부를 더 포함하는 라인 패턴 처리 장치.
  8. 제1항에 있어서, 상기 컨볼루션 적용부는
    상기 결정된 커널 모양에 따른 컨볼루션 커널을 상기 테스트 이미지에 포함된 픽셀 칼럼을 따라서 이동하면서 적용하여, 상기 최적의 문턱값을 초과하는 픽셀만을 통과시키는 라인 패턴 처리 장치.
  9. 소정의 광원이 조사(照射)된 이미지를 포착하여 상기 포착된 이미지에 포함된 라인 패턴을 처리하는 방법에 있어서,
    (a) 소정의 위치에 형성된 단순 라인 패턴을 이용하여 상기 이미지의 세로 구간별로 커널 모양 및 최적 문턱값을 결정하는 단계;
    (b) 상기 결정된 커널 모양 및 최적 문턱값을 이용하여, 포착된 실제 테스트 이미지에 컨볼루션을 적용하는 단계; 및
    (c) 상기 컨볼루션이 적용된 이미지에 포함된 픽셀 칼럼을 세로 방향으로 스캔하여 픽셀 값이 0이 아닌 복수의 픽셀군이 존재하는 경우 이 중 선택된 하나의 픽셀군 이외의 픽셀군의 픽셀 값을 0으로 설정하는 단계를 포함하는 라인 패턴 처리 방법.
  10. 제9항에 있어서,
    상기 커널 모양은, 최소 커널 크기가 m이고 커널의 최대 크기가 n이라고 할 때, 순서대로 -m과, (n-m)/2개의 0과, m개의 1과, (n-m)/2개의 0과, -m으로 구성되는 라인 패턴 처리 방법.
  11. 제9항에 있어서,
    상기 커널 모양은, 최소 커널 크기가 m이고 커널의 최대 크기가 n이라고 할 때, 순서대로 2개의 -m/2과, (n-m)/2개의 0과, m개의 1과, (n-m)/2개의 0과, 2개의 -m/2로 구성되는 라인 패턴 처리 방법.
  12. 제10항 또는 제11항에 있어서,
    상기 최적의 문턱값은 상기 최소 크기 m을 이용하여 결정되는 라인 패턴 처리 방법.
  13. 제9항에 있어서
    상기 (c) 단계를 거친 후 출력되는 이미지에 대해 삼각도법을 적용하여 장애물과의 거리를 계산하는 단계를 더 포함하는 라인 패턴 처리 방법.
  14. 제1항에 있어서, 상기 (b) 단계는
    상기 결정된 커널 모양에 따른 컨볼루션 커널을 상기 테스트 이미지에 포함된 픽셀 칼럼을 따라서 이동하면서 적용하여, 상기 최적의 문턱값을 초과하는 픽셀만을 통과시키는 단계를 포함하는 라인 패턴 처리 방법.
  15. 제9항에 있어서, 상기 (a) 단계는
    (a1) 상기 단순 라인 패턴으로 된 이미지를 이진화하는 단계;
    (a2) 상기 이진화된 이미지의 라인 패턴의 세로 방향 두께에 따라서 최소 커널 크기 및 최대 커널 크기를 결정하고 이에 따라서 커널 모양을 선정하는 단계;
    (a3) 상기 최소 커널 크기를 이용하여 문턱값 구간을 설정하는 단계;
    (a4) 상기 선정된 커널 모양 및 상기 문턱값 구간에 속하는 임시 문턱값을 이용하여, 상기 단순 라인 패턴으로 된 이미지에 대하여 컨볼루션 커널을 적용하는 단계; 및
    (a5) 상기 이진화된 이미지 및 상기 컨볼루션 커널이 적용된 이미지 간의 오차가 감소되는 방향으로 상기 임시 문턱값을 변경하는 단계를 포함하는 라인 패턴 처리 방법.
  16. 제15항에 있어서, 상기 (a2) 단계, 상기 (a4) 단계, 및 상기 (a5) 단계는
    상기 오차가 소정의 임계치보다 작을 때까지 반복 수행되는 라인 패턴 처리 방법.
  17. 제9항에 있어서, 상기 (c) 단계는
    (c1) 상기 테스트 이미지의 어떤 픽셀 칼럼에 대하여 세로 방향으로 픽셀 값이 0이 아닌 픽셀군을 스캔하는 단계;
    (c2) 현재 픽셀군의 픽셀 두께가 기 저장된 픽셀 두께보다 더 두꺼운가를 판단하는 단계;
    (c3) 상기 판단 결과 그러하다면 기 저장된 픽셀군의 픽셀 값을 모두 0으로 교체하는 단계; 및
    (c4) 상기 판단 결과 그러하지 아니하다면 상기 현재 픽셀군의 픽셀 값을 모두 0으로 교체하는 단계를 포함하는 라인 패턴 처리 방법.
  18. 제9항에 기재된 방법을 컴퓨터로 판독 가능한 프로그램으로 기록한 기록매체.
KR1020050012003A 2005-02-14 2005-02-14 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치 KR100643305B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020050012003A KR100643305B1 (ko) 2005-02-14 2005-02-14 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치
US11/350,847 US7657099B2 (en) 2005-02-14 2006-02-10 Method and apparatus for processing line pattern using convolution kernel
JP2006035961A JP4242391B2 (ja) 2005-02-14 2006-02-14 コンボリューションカーネルを利用したラインパターンの処理方法、ラインパターンの処理装置及びラインパターンの処理方法を実行するためのプログラムを記録した媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050012003A KR100643305B1 (ko) 2005-02-14 2005-02-14 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20060091137A true KR20060091137A (ko) 2006-08-18
KR100643305B1 KR100643305B1 (ko) 2006-11-10

Family

ID=36815689

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050012003A KR100643305B1 (ko) 2005-02-14 2005-02-14 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치

Country Status (3)

Country Link
US (1) US7657099B2 (ko)
JP (1) JP4242391B2 (ko)
KR (1) KR100643305B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
KR101980697B1 (ko) * 2018-05-09 2019-05-22 주식회사 에스오에스랩 객체 정보 획득 장치 및 방법
US11579254B2 (en) 2017-08-02 2023-02-14 SOS Lab co., Ltd Multi-channel lidar sensor module

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100587572B1 (ko) * 2004-10-15 2006-06-08 삼성전자주식회사 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇
DE102007022524A1 (de) * 2007-05-14 2008-11-20 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
DE102007022523A1 (de) * 2007-05-14 2008-11-20 Bayerische Motoren Werke Aktiengesellschaft Kraftfahrzeug
KR101409987B1 (ko) * 2007-12-11 2014-06-23 삼성전자주식회사 이동 로봇의 자세 보정 방법 및 장치
US9350940B1 (en) * 2009-10-29 2016-05-24 Hewlett-Packard Development Company, L.P. Privacy control for a visual-collaborative system
JP5984336B2 (ja) 2011-02-25 2016-09-06 Ntn株式会社 インホイールモータ車両の駆動装置
CN102866433B (zh) * 2011-07-05 2015-11-25 科沃斯机器人有限公司 探测自移动机器人周边障碍物的探测装置及自移动机器人
US9332734B1 (en) * 2013-02-06 2016-05-10 Paula Padgett Hege Pet calming harness and coat
KR101528604B1 (ko) * 2013-06-24 2015-06-12 주식회사 내비오닉스코리아 이미지 처리 방법 및 장치
FR3022036B1 (fr) * 2014-06-05 2016-07-15 Aldebaran Robotics Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif
CN109145927A (zh) 2017-06-16 2019-01-04 杭州海康威视数字技术股份有限公司 一种对形变图像的目标识别方法及装置
CN108895985B (zh) * 2018-06-19 2020-05-15 中国科学院合肥物质科学研究院 一种基于单像素探测器的物体定位方法
CN109116847B (zh) * 2018-08-29 2021-12-07 广州安商智能科技有限公司 路径调度方法、装置、后台服务端及存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6384373A (ja) 1986-09-29 1988-04-14 Canon Inc 画像修正装置
GB2219905A (en) * 1988-06-17 1989-12-20 Philips Electronic Associated Target detection system
DE4020643A1 (de) * 1990-06-29 1992-01-02 Philips Patentverwaltung Verfahren zur tiefpassfilterung und anordnung zur durchfuehrung des verfahrens
US5515453A (en) * 1994-01-21 1996-05-07 Beacon System, Inc. Apparatus and method for image processing in symbolic space
JPH07298057A (ja) * 1994-04-20 1995-11-10 Fuji Xerox Co Ltd 画像処理装置
US20020186874A1 (en) * 1994-09-07 2002-12-12 Jeffrey H. Price Method and means for image segmentation in fluorescence scanning cytometry
US5567971A (en) * 1995-06-07 1996-10-22 Xerox Corporation Variable size light sensor element
US6787749B1 (en) * 1996-11-12 2004-09-07 California Institute Of Technology Integrated sensor with frame memory and programmable resolution for light adaptive imaging
JP3080072B2 (ja) * 1998-06-15 2000-08-21 日本電気株式会社 光強度分布解析方法
US6424730B1 (en) * 1998-11-03 2002-07-23 Eastman Kodak Company Medical image enhancement method for hardcopy prints
AUPP780298A0 (en) * 1998-12-18 1999-01-21 Canon Kabushiki Kaisha A steerable kernel for image interpolation
US6343139B1 (en) * 1999-03-12 2002-01-29 International Business Machines Corporation Fast location of address blocks on gray-scale images
US7072503B2 (en) * 1999-05-04 2006-07-04 Speedline Technologies, Inc. Systems and methods for detecting defects in printed solder paste
AU763454B2 (en) 1999-11-24 2003-07-24 Confirma, Inc. Dynamic thresholding of segmented data sets and display of similarity values in a similarity image
US7006927B2 (en) * 2000-06-06 2006-02-28 Agilent Technologies, Inc. Method and system for extracting data from surface array deposited features
US6647137B1 (en) * 2000-07-10 2003-11-11 International Business Machines Corporation Characterizing kernel function in photolithography based on photoresist pattern
ITVE20000036A1 (it) * 2000-07-18 2002-01-18 Tecnogamma S A S Di Zanini E & Apparecchiatura di rilevamento dei parametri caratteristici di una linea aerea ferrotramviaria.
US7190832B2 (en) * 2001-07-17 2007-03-13 Amnis Corporation Computational methods for the segmentation of images of objects from background in a flow imaging instrument
CN1213592C (zh) * 2001-07-31 2005-08-03 佳能株式会社 采用自适应二值化的图象处理方法和设备
US7426291B2 (en) * 2002-07-29 2008-09-16 Seiko Epson Corporation Apparatus and method for binarizing images of negotiable instruments using a binarization method chosen based on an image of a partial area
US7508961B2 (en) * 2003-03-12 2009-03-24 Eastman Kodak Company Method and system for face detection in digital images
US7049594B2 (en) * 2003-03-28 2006-05-23 Howmedica Leibinger Position sensing sensor, method and system
US20050147313A1 (en) * 2003-12-29 2005-07-07 Dimitry Gorinevsky Image deblurring with a systolic array processor
US20050157939A1 (en) * 2004-01-16 2005-07-21 Mark Arsenault Processes, products and systems for enhancing images of blood vessels
CA2479664A1 (en) * 2004-09-24 2006-03-24 Edythe P. Lefeuvre Method and system for detecting image orientation
US20060103892A1 (en) * 2004-11-18 2006-05-18 Schulze Mark A System and method for a vector difference mean filter for noise suppression

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791389B1 (ko) * 2006-12-26 2008-01-07 삼성전자주식회사 스트럭쳐드 라이트를 이용한 거리 측정 장치 및 방법
US8175337B2 (en) 2006-12-26 2012-05-08 Samsung Electronics Co., Ltd. Apparatus and method of measuring distance using structured light
US11579254B2 (en) 2017-08-02 2023-02-14 SOS Lab co., Ltd Multi-channel lidar sensor module
KR101980697B1 (ko) * 2018-05-09 2019-05-22 주식회사 에스오에스랩 객체 정보 획득 장치 및 방법

Also Published As

Publication number Publication date
US7657099B2 (en) 2010-02-02
US20060182365A1 (en) 2006-08-17
JP4242391B2 (ja) 2009-03-25
JP2006228218A (ja) 2006-08-31
KR100643305B1 (ko) 2006-11-10

Similar Documents

Publication Publication Date Title
KR100643305B1 (ko) 컨볼루션 커널을 이용한 라인 패턴 처리 방법 및 장치
US10234957B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9117281B2 (en) Surface segmentation from RGB and depth images
CN111968144B (zh) 一种图像边缘点获取方法及装置
JP5041458B2 (ja) 三次元物体を検出する装置
US9488721B2 (en) Image processing apparatus, image processing method, computer program, and movable body
CN115330958B (zh) 基于激光雷达的实时三维重建方法及装置
US5231678A (en) Configuration recognition system calculating a three-dimensional distance to an object by detecting cross points projected on the object
CN112773272B (zh) 移动方向确定方法、装置、扫地机器人和存储介质
KR20220017697A (ko) 복수의 센서간 캘리브레이션 방법 및 장치
US7027637B2 (en) Adaptive threshold determination for ball grid array component modeling
Hiransakolwong et al. Segmentation of ultrasound liver images: An automatic approach
Wang et al. Precise gridding of microarray images by detecting and correcting rotations in subarrays
KR100587572B1 (ko) 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇
CN115187744A (zh) 一种基于激光点云的机柜识别方法
JP5470529B2 (ja) 動き検出装置、動き検出方法及び動き検出プログラム
JP3164835B2 (ja) 人物画像認識における前処理方法および後処理方法
JP4447464B2 (ja) 皮膚紋様の画像中の関心のある領域の決定方法
JP6676256B2 (ja) 画像処理装置及び画像処理方法
JP2007272785A (ja) 画像処理式車両検出装置及び画像処理式車両検出方法
CN113523655B (zh) 焊接设备的焊缝视觉识别方法
CN111539970B (zh) 一种适用于结构光三维重建的棋盘格角点检测方法
KR100493718B1 (ko) 골프스윙객체 자세추적방법
CN115096196B (zh) 一种用于火箭回收的视觉测高测速方法、***及存储介质
US20230393080A1 (en) Image processing apparatus, image processing method, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120914

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20130924

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140922

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150917

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160920

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170919

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20180917

Year of fee payment: 13