KR20090113553A - 지식을 결합한 능동적 물체 인식 알고리즘 - Google Patents

지식을 결합한 능동적 물체 인식 알고리즘 Download PDF

Info

Publication number
KR20090113553A
KR20090113553A KR1020080039337A KR20080039337A KR20090113553A KR 20090113553 A KR20090113553 A KR 20090113553A KR 1020080039337 A KR1020080039337 A KR 1020080039337A KR 20080039337 A KR20080039337 A KR 20080039337A KR 20090113553 A KR20090113553 A KR 20090113553A
Authority
KR
South Korea
Prior art keywords
target object
image
information
determining
estimation region
Prior art date
Application number
KR1020080039337A
Other languages
English (en)
Other versions
KR101031542B1 (ko
Inventor
서일홍
류광근
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020080039337A priority Critical patent/KR101031542B1/ko
Publication of KR20090113553A publication Critical patent/KR20090113553A/ko
Application granted granted Critical
Publication of KR101031542B1 publication Critical patent/KR101031542B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Manipulator (AREA)

Abstract

본 발명에서는 물체 인식 알고리즘에 있어서 물체 인식의 정확도를 높이기 위해 시각 집중 기술과 다음 시점 결정 기술을 적용한 개선된 물체 인식 알고리즘을 제시한다. 본 발명은 디지털 카메라로부터 들어오는 시각 정보에서 인식하고자 하는 물체에 해당하는 부분을 얻기 위한 하향식/상향식 시각 집중 기술과 인식하고자 하는 물체의 인식률을 높이기 위해 정보량을 기반으로 시점을 이동하는 기술, 그리고 물체 인식 알고리즘으로 구성된다. 하향식/상향식 시각 집중 기술은 물체의 특징적인 표면 정보나 놓여있던 장소 등의 하향식 정보와 카메라 등으로 촬영한 영상에서 얻어내는 시각적 정보의 도드라짐을 기반으로 한 상향식 정보를 결합한 것이 특징이다. 정보량을 기반으로 물체를 보는 시점을 이동하는 기술은 물체의 정보량을 계산하여 정보량이 많은 물체의 면으로 이동하도록 한다. 또한 이러한 정보량의 변화를 행동과 결합하여 물체의 인식률을 높이는데 가장 적절한 행동을 추천하도록 한다.
물체 인식, 시각 집중

Description

지식을 결합한 능동적 물체 인식 알고리즘{SEMANTIC ACTIVE OBJECT RECOGNITION}
본 발명은 화상을 이용한 물체 인식 알고리즘에 관한 것으로서, 더욱 상세하게는, 물체 인식 알고리즘으로서 복잡한 환경에서 물체 인식의 정확도를 높이기 위해 하향식/상향식 시각집중기술과 정보량 기반 다음 시점 결정 기술을 개발, 물체 인식 알고리즘에 적용하는 방법에 관한 것이다.
본 발명은 이동 로봇의 물체 인식, 이동 로봇의 사람 인식, 감시 카메라, 핸드폰 카메라, 비디오 카메라, 컴퓨터게임, 화상 채팅, 컴퓨터용 USB 카메라, 디지털 카메라, 모바일 로봇의 카메라, 디지털 카메라를 이용한 인터랙티브 게임에 적용될 수 있다.
종래의 물체 인식 알고리즘은 주로 강인한 시각 특징을 추출하는 알고리즘을 개발하였다. 강인한 시각특징이란 어떤 물체가 똑바로 서있을 때 추출한 시각 특징이 그 물체가 회전, 크기변화, 밝기의 변화 등의 여러 가지 외부 영향을 받더라도 똑같은 위치에서 시각특징이 추출되는 것을 말한다. 이러한 강인한 시각 특징을 바탕으로 물체를 인식한다.
종래에는 한 장의 영상에서 시각적 특징을 얻고 미리 저장된 물체들의 시각적 특징과 비교하여 물체 인식을 하였다. 그런데, 도1에 도시되어 있는 바와 같이, 화면에 여러 물체가 있거나, 찾아야 하는 물체가 조금 가려져 있거나, 배경이 복잡하거나 하는 여러 가지 상황에서 물체 인식을 해야 할 경우가 있는데 이러한 상황에서는 한 장의 사진으로 물체를 인식한 결과의 신뢰도가 떨어질 수밖에 없다. 따라서 여러 장의 연속된 사진을 촬영하고 그러한 연속적인 데이터를 이용하여 물체 인식을 함으로써 물체 인식도 성공하고 인식 결과의 신뢰도도 높일 수 있다.
본 발명은 물체의 두드러진 특징을 인식하기 어려운 경우에도, 목표하는 물건의 인식율을 높일 수 있는 방법 및 이를 이용한 로봇 등을 제공하는 것을 목적으로 한다.
물체 인식의 정확도를 높이기 위해서는 여러 장의 사진을 촬영함으로써 데이터를 많이 얻어야 한다. 사람이 어떤 물체가 맞는지 확인하기 위해 자세히 살펴보는 것과 같은 원리이다. 이러한 동작이 알고리즘적으로 가능하게 하기 위해서는 종래의 물체 인식 기술에 두 가지 기술이 더 추가해야 한다. 한 가지는 입력된 영상에서 찾고자 하는 물체를 그 물체에 대한 지식 정보와 그 물체 고유의 시각 특징을 고려한 하향식/상향식 시각 주목 기술이고 다른 하나는 그 물체를 더욱 잘 인식하기 위한 시점으로 이동하기 위해 엔트로피를 기반으로 가장 정보량이 높은 곳으로 이동할 수 있도록 다음 행동을 추천하는 기술이다. 이러한 기술이 추가된다면 물체 인식의 정확도를 높일 수 있다.
본 발명에서는 물체 인식 알고리즘에 있어서 물체 인식의 정확도를 높이기 위해 시각 집중 기술과 다음 시점 결정 기술을 적용한 개선된 물체 인식 알고리즘을 제시한다. 본 발명은 디지털 카메라로부터 들어오는 시각 정보에서 인식하고자 하는 물체에 해당하는 부분을 얻기 위한 하향식/상향식 시각 집중 기술과 인식하고 자 하는 물체의 인식률을 높이기 위해 정보량을 기반으로 시점을 이동하는 기술, 그리고 물체 인식 알고리즘으로 구성된다. 하향식/상향식 시각 집중 기술은 물체의 특징적인 표면 정보나 놓여있던 장소 등의 하향식 정보와 카메라 등으로 촬영한 영상에서 얻어내는 시각적 정보의 도드라짐을 기반으로 한 상향식 정보를 결합한 것이 특징이다. 정보량을 기반으로 물체를 보는 시점을 이동하는 기술은 물체의 정보량을 계산하여 정보량이 많은 물체의 면으로 이동하도록 한다. 또한 이러한 정보량의 변화를 행동과 결합하여 물체의 인식률을 높이는데 가장 적절한 행동을 추천하도록 한다.
기존의 물체 인식 알고리즘에 적용이 가능하며 물체 인식 성능을 향상시킬 수 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 구체적으로 설명하도록 한다.
본 발명은 로봇에 영상을 촬상하기 위한 영상장치, 이동을 위한 구동장치, 영상의 저장을 위한 메모리, 영상 데이터의 분석을 위한 프로세서 등이 기본적으로 구비되어 있다는 종래 로봇의 기본적인 구성의 전제하에, 이에 탑재되어 물건의 인식율을 높일 수 있는 알고리즘을 중심으로 설명하도록 한다.
도2는 본 발명의 실시예의 실시예에 따른 개략적인 물체 인식을 수행하는 순서도이다.
먼저 로봇의 영상장치를 통해 촬상된 영상 데이터를 입력받는다.
다음, 상향식 및 하향식 시각 집중 방식으로 영상 데이터 중 목표하는 물체로 의심되는 영상에 집중한다.
여기서, 상향식 및 하향식 시각 집중 방식에 대해 도3을 참조하여 설명하도록 한다.
이를 위해, 로봇은 찾고자 하는 물건의 고유의 시각적 특징에 의존하여 시각 집중을 수행하여 물체를 찾는 첫번째 과정을 거친다. 시각적 특성이란 물체 고유의 색상, 명암도, 지배적인 색상, 윤곽, 방위 등을 포함하는 것이다.
물체를 한번 찾고 난 뒤에는 물체가 놓였던 장소와 주변의 물체를 인지하고 이를 함께 저장한다.
이제 다시 이 물건을 찾아야 하는 경우, 그 물체가 놓여있던 장소 정보와 찾는 물체의 주변 물체에 대한 정보를 이용하여 물체가 놓여 있는 장소를 예상하는 하향식 시각 집중과 물체 고유의 시각적 특징과 현재 화면에서 얻어진 도드라진 시각 정보를 이용하는 상향식 방법을 결합하여 시각을 집중시킨다.
즉, 도3에 도시된 바와 같이, 물체의 상황(OBJECT CONTEXT)을 의미있는 지식정보로 저장할 수 있는데 장소 정보, 주변 물건의 인식 정보, 주변 물건과의 거리 및 방위 정보 등을 저장한다.
이러한 하향식 방법은 물체가 특정 물건에 가려져 있거나, 주변에 많은 물건 이 혼재하여 목표하는 물건을 영상으로 분별하기 어려울 때 매우 유용한 정보로 이용될 수 있다. 따라서, 물건 고유의 시각적 특징에 의존하여 즉, 상향식 방법으로 시각을 집중시키는 방법과 하향식 방법으로 시각을 병행하는 것이 바람직하다.
이러한 방법으로 추출 및 집중된 영상을 통해 물체를 인식한다. 만약, 집중된 영상이 목표하는 물체가 맞는지 확증할 수 없다면, 이를 확증할 수 있는 새로운 영상을 획득해야 한다.
특히, 새로운 영상이 올바른 판단을 이끌 수 있는 데이터여야 할 것이다. 이를 위해, 영상 데이터가 획득되는 시점을 합리적으로 선택해야 할 것이다.
이를 위해, 본 발명은 엔트로피에 기반한 시점 결정 방식을 취한다. 이 방식은 도4에 개략적으로 도시된 도면을 참조하여 설명하도록 한다.
이에 앞서, 본 로봇은 물체의 전,후,좌,우,상,하 이미지를 미리 저장하고 있다. 또한, 관심의 대상이 되는 모든 물체에 대한 전,후,좌,우,상,하 이미지를 미리 저장하고 있다. 이들 각각의 이미지가 해당 물체를 식별하는데 결정적 실마리가 될 확률과 다른 물체로 오판단할 수 있는 확률을 대비하여 각각의 이미지가 갖는 엔트로피를 산출, 미리 저장하고 있다.
현재 촬상한 영상 데이터에 포함된 물체의 이미지가 6면 중 어디에 해당하는지 판별하고, 더 낮은 엔트로피를 갖는 영상을 얻을 수 있는 시점으로 로봇을 이동시키거나, 그러한 동작을 결정한다.
즉, 현재 촬상된 영상 데이터 중 집중된 영상 부분에 기초하여, 확실한 영상 데이터를 얻기 위한 로봇의 시점(視點)을 정하기 위한 최선의 로봇 진행 방향을 결 정한다.
도4는 이와 같은 과정을 도식적으로 표현한 것이다. 도4를 참조하면, 영상 데이터로부터 SIFT, CCH(Color Coocurrence Histgram), DC(Dominant Color) 알고리즘 등을 통해 물체의 전면임이 판단된 경우, 엔트로피를 낮추는 방향으로 다음 시점을 결정하여 행동을 결정하도록 하는 것이다.
이동 후에는, 도2에 도시된 바와 같이, 영상 데이터를 다시 획득하고 그 과정들을 반복하게 되는 것이다.
최종적으로, 목표하는 물체가 해당 영상 데이터와 일치하는 것으로 판단될 때, 해당 루프는 종결된다.
도5는 영상을 촬상하여 본 발명의 알고리즘을 적용할 때, 이용되는 영상들을 각각의 창으로 활성화시킨 화면이다.
도5에 도시된 바와 같이, "카메라 입력"된 영상을 윤곽 및 색을 기준으로 분할하면 "세그멘테이션"된 영상을 얻을 수 있다. "물체 모델"을 컵으로 선택할 때, 하향식/상향식 방식에 따라 "시각 집중"된 영상을 얻을 수 있다. 이제 컵을 더욱 확실히 인식할 수 있는 방향으로 로봇을 이동시킬 때의 경로 즉, "추천행동"이 방향성으로 그래픽 처리되어 나타난다.
도6은 시각 집중 처리를 위한 상향식/하향식 기능 등을 선택할 수 있는 사용자 인터페이스 화면이다. 여기에서, 상향식 시각 집중시 이용할 컵의 특징 예컨대, 색, 밝기, 방향성 등을 선택하는 것도 가능하다.
도7은 물체 이미지에 적용할 알고리즘의 선택하기 위한 사용자 인터페이스 창이다. 도7을 참조하면, 물체 이미지의 우측 화면은 지배적인 색상을 중심으로, 그 하단의 "feature 2"는 SIFT 화면을 표현한 것이다. 그리고 그 좌측의 화면은 엔트로피 맵을 나타낸 것으로, 물체 리스트에 나타난 물건들을 식별하는데 사용되는 색상들의 엔트로피를 지도로 표현한 것이다.
비록 지금까지 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
도1은 찾고자 하는 물체가 여러 물체들과 혼재되어 있는 상황을 표시한 사진이다.
도2는 본 발명의 실시예의 실시예에 따른 개략적인 물체 인식을 수행하는 순서도이다.
도3은 상향식/하향식 방식을 설명하기 위한 개략적인 도면이다.
도4는 현재 촬상된 영상 데이터에 포함된 물체의 모습과 이에 대응하는 엔트로피를 기초로 다음 시점을 얻기 위한 행동 결정 방식을 표현한 도면이다.
도5는 영상을 촬상하여 본 발명의 알고리즘을 적용할 때, 이용되는 영상들을 각각의 창으로 활성화시킨 화면이다.
도6은 시각 집중 처리를 위한 상향식/하향식 기능 등을 선택할 수 있는 사용자 인터페이스 화면이다.
도7은 물체 이미지에 적용할 알고리즘의 선택하기 위한 사용자 인터페이스 창이다.

Claims (5)

  1. 카메라로부터의 입력 영상을 통한 물체 인식 방법에 있어서,
    (a) 다각도에서 바라본 물체의 다면(多面) 이미지를 관심 물체별로 마련하고, 상기 다면 이미지들이 갖는 각각의 엔트로피를 산출, 미리 저장하는 단계;
    (b) 목표 물체를 결정하는 단계;
    (c) 상기 입력 영상으로부터 상기 목표 물체로 추정되는 추정영역을 결정하는 단계;
    (d) 상기 추정영역이 상기 목표 물체를 나타내는지에 대한 확정 여부를 결정하는 단계;
    (e) 상기 추정영역이 상기 목표 물체로 확정되지 않는 경우, 상기 추정영역이 상기 목표 물체의 어느 면에 해당하는지를 결정하는 단계;
    (f) 상기 추정영역이 나타내는 상기 목표 물체의 면을 기준으로, 상기 목표 물체의 다면 이미지 중 엔트로피가 낮은 상기 다면 이미지를 얻을 수 있는 위치로 시점(視點)을 이동시키는 단계를 포함하는 것을 특징으로 하는 물체 인식 방법.
  2. 제1항에 있어서,
    상기 엔트로피는 상기 관심 물체별 상기 다면 이미지로부터 다른 물체로 오판단할 수 있는 확률에 기초하여 결정되는 것을 특징으로 하는 로봇의 물체 인식 방법.
  3. 제1항에 있어서,
    (g) 상기 (d) 단계에서 상기 추정영역이 상기 목표 물체를 나타내는 것으로 확정되는 경우, 상기 추정 영역의 주변 정보를 상기 목표 물체와 연계된 상황 정보로 저장하는 단계를 더 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법.
  4. 제1항에 있어서,
    (c) 상기 카메라로부터 입력된 영상으로부터 상기 목표 물체로 추정되는 추정영역을 결정하는 단계는,
    상기 목표 물체에 연계된 상황 정보와 상기 추정영역의 주변 정보의 일치 정도를 평가하여 반영하는 단계를 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법.
  5. 제3항 또는 제4항에 있어서,
    상기 상황 정보는 장소 정보, 주변 물건의 식별 정보, 주변 물건과의 거리 정보 및 방위 정보를 포함하는 것을 특징으로 하는 로봇의 물체 인식 방법.
KR1020080039337A 2008-04-28 2008-04-28 지식을 결합한 능동적 물체 인식 알고리즘 KR101031542B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080039337A KR101031542B1 (ko) 2008-04-28 2008-04-28 지식을 결합한 능동적 물체 인식 알고리즘

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080039337A KR101031542B1 (ko) 2008-04-28 2008-04-28 지식을 결합한 능동적 물체 인식 알고리즘

Publications (2)

Publication Number Publication Date
KR20090113553A true KR20090113553A (ko) 2009-11-02
KR101031542B1 KR101031542B1 (ko) 2011-04-27

Family

ID=41554866

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080039337A KR101031542B1 (ko) 2008-04-28 2008-04-28 지식을 결합한 능동적 물체 인식 알고리즘

Country Status (1)

Country Link
KR (1) KR101031542B1 (ko)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100526018B1 (ko) * 2003-09-16 2005-11-08 한국과학기술원 물체 인식 및 추적방법

Also Published As

Publication number Publication date
KR101031542B1 (ko) 2011-04-27

Similar Documents

Publication Publication Date Title
US20230418389A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9811733B2 (en) Method, apparatus and system for selecting a frame
US9619708B2 (en) Method of detecting a main subject in an image
WO2019023921A1 (zh) 一种手势识别方法、装置及设备
EP2344983B1 (en) Method, apparatus and computer program product for providing adaptive gesture analysis
US8379987B2 (en) Method, apparatus and computer program product for providing hand segmentation for gesture analysis
JP5755664B2 (ja) 複数の特徴検出器の適用に基づいた画像特徴検出
US8442269B2 (en) Method and apparatus for tracking target object
US20130279756A1 (en) Computer vision based hand identification
KR20130056309A (ko) 텍스트 기반 3d 증강 현실
KR101551576B1 (ko) 로봇 청소기, 제스쳐 인식 장치 및 방법
JP5438601B2 (ja) 人物動作判定装置およびそのプログラム
JP2019186955A (ja) 情報処理システム、情報処理方法及びプログラム
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
WO2023168957A1 (zh) 姿态确定方法、装置、电子设备、存储介质及程序
KR102434397B1 (ko) 전역적 움직임 기반의 실시간 다중 객체 추적 장치 및 방법
WO2022099988A1 (zh) 目标跟踪方法及装置、电子设备和存储介质
KR101031542B1 (ko) 지식을 결합한 능동적 물체 인식 알고리즘
JP6539720B1 (ja) 画像処理装置
KR20130123316A (ko) 사용자의 얼굴 분석 결과에 따라 이동 단말을 제어하는 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140401

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee