KR100983051B1 - 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치 - Google Patents

깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치 Download PDF

Info

Publication number
KR100983051B1
KR100983051B1 KR1020080042546A KR20080042546A KR100983051B1 KR 100983051 B1 KR100983051 B1 KR 100983051B1 KR 1020080042546 A KR1020080042546 A KR 1020080042546A KR 20080042546 A KR20080042546 A KR 20080042546A KR 100983051 B1 KR100983051 B1 KR 100983051B1
Authority
KR
South Korea
Prior art keywords
depth
screen
space
depth sensor
pixels
Prior art date
Application number
KR1020080042546A
Other languages
English (en)
Other versions
KR20090116543A (ko
Inventor
안양근
박영충
최광순
정광모
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020080042546A priority Critical patent/KR100983051B1/ko
Publication of KR20090116543A publication Critical patent/KR20090116543A/ko
Application granted granted Critical
Publication of KR100983051B1 publication Critical patent/KR100983051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린 장치에 대하여 개시한다. 본 발명은 스크린 상의 감지공간 내에 사용자 지시수단이 진입하는 깊이를 감지하는 깊이 센서; 및 상기 사용자 지시수단이 상기 감지공간 내 진입한 위치에 대응하는 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산부를 포함하는 점에 그 특징이 있다.
본 발명에 따르면, 스크린 상의 감지공간 내를 감지하는 깊이 센서를 적용하여 공간상에 투영된 스크린을 터치 스크린 형식으로 사용할 수 있어 사용자 흥미 유발에 유리한 효과가 있다.
Figure R1020080042546
깊이 센서, 공간 터치, 공간 감지, 공간 투영, 깊이 감지

Description

깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린 장치 {Apparatus and Method for Space Touch Sensing and Screen Apparatus using Depth Sensor}
본 발명은 깊이 센서 방식의 공간 터치 감지 장치 및 방법에 관한 것으로서, 구체적으로는 공간상에 투영된 메뉴의 선택을 감지하기 위해 깊이 센서를 사용하는 깊이 센서 방식의 공간 터치 감지 장치 및 방법에 관한 것이다.
최근, 키보드를 사용하지 않고 화면(스크린)에 나타난 문자나 특정 위치에 사람의 손 또는 물체가 닿으면, 그 위치를 파악하여 저장된 소프트웨어에 의해 파악한 위치에 대응하는 기능을 처리하도록 하는 터치스크린이 널리 사용되고 있다.
터치 스크린은 기능에 해당하는 문자나 그림 정보를 다양하게 표시할 수 있어 사용자의 기능 인지를 용이하게 한다. 때문에, 지하철, 백화점, 은행 등의 장소에서 안내용 기기, 점포의 판매용 단말기 및 일반 업무용 기기 등에 적용되어 다양하게 활용되고 있다.
종래의 터치스크린은 모니터의 화면에 터치 패널(Touch Panel)을 덧붙여서 손끝이나 기타 물체가 소정영역에 접촉할 때 해당 영역의 특성이 변화하는 것을 인지하여 사용자 입력의 발생을 감지하였다.
즉, 종래의 터치스크린은 전체 화면을 2차원 격자 형태로 구분하여 접촉된 위치를 해석하였다.
이때, 터치스크린은 접촉 감지를 위해 물체의 접촉에 의해 정전용량, 초음파, 적외선, 저항막, 음파인식 등을 적용한 터치 패널의 특성이 변화하는 원리를 이용하였다.
즉, 종래의 터치스크린은 디스플레이 화면과 터치 패널을 동일한 면에 배치하는 2차원 형태로 구성되었으므로, 공간상에 투영된 메뉴 아이콘에 대한 사용자 인터페이스를 제공하지는 못하였다.
본 발명의 목적은 공간상에 메뉴를 투영하여 3차원적인 사용자 인터페이스를 제공하는 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.
본 발명의 다른 목적은 감지공간 내로 진입하는 물체의 깊이를 감지하여 기능 메뉴의 선택을 감지하는 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린 장치를 제공함에 있다.
전술한 문제점을 해결하고자, 본 발명의 일면에 따른 깊이 센서 방식의 공간 터치 감지 장치는 공간상에 투영된 적어도 하나의 기능 실행 메뉴를 포함하는 스크린 상 감지공간을 촬영하며, 촬영 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린으로 진입한 깊이를 감지하는 깊이 센서; 상기 촬영 영상을 이용하여 상기 감지공간에 진입한 사용자 지시수단의 위치에 대한 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산부; 및 상기 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 이벤트 발생부를 포함하는 것을 특징으로 한다.
삭제
본 발명의 또 다른 면에 따른 깊이 센서 방식의 공간 터치 감지 방법은 적어도 하나의 기능 실행 메뉴를 포함하며, 다수의 픽셀을 포함하는 스크린을 공간상에 투영하는 단계; 상기 스크린상의 감지공간을 촬영한 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린을 향해 진입한 깊이를 상기 픽셀 단위로 취득하는 단계; 상기 진입 깊이가 임계 깊이 이상인 픽셀들을 추출하는 단계; 상기 추출된 픽셀들로 구성된 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단이 진입한 것으로 판단하는 단계; 상기 사용자 지시수단의 진입으로 판단된 상기 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 단계; 상기 변환된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 단계; 및 상기 기능 실행 이벤트에 따른 기능을 실행시키는 단계를 포함하는 것을 특징으로 한다.
본 발명의 또 다른 면에 따른 깊이 센서 방식의 스크린 장치는 적어도 하나의 기능 실행 메뉴를 포함하는 인터페이스 화면을 공간상에 투영하는 스크린; 상기 스크린상의 감지공간을 촬영하고, 촬영 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린으로 진입한 깊이를 감지하는 깊이 센서; 상기 촬영 영상을 이용하여 상기 감지공간에 진입한 사용자 지시수단의 위치에 대한 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산부; 및 상기 적어도 하나의 기능 실행 메뉴 중 상기 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 상기 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시키는 이벤트 발생부를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 스크린 상의 감지공간 내를 감지하는 깊이 센서를 적용하여 공간상에 투영된 스크린을 터치 스크린 형식으로 사용할 수 있어 사용자 흥미 유발에 유리한 효과가 있다.
이하, 본 발명에 따른 바람직한 실시예를 첨부 도면을 참조하여 상세히 설명한다.
도 1은 본 발명의 일실시예에 따른 깊이 센서 방식의 공간 터치 감지 장치를 도시한 구성도이고, 도 2는 본 발명의 일실시예에 따른 감지공간(100)에 설치된 깊이 센서(110)를 도시한 사시도이다.
도 1 및 도 2에 도시된 바와 같이, 본 발명에 따른 깊이 센서 방식의 공간 터치 감지 장치는 깊이 센서(110) 및 공간좌표 연산부(120)를 포함한다.
깊이 센서(110110)는 도 2에 도시된 바와 같이, 스크린 상의 감지공간(100) 내를 촬영하고, 촬영 영상의 명암을 이용하여 감지공간(100) 내에 진입하는 물체의 진입 깊이를 감지한다.
깊이 센서(110110)는 예컨대, 이미지 센서일 수 있으며, 감지공간(100)으로 진입한 물체를 검지(檢知)하여 영상으로 구성하고, 촬영 영상의 명암을 이용하여 감지공간(100)으로 진입한 물체의 진입 깊이를 감지할 수 있다.
깊이 센서(110)는 감지공간(100)의 측면에 설치되어 감지공간(100)의 일 측(외부)으로부터 타 측(스크린)으로 사용자 지시수단이 접근하는 정도를 감지한다.
여기서, 감지 공간은 스크린 상의 3차원 공간으로서, 깊이 센서(110)가 사용자 지시수단의 진입 여부를 감지할 수 있는 영역일 수 있다. 이러한, 감지 공간은 스크린의 크기 및/또는 깊이 센서(110)의 감지 가능 범위 등에 의해 결정될 수 있다.
이때, 감지공간(100)은 스크린과 대응하는 형태로 구성되어 일 측을 개방하고 타 측을 스크린과 중첩하여 설치하고, 직사각형인 스크린의 형태에 대응하는 직육면체 형태로 구성되는 것이 바람직하다.
예컨대, 깊이 센서(110)가 감지공간(100) 내로 진입하는 물체의 깊이를 256 단계로 감지한다면, 깊이 센서(110)는 감지공간(100)의 일 측면을 0 단계(스크린에 대해 최대 거리)로 감지공간(100)의 타 측면을 255 단계(스크린에 대해 최단 거리)로 인지하는 것이다.
공간좌표 연산부(120)는 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다. 공간좌표 연산부(120)의 세부 구성요소에 대하여는 도 3을 참조하여 후술한다.
이때, 스크린은 다수의 픽셀을 구비하며 픽셀 단위로 해석가능하므로, 공간좌표 연산부(120)도 픽셀 단위로 위치 좌표를 추출하는 것이 바람직하다.
여기서, 위치 좌표는 스크린의 한 모서리를 기준으로 X축, Y축으로 해석되는 2차원 좌표일 수 있다.
이외에도, 깊이 센서 방식의 공간 터치 감지 장치는 이벤트 발생부(140) 및 송신부(130)를 더 포함할 수 있다.
이벤트 발생부(140)는 공간 터치 감지 장치에 포함되거나 별도의 장치에 구비될 수 있으며, 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시킨다.
송신부(130)는 추출한 위치 좌표 또는 발생된 기능 실행 이벤트에 해당하는 기능 실행 장치로 추출한 위치 좌표 또는 발생된 기능 실행 이벤트를 송신한다.
도 3은 본 발명의 일실시예에 따른 공간좌표 연산부(120)의 세부 구성도이다.
도 3에 도시된 바와 같이, 본 발명에 따른 공간좌표 연산부(120)는 깊이정보 취득부(121), 픽셀 감지부(122), 지시수단 판단부(123) 및 좌표 검출부(124)를 포함한다.
깊이정보 취득부(121)는 감지된 깊이에 대응하는 제1 데이터(예컨대, 명암의 정도)를 픽셀 단위로 취득한다. 즉, 깊이정보 취득부(121)는 각 픽셀 단위로 감지된 깊이에 대응하는 제1 데이터들을 종합(예컨대, 평균)하여 각 픽셀 단위의 깊이를 취득한다.
삭제
이때, 각 픽셀은 스크린에 대응하는 위치 정보를 가지기 때문에, 깊이정보 취득부(121)는 각 픽셀의 제1 데이터에 대응하는 스크린의 위치 정보도 알 수 있다.
삭제
픽셀 감지부(122)는 각 픽셀의 제1 데이터(예컨대, 명암의 정도)를 이용하여 각 픽셀의 깊이가 임계 깊이 이상인 픽셀들을 추출한다.
이때, 픽셀 감지부(122)는 예컨대, 명암의 정도를 이용하여, 각 픽셀의 깊이가 임계 깊이 이상인 픽셀들의 제1 데이터를 1로, 임계 깊이 미만인 픽셀들의 제1 데이터를 0으로 치환한다.
지시수단 판단부(123)는 치환된 제1 데이터가 1인 픽셀이 이루는 픽셀 영역이 임계 영역 이상인지를 확인하고, 이상이면 사용자 지시수단이 진입한 것으로 판단한다.
반면, 지시수단 판단부(123)는 치환된 제1 데이터가 1인 픽셀들이 이루는 픽셀 영역이 임계 영역 미만이면, 먼지 등의 불필요한 물체가 감지된 것으로 판단하고, 무시한다.
좌표 검출부(124)는 사용자 지시수단의 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다.
예컨대, 좌표 검출부(124)는 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 판단하여 교차점을 위치 좌표로 변환할 수 있다.
여기서, 좌표 검출부(124)는 소정(예컨대, 두 번째) 번째로 긴 길이와 소정 번째로 짧은 길이의 교차점을 중심으로 검출할 수 있으며, 그외에 다양한 방식을 사용할 수 있음은 물론이다.
도 4a 및 도 4b는 본 발명의 일실시예에 따른 깊이 센서(110) 및 공간좌표 연산부(120)가 감지한 사용자 지시수단을 도시한 사진이다.
도 4a는 깊이 센서(110)에 의한 촬영 영상을 도시한 도면이며, 도 4b는 공간좌표 연산부(120)의 픽셀 영역을 도시한 도면이다.
깊이 센서(110)는 도 4a와 같이, 감지공간 내의 물체를 촬영하고, 촬영된 영상의 명암 등으로 감지공간 내 물체의 진입 깊이를 해석하여 공간좌표 연산부(120)로 전달한다.
공간좌표 연산부(120)는 도 4b와 같이, 깊이 센서(110)로부터 전달받은 스크린에 대응하도록 좌우를 반전시킨 다음(도 4b의 아래쪽 그림 참조), 반전된 영상이 임계 깊이 이상의 픽셀로 구성된 픽셀 영역이 임계 영역이상이면, 사용자 지시수단이 진입한 것으로 판단한다(도 4b의 위쪽 그림 참조). 이어서, 사용자 지시수단인 것으로 판단된 픽셀 영역의 중심을 검출하여(도 4b의 아래쪽 그림 참조) 스크린의 2차원 위치 좌표로 변환한다.
도 5는 본 발명의 일실시예에 따른 깊이 센서 방식의 스크린 장치를 도시한 구성도이다.
도 5에 도시된 바와 같이, 본 발명에 따른 깊이 센서 방식의 스크린 장치는 스크린(160), 깊이 센서(110), 공간좌표 연산부(120) 및 이벤트 발생부(140)를 포함한다.
스크린(160)은 다수의 픽셀을 포함하여 적어도 하나의 기능 실행 메뉴를 표시한다.
깊이 센서(110)는 스크린 상의 감지공간(100) 내에 사용자 지시수단이 진입하는 깊이를 감지한다.
공간좌표 연산부(120)는 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다.
여기서, 공간좌표 연산부(120)는 감지한 깊이에 대응하는 제 1 로우 데이터(Raw Data)를 픽셀 단위로 추출하는 깊이정보 취득부(121), 제 1 로우 데이터 중 감지된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지하는 픽셀 감지부(122), 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면, 사용자 지시수단이 진입한 것으로 판단하는 지시수단 판단부(123) 및 사용자 지시수단의 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 좌표 검출부(124) 등으로 구성될 수 있다.
이벤트 발생부(140)는 적어도 하나의 기능 실행 메뉴 중 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시킨다.
도 6은 본 발명의 일실시예에 따른 깊이 센서 방식의 공간 터치 감지 방법을 도시한 흐름도이다. 이하, 도 6을 참조하여 설명한다.
먼저, 깊이 센서 방식의 공간 터치 감지 장치는 스크린 상의 감지공간(100) 내에 사용자 지시수단이 진입함을 감지한다(S610).
이어서, 깊이 센서 방식의 공간 터치 감지 장치는 사용자 지시수단이 감지공간(100) 내 진입한 위치에 대응하는 스크린의 위치 좌표를 추출한다(S620).
이때, 스크린이 다수의 픽셀로 구성되므로 깊이 센서 방식의 공간 터치 감지 장치도 스크린의 위치 좌표를 픽셀 단위로 추출하는 것이 바람직하다.
이후, 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키고, 실행 이벤트에 따른 기능을 실행시킬 수 있다.
도 7은 본 발명의 일실시예에 따른 깊이 센서 방식의 공간 터치 감지 방법을 도시한 흐름도이다. 이하, 도 7을 참조하여 설명한다.
먼저, 깊이 센서 방식의 공간 터치 감지 장치는 스크린이 다수를 픽셀을 포함할 때, 스크린 상의 감지 공간 내에 사용자 지시수단이 진입하는 깊이에 대응하는 픽셀 단위의 제 1 로우 데이터(Raw Data)를 취득한다(S710).
이어서, 깊이 센서 방식의 공간 터치 감지 장치는 제 1 로우 데이터 중 진입된 깊이가 임계 깊이 이상인 제 2 로우 데이터를 감지한다(S720).
그리고, 깊이 센서 방식의 공간 터치 감지 장치는 제 2 로우 데이터를 갖는 픽셀이 이루는 픽셀 영역이 임계 영역 이상이면(S730), 사용자 지시수단이 진입한 것으로 판단한다(S740).
그 다음으로, 깊이 센서 방식의 공간 터치 감지 장치는 사용자 지시수단의 진입으로 판단된 픽셀 영역의 중심을 검출하여 위치 좌표로 변환한다(S750).
여기서, 깊이 센서 방식의 공간 터치 감지 장치는 픽셀 영역의 최장길이와 최단길이의 교차점을 픽셀 영역의 중심으로 검출할 수 있다.
한편, 깊이 센서 방식의 공간 터치 감지 장치는 픽셀 영역이 임계 영역 미만이면(S730), 제 2 로우 데이터를 노이즈로 간주하여 무시한다(S760).
이후, 깊이 센서 방식의 공간 터치 감지 장치 또는 다른 장치에 의해 변환된 위치 좌표에 해당하는 기능 실행 이벤트가 발생되고, 기능 실행 이벤트에 따른 기능이 실행된다.
이상, 본 발명의 구성에 대하여 첨부 도면을 참조하여 상세히 설명하였으나, 이는 예시에 불과한 것으로서, 본 발명이 속하는 기술분야에 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 변형과 변경이 가능함은 물론이다. 따라서 본 발명의 보호 범위는 전술한 실시예에 국한되어서는 아니되며 이하의 특허 청구범위의 기재에 의하여 정하여져야 할 것이다.
도 1은 본 발명에 따른 깊이 센서 방식의 공간 터치 감지 장치를 도시한 구성도.
도 2는 본 발명에 따른 감지공간에 설치된 깊이 센서(110)를 도시한 사시도.
도 3은 본 발명에 따른 공간좌표 연산부(120)의 세부 구성도
도 4a 및 도 4b는 본 발명에 따른 깊이 센서 및 공간좌표 연산부가 감지한 사용자 지시수단을 도시한 사진.
도 5는 본 발명에 따른 깊이 센서 방식의 스크린 장치를 도시한 구성도.
도 6은 본 발명에 따른 깊이 센서 방식의 공간 터치 감지 방법을 도시한 흐름도.
도 7은 본 발명에 따른 깊이 센서 방식의 공간 터치 감지 방법을 도시한 흐름도.

Claims (16)

  1. 공간상에 투영된 적어도 하나의 기능 실행 메뉴를 포함하는 스크린 상 감지공간을 촬영하며, 촬영 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린으로 진입한 깊이를 감지하는 깊이 센서;
    상기 촬영 영상을 이용하여 상기 감지공간에 진입한 사용자 지시수단의 위치에 대한 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산부; 및
    상기 추출된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 이벤트 발생부
    를 포함하는 깊이 센서 방식의 공간 터치 감지 장치.
  2. 삭제
  3. 제1항에 있어서,
    추출된 상기 위치 좌표를 상기 이벤트 발생부로 전송하는 송신부
    를 더 포함하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 장치.
  4. 제1항에 있어서, 상기 깊이 센서는,
    상기 감지공간의 외부로부터 상기 사용자 지시수단이 진입하는 깊이를 감지하는 이미지 센서를 포함하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감 지 장치.
  5. 제1항에 있어서, 상기 스크린이 다수의 픽셀을 포함할 때, 상기 공간좌표 연산부는,
    상기 위치 좌표를 상기 픽셀 단위로 추출하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 장치.
  6. 제1항에 있어서, 상기 스크린이 다수의 픽셀을 포함할 때, 상기 공간좌표 연산부는,
    상기 감지된 진입 깊이를 상기 픽셀 단위로 취득하는 깊이정보 취득부;
    상기 진입 깊이가 임계 깊이 이상인 픽셀들을 추출하는 픽셀 감지부;
    상기 추출된 픽셀들로 구성된 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단이 진입한 것으로 판단하는 지시수단 판단부; 및
    상기 사용자 지시수단의 진입으로 판단된 상기 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 좌표 검출부
    를 포함하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 장치.
  7. 제6항에 있어서, 상기 좌표 검출부는,
    상기 픽셀 영역의 최장길이와 최단길이의 교차점을 상기 위치 좌표로 변환하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 장치.
  8. 삭제
  9. 삭제
  10. 삭제
  11. 적어도 하나의 기능 실행 메뉴를 포함하며, 다수의 픽셀을 포함하는 스크린을 공간상에 투영하는 단계;
    상기 스크린상의 감지공간을 촬영한 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린을 향해 진입한 깊이를 상기 픽셀 단위로 취득하는 단계;
    상기 진입 깊이가 임계 깊이 이상인 픽셀들을 추출하는 단계;
    상기 추출된 픽셀들로 구성된 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단이 진입한 것으로 판단하는 단계;
    상기 사용자 지시수단의 진입으로 판단된 상기 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 단계;
    상기 변환된 위치 좌표에 해당하는 기능 실행 이벤트를 발생시키는 단계; 및
    상기 기능 실행 이벤트에 따른 기능을 실행시키는 단계
    를 포함하는 깊이 센서 방식의 공간 터치 감지 방법.
  12. 제11항에 있어서, 상기 판단하는 단계는,
    상기 픽셀 영역이 임계 영역 미만이면, 상기 추출된 픽셀들을 무시하는 단계
    를 포함하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 방법.
  13. 제11항에 있어서, 상기 변환하는 단계는,
    상기 픽셀 영역의 최장길이와 최단길이의 교차점을 중심으로 검출하는 단계
    를 포함하는 것을 특징으로 하는 깊이 센서 방식의 공간 터치 감지 방법.
  14. 삭제
  15. 적어도 하나의 기능 실행 메뉴를 포함하는 인터페이스 화면을 공간상에 투영하는 스크린;
    상기 스크린상의 감지공간을 촬영하고, 촬영 영상의 명암을 이용하여 사용자 지시수단이 상기 감지공간의 외부로부터 상기 스크린으로 진입한 깊이를 감지하는 깊이 센서;
    상기 촬영 영상을 이용하여 상기 감지공간에 진입한 사용자 지시수단의 위치에 대한 상기 스크린의 위치 좌표를 추출하는 공간좌표 연산부; 및
    상기 적어도 하나의 기능 실행 메뉴 중 상기 추출된 위치 좌표에 해당하는 기능 실행 메뉴를 인지하고, 상기 인지된 기능 실행 메뉴에 대응하는 기능 실행 이벤트를 발생시키는 이벤트 발생부
    를 포함하는 것을 특징으로 하는 깊이 센서 방식의 스크린 장치.
  16. 제15항에 있어서, 상기 스크린이 다수의 픽셀을 포함할 때, 상기 공간좌표 연산부는,
    상기 감지된 진입 깊이를 상기 픽셀 단위로 취득하는 깊이정보 취득부;
    상기 진입 깊이가 임계 깊이 이상인 픽셀들을 추출하는 픽셀 감지부;
    상기 추출된 픽셀들로 구성된 픽셀 영역이 임계 영역 이상이면, 상기 사용자 지시수단이 진입한 것으로 판단하는 지시수단 판단부; 및
    상기 사용자 지시수단의 진입으로 판단된 상기 픽셀 영역의 중심을 검출하여 위치 좌표로 변환하는 좌표 검출부
    를 포함하는 것을 특징으로 하는 깊이 센서 방식의 스크린 장치.
KR1020080042546A 2008-05-07 2008-05-07 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치 KR100983051B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080042546A KR100983051B1 (ko) 2008-05-07 2008-05-07 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080042546A KR100983051B1 (ko) 2008-05-07 2008-05-07 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치

Publications (2)

Publication Number Publication Date
KR20090116543A KR20090116543A (ko) 2009-11-11
KR100983051B1 true KR100983051B1 (ko) 2010-09-17

Family

ID=41601303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080042546A KR100983051B1 (ko) 2008-05-07 2008-05-07 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치

Country Status (1)

Country Link
KR (1) KR100983051B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101424562B1 (ko) * 2012-06-11 2014-07-31 한국과학기술원 공간 인식 장치, 이의 동작 방법 및 이를 포함하는 시스템
CN112540938A (zh) * 2019-09-20 2021-03-23 阿里巴巴集团控股有限公司 处理器核、处理器、装置和方法
KR102348234B1 (ko) 2020-12-24 2022-01-11 대한민국 중금속 및 다환방향족탄화수소류 제거를 위한 개인보호장비 세척용 티슈 및 폼세정제
CN114063821A (zh) * 2021-11-15 2022-02-18 深圳市海蓝珊科技有限公司 一种非接触式屏幕交互方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (ja) 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
KR20070037773A (ko) * 2005-10-04 2007-04-09 엘지전자 주식회사 표시기기에서 사용자 명령 입력 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000056916A (ja) 1998-08-06 2000-02-25 Takenaka Komuten Co Ltd ハンドポインティング装置
US20020041327A1 (en) * 2000-07-24 2002-04-11 Evan Hildreth Video-based image control system
KR20070037773A (ko) * 2005-10-04 2007-04-09 엘지전자 주식회사 표시기기에서 사용자 명령 입력 장치 및 방법

Also Published As

Publication number Publication date
KR20090116543A (ko) 2009-11-11

Similar Documents

Publication Publication Date Title
US9778748B2 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
CN105229582B (zh) 基于近距离传感器和图像传感器的手势检测
US6512838B1 (en) Methods for enhancing performance and data acquired from three-dimensional image systems
CN105745606B (zh) 基于图像识别触摸敏感表面的目标触摸区域
US10310675B2 (en) User interface apparatus and control method
US20130215027A1 (en) Evaluating an Input Relative to a Display
US20140237401A1 (en) Interpretation of a gesture on a touch sensing device
JP6723814B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20130266174A1 (en) System and method for enhanced object tracking
US20170108977A1 (en) Touch display device and touch method thereof
CN108027656B (zh) 输入设备、输入方法和程序
JP6728865B2 (ja) 手上げ検出装置及び手上げ検出プログラム
JP2019164842A (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
CN202306504U (zh) 一种基于手势控制的光学键盘
KR100968205B1 (ko) 적외선 카메라 방식의 공간 터치 감지 장치, 방법 및스크린 장치
KR100983051B1 (ko) 깊이 센서 방식의 공간 터치 감지 장치, 방법 및 스크린장치
KR101019255B1 (ko) 깊이 센서 방식의 공간 터치 무선단말기, 이의 데이터 처리방법 및 스크린장치
KR101127517B1 (ko) 터치 좌표 인식 방법과 이를 수행하기 위한 터치 스크린장치
TWI499938B (zh) 觸控系統
JP6746419B2 (ja) 情報処理装置、及びその制御方法ならびにコンピュータプログラム
JP4870651B2 (ja) 情報入力システムおよび情報入力方法
KR20120044783A (ko) 프로젝터를 이용한 터치 스크린 장치 및 그 터치 스크린 장치의 터치 위치 검출방법
KR101292541B1 (ko) 비접촉식 입력장치
KR101216537B1 (ko) 비접촉식 서명 패드
KR101036452B1 (ko) 비접촉식 키패드 및 그 구현방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130621

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160908

Year of fee payment: 7