KR102333931B1 - 영상 투사 장치 및 그의 동작 방법 - Google Patents

영상 투사 장치 및 그의 동작 방법 Download PDF

Info

Publication number
KR102333931B1
KR102333931B1 KR1020150017547A KR20150017547A KR102333931B1 KR 102333931 B1 KR102333931 B1 KR 102333931B1 KR 1020150017547 A KR1020150017547 A KR 1020150017547A KR 20150017547 A KR20150017547 A KR 20150017547A KR 102333931 B1 KR102333931 B1 KR 102333931B1
Authority
KR
South Korea
Prior art keywords
image
image projection
projected
distance
area
Prior art date
Application number
KR1020150017547A
Other languages
English (en)
Other versions
KR20160095923A (ko
Inventor
김경중
이경호
이상호
유현희
윤현식
김양식
임지환
박정훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150017547A priority Critical patent/KR102333931B1/ko
Priority to PCT/KR2015/008366 priority patent/WO2016125966A1/ko
Priority to US15/549,131 priority patent/US10310676B2/en
Publication of KR20160095923A publication Critical patent/KR20160095923A/ko
Application granted granted Critical
Publication of KR102333931B1 publication Critical patent/KR102333931B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/312Driving therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3138Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using arrays of modulated light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명의 실시 예에 따른 영상 투사 장치는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하고, 센싱된 거리를 기초로 영상 투사 영역, 영상 투사 장치와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단한다. 영상 투사 장치는 판단된 영상 투사 상태를 기초로 영상 투사 영역에 영상을 투사한다.

Description

영상 투사 장치 및 그의 동작 방법{VIDEO PROJECTOR AND OPERATING METHOD THEREOF}
본 발명은 영상 투사 장치 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역의 상태에 대응하는 동작을 수행하는 영상 투사 장치 및 그의 동작 방법에 관한 것이다.
최근 들어, 영상을 표시하는 방법은 디스플레이 장치와 같이 장치 내에 영상을 표시하는 방법뿐만 아니라, 프로젝터와 같이 영상을 일정 영역에 투사하는 방법도 이용되고 있다.
디스플레이 장치를 통한 영상 표시는 영상을 표시할 수 있는 화면 크기에 한계가 있고, 디스플레이 장치의 화면 이외의 다른 영역에는 영상을 표시할 수 없는 한계가 있다.
반면에 프로젝터와 같은 영상 투사 장치는 디스플레이 장치보다 큰 화면을 제공할 수 있으며, 영상을 투사하는 방향에 따라 다양한 위치에 영상을 표시할 수 있는 장점이 있다.
한편, 최근에는 다양한 터치 방식을 통해 디스플레이 장치에 표시된 화면을 사용자가 직접 터치하는 방식의 입력 방식이 널리 사용되고 있다. 터치 방식의 사용자 입력 방식은 표시된 화면에 대해 사용자가 직접적인 터치 동작을 할 수 있어서, 사용자가 입력 방식, 사용 방식을 직관적으로 인식할 수 있는 장점이 있다.
하지만 영상 투사 장치는 일정한 디스플레이가 없는 특징으로 인해 터치 방식을 통한 사용자 입력을 수신하지 못하는 단점이 있다.
또한, 영상 투사 장치는 영상이 투사되는 지점과 영상 투사 장치 사이에 장애물이 있으면, 투사되는 영상이 가려지는 단점도 있으며, 사용자가 투사되는 영상에 직접적으로 노출되면 사용자의 시력이 손상될 우려도 있다.
이러한 영상 투사 장치의 단점을 해결할 필요가 있다.
본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시키는데 목적이 있다.
또한, 본 발명은 영상이 투사되는 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사하여, 쾌적한 시청 환경을 사용자에 제공하는데 목적이 있다.
또한, 본 발명은 투사되는 화면에 대한 사용자 입력을 인식하여, 투사되는 영상에 대한 제어 동작을 수행하는데 목적이 있다.
본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 단계; 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함한다.
본 발명의 실시 예에 따른 영상 투사 장치는 영상을 투사하는 영상 투사부; 상기 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱하는 센싱부; 및 상기 센싱된 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함한다.
본 발명의 다양한 실시 예에 따르면, 본 발명에 따른 영상 투사 장치는 다양한 위치에 영상을 투사할 수 있어서, 공간 활용성을 높이고 미관을 향상시킬 수 있다.
또한, 본 발명은 영상 투사 영역의 상태를 판단하고, 판단된 영상 투사 영역에 대응하는 영상을 투사할 수 있어서, 사용자에 쾌적한 시청 환경을 제공할 수 있다.
또한, 본 발명은 투사되는 영상에 대한 사용자 입력을 인식할 수 있어서, 사용자가 원하는 동작 및 기능을 용이하게 실행할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.
도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.
도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.
도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이다.
도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.
도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.
도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.
도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.
도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.
도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.
도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.
도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.
도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치의 실제 구성 예를 보여준다.
도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치를 나타내는 예시도이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예에 따른 영상 투사 장치의 동작 방법 및 그를 이용한 영상 투사 장치에 관하여 상세히 설명한다.
본 발명의 실시 예에 따른 영상 투사 장치는, 예를 들어 방송 수신 기능에 컴퓨터 지원 기능을 추가한 지능형 영상 투사 장치로서, 방송 수신 기능에 충실하면서도 인터넷 기능 등이 추가되어, 음성 명령 인식, 제스처 동작 인식, 수기 방식의 입력 장치, 터치 스크린 또는 공간 리모콘 등 보다 사용에 편리한 인터페이스를 갖출 수 있다. 그리고, 유선 또는 무선 인터넷 기능의 지원으로 인터넷 및 컴퓨터에 접속되어, 이메일, 웹브라우징, 뱅킹 또는 게임 등의 기능도 수행 가능하다. 이러한 다양한 기능을 위해 표준화된 범용 OS가 사용될 수 있다.
따라서, 본 발명에서 기술되는 영상 투사 장치는, 예를 들어 범용의 OS 커널 상에, 다양한 애플리케이션이 자유롭게 추가되거나 삭제 가능하므로, 사용자 친화적인 다양한 기능이 수행될 수 있다. 상기 영상 투사 장치는, 보다 구체적으로 예를 들면, 영상 프로젝터가 될 수 있으며, 경우에 따라 스마트폰에도 적용 가능하다.
도 1은 본 발명의 일 실시 예에 따른 영상 투사 장치의 구성을 블록도로 도시한 것이다.
도 1을 참조하면, 영상 투사 장치(100)는 센싱부(105), 음성 획득부(110), 영상 획득부(120), 방송 수신부(130), 외부 장치 인터페이스부(135), 저장부(140), 사용자입력 인터페이스부(150), 통신부(160), 제어부(170), 영상 투사부(180), 오디오 출력부(185), 전원공급부(190)를 포함할 수 있다.
센싱부(105)는 영상 투사 장치 내 정보, 영상 투사 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
예를 들어, 센싱부(105)는 거리 센서(106), 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor, 107), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 건강케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 영상 투사 장치(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
거리 센서(106)는 거리를 센싱할 수 있는 하나 이상의 센서를 포함할 수 있다.
일 실시 예로 거리 센서(106)는 적외선 센서를 포함할 수 있고, 다양한 물체, 영상이 투사되는 지점 등에 대한 거리를 센싱할 수 있다. 예를 들면, 거리 센서(106)에 포함된 적외선 센서는 적외선을 출력하고, 출력된 적외선이 물체 등에 의해 반사되면 반사된 적외선을 거리 센서(106)에 포함된 이미지 센서로 인식할 수 있다.
거리 센서(106)는 적외선 센서 이외에도 다양한 센서를 포함할 수 있다. 예를 들면 거리 센서(106)는 초음파 센서를 포함할 수 있고, 적외선 이외의 다른 파장의 광선을 출력할 수도 있다. 거리 센서(106)의 구체적인 동작에 대해서는 후술하기로 한다.
한편, 센싱부(105)는 별도로 구비된 센서를 통해 영상이 투사되는 영역의 상태를 인식할 수도 있다.
예를 들어, 센싱부(105)는 영상이 투사되는 영역에 구비된 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득할 수 있다.
음성 획득부(110)는 음성을 획득할 수 있다.
음성 획득부(110)는 적어도 하나 이상의 마이크를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(110)는 획득된 음성을 제어부(170)에 전달할 수 있다.
영상 획득부(120)는 영상을 획득할 수 있다.
영상 획득부(120)는 적어도 하나 이상의 카메라를 포함할 수 있어서, 포함된 카메라를 통해 영상을 획득할 수 있다. 이에 따라, 영상 획득부(120)는 사용자에 대한 영상을 획득할 수 있다. 또한, 영상 획득부(120)는 사용자의 홍채, 정맥과 같은 생체 정보에 대한 영상도 획득할 수 있다.
그리고 영상 획득부(120)는 획득한 영상을 제어부(170)에 전달할 수 있다.
한편, 음성 획득부(110)와 영상 획득부(120)는 사용자입력 인터페이스부(150)에 포함될 수 있다.
한편, 방송 수신부(130)는 튜너(131), 복조부(132) 및 네트워크 인터페이스부(133)를 포함할 수 있다.
외부 장치 인터페이스부(135)는 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(170) 또는 저장부(140)로 전달할 수 있다.
외부 장치 인터페이스부(135)는 외부 장치와 연결하기 위한 단자(terminal)를 포함할 수 있어서, 외부 장치의 커넥터(connecter)와 연결될 수 있다.
외부 장치 인터페이스부(135)는 전원 공급부(190)로부터 공급받은 전원을 연결된 외부 장치에 구동 전원으로 공급할 수 있다.
또한, 외부 장치 인터페이스부(135)는 외부 장치가 송신한 동작 신호를 제어부(170)에 전달할 수 있다.
한편, 외부 장치 인터페이스부(135)는 외부 장치의 연결을 감지할 수 있는 센서가 포함될 수 있어서, 외부 장치의 연결을 인식할 수 있다.
네트워크 인터페이스부(133)는 영상 투사 장치(100)를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공할 수 있다. 네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다.
또한, 영상 투사 장치(100)에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 영상 투사 장치(100)에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
네트워크 인터페이스부(133)는 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다.
그리고 네트워크 인터페이스부(133)는 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크 인터페이스부(133)는 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다.
또한, 네트워크 인터페이스부(133)는 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있으며, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
네트워크 인터페이스부(133)는 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
저장부(140)는 제어부(170) 내의 각 신호 처리 및 제어를 위한 프로그램이 저장하고, 신호 처리된 영상, 음성 또는 데이터신호를 저장할 수 있다.
또한, 저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 영상, 음성, 또는 데이터 신호의 임시 저장을 위한 기능을 수행할 수도 있으며, 채널 기억 기능을 통하여 소정 이미지에 관한 정보를 저장할 수도 있다.
저장부(140)는 외부 장치 인터페이스부(135) 또는 네트워크 인터페이스부(133)로부터 입력되는 애플리케이션 또는 애플리케이션 목록을 저장할 수 있다.
또한, 저장부(140)는 사용자의 생체 정보를 저장할 수 있다. 여기서 사용자의 생체 정보란, 사용자의 지문, 홍채, 정맥, 얼굴, 음성과 같은 사용자의 신체와 관련된 고유의 정보를 의미할 수 있다.
영상 투사 장치(100)는 저장부(140) 내에 저장되어 있는 컨텐츠 파일(동영상 파일, 정지영상 파일, 음악 파일, 문서 파일, 애플리케이션 파일 등)을 재생하여 사용자에게 제공할 수 있다.
저장부(140)는 사용자에 대한 개인화 서비스 정보를 저장할 수 있다. 여기서 사용자에 대한 개인화 서비스 정보는 사용자가 자주 사용하는 기능, 자주 시청하는 채널, 컨텐츠 및 사용자가 설정한 설정값 중 하나 이상에 대한 정보를 포함할 수 있다. 그리고 사용자에 대한 개인화 서비스 정보는 복수의 사용자 각각에 대해 개인화된 기능, 개인화된 메뉴에 대한 정보를 포함할 수 있다.
사용자입력 인터페이스부(150)는 사용자가 입력한 신호를 제어부(170)로 전달하거나, 제어부(170)로부터의 신호를 사용자에게 전달할 수 있다. 예를 들어, 사용자입력 인터페이스부(150)는 블루투스(Bluetooth), WB(Ultra Wideband), 지그비(ZigBee) 방식, RF(Radio Frequency) 통신 방식 또는 적외선(IR) 통신 방식 등 다양한 통신 방식에 따라, 원격제어장치(200)로부터 전원 온/오프, 채널 선택, 화면 설정 등의 제어 신호를 수신하여 처리하거나, 제어부(170)로부터의 제어 신호를 원격제어장치(200)로 송신하도록 처리할 수 있다.
또한, 사용자입력 인터페이스부(150)는, 전원키, 채널키, 볼륨키, 설정치 등의 로컬키(미도시)에서 입력되는 제어 신호를 제어부(170)에 전달할 수 있다.
통신부(160)는 영상 투사 장치(100)와 네트워크 또는 영상 투사 장치(100)와 주변 기기가 유선 통신 또는 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다.
예를 들면, 통신부(160)는 인터넷 접속을 위한 인터넷 모듈을 포함할 수 있으며, 인터넷 모듈을 통해 유선 또는 무선 통신을 통해 영상 투사 장치(100)가 인터넷에 접속할 수 있도록 할 수 있다.
다른 예를 들면, 통신부(160)는 영상 투사 장치(100)와 다른 기기가 무선 통신할 수 있도록 근거리 통신 모듈을 포함할 수 있다. 일 실시예로 통신부(160)에 포함된 근거리 통신 모듈은 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee, WLAN(Wireless LAN)(Wi-Fi), NFC(Near Field Communication) 등을 이용할 수 있다.
제어부(170)에서 영상 처리된 영상 신호는 영상 투사부(180)로 입력되어 해당 영상 신호에 대응하는 영상으로 표시될 수 있다. 또한, 제어부(170)에서 영상 처리된 영상 신호는 외부 장치 인터페이스부(135)를 통하여 외부 출력장치로 입력될 수 있다.
제어부(170)에서 처리된 음성 신호는 오디오 출력부(185)로 오디오 출력될 수 있다. 또한, 제어부(170)에서 처리된 음성 신호는 외부 장치 인터페이스부(135)를 통하여 외부 장치로 입력될 수 있다.
또한, 제어부(170)는 후술할 오디오 출력 장치(300)에 처리된 음성 신호를 전달하여, 오디오 출력 장치(300)가 오디오 출력하도록 제어할 수도 있다.
그 외, 제어부(170)는 영상 투사 장치(100) 내의 전반적인 동작을 제어할 수 있다.
제어부(170)는 외부 장치 인터페이스부(135)로부터 외부 장치의 연결에 대한 감지 신호를 입력받아, 외부 장치 인터페이스부(135)를 통해 연결된 외부 장치에 구동 전원이 전달되도록 전원 공급부(190)를 제어할 수 있다.
또한, 제어부(170)는 음성 획득부(110)를 통해 획득한 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
그리고 제어부(170)는 사용자의 음성에 대한 복수의 음성 신호를 비교하고, 가장 품질 좋은 음성 신호의 음성을 인식하여, 인식된 음성에 대응하는 제어 동작을 수행할 수 있다.
제어부(170)는 복수의 마이크가 구비된 음성 획득부(110)로부터 획득된 복수의 음성을 비교하여 사용자의 위치를 판단할 수 있다. 구체적으로 제어부(170)는 복수의 마이크 각각이 획득한 음성을 비교하여, 음성을 발화한 사용자의 위치를 판단할 수 있다.
한편, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 입력된 사용자 명령 또는 내부 프로그램에 의하여 영상 투사 장치(100)를 제어할 수 있으며, 네트워크에 접속하여 사용자가 원하는 애플리케이션 또는 애플리케이션 목록을 영상 투사 장치(100) 내로 다운받을 수 있도록 할 수 있다.
제어부(170)는 사용자가 선택한 채널 정보 등이 처리한 영상 또는 음성신호와 함께 영상 투사부(180) 또는 오디오 출력부(185)를 통하여 출력될 수 있도록 한다.
또한, 제어부(170)는 사용자입력 인터페이스부(150)를 통하여 수신한 외부 장치 영상 재생 명령에 따라, 외부 장치 인터페이스부(135)를 통하여 입력되는 외부 장치, 예를 들어, 카메라 또는 캠코더로부터의, 영상 신호 또는 음성 신호가 영상 투사부(180) 또는 오디오 출력부(185)를 통해 출력될 수 있도록 한다.
한편, 제어부(170)는 영상을 표시하도록 영상 투사부(180)를 제어할 수 있으며, 예를 들어 튜너(131)를 통해 입력되는 방송 영상, 또는 외부 장치 인터페이스부(135)를 통해 입력되는 외부 입력 영상, 또는 네트워크 인터페이스부를 통해 입력되는 영상, 또는 저장부(140)에 저장된 영상이 영상 투사부(180)에서 투사되도록 제어할 수 있다. 이 경우, 영상 투사부(180)에서 투사되는 영상은 정지 영상 또는 동영상일 수 있으며, 2D 영상 또는 3D 영상일 수 있다.
또한, 제어부(170)는 영상 투사 장치(100) 내에 저장된 컨텐츠, 또는 수신된 방송 컨텐츠, 외부로 부터 입력되는 외부 입력 컨텐츠가 투사되도록 제어할 수 있으며, 상기 컨텐츠는 방송 영상, 외부 입력 영상, 오디오 파일, 정지 영상, 접속된 웹 화면, 및 문서 파일 등 다양한 형태일 수 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기 저장된 생체 정보, 패턴 정보 중 하나 이상과 비교할 수 있다. 이에 따라 제어부(170)는 기 저장된 생체 정보, 패턴 정보 중 하나 이상에서 입력된 사용자의 생체 정보와 동일한 생체 정보를 검색할 수도 있다.
또한, 제어부(170)는 입력된 사용자의 생체 정보, 패턴 정보 중 하나 이상을 기초로 입력된 생체 정보, 패턴 정보 중 하나 이상에 대응하는 사용자의 개인화 서비스 정보를 획득할 수 있다. 예를 들면, 제어부(180)는 수신된 사용자의 지문 이미지 또는 지문에 대한 정보를 기초로, 사용자를 인식할 수 있다. 그리고 제어부(180)는 인식된 사용자에 대응하는 개인화 서비스 정보를 획득할 수 있다.
또한, 제어부(170)는 영상이 투사될 지점인 영상 투사 영역까지의 거리를 기초로 투사될 영상을 조절할 수 있다.
또한, 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역, 영상 투사 장치(100)와 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단할 수 있다. 그리고 제어부(170)는 거리 센서(106)가 센싱한 센싱값을 기초로 영상 투사 영역에 대한 사용자 입력을 감지할 수도 있다. 이에 대해서는 후술한다.
영상 투사부(180)는 다양한 영상을 투사할 수 있다.
영상 투사부(180)는 광원부(181), 렌즈부(182), 반사부(183)를 포함할 수 있다.
광원부(181)는 빔을 발광한다.
렌즈부(182)는 광원부(181)에서 발생된 빔의 소정 파장만을 선택적으로 투과시킨다. 렌즈부(182)는 설계에 따라 복수의 렌즈를 포함할 수도 있다.
반사부(183)는 렌즈부(182)에서 투과된 빔을 반사시킨다. 또한, 반사부(183)는 상하좌우 방향으로 회전 가능하여, 투과된 빔을 다양한 방향으로 반사시킬 수도 있다.
영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하여 투사될 지점에 영상을 투사할 수 있다.
또한, 영상 투사부(180)는 광원부(181)에서 발광하는 빔이 렌즈부(182)를 통과하고, 반사부(183)에서 반사되어, 투사될 지점에 영상을 투사할 수도 있다.
이를 도 2 내지 도 3을 참고하여 설명한다.
도 2는 본 발명의 일 실시 예에 따른 영상 투사를 일 방면에서 바라본 개념도이다.
도 2를 참조하면, 영상 투사 장치(100)는 케이스(400) 내에 구비되어, 케이스(400)의 도어(410)에 영상을 투사할 수 있다. 구체적으로, 영상 투사 장치(100)는 영상 투사부(180)에 포함된 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상이 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
여기서 도어(410)는 케이스(400)의 도어일 수 있고, 탈부착 또는 일방향 이상으로 오픈 가능한 구조일 수 있다.
또한, 도어(410)는 투명 또는 불투명한 구조일 수 있으며, 예를 들면 유리 재질로 구성될 수 있다. 그리고 도어(410)는 투사되는 영상이 명확하게 표시되기 위한 시트지 등이 부착될 수도 있다.
한편, 영상 투사 장치(100)는 케이스(400) 밖에 구비될 수도 있다.
여기서 케이스(400)는 가구일 수 있다. 예를 들면 수납장, 장식장일 수 있다. 또한, 케이스(400)는 가구의 일부 또는 전체일 수도 있다.
도 3은 본 발명의 일 실시 예에 따른 영상 투사를 다른 방면에서 바라본 개념도이다.
도 3을 참조하면, 영상 투사 장치(100)의 영상 투사부(180)는 광원부(181)에서 빔을 발생시키고, 발생된 빔이 렌즈부(182)를 통과하고 반사부(183)에서 반사되어 투사될 지점인 도어(410)에 영상을 투사되도록 할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
영상 투사부(180)로부터 투사된 영상이 표시되는 구체적인 실시 예를 도 4 내지 도 5를 참조하여 설명한다.
도 4는 본 발명의 일 실시 예에 따른 케이스에 대한 예시도이다.
도 4를 참조하면, 케이스(400)는 하나 이상의 수납 공간 또는 장식 공간을 포함하는 가구일 수 있다. 이에 따라 케이스(400)는 하나 이상의 도어(410)를 포함할 수 있다. 그리고 도어(410)는 투명 또는 불투명한 소재로 구성될 수 있다. 이에 따라 도어(410)는 영상이 투사되지 않을 때에는 일반적인 도어 형태일 수 있다.
도 5는 본 발명의 일 실시 예에 따른 영상 투사되는 케이스를 나타내는 예시도이다.
도 5를 참조하면, 케이스(400)의 도어(410)는 영상 투사 장치(100)가 투사하는 영상이 투사될 수 있다. 이에 따라 도어(410)의 전체 또는 일부에 투사되는 영상에 따른 영상 화면(500)이 표시될 수 있다.
이와 같이 영상 투사부(180)는 영상이 투사될 지점에 영상을 투사하여, 영상 화면(500)이 표시되도록 할 수 있다.
또한, 영상 투사 장치(100)는 도어(410) 이외에도 다양한 영역 또는 물체에 영상을 투사할 수 있다. 이에 대해서는 후술한다.
한편, 영상 투사부(180)는 상술한 반사부(183)의 반사 과정을 제외하고 영상을 투사할 수도 있다. 이에 따라 광원부(181)에서 발생된 빔이 렌즈부(182)를 통과하여 영상이 투사될 지점에 영상이 투사될 수도 있다.
영상 투사부(180)의 영상 투사 방법에 대한 내용은 공지 기술이므로 자세한 내용은 생략한다.
영상 투사부(180)는 제어부(170)에서 처리된 영상 신호, 데이터 신호, OSD 신호 또는 외부 장치 인터페이스부(135)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R,G,B 신호로 변환하여 구동 신호를 생성할 수 있다.
한편, 도 1에 도시된 영상 투사 장치(100)는 본 발명의 일 실시예에 불과하므로. 도시된 구성요소들 중 일부는 실제 구현되는 영상 투사 장치(100)의 사양에 따라 통합, 추가, 또는 생략될 수 있다.
즉, 필요에 따라 2 이상의 구성요소가 하나의 구성요소로 합쳐지거나, 혹은 하나의 구성요소가 2 이상의 구성요소로 세분되어 구성될 수 있다. 또한, 각 블록에서 수행하는 기능은 본 발명의 실시예를 설명하기 위한 것이며, 그 구체적인 동작이나 장치는 본 발명의 권리범위를 제한하지 아니한다.
본 발명의 또 다른 실시예에 따르면, 영상 투사 장치(100)는 도 1에 도시된 바와 달리, 튜너(131)와 복조부(132)를 구비하지 않고 네트워크 인터페이스부(133) 또는 외부 장치 인터페이스부(135)를 통해서 영상을 수신하여 재생할 수도 있다.
예를 들어, 영상 투사 장치(100)는 방송 신호 또는 다양한 네트워크 서비스에 따른 컨텐츠들을 수신하기 위한 등과 같은 셋탑 박스 등과 같은 영상 처리 장치와 상기 영상 처리 장치로부터 입력되는 컨텐츠를 재생하는 컨텐츠 재생 장치로 분리되어 구현될 수 있다.
이 경우, 이하에서 설명할 본 발명의 실시예에 따른 이미지 표시 방법은 도 1을 참조하여 설명한 바와 같은 영상 투사 장치(100)뿐 아니라, 상기 분리된 셋탑 박스 등과 같은 영상 처리 장치 또는 영상 투사부(180) 및 오디오출력부(185)를 구비하는 컨텐츠 재생 장치 중 어느 하나에 의해 수행될 수도 있다.
다음으로, 도 6 내지 도 7을 참조하여, 본 발명의 일 실시 예에 따른 원격제어장치에 대해 설명한다.
도 6은 본 발명의 일 실시 예에 따른 원격제어장치의 블록도이고, 도 7은 본 발명의 일 실시 예에 따른 원격제어장치의 실제 구성 예를 보여준다.
먼저, 도 6을 참조하면, 원격제어장치(200)는 지문인식부(210), 무선통신부(220), 사용자 입력부(230), 센서부(240), 출력부(250), 전원공급부(260), 저장부(270), 제어부(280) 및 음성 획득부(290)를 포함할 수 있다.
무선통신부(220)는 전술하여 설명한 본 발명의 실시 예들에 따른 영상표시기기 중 임의의 어느 하나와 신호를 송수신한다.
원격제어장치(200)는 RF 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 RF 모듈(221)을 구비하며, IR 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 IR 모듈(223)을 구비할 수 있다. 또한, 원격제어장치(200)는 블루투스 통신규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 블루투스 모듈(225)를 구비할 수 있다. 또한, 원격제어장치(200)는 NFC(Near Field Communication) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수할 수 있는 NFC 모듈(227)을 구비하며, WLAN(Wireless LAN) 통신 규격에 따라 영상 투사 장치(100)와 신호를 송수신할 수 있는 WLAN 모듈(229)을 구비할 수 있다.
또한, 원격제어장치(200)는 영상 투사 장치(100)로 원격제어장치(200)의 움직임 등에 관한 정보가 담긴 신호를 무선통신부(220)를 통하여 전송한다.
한편, 원격제어장치(200)는 영상 투사 장치(100)가 전송한 신호를 무선통신부(220)를 통하여 수신할 수 있으며, 필요에 따라 무선통신부(220)를 통하여 영상 투사 장치(100)로 전원 온/오프, 채널 변경, 볼륨 변경 등에 관한 명령을 전송할 수 있다.
사용자 입력부(230)는 키패드, 버튼, 터치 패드, 휠 키 또는 터치 스크린 등으로 구성될 수 있다. 사용자는 사용자 입력부(230)를 조작하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 사용자 입력부(230)가 하드키 버튼을 구비할 경우 사용자는 하드키 버튼의 푸쉬 동작을 통하여 원격제어장치(200)으로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다. 이에 대해서는 도 7을 참조하여 설명한다.
도 7을 참조하면, 원격제어장치(200)는 복수의 버튼을 포함할 수 있다. 복수의 버튼은 지문 인식 버튼(212), 전원 버튼(231), 홈 버튼(232), LIVE 버튼(233), 외부입력 버튼(234), 음량 버튼(235), 음성 인식 버튼(236), 채널 버튼(237), 휠 키(238) 및 취소 버튼(239)을 포함할 수 있다.
지문 인식 버튼(212)은 사용자의 지문을 인식하기 위한 버튼일 수 있다. 일 실시예로, 지문 인식 버튼(212)은 푸쉬 동작이 가능하여, 푸쉬 동작 및 지문 인식 동작을 수신할 수도 있다.
전원 버튼(231)은 영상 투사 장치(100), 외부기기의 전원을 온/오프 하기 위한 버튼일 수 있다.
홈 버튼(232)은 영상 투사 장치(100)의 기본 메뉴를 표시하기 위한 버튼일 수 있다.
LIVE 버튼(233)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
외부입력 버튼(234)는 외부기기로부터 수신된 영상을 표시하기 위한 버튼일 수 있다.
음량 버튼(235)는 영상 투사 장치(100)의 오디오 출력을 조절하기 위한 버튼일 수 있다.
음성 인식 버튼(236)은 사용자의 음성을 인식하기 위한 버튼일 수 있다.
채널 버튼(237)은 특정 방송 채널, 특정 방송 서비스의 방송 신호를 수신하기 위한 버튼일 수 있다.
휠 키(238)는 일 방향 이상에 대한 사용자 입력을 수신할 수 있는 휠(Wheel)형태의 키일 수 있다. 예를 들면 휠 키(238)은 상, 하 방향 또는 상, 하, 좌, 우 방향에 대한 사용자 입력을 수신할 수 있는 휠(Wheel) 형태의 키일 수 있다. 또한, 휠 키(238)은 방향키를 더 포함할 수 있다. 여기서 휠 키(238)의 상, 하 방향에 대한 사용자 입력은 휠 키(238)를 회전시키는 사용자 입력일 있고, 좌, 우 방향에 대한 사용자 입력은 휠 키(238)를 틸트시키는 사용자 입력일 수 있다. 또한, 휠 키(238)는 푸쉬 입력을 수신할 수도 있다.
LIVE 버튼(297)은 실시간 방송 프로그램을 디스플레이 하기 위한 버튼일 수 있다.
다시 도 6을 설명한다.
사용자 입력부(230)가 터치스크린을 구비할 경우 사용자는 터치스크린의 소프트키를 터치하여 원격제어장치(200)로 영상 투사 장치(100)와 관련된 명령을 입력할 수 있다.
또한, 사용자 입력부(230)는 스크롤 키, 조그 키, 터치 패드 등 사용자가 조작할 수 있는 다양한 종류의 입력수단을 구비할 수 있으며 본 실시 예는 본 발명의 권리범위를 제한하지 아니한다.
센서부(240)는 자이로 센서(241) 또는 가속도 센서(243)를 구비할 수 있으며, 자이로 센서(241)는 원격제어장치(200)의 움직임에 관한 정보를 센싱할 수 있다.
예를 들어, 자이로 센서(241)는 원격제어장치(200)의 동작에 관한 정보를 x,y,z 축을 기준으로 센싱할 수 있으며, 가속도 센서(243)는 원격제어장치(200)의 이동속도 등에 관한 정보를 센싱할 수 있다. 한편, 원격제어장치(200)는 거리측정센서를 더 구비할 수 있어, 영상 투사 장치(100)의 디스플레이부(180)와의 거리를 센싱할 수 있다.
출력부(250)는 사용자 입력부(235)의 조작에 대응하거나 영상 투사 장치(100)에서 전송한 신호에 대응하는 영상 또는 음성 신호를 출력할 수 있다. 출력부(250)를 통하여 사용자는 사용자 입력부(235)의 조작 여부 또는 영상 투사 장치(100)의 제어 여부를 인지할 수 있다.
예를 들어, 출력부(250)는 사용자 입력부(230)가 조작되거나 무선 통신부(220)를 통하여 영상 투사 장치(100)와 신호가 송수신되면 점등되는 LED 모듈(251), 진동을 발생하는 진동 모듈(253), 음향을 출력하는 음향 출력 모듈(255), 또는 영상을 출력하는 디스플레이 모듈(257)을 구비할 수 있다.
또한, 전원공급부(260)는 원격제어장치(200)으로 전원을 공급하며, 원격제어장치(200)이 소정 시간 동안 움직이지 않은 경우 전원 공급을 중단함으로써 전원 낭비를 줄일 수 있다. 전원공급부(260)는 원격제어장치(200)에 구비된 소정 키가 조작된 경우에 전원 공급을 재개할 수 있다.
저장부(270)는 원격제어장치(200)의 제어 또는 동작에 필요한 여러 종류의 프로그램, 애플리케이션 데이터 등이 저장될 수 있다. 만일 원격제어장치(200)가 영상 투사 장치(100)와 RF 모듈(221)을 통하여 무선으로 신호를 송수신할 경우 원격제어장치(200)과 영상 투사 장치(100)는 소정 주파수 대역을 통하여 신호를 송수신한다.
원격제어장치(200)의 제어부(280)는 원격제어장치(200)과 페어링된 영상 투사 장치(100)와 신호를 무선으로 송수신할 수 있는 주파수 대역 등에 관한 정보를 저장부(270)에 저장하고 참조할 수 있다.
제어부(280)는 원격제어장치(200)의 제어에 관련된 제반사항을 제어한다. 제어부(280)는 사용자 입력부(230)의 소정 키 조작에 대응하는 신호 또는 센서부(240)에서 센싱한 원격제어장치(200)의 움직임에 대응하는 신호를 무선 통신부(220)를 통하여 영상 투사 장치(100)로 전송할 수 있다.
또한, 원격제어장치(200)의 음성 획득부(290)는 음성을 획득할 수 있다.
음성 획득부(290)는 적어도 하나 이상의 마이크(미도시)를 포함할 수 있어서, 포함된 마이크를 통해 음성을 획득할 수 있다.
그리고 음성 획득부(290)는 획득된 음성을 제어부(280)에 전달할 수 있다.
이하, 상술한 영상 투사 장치(100)에 대한 설명을 기초로 영상 투사 장치(100)의 동작 방법을 설명한다.
도 8은 본 발명의 일 실시 예에 따른 영상 투사 장치의 동작 방법을 나타내는 흐름도이다.
도 8을 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S110).
센싱부(105)는 포함된 다양한 센서를 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다. 예를 들면 센싱부(105)는 거리 센서(106)을 통해 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.
여기서 영상이 투사되는 영상 투사 영역에 대한 거리는 영상 투사 장치(100)와 영상 투사 영역 사이의 거리를 의미할 수 있다. 이에 따라 센싱부(105)는 영상 투사 장치(100)와 영상 투사 영역 사이의 물체 또는 영역까지의 거리를 센싱할 수도 있다.
또한, 센싱부(105)는 상술한 영상 투사 영역을 넘어선 영역에 대한 거리도 센싱할 수 있다. 예를 들면, 센싱부(105)는 케이스(400)의 도어(410)가 영상 투사 영역이면, 도어(410)를 넘어선 영역에 대한 거리도 센싱할 수 있다. 이에 따라 센싱부(105)는 영상 투사 영역에 대한 사용자 입력도 센싱할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다. 이에 대해서는 후술한다.
영상 투사 장치(100)의 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태, 영상 투사 장치(100)와 영상 투사 영역 사이의 상태, 영상 투사 영역에 대한 사용자 입력 상태 중 하나 이상을 포함하는 영상 투사 상태를 판단한다(S130).
제어부(170)는 센싱된 거리를 기초로 영상 투사 영역의 상태를 판단할 수 있다.
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다.
또한, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인지 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 제1 거리 이상인 제2 거리이면, 영상이 투사되는 영역이 케이스(400)의 일부분이 아닌 다른 영역인 것으로 판단할 수 있다.
다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.
또 다른 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 일 실시 예로 제어부(170)는 영상이 투사되는 도어(410)에 대한 센싱값의 변화량을 기초로 도어(410)에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 영상이 투사되는 도어(410)에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.
영상 투사 장치(100)의 제어부(170)는 판단된 영상 투사 상태를 기초로 동작한다(S150).
일 실시 예로 제어부(170)는 영상이 투사되는 영역인 케이스(400)의 도어(410) 상태가 오픈된 것으로 판단되면, 투사 중인 영상의 밝기를 낮추거나 다른 영역에 영상을 투사할 수 있다.
다른 실시 예로 제어부(170)는 영상이 투사되는 영역까지의 거리가 변경된 것으로 판단되면, 변경된 거리에 대응하여 영상을 투사할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다.
또 다른 실시 예로 제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 어떠한 물체가 있는 것으로 판단되고, 해당 물체로 인해 투사되는 영상의 일부 또는 전부가 영상 투사 영역에 도달하지 못한다고 판단되면, 영상 투사에 대한 장애물이 있음을 알리는 알람을 투사되는 영상에 표시할 수 있다. 또한, 제어부(170)는 장애물이 있음을 알리는 알람을 오디오 출력부(185)를 통해 오디오로 출력할 수도 있다.
또 다른 실시 예로 제어부(170)는 영상 투사 영역에 대한 사용자 입력을 인식한 것으로 판단하면, 판단된 사용자 입력을 기초로 동작할 수 있다. 예를 들면 제어부(170)는 영상 투사 장치(100)의 동작과 관련된 사용자 입력을 인식하고, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다. 여기서 영상 투사 장치(100)의 동작과 관련된 사용자 입력은 영상 투사 장치(100)가 표시하는 영상에 대한 영상 전환, 출력되는 오디오에 대한 볼륨 조절, 영상 투사 장치(100)의 턴온, 턴오프 등 다양한 동작에 대한 사용자 입력일 수 있다.
한편, 상술한 영상 투사 장치(100)의 동작에 대한 구체적인 일 실시 예를 상세히 설명한다.
도 9는 본 발명의 일 실시 예에 따른 영상 투사 장치의 구체적인 동작에 대한 흐름도이다.
도 9를 참조하면, 영상 투사 장치(100)의 센싱부(105)는 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱한다(S200).
센싱부(105)는 거리 센서(106)을 포함할 수 있고, 거리 센서(106)는 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 그리고 복수의 거리 센서 각각은 영상이 투사되는 영상 투사 영역에 대한 거리를 센싱할 수 있다.
이에 대해 도 10을 참조하여 설명한다.
도 10은 본 발명의 일 실시 예에 따른 거리 센서의 거리 센싱을 나타내는 예시도이다.
도 10을 참조하면, 거리 센서(106)은 복수의 거리 센서(106a, 106b, 106c, 106d)를 포함할 수 있다. 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 영상이 투사되는 영역인 도어(410)에 대한 거리를 각각 센싱할 수 있다. 한편, 복수의 거리 센서(106a, 106b, 106c, 106d) 각각이 센싱하는 영역은 일부 또는 전부가 겹쳐질 수도 있다. 이에 따라 복수의 거리 센서(106a, 106b, 106c, 106d) 각각은 도어(410)의 서로 다른 영역을 센싱할 수 있다. 또한, 거리 센서(106)에 포함된 복수의 거리 센서는 다양한 개수로 구성될 수 있으며, 영상 투사 기기(100)의 다양한 위치에 구비될 수 있다. 이에 따라 거리 센서(106)에 포함된 복수의 거리 센서는 영상이 투사되는 영역에 대해 다양한 각도, 방향으로 거리를 센싱할 수 있다.
센싱부(105)의 거리 센싱에 대해서는 상술한 바 있어 자세한 설명은 생략한다.
제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 없는 것으로 판단되면 영상 투사 영역에 영상을 투사한다(S203).
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되는 영상 투사 영역까지의 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다. 그래서 제어부(170)는 판단된 물체의 위치에 따라 투사되는 영상의 일부 또는 전부가 영상이 투사되는 도어(410)에 도달하지 않고, 판단된 물체에 투사되는 영상의 일부 또는 전부가 투사되는 것을 판단할 수 있다. 이에 따라 제어부(170)는 투사되는 영상의 일부 또는 전부가 영상 투사 영역인 도어(410)에 도달하지 않는 상태를 판단할 수 있다.
예를 들면, 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 미만이면, 도어(410)와 영상 투사 장치(100) 사이에 어떠한 물체가 있는 것으로 판단할 수 있다.
제어부(170)는 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 없는 것으로 판단되면, 영상 투사 영역에 영상 투사부(180)를 통해 영상을 투사할 수 있다.
예를 들면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 영상을 투사할 수 있다. 이에 따라 케이스(400)의 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 제어부(170)는 센싱된 거리를 기초로 영상 투사 장치(100)와 영상 투사 영역 사이에 장애물이 있는지 판단하고(S201), 장애물이 있는 것으로 판단되면 장애물이 인식되었음을 알리는 알람을 표시한다(S213).
제어부(170)는 센싱부(105)에 포함된 거리 센서(106)를 통해 영상 투사 장치(100)와 영상 투사 영역 사이의 전부 또는 일부에 장애물이 있는지 판단할 수 있다.
이에 대해 도 11을 참조하여 설명한다.
도 11은 본 발명의 일 실시 예에 따른 장애물 인식을 나타내기 위한 개념도이다.
도 11을 참조하면, 거리 센서(106)는 영상 투사 영역에 대해 복수의 센서를 통해 거리를 센싱할 수 있고, 영상 투사 영역인 도어(410)와 영상 투사 장치(100) 사이의 장애물(600)을 센싱할 수 있다. 그리고 제어부(170)는 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106d) 중 하나의 거리 센서(106a)가 센싱한 센싱값이 다른 거리 센서들(106a, 106b, 106c, 106d)이 센싱한 센싱값과 다르면, 도어(410)와 영상 투사 장치(100) 사이에 장애물(600)이 있는 것으로 판단할 수 있다.
제어부(170)는 영상 투사 영역과 영상 투사 장치(100) 사이에 장애물이 있는 것으로 판단하면, 투사되는 영상 화면(500)에 장애물이 있음을 알리는 알람을 표시할 수 있고, 오디오 출력부(185)를 통해 장애물이 있음을 알리는 알람을 출력할 수도 있다.
영상 투사 장치(100)의 제어부(170)는 인식된 장애물을 회피하여 영상을 영상 투사 영역에 투사한다(S215).
일 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역의 일부 영역에 영상을 투사할 수 있다. 또한, 제어부(170)는 인식된 장애물을 회피하여, 영상 투사 영역에 투사되는 영상의 크기를 조절할 수도 있다.
이에 대해 도 12를 참조하여 설명한다.
도 12는 본 발명의 일 실시 예에 따른 장애물을 회피하기 위한 영상 투사에 대한 예시도이다.
도 12를 참조하면, 제어부(170)는 인식된 장애물(600)에 투사되는 영상이 투사되지 않고, 영상 투사 영역인 도어(410)에 영상 전체가 투사되도록 투사되는 영상의 크기를 축소할 수 있다. 이에 따라 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상의 크기를 축소시킬 수 있다.
다른 실시 예로, 제어부(170)는 인식된 장애물을 회피하여, 영상이 투사되던 영역이 아닌 다른 영역에 영상을 투사할 수도 있다.
이에 대해 도 13을 참조하여 설명한다.
도 13은 본 발명의 일 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 13을 참조하면, 제어부(170)는 인식된 장애물(600)로 인해 투사되는 영상의 전체 또는 일부가 투사되지 않는 도어(410)가 아닌 다른 영역인 인접 도어(420)에 영상을 투사할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
다시 도 9를 참조한다.
제어부(170)는 센싱된 거리를 기초로 영상 투사 영역에 표시되는 영상 화면(500)에 대한 사용자 입력이 인식되는지 판단하고(S205), 사용자 입력이 인식되면 인식된 사용자 입력에 대응하는 동작을 수행한다(S207).
예를 들면 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량을 기초로 영상이 투사되는 영상 투사 영역에 대한 사용자 입력 상태를 판단할 수 있다. 구체적으로 제어부(170)는 센싱된 거리에 대응하는 센싱값의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식할 수 있다.
이에 대해 도 14 및 도 15를 참조하여 설명한다.
도 14는 본 발명의 일 실시 예에 따른 사용자 입력에 대한 센싱을 나타내는 예시도이다.
도 14를 참조하면, 거리 센서(106)에 포함된 복수의 거리 센서(106a, 106b, 106c, 106c) 각각은 영상이 투사되는 영역인 도어(410)의 서로 다른 영역에 대해 센싱할 수 있다. 그리고 제어부(170)는 복수의 거리 센서(106a, 106b, 106c, 106c) 각각이 센싱한 센싱값의 변화량을 기초로 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 구체적으로 제어부(170)는 제1 거리 센서(106a)에 대응하는 제1 영역(411), 제1 거리 센서(106a) 및 제2 거리 센서(106b)에 대응하는 제2 영역(412), 제2 거리 센서(106b) 및 제3 거리 센서(106c)에 대응하는 제3 영역(413), 제3 거리 센서(106c) 및 제4 거리 센서(106d)에 대응하는 제4 영역(414), 제4 거리 센서(106d)에 대응하는 제5 영역(415) 각각에 대한 사용자 입력을 인식할 수 있다. 여기서 사용자 입력은 도어(410)에 포함된 제1 영역(411), 제2 영역(412), 제3 영역(413), 제4 영역(414), 제5 영역(415) 각각에 대해 터치하는 사용자 입력, 도어(410)에 일정 거리 내에 근접하는 사용자 입력을 포함할 수 있다.
또한, 제어부(170)는 영상 투사 영역의 복수의 영역인 제1 내지 제5 영역(411, 412, 413, 414, 415)에 대응하는 기능을 나타내는 기능 UI(User Interface)를 영상 화면(500)에 표시할 수도 있다. 그리고 제어부(170)는 기능 UI에 대한 사용자 입력을 인식하고, 인식된 사용자 입력을 기초로 기능 UI에 대응하는 기능을 수행할 수 있다. 이에 대해 도 15를 참조하여 설명한다.
도 15는 본 발명의 일 실시 예에 따른 기능 UI 표시 화면을 나타내는 예시도이다.
도 15를 참조하면, 제어부(170)는 영상 투사부(180)를 통해 영상 투사 영역인 도어(410)에 투사되는 영상에 사용자 입력을 인식하는 복수의 영역 각각에 대응하는 기능 UI를 표시할 수 있다. 예를 들면, 제어부(170)는 영상 투사부(180)를 통해 도어(410)에 투사되는 영상 화면(500)에 제1 영역(411)에 대응하는 제1 UI(510), 제2 영역(412)에 대응하는 제2 UI(520), 제3 영역(413)에 대응하는 제3 UI(530), 제4 영역에 대응하는 제4 UI(540), 제5 영역(415)에 대응하는 제5 UI(550)을 표시할 수 있다. 여기서 제1 UI(510)는 채널 업에 대응하고, 제2 UI(520)는 채널 다운에 대응할 수 있다. 제3 UI(530)는 볼륨 업에 대응하고, 제4 UI(540)는 볼륨 다운에 대응할 수 있다. 제5 UI(550)는 전원 오프에 대응할 수 있다. 그리고 제어부(170)는 제1 내지 제5 UI(510, 520, 530, 540, 550)에 대응하는 사용자 입력을 인식하면, 인식된 사용자 입력에 대응하는 동작을 수행할 수 있다.
한편, 상술한 기능 UI 및 기능 동작 수행에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 기능에 대해 구현될 수 있다.
다시 도 9를 참조한다.
제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영상 투사 영역인 도어의 도어 열림 여부를 판단하고(S209), 도어(410)가 열린 것으로 판단되면 영상 투사부(180)가 투사하는 영상을 조절한다(S211).
일 실시 예로, 제어부(170)는 센싱된 거리를 기초로 영상이 투사되는 영역인 케이스(400)의 도어(410)의 상태를 판단할 수 있다. 예를 들면 제어부(170)는 센싱된 거리가 영상이 투사되던 도어(410)까지의 거리인 제1 거리 이상이면, 도어(410)가 오픈된 것으로 판단할 수 있다. 이에 따라 제어부(170)는 도어(410)의 오픈 여부를 판단할 수 있다.
도 16을 참조하여 상세히 설명한다.
도 16은 본 발명의 일 실시 예에 따른 도어 열림 인식에 대한 예시도이다.
도 16을 참조하면, 거리 센서(106)은 영상이 투사되는 영역에 대응하는 방향에 대해 거리를 센싱할 수 있다. 거리 센서(106)은 영상이 투사되던 도어(410)가 오픈되면, 센싱되던 거리값이 증가되는 것을 센싱할 수 있다. 이에 따라 제어부(170)는 센싱된 거리를 기초로 도어(410)의 오픈을 인식할 수 있다.
제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 투사하는 영상의 밝기를 낮출 수 있다.
또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 영상 투사부(180)가 영상 투사 동작을 중지하도록 할 수도 있다.
또한, 제어부(170)는 영상이 투사되던 도어(410)가 오픈된 것으로 인식하면, 다른 영역에 영상을 투사할 수도 있다.
이에 대해 도 17을 참조하여 설명한다.
도 17은 본 발명의 다른 실시 예에 따른 인접 도어에 대한 영상 투사를 나타내는 예시도이다.
도 17을 참조하면, 제어부(170)는 도어(410)의 오픈을 인식하면, 영상 투사부(180)가 다른 영역인 인접 도어(420)에 영상을 투사하도록 제어할 수 있다. 구체적으로 제어부(170)는 영상 투사부(180)의 영상 투사 각도를 조절할 수 있고, 각도가 조절된 영상 투사부(180)를 통해 인접 도어(420)에 영상을 투사할 수 있다. 이에 따라 인접 도어(420)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 제어부(170)는 상술한 자석형 센서, 스위치형 센서 등으로부터 영상이 투사되는 영역의 움직임에 대한 정보를 획득하고, 획득된 정보를 기초로 투사되는 영상의 밝기를 조절하거나, 영상 투사 동작을 중지하도록 할 수도 있다. 또한, 제어부(170)는 획득된 정보를 기초로 투사되는 영상을 다른 영역에 투사할 수도 있다.
이와 같이 본 발명에 따른 영상 투사 장치(100)는 영상이 투사되던 도어(410)가 오픈되면 다른 영역에 영상을 투사할 수 있다.
한편, 상술한 도어 오픈에 따른 영상 조절에 대한 설명은 설명을 위한 예시로 사용자 또는 설계자의 설정에 따라 다양한 방식 및 다양한 영역에 대해 투사되는 영상을 조절할 수 있다.
본 발명의 영상 투사 장치(100)는 다양한 거리에 영상을 투사할 수 있고, 영상이 투사되는 지점까지의 거리에 따라 다양한 크기의 영상 화면을 표시할 수 있다.
예를 들면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 더 먼 거리인 영역에 영상을 투사하여, 도어(410)에 투사되던 영상 화면(500)보다 더 큰 영상 화면을 표시할 수 있다.
이에 대해 도 18 내지 도 20을 참조하여 설명한다.
도 18은 본 발명의 다른 실시 예에 따른 영상 투사의 개념도이다.
도 18을 참조하면, 영상 투사 장치(100)는 케이스(400)의 도어(410)보다 원거리에 있는 벽면(700)에 영상을 투사할 수 있다. 일 실시 예로, 제어부(170)는 도어(410)가 오픈된 것으로 인식되면, 원거리에 있는 벽면(700)에 영상이 투사되도록 영상 투사부(180)의 영상 투사 동작을 제어할 수 있다. 구체적으로 거리 센서(106)은 벽면(700)까지의 거리를 센싱할 수 있다. 제어부(170)는 센싱된 거리를 기초로, 영상 투사부(180)가 투사하는 영상의 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 조절할 수 있다. 영상 투사부(180)는 조절된 초점, 해상도, 크기, 밝기, 색상, 명암 중 하나 이상을 기초로 영상을 벽면(700)에 투사할 수 있다. 이에 따라 영상 투사 장치(100)는 도어(410)보다 원거리에 있는 벽면(700)에 최적의 영상을 투사할 수 있다.
한편, 도어(410)는 복수의 패널로 구성될 수 있다. 예를 들면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 그리고 도어(410)의 스크린 패널(412) 및 투과 패널(415)은 슬라이딩 또는 착탈 방식을 통해 도어(410)에서 분리될 수 있다. 이에 따라 도어(410)의 스크린 패널(412), 투과 패널(415)의 슬라이딩 또는 착탈에 따라 영상 투사 장치(100)에서 투사되는 영상이 투사되는 영역을 조절할 수 있다.
이에 대해 도 19 및 도 20을 참조하여 자세히 설명한다.
도 19는 본 발명의 일 실시 예에 따른 도어에 대한 영상 투사를 나타내는 예시도이다.
도 19를 참조하면, 도어(410)는 스크린 패널(412) 및 투과 패널(415)을 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과하지 못하고, 도어(410)에 투사될 수 있다. 이에 따라 도어(410)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
도 20은 본 발명의 일 실시 예에 따른 벽면에 대한 영상 투사를 나타내는 예시도이다.
도 20을 참조하면, 도어(410)는 스크린 패널(412)이 분리될 수 있고, 투과 패널(415)를 포함할 수 있다. 이에 따라 영상 투사 장치(100)에서 투사되는 영상은 도어(410)를 통과할 수 있다. 이에 따라 벽면(700)에 영상 투사부(180)로부터 투사된 영상이 표시되는 영상 화면(500)이 표시될 수 있다.
한편, 도어(410)는 전기적으로 투명도가 조절 가능한 구조일 수 있다. 예를 들면 도어(410)는 일렉트로크로미즘(Electrochromism)을 나타내는 재료를 포함할 수 있어서, 사용자는 도어(410)의 투명도를 전기적으로 조절할 수 있다. 이에 따라, 영상 투사 장치(100)는 도어(410)의 투명도 조절에 따라 도어(410) 또는 벽면(700)에 영상을 투사할 수도 있다.
한편, 본 발명에 따른 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)를 제어할 수 있다. 예를 들면 영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오가 오디오 출력 장치(300)에 출력되도록 제어할 수 있다. 또한, 영상 투사 장치(100)의 제어부(170)는 오디오 출력 장치(300)에 포함된 조명부(350)의 조명 동작을 제어할 수도 있다.
이에 대해 도 21 및 도 22를 참조하여 자세히 설명한다.
도 21은 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)의 실제 구성 예를 보여준다.
도 21을 참조하면, 오디오 출력 장치(300)는 사용자 입력을 획득하는 조작부(310), 오디오를 출력하는 스피커부(330)를 포함할 수 있다.
영상 투사 장치(100)의 제어부(170)는 투사되는 영상에 대응하는 오디오를 오디오 출력 장치(300)의 스피커부(330)로 출력할 수 있다.
오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력을 획득하고, 획득된 사용자 입력을 영상 투사 장치(100)에 전달할 수 있다. 그리고 영상 투사 장치(100)의 제어부(170)는 전달된 사용자 입력에 대응하는 동작을 수행할 수 있다.
한편, 오디오 출력 장치(300)는 영상 투사 장치(100)가 구비된 케이스(400)의 일면 또는 일측면에 구비될 수 있다.
또한 오디오 출력 장치(300)는 발광하는 조명부(350)을 더 포함할 수 있다.
조명부(350)는 특정 방향으로 빛을 발광할 수 있다. 예를 들면, 조명부(350)는 오디오 출력 장치(300)가 구비된 케이스(400)의 하측 방향으로 빛을 발광할 수 있다. 이에 대해 도 22를 참조하여 설명한다.
도 22는 본 발명의 일 실시 예에 따른 오디오 출력 장치(300)를 나타내는 예시도이다.
도 22를 참조하면, 오디오 출력 장치(300)는 케이스(400)의 하단에 구비될 수 있다. 그리고 오디오 출력 장치(300)는 조작부(310)에 대한 사용자 입력 또는 영상 투사 장치(100)의 제어부(170)의 제어에 의해 조명부(350)가 발광할 수 있다.
일 실시 예로, 케이스(400)가 주방에 설치된 수납장인 경우, 오디오 출력 장치(300)는 수납장의 하단 또는 일 측면에 구비될 수 있고, 오디오 출력 장치(300)에 포함된 조명부(350)는 수납장의 하측 방향으로 빛을 발광할 수 있다. 이에 따라 조명부(350)는 일반적인 조명, 스탠드 조명 등과 같은 기능을 수행할 수 있다.
한편, 조명부(350)는 하나 이상의 색상으로 발광할 수 있고, 다양한 발광 패턴으로 발광할 수도 있다.
조명부(350)는 알람 상황 시에 발광할 수 있다.
여기서 알람 상황은 사용자가 설정한 일정, 재난 상황, 연동된 단말기(미도시)로부터 획득한 알람, 연동된 홈 네트워크로부터 획득한 알람 중 하나 이상을 의미할 수 있다.
일 실시 예로, 영상 투사 장치(100)의 제어부(170)는 화재, 지진 등과 같은 재난 시에 오디오 출력 장치(300)의 조명부(350)가 발광하도록 제어할 수 있다. 이 때 제어부(170)는 재난 종류에 따라 다양한 색상, 다양한 발광 패턴으로 조명부(350)가 발광하도록 제어할 수 있다.
다른 실시 예로, 제어부(170)는 연동된 단말기(미도시)로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 단말기(미도시)로부터 전화 수신, 메시지 수신 등에 대한 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 전화 수신, 메시지 수신 등을 알리는 발광 동작을 하도록 제어할 수 있다. 한편, 상술한 단말기는 개인용 단말기, 가정용 단말기, 사무용 단말기 등 다양한 단말기를 포함할 수 있다.
또 다른 실시 예로, 제어부(170)는 연동된 홈 네트워크로부터 알람 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 획득된 알람 정보에 대응하여 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 연동된 홈 네트워크로부터 방문자 알림 정보를 획득하고, 오디오 출력 장치(300)의 조명부(350)가 방문자 있음을 알리는 발광 동작을 하도록 제어할 수 있다.
또한, 제어부(170)는 다양한 알람에 대응하여 조명부(350)가 발광하도록 제어할 수 있다. 예를 들면, 제어부(170)는 영상 투사 장치(100)가 구비된 영역 또는 다른 영역에 움직임이 감지되면 조명부(350)가 발광하도록 제어할 수도 있다.
이에 따라 본 발명의 영상 투사 장치(100), 오디오 출력 장치(300)는 다양한 환경에서도 조명부(350)를 통해 알람 정보를 제공할 수 있다.
이와 같이 오디오 출력 장치(300)의 조명부(350)는 다양한 알람 상황에 대한 알람 정보를 발광 동작으로 사용자에 알릴 수 있다. 그래서 사용자는 소음 등으로 인해 알람 정보를 인지하기 어려운 경우에도 조명부(350)의 발광 동작을 통해 알람 정보를 인지할 수 있다. 또한, 사용자는 원거리에 있는 단말기에 대한 알람을 용이하게 인지할 수 있다.
한편, 상술한 오디오 출력 장치(300)의 동작에 대한 설명은 설명을 위한 예시로 이에 한정되지 않는다. 따라서 사용자 또는 설계자의 선택에 따라 다양한 동작이 설정될 수 있다.
본 발명의 일 실시 예에 의하면, 전술한 방법은, 프로그램이 기록된 매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 매체의 예로는, ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.
상기와 같이 설명된 영상 투사 장치는 상기 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.

Claims (12)

  1. 영상 투사 장치의 동작 방법에 있어서,
    영상이 투사되는 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 단계-상기 영상 투사 영역은 스크린을 포함하고, 상기 적어도 하나의 거리는 상기 스크린에 대한 제1 거리를 포함함-;
    상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하는 단계; 및
    상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하는 단계를 포함하고,
    상기 영상을 투사하는 단계는,
    상기 영상 투사 상태의 변경에 따라 변경된 상기 영상 투사 영역에 대해 센싱된 제2 거리가 상기 제1 거리보다 큰 경우, 상기 변경된 투사되는 영상을 조절하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  2. 제1항에 있어서,
    상기 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 단계는
    상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하는 단계를 포함하고,
    상기 영상 투사 상태를 판단하는 단계는
    상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하는 단계를 포함하고,
    상기 영상 투사 영역에 영상을 투사하는 단계는
    상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  3. 제2항에 있어서,
    상기 영상 화면에 대한 사용자 입력을 인식하는 단계는
    상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하는 단계를 포함하고,
    상기 인식된 사용자 입력에 대응하는 동작을 수행하는 단계는
    상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  4. 제1항에 있어서,
    상기 투사되는 영상을 조절하는 단계는
    상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상의 밝기를 조절하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  5. 제1항에 있어서,
    상기 투사되는 영상을 조절하는 단계는
    상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  6. 제1항에 있어서,
    상기 영상 투사 상태를 판단하는 단계는
    상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하는 단계를 포함하고,
    상기 투사되는 영상을 조절하는 단계는
    상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향 또는 투사되는 영상의 크기 중 하나 이상을 조절하는 단계를 포함하는
    영상 투사 장치의 동작 방법.
  7. 영상 투사 장치에 있어서,
    영상을 투사하는 영상 투사부;
    상기 영상이 투사되는 영상 투사 영역에 대한 적어도 하나의 거리를 센싱하는 센싱부-상기 영상 투사 영역은 스크린을 포함하고, 상기 적어도 하나의 거리는 상기 스크린에 대한 제1 거리를 포함함-; 및
    상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 영역, 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간 중 하나 이상에 대한 상태를 포함하는 영상 투사 상태를 판단하고, 상기 판단된 영상 투사 상태를 기초로 상기 영상 투사 영역에 영상을 투사하도록 제어하는 제어부를 포함하고,
    상기 제어부는,
    상기 영상 투사 상태의 변경에 따라 변경된 상기 영상 투사 영역에 대해 센싱된 제2 거리가 상기 제1 거리보다 큰 경우, 상기 변경된 투사되는 영상을 조절하는
    영상 투사 장치.
  8. 제7항에 있어서,
    상기 센싱부는
    상기 영상 투사 영역에 포함된 복수의 영역에 대한 거리를 각각 센싱하고,
    상기 제어부는
    상기 복수의 영역 각각에 대해 센싱된 거리의 변화량을 기초로 상기 영상 투사 영역에 투사되는 영상 화면에 대한 사용자 입력을 인식하고, 상기 인식된 사용자 입력에 대응하는 동작을 수행하는
    영상 투사 장치.
  9. 제8항에 있어서,
    상기 제어부는
    상기 복수의 영역 중 상기 센싱된 거리의 변화량이 기준량 이상인 영역에 대한 사용자 입력을 인식하고,
    상기 변화량이 기준량 이상인 영역에 대응하는 동작을 수행하는
    영상 투사 장치.
  10. 제7항에 있어서,
    상기 제어부는
    상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상의 밝기를 조절함으로써 상기 투사되는 영상을 조절하는
    영상 투사 장치.
  11. 제7항에 있어서,
    상기 제어부는
    상기 영상 투사 상태의 변경에 대응하여, 상기 투사되는 영상을 상기 영상 투사 영역이 아닌 다른 영역에 투사함으로써 상기 투사되는 영상을 조절하는
    영상 투사 장치.
  12. 제7항에 있어서,
    상기 제어부는
    상기 센싱된 적어도 하나의 거리를 기초로 상기 영상 투사 장치와 상기 영상 투사 영역 사이의 공간의 장애물을 인식하고,
    상기 인식된 장애물에 대응하여, 상기 투사되는 영상의 투사 방향 또는 투사되는 영상의 크기 중 하나 이상을 조절함으로써 상기 투사되는 영상을 조절하는
    영상 투사 장치.
KR1020150017547A 2015-02-04 2015-02-04 영상 투사 장치 및 그의 동작 방법 KR102333931B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020150017547A KR102333931B1 (ko) 2015-02-04 2015-02-04 영상 투사 장치 및 그의 동작 방법
PCT/KR2015/008366 WO2016125966A1 (ko) 2015-02-04 2015-08-10 영상 투사 장치 및 그의 동작 방법
US15/549,131 US10310676B2 (en) 2015-02-04 2015-08-10 Image projection apparatus and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150017547A KR102333931B1 (ko) 2015-02-04 2015-02-04 영상 투사 장치 및 그의 동작 방법

Publications (2)

Publication Number Publication Date
KR20160095923A KR20160095923A (ko) 2016-08-12
KR102333931B1 true KR102333931B1 (ko) 2021-12-02

Family

ID=56714861

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150017547A KR102333931B1 (ko) 2015-02-04 2015-02-04 영상 투사 장치 및 그의 동작 방법

Country Status (1)

Country Link
KR (1) KR102333931B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071579A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 프로젝션 장치 및 그 동작 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020034765A (ja) 2018-08-30 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN114460881A (zh) * 2022-02-11 2022-05-10 广东好太太智能家居有限公司 晾衣设备控制装置、方法及晾衣设备
KR20240015494A (ko) * 2022-07-27 2024-02-05 삼성전자주식회사 이미지를 투사하는 전자 장치 및 그 제어 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138257A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 画像投影装置、画像投影システム、制御方法およびプログラム
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014138257A (ja) * 2013-01-16 2014-07-28 Ricoh Co Ltd 画像投影装置、画像投影システム、制御方法およびプログラム
JP2014163954A (ja) * 2013-02-21 2014-09-08 Seiko Epson Corp プロジェクター、およびプロジェクターの制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024071579A1 (ko) * 2022-09-29 2024-04-04 삼성전자 주식회사 프로젝션 장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR20160095923A (ko) 2016-08-12

Similar Documents

Publication Publication Date Title
KR102138533B1 (ko) 헤드 마운트 디스플레이를 위한 사용자 인터페이스 제공 장치 및 방법
KR101541561B1 (ko) 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
CN107102804B (zh) 控制设备、控制方法和记录介质
TW201635092A (zh) 顯示裝置、電子裝置、手部穿戴式裝置及控制系統
KR102333931B1 (ko) 영상 투사 장치 및 그의 동작 방법
CN111052063B (zh) 电子装置及其控制方法
US20160070410A1 (en) Display apparatus, electronic apparatus, hand-wearing apparatus and control system
JP6242535B2 (ja) ユーザ入力に基づいて制御システムのためのジェスチャ区域定義データを取得する方法
US20170083268A1 (en) Mobile terminal and method of controlling the same
WO2020010577A1 (zh) 一种具有ai交互功能的微型投影仪及其投影方法
KR102271184B1 (ko) 영상 투사 장치 및 그의 동작 방법
US20150288764A1 (en) Method and apparatus for controlling smart terminal
TWI656359B (zh) 用於混合實境之裝置
KR20150104711A (ko) 디스플레이 장치 및 그의 동작 방법
US10310676B2 (en) Image projection apparatus and operation method thereof
US10506290B2 (en) Image information projection device and projection device control method
KR102360628B1 (ko) 영상 투사 장치 및 그의 동작 방법
RU2673464C1 (ru) Способ распознавания и управления бытовой техникой мобильным телефоном и мобильный телефон для его реализации
KR20160019741A (ko) 미러 디스플레이 장치 및 그의 동작 방법
CN111033606A (zh) 信息处理装置、信息处理方法和程序
WO2022009338A1 (ja) 情報処理端末、遠隔制御方法およびプログラム
US11221684B2 (en) Information processing device, information processing method, and recording medium
KR102404452B1 (ko) 전자 칠판 시스템을 위한 화각 설정 방법, 그를 수행하는 단말 장치 및 적외선 기반 전자 칠판 시스템
KR102225399B1 (ko) 이미지 처리 방법 및 그에 따른 디스플레이 장치
KR20200092158A (ko) 전자 장치 및 그 제어방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant