KR20180076154A - 디스플레이 장치 및 이의 제어 방법 - Google Patents

디스플레이 장치 및 이의 제어 방법 Download PDF

Info

Publication number
KR20180076154A
KR20180076154A KR1020160180307A KR20160180307A KR20180076154A KR 20180076154 A KR20180076154 A KR 20180076154A KR 1020160180307 A KR1020160180307 A KR 1020160180307A KR 20160180307 A KR20160180307 A KR 20160180307A KR 20180076154 A KR20180076154 A KR 20180076154A
Authority
KR
South Korea
Prior art keywords
display
user
display device
background image
content screen
Prior art date
Application number
KR1020160180307A
Other languages
English (en)
Inventor
박지훈
김하나
박준용
최현용
추유나
황수현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160180307A priority Critical patent/KR20180076154A/ko
Priority to JP2019528063A priority patent/JP7050067B2/ja
Priority to PCT/KR2017/011736 priority patent/WO2018110821A1/en
Priority to EP17881886.0A priority patent/EP3494458B1/en
Priority to US15/798,623 priority patent/US10579206B2/en
Priority to CN201711334386.XA priority patent/CN108235125B/zh
Publication of KR20180076154A publication Critical patent/KR20180076154A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N5/44513

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이 장치 및 이의 제어 방법이 제공된다. 본 디스플레이 장치는 영상을 표시하기 위한 디스플레이, 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 생성하는 적어도 하나의 센서, 디스플레이 후방의 배경 영상에 대한 데이터를 저장하는 메모리 및 배경 영상에 대한 데이터와 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 디스플레이에 표시되도록 하는 프로세서를 포함하며, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함하고, 배경 영상과 적어도 하나의 그래픽 오브젝트는 감지 데이터의 변화에 대응하여 변경될 수 있다.

Description

디스플레이 장치 및 이의 제어 방법{Display apparatus and Method for controlling the display apparatus thereof}
본 개시는 디스플레이 장치 및 이의 제어 방법에 관한 것으로, 더욱 상세하게는 디스플레이 장치 후방의 배경 영상을 포함하며, 사용자 위치에 따라 변화하는 컨텐츠 화면을 표시할 수 있는 디스플레이 장치 및 이의 제어 방법에 관한 것이다.
근래에는 디스플레이 장치를 이용하여 다양한 사용자 경험을 제공하는 기능이 개발되고 있다. 특히, 도 1에 도시된 바와 같이, 디스플레이 장치(200)의 후방의 배경에 대한 배경 영상을 획득하여 디스플레이 장치(200)가 배경 영상을 표시함으로써, 사용자는 디스플레이가 투명한 유리창이 된 것과 같은 시각적 효과를 제공받을 수 있다.
다만, 디스플레이가 배경 영상을 포함하는 컨텐츠 화면을 제공하더라도, 사용자 위치와 무관하게 동일한 컨텐츠 화면을 제공하게 된다면, 사용자 위치에 따라 디스플레이가 투명한 유리창이 된 것과 같은 시각적 효과가 떨어지게 되는 문제점이 발생할 수 있다.
본 개시의 목적은 디스플레이 장치에 표시되는 배경 영상을 포함하는 컨텐츠 화면을 사용자의 위치에 따라 적응적으로 처리하여 제공할 수 있는 디스플레이 장치 및 이의 제어 방법을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 디스플레이 장치는, 영상을 표시하기 위한 디스플레이; 상기 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 생성하는 적어도 하나의 센서; 상기 디스플레이의 후방의 배경 영상에 대한 데이터를 저장하는 메모리; 및 상기 배경 영상에 대한 데이터와 상기 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 상기 디스플레이에 표시되도록 하는 프로세서;를 포함하며, 상기 컨텐츠 화면은, 상기 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함하고, 상기 배경 영상과 상기 적어도 하나의 그래픽 오브젝트는 상기 감지 데이터의 변화에 대응하여 변경될 수 있다.
또한, 상기 프로세서는, 상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어할 수 있다.
그리고, 상기 프로세서는, 상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 다른 그래픽 오브젝트로 변경시켜 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 프로세서는, 상기 감지 데이터를 통해 상기 사용자가 상기 디스플레이 장치와 기설정된 거리 이내에 위치하는 것으로 감지된 경우, 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하도록 상기 디스플레이를 제어할 수 있다.
그리고, 상기 프로세서는, 상기 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 상기 사용자 입력에 따라 상기 적어도 하나의 그래픽 오브젝트를 회전시켜 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 프로세서는, 상기 감지 데이터에 의해 판단된 사용자의 움직임에 따라 상기 배경 영상의 밝기를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어할 수 있다.
그리고, 상기 컨텐츠 화면은, 상기 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함하며, 상기 프로세서는, 상기 적어도 하나의 그래픽 오브젝트의 변경에 따라 상기 그림자를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어할 수 있다.
또한, 상기 디스플레이 장치를 기준으로 360도 범위의 화각을 가지는 영상을 획득하는 적어도 하나의 카메라를 더 포함하며, 상기 배경 영상에 대한 데이터는, 상기 복수의 카메라 중 상기 디스플레이 장치의 후방을 촬영하는 카메라를 이용하여 획득될 수 있다.
그리고, 상기 적어도 하나의 센서는, 상기 디스플레이 장치를 기준으로 180도 이상의 화각을 가지는 영상을 획득하는 적어도 하나 이상의 촬상 소자를 포함하여 상기 사용자를 감지한 감지 데이터를 획득할 수 있다.
또한, 상기 프로세서는, 상기 감지 데이터를 통해 상기 디스플레이 장치 주변에 사용자가 없는 것으로 판단되면, 상기 디스플레이를 오프시킬 수 있다.
한편, 상기 목적을 달성하기 위한 본 개시의 일 실시예에 따른, 디스플레이를 포함하는 디스플레이 장치의 제어 방법은, 상기 디스플레이의 후방의 배경 영상에 대한 데이터를 저장하는 단계; 적어도 하나의 센서로부터 상기 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 획득하는 단계; 및 상기 배경 영상에 대한 데이터와 상기 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 표시하는 단계;를 포함하고, 상기 컨텐츠 화면은, 상기 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함하고, 상기 배경 영상 및 상기 적어도 하나의 그래픽 오브젝트는 상기 감지 데이터의 변화에 대응하여 변경될 수 있다.
그리고, 상기 표시하는 단계는, 상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 상기 컨텐츠 화면을 표시할 수 있다.
또한, 상기 표시하는 단계는, 상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 다른 그래픽 오브젝트로 변경시켜 상기 컨텐츠 화면을 표시할 수 있다.
그리고, 상기 표시하는 단계는, 상기 감지 데이터를 통해 상기 사용자가 상기 디스플레이 장치와 기설정된 거리 이내에 위치하는 것으로 감지된 경우, 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시할 수 있다.
또한, 상기 표시하는 단계는, 상기 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 상기 사용자 입력에 따라 상기 적어도 하나의 그래픽 오브젝트를 회전시켜 상기 컨텐츠 화면을 표시할 수 있다.
그리고, 상기 표시하는 단계는, 상기 감지 데이터에 의해 판단된 사용자의 움직임에 따라 상기 배경 영상의 밝기를 변경하여 상기 컨텐츠 화면을 표시할 수 있다.
또한, 상기 컨텐츠 화면은, 상기 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함하며, 상기 표시하는 단계는, 상기 적어도 하나의 그래픽 오브젝트의 변경에 따라 상기 그림자를 변경하여 상기 컨텐츠 화면을 표시할 수 있다.
그리고, 상기 배경 영상에 대한 데이터는, 상기 디스플레이 장치의 후방을 촬영하여 획득될 수 있다.
또한, 상기 감지 데이터를 통해 상기 디스플레이 장치 주변에 사용자가 없는 것으로 판단되면, 상기 디스플레이를 오프시키는 단계;를 포함할 수 있다.
상술한 바와 같은 본 발명의 다양한 실시예에 따라, 사용자는 고가의 투명 디스플레이를 이용하지 않더라도 사용자 위치에 따라 적응적으로 변경되는 배경 영상을 포함하는 컨텐츠 화면을 제공할 수 있다. 이에 의해, 사용자는 컨텐츠 화면에 포함된 그래픽 오브젝트가 공중에 떠 있는 것과 같은 시각적 효과를 제공받을 수 있게 된다.
도 1은 본 개시의 일 실시예에 따른, 디스플레이가 투명한 유리창이 된 것과 같은 이미지 효과를 제공하는 실시예를 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른, 디스플레이 장치의 간략한 구성을 나타내는 블럭도,
도 3은 본 개시의 일 실시 예에 따른, 디스플레이 장치의 구체적인 구성을 나타내는 블럭도,
도 4a 및 도 4b는 본 개시의 일 실시예에 따른, 디스플레이 장치의 노멀 모드 및 배경 모드를 설명하기 위한 도면,
도 5 내지 도 15는 본 개시의 다양한 실시예에 따른, 외광 또는 사용자 위치에 따라 적응적으로 변하는 컨텐츠 화면을 설명하기 위한 도면들,
도 16은 본 개시의 일 실시예에 따른, 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 실시예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 ‘모듈’ 혹은 복수의 ‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하에서, 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다.
본 개시의 일 실시 예에 따른 디스플레이 장치(100)는 두 개의 동작 모드를 갖는다. 먼저, 제1 동작 모드(예를 들어, 노멀 모드)는 일반 영상을 표시하는 모드이다. 구체적으로, 제1 동작 모드는 디스플레이 장치(100)에 기저장된 컨텐츠 또는 외부로부터 수신된 방송을 디스플레이 장치의 전체 화면을 이용하여 표시하는 모드이다.
그리고, 제2 동작 모드(예를 들어, 배경 모드)는 디스플레이 장치가 디스플레이 장치 후방의 배경 영상을 포함하는 컨텐츠 화면을 표시하여, 디스플레이 장치가 마치 유리창이 된 것과 같은 시각적 효과를 제공하는 모드이다. 여기서 컨텐츠 화면은 디스플레이 장치(100)가 위치하는 후방의 배경 영상을 포함하며, 적어도 하나의 오브젝트 및 적어도 하나의 오브젝트의 그림자를 포함할 수 있다.
제2 동작 모드로 표시되는 경우, 디스플레이 장치(100)는 디스플레이 장치(100) 후방의 배경 영역을 배경 영상으로 표시하는바, 사용자는 디스플레이 장치(100)가 투명한 유리창이 된 것과 같은 착각을 받을 수 있다.
한편, 제2 동작 모드 시에는 배경 화면만을 표시하는 것뿐만 아니라, 특정의 그래픽 오브젝트를 함께 표시할 수 있다. 여기서 특정의 그래픽 오브젝트는 시계 오브젝트일 수 있으나, 일반적인 벽에 부착될 수 있는 것들이라면 다양한 그래픽 오브젝트(예를 들어, 그림, 사진, 어항, 메모 등)들이 표시될 수 있다.
한편, 디스플레이 장치(100)가 제2 동작 모드로 동작하는 경우, 즉 배경 영상을 포함하는 컨텐츠 화면을 표시하는 경우에는, 실제 배경 영역과 디스플레이 장치(100)에서 표시되는 배경 영상 간에 밝기 등의 차이가 작아야 사용자가 디스플레이 장치(100)와 실제 배경 영역과의 이질감을 인지하기 어려워진다.
따라서, 디스플레이 장치(100)의 주변 환경에 변화에 따라 디스플레이 장치(100)에 표시되는 배경 영상을 포함하는 컨텐츠 화면도 적응적으로 변경될 필요가 있다.
이에 따라, 본 개시에 따른 디스플레이 장치(100)는 주변의 조명 환경을 감지하고, 감지된 주변의 조명 환경에 따라 디스플레이 장치(100)에서 표시되는 컨텐츠 화면을 처리하여 표시한다.
또한, 본 개시에 따른 디스플레이 장치(100)는 사용자 위치를 감지하여 감지된 사용자 위치에 따라 디스플레이 장치(100)에 표시되는 컨텐츠 화면을 처리하여 표시한다.
이하에서는 디스플레이 장치(100)의 구체적인 구성들을 이용하여 상술한 동작을 자세히 설명한다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치(100)의 간략한 구성을 나타내는 블럭도이다. 도 2에 도시된 바와 같이, 디스플레이 장치(100)는 적어도 하나의 센서(110), 디스플레이(120), 메모리(165) 및 프로세서(130)를 포함한다.
적어도 하나의 센서(110)는 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 생성한다. 이때, 적어도 하나의 센서(110)는 디스플레이 장치(100)를 기준으로 180도 이상의 화각을 가지는 영상을 획득하는 적어도 하나 이상의 촬상 소자를 포함할 수 있다. 그러나, 이는 일 실시예에 불과할 뿐, 사용자 위치를 감지할 수 있는 다른 센서 역시 본 발명의 기술적 사상에 포함될 수 있다.
디스플레이(120)는 영상 데이터를 표시한다. 특히, 디스플레이 장치(100)가 제1 동작 모드로 동작되는 동안 디스플레이(120)는 외부 소스(예를 들어, 방송국, 서버, DVD 등)로부터 획득된 영상 컨텐츠를 표시할 수 있다. 또한, 제2 동작 모드로 동작되는 동안 디스플레이(120)는 기 저장된 배경 영상을 포함하는 컨텐츠 화면을 표시할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함할 수 있다. 또한, 컨텐츠 화면은 적어도 하나의 그래픽 오브젝트에 대한 그림자를 함께 포함할 수 있다.
메모리(165)는 디스플레이 장치(100)를 제어하기 위한 프로그램 및 데이터가 저장될 수 있다. 특히, 메모리(165)는 디스플레이 장치(100) 후방의 배경 영상에 대한 데이터를 저장할 수 있다. 이때, 배경 영상에 대한 데이터는 외부 장치(예를 들어, 스마트 폰 등)로부터 획득될 수 있으나, 이는 일 실시예에 불과할 뿐, 디스플레이 장치(100)와 연결되며, 디스플레이 장치(100)를 기준으로 360도 범위의 화각을 가지는 영상을 획득하는 적어도 하나의 카메라로부터 획득될 수 있다.
프로세서(130)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 특히, 프로세서(130)는 메모리(165)에 저장된 배경 영상에 대한 데이터와 적어도 하나의 센서(110)에 의해 획득된 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 디스플레이(120)에 표시되도록 제어할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함할 수 있다. 이때, 배경 영상 및 적어도 하나의 그래픽 오브젝트는 사용자 위치에 따른 감지 데이터의 변화에 대응하여 변경될 수 있다.
특히, 감지 데이터를 통해 사용자가 움직인 것으로 판단된 경우, 프로세서(130)는 사용자의 움직임에 따라 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 프로세서(130)는 사용자의 움직임에 따라 그래픽 오브젝트를 이동시키거나 색을 변경하거나 크기를 변경할 수 있다.
또는, 감지 데이터를 통해 사용자가 움직인 것으로 판단된 경우, 프로세서(130)는 사용자의 움직임에 따라 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 그래픽 오브젝트로 변경시켜 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 구체적으로, 프로세서(130)는 사용자 움직임에 따라 적어도 하나의 그래픽 오브젝트 중 제1 그래픽 오브젝트(예를 들어, 시간 오브젝트)를 제2 그래픽 오브젝트(예를 들어, 달력 오브젝트)로 변경할 수 있다.
또는, 감지 데이터를 통해 사용자가 디스플레이 장치(100)와 기설정된 거리 이내에 위치하는 것으로 감지된 경우, 프로세서(130)는 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 프로세서(130)는 사용자가 디스플레이 장치(100)와 가까워질수록 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하도록 디스플레이(120)를 제어할 수 있다.
또는, 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 프로세서(30) 사용자 입력(예를 들어, 모션 제스처 등)에 따라 적어도 하나의 그래픽 오브젝트를 회전시켜 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
또는, 프로세서(130)는 감지 데이터에 의해 판단된 사용자의 움직임에 따라 상기 배경 영상의 밝기를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 프로세서(130)는 외광의 방향 및 사용자 위치를 바탕으로 배경 영상의 밝기를 조절하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
또한, 컨텐츠 화면은 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함할 수 있다. 이때, 프로세서(130)는 적어도 하나의 그래픽 오브젝트의 변경에 따라 그림자를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
또한, 감지 데이터를 통해 디스플레이 장치 주변에 사용자가 없는 것으로 판단되면, 프로세서(130)는 디스플레이를 오프시킬 수 있다.
도 3은 본 개시의 일 실시예에 따른, 디스플레이 장치의 구체적인 구성을 나타내는 블럭도이다. 도 3을 참조하면, 본 실시 예에 따른 디스플레이 장치(100)는, 적어도 하나의 센서(110), 디스플레이(120), 프로세서(130), 방송 수신부(140), 신호 분리부(145), A/V 처리부(150), 오디오 출력부(155), 영상 신호 생성부(160), 메모리(165), 통신부(170), 조작부(175) 및 카메라(180)를 포함할 수 있다.
적어도 하나의 센서(110)는 사용자의 위치에 대한 감지 데이터를 생성한다. 본 발명의 일 실시예로, 적어도 하나의 센서(110)는 사용자의 위치를 감지하기 위하여 180 이상의 화각을 가지는 적어도 하나의 촬상 소자를 포함할 수 있다. 또 다른 실시예로, 적어도 하나의 센서(110)는 사용자의 위치를 감지하기 위한 다양한 센서(예를 들어, RF 센서, IR 센서, 초음파 센서 등)를 포함할 수 있다.
또한, 적어도 하나의 센서(100)는 디스플레이(120) 외부에 배치된 외부 광원으로부터 디스플레이(120)로 투사되는 외광의 방향 및 광도 중 적어도 하나에 대한 감지 데이터를 생성할 수 있다. 이때, 적어도 하나의 센서(110)는 디스플레이 장치(100) 상에 상호 이격된 위치에 배치되는 복수의 센서를 포함한다. 구현시에 적어도 하나의 센서(110)는 2개의 센서로 구성될 수 있으며, 4개 이상으로도 구성될 수 있다. 그리고 여기서 센서는 조도를 감지하는 조도 센서일 수 있으며, 조도뿐만 아니라, 색 온도 등도 감지 가능한 칼라 센서, 영상을 촬영할 수 있는 카메라 등일 수도 있다. 한편, 상술한 센서들은 디스플레이(120)에서 방출되는 빛의 영향을 받지 않도록 디스플레이 장치(120)의 외곽 프레임 안에 매립된 형태를 가질 수 있다.  적어도 하나의 센서(110)가 2개의 센서로 구성되는 경우, 하나의 조도 센서와 하나의 칼라 센서로 구성되거나 2개의 조도 센서 또는 2개의 칼라 센서로 구성될 수도 있다.
디스플레이(120)는 영상을 표시한다. 이러한 디스플레이(120)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 감지부와 결합하여 터치 스크린으로 구현될 수 있다.
디스플레이(120)는 백라이트를 포함한다. 여기서 백라이트는 복수의 광원으로 구성되는 점광원으로, 로컬 디밍을 지원한다.
여기서 백라이트를 구성하는 광원은 냉음극형광램프(Cold Cathode Fluorescent Lamp: CCFL) 또는 발광 다이오드(Light Emitting Diode: LED)로 구성될 수 있다. 이하에서는 백라이트를 발광 다이오드와 발광 다이오드 구동 회로로 구성되는 것으로 도시하고 설명하나, 구현시에는 LED 이외에 다른 구성으로 구현될 수도 있다. 그리고 이러한 백라이트를 구성하는 복수의 광원은 다양한 형태로 배치될 수 있으며 다양한 로컬 디밍 기술이 적용될 수 있다. 예를 들어, 백라이트는 복수의 광원이 매트릭스 형태로 배치되어 액정화면 전체에 균일하게 배치되는 직하형(Direct type) 백라이트일 수 있다. 이 경우, 백라이트는 Full-Array 로컬 디밍 또는 Direct 로컬 디밍으로 동작할 수 있다. 여기서 Full-Array 로컬 디밍은 LCD 화면 뒤에 전체적으로 광원이 고르게 전체적으로 배치되며, 각 광원별 휘도 조절을 수행하는 디밍 방식이다. 그리고 Direct 로컬 디밍은 Full-Array 로컬 디밍 방식과 유사하나 보다 작은 광원의 개수로 각 광원별 휘도 조절을 수행하는 디밍 방식이다.
또한, 백라이트는 거나 LCD의 테두리 부분에만 복수의 광원이 배치되는 엣지형(Edge type) 백라이트일 수 있다. 이 경우, 백라이트는 Edge-lit 로컬 디밍으로 동작할 수 있다. 여기서 Edge-lit 로컬 디밍은 복수의 광원이 패널의 가장자리에만 배치되며, 좌/우에만 배치되거나, 상/하에만 배치되거나, 좌/우/상/화에 배치되는 것도 가능하다.
특히, 디스플레이(120)는 배경 영상을 포함하는 컨텐츠 화면을 표시할 수 있다. 이때, 컨텐츠 화면은 적어도 하나의 그래픽 오브젝트를 포함하는 오브젝트 레이어, 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함하는 그림자 레이어, 배경 영상을 포함하는 배경 영상 레이어를 포함할 수 있다. 
또한, 디스플레이(120)는 제1 동작 모드로 동작하는 동안 제1 주파수(예를 들어, 120Hz 또는 240Hz)로 디스플레이(120)를 구동할 수 있으며, 제2 동작 모드로 동작하는 동안 제1 주파수보다 낮은 제2 주파수(예를 들어, 60Hz)로 디스플레이(120)를 구동할 수 있다. 즉, 제2 동작 모드로 동작하는 동안 낮은 주파수로 디스플레이(120)를 구동함으로써, 소비 전력을 최소화할 수 있다.
방송 수신부(140)는 방송국 또는 위성으로부터 유선 또는 무선으로 방송을 수신하여 복조한다. 구체적으로, 방송 수신부(140)는 안테나 또는 케이블을 통하여 전송 스트림을 수신하고 복조하여 디지털 전송 스트림 신호를 출력할 수 있다.
신호 분리부(145)는 방송 수신부(140)에서 제공된 전송 스트림 신호를 영상 신호, 오디오 신호, 부가정보 신호로 분리한다. 그리고 신호 분리부(145)는 영상 신호 및 오디오 신호를 A/V 처리부(150)로 전송한다.
A/V 처리부(150)는 방송 수신부(140) 및 메모리(165)로부터 입력된 영상 신호 및 오디오 신호에 대해 비디오 디코딩, 비디오 스케일링, 오디오 디코딩 등의 신호처리를 수행한다. 그리고 A/V 처리부(150)는 영상 신호를 영상 신호 제공부(160)로 출력하고, 오디오 신호를 오디오 출력부(155)로 출력한다.
반면, 수신된 영상 및 오디오 신호를 메모리(165)에 저장하는 경우, A/V 처리부(150)는 영상과 오디오를 압축된 형태로 메모리(165)에 출력할 수 있다.
오디오 출력부(155)는 A/V 처리부(150)에서 출력되는 오디오 신호를 사운드로 변환하여 스피커(미도시)를 통해 출력시키거나, 외부 출력단자(미도시)를 통해 연결된 외부기기로 출력한다.
영상 신호 제공부(160)는 사용자에게 제공하기 위한 GUI(Graphic User Interface)를 생성한다. 그리고 영상 신호 제공부(160)는 생성된 GUI를 A/V 처리부(150)에서 출력된 영상에 부가한다. 그리고 영상 신호 제공부(160)는 GUI가 부가된 영상에 대응되는 영상 신호를 디스플레이(120)에 제공한다. 이에 따라, 디스플레이(120)는 디스플레이 장치(100)에서 제공하는 각종 정보 및 영상 신호 제공부(160)에서 전달된 영상을 표시한다.
그리고 영상 신호 제공부(160)는 프로세서(130)에 의해 생성된 컨텐츠 화면을 처리하여 출력할 수 있다. 구체적으로, 영상 신호 제공부(160)는 복수의 레이어를 그대로 출력하거나 복수의 레이어를 합성(또는 머징)하여 디스플레이(120)에 제공할 수 있다.
메모리(165)는 디스플레이 장치(100)를 제어하기 위한 다양한 데이터 및 프로그램을 저장한다. 또한, 메모리(165)는 A/V 처리부(150)로부터 영상과 오디오가 압축된 영상 컨텐츠를 제공받아 저장할 수 있으며, 프로세서(130)의 제어에 따라 저장된 영상 컨텐츠를 A/V 처리부(150)에 출력할 수 있다. 특히, 메모리(165)는 배경 영상에 대한 데이터를 저장할 수 있다.
한편, 메모리(165)는 하드디스크, 비휘발성 메모리, 휘발성 메모리 등으로 구현될 수 있다.
조작부(175)는 터치 스크린, 터치패드, 키 버튼, 키패드 등으로 구현되어, 디스플레이 장치(100)의 사용자 조작을 제공한다. 본 실시 예에서는 디스플레이 장치(100)에 구비된 조작부(175)를 통하여 제어 명령을 입력받는 예를 설명하였지만, 조작부(175)는 외부 제어 장치(예를 들어, 리모컨)로부터 사용자 조작을 입력받을 수도 있다.
통신부(170)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(1700)는 와이파이칩(331), 블루투스 칩(332)을 포함할 수 있다. 프로세서(130)는 통신부(170)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다. 구체적으로, 통신부(170)는 디스플레이 장치(100)를 제어할 수 있는 제어 단말장치(예를 들어, 스마트 폰, 리모컨)로부터 제어 명령을 수신할 수 있다.
통신부(170)는 외부 서버와의 통신을 통하여 날씨 정보를 취득할 수 있다.
그 밖에, 도 2에 도시하지는 않았으나, 실시 예에 따라서는, 통신부(170)는 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩 등을 더 포함할 수 있음은 물론이다.
카메라(180)는 360도 이상의 화각을 촬영할 수 있으며, 디스플레이 장치(100)의 후방을 촬영하여 배경 영상에 대한 데이터를 획득할 수 있다. 이때, 카메라(180)는 디스플레이 장치(100)의 후방을 한 번 촬영하여 배경 영상에 대한 데이터를 획득할 수 있으나, 이는 일 실시예에 불과할 뿐, 카메라(180)는 실시간으로 디스플레이 장치(100)의 후방을 촬영하여 배경 영상에 대한 데이터를 획득할 수 있다. 이때, 카메라(180)는 복수의 카메라 모듈을 포함하여 디스플레이 장치(100)를 기준으로 360도의 화각을 가지는 영상 데이터를 획득할 수 있다.
프로세서(130)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(130)는 제1 동작 모드 시에는 조작부(175)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 영상 신호 제공부(160), 디스플레이(120)를 제어할 수 있다.
프로세서(130)는 ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 및 버스를 포함할 수 있다. ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 등은 버스를 통해 서로 연결될 수 있다.
CPU(134)는 메모리(175)에 액세스하여, 메모리(175)에 저장된 운영체제(O/S)를 이용하여 부팅을 수행한다. 그리고 CPU(134)는 메모리(175)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 이러한 CPU(134)의 동작은 도 2의 프로세서(130)의 동작 동일한바 중복 설명은 생략한다.
ROM(131)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(134)는 ROM(131)에 저장된 명령어에 따라 메모리(165)에 저장된 O/S를 RAM(132)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(134)는 메모리(165)에 저장된 각종 프로그램을 RAM(132)에 복사하고, RAM(132)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(140)는 디스플레이 장치(100)의 부팅이 완료되면, 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 구체적으로, GPU(140)는 디스플레이 장치(100)가 제2 동작 모드로 동작하는 경우, 배경 영상에 그래픽 오브젝트 및 그래픽 오브젝트의 그림자를 포함하는 컨텐츠 화면을 생성할 수 있다.
이러한, GPU 구성은 영상 신호 생성부(160)와 같은 별도의 구성으로 구성될 수 있으며, 프로세서(130) 내의 CPU와 결합된 SoC와 같은 구성으로 구현될 수도 있다.
특히, 프로세서(130)는 제2 동작 모드로 동작하는 동안 메모리(165)에 저장된 배경 영상에 대한 데이터와 적어도 하나의 센서(110)에 의해 획득된 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 디스플레이(120)에 표시되도록 제어할 수 있다. 이때, 컨텐츠 화면은 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함할 수 있으며, 이때, 배경 영상 및 적어도 하나의 그래픽 오브젝트는 사용자 위치에 따른 감지 데이터의 변화에 대응하여 변경될 수 있다.
이하에서는 도면을 참조하여 프로세서(130)의 동작에 대해 더욱 상세히 설명하기로 한다.
본 발명의 일 실시예로, 디스플레이 장치(100)는 배경 영상에 대한 데이터를 외부의 휴대 단말로부터 수신하여 메모리(165)에 저장할 수 있다. 특히, 디스플레이 장치(100)는 디스플레이 장치(100)가 설치되기 전에 가이드 부재를 이용하여 획득된 배경 영상에 대한 데이터를 휴대 단말로부터 수신할 수 있다.
구체적으로, 사용자는 디스플레이 장치(1O0)를 설치하기 위한 장소(예를 들어, 벽)에 가이드 부재를 고정시킬 수 있다. 가이드 부재가 고정되면, 휴대 단말은 카메라를 이용하여 디스플레이 장치(100)가 설치될 영역에 위치하는 가이드 부재를 포함하는 영상을 획득할 수 있다. 그리고, 휴대 단말은 획득된 영상을 표시할 수 있다. 이때, 표시된 영상에는 최적의 배경 영상을 획득하기 위한 가이드 부재의 마크의 위치를 안내하는 복수의 인디케이터가 포함될 수 있다. 그리고, 휴대 단말은 촬영된 영상 중 가이드 부재 내에 디스플레이 장치(100)가 위치하는 영역(예를 들어, 벽 영역)의 배경을 분석하여 디스플레이 장치(100)가 설치되는 위치의 배경 영상에 대한 데이터를 획득할 수 있다. 이때, 배경 영상이라 함은, 디스플레이 장치(100)가 설치되는 영역(예를 들어, 벽)에 대한 영상으로서, 배경 영상이 디스플레이 장치(100)에 표시되는 경우, 사용자는 디스플레이 장치(100)를 통해 유리창 효과를 제공받을 수 있게 된다. 그리고, 휴대 단말은 배경 영상에 대한 데이터를 디스플레이 장치(100)로 전송할 수 있다.
본 발명의 다른 실시예에 의하면, 프로세서(130)는 디스플레이 장치(100)를 기준으로 360도 화각을 가지는 카메라(180)를 통해 디스플레이 장치(100) 후방 영역의 배경 영상에 대한 데이터를 획득할 수 있다. 이때, 프로세서(130)는 디스플레이 장치(100)가 설치된 후 디스플레이 장치(100) 후방 영역의 배경 영상에 대한 데이터를 획득할 수 있다.
특히 디스플레이 장치(100)가 벽 가까이에 설치된 것이 아닌 길 가운데 설치된 경우, 프로세서(130)는 카메라(180)를 통해 실시간으로 배경 영상에 대한 데이터를 획득할 수 있다.
그리고, 제1 동작 모드(즉, 노멀 모드)로 동작하는 동안 프로세서(130)는 외부로부터 수신된 영상 컨텐츠 또는 기 저장된 영상 컨텐츠를 표시하도록 디스플레이(120)를 제어할 수 있다, 예를 들어, 프로세서(130)는 도 4a에 도시된 바와 같이, 튜너를 통해 수신되는 방송 컨텐츠(410)를 표시하도록 디스플레이(120)를 제어할 수 있다.
노멀 모드로 동작하는 동안 기설정된 사용자 명령(예를 들어, 리모컨의 특정 버튼을 선택하는 명령)이 입력되거나 기설정된 이벤트(예를 들어, 디스플레이 장치(100)가 대기 상태(디스플레이(110)가 오프된 상태)에서 사용자를 감지하는 이벤트)가 감지된 경우, 프로세서(130)는 디스플레이 장치(100)의 동작 모드를 제1 동작 모드에서 제2 동작 모드(즉, 배경 모드)로 전환할 수 있다.
제2 동작 모드로 동작하는 동안, 프로세서(130)는 기 저장된 배경 영상에 대한 데이터 및 조도 센서를 통해 획득된 감지 데이터를 바탕으로 배경 영상을 포함하는 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 컨텐츠 화면은 도 4b에 도시된 바와 같이, 배경 영상(420) 상에 시계 오브젝트(430)와 시계 오브젝트(430)에 대응되는 그림자(440)를 포함할 수 있다.
이때, 그림자(440)의 위치 및 음영은 조도 센서에 의해 감지된 감지 데이터의 변화에 대응하여 변경될 수 있다. 구체적으로, 그림자(440)의 위치 및 음영은 외광의 방향 및 광도를 바탕으로 조절될 수 있다.
더욱 구체적으로, 프로세서(130)는 도 5에 도시된 바와 같이, 배경 영상에 대한 정보를 바탕으로 배경 영상(420)을 포함하는 배경 영상 레이어(510)를 생성할 수 있다. 그리고, 프로세서(130)는 시계 오브젝트(430)를 포함하는 오브젝트 레이어(530)를 생성할 수 있으며, 시계 오브젝트(430)의 그림자(440)를 포함하는 그림자 레이어(520)를 생성할 수 있다. 그리고, 프로세서(130)는 도 5에 도시된 바와 같이, 배경 영상 레이어(510), 그림자 레이어(520), 오브젝트 레이어(530) 순으로 앞으로 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다.
한편, 도 5에서는 오브젝트 레이어(530)가 1개, 그림자 레이어(520)가 1개 생성되는 것으로 설명하였으나, 이는 일 실시예에 불과할 뿐, 복수 개의 오브젝트 레이어 및 복수의 그림자 레이어가 생성될 수 있다. 예를 들어, 프로세서(130)는 시계 오브젝트를 포함하는 오브젝트 레이어 및 덩굴 오브젝트를 포함하는 오브젝트 레이어를 생성할 수 있으며, 각각의 오브젝트에 대응되는 그림자 레이어들을 생성할 수 있다. 복수의 오브젝트 레이어가 생성되는 경우, 프로세서(130)는 더욱 앞에 보이고자 하는 오브젝트를 포함하는 오브젝트 레이어를 앞에 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 시계 오브젝트를 포함하는 오브젝트 레이어 및 덩굴 오브젝트를 포함하는 오브젝트 레이어가 생성된 경우, 프로세서(130)는 시계 오브젝트를 포함하는 오브젝트 레이어를 덩굴 오브젝트를 포함하는 오브젝트 레이어보다 앞에 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다.
특히, 도 6a에 도시된 바와 같이, 디스플레이 장치(100)는 디스플레이(120)의 가장자리에 배치되는 베젤과 베젤을 덮는 외곽 프레임(610)을 더 포함할 수 있다. 이때, 프로세서(130)는 외곽 프레임(610)에 대한 그림자(620)에 대한 외곽 프레임 그림자 레이어를 더 생성하고, 도 6a에 도시된 바와 같이, 외곽 프레임(610)에 대한 그림자(620)를 포함하는 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
이때, 프로세서(130)는 도 6b에 도시된 바와 같이, 배경 영상 레이어(510), 그림자 레이어(520), 오브젝트 레이어(530), 외곽 프레임 그림자 레이어(630) 순으로 앞으로 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 도 6b와 같이 외곽 프레임 그림자 레이어(630)가 가장 앞에 배치될 경우, 외곽 프레임의 그림자(620)와 그래픽 오브젝트가 겹치는 경우, 외곽 프레임의 그림자(620)가 그래픽 오브젝트 보다 앞에 있는 것처럼 보여 더욱 실제적인 유리창 효과를 제공할 수 있다.
본 발명의 또 다른 실시예에 의하면, 프로세서(130)는 도 6c에 도시된 바와 같이, 배경 영상 레이어(510), 그림자 레이어(520), 외곽 프레임 그림자 레이어(630), 오브젝트 레이어(530) 순으로 앞으로 배치하여 표시하도록 디스플레이(120)를 제어할 수 있다.
또한, 프로세서(130)는 조도 센서로부터 획득된 감지 데이터를 바탕으로 컨텐츠 화면에 포함된 배경 영상, 그래픽 오브젝트, 그래픽 오브젝트의 그림자에 대한 영상 보정을 수행할 수 있다.
구체적으로, 프로세서(130)는 조도 센서로부터 획득된 외광의 방향을 바탕으로 컨텐츠 화면에 포함된 그래픽 오브젝트의 그림자 또는 외곽 프레임의 그림자를 생성할 수 있다. 예를 들어, 조도 센서로부터 획득된 태양광의 방향 변경에 따라 컨텐츠 화면에 포함된 그래픽 오브젝트의 그림자 또는 외곽 프레임의 그림자의 방향을 변경할 수 있다.
또한, 프로세서(130)는 조도 센서로부터 획득된 외광의 광도를 바탕으로 컨텐츠 화면에 포함된 배경 영상, 그래픽 오브젝트, 그래픽 오브젝트의 그림자에 대한 밝기 조절을 수행할 수 있다.
또한, 프로세서(130)는 적어도 하나의 센서(110)로부터 획득된 감지 데이터를 바탕으로 판단된 사용자 위치에 따라 컨텐츠 화면을 생성하여 디스플레이(120)에 표시되도록 제어할 수 있다. 특히, 프로세서(130)는 배경 영상과 적어도 하나의 그래픽 오브젝트 중 적어도 하나를 사용자 위치의 변화에 대응하여 변경할 수 있다.
구체적으로, 프로세서(130)는 사용자 위치에 따라 그래픽 오브젝트를 상이하게 표시하도록 디스플레이(120)를 제어할 수 있다. 도 7a에 도시된 바와 같이, 사용자가 디스플레이 장치(100)를 기준으로 왼쪽에 위치하는 것으로 감지되면, 프로세서(130)는 그래픽 오브젝트(710-1)의 왼쪽편을 표시하도록 디스플레이(120)를 제어할 수 있으며, 배경 영상(720-1) 역시 사용자가 왼쪽에서 바라볼 경우, 디스플레이 장치(100)의 후방의 배경 영역과 일치할 수 있도록 디스플레이 장치(100) 후방의 우측 영역(예를 들어, 디스플레이 장치(100) 후방의 우측에 위치하는 패턴 또는 물건 등)을 포함시켜 표시하도록 디스플레이(120)를 제어할 수 있다.
또한, 도 7b에 도시된 바와 같이, 사용자가 디스플레이 장치(100)를 기준으로 정면에 위치하는 것으로 감지되면, 프로세서(130)는 그래픽 오브젝트(710-2)의 정면을 표시하도록 디스플레이(120)를 제어할 수 있으며, 배경 영상(720-1) 역시 사용자가 정면에서 바라볼 경우, 디스플레이 장치(100)의 후방의 배경 영역과 일치할 수 있도록 디스플레이 장치(100) 후방 영역을 포함시켜 표시하도록 디스플레이(120)를 제어할 수 있다 다.
또한, 도 7c에 도시된 바와 같이, 사용자가 디스플레이 장치(100)를 기준으로 오른쪽에 위치하는 것으로 감지되면, 프로세서(130)는 그래픽 오브젝트(710-3)의 오른쪽편을 표시하도록 디스플레이(120)를 제어할 수 있으며, 배경 영상(720-1) 역시 사용자가 오른쪽에서 바라볼 경우, 디스플레이 장치(100)의 후방의 배경 영역과 일치할 수 있도록 디스플레이 장치(100) 후방의 좌측 영역(예를 들어, 디스플레이 장치(100) 후방의 좌측에 위치하는 패턴 또는 물건 등)을 포함시켜 표시하도록 디스플레이(120)를 제어할 수 있다.
즉, 프로세서(130)는 배경 화면 상에 사용자 위치에 따라 그래픽 오브젝트를 처리하여 표시함으로써, 그래픽 오브젝트가 공중에 떠 있는 것과 같은 효과를 제어할 수 있게 된다. 또한, 배경 영상 역시 사용자의 움직임에 따라 디스플레이 장치의 후방의 상이한 영역이 표시되도록 처리함으로써, 사용자 위치에 따라 사용자가 투명한 유리창을 통해 디스플레이 장치(100)의 후방을 볼 수 있는 것과 같은 이미지 효과를 제공할 수 있다.
특히, 프로세서(130)는 사용자와 디스플레이 장치(100) 사이의 거리를 바탕으로 상이하게 그래픽 오브젝트를 처리하여 디스플레이(120)에 제공할 수 있다.
우선, 프로세서(130)는 사용자의 휴대 단말의 GPS로부터 획득된 위치 정보를 수신하여 사용자가 디스플레이 장치(100)로부터 기설정된 거리 이내인지 여부를 판단할 수 있다. 디스플레이 장치(100)로부터 기설정된 거리 이내에 사용자가 위치하는 것으로 판단된 경우, 프로세서(130)는 디스플레이(120)를 온할 수 있다. 이때, 프로세서(130)는 제2 동작 모드로 동작하도록 디스플레이(120)를 제어할 수 있다.
그리고, 프로세서(130)는 도 8에 도시된 바와 같이, 사용자가 디스플레이 장치(100)와 근거리(810)에 있는지, 중거리(820)에 있는지, 원거리(830)에 있는지 여부에 따라 상이하게 동작할 수 있다. 본 발명의 일 실시예로, 근거리(810)는 사용자와 디스플레이 장치(100) 사이의 거리가 1.5m 이내이며, 중거리(820)는 사용자와 디스플레이 장치(100) 사이의 거리가 1.5m ~ 5m 이며, 원거리(830)는 사용자와 디스플레이 장치(100) 사이의 거리가 5m 이상일 수 있다.
특히, 근거리(810) 내에서 사용자가 움직인 경우, 프로세서(130)는 사용자의 움직임에 따라 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
예를 들어, 도 9a 내지 도 9c에 도시된 바와 같이, 사용자가 점점 왼쪽에서 오른쪽으로 이동하는 경우, 프로세서(130)는 사용자 움직임에 따라 그래픽 오브젝트(910) 역시 왼쪽에서 오른쪽으로 이동하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 프로세서(130)는 사용자 움직임에 따라 그래픽 오브젝트 역시 이동하는 것과 같은 이미지 효과를 제공할 수 있게 된다.
뿐만 아니라, 사용자가 점점 왼쪽에서 오른쪽으로 이동하는 경우, 프로세서(130)는 사용자 움직임에 따라 배경 영상에 표시되는 디스플레이 장치(100)의 후방 영역을 이동하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 프로세서(130)는 사용자 위치와 상관없이 어디서나 디스플레이 장치(100)의 후면 영역을 바라보는 것과 같은 이미지 효과를 제공할 수 있다.
이때, 프로세서(130)는 사용자의 이동 속도에 따라 그래픽 오브젝트의 이동 속도를 결정할 수 있다. 즉, 프로세서(130)는 사용자 움직임에 대응하여 그래픽 오브젝트를 이동하도록 디스플레이(120)를 제어할 수 있다.
또 다른 예로, 프로세서(130)는 사용자가 디스플레이 장치(100)로 멀어질수록 그래픽 오브젝트의 색을 선명하게 변경하거나 크기를 증가시켜 표시하도록 디스플레이(120)를 제어할 수 있다. 또한, 프로세서(130)는 사용자가 디스플레이 장치(100)와 가까워질수록 그래픽 오브젝트의 색을 연하게 변경하거나 크기를 감소시켜 표시하도록 디스플레이(120)를 제어할 수 있다.
또한, 근거리(810) 내에서 감지 데이터를 통해 사용자가 움직인 것으로 판단된 경우, 프로세서(130)는 사용자의 움직임에 따라 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하도록 디스플레이(120)를 제어할 수 있다.
예를 들어, 디스플레이 장치(100)와 사용자와의 거리가 제1 거리(d1)인 경우, 프로세서(130)는 도 10a에 도시된 바와 같이, 복수의 그래픽 오브젝트(1010-1 내지 1010-6)을 표시하도록 디스플레이(120)를 제어할 수 있다. 그러나, 디스플레이 장치(100)와 사용자와의 가리가 제1 거리(d1)보다 짧은 제2 거리(d2)인 경우, 즉, 사용자가 디스플레이 장치(100) 쪽으로 이동한 경우, 프로세서(130)는 도 10b에 도시된 바와 같이, 복수의 그래픽 오브젝트(1010-1 내지 1010-6) 중 제5 그래픽 오브젝트(1010-5) 및 제6 그래픽 오브젝트(1010-6)를 제거하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 사용자가 다가가갈수록 그래픽 오브젝트가 벽 속으로 들어가는 듯한 그래픽 효과를 제공할 수 있게 된다.
이때, 제거되는 그래픽 오브젝트의 개수는 사용자와 디스플레이 장치(100) 사이의 거리에 비례할 수 있다. 즉, 사용자가 디스플레이 장치(100)에 다가갈수록 그래픽 오브젝트의 개수가 점점 감소할 수 있다.
또한, 근거리(810) 내에서 감지 데이터를 통해 사용자가 움직인 것으로 판단된 경우, 프로세서(130)는 사용자의 움직임에 따라 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 다른 그래픽 오브젝트로 변경하여 표시하도록 디스플레이(120)를 제어할 수 있다.
예를 들어, 디스플레이 장치(100)와 사용자와의 거리가 제1 거리(d1)인 경우, 프로세서(130)는 도 10a에 도시된 바와 같이, 복수의 그래픽 오브젝트(1010-1 내지 1010-6)을 표시하도록 디스플레이(120)를 제어할 수 있다. 그러나, 디스플레이 장치(100)와 사용자와의 가리가 제1 거리(d1)보다 짧은 제3 거리(d3)인 경우, 즉, 사용자가 디스플레이 장치(100) 쪽으로 이동한 경우, 프로세서(130)는 도 10c에 도시된 바와 같이, 복수의 그래픽 오브젝트(1010-1 내지 1010-6) 중 제5 그래픽 오브젝트(1010-5) 및 제6 그래픽 오브젝트(1010-6)를 제7 그래픽 오브젝트(1010-7) 및 제8 그래픽 오브젝트(1010-8)로 변경하여 표시하도록 디스플레이(120)를 제어할 수 있다. 즉, 사용자가 다가가갈수록 그래픽 오브젝트가 새로운 그래픽 오브젝트로 변경되는 그래픽 효과를 제공할 수 있게 된다.
이때, 변경되는 그래픽 오브젝트의 개수는 사용자와 디스플레이 장치(100) 사이의 거리에 비례할 수 있다. 즉, 사용자가 디스플레이 장치(100)에 다가갈수록 변경되는 그래픽 오브젝트의 개수가 점점 증가할 수 있다.
그 밖에, 근거리(810) 내에 사용자가 위치하는 경우, 프로세서(130)는 사용자의 응시 여부에 따라 그래픽 오브젝트의 색을 결정할 수 있다. 구체적으로, 사용자가 디스플레이(120)를 응시하는 것으로 감지된 경우, 프로세서(130)는 도 11의 좌측 도면에 도시된 바와 같이, 제1 색의 복수의 그래픽 오브젝트(1110-1 내지 1110-5)를 표시하도록 디스플레이(120)를 제어할 수 있다. 그리고, 사용자가 디스플레이(120)가 아닌 다른 곳을 응시하는 것으로 감지된 경우, 프로세서(130)는 도 11의 우측 도면에 도시된 바와 같이, 제2 색의 복수의 그래픽 오브젝트(1110-5 내지 1110-10)를 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 제2 색은 제1 색보다 채도가 낮거나 밝기가 낮은 색일 수 있다.
또한, 근거리(810) 내에 사용자가 위치하면서 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 프로세서(130)는 사용자 입력에 따라 도 12에 도시된 바와 같이, 적어도 하나의 그래픽 오브젝트를 회전시켜 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 사용자 입력은 사용자 모션 또는 사용자 음성 중 하나일 수 있으나, 이는 일 실시예에 불과할 뿐, 포인팅 디바이스, 사용자 터치 등과 같은 다양한 사용자 입력으로 구현될 수 있다.
또한, 중거리(820) 내에 사용자가 위치하는 경우, 프로세서(130)는 사용자 입력에 따라 표시되는 그래픽 오브젝트의 개수를 조절할 수 있다. 예를 들어, 도 13의 좌측 도면에 도시된 바와 같이, 4개의 그래픽 오브젝트(1310-1 내지 1310-4)가 표시되는 동안 사용자 입력(예를 들어, 사용자 음성, 사용자 박수 등)이 감지되면, 프로세서(130)는 사용자 입력에 따라 6개의 그래픽 오브젝트(1310-1 내지 1310-6)를 표시하도록 디스플레이(120)를 제어할 수 있다. 이때, 증가하는 오브젝트의 개수는 사용자 입력에 따라 결정된다. 예를 들어, 사용자가 박수를 두 번 치거나 특정 키워드를 두번 발화하는 경우, 프로세서(130)는 그래픽 오브젝트를 두 개 증가시킬 수 있다.
또한, 중거리(820) 내에 사용자가 위치하는 경우, 프로세서(130)는 시간대에 따라 그래픽 오브젝트의 색이나 움직임을 변경하여 표시하도록 디스플레이(120)를 제어할 수 있다.
예를 들어, 프로세서(130)는 낮 시간동안 도 14의 좌측에 도시된 바와 같이, 밝은 그래픽 오브젝트(1410)를 표시하도록 디스플레이(120)를 제어할 수 있으며, 밤 시간동안 도 14의 우측에 도시된 바와 같이, 어두운 그래픽 오브젝트(1420)를 표시하도록 디스플레이(120)를 제어할 수 있다. 또 다른 예로, 프로세서(130)는 시간의 흐름에 따라 그래픽 오브젝트를 우측 영역에서 좌측 영역으로 이동하여 표시하도록 디스플레이(120)를 제어할 수 있다.
특히, 원거리(830)에 사용자가 위치하고, 도 15의 좌측에 도시된 바와 같이, 그래픽 오브젝트(1510)를 표시하는 동안 사용자 입력(예를 들어, 사용자 음성, 스마트 폰을 통한 입력)이 감지되면, 프로세서(130)는 사용자 입력에 따라 도 15의 우측에 도시된 바와 같이, 그래픽 오브젝트(1510)를 제거하고 배경 영상만을 포함하는 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 
그리고, 감지 데이터를 통해 디스플레이 장치(100) 주변에 사용자가 없는 것으로 판단되면, 프로세서(130)는 디스플레이(120)를 오프시킬 수 있다. 이때, 프로세서(130)는 배경 화면만을 포함하는 컨텐츠 화면을 일정시간 동안 표시하다가 디스플레이(120)를 오프시킬 수 있으나, 이는 일 실시예에 불과할 뿐, 사용자가 없어지면 바로 디스플레이(120)를 오프시킬 수 있다.
한편, 상술한 실시예에서는 사용자 위치에 따라 그래픽 오브젝트를 변경하여 표시하는 실시예를 설명하였으나, 이는 일 실시예에 불과할 뿐, 사용자 위치에 따라 배경 영상 및 그래픽 오브젝트의 그림자 중 적어도 하나를 변경하여 표시할 수 있다.
구체적으로, 프로세서(130)는 감지 데이터에 의해 판단된 사용자의 움직임에 따라 배경 영상의 밝기를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 사용자가 밝은 곳으로 이동하면, 프로세서(130)는 사용자의 움직임에 따라 배경 영상의 밝기를 증가시킬 수 있으며, 사용자가 어두운 곳으로 이동하면, 프로세서(130)는 사용자 움직임에 따라 배경 영상의 밝기를 감소시켜 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다.
즉, 프로세서(130)는 사용자가 위치하는 곳과 무관하게 배경 영상이 디스플레이 장치(100)의 후방 영역과 동일하게 보일 수 있도록 배경 영상의 밝기를 조절할 수 있다.
또한, 프로세서(130)는 사용자 움직임에 대응되는 적어도 하나의 그래픽 오브젝트의 변경에 따라 적어도 하나의 그래픽 오브젝트의 그림자를 변경하여 컨텐츠 화면을 표시하도록 디스플레이(120)를 제어할 수 있다. 예를 들어, 사용자 움직임에 따라 적어도 하나의 그래픽 오브젝트가 이동하거나 크기가 변경되면, 프로세서(130)는 변경된 그래픽 오브젝트의 위치나 크기에 대응되도록 그림자를 처리하여 디스플레이(120)에 표시되도록 제어할 수 있다.
도 16은 본 개시의 일 실시예에 따른, 디스플레이 장치의 제어 방법을 설명하기 위한 도면이다.
우선, 디스플레이 장치(100)는 디스플레이(120)의 후방의 배경 영상에 대한 데이터를 저장한다(S1610). 이때, 후방의 배경 영상에 대한 데이터는 외부의 휴대 단말에 의해 획득되거나 디스플레이 장치(100)와 연결된 카메라에 의해 획득될 수 있다.
그리고, 디스플레이 장치(100)는 적어도 하나의 센서(110)로부터 디스플레이 장치(100) 주변의 사용자 위치에 대한 감지 데이터를 획득한다(S1620). 이때, 디스플레이 장치(100)는 180도 이상의 화각을 가지는 촬상 소자를 이용하여 사용자 위치를 감지할 수 있다.
그리고, 디스플레이 장치(100)는 배경 영상에 대한 데이터와 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 표시한다(S1630). 이때, 컨텐츠 화면에는 배경 영상 상에 그래픽 오브젝트 및 그래픽 오브젝트의 그림자를 포함할 수 있다. 그리고, 배경 영상 및 그래픽 오브젝트는 획득된 감지 데이터로부터 판단된 사용자 위치에 따라 변경될 수 있다.
상술한 바와 같은 본 발명의 다양한 실시예에 따라, 사용자는 고가의 투명 디스플레이를 이용하지 않더라도 사용자 위치에 따라 적응적으로 변경되는 배경 영상을 포함하는 컨텐츠 화면을 제공할 수 있다. 이에 의해, 사용자는 컨텐츠 화면에 포함된 그래픽 오브젝트가 공중에 떠 있는 것과 같은 시각적 효과를 제공받을 수 있게 된다.
한편, 상술한 다양한 실시 예에 따른 디스플레이 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다. 특히, 디스플레이 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100: 디스플레이 장치               110: 적어도 하나의 센서
200: 디스플레이                    130: 프로세서
140: 방송 수신부                   145: 신호 분리부
150: A/V 처리부                    155: 오디오 출력부
160: 영상 신호 생성부             165: 메모리
170: 통신부                        175: 조작부
180: 카메라

Claims (19)

  1. 디스플레이 장치에 있어서,
    영상을 표시하기 위한 디스플레이;
    상기 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 생성하는 적어도 하나의 센서;
    상기 디스플레이의 후방의 배경 영상에 대한 데이터를 저장하는 메모리; 및
    상기 배경 영상에 대한 데이터와 상기 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 상기 디스플레이에 표시되도록 하는 프로세서;를 포함하며,
    상기 컨텐츠 화면은, 상기 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함하고,
    상기 배경 영상과 상기 적어도 하나의 그래픽 오브젝트는 상기 감지 데이터의 변화에 대응하여 변경되는 것을 특징으로 디스플레이 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  3. 제1항에 있어서,
    상기 프로세서는,
    상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 다른 그래픽 오브젝트로 변경시켜 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 감지 데이터를 통해 상기 사용자가 상기 디스플레이 장치와 기설정된 거리 이내에 위치하는 것으로 감지된 경우, 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 상기 사용자 입력에 따라 상기 적어도 하나의 그래픽 오브젝트를 회전시켜 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 감지 데이터에 의해 판단된 사용자의 움직임에 따라 상기 배경 영상의 밝기를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 컨텐츠 화면은,
    상기 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함하며,
    상기 프로세서는,
    상기 적어도 하나의 그래픽 오브젝트의 변경에 따라 상기 그림자를 변경하여 상기 컨텐츠 화면을 표시하도록 상기 디스플레이를 제어하는 것을 특징으로 하는 디스플레이 장치.
  8. 제1항에 있어서,
    상기 디스플레이 장치를 기준으로 360도 범위의 화각을 가지는 영상을 획득하는 적어도 하나의 카메라를 더 포함하며,
    상기 배경 영상에 대한 데이터는,
    상기 적어도 하나의 카메라 중 상기 디스플레이 장치의 후방을 촬영하는 카메라를 이용하여 획득되는 것을 특징으로 하는 디스플레이 장치.
  9. 제1항에 있어서,
    상기 적어도 하나의 센서는,
    상기 디스플레이 장치를 기준으로 180도 이상의 화각을 가지는 영상을 획득하는 적어도 하나 이상의 촬상 소자를 포함하여 상기 사용자를 감지한 감지 데이터를 획득하는 것을 특징으로 하는 디스플레이 장치.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 감지 데이터를 통해 상기 디스플레이 장치 주변에 사용자가 없는 것으로 판단되면, 상기 디스플레이를 오프시키는 것을 특징으로 하는 디스플레이 장치.
  11. 디스플레이를 포함하는 디스플레이 장치의 제어 방법에 있어서,
    상기 디스플레이의 후방의 배경 영상에 대한 데이터를 저장하는 단계;
    적어도 하나의 센서로부터 상기 디스플레이 장치 주변의 사용자 위치에 대한 감지 데이터를 획득하는 단계; 및
    상기 배경 영상에 대한 데이터와 상기 감지 데이터를 바탕으로 컨텐츠 화면을 생성하여 표시하는 단계;를 포함하고,
    상기 컨텐츠 화면은, 상기 배경 영상 상에 적어도 하나의 그래픽 오브젝트를 포함하고,
    상기 배경 영상 및 상기 적어도 하나의 그래픽 오브젝트는 상기 감지 데이터의 변화에 대응하여 변경되는 것을 특징으로 제어 방법.
  12. 제11항에 있어서,
    상기 표시하는 단계는,
    상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트의 위치, 색, 크기 중 적어도 하나를 변경하여 상기 컨텐츠 화면을 표시하는 것을 특징으로 하는 제어 방법.
  13. 제11항에 있어서,
    상기 표시하는 단계는,
    상기 감지 데이터를 통해 상기 사용자가 움직인 것으로 판단된 경우, 상기 사용자의 움직임에 따라 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 다른 그래픽 오브젝트로 변경시켜 상기 컨텐츠 화면을 표시하는 것을 특징으로 하는 제어 방법.
  14. 제11항에 있어서,
    상기 표시하는 단계는,
    상기 감지 데이터를 통해 상기 사용자가 상기 디스플레이 장치와 기설정된 거리 이내에 위치하는 것으로 감지된 경우, 상기 적어도 하나의 그래픽 오브젝트 중 적어도 일부를 제거하여 표시하는 것을 특징으로 하는 제어 방법.
  15. 제11항에 있어서,
    상기 표시하는 단계는,
    상기 적어도 하나의 그래픽 오브젝트가 표시되는 동안 사용자 입력이 감지되면, 상기 사용자 입력에 따라 상기 적어도 하나의 그래픽 오브젝트를 회전시켜 상기 컨텐츠 화면을 표시하는 것을 특징으로 하는 제어 방법.
  16. 제11항에 있어서,
    상기 표시하는 단계는,
    상기 감지 데이터에 의해 판단된 사용자의 움직임에 따라 상기 배경 영상의 밝기를 변경하여 상기 컨텐츠 화면을 표시하는 것을 특징으로 하는 제어 방법.
  17. 제11항에 있어서,
    상기 컨텐츠 화면은,
    상기 적어도 하나의 그래픽 오브젝트에 대한 그림자를 포함하며,
    상기 표시하는 단계는,
    상기 적어도 하나의 그래픽 오브젝트의 변경에 따라 상기 그림자를 변경하여 상기 컨텐츠 화면을 표시하는 것을 특징으로 하는 제어 방법.
  18. 제11항에 있어서,
    상기 배경 영상에 대한 데이터는,
    상기 디스플레이 장치의 후방을 촬영하여 획득되는 것을 특징으로 하는 제어 방법.
  19. 제11항에 있어서,
    상기 감지 데이터를 통해 상기 디스플레이 장치 주변에 사용자가 없는 것으로 판단되면, 상기 디스플레이를 오프시키는 단계;를 포함하는 제어 방법.
KR1020160180307A 2016-12-14 2016-12-27 디스플레이 장치 및 이의 제어 방법 KR20180076154A (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020160180307A KR20180076154A (ko) 2016-12-27 2016-12-27 디스플레이 장치 및 이의 제어 방법
JP2019528063A JP7050067B2 (ja) 2016-12-14 2017-10-23 ディスプレイ装置及びその制御方法
PCT/KR2017/011736 WO2018110821A1 (en) 2016-12-14 2017-10-23 Display apparatus and method for controlling the display apparatus
EP17881886.0A EP3494458B1 (en) 2016-12-14 2017-10-23 Display apparatus and method for controlling the display apparatus
US15/798,623 US10579206B2 (en) 2016-12-14 2017-10-31 Display apparatus and method for controlling the display apparatus
CN201711334386.XA CN108235125B (zh) 2016-12-14 2017-12-13 显示装置和用于控制显示装置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160180307A KR20180076154A (ko) 2016-12-27 2016-12-27 디스플레이 장치 및 이의 제어 방법

Publications (1)

Publication Number Publication Date
KR20180076154A true KR20180076154A (ko) 2018-07-05

Family

ID=62920417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160180307A KR20180076154A (ko) 2016-12-14 2016-12-27 디스플레이 장치 및 이의 제어 방법

Country Status (1)

Country Link
KR (1) KR20180076154A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102251544B1 (ko) * 2019-11-13 2021-05-13 한국과학기술연구원 사용자의 동작에 따른 3d 오브젝트 제어 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102251544B1 (ko) * 2019-11-13 2021-05-13 한국과학기술연구원 사용자의 동작에 따른 3d 오브젝트 제어 장치 및 방법

Similar Documents

Publication Publication Date Title
JP7050067B2 (ja) ディスプレイ装置及びその制御方法
US10867585B2 (en) Electronic apparatus and method for displaying a content screen on the electronic apparatus thereof
US10635373B2 (en) Display apparatus and method of controlling the same
US10685608B2 (en) Display device and displaying method
US20180174555A1 (en) Display apparatus and display method thereof
US10950206B2 (en) Electronic apparatus and method for displaying contents thereof
KR20180072983A (ko) 디스플레이 장치 및 방법
EP3817394B1 (en) Electronic device and display method thereof
KR20180076154A (ko) 디스플레이 장치 및 이의 제어 방법
KR20180071619A (ko) 디스플레이 장치 및 디스플레이 방법
KR102538479B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR102651417B1 (ko) 디스플레이 장치 및 이의 제어 방법
KR20180124565A (ko) 전자 장치 및 이의 디스플레이 방법
KR20180128194A (ko) 전자 장치 및 그 제어 방법
KR20180124597A (ko) 전자 장치 및 이의 제어 방법
KR20180125847A (ko) 전자 장치 및 이의 디스플레이 방법
KR102340147B1 (ko) 전자 장치 및 그의 디스플레이 방법
US20180184040A1 (en) Display apparatus and displaying method
KR20190019580A (ko) 디스플레이 장치 및 디스플레이 방법
KR20180119022A (ko) 원격 제어 장치 및 그 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal