KR20110057921A - 사용자 적응형 디스플레이 장치 및 디스플레이 방법 - Google Patents

사용자 적응형 디스플레이 장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR20110057921A
KR20110057921A KR1020090114546A KR20090114546A KR20110057921A KR 20110057921 A KR20110057921 A KR 20110057921A KR 1020090114546 A KR1020090114546 A KR 1020090114546A KR 20090114546 A KR20090114546 A KR 20090114546A KR 20110057921 A KR20110057921 A KR 20110057921A
Authority
KR
South Korea
Prior art keywords
user
image
display
controller
information
Prior art date
Application number
KR1020090114546A
Other languages
English (en)
Other versions
KR101626159B1 (ko
Inventor
이주환
박기수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090114546A priority Critical patent/KR101626159B1/ko
Priority to PCT/KR2010/005644 priority patent/WO2011065653A2/ko
Priority to DE112010004551.8T priority patent/DE112010004551B4/de
Priority to US13/058,768 priority patent/US9313439B2/en
Publication of KR20110057921A publication Critical patent/KR20110057921A/ko
Application granted granted Critical
Publication of KR101626159B1 publication Critical patent/KR101626159B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Social Psychology (AREA)
  • Biomedical Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 실시예에 따른 사용자 적응형 디스플레이 장치는 그룹으로 또는 개별적으로 제어 가능한 다수의 디스플레이 모듈들이 서로 인접하게 배치되는 디스플레이 장치에 있어서, 사용자 정보에 관한 데이터를 수신하는 통신부; 상기 사용자 정보를 분석하고, 상기 사용자 정보에 따라 영상 구성을 변경하는 제어부; 및 상기 제어부에 의하여 영상 구성이 변경된 영상이 표시되는 디스플레이부;를 포함한다.
디스플레이 장치

Description

사용자 적응형 디스플레이 장치 및 디스플레이 방법{User adaptive display device and method thereof}
본 발명의 실시예는 사용자 적응형 디스플레이 장치 및 디스플레이 방법에 대한 것이며, 사용자의 위치에 따라 영상 품질의 조정이 이루어지는 장치 및 장치에 대한 것이다.
TV를 시청하거나 PC 모니터의 화면을 볼 때에, 화면상에 제공되는 이미지 또는 텍스트가 작아서 잘 보이지 않거나 오히려 너무 커서 시청에 부담을 느끼게 되면, 사용자가 직접 출력 이미지의 사이즈를 조정하거나 폰트를 조절하여야 했다.
본 실시예는 사용자 정보로서, 사용자의 위치 또는 사용자의 목소리 또는 사용자의 제스처를 이용하고, 이러한 사용자 정보에 따라 표시 영상의 품질이 자동으로 조정될 수 있는 사용자 적응형 디스플레이 장치 및 디스플레이 방법를 제안한다.
본 실시예에 따른 사용자 적응형 디스플레이 장치는 그룹으로 또는 개별적으로 제어 가능한 다수의 디스플레이 모듈들이 서로 인접하게 배치되는 디스플레이 장치에 있어서, 사용자 정보에 관한 데이터를 수신하는 통신부; 상기 사용자 정보를 분석하고, 상기 사용자 정보에 따라 영상 구성을 변경하는 제어부; 및 상기 제어부에 의하여 영상 구성이 변경된 영상이 표시되는 디스플레이부;를 포함한다.
또한, 실시예의 디스플레이 방법은 그룹으로 또는 개별적으로 제어 가능한 다수의 디스플레이 모듈들이 서로 인접하게 배치되는 디스플레이 장치의 디스플레이 방법에 있어서, 사용자 정보에 관한 데이터를 수신하는 단계; 수신된 사용자 정보를 분석하고, 상기 사용자 정보에 따라 영상 구성을 설정하는 단계; 및 상기의 설정된 영상 구성으로 영상이 표시되는 단계;를 포함한다.
그리고, 상기 사용자 정보는 사용자 얼굴, 사용자 거리, 사용자 위치, 사용자 제스처 및 사용자 음성 중 적어도 하나를 포함할 수 있다.
그리고, 상기 영상 구성의 설정은 표시 영상의 사이즈 변경, 영상 내의 텍스 트 크기 변경, 영상 내에 있는 물체와 물체와의 윤곽 변경 및 상기 영상의 회전 중 적어도 하나를 포함할 수 있다.
그리고, 상기 디스플레이부를 통하여 표시되는 영상은 정지영상, 동영상, 텍스트 및 3D 영상을 포함할 수 있다.
본 발명의 실시예들에 따르면, 사용자가 영상의 사이즈등을 직접 설정할 필요 없이 사용자에 따라 또는 사용자의 현재 상태에 따라 자동으로 영상의 품질이 조정될 수 있다.
이하에서는, 본 실시예에 대하여 첨부되는 도면을 참조하여 상세하게 살펴보도록 한다. 다만, 본 실시예가 개시하는 사항으로부터 본 실시예가 갖는 발명의 사상의 범위가 정해질 수 있을 것이며, 본 실시예가 갖는 발명의 사상은 제안되는 실시예에 대하여 구성요소의 추가, 삭제, 변경 등의 실시변형을 포함한다고 할 것이다.
그리고, 이하의 설명에서, 단어 '포함하는'은 열거된 것과 다른 구성요소들 또는 단계들의 존재를 배제하지 않는다.
도 1은 본 실시예의 디스플레이 장치의 개략적인 구성을 보여주는 도면이다.
도 1에 도시된 바와 같이, 본 실시예의 디스플레이 장치(100)는 사용자를 인식하고, 인식되는 정보에 따라 표시 영상 구성(configuration)을 조정하며, 상기 디스플레이 장치(100)에는 영상이 표시되는 디스플레이부(110), 사용자로부터 디스 플레이 장치의 조작 또는 영상 설정등의 명령을 수신하는 사용자 입력부(120), 사용자 정보를 수신하는 통신부(140)를 포함한다.
본 실시예의 디스플레이부(110)는 디스플레이 장치의 설치 공간에서 벽면에 설치가능하므로, 상기 디스플레이부(110)가 벽면의 일부 또는 전부를 차지하도록 마련될 수 있다.
예를 들어, 실시예의 디스플레이 장치(100)는 가정의 거실이나 방을 구성하는 일 벽면 또는 그 이상의 벽면에 설치되어, 상기 디스플레이부(110)가 거실이나 방의 벽면 일부 또는 전부에 설치될 수 있다.
따라서, 본 실시예의 디스플레이 장치(100)는 '디스플레이 월' 또는 비디오 월'이라고도 할 수 있으나, 이하 본 발명의 설명에 있어서는 디스플레이 장치(100)로 기재하기로 한다.
본 발명의 일 실시예에 따른 디스플레이부(110)는 타일(tile) 형태를 갖는 다수의 서브 디스플레이 모듈이 결합되어, 하나의 대형 스크린을 구성할 수 있다.
예를 들어, 도 2에 도시된 바와 같이, 상기 디스플레이부(110)는 다수의 서브 디스플레이 모듈들(111,112,......,125)이 하나의 대형 디스플레이부(110)로 연결되어 단일 영상을 출력할 수 있다. 즉, 상기 디스프레이부를 구성하는 서브 디스플레이 모듈들은 그룹으로 또는 개별적으로 제어될 수 있다.
또한, 실시예에 따라, 상기 디스플레이부(110)는 다수의 서브 디스플레이 모듈들이 결합되는 대신에, 각각 하나의 단일 디스플레이 모듈로서 동작할 수 있기 때문에, 서브 디스플레이 모듈 각각들이 단일의 디스플레이부로서 영상을 출력하는 것도 가능하다.
실시예에 따라, 상기 디스플레이 장치(100)의 디스플레이부(110)는 벽면에 화상을 투영하는 프로젝터로 구성되는 것도 가능하며, 이 경우 상기 프로젝터로부터 영상 정보가 포함된 빛이 벽면에 투영된다.
이와 같이, 본 발명의 디스플레이 장치(100)는 벽면의 일부 또는 전부를 구성하여, 사용자에게 단일 또는 다수의 영상을 제공할 수 있다.
상기 디스플레이부(110)는 소정의 이미지 또는 영상을 디스플레이하며, 예를 들어, 상기 통신부(140)를 통하여 수신되는 소정의 컨텐츠를 디스플레이할 수 있다. 이러한 컨텐츠는 정지영상 또는 동영상이 될 수 있다.
상기 디스플레이 장치(100)의 통신부(140)는 유선 또는 무선 네트워크를 통하여 외부 서버 또는 다른 디스플레이 장치로부터 컨텐츠를 수신하고, 수신된 컨텐츠는 상기 디스플레이부(110)를 통하여 디스플레이된다. 여기서, 컨텐츠는 방송 신호 뿐만 아니라 다양한 어플리케이션을 포함할 수 있다.
그리고, 본 실시예의 디스플레이 장치(100)는 메모리부(150)에 컨텐츠를 저장할 수 있으며, 상기 제어부(130)는 상기 메모리부(150)에 저장된 컨텐츠를 독출하여 디스플레이부(110)에 디스플레이되도록 제어한다.
또한, 상기 디스플레이 장치(100)의 통신부(140)를 통해서 표시하고자 하는 영상물 내지는 다양한 컨텐츠를 수신할 뿐만 아니라, 다양한 사용자 정보가 수신될 수 있다. 여기서, 사용자 정보라 함은, 사용자 얼굴, 사용자 제스처, 사용자 음성, 사용자까지의 거리, 사용자 위치등의 정보를 나타내며, 디스플레이부(110) 전면에 있는 사용자에 관한 정보라 이해할 수 있다.
이를 위하여, 상기 디스플레이부(110)에는 사용자를 촬영할 수 있는 카메라 또는 사용자의 음성을 취득할 수 있는 마이크등이 마련될 수 있으며, 사용자 정보를 취득하기 위한 수단들을 인식 장치라고 할 수 있다.
도 3에는 벽에 설치된 디스플레이부(110)와, 이를 시청중인 사용자가 도시되어 있으며, 상기 디스플레이부(110)에는 사용자로부터 사용자 인식정보를 획득하기 위한 인식장치(300)가 마련되어 있다.
상기 인식장치(300)는 사용자의 정보를 취득하기 위한 수단으로서, 사용자의 얼굴 인식 또는 동작을 인식할 경우에 상기 인식장치(300)는 카메라로 구성될 수 있으며, 사용자의 음성을 취득할 경우에 상기 인식장치(300)는 마이크등으로 구성될 수 있다.
상기 인식장치(300)에 의하여 취득되는 영상 내지는 음성등의 사용자 정보는 상기 통신부(140)에 전달되며, 이를 위해 상기 인식장치(300)와 통신부(140)는 유선 또는 무선으로 연결될 수 있다. 다른 실시예에 의해서는, 상기 인식장치(300)에 의해 취득되는 사용자 정보는 외부 서버로 전달되고, 상기 외부 서버로부터 해당 사용자 정보가 상기 통신부(140)로 다시 전달될 수도 있다.
그리고, 상기 인식장치(300)에 의해 획득되는 정보를 이용해서, 상기 디스플레이 장치(100)는 표시되는 영상(이미지 또는 동영상 뿐만 아니라 메뉴화면 또는 텍스트를 포함함)의 구성을 조정한다. 영상 구성의 조정은, 사용자 정보에 따라 영상 사이즈가 변경되거나, 영상 내의 텍스트 크기가 변경되거나, 영상이 표시되는 서브 디스플레이 모듈이 결정되는 등 디스플레이되는 영상에 대한 다양한 설정일 수 있다.
사용자 정보는 사용자 유무, 사용자 얼굴, 사용자 위치, 사용자 거리, 사용자 제스처, 사용자 음성 등을 포함할 수 있으며, 상기 제어부(130)는 이러한 사용자 정보를 인식하거나 사용자 정보를 분석하고, 분석된 사용자 정보에 따라 영상 구성을 설정할 수 있다. 이를 위해, 상기 제어부(130)는 사용자 정보의 인식 또는 사용자 정보의 분석등의 데이터 처리를 위한 다양한 모듈 또는 어플리케이션을 포함하거나 이를 이용할 수 있다.
상기 제어부(130)에 의한 사용자 정보의 인식과 분석등의 작업은 도 12에 플로우 챠트로 간략히 도시되어 있다.
이하에서는, 상기 제어부(130)에 의한 사용자 인식과 분석, 이를 이용한 영상 구성의 설정에 대해서 상세히 살펴보도록 한다.
먼저, 상기 제어부(130)는 상기 통신부(140)를 통하여 사용자 영상 또는 사용자 음성등의 데이터를 입력받는다(S100). 그리고, 입력되는 데이터로부터 사용자 정보 인식의 동작이 수행된다(S200).
즉, 상기 제어부(130)는 상기 통신부(140)를 통하여 수신되는 사용자 영상(정지영상 또는 동영상), 사용자 음성 등이 포함된 데이터를 수신하며, 수신된 데이터를 이용하여 사용자 얼굴 인식, 사용자 음성 인식과 사용자 제스처 인식의 작업을 수행할 수 있다.
사용자 얼굴 인식은 인식장치(300)의 카메라(310)로부터 획득되는 이미지 데 이터로부터 사용자의 얼굴 영역을 추출하고, 추출된 얼굴 영역의 데이터를 사용자 정보로서 활용할 수 있다.
그리고, 사용자 음성 인식의 경우는, 인식장치(300)의 마이크로부터 획득되는 음성 데이터로부터 주변의 소음을 제거하고, 사용자의 음성에 해당되는 대략 87Hz~1.2KHz 주파수의 음성 데이터를 추출하고, 추출된 음성 데이터를 사용자 정보로서 활용할 수 있다.
그리고, 사용자 제스처 인식의 경우는, 인식장치(300)의 카메라(310)로부터 획득되는 동영상 데이터로부터 사용자의 움직임 내지는 제스처를 추출하고, 추출된 사용자 제스처를 사용자 정보로서 활용할 수 있다.
또한, 상기 제어부(130)는 상기 인식장치(300)로부터 전달되는 데이터로부터 사용자와 디스플레이부(110) 사이의 거리를 사용자 정보로서 활용할 수 있다. 즉, 디스플레이 장치에는 상기 카메라(310)를 통해서 사용자의 위치를 추정하기 위한 수단이 더 포함될 수 있다.
이 경우, 상기 제어부(130)는 카메라(310)로부터 식별되는 사용자까지의 거리를 산출하기 위하여, 비교 내지는 참조할 수 있는 참조 거리 및 크기 정보가 필요할 수 있다. 예를 들어, 1미터 거리에서 사용자를 찍은 참조 영상을 미리 저장한 후, 카메라에 의해 촬영된 영상 내에 사용자의 형상이 식별되면 사용자의 크기를 상호 비교하여 그 비율에 따라 사용자까지의 거리를 산출하는 것이 가능하다. 여기서, 사용자의 크기는 전체 크기가 아닌 특징점으로 삼을 수 있는 3~4개의 점을 기준으로 하고, 이들 특징점들 사이의 거리를 비교함으로써 그 비율에 따른 찍힌 사 용자까지의 거리를 산출할 수도 있다. 이러한 방법을 택할 경우에, 사용자의 신체 일부가 가려져 있는 경우에도 사용자(특히, 얼굴)까지의 거리 산출이 가능하다.
이를 위하여, 상기 제어부(130)는 인식된 사용자의 얼굴 영역 또는 그 사이즈등을 이용하여, 사용자까지의 거리를 산출할 수 있다.
반면에, 카메라에 찍히는 사용자의 영상을 이용하여 사용자까지의 거리를 산출하는 것 대신에, 인식장치로서 적외선 수발광 장치가 더 포함될 수 있다. 이 경우, 적외선 수발광 장치로부터 방출되는 적외선은 디스플레이부(110) 전면의 물체에 반사되고, 반사된 적외선은 다시 수발광 장치에 수광된다. 수광되는 반사광은, 예를 들면, TOF 거리 측정 방식(Time of Flight)이라고 불리는 방식에 따라 물체와의 거리를 측정할 수 있다. 이러한 측정을 디스플레이부(110) 전면에 대하여 수행함으로써, 전면의 물체의 상태 예측이 가능해진다. 예를 들면, 디스플레이부(110) 전면이 벽면인 경우에, 적외선의 방사로부터 반사하기까지의 시간은 대략 균일할 것이며, 그 결과 사용자가 위치하지 않는 것임을 예측할 수 있다. 반면에, 균일하지 않을 경우에는, 사용자가 위치한 것으로 그 예측이 가능해진다. 이 경우, 상기 적외선 수발광 장치에 의한 사용자 유무의 모니터링은 일정 시간을 주기로 행하여 질 수 있다.
또한, 상기 카메라(310)가 적외선 카메라일 경우에는, 적외선 카메라를 이용한 서머그래프(thermograph) 방식에 의하여, 사용자로부터 방사되는 적외선 에너지량으로부터 온도 분포 측정을 수행하고, 그 결과를 상술한 적외선 수발광 장치에 의해 측정된 거리 측정 결과에 대응시키고, 물체의 크기, 형상, 온도를 판정함으로 써, 물체가 사용자인지 여부를 정밀하게 판단할 수 있다.
한편, 상기 제어부(130)는 인식된 사용자 정보를 분석하는 작업을 수행할 수 있으며(S300), 분석되는 사용자 정보에 따라 영상 구성의 설정을 수행할 수 있다(S400).
상기 제어부(130)는 인식된 사용자 얼굴로부터 사용자 연령을 추정하거나, 사용자 음성으로부터 사용자를 구분하거나, 사용자 제스처로부터 사용자 명령(command)을 수행하거나, 사용자의 현재 자세를 추정하거나, 사용자까지의 거리와 사용자 위치를 분석하는 등의 작업을 수행할 수 있다. 다만, 사용자 제스처라는 용어는 반드시 사용자가 움직이는 모습만을 의미하는 것은 아니며, 위의 사용자 자세등을 포함하는 것으로도 해석될 수 있다.
예를 들어, 입력된 사용자 영상으로부터 사용자의 현 자세를 추정할 경우에, 사용자 얼굴 윤곽 또는 사용자 얼굴의 눈 위치등에 따른 사용자 자세에 대한 정보가 상기 메모리부(150)내에 미리 저장될 수 있다. 이 경우, 상기 제어부(130)는 디스플레이부(110)를 통하여 표시되는 영상이 90도 좌회전 또는 90도 우회전되도록 하면, 사용자가 옆으로 누워있는 경우에도 사용자에게 보다 편안한 영상이 제공될 수 있다.
그리고, 상기 제어부(130)는 인식된 얼굴로부터 사용자의 연령을 추측할 수 있으며, 이 경우, 연령별 사용자 얼굴에 대한 데이터 또는 사용자별 설정내용이 상기 메모리부(150)에 미리 저장되고, 상기 제어부(130)는 인식된 사용자 얼굴 등으로부터 사용자 연령을 추정할 수 있다. 이러한 사용자 연령 추정은 인식장치의 마 이크로부터 획득되는 사용자 음성을 이용해서도 가능하다. 즉, 상기 제어부(130)는 수신된 사용자 음성 데이터를 이용해서 사용자의 연령을 추정할 수 있다. 이를 위해, 상기 메모리부(150)에는 연령대별 대표화된 음성 주파수 테이블등이 데이터베이스화될 수 있다.
그리고, 상기 제어부(130)는 인식된 사용자 제스처를 이용하여, 사용자 제스처에 따른 사용자 명령을 구분할 수 있다. 즉, 사용자의 제스처가 기 저장된 제스처와 일치하는지 여부를 분석하고, 일치하는 경우에 이를 사용자 명령으로서 설정된 명령에 따라 디스플레이 장치가 동작되도록 할 수 있다. 예를 들어, 사용자가 양팔을 머리위로 올려 둥글게 원을 만드는 제스처를 취하는 경우에, 이러한 사용자의 제스처가 기 저장된 제스처와 일치하면, 그에 상응되는 데이터로서 디스플레이부 전원 오프(OFF)신호를 발생시킬 수 있다.
이처럼, 상기 메모리부(150)에는 다양한 사용자 제스처 각각에 대응되는 데이터 신호가 미리 저장될 수 있으며, 사용자 제스처에 따른 데이터는 사용자가 직접 지정할 수도 있다. 한가지 예를 더 들어보면, 사용자는 옆으로 누워 있는 제스처가 1시간 이상이 되는 경우에, 이를 디스플레이부(110) 전원 오프신호로 설정할 수 있다. 이 경우, 상기 제어부(130)가 사용자가 옆으로 누운 자세로 판단되는 경우에는 이를 카운팅하여 1시간이 경과되는 때에 상기 디스플레이부(110)의 전원을 오프시킬 수 있다.
한편, 상기 제어부(130)는 사용자 상황을 분석하는 작업을 수행할 수 있으며, 디스플레이부 전면에 복수의 사용자가 있는 경우에 사용자 정보로서 사용자까 지의 거리를 어떻게 결정할지 여부와, 사용자 주변의 소음의 정보에 따라 어떻게 영상 및 음성의 출력이 결정되도록 할 것인지등을 분석할 수 있다. 예를 들어, 사용자 영상으로부터 인식되는 사용자가 여러명인 경우에, 상기 제어부(130)는 각 사용자까지의 거리에 대한 디스플레이 영상의 사이즈를 산출하고, 그 산출된 결과를 평균한 사이즈로 영상이 표시되도록 할 수 있다. 그리고, 상기 제어부(130)는 사용자 주변의 소음 크기에 따라 볼륨의 크기를 자동으로 조절할 수 있다.
또한, 상기 제어부(130)는 사용자 정보 등을 이용해서, 사용자 프로파일을 관리하거나 사용자 선호도를 관리할 수 있다. 이를 위해, 상기 제어부(130)는 상기 메모리부(150)를 이용하여 사용자별 지속적인 관리를 수행하고, 인식된 사용자의 얼굴 또는 사용자의 음성등을 이용해서 구분되는 사용자들을 데이터베이스화할 수 있다. 즉, 사용자별 DB가 구축되어 있고, 사용자별 얼굴 윤곽, 표정, 자세, 움직임등을 사용자 정보로서 지속적으로 관리 및 업데이트할 수 있다.
그리고, 상기 제어부(130)는 사용자의 표정별, 자세별, 사용자 주위 환경에 따라 영상 또는 텍스트의 사이즈등을 변경한 이력이 있는지 여부도 관리할 수 있다. 예를 들어, 사용자 주위 소음이 수십 db이상인 경우에, 사용자가 디스플레이부 볼륨을 20레벨로 설정한 경험이 있는 경우에, 이를 상기 메모리부(150)의 사용자별 DB에 기록하여 관리할 수 있다. 이러한 정보는 사용자 선호도를 판단하는 자료가 될 수 있다. 상기 제어부(130)는 시청시 사용자의 선호도를 지속적으로 관리할 수 있으며, 예를 들어, 사용자 A는 거리 1m에서 앉은 자세로 TV를 시청하였다는 정보를 저장관리한다. 즉, 상기 제어부(130)는 인식된 사용자까지의 거리와 인식된 사 용자 동작 내지는 자세 역시 데이터베이스화할 수 있다. 이러한 데이터베이스화에 의하여, 사용자의 시청 패턴 즉, 선호도를 관리할 수 있다. 예를 들어, 사용자 A는 디스플레이부로부터 1m 떨어진 소파에 앉아 TV를 시청하는 것을 좋아하는 경우에, 소파에 앉으려고 디스플레이부에 접근하는 때에 미리 소파에 앉아서 시청하는 때에 알맞은 사이즈로 영상이 표시될 수 있다.
이러한 사용자의 시청패턴 역시 상기 제어부(130) 및 메모리부(150)에 의해 관리될 수 있으며, 사용자 시청패턴에 따라 영상 사이즈 또는 영상 내의 텍스트 크기의 조절이 자동으로 수행될 수 있다.
한편, 상기 제어부(130)는 분석되는 사용자 정보를 이용하여, 상기 디스플레이부(110)를 통하여 출력되는 영상 또는 음성등을 제어할 수 있다. 즉, 앞서 설명한 바와 같이, 사용자 정보에 따른 영상 구성을 설정하고, 설정된 영상 구성에 따라 영상을 표시한다(S500).
도 4와 도 5는 사용자 정보 중 사용자 연령에 따라 영상 구성을 변경하는 예를 보여주는 도면이다.
상기 제어부(130)에 의하여 인식되는 사용자 정보 중에서, 사용자 연령이 추정되는 경우에, 상기 제어부(130)는 사용자 연령에 따른 영상 구성을 설정 및 그에 따른 영상 표시가 이루어지도록 할 수 있다.
예를 들어, 도 4와 같이, 상기 제어부(130)는 인식된 사용자 얼굴 정보로부터 추정되는 사용자 연령이 고령인 경우에, 상기 디스플레이부(110)를 구성하는 다수의 서브 디스플레이 모듈들을 모두 동작시켜 전체 영역을 통하여 영상이 표시되 도록 제어할 수 있다. 다만, 인식된 사용자가 미리 설정하여 놓은 다른 영상 구성이 있는 경우에는, 그 설정된 영상 구성에 따라 영상이 표시되도록 할 수 있다.
그리고, 도 5와 같이, 상기 제어부(130)는 인식된 사용자 얼굴로부터 추정되는 사용자 연령이 젊은이로 판단되는 경우에는, 상기 디스플레이부(110)를 구성하는 다수의 서브 디스플레이 모듈중 일부를 동작시켜 영상이 작은 사이즈가 표시되도록 제어할 수 있다. 그리고, 상기 디스플레이부(110)의 서브 디스플레이 모듈 중 일부의 서브 디스플레이 모듈들을 동작시킬 경우에는, 사용자의 위치에 대응되는 서브 디스플레이 모듈들이 동작되도록 할 수 있다. 이는 사용자 정보로서 사용자 위치도 함께 사용되는 경우로서, 디스플레이부(110) 전면에서 사용자가 어느 위치에 있는지 여부에 따라 동작되는 서브 디스플레이 모듈이 선택될 수 있다(도 6참조). 이 경우도, 인식된 사용자가 미리 설정하여 놓은 다른 영상 구성이 저장되어 있으면, 그 설정된 영상 구성에 따라 영상이 표시되도록 할 수 있다.
도 6은 사용자 정보 중 사용자 위치에 따라 영상 구성을 변경하는 예를 보여주는 도면이다.
앞서 간략히 살펴본 바와 같이, 상기 제어부(130)는 외부 또는 디스플레이 장치에 마련되어 있는 인식장치(300)로부터 획득되는 사용자 영상에서 사용자 위치 정보를 추출할 수 있으며, 이 경우, 사용자 위치에 따라 디스플레이부(110)의 서브 디스플레이 모듈의 선택 동작이 이루어지도록 할 수 있다.
예를 들어, 도 6(b)에 도시된 바와 같이, 상기 제어부(130)는 사용자가 디스플레이부(110) 우측에 치우쳐서 위치하고 있는 것으로 판단하는 경우에, 상기 디스 플레이부(110)의 서브 디스플레이 모듈들 중에서 사용자의 전면에 위치하는 서브 디스플레이 모듈들만을 동작시킬 수 있다. 다만, 사용자의 위치가 빈번히 변경되는 경우에, 이에 따라 동작되는 서브 디스플레이 모듈 역시 자주 변경되는 것(영상 시청에 어려움을 줄 수 있는 정도)을 방지하기 위하여, 소정 시간 동안 고정된 사용자 위치가 확보되는 경우에, 서브 디스플레이 모듈의 동작이 결정되도록 할 수 있다.
다만, 상기 제어부(130)는 인식된 사용자가 미리 설정하여 놓은 영상 구성이 존재하는 경우에는, 그 설정된 영상 구성에 따라 영상이 표시되도록 제어할 수 있다.
도 7과 도 8은 사용자 정보중 사용자 거리에 따라 영상 구성을 변경하는 예를 보여주는 도면이다.
즉, 상기 제어부(130)는 상기 디스플레이부(110)로부터 사용자까지의 계산된 거리를 이용하여, 영상 구성 중 영상 사이즈를 변경할 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 사용자 거리가 3m를 넘는 것으로 판단되는 경우에는, 영상의 원활한 시청을 위하여 서브 디스플레이 모듈을 모두 구동시켜 디스플레이부(110) 전체를 통하여 영상이 표시되도록 할 수 있다.
같은 예로서, 도 8에 도시된 바와 같이, 사용자 거리가 3m 이내로 판단되는 경우에, 상기 제어부(130)는 구동되는 서브 디스플레이 모듈의 개수를 적게 선택하여, 작은 사이즈의 영상이 표시되도록 제어할 수 있다.
이러한 사용자 거리에 따른 영상 사이즈의 조절 역시 사용자 위치 정보를 함 께 이용하여, 서브 디스플레이 모듈 일부를 구동시키는 경우에 선택되는 서브 디스플레이 모듈은 사용자 위치에 따라 결정될 수 있다.
사용자 정보를 이용하여 영상 구성으로서 영상 사이즈를 조절하는 경우가 예시되고 있는데, 이러한 영상 구성은 영상 사이즈 이외에 표시 영상 내에 있는 물체와 물체와의 윤곽을 강조하거나, 완화시키는 것을 포함하며, 사용자가 디스플레이부 전면 가까이에 위치한다고 판단되는 경우에는 그 윤곽을 완화시켜 눈에 피로를 덜 수 있도록 할 수 있다. 그리고, 이러한 윤곽 강조 이외에도 영상 전체가 밝아지거나 어두워지도록 하거나, 주변 소음에 따라 볼륨 조절이 되도록 하거나, 사용자 자세에 따라 영상의 좌우 90도 회전이 되도록 하는등의 경우가 가능하다.
도 9와 도 10은 사용자 정보중 사용자 거리에 따라 영상 구성을 변경하는 다른 예를 보여주는 도면이다.
즉, 상기 제어부(130)는 상기 디스플레이부(110)로부터 사용자까지의 계산된 거리를 이용하여, 영상 구성 중 영상 내의 텍스트 사이즈를 변경할 수 있다. 예를 들어, 도 9에 도시된 바와 같이, 사용자 거리가 3m를 넘는 것으로 판단되는 경우에는, 사용자가 텍스트를 읽는 것이 용이해지도록, 서브 디스플레이 모듈을 모두 구동시켜 디스플레이부(110) 전체를 통하여 텍스트 또는 텍스트가 포함된 영상이 표시되도록 할 수 있다.
같은 예로서, 도 10에 도시된 바와 같이, 사용자 거리가 3m 이내로 판단되는 경우에, 상기 제어부(130)는 구동되는 서브 디스플레이 모듈의 개수를 적게 선택하여, 작은 크기의 텍스트가 표시되도록 제어할 수 있다.
이러한 사용자 거리에 따른 텍스트 크기의 조절 역시 사용자 위치 정보를 함께 이용하여, 서브 디스플레이 모듈 일부를 구동시키는 경우에 선택되는 서브 디스플레이 모듈은 사용자 위치에 따라 결정될 수 있다.
도 11은 다른 실시예의 디스플레이 장치의 개략적인 구성을 보여주는 도면이다.
본 발명의 다른 실시예에 따른 디스플레이 장치(100)는 3D 이미지를 출력할 수 있다. 디스플레이 장치(100)의 영상 또는 메뉴 화면 등은 3D로 제공될 수 있으며, 컨텐츠 제공자가 제공하는 컨텐츠가 3D 컨텐츠인 경우도 통신부(140)를 통하여 이를 수신하여 출력할 수 있다.
3D 이미지를 출력하기 위해서는 추가 구성요소가 필요하다. 도 11은 본 발명의 다른 실시예에 따른 3D 이미지를 처리할 수 있는 디스플레이 장치의 구성을 나타낸다. 3D 포맷터(160)를 제외한 나머지 구성 요소들의 동작은 도 1과 동일하다.
도 11에 도시된 바와 같이, 제어부(130)의 영상 신호 처리부(미도시)의 출력단에 3D 포맷터(160)가 배치된다. 즉, 상기 디스플레이부(110)의 입력단에 3D 포맷터(160)가 배치된다. 3D 포맷터(160)는 제어부(130)에 의해 처리된 영상을 3D 이미지로 변환하여 디스플레이부(110)로 전달한다. 실시예에 따라서는 OSD 생성부 내에 OSD 출력을 3D로 변환하는 별도의 3D 포맷터를 포함할 수도 있다.
도 11에 도시된 구성은 일 실시예에 불과하며, 3D 이미지 처리를 위해 다양한 공지된 기술을 사용할 수 있다.
또한, 앞서 설명한 바와 같은 사용자 정보에 따른 영상 구성의 변경은 이러한 3D 이미지에 대해서도 수행될 수 있다. 즉, 사용자 정보에 따라 3D 영상의 사이즈, 3D 영상 내에 포함된 텍스트 크기, 3D 영상의 깊이(depth) 등을 조절하는 것이 가능하다.
예를 들어, 상기 제어부(130)는 사용자의 거리에 따라 3D 영상에 대한 깊이가 달라지도록 제어하여, 사용자의 거리에 따라 영상의 일부가 화면으로부터 돌출되는 느낌을 더욱 강하게 하거나, 사용자의 위치에 따라 돌출되는 느낌이 강조되는 영상의 영역이 달라지도록 제어할 수 있다.
본 발명의 실시예가 가정의 디스플레이 환경으로 사용될 경우에, 거실이라는 공간은 가족 모두가 사용하는 공용 장소이고, 이로 인하여 사용자가 수시로 바뀔 수 있다. 그러나, 사용자별 프로파일과 사용자별 선호도가 지속적으로 관리되기 때문에, 사용자에 맞춰 다양한 어플리케이션이 실행될 수 있다.
이상 실시예를 통해 본 발명을 설명하였으나, 본 발명의 범위는 첨부된 청구범위에 의해 정해지며, 청구범위는 전술한 실시예들에 한정되지 않고, 변형가능한 모든 실시예들을 포함하도록 해석된다.
도 1은 본 실시예의 사용자 적응형 디스플레이 장치의 개략적인 구성을 보여주는 도면이다.
도 2는 본 실시예에 따른 사용자 적응형 디스플레이 장치의 디스플레이부를 설명하는 예시도.
도 3은 본 실시예에 따른 디스플레이부의 실시예상도.
도 4와 도 5는 사용자 정보 중 사용자 연령에 따라 영상 구성을 변경하는 예를 보여주는 도면.
도 6은 사용자 정보 중 사용자 위치에 따라 영상 구성을 변경하는 예를 보여주는 도면.
도 7과 도 8은 사용자 정보중 사용자 거리에 따라 영상 구성을 변경하는 예를 보여주는 도면.
도 9와 도 10은 사용자 정보중 사용자 거리에 따라 영상 구성을 변경하는 다른 예를 보여주는 도면.
도 11은 다른 실시예의 사용자 적응형 디스플레이 장치의 개략적인 구성을 보여주는 도면.
도 12는 본 실시예에 따른 디스플레이 장치의 디스플레이 방법을 설명하는 플로우 챠트.

Claims (20)

  1. 그룹으로 또는 개별적으로 제어 가능한 다수의 디스플레이 모듈들이 서로 인접하게 배치되는 디스플레이 장치에 있어서,
    사용자 정보에 관한 데이터를 수신하는 통신부;
    상기 사용자 정보를 분석하고, 상기 사용자 정보에 따라 영상 구성을 변경하는 제어부; 및
    상기 제어부에 의하여 영상 구성이 변경된 영상이 표시되는 디스플레이부;를 포함하는 사용자 적응형 디스플레이 장치.
  2. 제 1 항에 있어서,
    상기 사용자 정보는 사용자 거리에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 거리에 따라 상기 영상 구성이 변경되도록 하는 사용자 적응형 디스플레이 장치.
  3. 제 2 항에 있어서,
    상기 제어부는 상기 사용자 거리에 따라 상기 영상의 사이즈를 변경하거나, 상기 영상 내에 포함되는 텍스트의 크기를 변경하는 사용자 적응형 디스플레이 장치.
  4. 제 3 항에 있어서,
    상기 영상의 사이즈의 변경은, 상기 디스플레이 모듈 중 구동되는 디스플레이 모듈의 개수에 따라 이루어지는 사용자 적응형 디스플레이 장치.
  5. 제 1 항에 있어서,
    상기 사용자 정보는 사용자 연령에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 연령에 따라 상기 영상 구성이 변경되도록 하는 사용자 적응형 디스플레이 장치.
  6. 제 5 항에 있어서,
    상기 제어부는 상기 사용자 연령에 따라 상기 영상 사이즈를 변경하거나, 상기 영상 내에 포함되는 텍스트의 크기를 변경하는 사용자 적응형 디스플레이 장치.
  7. 제 6 항에 있어서,
    상기 영상의 사이즈의 변경은, 상기 디스플레이 모듈 중 구동되는 디스플레이 모듈의 개수에 따라 이루어지는 사용자 적응형 디스플레이 장치.
  8. 제 1 항에 있어서,
    상기 사용자 정보는 사용자 제스처에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 제스처에 따라 상기 영상 구성이 변경되도록 하 는 사용자 적응형 디스플레이 장치.
  9. 제 8 항에 있어서,
    상기 사용자 제스처에 대한 정보는 사용자의 움직임에 대한 정보 또는 사용자 자세에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 움직임에 따라 상기 디스플레이 장치의 동작을 제어하거나, 상기 사용자 자세에 따라 상기 영상을 회전시키는 사용자 적응형 디스플레이 장치.
  10. 제 1 항에 있어서,
    상기 사용자 정보는 사용자 위치에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 위치에 따라 상기 영상 구성이 변경되도록 하는 사용자 적응형 디스플레이 장치.
  11. 제 10 항에 있어서,
    상기 제어부는 상기 사용자 위치에 따라 상기 디스플레이 모듈 중 일부를 선택적으로 구동시키는 사용자 적응형 디스플레이 장치.
  12. 제 1 항에 있어서,
    상기 사용자 정보는 사용자 음성에 대한 정보를 포함하고,
    상기 제어부는 상기 사용자 음성에 따라 상기 영상 구성이 변경되도록 하는 사용자 적응형 디스플레이 장치.
  13. 제 12 항에 있어서,
    상기 제어부는 상기 사용자 음성에 따라 상기 영상의 사이즈를 변경하거나, 상기 영상 내에 포함되는 텍스트의 크기를 변경하는 사용자 적응형 디스플레이 장치.
  14. 제 1 항에 있어서,
    상기 영상 구성에 관하여 사용자가 설정하는 입력을 수신하는 사용자 입력부와,
    상기 사용자에 의하여 설정되는 상기 영상 구성에 대한 내용이 저장되는 메모리부가 더 포함되고,
    상기 제어부는 수신되는 사용자 정보로부터 사용자를 인식하고, 인식된 사용자에 대응되는 영상 구성의 설정 내용에 따라 영상 구성을 변경하는 사용자 적응형 디스플레이 장치.
  15. 제 1 항에 있어서,
    상기 제어부에 의해 처리되는 영상을 3D 이미지로 변환하는 3D 포맷터가 더 포함되고,
    상기 제어부는 상기 사용자 정보에 따라 상기 3D 이미지의 깊이를 변경하는 사용자 적응형 디스플레이 장치.
  16. 그룹으로 또는 개별적으로 제어 가능한 다수의 디스플레이 모듈들이 서로 인접하게 배치되는 디스플레이 장치의 디스플레이 방법에 있어서,
    사용자 정보에 관한 데이터를 수신하는 단계;
    수신된 사용자 정보를 분석하고, 상기 사용자 정보에 따라 영상 구성을 설정하는 단계; 및
    상기의 설정된 영상 구성으로 영상이 표시되는 단계;를 포함하는 디스플레이 방법.
  17. 제 16 항에 있어서,
    상기 사용자 정보는 사용자 얼굴, 사용자 거리, 사용자 위치, 사용자 제스처 및 사용자 음성 중 적어도 하나를 포함하고,
    상기 영상 구성의 설정은 표시 영상의 사이즈 변경, 영상 내의 텍스트 크기 변경, 영상 내에 있는 물체와 물체와의 윤곽 변경 및 상기 영상의 회전 중 적어도 하나를 포함하는 디스플레이 방법.
  18. 제 16 항에 있어서,
    상기 사용자 정보에 관한 데이터는 사용자 영상이 담긴 이미지 또는 동영상 이거나, 사용자 음성이 담긴 음성 데이터인 디스플레이 방법.
  19. 제 16 항에 있어서,
    상기의 설정된 영상 구성으로 영상이 표시되는 단계는, 상기 사용자 정보에 따라 영상 깊이가 다르게 설정된 3D 영상이 표시되는 것을 포함하는 디스플레이 방법.
  20. 제 16 항에 있어서,
    상기 사용자 정보에 따라 영상 구성을 설정하는 단계는, 상기 디스플레이 모듈들 중에서 상기 영상이 표시될 디스플레이 모듈을 선택하는 것을 포함하는 디스플레이 방법.
KR1020090114546A 2009-11-25 2009-11-25 사용자 적응형 디스플레이 장치 및 디스플레이 방법 KR101626159B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020090114546A KR101626159B1 (ko) 2009-11-25 2009-11-25 사용자 적응형 디스플레이 장치 및 디스플레이 방법
PCT/KR2010/005644 WO2011065653A2 (ko) 2009-11-25 2010-08-24 사용자 적응형 디스플레이 장치 및 디스플레이 방법
DE112010004551.8T DE112010004551B4 (de) 2009-11-25 2010-08-24 Benutzeradaptive Anzeigevorrichtung und Anzeigeverfahren
US13/058,768 US9313439B2 (en) 2009-11-25 2010-08-24 User adaptive display device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090114546A KR101626159B1 (ko) 2009-11-25 2009-11-25 사용자 적응형 디스플레이 장치 및 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20110057921A true KR20110057921A (ko) 2011-06-01
KR101626159B1 KR101626159B1 (ko) 2016-05-31

Family

ID=44067026

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090114546A KR101626159B1 (ko) 2009-11-25 2009-11-25 사용자 적응형 디스플레이 장치 및 디스플레이 방법

Country Status (4)

Country Link
US (1) US9313439B2 (ko)
KR (1) KR101626159B1 (ko)
DE (1) DE112010004551B4 (ko)
WO (1) WO2011065653A2 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120327099A1 (en) * 2011-06-24 2012-12-27 William John Vojak Dynamically adjusted display attributes based on audience proximity to display device
KR20140050484A (ko) * 2012-10-19 2014-04-29 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR101535992B1 (ko) * 2013-12-11 2015-07-10 동서대학교산학협력단 모션 센서 기반 사용자 움직임 반응을 이용한 대형 벽면 스크린 활용형 디스플레이 시스템 및 방법
US9179120B2 (en) 2011-09-22 2015-11-03 Lg Electronics Inc. Method for displaying stereoscopic images and image display apparatus thereof
KR20180021252A (ko) * 2012-01-19 2018-02-28 브이아이디 스케일, 인크. 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템
US10025419B2 (en) 2015-09-02 2018-07-17 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
KR20200134974A (ko) * 2019-05-24 2020-12-02 연세대학교 산학협력단 사용자 인식 기반의 영상 제어 장치 및 그 동작방법
WO2023132375A1 (ko) * 2022-01-04 2023-07-13 엘지전자 주식회사 Tv 및 그 제어 방법

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011061975A1 (ja) * 2009-11-19 2011-05-26 シャープ株式会社 画像表示システム
KR101753801B1 (ko) * 2010-06-10 2017-07-04 엘지디스플레이 주식회사 액정 표시장치 및 구동방법
TW201239869A (en) * 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for adjusting font size on screen
TW201239644A (en) * 2011-03-24 2012-10-01 Hon Hai Prec Ind Co Ltd System and method for dynamically adjusting font size on screen
US20130057553A1 (en) * 2011-09-02 2013-03-07 DigitalOptics Corporation Europe Limited Smart Display with Dynamic Font Management
KR20130064478A (ko) * 2011-12-08 2013-06-18 삼성전자주식회사 사용자 단말 장치 및 그 배경 화면 표시 방법
US9625993B2 (en) 2012-01-11 2017-04-18 Biosense Webster (Israel) Ltd. Touch free operation of devices by use of depth sensors
US9931154B2 (en) 2012-01-11 2018-04-03 Biosense Webster (Israel), Ltd. Touch free operation of ablator workstation by use of depth sensors
KR101899458B1 (ko) * 2012-01-11 2018-09-18 삼성전자주식회사 3d 디스플레이 장치 및 그 방법
US9516271B2 (en) 2012-10-31 2016-12-06 Microsoft Technology Licensing, Llc Auto-adjusting content size rendered on a display
US9423939B2 (en) * 2012-11-12 2016-08-23 Microsoft Technology Licensing, Llc Dynamic adjustment of user interface
US20140267611A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Runtime engine for analyzing user motion in 3d images
KR102210433B1 (ko) 2014-01-21 2021-02-01 삼성전자주식회사 전자 장치 및 이의 음성 인식 방법
KR20150104711A (ko) * 2014-03-06 2015-09-16 엘지전자 주식회사 디스플레이 장치 및 그의 동작 방법
KR20150108028A (ko) 2014-03-16 2015-09-24 삼성전자주식회사 컨텐츠의 재생 제어 방법 및 이를 수행하기 위한 컨텐츠 재생 장치
US9684948B2 (en) * 2014-07-01 2017-06-20 Echostar Uk Holdings Limited Systems and methods for facilitating enhanced display characteristics based on viewer state
US20160093081A1 (en) * 2014-09-26 2016-03-31 Samsung Electronics Co., Ltd. Image display method performed by device including switchable mirror and the device
KR102322034B1 (ko) * 2014-09-26 2021-11-04 삼성전자주식회사 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
JP6465398B6 (ja) * 2015-03-13 2019-03-13 Dynabook株式会社 電子機器、表示方法及びプログラム
CN104809995A (zh) * 2015-04-28 2015-07-29 京东方科技集团股份有限公司 一种图像处理方法及***
US10523991B2 (en) * 2015-08-31 2019-12-31 Orcam Technologies Ltd. Systems and methods for determining an emotional environment from facial expressions
CN106572389A (zh) * 2015-10-08 2017-04-19 小米科技有限责任公司 调节显示图像方法及装置
KR101819735B1 (ko) * 2016-06-07 2018-01-17 주식회사 매직내니 미러 디스플레이 장치 및 그 동작 방법
CN107734213A (zh) * 2016-08-11 2018-02-23 漳州立达信光电子科技有限公司 智能家用电子装置与***
US10440263B2 (en) * 2017-05-12 2019-10-08 Microsoft Technology Licensing, Llc Synchronized display on hinged multi-screen device
US10572636B2 (en) * 2017-06-01 2020-02-25 International Business Machines Corporation Authentication by familiar media fragments
WO2019036630A1 (en) * 2017-08-17 2019-02-21 Google Llc SCALING AN IMAGE OF THE FACE OF A SPEAKER BASED ON THE DISTANCE OF THE FACE AND THE SIZE OF THE DISPLAY DEVICE
US11120118B2 (en) 2017-11-22 2021-09-14 International Business Machines Corporation Location validation for authentication
US20190303177A1 (en) * 2018-03-29 2019-10-03 Microsoft Technology Licensing, Llc Adaptive User Interface Based On Detection Of User Positions
CN113794800B (zh) * 2018-11-23 2022-08-26 华为技术有限公司 一种语音控制方法及电子设备
JP2021015203A (ja) * 2019-07-12 2021-02-12 富士ゼロックス株式会社 画像表示装置、画像形成装置及びプログラム
US11175730B2 (en) * 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US20220174367A1 (en) * 2020-11-30 2022-06-02 Sony Interactive Entertainment LLC Stream producer filter video compositing
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030001908A1 (en) * 2001-06-29 2003-01-02 Koninklijke Philips Electronics N.V. Picture-in-picture repositioning and/or resizing based on speech and gesture control
JP2004110546A (ja) 2002-09-19 2004-04-08 Denso Corp 表示装置、音響装置、およびアクチュエータ制御装置
US20040246272A1 (en) * 2003-02-10 2004-12-09 Artoun Ramian Visual magnification apparatus and method
US20040194128A1 (en) * 2003-03-28 2004-09-30 Eastman Kodak Company Method for providing digital cinema content based upon audience metrics
WO2004102344A2 (en) * 2003-05-09 2004-11-25 Broadband Innovations, Inc. Digital media server for multiple digital tv appliances utilizing native signals carried on coaxial home wiring networks
EP1810234A2 (en) 2004-09-03 2007-07-25 Panaseca, Inc. Vision center kiosk
KR100700693B1 (ko) 2004-12-07 2007-03-27 주식회사 대우일렉트로닉스 음성인식을 통한 텔레비전의 화면크기 조절방법
WO2006093074A1 (ja) * 2005-03-01 2006-09-08 Matsushita Electric Industrial Co., Ltd. 電子表示媒体および電子表示媒体に用いられる画面表示制御方法
KR100727940B1 (ko) * 2005-06-22 2007-06-14 삼성전자주식회사 통신 채널을 이용한 3d 입체 영상의 화질 조정 방법
US7548814B2 (en) * 2006-03-27 2009-06-16 Sony Ericsson Mobile Communications Ab Display based on location information
JP5037060B2 (ja) 2006-08-04 2012-09-26 シャープ株式会社 子画面表示装置
US7948450B2 (en) * 2006-11-09 2011-05-24 D3 Led, Llc Apparatus and method for allowing display modules to communicate information about themselves to other display modules in the same display panel
JP2008225794A (ja) 2007-03-12 2008-09-25 Fujitsu Ltd 情報表示方法、情報表示装置及び情報表示システム
JP2008268327A (ja) * 2007-04-17 2008-11-06 Sharp Corp 情報表示装置
US8259163B2 (en) * 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
JP4535150B2 (ja) 2008-03-18 2010-09-01 ソニー株式会社 画像処理装置および方法、プログラム並びに記録媒体
KR100940513B1 (ko) 2008-04-30 2010-02-10 전남대학교산학협력단 용존산소, pH 및 온도의 2종 이상의 변수의 동시 검출용광학 센서막, 장치 및 방법
US8269817B2 (en) * 2008-07-16 2012-09-18 Cisco Technology, Inc. Floor control in multi-point conference systems

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120327099A1 (en) * 2011-06-24 2012-12-27 William John Vojak Dynamically adjusted display attributes based on audience proximity to display device
US9179120B2 (en) 2011-09-22 2015-11-03 Lg Electronics Inc. Method for displaying stereoscopic images and image display apparatus thereof
KR20180021252A (ko) * 2012-01-19 2018-02-28 브이아이디 스케일, 인크. 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템
KR20190011337A (ko) * 2012-01-19 2019-02-01 브이아이디 스케일, 인크. 시청 조건에 대한 적응을 지원하는 비디오 전송 방법 및 시스템
US11849153B2 (en) 2012-01-19 2023-12-19 Vid Scale, Inc. Methods and systems for video delivery supporting adaptation to viewing conditions
KR20140050484A (ko) * 2012-10-19 2014-04-29 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
KR101535992B1 (ko) * 2013-12-11 2015-07-10 동서대학교산학협력단 모션 센서 기반 사용자 움직임 반응을 이용한 대형 벽면 스크린 활용형 디스플레이 시스템 및 방법
US10025419B2 (en) 2015-09-02 2018-07-17 Samsung Electronics Co., Ltd. Large format display apparatus and control method thereof
KR20200134974A (ko) * 2019-05-24 2020-12-02 연세대학교 산학협력단 사용자 인식 기반의 영상 제어 장치 및 그 동작방법
WO2023132375A1 (ko) * 2022-01-04 2023-07-13 엘지전자 주식회사 Tv 및 그 제어 방법

Also Published As

Publication number Publication date
WO2011065653A3 (ko) 2011-07-21
DE112010004551T5 (de) 2012-08-30
US9313439B2 (en) 2016-04-12
KR101626159B1 (ko) 2016-05-31
US20110254846A1 (en) 2011-10-20
DE112010004551B4 (de) 2019-01-03
WO2011065653A2 (ko) 2011-06-03

Similar Documents

Publication Publication Date Title
KR101626159B1 (ko) 사용자 적응형 디스플레이 장치 및 디스플레이 방법
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
KR101541561B1 (ko) 유저 인터페이스 장치, 유저 인터페이스 방법, 및 기록 매체
US9465450B2 (en) Method of controlling a system
US9844119B2 (en) Dynamic lighting for head mounted device
EP3177113B1 (en) Light source identification apparatus and method
JPWO2016157650A1 (ja) 情報処理装置、制御方法、およびプログラム
US10388199B2 (en) Illumination perception augmentation method, computer program products, head-mountable computing device and lighting system that adjusts a light output of a light source based on a desired light condition
JP7211367B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP3462375A1 (en) Body information analysis apparatus with augmented reality and eyebrow shape preview method thereof
KR101979355B1 (ko) 뷰티 큐레이션을 위한 큐레이터 미러 및 그의 제어방법
WO2020050186A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2018232945A1 (zh) 基于体感交互的智能家居服务端、控制***及控制方法
CN107422703B (zh) 一种设备控制方法及装置
JP2022552064A (ja) 消費者向けデバイスのライトフィールドディスプレイ
US20140145951A1 (en) Display device and cursor controlling method thereof
JP6907721B2 (ja) 表示制御装置、表示制御方法及びプログラム
JP6638026B2 (ja) 環境制御装置、環境設定方法及び環境設定プログラム
US20210063978A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
KR20210155505A (ko) 이동 가능한 전자장치 및 그 제어방법
KR102574730B1 (ko) Ar 글라스를 이용한 증강 현실 화면 및 리모컨 제공 방법 및 그를 위한 장치 및 시스템
KR102683868B1 (ko) 증강현실 서비스를 제공하는 스마트 미러 장치 및 그 동작방법
EP3993563A1 (en) Luminaire and system for providing lighting to a working environment of a person
KR20230045551A (ko) 입술움직임과 발걸음속도 분석을 통한 맞춤형 응대서비스 방법 및 시스템
CN111445417A (zh) 图像处理方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant