KR20150069619A - 디스플레이장치 및 그 제어방법 - Google Patents

디스플레이장치 및 그 제어방법 Download PDF

Info

Publication number
KR20150069619A
KR20150069619A KR1020130155743A KR20130155743A KR20150069619A KR 20150069619 A KR20150069619 A KR 20150069619A KR 1020130155743 A KR1020130155743 A KR 1020130155743A KR 20130155743 A KR20130155743 A KR 20130155743A KR 20150069619 A KR20150069619 A KR 20150069619A
Authority
KR
South Korea
Prior art keywords
user
reaction
preference
image
value
Prior art date
Application number
KR1020130155743A
Other languages
English (en)
Inventor
김인지
미야케 요시히로
최상언
최성욱
권진환
Original Assignee
삼성전자주식회사
고쿠리츠다이가쿠호진 토쿄고교 다이가꾸
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 고쿠리츠다이가쿠호진 토쿄고교 다이가꾸 filed Critical 삼성전자주식회사
Priority to KR1020130155743A priority Critical patent/KR20150069619A/ko
Priority to US14/556,706 priority patent/US20150172770A1/en
Publication of KR20150069619A publication Critical patent/KR20150069619A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • H04N21/4755End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for defining user preferences, e.g. favourite actors or genre
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/29Arrangements for monitoring broadcast services or broadcast-related services
    • H04H60/33Arrangements for monitoring the users' behaviour or opinions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/37Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for identifying segments of broadcast information, e.g. scenes or extracting programme ID
    • H04H60/377Scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/46Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising users' preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/35Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users
    • H04H60/47Arrangements for identifying or recognising characteristics with a direct linkage to broadcast information or to broadcast space-time, e.g. for identifying broadcast stations or for identifying users for recognising genres
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/72Systems specially adapted for using specific information, e.g. geographical or meteorological information using electronic programme guides [EPG]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25866Management of end-user data
    • H04N21/25891Management of end-user data being end-user preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42201Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] biosensors, e.g. heat sensor for presence detection, EEG sensors or any limb activity sensors worn by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4821End-user interface for program selection using a grid, e.g. sorted out by channel and broadcast time

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Analytical Chemistry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Chemical & Material Sciences (AREA)
  • Neurosurgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

본 발명의 실시예에 따른 디스플레이장치는, 디스플레이와; 영상컨텐츠의 영상데이터를 디스플레이에 영상으로 표시하도록 처리하는 프로세서와; 사용자의 리액션(reaction)을 감지하는 사용자 인터페이스와; 디스플레이에 영상컨텐츠의 영상이 표시되는 동안에 사용자 인터페이스를 통해 감지된 영상에 대한 사용자의 리액션에 기초하여 영상컨텐츠에 대한 사용자의 선호도를 판단하는 컨트롤러를 포함하고, 컨트롤러는, 영상이 표시되는 동안에 발생한 복수의 방식에 따른 각각의 리액션의 발생 누적치 및 리액션에 대응하게 설정된 가중치의 연산에 의하여 선호도를 산출하며, 어느 하나의 리액션에 대응하는 가중치는 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정되는 것을 특징으로 한다.

Description

디스플레이장치 및 그 제어방법 {DISPLAY APPARATUS AND CONTROL METHOD THEREOF}
본 발명은 다양한 소스로부터 제공되는 영상데이터를 처리하여 영상으로 표시하는 디스플레이장치 및 그 제어방법에 관한 것으로서, 상세하게는 현 시점에서 표시되는 영상에 대한 사용자의 선호도를 판단하며, 이와 같이 판단된 사용자의 선호도가 반영된 다양한 컨텐츠 관련 서비스를 사용자에게 제공할 수 있는 구조의 디스플레이장치 및 그 제어방법에 관한 것이다.
디스플레이장치는 외부의 영상공급원으로부터 입력되는 영상신호를 처리하여 이를 액정 등 다양한 형식으로 구현되는 디스플레이 패널(display panel) 상에 영상으로 표시한다. 일반 사용자에게 제공되는 디스플레이장치는 TV 또는 모니터 등으로 구현된다. 예를 들면 TV로 구현된 디스플레이장치는 방송국으로부터 송출되는 방송신호를 튜닝, 디코딩 등과 같은 다양한 프로세스를 통해 사용자가 원하는 방송채널의 영상을 표시하거나, 또는 로컬/네트워크로 접속된 컨텐츠 제공장치로부터 수신하는 영상데이터를 처리하여 컨텐츠 영상을 표시한다.
이러한 디스플레이장치는 단지 외부로부터 제공되는 영상데이터를 영상으로 표시하는 기능에 한정되는 것이 아닌, 다양한 외부장치 및 네트워크 서버와 양방향 통신 가능하게 접속됨으로써 이들 장치로부터 다양한 정보 및 데이터를 제공받거나 또는 제공할 수 있다. 근래에는 서버를 구축하여 디스플레이장치에 대해 다양한 서비스를 제공하는 서비스 제공자가 많이 있으며, 디스플레이장치는 이들 서비스 제공자의 서버에 통신 접속함으로써 검색 서비스나 동영상 제공 서비스와 같이 다양한 종류의 서비스를 제공받을 수 있다.
그런데, 서비스의 특성에 따라서는 컨텐츠에 대한 사용자의 선호도를 필요로 하는 경우가 있다. 예를 들면, 컨텐츠 추천 서비스의 경우에는, 서비스 제공자 입장에서 사용자가 어떠한 컨텐츠를 선호하는지 판단하기 위해 사용자의 선호도를 필요로 할 수 있다. 종래에는 사용자가 디스플레이장치에 표시되는 컨텐츠에 대해 직접 선호도를 입력하는 방법이 사용되고 있으나, 이러한 방법은 사용자의 직접 입력을 전제로 한다. 따라서, 이러한 방법은 선호도를 축적하기에 용이하지 않으며, 또한 다양한 컨텐츠에 대해 선호도를 입력받는 것도 용이하지 않을 수 있다.
본 발명의 실시예에 따른 디스플레이장치는, 디스플레이와; 영상컨텐츠의 영상데이터를 상기 디스플레이에 영상으로 표시하도록 처리하는 프로세서와; 사용자의 리액션(reaction)을 감지하는 사용자 인터페이스와; 상기 디스플레이에 상기 영상컨텐츠의 상기 영상이 표시되는 동안에 상기 사용자 인터페이스를 통해 감지된 상기 영상에 대한 사용자의 리액션에 기초하여 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 컨트롤러를 포함하고, 상기 컨트롤러는, 상기 영상이 표시되는 동안에 발생한 복수의 방식에 따른 각각의 상기 리액션의 발생 누적치 및 상기 리액션에 대응하게 설정된 가중치의 연산에 의하여 상기 선호도를 산출하며, 어느 하나의 상기 리액션에 대응하는 상기 가중치는 상기 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정되는 것을 특징으로 한다.
여기서, 상기 컨트롤러는, 각각의 상기 리액션의 누적치 및 상기 가중치를 각각 곱한 값을 총합한 값으로 상기 선호도를 산출할 수 있다.
또한, 상기 컨트롤러는, 상기 선호도를 기 설정된 문턱값과 비교하며, 상기 선호도가 상기 문턱값보다 크면 사용자가 상기 영상컨텐츠를 선호하는 것으로 판단하고, 상기 선호도가 상기 문턱값보다 크지 않으면 사용자가 상기 영상컨텐츠를 선호하지 않는 것으로 판단할 수 있다.
또한, 상기 리액션의 발생 누적치는 상기 리액션의 총 발생 회수, 빈도, 또는 백분율 값을 포함할 수 있다.
또한, 상기 사용자 인터페이스는 상기 복수의 방식의 리액션 중에서 사용자의 고개 끄덕임 동작을 감지 가능하며, 상기 컨트롤러는, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 적어도 어느 하나일 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치를 나머지 상기 리액션에 대응하는 상기 가중치에 비해 높은 값으로 설정할 수 있다.
여기서, 상기 컨트롤러는, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 어느 하나가 아닐 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치를 나머지 상기 리액션에 대응하는 상기 가중치에 비해 낮은 값으로 설정할 수 있다.
또한, 상기 복수의 방식의 리액션은 사용자의 표정 변화, 사용자의 맥박, 사용자의 눈 동작, 사용자의 음성 중 적어도 어느 하나를 더 포함할 수 있다.
또한, 상기 컨트롤러는, 상기 영상데이터의 메타정보, 상기 영상컨텐츠의 내용 분석 정보, EPG 중 적어도 어느 하나로부터 상기 영상컨텐츠의 장르를 판단할 수 있다.
또한, 상기 컨트롤러는, 하나의 상기 영상컨텐츠를 복수의 장면 또는 재생구간으로 구분하며, 어느 하나의 상기 리액션에 대응하는 상기 가중치를 상기 각 재생구간에 대응하여 상이한 값으로 설정함으로써, 상기 재생구간 별로 상기 선호도를 판단할 수 있다.
또한, 상기 컨트롤러는, 상기 영상컨텐츠의 장르에 대응하여 상기 복수의 방식에 따른 리액션 중에서 일부의 상기 리액션만을 선택하고, 선택된 리액션에 기초하여 상기 선호도를 산출할 수 있다.
또한, 상기 사용자 인터페이스는 상기 디스플레이장치와 원격 분리된 외부장치에 설치되며, 상기 사용자 인터페이스에 의해 감지된 상기 사용자의 리액션은 상기 외부장치로부터 상기 디스플레이장치에 전송될 수 있다.
여기서, 사용자가 착용하는 이어폰 또는 헤드폰에 관성 센서가 설치되며, 상기 관성 센서는 상기 리액션 중에서 사용자의 고개 끄덕임 동작을 감지할 수 있다.
또한, 본 발명의 실시예에 따른 디스플레이장치의 제어방법은, 영상컨텐츠의 영상데이터를 영상으로 표시하는 단계와; 상기 영상에 대한 사용자의 리액션을 감지하는 단계와; 상기 영상이 표시되는 동안에 감지된 상기 리액션에 기초하여 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계를 포함하며, 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는, 상기 영상이 표시되는 동안에 발생한 복수의 방식에 따른 각각의 상기 리액션의 발생 누적치 및 상기 리액션에 대응하게 설정된 가중치의 연산에 의하여 상기 선호도를 산출하는 단계를 포함하고, 어느 하나의 상기 리액션에 대응하는 상기 가중치는 상기 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정되는 것을 특징으로 한다.
여기서, 상기 누적치 및 가중치의 연산에 의하여 상기 선호도를 선출하는 단계는, 각각의 상기 리액션의 누적치 및 상기 가중치를 각각 곱한 값을 총합한 값으로 상기 선호도를 산출하는 단계를 포함할 수 있다.
또한, 상기 선호도를 기 설정된 문턱값과 비교하며, 상기 선호도가 상기 문턱값보다 크면 사용자가 상기 영상컨텐츠를 선호하는 것으로 판단하고, 상기 선호도가 상기 문턱값보다 크지 않으면 사용자가 상기 영상컨텐츠를 선호하지 않는 것으로 판단하는 단계를 더 포함할 수 있다.
또한, 상기 리액션의 발생 누적치는 상기 리액션의 총 발생 회수, 빈도, 또는 백분율 값을 포함할 수 있다.
또한, 상기 영상에 대한 사용자의 리액션을 감지하는 단계는, 상기 복수의 방식의 리액션 중에서 사용자의 고개 끄덕임 동작을 감지하는 단계를 포함하며, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 적어도 어느 하나일 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치는 나머지 상기 리액션에 대응하는 상기 가중치에 비해 높은 값으로 설정될 수 있다.
여기서, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 어느 하나가 아닐 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치는 나머지 상기 리액션에 대응하는 상기 가중치에 비해 낮은 값으로 설정될 수 있다.
또한, 상기 복수의 방식의 리액션은 사용자의 표정 변화, 사용자의 맥박, 사용자의 눈 동작, 사용자의 음성 중 적어도 어느 하나를 더 포함할 수 있다.
또한, 상기 영상컨텐츠의 장르는, 상기 영상데이터의 메타정보, 상기 영상컨텐츠의 내용 분석 정보, EPG 중 적어도 어느 하나로부터 판단될 수 있다.
또한, 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는, 하나의 상기 영상컨텐츠를 복수의 장면 또는 재생구간으로 구분하며, 어느 하나의 상기 리액션에 대응하는 상기 가중치를 상기 각 재생구간에 대응하여 상이한 값으로 설정함으로써, 상기 재생구간 별로 상기 선호도를 판단하는 단계를 더 포함할 수 있다.
또한, 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는, 상기 영상컨텐츠의 장르에 대응하여 상기 복수의 방식에 따른 리액션 중에서 일부의 상기 리액션만을 선택하고, 선택된 리액션에 기초하여 상기 선호도를 산출하는 단계를 더 포함할 수 있다.
도 1은 본 발명의 제1실시예에 따른 디스플레이장치의 예시도,
도 2는 도 1의 디스플레이장치의 구성 블록도,
도 3은 도 1의 디스플레이장치에서 사용자 인터페이스의 구성 블록도,
도 4는 컨텐츠의 각 장르를 카테고리 별로 구분한 예시도,
도 5는 도 1의 디스플레이장치의 제어방법을 나타내는 플로우차트,
도 6은 본 발명의 제2실시예에 따른 디스플레이장치의 제어방법을 나타내는 플로우차트,
도 7은 본 발명의 제3실시예에 따른 디스플레이장치의 제어방법을 나타내는 플로우차트,
도 8은 본 발명의 제4실시예에 따른 디스플레이장치의 제어방법을 나타내는 플로우차트,
도 9는 본 발명의 제5실시예에 따른 디스플레이장치의 사시도이다.
이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다. 이하 실시예에서는 본 발명의 사상과 직접적인 관련이 있는 구성들에 관해서만 설명하며, 그 외의 구성에 관해서는 설명을 생략한다. 그러나, 본 발명의 사상이 적용된 장치 또는 시스템을 구현함에 있어서, 이와 같이 설명이 생략된 구성이 불필요함을 의미하는 것이 아님을 밝힌다.
도 1은 본 발명의 제1실시예에 따른 디스플레이장치(100)의 예시도이다.
도 1에 도시된 바와 같이, 디스플레이장치(100)는 외부로부터 수신되거나 또는 자체적으로 내장되어 있는 컨텐츠의 영상데이터를 처리하여 컨텐츠의 영상을 표시한다. 본 실시예에서의 디스플레이장치(100)는 TV로 구현되지만, 이 외에도 영상데이터를 처리하여 영상을 표시할 수 있는 다양한 형식의 디스플레이장치에 본 발명의 사상이 적용될 수 있다.
디스플레이장치(100) 전방에는 사용자(U)가 위치하며, 사용자(U)는 디스플레이장치(100)에 표시되는 영상을 시청할 수 있다. 디스플레이장치(100)는 사용자의 동작을 감지할 수 있는 구조 및, 감지 결과를 해석할 수 있는 구조를 구비함으로써, 현 시점에서 사용자(U)가 어떤 동작을 취하는지 판단할 수 있다.
이하, 디스플레이장치(100)의 구체적인 구성에 관해 설명한다.
도 2는 디스플레이장치(100)의 구성 블록도이다.
도 2에 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(100)는 외부와 데이터/신호를 송수신하도록 통신하는 통신 인터페이스(interface)(110)와, 통신 인터페이스(110)에 수신되는 데이터를 기 설정된 프로세스(process)에 따라서 처리하는 프로세서(processor)(120)와, 프로세서(120)에서 처리되는 데이터가 영상데이터인 경우에 해당 영상데이터를 영상으로 표시하는 디스플레이(display)(130)와, 사용자에 의한 입력 동작이 수행되는 사용자 인터페이스(140)와, 데이터/정보가 저장되는 스토리지(storage)(150)와, 디스플레이장치(100)의 제반 동작을 제어하는 컨트롤러(controller)(160)를 포함한다.
통신 인터페이스(110)는 디스플레이장치(100)가 서버(10) 또는 기타 외부장치(미도시)와 양방향 통신이 가능하도록 데이터의 송수신을 수행한다. 통신 인터페이스(110)는 기 설정된 통신 프로토콜(protocol)에 따라서, 유선/무선을 통한 광역/근거리 네트워크 또는 로컬 접속 방식으로 서버(10)에 접속한다.
통신 인터페이스(110)는 각 장치 별 접속 포트(port) 또는 접속 모듈(module)의 집합체에 의해 구현될 수 있는 바, 접속을 위한 프로토콜 또는 접속 대상이 되는 서버(20) 또는 외부장치(미도시)가 하나의 종류 또는 형식으로 한정되지 않는다. 통신 인터페이스(110)는 디스플레이장치(100)에 내장된 형태일 수 있으며, 전체 또는 일부의 구성이 디스플레이장치(100)에 애드-온(add-on) 또는 동글(dongle) 형태로 추가 설치되는 형식도 가능하다.
통신 인터페이스(110)는 접속된 각 장치 별로 지정된 프로토콜에 따라서 신호의 송수신이 이루어지는 바, 접속된 각 장치에 대해 개별적인 접속 프로토콜 기반으로 신호를 송수신할 수 있다. 영상데이터의 경우를 예로 들면, 통신 인터페이스(110)는 RF(radio frequency)신호, 컴포지트(composite)/컴포넌트(component) 비디오, 슈퍼 비디오(super video), SCART, HDMI(high definition multimedia interface), 디스플레이포트(DisplayPort), UDI(unified display interface), 또는 와이어리스(wireless) HD 등 다양한 규격을 기반으로 신호의 송수신이 가능하다.
프로세서(120)는 통신 인터페이스(110)에 수신되는 데이터/신호에 대해 다양한 프로세스를 수행한다. 통신 인터페이스(110)에 영상데이터가 수신되면, 프로세서(120)는 영상데이터에 대해 영상처리 프로세스를 수행하고, 이러한 프로세스가 수행된 영상데이터를 디스플레이(130)에 출력함으로써 디스플레이(130)에 해당 영상데이터에 기초하는 영상이 표시되게 한다. 통신 인터페이스(110)에 수신되는 신호가 방송신호인 경우, 프로세서(120)는 특정 채널로 튜닝된 방송신호로부터 영상, 음성 및 부가데이터를 추출하고, 영상을 기 설정된 해상도로 조정하여 디스플레이(130)에 표시되게 한다.
프로세서(120)가 수행하는 영상처리 프로세스의 종류는 한정되지 않으며, 예를 들면 영상데이터의 영상 포맷에 대응하는 디코딩(decoding), 인터레이스(interlace) 방식의 영상데이터를 프로그레시브(progressive) 방식으로 변환하는 디인터레이싱(de-interlacing), 영상데이터를 기 설정된 해상도로 조정하는 스케일링(scaling), 영상 화질 개선을 위한 노이즈 감소(noise reduction), 디테일 강화(detail enhancement), 프레임 리프레시 레이트(frame refresh rate) 변환 등을 포함할 수 있다.
프로세서(120)는 데이터의 종류, 특성에 따라서 다양한 프로세스를 수행할 수 있는 바, 프로세서(120)가 수행 가능한 프로세스를 영상처리 프로세스로 한정할 수 없다. 또한, 프로세서(120)가 처리 가능한 데이터가 통신 인터페이스(110)에 수신되는 것만으로 한정할 수 없다. 예를 들면, 프로세서(120)는 사용자 인터페이스(140)를 통해 사용자의 발화가 입력되면 기 설정된 음성처리 프로세스에 따라서 해당 발화를 처리하며, 사용자 인터페이스(140)에 의해 사용자의 제스쳐(gesture)가 감지되면 기 설정된 제스쳐 처리 프로세스에 따라서 해당 감지 결과를 처리할 수 있다.
프로세서(120)는 이러한 여러 기능을 통합시킨 SOC(system-on-chip)가, 또는 이러한 각 프로세스를 독자적으로 수행할 수 있는 개별적인 칩셋(chip-set)들이 인쇄회로기판 상에 장착된 영상처리보드(미도시)로 구현되며, 디스플레이장치(100)에 내장된다.
디스플레이(130)는 프로세서(120)에 의해 처리된 영상신호/영상데이터를 영상으로 표시한다. 디스플레이(130)의 구현 방식은 한정되지 않는 바, 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다.
디스플레이(130)는 그 구현 방식에 따라서 부가적인 구성을 추가적으로 포함할 수 있다. 예를 들면, 액정 방식인 경우에, 디스플레이(130)는 액정 디스플레이 패널(미도시)과, 이에 광을 공급하는 백라이트유닛(미도시)과, 패널(미도시)을 구동시키는 패널구동기판(미도시) 등을 포함한다.
사용자 인터페이스(140)는 사용자의 조작 또는 입력에 따라서 기 설정된 다양한 제어 커맨드(command) 또는 정보를 컨트롤러(170)에 전달한다. 사용자 인터페이스(140)는 사용자의 의도에 따라서 사용자에 의해 발생하는 다양한 이벤트(event)를 정보화하여 컨트롤러(170)에 전달한다. 여기서, 사용자에 의해 발생하는 이벤트는 여러 가지 형태가 가능한 바, 예를 들면 사용자의 조작, 발화, 제스쳐(gesture) 등이 가능하다.
스토리지(150)는 컨트롤러(160)의 제어에 따라서 다양한 데이터가 저장된다. 스토리지(150)는 시스템 전원의 제공 유무와 무관하게 데이터를 보존할 수 있도록, 플래시메모리(flash-memory), 하드디스크 드라이브(hard-disc drive)와 같은 비휘발성 메모리로 구현된다. 스토리지(150)는 컨트롤러(160)에 대해 억세스(access)됨으로써, 기 저장된 데이터의 독취, 기록, 수정, 삭제, 갱신 등이 수행된다.
컨트롤러(160)는 CPU로 구현되며, 소정 이벤트의 발생에 따라서 프로세서(120)를 비롯한 디스플레이장치(100)의 제반 구성의 동작을 제어한다. 예를 들어 소정 컨텐츠의 영상데이터가 통신 인터페이스(110)에 수신되면, 컨트롤러(160)는 프로세서(120)를 제어함으로써 영상데이터가 처리되어 디스플레이(130) 상에 영상으로 표시되게 제어한다. 또한, 컨트롤러(170)는 사용자 인터페이스(140)를 통해 사용자의 입력 이벤트가 발생하면, 해당 이벤트에 대응하는 기 설정된 동작이 실행되도록 프로세서(120)를 비롯한 구성요소들을 제어한다.
이하, 사용자 인터페이스(140)의 구체적인 구성에 관해 설명한다.
도 3은 사용자 인터페이스(140)의 구성 블록도이다.
도 3에 도시된 바와 같이, 사용자 인터페이스(140)는 기본적으로 사용자의 의도를 컨트롤러(160)에 전달함으로써, 컨트롤러(160)가 사용자의 의도에 맞는 동작을 할 수 있도록 제공되는 디스플레이장치(100)의 환경을 통칭한다. 따라서, 사용자 인터페이스(140)는 사용자가 정보를 입력하는 방식에 대응하여, 해당 방식으로 입력되는 정보를 감지할 수 있게 마련된다. 즉, 사용자 인터페이스(140)는 다양한 사용자의 입력 방식에 각기 대응하는 인터페이스들의 집합체로 구현된다.
예를 들면, 사용자 인터페이스(140)는 디스플레이장치(100)와 이격 분리된 리모트 컨트롤러(remote controller)(141), 디스플레이장치(100) 외측에 설치된 메뉴 키(menu-key)(142)나 입력 패널(panel)(143), 디스플레이(130)에 설치된 터치스크린(touch-screen)(144), 사용자의 발화가 입력되는 마이크로폰(145), 사용자의 동작을 감지하는 카메라(camera)(146)나 동작센서(147) 등을 포함한다.
이와 같은 사용자 인터페이스(140)의 구성요소들은 각각 컨트롤러(160)에 접속됨으로써, 사용자에 의해 발생한 입력 이벤트 또는 감지 이벤트를 각기 컨트롤러(160)에 전달한다.
다만, 사용자 인터페이스(140)가 이상과 같은 모든 구성요소들을 포함하여야 하는 것은 아니며, 디스플레이장치(100)의 설계 방식에 따라서 몇 가지 구성요소가 빠지거나 또는 새로운 구성요소가 추가될 수 있다.
카메라(146)는 디스플레이장치(100) 외측에 설치됨으로써 디스플레이장치(100) 외부 환경을 촬상 또는 촬영한다. 본 실시예에서 카메라(146)는 디스플레이장치(100)에 표시되는 영상을 시청하는 사용자를 촬영 또는 감지하며, 사용자의 동작 변화에 따른 촬영 결과 또는 감지 결과를 컨트롤러(160)에 전달한다. 이에, 컨트롤러(160)는 프로세서(120)를 제어하여 감지 결과를 분석함으로써, 카메라(146)에 의해 감지된 사용자의 동작 변화를 시간별로 판단할 수 있다.
특히, 컨트롤러(160)는 사용자 인터페이스(140)를 통해 사용자의 얼굴을 중심으로 하는 사용자의 무의식적인 동작 변화를 감지할 수 있다. 사용자의 무의식적인 동작을 감지하는 예시를 들면, 컨트롤러(160)는 카메라(146) 또는 동작 센서(147)에 의한 감지 결과에 따라서, 사용자의 표정 변화, 사용자의 고개 끄덕임 동작, 사용자의 맥박, 사용자의 눈 움직임 등의 동작이 발생하는 것을 판단할 수 있다. 또한, 컨트롤러(160)는 마이크로폰(145)을 통하여 사용자의 음성을 탐지할 수 있다.
이러한 구조 하에서, 디스플레이장치(100)는 다양한 소스로부터 제공되는 컨텐츠의 영상을 표시할 수 있다.
디스플레이장치(100)가 영상으로 표시하는 컨텐츠는 다양한 장르 중에서 어느 하나의 장르에 포함된다. 컨텐츠의 장르는, 예를 들면 스포츠, 드라마, 영화, 애니메이션, 코미디, 교육, 다큐멘터리 등 다양하다.
이와 같이 다양한 장르를 카테고리 별로 구분하는 방법 또한 다양한데, 예를 들면 각 장르는 컨텐츠의 내용에 따라서 다음과 같은 두 가지 카테고리로 구분될 수 있다.
도 4는 컨텐츠의 각 장르를 카테고리 별로 구분한 예시도이다.
도 4에 도시된 바와 같이, 컨텐츠의 내용에 따라서, 각 장르는 정적인 내용과 관련된 제1카테고리(210) 및 동적인 내용과 관련된 제2카테고리(220) 중 어느 하나로 분류될 수 있다. 여기서, 정적 및 동적이라는 표현은 상호 비교를 위해 편의상 적용된 용어인 바, 그 용어가 본 발명의 사상을 한정하지 않는다.
제1카테고리(210)는 사용자에게 지식을 전달하는 것을 주요 목적으로 하는 컨텐츠의 장르가 포함된다. 예를 들면, 제1카테고리(210)는 컨텐츠 중에서 교양 프로그램, 교육 프로그램, 시사 프로그램, 다큐멘터리 등의 장르를 포함한다.
제2카테고리(220)는 제1카테고리(210)와 달리 사용자에게 지식을 전달하기보다는 오락의 제공을 주요 목적으로 하는 컨텐츠의 장르가 포함된다. 예를 들면, 제2카테고리(220)는 드라마, 영화, 스포츠, 코미디 등의 장르를 포함한다.
이와 같은 카테고리(210, 220)의 분류는 하나의 예시일 뿐으로서, 본 발명을 간결하게 설명하기 위해 편의상 도입된 것에 불과하다. 본 실시예는 본 발명의 사상을 한정하지 않으며, 설계 방식에 따라서 카테고리의 수, 종류, 분류방법, 분류기준 등은 다양한 방법이 적용될 수 있다.
그런데, 사용자가 소정 장르의 컨텐츠를 시청함에 있어서, 해당 장르가 어떤 내용인지에 따라서, 즉 해당 장르가 어느 카테고리(210, 220)로 분류되는가에 따라서, 사용자는 해당 컨텐츠에 대해 특정한 형태의 리액션(reaction)을 나타내는 경향이 있다. 이는, 컨텐츠의 내용에 따라서 사용자가 느끼는 감정이 달라지며, 이에 따라서 사용자의 리액션이 다른 형태로 나타나기 때문이다.
예를 들어 사용자의 리액션의 형태가 사용자의 표정 변화, 사용자의 고개 끄덕임 동작, 사용자의 맥박, 사용자의 눈 움직임, 사용자의 눈 동작, 사용자의 음성 등이 있다고 할 때, 사용자는 제1카테고리(210)의 장르의 컨텐츠에 대해서 고개 끄덕임 동작의 리액션이 다른 리액션에 비해 보다 많은 빈도로 나타낸다. 이는, 기본적으로 제1카테고리(210)가 사용자에게 지식을 전달하는 내용이므로, 사용자로부터 공감의 반응을 이끌어내기 때문이다. 사람이 공감의 반응을 나타내는 가장 현저한 형태는 고개 끄덕임 동작이다.
제1카테고리(210)의 장르의 컨텐츠에 대한 사용자의 리액션 중에서, 고개 끄덕임 동작 이외의 리액션은 상대적으로 현저하게 나타나지 않는다.
반면, 사용자는 제2카테고리(220)의 장르의 컨텐츠에 대해서, 제1카테고리(210)의 경우와 다르게 고개 끄덕임 동작은 현저히 나타나지 않는다. 대신, 사용자는 사용자의 맥박이나 사용자의 음성 등과 같은 리액션을 고개 끄덕임 동작에 비해 보다 많은 빈도로 나타낼 것이다.
본 실시예에서는 이와 같이 두 가지의 카테고리(210, 220)에 대해서만 표현하였지만, 설계 방식에 따라서 카테고리(210, 220)의 수가 증가하는 경우에는 각 카테고리(210, 220) 별로 현저히 나타나는 리액션이 각기 상이할 것이다. 또한, 카테고리(210, 220)에 따라서 각 리액션이 현저히 나타나는 빈도가 서로 상이하므로, 카테고리(210, 220) 각 리액션의 중요도는 차등적으로 나타난다.
이상의 내용으로부터 다음과 같은 사항이 도출될 수 있다. 소정의 컨텐츠에 대한 사용자의 선호도는, 해당 컨텐츠의 대한 사용자의 리액션에 따라서 판단 또는 결정된다. 여기서, 컨텐츠의 장르에 따라서 현저히 나타나는 리액션의 형태가 각각 상이하므로, 리액션의 형태를 고려하지 않고 단지 리액션의 발생 회수만 고려하여 선호도를 판단하는 것은 정확한 값이 도출될 수 없다. 사용자의 정확한 선호도를 도출하기 위해서는, 리액션의 회수 뿐만 아니라 컨텐츠의 장르를 고려한 리액션의 각 형태 별 중요도를 고려하여야 한다.
예를 들어, 고개 끄덕임 동작의 리액션은 제1카테고리(210)의 경우에 현저히 나타나는 반면에 제2카테고리(220)의 경우에 현저히 나타나지 않는다. 이는, 제2카테고리(220)의 경우에는 고개 끄덕임 동작으로부터 사용자의 선호도를 도출하기 곤란하다는 점과, 제1카테고리(210)의 경우에는 공감의 반응과 관련된 고개 끄덕임 동작의 이외의 리액션으로부터는 사용자의 선호도를 도출하는 것이 역시 곤란하다는 점을 의미한다.
이러한 점을 반영하여, 본 실시예에 따른 디스플레이장치(100)는 다음과 같은 방법에 따라서 영상컨텐츠의 사용자 선호도를 취득한다.
도 5는 디스플레이장치(100)의 제어방법을 나타내는 플로우차트이다.
도 5에 도시된 바와 같이, S100 단계에서 디스플레이장치(100)는 영상컨텐츠의 장르를 판단한다.
디스플레이장치(100)가 영상컨텐츠의 장르를 판단하는 방법은 다양하며, 예를 들면 디스플레이장치(100)는 영상데이터의 메타정보로부터 장르를 판단하거나, 영상데이터의 다양한 분석을 통해 장르를 판단하거나, EPG(electronic program guide)로부터 장르를 판단할 수 있다.
S110 단계에서, 디스플레이장치(100)는 영상컨텐츠가 재생되는 동안에, 기 설정된 복수의 형태의 리액션들을 감지하고, 각 리액션의 형태 별로 발생 누적치를 산출한다.
리액션들의 형태는 앞서 설명한 바와 같이 사용자의 표정 변화, 사용자의 고개 끄덕임 동작, 사용자의 맥박, 사용자의 눈 동작, 사용자의 음성 등의 예시가 가능하다. 각 형태 별 리액션에 관한 누적치는 영상컨텐츠가 재생되는 동안에 해당 리액션이 얼마나 현저히 발생하였는지를 정량화한 값을 의미한다.
여기서, 누적치는 리액션의 총 발생 회수 또는 빈도로 나타내거나, 수치화된 레벨로 나타내거나, 백분율로 나타낼 수 있다.
다만, 이러한 예시는 리액션의 누적치를 수치화하는 하나의 방법일 뿐인 바, 설계 단계에서 다양한 방법이 적용될 수 있다. 리액션 중에서 고개 끄덕임 동작이나 음성 등은 발생 회수를 용이하게 감지할 수 있지만, 맥박이나 눈 움직임 등은 상대적으로 발생 회수를 감지하는 것이 용이하지 않을 수 있는 바, 누적치의 산출을 리액션의 형태에 따라서 다양한 모델이 적용될 수 있다.
예를 들면, 사용자의 고개 끄덕임 동작의 경우에 해당 리액션의 누적치는 사용자가 고개를 끄덕인 회수로 나타낼 수 있으며, 사용자의 눈 움직임의 경우에 해당 리액션의 누적치는 사용자의 눈이 깜빡인 회수로 나타낼 수 있으며, 사용자의 맥박의 경우에 해당 리액션의 누적치는 영상컨텐츠의 전체 재생시간 중에서 사용자의 맥박이 소정치 이상인 상태의 백분율 수치로 나타낼 수 있다.
S120 단계에서, 디스플레이장치(100)는 영상컨텐츠의 장르에 따라서 설정된 각 리액션 별 가중치를 취득한다. 가중치는 리액션의 각 형태에 대응하게 마련된 값이며, 장르에 따라서 상이한 수치가 적용된다.
만일, 장르가 제1카테고리(210, 도 3)에 속한다면 고개 끄덕임에 관한 리액션에 대한 가중치는 상대적으로 높은 수치가 설정되고, 나머지 리액션에 대한 가중치는 상대적으로 낮은 수치가 설정된다. 반면, 장르가 제2카테고리(220, 도 3)에 속한다면 고개 끄덕임에 관한 리액션에 대한 가중치는 상대적으로 낮은 수치가 설정되고, 나머지 리액션에 대한 가중치는 상대적으로 높은 수치가 설정된다. 여기서, 각 가중치의 실제 값은 설계 단계에서 다양한 수치가 적용될 수 있으므로, 구체적인 수치를 한정할 수 없다. 다만, 본 실시예에서 중요한 점은, 리액션에 대한 가중치가 고정된 값이 아니며, 영상컨텐츠의 장르에 따라서 상이한 값이 적용된다는 것이다.
S130 단계에서, 디스플레이장치(100)는 위와 같이 얻어진 각 리액션의 누적치 및 대응 가중치를 연산하여 선호도를 산출한다.
예를 들면, 사용자의 표정 변화에 대한 누적치가 P1, 사용자의 고개 끄덕임 동작에 대한 누적치가 P2, 사용자의 맥박에 대한 누적치가 P3, 사용자의 눈 동작에 대한 누적치가 P4, 사용자의 음성에 대한 누적치가 P5이며, 각 리액션의 누적치에 각기 대응하는 가중치가 C1, C2, C3, C4, C5일 때, 최종값인 사용자의 선호도 F는 다음과 같은 수식에 의해 산출될 수 있다.
F=C1*P1+C2*P2+C3*P3+C4*P4+C5*P5
즉, 선호도는 각 리액션의 누적치 및 가중치를 각기 곱한 값을 총합한 값으로 나타낼 수 있다.
S140 단계에서, 디스플레이장치(100)는 사용자의 선호도 F가 기 설정된 문턱값 T보다 큰지, 즉 F>T인지 판단한다. 문턱값 T는 디스플레이장치(100)의 설계 단계에서 다양한 수치로 결정될 수 있는 바, 구체적인 수치를 한정할 수 없다.
F가 T보다 크다고 판단하면, S150 단계에서 디스플레이장치(100)는 해당 영상컨텐츠에 대한 사용자의 선호도가 높다고, 또는 해당 영상컨텐츠를 사용자가 선호하는 것으로 판단한다. 반면, F가 T보다 크지 않다고 판단하면, S160 단계에서 디스플레이장치(100)는 해당 영상컨텐츠에 대한 사용자의 선호도가 낮다고, 또는 해당 영상컨텐츠를 사용자가 선호하지 않는 것으로 판단한다.
S170 단계에서, 디스플레이장치(100)는 이와 같이 산출된 선호도나, 또는 영상컨텐츠에 대한 선호/비선호 결과를 저장한다. 다양한 영상컨텐츠에 대해 디스플레이장치(100)에 저장된 선호도의 이력 데이터베이스는, 사용자에 대한 컨텐츠 추천과 같은 다양한 서비스에 활용될 수 있다.
이상 설명한 바와 같이, 디스플레이장치(100)는 영상컨텐츠의 영상이 표시되는 동안에, 영상에 대한 사용자의 리액션에 기초하여 영상컨텐츠에 대한 사용자의 선호도를 판단한다. 디스플레이장치(100)는 영상이 표시되는 동안에 발생한 복수의 방식 또는 형태에 따른 각각의 리액션의 발생 누적치 및 이들 리액션에 각기 대응하게 설정된 가중치의 연산에 의하여 선호도를 산출한다.
여기서, 어느 하나의 리액션에 대응하는 가중치는 고정된 값이 아니며, 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정된다.
이로써, 영상컨텐츠의 장르에 대해 사용자의 리액션 형태가 상이하더라도, 디스플레이장치(100)는 사용자의 선호도의 판단 시에 각 장르 별로 사용자의 리액션 형태를 고려함으로써, 보다 정확한 사용자의 선호도를 판단할 수 있다.
도 6은 본 발명의 제2실시예에 따른 디스플레이장치(100)의 제어방법을 나타내는 플로우차트이다.
앞선 제1실시예에서는 전체 영상컨텐츠에 대한 사용자의 선호도를 판단하는 방법에 관해 설명하였다. 그러나, 하나의 영상컨텐츠는 그 내용에 따라서 복수의 재생구간으로 구분될 수 있으며, 각 재생구간 별로 사용자의 선호도를 판단하는 방법도 가능하다. 이에 관하여 이하 설명한다.
도 6에 도시된 바와 같이, S200 단계에서 디스플레이장치(100)는 영상컨텐츠의 각 재생구간을 구분한다. 재생구간의 구분 방법은 재생구간 동안의 자막 내용이나, 영상의 분석 등에 의해 다양한 기준으로 구분될 수 있다.
예를 들면, 영상컨텐츠는 장면의 내용에 따라서 복수의 구간으로 구분될 수 있는 바, 영상컨텐츠가 축구 경기인 경우에 해당 영상컨텐츠는 경기 장면인 제1구간, 골 장면인 제2구간, 해설 장면인 제3구간, 이후의 경기 장면인 제4구간으로 구분될 수 있다. 또는, 영상컨텐츠가 영화인 경우에 해당 영상컨텐츠는 프롤로그 장면인 제1구간, 내용 전개 장면인 제2구간, 클라이막스 및 결말 장면인 제3구간으로 구분될 수 있다. 물론 이와 같은 구분방법은 가장 간단한 예시 중 몇 가지일 뿐이며, 영상컨텐츠 내에서 재생구간을 구분하는 것은 보다 세밀하고 복잡하게 이루어질 수도 있다.
S210 단계에서, 디스플레이장치(100)는 영상컨텐츠가 재생되는 동안에 각 재생구간에 대해, 각 리액션의 형태 별로 발생 누적치를 산출한다. 리액션의 형태 및 누적치에 관한 설명은 앞선 제1실시예를 응용할 수 있는 바, 자세한 설명을 생략한다.
S220 단계에서, 디스플레이장치(100)는 각 재생구간 별로 설정된 리액션 별 가중치를 취득한다. 앞선 제1실시예에서는 영상컨텐츠의 장르에 따라서, 어느 하나의 리액션에 대응하는 가중치가 결정되었다. 이에 비해, 본 실시예에서는 영상컨텐츠의 장면 또는 재생구간에 따라서, 어느 하나의 리액션에 대응하는 가중치가 결정된다.
예를 들면, 축구 경기인 영상컨텐츠에서 골 장면인 제2구간의 경우 및 해설 장면인 제3구간의 경우를 각각 비교하면, 제2구간에서는 사용자의 맥박 또는 눈 움직임 등의 리액션이 상대적으로 현저히 나타나는 것에 비해, 제3구간에서는 고개 끄덕임의 리액션이 상대적으로 현저히 나타난다. 따라서, 디스플레이장치(100)는 동일한 영상컨텐츠라고 하더라도, 재생구간에 따라서 어느 하나의 리액션에 대응하는 가중치를 상이한 값으로 설정한다.
S230 단계에서, 디스플레이장치(100)는 각 재생구간에 대해 각 리액션의 누적치 및 대응 가중치를 연산하여, 재생구간 별 선호도를 산출한다.
예를 들면, 제1재생구간에서의 사용자의 선호도를 F1이라고 하면, F1은 제1재생구간에서의 각 리액션의 누적치 및 가중치의 연산값을 총합한 값으로 나타난다. 이에 관한 내용은 제1실시예를 응용할 수 있다.
다만, 리액션의 누적치에 대응하는 가중치는, 하나의 영상컨텐츠 내에서도 각 재생구간 별로 상이한 값으로 나타날 수 있다. 예를 들면, 고개 끄덕임의 리액션에 대응하는 가중치는, 축구 경기의 해설 장면인 제3구간에서는 상대적으로 높은 수치로 설정되는 것에 비해, 그 이외의 재생구간에서는 상대적으로 낮은 수치로 설정될 수 있다.
S240 단계에서, 디스플레이장치(100)는 각 재생구간의 선호도가 기 설정된 문턱값보다 큰지 판단한다. 본 실시예에서의 문턱값 또한 디스플레이장치(100)의 설계 단계에서 다양한 수치로 결정될 수 있는 바, 구체적인 수치를 한정할 수 없다.
예를 들어 일 재생구간의 선호도가 문턱값보다 크다고 판단하면, S250 단계에서 디스플레이장치(100)는 해당 재생구간에 대한 사용자의 선호도가 높은 것으로, 또는 해당 재생구간을 사용자가 선호하는 것으로 판단한다. 반면, 재생구간의 선호도가 문턱값보다 크지 않다고 판단하면, S260 단계에서 디스플레이장치(100)는 해당 재생구간에 대한 사용자의 선호도가 낮은 것으로, 또는 해당 재생구간을 사용자가 선호하지 않는 것으로 판단한다.
S270 단계에서, 디스플레이장치(100)는 이와 같이 산출된 선호도나 또는 재생구간에 대한 선호/비선호 판단 결과를 저장한다. 예를 들면, 디스플레이장치(100)는 선호하는 것으로 판단한 재생구간에 대해 태그를 붙이는 등의 방법으로, 이후 사용자가 용이하게 영상컨텐츠의 해당 재생구간을 이후에 재생할 수 있도록 제공하는 등의 방법이 가능하다.
도 7은 본 발명의 제3실시예에 따른 디스플레이장치(100)의 제어방법을 나타내는 플로우차트이다.
앞선 실시예들에서는 하나의 영상컨텐츠에 대한 사용자의 선호도 또는 하나의 영상컨텐츠 내에서 복수의 재생구간 각각에 대한 사용자의 선호도를 판단함에 있어서, 사용자의 일 리액션에 대응하는 가중치를 장르 또는 재생구간 별로 상이하게 설정하는 예시에 관해 설명하였다. 그러나, 본 발명의 사상은 이와 다른 형태로도 구현될 수 있다. 예를 들면 하나의 영상컨텐츠에 대한 사용자의 선호도를 판단함에 있어서, 가중치를 조정하는 것이 아닌, 장르에 따라서 판단 가능한 복수의 리액션 중 어느 하나 또는 복수 개의 리액션을 선택하는 실시예가 가능한 바, 이에 관하여 이하 설명한다.
도 7에 도시된 바와 같이, S300 단계에서 디스플레이장치(100)는 영상컨텐츠의 장르를 판단한다. 영상컨텐츠의 장르를 판단하는 구체적인 방법은 제1실시예의 경우를 응용할 수 있다.
S310 단계에서, 디스플레이장치(100)는 판단한 장르가 교양, 교육, 다큐멘터리의 카테고리에 포함되는지를 판단한다.
만일 영상컨텐츠의 장르가 교양, 교육, 다큐멘터리의 카테고리에 포함되는 것으로 판단하면, S320 단계에서 디스플레이장치(100)는 복수 형태의 리액션 중에서 고개 끄덕임 동작을 선택한다.
반면, 영상컨텐츠의 장르가 교양, 교육, 다큐멘터리의 카테고리에 포함되지 않는 것으로 판단하면, S330 단계에서 디스플레이장치(100)는 복수 형태의 리액션 중에서 고개 끄덕임 동작 이외의 리액션, 예를 들면 사용자의 웃음 동작을 선택한다.
S340 단계에서, 디스플레이장치(100)는 S320 또는 S330 단계에서 각기 선택된 리액션만의 선호도를 산출한다. 여기서, 영상컨텐츠가 재생되는 동안에 감지하는 리액션은 하나만이므로 선호도 산출 시에 리액션의 발생 누적치는 고려되어야 하지만, 앞선 실시예들과 달리 가중치는 고려할 필요는 없다.
그런데, S320 또는 S330 단계에서 선택되는 리액션의 수가 하나가 아닌 복수가 될 수도 있다. 이 경우에는 선호도 산출 시 고려되는 리액션의 수가 복수이므로, 앞선 실시예들과 같이 가중치를 추가적으로 적용할 수도 있다.
S350 단계에서, 디스플레이장치(100)는 산출된 선호도가 기 설정된 문턱값보다 큰지를 판단한다. 문턱값은 디스플레이장치(100)의 설계 단계에서 다양한 수치로 결정될 수 있는 바, 구체적인 수치를 한정할 수 없다.
선호도가 문턱값보다 크다고 판단하면, S360 단계에서 해당 영상컨텐츠에 대한 사용자의 선호도가 높다고, 또는 해당 영상컨텐츠를 사용자가 선호하는 것으로 판단한다. 반면, 선호도가 문턱값보다 크지 않다고 판단하면, S370 단계에서 해당 영상컨텐츠에 대한 사용자의 선호도가 낮다고, 또는 해당 영상컨텐츠를 사용자가 선호하지 않는 것으로 판단한다.
S380 단계에서, 디스플레이장치(100)는 이와 같이 산출된 선호도나, 또는 영상컨텐츠에 대한 선호/비선호 결과를 저장한다.
즉, 본 실시예에서 디스플레이장치(100)는 영상컨텐츠의 장르에 대응하여 복수의 리액션 형태 중에서 일부의 리액션만을 선택하고, 선택된 리액션에 기초하여 선호도를 산출한다.
도 8은 본 발명의 제4실시예에 따른 디스플레이장치(100)의 제어방법을 나타내는 플로우차트이다.
앞선 제3실시예에서는 영상컨텐츠의 장르에 따라서 선호도 산출을 위한 리액션을 선택하는 경우에 관해 설명하였으나, 하나의 영상컨텐츠 내에서 구분된 복수의 재생구간 각각에 대하여 리액션을 개별적으로 선택하여 선호도를 산출하는 구성도 가능한 바, 이러한 실시예에 관해 이하 설명한다. 영상컨텐츠의 재생구간에 관한 설명은 앞선 실시예의 내용을 응용할 수 있다.
도 8에 도시된 바와 같이, S400 단계에서 디스플레이장치(100)는 영상컨텐츠 내에서 각 재생구간을 구분한다.
S410 단계에서, 디스플레이장치(100)는 각 재생구간 별로 감지할 리액션을 선택한다. 여기서, 재생구간 별로 감지할 리액션의 선택방법은, 앞선 제2실시예에서 가중치를 설정하는 방법과 유사하게 적용될 수 있다. 예를 들면, 디스플레이장치(100)는 일 재생구간에서 상대적으로 현저한 빈도로 나타나는 리액션을 해당 재생구간에 대응하여 선택할 수 있다.
S420 단계에서, 디스플레이장치(100)는 영상컨텐츠가 재생되는 동안에, 각 재생구간에 대해서 각기 선택된 리액션의 누적치를 산출한다.
S430 단계에서, 디스플레이장치(100)는 각 재생구간 별로, 각기 산출된 누적치에 기초하여 각 재생구간의 선호도를 산출한다. 여기서, 선호도는 고려되는 리액션이 하나인 경우에는 가중치 없이 누적치만으로 산출될 수 있고, 고려되는 리액션이 둘 이상인 경우에는 각 리액션의 누적치에 각 가중치를 연산하는 방법으로 산출될 수도 있다. 다만, 선호도의 산출은 설계 방식에 따라서 다양한 방법이 적용될 수 있는 바, 몇 가지의 실시예로 한정되지 않는다.
S440 단계에서, 디스플레이장치(100)는 각 재생구간의 선호도가 기 설정된 문턱값보다 큰지 판단한다. 본 실시예에서의 문턱값 또한 디스플레이장치(100)의 설계 단계에서 다양한 수치로 결정될 수 있는 바, 구체적인 수치를 한정할 수 없다.
예를 들어 일 재생구간의 선호도가 문턱값보다 크다고 판단하면, S450 단계에서 디스플레이장치(100)는 해당 재생구간에 대한 사용자의 선호도가 높은 것으로, 또는 해당 재생구간을 사용자가 선호하는 것으로 판단한다. 반면, 재생구간의 선호도가 문턱값보다 크지 않다고 판단하면, S460 단계에서 디스플레이장치(100)는 해당 재생구간에 대한 사용자의 선호도가 낮은 것으로, 또는 해당 재생구간을 사용자가 선호하지 않는 것으로 판단한다.
S470 단계에서, 디스플레이장치(100)는 이와 같이 산출된 선호도나 또는 재생구간에 대한 선호/비선호 판단 결과를 저장한다.
한편, 앞선 실시예들은 디스플레이장치(100)가 TV인 경우에 관해 설명하였다. 그러나, 본 발명의 사상을 반영하는 장치의 구현 형태가 TV로 한정되는 것은 아니며, 다양한 형태의 디스플레이장치에서 본 발명의 사상이 구현될 수 있다.
도 9는 본 발명의 제5실시예에 따른 디스플레이장치(300)의 사시도이다.
도 9에 도시된 바와 같이, 본 실시예에 따른 디스플레이장치(300)는 사람의 머리에 장착하는 헤드마운트형(head-mount type) 디스플레이장치이다. 디스플레이장치(300)는 일반적인 안경과 유사한 형태를 가지는 바, 사람의 머리 또는 귀에 걸쳐지도록 마련된 프레임(310)과, 프레임(310)에 의해 지지되며 사용자의 좌안 및 우안 각각의 시야를 커버하는 글래스유닛(320)을 포함한다.
프레임(310) 및 글래스유닛(320)은 형상 또는 재질이 한정되지 않지만, 디스플레이장치(300)의 동작을 위한 다양한 구성요소들을 수용할 수 있도록 내부에 공간을 형성한다.
이러한 디스플레이장치(300)는 앞서 설명한 실시예들과 같은 동작을 실행할 수 있다. 다만, 제1실시예의 경우와 다르게 본 실시예에 따른 디스플레이장치(300)는 사용자의 머리에 착용되는 형태이므로, 사용자의 리액션을 감지하는 구체적인 구조가 제1실시예의 경우와 상이할 수 있다.
예를 들면, 디스플레이장치(300)는 관성 센서(미도시), 가속도 센서(미도시), 자이로 센서(미도시) 등이 설치된다. 사용자가 고개를 끄덕이게 되면 디스플레이장치(300) 또한 상하로 흔들리게 되는 바, 관성 센서는 이러한 디스플레이장치(300)의 움직임을 감지함으로써 사용자가 고개를 끄덕이는 것으로 감지할 수 있다.
또는, 이러한 센서를 디스플레이장치(300)에 설치되지 않고, 디스플레이장치(300)와 통신 가능한 별도의 외부장치에 설치할 수도 있다. 예를 들면, 사용자가 착용하는 이어폰 또는 헤드폰(미도시)에 센서 구조를 설치함으로써, 사용자가 고개를 끄덕이는 것을 감지할 수도 있다.
다만, 디스플레이장치(300)의 구현 방식에 따라서 사용자의 리액션을 감지하기 위한 구조는 디스플레이장치(300)의 설계 단계에서 다양한 방법 또는 구조가 적용될 수 있는 바, 상기한 예시로 한정할 수 없음을 밝힌다.
상기한 실시예는 예시적인 것에 불과한 것으로, 당해 기술 분야의 통상의 지식을 가진 자라면 다양한 변형 및 균등한 타 실시예가 가능하다. 따라서, 본 발명의 진정한 기술적 보호범위는 하기의 특허청구범위에 기재된 발명의 기술적 사상에 의해 정해져야 할 것이다.
10 : 서버
100, 300 : 디스플레이장치
110 : 통신 인터페이스
120 : 프로세서
130 : 디스플레이
140 : 사용자 인터페이스
150 : 스토리지
160 : 컨트롤러

Claims (22)

  1. 디스플레이장치에 있어서,
    디스플레이와;
    영상컨텐츠의 영상데이터를 상기 디스플레이에 영상으로 표시하도록 처리하는 프로세서와;
    사용자의 리액션(reaction)을 감지하는 사용자 인터페이스와;
    상기 디스플레이에 상기 영상컨텐츠의 상기 영상이 표시되는 동안에 상기 사용자 인터페이스를 통해 감지된 상기 영상에 대한 사용자의 리액션에 기초하여 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 컨트롤러를 포함하고,
    상기 컨트롤러는, 상기 영상이 표시되는 동안에 발생한 복수의 방식에 따른 각각의 상기 리액션의 발생 누적치 및 상기 리액션에 대응하게 설정된 가중치의 연산에 의하여 상기 선호도를 산출하며,
    어느 하나의 상기 리액션에 대응하는 상기 가중치는 상기 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정되는 것을 특징으로 하는 디스플레이장치.
  2. 제1항에 있어서,
    상기 컨트롤러는, 각각의 상기 리액션의 누적치 및 상기 가중치를 각각 곱한 값을 총합한 값으로 상기 선호도를 산출하는 것을 특징으로 하는 디스플레이장치.
  3. 제1항에 있어서,
    상기 컨트롤러는, 상기 선호도를 기 설정된 문턱값과 비교하며, 상기 선호도가 상기 문턱값보다 크면 사용자가 상기 영상컨텐츠를 선호하는 것으로 판단하고, 상기 선호도가 상기 문턱값보다 크지 않으면 사용자가 상기 영상컨텐츠를 선호하지 않는 것으로 판단하는 것을 특징으로 하는 디스플레이장치.
  4. 제1항에 있어서,
    상기 리액션의 발생 누적치는 상기 리액션의 총 발생 회수, 빈도, 또는 백분율 값을 포함하는 것을 특징으로 하는 디스플레이장치.
  5. 제1항에 있어서,
    상기 사용자 인터페이스는 상기 복수의 방식의 리액션 중에서 사용자의 고개 끄덕임 동작을 감지 가능하며,
    상기 컨트롤러는, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 적어도 어느 하나일 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치를 나머지 상기 리액션에 대응하는 상기 가중치에 비해 높은 값으로 설정하는 것을 특징으로 하는 디스플레이장치.
  6. 제5항에 있어서,
    상기 컨트롤러는, 상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 어느 하나가 아닐 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치를 나머지 상기 리액션에 대응하는 상기 가중치에 비해 낮은 값으로 설정하는 것을 특징으로 하는 디스플레이장치.
  7. 제5항에 있어서,
    상기 복수의 방식의 리액션은 사용자의 표정 변화, 사용자의 맥박, 사용자의 눈 동작, 사용자의 음성 중 적어도 어느 하나를 더 포함하는 것을 특징으로 하는 디스플레이장치.
  8. 제1항에 있어서,
    상기 컨트롤러는, 상기 영상데이터의 메타정보, 상기 영상컨텐츠의 내용 분석 정보, EPG 중 적어도 어느 하나로부터 상기 영상컨텐츠의 장르를 판단하는 것을 특징으로 하는 디스플레이장치.
  9. 제1항에 있어서,
    상기 컨트롤러는, 하나의 상기 영상컨텐츠를 복수의 장면 또는 재생구간으로 구분하며, 어느 하나의 상기 리액션에 대응하는 상기 가중치를 상기 각 재생구간에 대응하여 상이한 값으로 설정함으로써, 상기 재생구간 별로 상기 선호도를 판단하는 것을 특징으로 하는 디스플레이장치.
  10. 제1항에 있어서,
    상기 컨트롤러는, 상기 영상컨텐츠의 장르에 대응하여 상기 복수의 방식에 따른 리액션 중에서 일부의 상기 리액션만을 선택하고, 선택된 리액션에 기초하여 상기 선호도를 산출하는 것을 특징으로 하는 디스플레이장치.
  11. 제1항에 있어서,
    상기 사용자 인터페이스는 상기 디스플레이장치와 원격 분리된 외부장치에 설치되며, 상기 사용자 인터페이스에 의해 감지된 상기 사용자의 리액션은 상기 외부장치로부터 상기 디스플레이장치에 전송되는 것을 특징으로 하는 디스플레이장치.
  12. 제11항에 있어서,
    사용자가 착용하는 이어폰 또는 헤드폰에 관성 센서가 설치되며,
    상기 관성 센서는 상기 리액션 중에서 사용자의 고개 끄덕임 동작을 감지하는 것을 특징으로 하는 디스플레이장치.
  13. 디스플레이장치의 제어방법에 있어서,
    영상컨텐츠의 영상데이터를 영상으로 표시하는 단계와;
    상기 영상에 대한 사용자의 리액션을 감지하는 단계와;
    상기 영상이 표시되는 동안에 감지된 상기 리액션에 기초하여 상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계를 포함하며,
    상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는, 상기 영상이 표시되는 동안에 발생한 복수의 방식에 따른 각각의 상기 리액션의 발생 누적치 및 상기 리액션에 대응하게 설정된 가중치의 연산에 의하여 상기 선호도를 산출하는 단계를 포함하고,
    어느 하나의 상기 리액션에 대응하는 상기 가중치는 상기 영상컨텐츠의 장르에 대응하여 상이한 값으로 설정되는 것을 특징으로 하는 디스플레이장치의 제어방법.
  14. 제13항에 있어서,
    상기 누적치 및 가중치의 연산에 의하여 상기 선호도를 선출하는 단계는,
    각각의 상기 리액션의 누적치 및 상기 가중치를 각각 곱한 값을 총합한 값으로 상기 선호도를 산출하는 단계를 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  15. 제13항에 있어서,
    상기 선호도를 기 설정된 문턱값과 비교하며, 상기 선호도가 상기 문턱값보다 크면 사용자가 상기 영상컨텐츠를 선호하는 것으로 판단하고, 상기 선호도가 상기 문턱값보다 크지 않으면 사용자가 상기 영상컨텐츠를 선호하지 않는 것으로 판단하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  16. 제13항에 있어서,
    상기 리액션의 발생 누적치는 상기 리액션의 총 발생 회수, 빈도, 또는 백분율 값을 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  17. 제13항에 있어서,
    상기 영상에 대한 사용자의 리액션을 감지하는 단계는,
    상기 복수의 방식의 리액션 중에서 사용자의 고개 끄덕임 동작을 감지하는 단계를 포함하며,
    상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 적어도 어느 하나일 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치는 나머지 상기 리액션에 대응하는 상기 가중치에 비해 높은 값으로 설정되는 것을 특징으로 하는 디스플레이장치의 제어방법.
  18. 제17항에 있어서,
    상기 장르가 교양, 교육, 다큐멘터리 프로그램 중 어느 하나가 아닐 때에 상기 고개 끄덕임 동작의 리액션에 대응하는 상기 가중치는 나머지 상기 리액션에 대응하는 상기 가중치에 비해 낮은 값으로 설정되는 것을 특징으로 하는 디스플레이장치의 제어방법.
  19. 제17항에 있어서,
    상기 복수의 방식의 리액션은 사용자의 표정 변화, 사용자의 맥박, 사용자의 눈 동작, 사용자의 음성 중 적어도 어느 하나를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  20. 제13항에 있어서,
    상기 영상컨텐츠의 장르는, 상기 영상데이터의 메타정보, 상기 영상컨텐츠의 내용 분석 정보, EPG 중 적어도 어느 하나로부터 판단되는 것을 특징으로 하는 디스플레이장치의 제어방법.
  21. 제13항에 있어서,
    상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는,
    하나의 상기 영상컨텐츠를 복수의 장면 또는 재생구간으로 구분하며, 어느 하나의 상기 리액션에 대응하는 상기 가중치를 상기 각 재생구간에 대응하여 상이한 값으로 설정함으로써, 상기 재생구간 별로 상기 선호도를 판단하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
  22. 제13항에 있어서,
    상기 영상컨텐츠에 대한 사용자의 선호도를 판단하는 단계는, 상기 영상컨텐츠의 장르에 대응하여 상기 복수의 방식에 따른 리액션 중에서 일부의 상기 리액션만을 선택하고, 선택된 리액션에 기초하여 상기 선호도를 산출하는 단계를 더 포함하는 것을 특징으로 하는 디스플레이장치의 제어방법.
KR1020130155743A 2013-12-13 2013-12-13 디스플레이장치 및 그 제어방법 KR20150069619A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130155743A KR20150069619A (ko) 2013-12-13 2013-12-13 디스플레이장치 및 그 제어방법
US14/556,706 US20150172770A1 (en) 2013-12-13 2014-12-01 Display apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130155743A KR20150069619A (ko) 2013-12-13 2013-12-13 디스플레이장치 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20150069619A true KR20150069619A (ko) 2015-06-24

Family

ID=53370099

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130155743A KR20150069619A (ko) 2013-12-13 2013-12-13 디스플레이장치 및 그 제어방법

Country Status (2)

Country Link
US (1) US20150172770A1 (ko)
KR (1) KR20150069619A (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102092164B1 (ko) * 2013-12-27 2020-03-23 삼성전자주식회사 디스플레이 장치, 서버 장치 및 이들을 포함하는 디스플레이 시스템과 그 컨텐츠 제공 방법들
US9918128B2 (en) * 2016-04-08 2018-03-13 Orange Content categorization using facial expression recognition, with improved detection of moments of interest
US10887679B2 (en) * 2016-08-26 2021-01-05 Bragi GmbH Earpiece for audiograms

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336507A (ja) * 2003-05-09 2004-11-25 Sony Corp 映像処理装置および方法、記録媒体、並びにプログラム
US9106958B2 (en) * 2011-02-27 2015-08-11 Affectiva, Inc. Video recommendation based on affect
US8943526B2 (en) * 2011-12-02 2015-01-27 Microsoft Corporation Estimating engagement of consumers of presented content
US9264770B2 (en) * 2013-08-30 2016-02-16 Rovi Guides, Inc. Systems and methods for generating media asset representations based on user emotional responses

Also Published As

Publication number Publication date
US20150172770A1 (en) 2015-06-18

Similar Documents

Publication Publication Date Title
US20210105535A1 (en) Control method of playing content and content playing apparatus performing the same
US11353949B2 (en) Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US9361005B2 (en) Methods and systems for selecting modes based on the level of engagement of a user
US20200275158A1 (en) Deep content tagging
EP2663086B1 (en) Display apparatus, apparatus for providing content video and control methods thereof
EP3467639A1 (en) Concurrent use of multiple user interface devices
US20170315612A1 (en) Methods and systems for displaying additional content on a heads up display displaying a virtual reality environment
US9538251B2 (en) Systems and methods for automatically enabling subtitles based on user activity
US10528835B2 (en) Image processing apparatus and control method thereof
US20120042041A1 (en) Information processing apparatus, information processing system, information processing method, and program
US11412308B2 (en) Method for providing recommended channel list, and display device according thereto
CN104754277B (zh) 信息处理设备及信息处理方法
CN104750387A (zh) 一种信息处理方法及电子设备
US20120219265A1 (en) Method and apparatus for use with video sequences
JP2023116433A (ja) 仮想現実環境を表示するヘッドアップディスプレイ上に付加的コンテンツを表示するための方法およびシステム
US8667534B2 (en) Method for performing broadcast channel zapping and broadcast receiving apparatus applying the same
KR20150069619A (ko) 디스플레이장치 및 그 제어방법
US11895176B2 (en) Methods, systems, and media for selecting video formats for adaptive video streaming
US9552468B2 (en) Image processing apparatus and control method thereof
JP2007049322A (ja) 番組推薦装置
US20240214443A1 (en) Methods, systems, and media for selecting video formats for adaptive video streaming
KR102569660B1 (ko) 디스플레이장치 및 그 제어방법
KR20120116324A (ko) 디스플레이장치 및 그 제어방법

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid