KR20240013829A - 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량 - Google Patents

콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량 Download PDF

Info

Publication number
KR20240013829A
KR20240013829A KR1020240008470A KR20240008470A KR20240013829A KR 20240013829 A KR20240013829 A KR 20240013829A KR 1020240008470 A KR1020240008470 A KR 1020240008470A KR 20240008470 A KR20240008470 A KR 20240008470A KR 20240013829 A KR20240013829 A KR 20240013829A
Authority
KR
South Korea
Prior art keywords
content
user
emotional state
information
control unit
Prior art date
Application number
KR1020240008470A
Other languages
English (en)
Inventor
이지아
윤석영
한지민
김계윤
우승현
Original Assignee
현대자동차주식회사
기아 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사, 기아 주식회사 filed Critical 현대자동차주식회사
Priority to KR1020240008470A priority Critical patent/KR20240013829A/ko
Publication of KR20240013829A publication Critical patent/KR20240013829A/ko

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/26Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using acoustic output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1876Displaying information according to relevancy according to vehicle situations

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Psychiatry (AREA)
  • Developmental Disabilities (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Mathematical Physics (AREA)

Abstract

사용자의 감정 상태에 기초하여 콘텐츠 표시순위를 결정하는 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량을 제공한다.
일 실시예에 따른 콘텐츠 표시순위 결정 장치는, 적어도 하나의 센서를 이용하여 사용자의 상태를 감지하는 감지부; 재생 이력이 있는 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보 및 콘텐츠가 저장되어 있는 저장부; 및 상기 사용자의 상태에 기초하여 상기 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 상기 감정 상태 정보 및 상기 사용자 반응 정보 중 적어도 하나에 기초하여 저장된 콘텐츠의 콘텐츠 표시순위를 결정하는 제어부;를 포함한다.

Description

콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량{CONTENT DISPLAY RANKING DETERMINING DEVICE, CONTROLLING METHOD OF CONTENT DISPLAY RANKING DETERMINING DEVICE, VEHICLE WHICH THE CONTENT DISPLAY RANKING DETERMINING DEVICE INSTALLED IN}
개시된 발명은 콘텐츠 표시순위를 결정하는 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량에 관한 것이다.
일반적으로 사용자의 요청에 따른 콘텐츠의 표시순위는 콘텐츠 자체에 대한 기준에 따라 결정된다. 예를 들어, 수신된 이메일 콘텐츠는 각각의 콘텐츠의 수신 순서에 따라 표시될 수 있으며, 검색어에 따른 콘텐츠는 각각의 콘텐츠의 카테고리에 따라 표시되거나, 각각의 콘텐츠의 검색어와의 일치도 또는 조회수 등에 따라 표시될 수 있다.
최근에는 시간의 순서, 카테고리 등 콘텐츠 자체 속성 이외의 기준에 따른 표시순위 결정에 대한 연구가 활발히 진행되고 있다.
사용자의 감정 상태에 기초하여 콘텐츠 표시순위를 결정하는 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량을 제공한다.
일 실시예에 따른 콘텐츠 표시순위 결정 장치는, 적어도 하나의 센서를 이용하여 사용자의 상태를 감지하는 감지부; 재생 이력이 있는 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보 및 콘텐츠가 저장되어 있는 저장부; 및 상기 사용자의 상태에 기초하여 상기 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 상기 감정 상태 정보 및 상기 사용자 반응 정보 중 적어도 하나에 기초하여 저장된 콘텐츠의 콘텐츠 표시순위를 결정하는 제어부;를 포함한다.
상기 감정 상태 정보는, 상기 감정 상태의 각성 정도와 대응되는 각성도(arousal) 및 상기 감정 상태의 긍정 정도 또는 부정 정도와 대응되는 유인가(Valence)를 포함할 수 있다.
상기 제어부는, 상기 감정 상태의 긍정 정도가 중립 상태에 비해 높은 경우, 재생 이력이 없는 신규 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 상기 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠를 판단하고, 상기 긍정 피드백 콘텐츠의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 동영상 콘텐츠 및 각성 정도를 완화하는 각성 완화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 텍스트 콘텐츠 및 각성 정도를 강화하는 각성 강화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 사용자의 상태는, 상기 사용자의 얼굴 표정 상태, 신체 상태, 눈 상태 및 음성 상태 중 적어도 하나를 포함할 수 있다.
상기 콘텐츠 표시순위 결정 장치는, 콘텐츠를 출력하는 출력부;를 더 포함하고, 상기 출력부는, 상기 콘텐츠를 시각적으로 출력하는 디스플레이부; 및 상기 콘텐츠를 청각적으로 출력하는 스피커;를 포함할 수 있다.
상기 제어부는, 상기 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠의 출력 위치를 다른 콘텐츠에 비해 상단에 위치하여 출력하거나 상기 표시순위가 우선하는 콘텐츠의 출력 크기를 다른 콘텐츠에 비해 확대하여 출력하도록 상기 디스플레이부를 제어할 수 있다.
상기 제어부는, 상기 콘텐츠 표시순위에 기초하여, 다른 콘텐츠가 표시되기 전에 표시순위가 상기 다른 콘텐츠의 표시순위보다 우선하는 콘텐츠를 우선적으로 출력하도록 상기 디스플레이부를 제어할 수 있다.
상기 제어부는, 상기 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠가 다른 콘텐츠에 비해 우선하여 출력되도록 상기 스피커를 제어할 수 있다.
상기 제어부는, 상기 저장된 콘텐츠를 출력하도록 상기 출력부를 제어하고, 출력된 콘텐츠에 대한 사용자의 상태를 감지하도록 상기 감지부를 제어하여 상기 출력된 콘텐츠에 대한 상기 사용자의 감정 상태를 판단하고, 상기 출력된 콘텐츠와 상기 사용자의 감정 상태와의 관계를 나타내는 상기 사용자 반응 정보를 생성하고, 상기 사용자 반응 정보를 저장하도록 상기 저장부를 제어할 수 있다.
상기 제어부는, 상기 저장된 콘텐츠가 재생 이력이 있는 콘텐츠에 해당하는 경우, 상기 사용자 반응 정보에 기초하여 상기 저장된 콘텐츠에 대응되는 감정 상태를 판단하고, 상기 저장된 콘텐츠에 대응되는 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 상기 저장된 콘텐츠를 미출력하거나 상기 저장된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지를 출력하도록 상기 출력부를 제어할 수 있다.
일 실시예에 따른 콘텐츠 표시순위 결정 장치의 제어방법은, 적어도 하나의 센서를 이용하여 사용자의 상태를 감지하고; 상기 사용자의 상태에 기초하여 상기 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고; 상기 감정 상태 정보 및 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보 중 적어도 하나에 기초하여 저장된 콘텐츠의 콘텐츠 표시순위를 결정하는 것;을 포함할 수 있다.
상기 감정 상태 정보는, 상기 감정 상태의 각성 정도와 대응되는 각성도(arousal) 및 상기 감정 상태의 긍정 정도 또는 부정 정도와 대응되는 유인가(Valence)를 포함할 수 있다.
상기 콘텐츠 표시순위를 결정하는 것은, 상기 감정 상태의 긍정 정도가 중립 상태에 비해 높은 경우, 재생 이력이 없는 신규 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정하는 것;을 포함할 수 있다.
상기 콘텐츠 표시순위를 결정하는 것은, 상기 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 상기 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠를 판단하고; 상기 긍정 피드백 콘텐츠의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정하는 것;을 포함할 수 있다.
상기 콘텐츠 표시순위를 결정하는 것은, 상기 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 동영상 콘텐츠 및 각성 정도를 완화하는 각성 완화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정하는 것;을 포함할 수 있다.
상기 콘텐츠 표시순위를 결정하는 것은, 상기 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 텍스트 콘텐츠 및 각성 정도를 강화하는 각성 강화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정하는 것;을 포함할 수 있다.
상기 콘텐츠 표시순위 결정 장치의 제어방법은, 상기 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠의 출력 위치를 다른 콘텐츠에 비해 상단에 위치하여 출력하거나 상기 표시순위가 우선하는 콘텐츠의 출력 크기를 다른 콘텐츠에 비해 확대하여 출력하는 것;을 더 포함할 수 있다.
상기 콘텐츠 표시순위 결정 장치의 제어방법은, 상기 콘텐츠 표시순위에 기초하여, 다른 콘텐츠가 표시되기 전에 표시순위가 상기 다른 콘텐츠의 표시순위보다 우선하는 콘텐츠를 우선적으로 출력하는 것;을 더 포함할 수 있다.
상기 콘텐츠 표시순위 결정 장치의 제어방법은, 상기 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠가 다른 콘텐츠에 비해 우선하여 출력하는 것;을 더 포함할 수 있다.
상기 콘텐츠 표시순위 결정 장치의 제어방법은, 상기 저장된 콘텐츠가 재생 이력이 있는 콘텐츠에 해당하는 경우, 상기 사용자 반응 정보에 기초하여 상기 저장된 콘텐츠에 대응되는 감정 상태를 판단하고; 상기 저장된 콘텐츠에 대응되는 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 상기 저장된 콘텐츠를 미출력하거나 상기 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지를 출력하는 것;을 더 포함할 수 있다.
일 실시예에 따른 차량은, 적어도 하나의 센서를 이용하여 사용자의 상태를 감지하는 감지부; 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보 및 콘텐츠가 저장되어 있는 저장부; 상기 사용자의 상태에 기초하여 상기 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 상기 감정 상태 정보 및 상기 사용자 반응 정보 중 적어도 하나에 기초하여 콘텐츠 표시순위를 결정하는 제어부; 및 콘텐츠를 시각적으로 출력하는 디스플레이부 및 콘텐츠를 청각적으로 출력하는 스피커를 포함하는 출력부;를 포함한다.
상기 감정 상태 정보는, 상기 감정 상태의 각성 정도와 대응되는 각성도(arousal) 및 상기 감정 상태의 긍정 정도 또는 부정 정도와 대응되는 유인가(Valence)를 포함할 수 있다.
상기 제어부는, 상기 감정 상태의 긍정 정도가 중립 상태에 비해 높은 경우, 재생 이력이 없는 신규 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 상기 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠를 판단하고, 상기 긍정 피드백 콘텐츠의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 동영상 콘텐츠 및 각성 정도를 완화하는 각성 완화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 제어부는, 상기 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 텍스트 콘텐츠 및 각성 정도를 강화하는 각성 강화 콘텐츠 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
상기 차량은, 외부 서버로부터 외부 정황 정보 및 감정 태깅 데이터(Emotion Tagging Data)를 수신하는 통신부;를 더 포함하고, 상기 감지부는, 차량 주행 정보 및 내부 정황 정보를 수집하는 차량.
상기 제어부는, 상기 차량 주행 정보, 상기 내부 정황 정보 및 상기 외부 정황 정보에 기초하여 현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함하는 현재 정황 정보를 획득할 수 있다.
상기 제어부는, 상기 저장된 콘텐츠를 출력하도록 상기 출력부를 제어하고, 상기 사용자의 상태를 감지하도록 상기 감지부를 제어하여 상기 사용자의 감정 상태를 판단하고, 상기 감정 태깅 데이터에 기초하여 상기 사용자의 현재 정황에 대응하는 특정 정황에서 상기 사용자의 감정 상태와 동일 감정 상태를 갖는 다른 차량들의 사용자들을 그룹화할 수 있다.
상기 제어부는, 상기 감정 태깅 데이터로부터 그룹화된 다른 차량들의 사용자들의 감정 상태에 영향을 미치는 주요 정황 인자를 추출할 수 있다.
상기 제어부는, 상기 현재 정황 정보에 포함된 정황 인자들 중 상기 주요 정황 인자에 해당하는 정황 인자가 존재하는지 여부를 판단하고, 상기 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 경우 상기 사용자의 감정 상태가 상기 출력부를 통하여 출력되는 콘텐츠에 의해 유발되는 것으로 판단할 수 있다.
상기 제어부는, 상기 사용자의 감정 상태가 상기 출력부를 통하여 출력되는 콘텐츠에 의해 유발되는 것으로 판단하는 경우, 상기 사용자의 감정 상태에 기초하여 상기 사용자 반응 정보를 획득할 수 있다.
일 측면에 따른 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량에 의하면, 사용자의 감정 상태에 기초하여 콘텐츠 표시순위를 결정하는 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량을 제공한다.
도 1은 일 실시예에 따른 콘텐츠 표시순위 결정 장치의 제어 블록도이다.
도 2a는 일 실시예에 따른 생체신호와 감정인자 간의 상관관계 정보를 나타내는 도면이다.
도 2b는 일 실시예에 따른 감정 모델을 나타낸 도면이다.
도 3은 일 실시예에 따른 유인가(Valence)에 따른 콘텐츠 표시순위 결정에 관한 도면이다.
도 4는 일 실시예에 따른 각성도(Arousal)에 따른 콘텐츠 표시순위 결정에 관한 도면이다.
도 5는 일 실시예에 따른 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하는 모습을 나타낸 도면이다.
도 6은 일 실시예에 따른 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하는 다른 모습을 나타낸 도면이다.
도 7은 일 실시예에 따른 차량의 제어 블록도이다.
도 8은 일 실시예에 따른 감정 태깅 데이터(Emotion Tagging Data)를 나타낸 도면이다.
도 9는 일 실시예에 따른 콘텐츠 표시순위 결정 방법에 있어서, 콘텐츠에 대한 사용자 반응 정보를 획득하는 경우에 관한 순서도이다.
도 10은 일 실시예에 따른 콘텐츠 표시순위 결정 방법에 있어서, 콘텐츠 표시순위를 결정하는 경우에 관한 순서도이다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(field-programmable gate array)/ASIC(application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하에서는 첨부된 도면을 참조하여 일 측면에 따른 콘텐츠 표시순위 결정 방법, 콘텐츠 표시순위 결정 장치 및 콘텐츠 표시순위 결정 장치를 포함하는 차량에 관한 실시예를 상세하게 설명하도록 한다.
도 1은 일 실시예에 따른 콘텐츠 표시순위 결정 장치(100)의 제어 블록도이다.
도1을 참조하면, 일 실시예에 따른 콘텐츠 표시순위 결정 장치(100)는 사용자의 입력을 수신하는 입력부(110), 사용자의 상태를 감지하는 감지부(120), 외부 서버로부터 콘텐츠를 수신하는 통신부(130), 감지된 사용자의 상태에 기초하여 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 감정 상태 정보에 기초하여 콘텐츠 표시순위를 결정하는 제어부(140), 콘텐츠를 출력하는 출력부(150) 및 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보가 저장되어 있는 저장부(160)를 포함할 수 있다.
일 실시예에 따른 입력부(110)는 사용자로부터 콘텐츠 요청에 대한 입력을 수신할 수 있다. 제어부(140)는 입력부(110)를 통하여 수신된 콘텐츠 요청에 기초하여 콘텐츠 요청에 대응하는 콘텐츠를 외부 서버로부터 수신하도록 통신부(130)를 제어할 수 있다.
일 실시예에 따른 콘텐츠 요청은 사용자가 원하는 콘텐츠에 대한 검색어일 수 있으며, 사용자 계정의 이메일 콘텐츠에 대한 요청일 수도 있다. 다만, 이에 한정하는 것은 아니며, 사용자가 원하는 콘텐츠에 대한 요청이면 제한 없이 포함될 수 있다.
일 실시예에 따른 감지부(120)는 적어도 하나의 센서를 이용하여 사용자의 상태를 감지할 수 있다. 제어부(140)는 감지부(120)를 통하여 감지된 사용자의 상태에 기초하여 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득할 수 있다.
사용자의 상태는 사용자의 얼굴 표정 상태, 신체 상태, 눈 상태 및 음성 상태 중 적어도 하나를 포함할 수 있다.
사용자의 상태를 감지하기 위하여 감지부(120)는 적어도 하나의 센서를 포함한다. 감지부(120)는 적어도 하나의 센서를 이용하여 사용자의 상태를 감지 및 측정하고, 측정된 결과를 제어부(140)에 송신할 수 있다.
따라서, 감지부(120)는 사용자의 상태를 감지하고 취득하기 위해 다양한 센서를 포함할 수 있다.
예를 들어, 사용자의 피부의 상태를 측정할 수 있는 전기 피부 반응(GSR, Galvanic Skin Response) 측정기, 사용자의 심장 박동수를 측정할 수 있는 심장박동수(HR, Heart Rate) 측정기, 사용자의 뇌파를 측정할 수 있는 뇌파(EEG, Electroencephalogram) 측정기, 사용자의 얼굴 표정 상태를 분석할 수 있는 안면 분석(face analysis) 장치, 사용자의 음성 상태를 분석할 수 있는 마이크 장치 및 사용자의 눈동자의 위치를 추적할 수 있는 아이 트랙커(Eye Tracker) 중 적어도 하나를 포함할 수 있다.
또한, 감지부(120)가 포함할 수 있는 센서들은 상기된 센서들에 한정되는 것은 아니며, 사람의 상태를 측정할 수 있는 센서이면 이에 포함될 수 있다.
일 실시예에 따른 통신부(130)는 외부 서버로부터 콘텐츠를 수신할 수 있다. 구체적으로, 통신부(130)는 외부 서버로 콘텐츠 요청을 송신할 수 있으며, 외부 서버로부터 콘텐츠를 수신할 수 있다.
일 실시예에 따른 통신부(130)가 수신하는 콘텐츠는 사용자의 콘텐츠 요청에 대응하는 콘텐츠일 수 있다.
일 실시예에 따른 통신부(130)는 사용자의 콘텐츠 요청이 없는 경우에도 외부 서버로부터 콘텐츠를 수신할 수 있다. 예를 들어, 통신부(130)는 지역 정보, 광고 및 교통 정보 등 사용자의 콘텐츠 요청이 없는 경우에도 외부 서버에서 송신되는 푸시(Push) 정보에 해당하는 콘텐츠를 수신할 수 있다.
따라서, 통신부(130)는 외부 서버와 여러 방식을 이용하여 통신을 수행할 수 있다. RF(Radio Frequency), 와이파이(Wireless Fidelity, Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), 엔에프씨(Near Field Communication, NFC), 초광대역(Ultra-Wide Band, UWB) 통신 등 다양한 방식을 이용하여 외부 서버와 정보를 송신하고 수신할 수 있다. 외부 서버와 통신을 수행하는 방법으로 전술한 방법으로 한정되는 것은 아니고 외부 서버와 통신할 수 있는 방법이면, 어느 방식을 사용하여도 무방하다.
또한, 도 1에서는 통신부(130)가 신호를 송신하고 수신하는 단일의 구성요소로 도시하였지만, 이에 한정되는 것은 아니고 신호를 송신하는 송신부(미도시) 및 신호를 수신하는 수신부(미도시)가 별도로 존재하는 것으로 구성될 수 있다.
일 실시예에 따른 제어부(140)는 감지부(120)를 통하여 감지된 사용자의 상태에 기초하여 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득할 수 있다.
획득된 감정 상태 정보는 감정 상태의 각성 정도와 대응되는 각성도(arousal) 및 감정 상태의 긍정 정도 또는 부정 정도와 대응되는 유인가(Valence)를 포함할 수 있다. 사용자의 감정 상태를 획득하는 방법은 이하 도 2에서 설명된다.
일 실시예에 따른 제어부(140)는 감정 상태 정보 및 후술하는 저장부(160)에 저장된 사용자 반응 정보에 기초하여 콘텐츠 표시순위를 결정할 수 있다.
사용자 반응 정보는 콘텐츠와 사용자의 감정 상태와의 관계를 나타내며, 후술하는 저장부(160)에 저장될 수 있다. 즉, 사용자 반응 정보는 재생 이력이 있는 콘텐츠와 재생 이력이 있는 콘텐츠의 재생 시 판단된 사용자의 감정 상태와의 관계를 나타낸 것이다.
구체적으로, 사용자 반응 정보는 재생 이력이 있는 콘텐츠에 대한 정보와 상기 콘텐츠 각각에 대한 사용자의 감정 상태 정보를 포함할 수 있다.
즉, 제어부(140)는 획득된 현재 사용자의 감정 상태 정보 및 이전에 출력된 콘텐츠에 대한 사용자의 감정 상태를 나타내는 사용자 반응 정보에 기초하여 콘텐츠 표시순위를 결정할 수 있다. 콘텐츠 표시순위를 결정하는 방법은 이하 도 3 및 도 4에서 설명된다.
일 실시예에 따른 출력부(150)는 콘텐츠를 출력할 수 있다. 출력부(150)는 콘텐츠를 시각적으로 출력하는 디스플레이부(151) 및 콘텐츠를 청각적으로 출력하는 스피커(152)를 포함할 수 있다.
디스플레이부(151)는 콘텐츠를 표시할 수 있으며, 디스플레이부(151)에 표시되는 화면은 제어부(140)에 의해 제어된다.
구체적으로, 일 실시예에 따른 제어부(140)는 콘텐츠를 표시하도록 디스플레이부(151)를 제어할 수 있으며, 결정된 콘텐츠 표시순위에 기초하여 표시되는 콘텐츠의 출력 위치, 출력 크기 및 출력 효과 등을 조절하도록 디스플레이부(151)를 제어할 수 있다.
디스플레이부(151)는 패널을 포함할 수 있고, 패널은 음극선관(CRT, Cathode Ray Tube) 패널, 액정 디스플레이(LCD, Liquid Crystal Display) 패널, 발광 다이오드(LED, Light Emitting Diode) 패널, 유기 발광 다이오드(OLED, Organic Light Emitting Diode) 패널, 플라즈마 디스플레이 패널(PDP, Plasma Display Panel), 전계 방출 디스플레이(FED, Field Emission Display) 패널 중 어느 하나일 수 있다.
또한, 디스플레이부(151)는 터치 입력을 수신하는 터치 패널을 포함하여 사용자의 입력을 터치로 수신할 수도 있다. 디스플레이부(151)에 터치 패널이 포함되는 경우, 디스플레이(151)가 입력부(110)의 역할을 수행할 수 있다.
스피커(152)는 콘텐츠를 청각적으로 출력할 수 있으며, 스피커(152)에 출력되는 음은 제어부(140)에 의해 제어된다.
구체적으로, 일 실시예에 따른 제어부(140)는 콘텐츠를 출력하도록 스피커(152)를 제어할 수 있으며, 결정된 콘텐츠 표시순위에 기초하여 표시되는 콘텐츠의 재생 순서, 재생 시간 등을 조절하도록 스피커(152)를 제어할 수 있다.
이와 같이, 일 실시예에 따른 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 출력하도록 출력부(150)를 제어할 수 있다.
이를 통해, 사용자는 출력부(150)에서 출력되는 콘텐츠를 시청할 수 있다. 사용자는 출력부(150)에서 출력되는 콘텐츠에 기초하여 다양한 감정을 느낄 수 있으며, 그에 따라 사용자의 상태가 변할 수 있다.
제어부(140)는 출력된 콘텐츠에 대한 사용자의 상태를 감지하도록 감지부(120)를 제어할 수 있으며, 감지된 사용자의 상태에 기초하여 출력된 콘텐츠에 대한 사용자의 감정 상태를 판단할 수 있다.
이를 통해, 제어부(140)는 출력된 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성할 수 있으며, 생성된 사용자 반응 정보를 저장하도록 저장부(160)를 제어할 수 있다.
또한, 제어부(140)는 콘텐츠가 출력될 때 마다 콘텐츠에 대한 사용자의 감정 상태를 판단하여 사용자 반응 정보를 갱신할 수 있다.
일 실시예에 따른 저장부(160)는 제어부(140)로부터 전달받은 사용자 반응 정보를 저장할 수 있다. 사용자 반응 정보는 재생 이력이 있는 콘텐츠와 재생 이력이 있는 콘텐츠의 재생 시 판단된 사용자의 감정 상태와의 관계를 나타낸다. 구체적으로, 사용자 반응 정보는 재생 이력이 있는 콘텐츠에 대한 정보와 상기 콘텐츠 각각에 대한 사용자의 감정 상태에 대한 정보를 포함할 수 있다.
또한, 일 실시예에 따른 저장부(160)는 사용자의 상태에 기초하여 사용자의 감정 상태를 판단하기 위한 감정 모델(200)을 저장할 수 있다. 또한, 저장부(160)는 사용자의 생체신호와 감정인자 간 상관관계 정보를 저장할 수 있으며, 사용자의 생체신호와 감정인자 간 상관관계 정보는 후술하는 콘텐츠에 대한 사용자의 감정 상태를 판단하기 위하여 사용될 수 있다.
또한, 저장부(160)는 통신부(130)를 통하여 수신된 콘텐츠를 저장할 수 있으며, 이외에도 외부 저장 매체 등을 통하여 획득된 콘텐츠를 저장할 수 있다. 또한, 저장부(160)는 콘텐츠 표시순위 결정 장치(100)에 관한 각종 정보를 저장할 수 있다.
저장부(160)는 각종 정보를 저장하기 위해 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
일 실시예에 따른 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠가 재생 이력이 있는 콘텐츠에 해당하는 경우, 사용자 반응 정보에 기초하여 수신된 콘텐츠에 대응되는 감정 상태를 판단할 수 있다.
즉, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보에 포함된 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠가 재생 이력이 있는 콘텐츠에 해당하는지 여부를 판단할 수 있다.
제어부(140)는 수신된 콘텐츠가 사용자 반응 정보에 포함된 재생 이력이 있는 콘텐츠에 해당하는 경우, 사용자 반응 정보에 포함된 재생 이력이 있는 콘텐츠에 대한 사용자의 감정 상태에 대한 정보에 기초하여 수신된 콘텐츠에 대응되는 사용자의 감정 상태를 판단할 수 있다.
제어부(140)는 수신된 콘텐츠에 대응되는 사용자의 감정 상태에 기초하여 수신된 콘텐츠의 표시순위를 결정할 수 있다. 예를 들어, 수신된 콘텐츠에 대응되는 사용자의 감정 상태가 슬픔, 혐오 등의 부정적인 감정에 해당하는 경우, 제어부(140)는 수신된 콘텐츠의 표시순위를 하향 조정하거나 표시순위에서 배제할 수 있다.
또한, 수신된 콘텐츠에 대응되는 사용자의 감정 상태가 부정적인 감정에 해당하는 경우, 일 실시예에 따른 제어부(140)는 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지를 출력하도록 출력부(150)를 제어할 수 있다.
이를 위해, 제어부(140)는 재생 이력이 있는 콘텐츠의 재생 시 사용자의 감정 상태에 기초하여 부정적인 감정을 유발하는 것으로 판단되는 콘텐츠에 대한 출력 제한 여부를 사용자에게 확인할 수 있다.
구체적으로, 제어부(140)는 부정적인 감정을 유발하는 것으로 판단되는 콘텐츠에 대한 출력 제한 여부를 확인하기 위한 선발화("출력 제한 처리하시겠습니까?") 또는 메시지를 출력하도록 출력부(150)를 제어할 수 있다.
또한, 제어부(140)는 입력부(110)를 통하여 출력 제한 여부를 확인하기 위한 선발화 또는 메시지에 대한 사용자의 입력을 수신할 수 있으며, 사용자의 입력에 기초하여 해당 콘텐츠의 출력 제한을 설정할 수 있다. 해당 콘텐츠에 대한 출력 제한 정보는 저장부(160)에 저장될 수 있으며, 사용자 반응 정보의 콘텐츠에 대한 정보에 포함되어 저장될 수 있다.
제어부(140)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램이 저장된 적어도 하나의 메모리 및 저장된 프로그램을 실행시키는 적어도 하나의 프로세서를 포함할 수 있다. 메모리와 프로세서가 복수인 경우에, 이들이 하나의 칩에 집적되는 것도 가능하고, 물리적으로 분리된 위치에 마련되는 것도 가능하다.
도 2a는 일 실시예에 따른 생체신호와 감정인자 간의 상관관계 정보를 나타내는 도면이며, 도2b는 일 실시예에 따른 감정 모델(200)을 나타낸 도면이다.
도2a를 참조하면, 제어부(140)는 감지부(120)가 수집한 사용자의 상태를 나타내는 사용자의 생체신호 및 저장부(160)에 저장되어 있는 사용자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 운전자의 감정 상태 정보를 획득할 수 있다.
GSR(Galvanic Skin Response) 신호는 혐오스러운(Disgust) 감정인자나 화난(Anger) 감정인자와의 상관관계 값이 각각 0.875, 0.775로서, 혐오스러운 감정인자나 화난 감정인자와 높은 관련성을 갖는 것을 알 수 있다. 따라서, GSR 측정기에 의해 수집된 사용자의 생체신호는, 사용자의 감정이 화난 감정 또는 혐오스러운 감정이라고 판단할 수 있는 기초가 된다.
즐거운(Joy) 감정인자의 경우 GSR 신호와의 상관관계 값이 상대적으로 낮은 값(0.353)이므로, 즐거운 감정인자는 GSR 신호와 관련성이 적다고 할 수 있다.
또한, EEG(Electroencephalogram) 신호는, 화난(Anger) 감정인자나 두려운(Fear) 감정인자와의 상관관계 값이 각각 0.864, 0.878으로서, 다른 감정인자보다 화난 감정인자나 두려운 감정인자와 높은 관련성을 가지고 있음을 알 수 있다. 따라서, EEG측정기에 의해 수집된 생체신호는, 사용자의 감정이 화난 감정이나 두려운 감정이라고 판단할 수 있는 기초가 된다.
이와 같이, 제어부(140)는 사용자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 사용자의 감정 상태 정보를 획득할 수 있다. 도 2a에 나타나 있는 정보들은 실험에 의해 나타난 결과일 뿐이므로, 실험 환경에 따라 다양하게 나타날 수 있다.
도 2b를 참조하면, 감정모델(200)은 사용자의 생체신호에 따라 나타나는 사용자의 감정을 그래프 상에 분류해 놓은 것이다. 감정모델(200)은 미리 설정된 감정축을 기준으로 사용자의 감정을 분류한다.
감정축은 센서에 의해 측정된 감정을 기준으로 정해질 수 있다. 예를 들면, 하나의 감정축은 운전자의 음성이나 안면 분석으로 측정 가능한 유인가가 될 수 있으며, 다른 하나의 감정축은 GSR이나 EEG로 측정 가능한 각성도가 될 수 있다.
각성도는 감정 상태의 각성 정도, 흥분 정도 또는 활성 정도를 나타낼 수 있으며, 유인가는 감정 상태의 긍정 정도 또는 부정 정도를 나타낼 수 있다.
감정 모델(200) 상에서 각성도를 나타내는 감정축과 유인가를 나타내는 감정축이 교차하는 지점은 각성도 및 유인가가 중립인 상태를 나타내는 지점으로 사용자의 감정 상태가 긍정적이거나 부정적인 감정 상태로 치우치지 않은 중립 상태임을 나타내는 지점에 해당한다.
사용자의 감정이 중립 상태에 비해 높은 긍정 정도와 높은 각성 정도를 갖는 경우, 해당 감정은 감정1 또는 감정2로 분류될 수 있다. 반대로 사용자의 감정이 음(-)의 긍정 정도 즉, 부정 정도를 갖고 높은 각성 정도를 갖는 경우, 해당 감정은 감정3 또는 감정4로 분류될 수 있다.
이러한 감정모델(200)은 러셀(Russell)의 감정모델(200)일 수 있다. 러셀(Russell)의 감정모델(200)은 x축과 y축 기반의 2차원 그래프로 표시되며, 기쁨(0도), 흥분(45도), 각성(90도), 고통(135도), 불쾌(180), 우울(225도), 졸림(270도), 이완(315도) 위치의 8개 영역으로 감정을 구분한다. 또한, 8개 영역은 총 28개 감정으로 구분되어 있으며 8개 영역에 속하는 유사 감정들로 분류되어 있다.
이러한 감정모델(200)은 통신부(130)를 통해 외부 서버로부터 수신될 수 있으며, 저장부(160)에 저장되어 있을 수 있다. 제어부(140)는 사용자의 생체신호와 감정인자 간 상관관계 정보를 이용하여 획득한 사용자의 감정 상태 정보를 감정모델(200)에 매핑하고, 감정모델(200)과 매핑된 운전자의 감정 상태 정보에 기초하여 콘텐츠에 대한 표시순위를 결정할 수 있다.
예를 들어, 사용자의 생체신호를 분석한 결과 획득된 현재 사용자의 감정 상태 정보가 감정모델(200) 상에서 감정5에 매핑될 수 있다. 감정5에 해당하는 사용자의 감정은 부정적이고 흥분도가 낮은 감정일 수 있다. 따라서 제어부(140)는 부정적이고 흥분도가 낮은 감정인 사용자의 감정 상태 정보에 기초하여 콘텐츠의 표시순위를 결정할 수 있다.
도 3은 일 실시예에 따른 유인가에 따른 콘텐츠 표시순위 결정에 관한 도면이고, 도 4는 일 실시예에 따른 각성도(Arousal)에 따른 콘텐츠 표시순위 결정에 관한 도면이다.
도 3을 참조하면, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태 정보에 기초하여 콘텐츠 표시순위를 결정할 수 있다. 구체적으로, 제어부(140)는 사용자의 감정 상태 정보 상의 긍정 정도 또는 부정 정도를 나타내는 유인가에 기초하여 콘텐츠 표시순위를 결정할 수 있다.
제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 긍정 정도가 중립 상태에 비해 높은 경우, 재생 이력이 없는 신규 콘텐츠(310)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
사용자의 감정 상태가 긍정적인 경우, 사용자는 재생 이력이 없는 신규 콘텐츠(310)에 대한 거부감이 없을 수 있으며, 신규 콘텐츠(310)에 대한 흥미도가 높을 수 있다.
제어부(140)는 감정 모델(200) 상에 매핑된 사용자의 감정 상태 정보에 기초하여 유인가를 나타내는 감정축 상에서 긍정 정도가 중립 상태에 비해 높은 것으로 판단되는 경우, 사용자의 감정 상태가 긍정적임을 판단할 수 있다.
제어부(140)는 사용자의 감정 상태가 긍정적임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 없는 신규 콘텐츠(310)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보 상에 포함되는 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠에 포함된 재생 이력이 없는 신규 컨탠츠(310)를 식별할 수 있다.
제어부(140)는 식별된 재생 이력이 없는 신규 콘텐츠(310)의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는, 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠(330)를 판단하고, 긍정 피드백 콘텐츠(330)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
사용자의 현재 감정 상태가 부정적인 경우, 사용자는 재생 이력이 없는 신규 콘텐츠(310)에 대한 거부감이 있을 수 있다. 이에 따라, 제어부(140)는 재생 이력이 있는 콘텐츠 중 사용자의 긍정적인 감정을 유발하였던 긍정 피드백 콘텐츠(330)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정함으로써, 긍정 피드백 콘텐츠(330)가 사용자에게 제공되어 사용자의 감정 상태가 긍정적인 방향으로 유도될 수 있도록 할 수 있다.
구체적으로, 제어부(140)는 감정 모델(200) 상에 매핑된 사용자의 감정 상태 정보에 기초하여 유인가를 나타내는 감정축 상에서 부정 정도가 중립 상태에 비해 높은 것으로 판단되는 경우, 사용자의 감정 상태가 부정적임을 판단할 수 있다.
제어부(140)는 사용자의 감정 상태가 부정적임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠(330)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠에 포함된 긍정 피드백 콘텐츠(330)의 유형과 대응되는 유형의 콘텐츠를 식별할 수 있다. 이 때, 콘텐츠의 유형에는 콘텐츠의 장르, 제공 방식, 시청 연령 및 제작자 등이 포함될 수 있다.
제어부(140)는 식별된 긍정 피드백 콘텐츠(330)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는, 감정 상태가 중립 상태에 해당하는 경우, 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 사용자의 관심을 유발하였던 관심 콘텐츠(320)를 판단하고, 관심 콘텐츠(320)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
사용자의 현재 감정 상태가 중립 상태인 경우, 사용자는 재생 이력이 없는 신규 콘텐츠(310)에 대한 거부감이 있을 수 있다. 이에 따라, 제어부(140)는 재생 이력이 있는 콘텐츠 중 사용자의 관심을 유발하였던 관심 콘텐츠(320)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정함으로써, 관심 콘텐츠(320)가 사용자에게 제공되어 사용자의 감정 상태가 긍정적인 방향으로 유도될 수 있도록 할 수 있다.
구체적으로, 제어부(140)는 감정 모델(200) 상에 매핑된 사용자의 감정 상태 정보에 기초하여 유인가를 나타내는 감정축 상에서 사용자의 감정 상태가 중립 상태에 매핑되는 것으로 판단되는 경우, 사용자의 감정 상태가 중립 상태임을 판단할 수 있다.
제어부(140)는 사용자의 감정 상태가 중립 상태임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 사용자의 관심을 유발하였던 관심 콘텐츠(320)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠에 대한 사용자의 감정 상태가 중립 상태에 비해 높은 각성 상태를 나타내는 콘텐츠를 관심 콘텐츠(320)로 식별할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 사용자 반응 정보에 기초하여 재생 이력의 빈도가 높은 콘텐츠를 관심 콘텐츠(320)로 식별할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠에 포함된 관심 콘텐츠(320)의 유형과 대응되는 유형의 콘텐츠를 식별할 수 있다. 이 때, 콘텐츠의 유형에는 콘텐츠의 장르, 제공 방식, 시청 연령 및 제작자 등이 포함될 수 있다.
제어부(140)는 식별된 관심 콘텐츠(320)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
따라서, 제어부(140)는 사용자의 감정 상태 정보 상의 유인가에 따라 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 긍정 정도 및 부정 정도를 판단할 수 있으며, 사용자의 감정 상태에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
도 4를 참조하면, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태 정보에 기초하여 콘텐츠 표시순위를 결정할 수 있다. 구체적으로, 제어부(140)는 사용자의 감정 상태 정보 상의 각성 정도를 나타내는 각성도에 기초하여 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는 감정 모델(200) 상에 매핑된 사용자의 감정 상태 정보에 기초하여 각성도를 나타내는 감정축 상에서 각성 정도가 중립 상태에 비해 높은 것으로 판단되는 경우, 사용자의 감정 상태가 흥분 상태임을 판단할 수 있다.
제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 동영상 콘텐츠(411) 및 각성 정도를 완화하는 각성 완화 콘텐츠(412) 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
사용자의 현재 감정 상태가 각성 정도가 높아 흥분 상태인 경우, 사용자는 텍스트로 제공되는 콘텐츠에 집중하지 못할 수 있다. 이에 따라, 일 실시예에 따른 제어부(140)는 흥분 상태의 사용자가 집중할 수 있도록 동영상 콘텐츠(411)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 흥분 상태의 사용자의 각성 정도를 완화할 수 있도록 각성 완화 콘텐츠(412)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
각성 완화 콘텐츠(412)는 자연 풍경 영상, 멜로 영화 및 클레식 음악 등이 포함될 수 있으며, 사용자의 각성 정도를 완화할 수 있는 콘텐츠이면 제한 없이 포함될 수 있다.
즉, 제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 수신된 콘텐츠에 포함되는 동영상 콘텐츠(411) 및 각성 완화 콘텐츠(412) 중 적어도 하나를 식별하고, 식별된 동영상 콘텐츠(411) 또는 각성 완화 콘텐츠(412)의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태가 흥분 상태임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 각성 정도가 중립 상태에 비해 낮은 감정 상태와 대응되는 각성 완화 콘텐츠(412)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠에 포함된 각성 완화 콘텐츠(412)의 유형과 대응되는 유형의 콘텐츠를 식별할 수 있다.
제어부(140)는 식별된 각성 완화 콘텐츠(412)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는 감정 모델(200) 상에 매핑된 사용자의 감정 상태 정보에 기초하여 각성도를 나타내는 감정축 상에서 각성 정도가 중립 상태에 비해 낮은 것으로 판단되는 경우, 사용자의 감정 상태가 긴장 완화 상태임을 판단할 수 있다.
제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 텍스트 콘텐츠(421) 및 각성 정도를 강화하는 각성 강화 콘텐츠(422) 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
사용자의 현재 감정 상태가 각성 정도가 낮아 긴장 완화 상태인 경우, 사용자는 텍스트로 제공되는 콘텐츠에 집중할 수 있다. 이에 따라, 일 실시예에 따른 제어부(140)는 긴장 완화 상태의 사용자가 집중할 수 있도록 텍스트 콘텐츠(421)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 긴장 완화 상태의 사용자의 각성 정도를 강화할 수 있도록 각성 강화 콘텐츠(422)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
각성 강화 콘텐츠(422)는 코미디 영상, 액션 영화 및 힙합 음악 등이 포함될 수 있으며, 사용자의 각성 정도를 강화할 수 있는 콘텐츠이면 제한 없이 포함될 수 있다.
*즉, 제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 수신된 콘텐츠에 포함되는 텍스트 콘텐츠(421) 및 각성 강화 콘텐츠(422) 중 적어도 하나를 식별하고, 식별된 텍스트 콘텐츠(421) 또는 각성 강화 콘텐츠(422)의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태가 긴장 완화 상태임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 각성 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 각성 강화 콘텐츠(422)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보와 비교하여 수신된 콘텐츠에 포함된 각성 강화 콘텐츠(422)의 유형과 대응되는 유형의 콘텐츠를 식별할 수 있다.
제어부(140)는 식별된 각성 강화 콘텐츠(422)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
따라서, 제어부(140)는 사용자의 감정 상태 정보 상의 각성도에 따라 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 각성 정도를 판단할 수 있으며, 감정 상태의 각성 정도에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
또한, 제어부(140)는 사용자의 감정 상태 정보 상의 각성도 및 유인가를 동시에 고려하여 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 각성 정도, 긍정 정도 및 부정 정도를 판단할 수 있으며, 감정 상태의 각성 정도, 긍정 정도 및 부정 정도에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
도 5는 일 실시예에 따른 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하는 모습을 나타낸 도면이다.
도 5를 참조하면, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태 정보 및 사용자 반응 정보에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는 사용자의 감정 상태 정보 및 사용자 반응 정보에 기초하여 통신부(130)를 통하여 수신된 콘텐츠 중 적어도 하나의 콘텐츠를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
예를 들어, 제어부(140)는 사용자의 감정 상태 정보 및 사용자 반응 정보에 기초하여 통신부(130)를 통하여 수신된 콘텐츠 중 제1 콘텐츠(510)의 표시순위를 제2 콘텐츠(520)에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 통신부(130)를 통하여 수신된 콘텐츠는 제1 콘텐츠(510) 및 제2 콘텐츠(520)를 포함한다. 다만, 일 실시예에 따른 통신부(130)를 통하여 수신된 콘텐츠가 포함하는 콘텐츠의 개수에는 제한이 없다.
일 실시예에 따른 제어부(140)는 결정된 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하도록 출력부(150)를 제어할 수 있다. 구체적으로, 제어부(140)는 표시순위가 우선하는 적어도 하나의 콘텐츠가 다른 콘테츠에 비해 우선하여 표시되도록 출력부(150)를 제어할 수 있다.
예를 들어, 제어부(140)는 표시순위가 우선하는 제1 콘텐츠(510)가 제2 콘텐츠(520)에 비해 우선하여 표시되도록 출력부(150)를 제어할 수 있다.
구체적으로, 일 실시예에 따른 제어부(140)는 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠의 출력 위치를 다른 콘텐츠에 비해 상단에 위치하여 출력하도록 디스플레이부(151)를 제어할 수 있다. 도 5에 도시된 바와 같이, 표시순위가 우선하는 제1 콘텐츠(510)의 출력 위치는 제2 콘텐츠(520)에 비해 상단일 수 있다.
또한, 일 실시예에 따른 제어부(140)는 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠의 출력 크기를 다른 콘텐츠에 비해 확대하여 출력하도록 디스플레이부(151)를 제어할 수 있다. 도 5에 도시된 바와 같이, 표시순위가 우선하는 제1 콘텐츠(510)의 출력 크기는 제2 콘텐츠(520)에 비해 확대될 수 있다.
또한, 일 실시예에 따른 제어부(140)는 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠의 출력 효과를 다른 콘텐츠의 출력 효과와 다르게 설정할 수 있다. 제어부(140)는 설정된 출력 효과에 기초하여 콘텐츠를 출력하도록 디스플레이부(151)를 제어할 수 있다.
예를 들어, 제어부(140)는 표시순위가 우선하는 콘텐츠를 좌우 방향 및 상하 방향 중 적어도 하나의 방향으로 흔들리며 출력되도록 출력 효과를 설정할 수 있다. 또한, 제어부(140)는 표시순위가 우선하는 콘텐츠가 하이라이트 표시되어 출력되도록 출력 효과를 설정할 수 있다. 또한, 제어부(140)는 표시순위가 우선하는 콘텐츠가 다른 콘텐츠와 다른 색상으로 표시되어 출력되도록 출력 효과를 설정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠를 다른 콘텐츠에 비해 우선하여 출력하도록 디스플레이부(151)를 제어할 수 있다.
예를 들어, 제어부(140)는, 여러 콘텐츠가 동시에 표시되는 것이 아닌 팝업 형식으로 단독의 콘텐츠가 표시되는 경우, 표시순위가 우선하는 콘텐츠를 다른 콘텐츠에 비해 우선하여 출력하도록 디스플레이부(151)를 제어할 수 있다. 이 경우, 표시순위가 우선하는 콘텐츠만이 디스플레이부(151)에 단독으로 표시될 수 있다. 즉, 제어부(140)는, 콘텐츠 표시순위에 기초하여, 다른 콘텐츠가 표시되기 전에 표시순위가 다른 콘텐츠의 표시순위보다 우선하는 콘텐츠를 우선적으로 출력하도록 디스플레이부(151)를 제어할 수 있다.
다만, 표시순위가 우선하는 콘텐츠의 출력 효과를 다른 콘텐츠의 출력 효과와 다르게 설정하는 방법은 상술하는 예에 한정되지 않으며, 표시순위가 우선하는 콘텐츠가 다른 콘텐츠에 비해 강조될 수 있는 방법이면 제한 없이 포함될 수 있다.
또한, 일 실시예에 따른 제어부(140)는 콘텐츠 표시순위에 기초하여, 표시순위가 우선하는 콘텐츠가 다른 콘텐츠에 비해 우선하여 출력되도록 스피커(152)를 제어할 수 있다.
도 6은 일 실시예에 따른 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하는 다른 모습을 나타낸 도면이다.
도 6을 참조하면, 일 실시예에 따른 제어부(140)는 저장부(160)에 저장된 사용자 반응 정보에 기초하여 수신된 콘텐츠에 대응되는 사용자의 감정 상태를 판단하고, 수신된 콘텐츠에 대응되는 사용자의 감정 상태가 부정적인 감정에 해당하는 경우, 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지(610)를 출력하도록 출력부(150)를 제어할 수 있다.
즉, 제어부(140)는 수신된 콘텐츠가 재생 이력이 있는 콘텐츠에 해당하는 경우, 사용자 반응 정보에 기초하여 수신된 콘텐츠에 대응되는 감정 상태를 판단할 수 있다.
제어부(140)는 수신된 콘텐츠에 대응되는 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 수신된 콘텐츠를 미출력하거나 상기 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지(610)를 출력하도록 출력부(150)를 제어할 수 있다.
구체적으로, 제어부(140)는 통신부(130)를 통하여 수신된 콘텐츠를 저장된 사용자 반응 정보에 포함된 재생 이력이 있는 콘텐츠에 대한 정보와 비교할 수 있다.
제어부(140)는 사용자 반응 정보에 포함된 재생 이력이 있는 콘텐츠에 대한 정보 상에 수신된 콘텐츠와 대응되는 콘텐츠가 있는 경우, 사용자 반응 정보에 기초하여 수신된 콘텐츠와 대응되는 콘텐츠에 대한 사용자의 감정 상태를 확인할 수 있다.
제어부(140)는 수신된 콘텐츠와 대응되는 콘텐츠에 대한 사용자의 감정 상태가 부정 정도가 중립 상태 보다 높은 부정적인 감정에 해당함을 확인할 수 있으며, 이 경우 제어부(140)는 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지(610)를 출력하도록 출력부(150)를 제어할 수 있다.
즉, 일 실시예에 따른 제어부(140)는 사용자 반응 정보 상에 수신된 콘텐츠에 대응하는 재생 이력이 있는 콘텐츠가 존재하고, 수신된 콘텐츠에 대응하는 재생 이력이 있는 콘텐츠에 대한 사용자의 감정 상태가 부정적이었음을 확인하는 경우, 수신된 콘텐츠를 표시순위에서 배제하거나 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지(610)를 출력하도록 출력부(150)를 제어할 수 있다.
다만, 일 실시예에 따른 제어부(140)는 수신된 콘텐츠에 대응하는 사용자 반응 정보 상의 재생 이력이 있는 콘텐츠에 대한 사용자의 감정 상태가 부정적이었음을 확인하는 경우에도, 수신된 콘텐츠를 표시순위에서 배제하지 않을 수 있다.
구체적으로, 일 실시예에 따른 제어부(140)는 콘텐츠를 시청하는 사용자의 감정 상태에 기초하여 부정적인 감정을 유발하는 것으로 판단되는 콘텐츠에 대한 출력 제한 여부를 사용자에게 확인할 수 있다.
구체적으로, 제어부(140)는 부정적인 감정을 유발하는 것으로 판단되는 콘텐츠에 대한 출력 제한 여부를 확인하기 위한 선발화("출력 제한 처리하시겠습니까?") 또는 메시지를 출력하도록 출력부(150)를 제어할 수 있다.
또한, 제어부(140)는 입력부(110)를 통하여 출력 제한 여부를 확인하기 위한 선발화 또는 메시지에 대한 사용자의 입력을 수신할 수 있으며, 사용자의 입력에 기초하여 해당 콘텐츠의 출력 제한을 설정할 수 있다. 해당 콘텐츠에 대한 출력 제한 정보는 저장부(160)에 저장될 수 있으며, 사용자 반응 정보의 콘텐츠에 대한 정보에 포함되어 저장될 수 있다.
즉, 일 실시예에 따른 제어부(140)는 수신된 콘텐츠에 대응하는 사용자 반응 정보 상의 재생 이력이 있는 콘텐츠에 대한 사용자의 감정 상태가 부정적이었음을 확인하는 경우에도, 사용자 반응 정보 상의 출력 제한 정보에 기초하여 해당 콘텐츠가 출력 제한 콘텐츠에 해당함을 확인한 후에 수신된 콘텐츠를 표시순위에서 배제하거나 수신된 콘텐츠가 출력 제한 콘텐츠에 해당함을 나타내는 메시지(610)를 출력하도록 출력부(150)를 제어할 수 있다.
도 7은 일 실시예에 따른 차량(700)의 제어 블록도이고, 도 8은 일 실시예에 따른 감정 태깅 데이터(800, Emotion Tagging Data)를 나타낸 도면이다.
도 7를 참조하면, 일 실시예에 따른 차량(700)은 사용자의 입력을 수신하는 입력부(710), 사용자의 상태를 감지하는 감지부(720), 외부 서버로부터 콘텐츠를 수신하는 통신부(730), 감지된 사용자의 상태에 기초하여 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 감정 상태 정보에 기초하여 콘텐츠 표시순위를 결정하는 제어부(740), 콘텐츠를 출력하는 출력부(750) 및 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보가 저장되어 있는 저장부(760)를 포함할 수 있다. 이 때, 사용자는 차량(700) 내의 운전자 및 동승자를 포함할 수 있다.
도 7에 도시된 입력부(710), 감지부(720), 통신부(730), 제어부(740), 출력부(750) 및 저장부(760)는 도 1에서 설명한 입력부(110), 감지부(120), 통신부(130), 제어부(140), 출력부(150) 및 저장부(160)와 기본적으로 동일한바 중복되는 설명은 생략하고 추가적인 구성을 가지고 있는 감지부(720), 통신부(730), 제어부(740) 및 저장부(760)를 중심으로 설명하도록 한다.
일 실시예에 따른 감지부(720)는 차량(700)의 주행 정보를 수집하는 복수의 센서를 포함할 수 있다. 차량 주행 정보에는 운전자가 조작하는 스티어링 휠의 조향 각도 및 토크 정보, 순간 가속도 정보, 액셀레이터를 밟는 횟수 및 강도, 브레이크를 밟는 횟수 및 강도, 차량 운행 중 차선을 넘어가는 횟수 및 범위, 도로 종류(고속 도로 또는 일반 국도)에 따른 차량 속도 정보, 앞차와의 차간 거리 및 차간 거리 유지율 등이 포함될 수 있다.
또한, 일 실시예에 따른 감지부(720)는 차량(700)의 내부 정황(situation) 정보를 수집할 수 있다. 내부 정황 정보는 동승자 탑승 여부, 운전자 및 동승자 간의 대화 정보, 출력부(750)를 통한 콘텐츠 출력 정보, 차량 내부 밝기 정보, 차량 내부 온도 정보 등을 포함할 수 있다.
일 실시예에 따른 통신부(730)는 외부 서버와 통신하여 각종 정보를 송수신할 수 있다. 통신부(730)는 외부 서버로부터 외부 정황 정보와 감정 태깅 데이터(800)를 수신할 수 있다.
외부 정황(situation) 정보는 현재 위치, 현재 시간, 날씨, 교통 상황 정보, 도로 정보, 차량(700)이 주행 중인 도로 상에서 발생한 이벤트 정보 중 적어도 하나를 포함하는 정보이다. 교통 상황 정보는 현재 교통 상황이 원활한지, 정체 중인지에 대한 정보를 포함할 수 있고, 도로 정보는 신호등, 횡단보도, 도로 종류 및 형태, 도로 제한 속도에 대한 정보를 포함할 수 있다.
이하, ‘정황 정보’는 상술한 차량 주행 정보, 내부 정황 정보 및 외부 정황 정보를 포함하는 포괄적인 용어로 사용된다.
감정 태깅 데이터(800)는 복수의 사용자들이 특정 정황에서 표출한 감정 정보를 모아둔 데이터를 의미한다. 감정 태깅 데이터(800)는 이하 도 8에서 자세히 설명된다.
일 실시예에 따른 저장부(760)는 통신부(730)를 통해 수신한 외부 정황 정보 및 감정 태깅 데이터(800)를 저장할 수 있다. 저장부(760)에 저장된 정보들은 제어부(740)로 전송될 수 있고, 통신부(730)를 통해 외부 서버로 전송될 수 있다.
일 실시예에 따른 제어부(740)는 감지부(720)를 통하여 감지된 사용자의 상태에 기초하여 사용자의 현재 감정 상태 정보를 획득하고, 감정 태깅 데이터(800)로부터 사용자의 현재 정황에 대응하는 감정 상태 정보를 추출하여 사용자의 현재 감정 정보와 비교하고, 비교 결과에 따라 사용자 반응 정보를 생성할 수 있다.
구체적으로, 제어부(740)는 비교 결과에 따라 사용자의 현재 감정 상태 정보가 출력부(750)를 통하여 출력되는 콘텐츠에 의해 유발되었는지 여부를 판단할 수 있다.
제어부(740)는 사용자의 현재 감정 상태 정보가 출력부(750)를 통하여 출력되는 콘텐츠에 의해 유발된 것으로 판단하는 경우, 출력부(750)를 통하여 출력되는 콘텐츠에 대한 사용자의 감정 상태를 나타내는 사용자 반응 정보를 생성할 수 있다.
즉, 사용자 반응 정보는 사용자의 현재 감정 상태가 출력되는 콘텐츠에 의해 유발되는 경우에만 출력되는 콘텐츠와 감정 상태와의 관계를 나타내는 정보로서 생성될 수 있다.
일 실시예에 따른 제어부(740)는 감정 태깅 데이터(800)로부터 사용자의 현재 감정 상태 정보와 동일한 감정 상태를 나타내는 다른 차량의 사용자들을 그룹화할 수 있다.
제어부(740)는 감정 태깅 데이터(800)로부터 사용자의 감정에 영향을 미치는 주요 정황 인자를 추출할 수 있다.
주요 정황 인자는, 그룹화된 다른 차량의 사용자들이 기준 장소 또는 기준 조건에서 표출한 감정 상태 정보의 원인이 된 정황 인자 중 공통적인 정황 인자들을 의미한다.
제어부(740)는, 차량 주행 정보, 내부 정황 정보 및 외부 정황 정보에 기초하여 현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함하는 현재 정황 정보를 획득할 수 있다.
또한, 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 각각의 정황 인자를 주요 정황 인자와 비교할 수 있다. 제어부(740)는 비교 결과에 기초하여 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자의 존재 여부를 판단할 수 있다.
제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하는 것으로 판단하는 경우, 차량(700)의 사용자의 감정 상태가 출력부(750)를 통하여 출력되는 콘텐츠에 의한 감정 상태가 아님을 판단할 수 있다.
따라서, 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하는 것으로 판단하는 경우, 현재의 감정 상태 정보에 기초하여서는 콘텐츠와 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성하지 않는다.
제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 것으로 판단하는 경우, 차량(700)의 사용자의 감정 상태가 출력부(750)를 통하여 출력되는 콘텐츠에 의한 감정 상태임을 판단할 수 있다.
따라서, 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 것으로 판단하는 경우, 현재의 감정 상태 정보에 기초하여 콘텐츠와 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성할 수 있다.
이와 같이, 차량(700)의 현재 정황 정보에 포함된 정황 인자들을 주요 정황 인자와 비교하고, 비교 결과에 기초로 특정 정황 정보에 대한 차량(700)의 사용자의 현재 감정 상태 정보의 의존성을 보다 정확히 파악할 수 있다. 즉, 인식된 사용자의 현재 감정 상태 정보가 출력부(750)에서 출력되는 콘텐츠 때문인 것인지, 그 외의 다른 정황 때문인 것인지가 파악될 수 있다.
도 8을 참조하면, 감정 태깅 데이터(800)는 다른 차량들의 사용자들이 특정 정황에서 표출한 감정 정보를 모아둔 데이터이다. 구체적으로, 외부 서버는 복수의 사용자들이 차량 주행 중 특정 장소에서 특정 시간에 발현한 감정 정보를 수집하여 저장한다.
예를 들면, 외부 서버는 사용자 A가 강남 사거리에서 14시에 심한 교통 정체 상황인 때 발현한 화난 감정, 사용자B가 강남 사거리에서 16시에 심한 교통 정체 상황인 때 발현한 화난 감정, 사용자 C가 강남 사거리에서 18시에 심한 교통 정체 상황인 때 발현한 화난 감정, 사용자 D가 강남 사거리에서 02시에 원활한 교통 상황인 때 발현한 행복한 감정을 수집하여 저장할 수 있다.
여기서 정황 정보는 장소, 시간, 교통 상황, 가속 정보, 신호등 수, 날씨, AVN 작동 상태 등을 정황 인자로 포함할 수 있다.
도 8에는 강남 사거리라는 장소에서 다양한 시간에 복수의 사용자들이 발현한 감정 정보가 표시되어 있으나, 이에 한정되는 것은 아니며, 다양한 정황에서 복수의 사용자들이 발현한 다양한 감정 정보가 수집될 수 있다.
도 8에서 사용자 A, B, C는 차량(700)의 사용자와 동일 감정을 갖는 사용자들에 해당한다. 즉, 제어부(740)는 외부 서버로부터 수신한 감정 태깅 데이터(800)에서 사용자와 동일한 감정을 갖는 다른 사용자들이 특정 정황에 대해 발현한 감정 상태 정보를 추출할 수 있다. 특정 정황은 차량(700)의 사용자의 현재 정황을 의미한다.
일 실시예에 따른 제어부(740)는 감정 태깅 데이터(800)로부터 사용자의 현재 감정 상태 정보와 동일한 감정 상태를 나타내는 다른 차량들의 사용자들을 그룹화할 수 있다.
주요 정황 인자는 다음과 같은 방법으로 추출될 수 있다.
차량(700)의 사용자와 그룹화된 다른 사용자들이 기준 장소 또는 기준 조건에서 표출한 감정 상태 정보가 동일한 경우, 해당 감정 상태 정보의 원인이 된 정황 인자 중 공통적인 정황 인자들이 주요 정황 인자로 추출될 수 있다.
예를 들면, 도 8에 도시된 것과는 다르게, 사용자 A는 강남 사거리에서 14시 경 교통 체증, 저속 주행, 많은 신호등 수, 주변 소음이 심한 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수 및 주변 소음이 화난 감정의 원인이 된 정황 인자일 수 있다.
사용자 B는 강남 사거리에서 14시 경 교통 체증, 저속 주행, 많은 신호등 수, 높은 습도, 높은 온도 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수, 높은 습도, 높은 온도가 화난 감정의 원인이 된 정황 인자일 수 있다.
사용자 C는 강남 사거리에서 14시 경 교통 체증, 저속 주행, 많은 신호등 수, 도로 정비 공사 정황에서 화난 감정을 표출할 수 있다. 이 경우, 교통 체증, 저속 주행, 많은 신호등 수, 도로 정비 공사가 화난 감정의 원인이 된 정황 인자일 수 있다.
즉, 그룹화된 사용자 A, B, C가 기준 장소인 강남 사거리에서 모두 화난 감정을 표출하였고, 이 때, 화난 감정의 원인이 된 정황 인자 중 공통되는 정황 인자인 교통 체증, 저속 주행, 많은 신호등 수가 주요 정황 인자로 추출될 수 있다.
일 실시예에 따른 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 각각의 정황 인자를 주요 정황 인자와 비교할 수 있다. 제어부(740)는 비교 결과에 기초하여 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자의 존재 여부를 판단할 수 있다.
예를 들어, 차량(700)의 현재 정황 정보가 교통 체증, 저속 주행 및 많은 신호등 수 중 적어도 하나를 포함하는 경우, 차량(700)의 현재 정황 정보는 그룹화된 사용자 A, B, C에 기초하여 추출된 주요 정황 인자에 해당하는 정황 인자를 포함한다.
제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하는 것으로 판단하는 경우, 차량(700)의 사용자의 감정 상태가 출력부(750)를 통하여 출력되는 콘텐츠에 의한 감정 상태가 아님을 판단할 수 있다.
따라서, 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하는 것으로 판단하는 경우, 현재의 감정 상태 정보에 기초하여서는 콘텐츠와 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성하지 않는다.
제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 것으로 판단하는 경우, 차량(700)의 사용자의 감정 상태가 출력부(750)를 통하여 출력되는 콘텐츠에 의한 감정 상태임을 판단할 수 있다.
따라서, 제어부(740)는 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 것으로 판단하는 경우, 현재의 감정 상태 정보에 기초하여 콘텐츠와 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성할 수 있다.
이와 같이, 차량(700)의 현재 정황 정보에 포함된 정황 인자들을 주요 정황 인자와 비교하고, 비교 결과에 기초로 특정 정황 정보에 대한 차량(700)의 사용자의 현재 감정 상태 정보의 의존성을 보다 정확히 파악할 수 있다. 즉, 인식된 사용자의 현재 감정 상태 정보가 출력부(750)에서 출력되는 콘텐츠 때문인 것인지, 그 외의 다른 정황 때문인 것인지가 파악될 수 있다.
이를 통해, 차량(700)은 사용자 반응 정보의 신뢰도를 높일 수 있으며, 신뢰도 높은 사용자 반응 정보에 기초하여 사용자의 감정 상태 정보에 맞는 콘텐츠 표시순위를 결정할 수 있다.
구체적으로, 차량(700)의 제어부(740)는 감정 태깅 데이터(800)에 기초하여 획득한 사용자 반응 정보와 사용자의 현재 감정 상태 정보에 기초하여 관심 콘텐츠(320), 긍정 피드백 콘텐츠(330), 각성 완화 콘텐츠(412) 및 각성 강화 콘텐츠(422)의 표시순위를 다른 콘텐츠에 비해 우선하도록 표시순위를 결정할 수 있다.
이하, 일 실시예에 따른 콘텐츠 표시순위 결정 장치(100) 및 차량(700)의 제어 방법을 설명하기로 한다. 후술하는 콘텐츠 표시순위 결정 장치(100) 및 차량(700)의 제어 방법에는 전술한 실시예에 따른 콘텐츠 표시순위 결정 장치(100) 및 차량(700)가 적용될 수 있다. 따라서, 앞서 도 1 내지 도 8을 참조하여 설명한 내용은 특별한 언급이 없더라도 일 실시예에 따른 콘텐츠 표시순위 결정 장치(100) 및 차량(700)의 제어 방법에도 동일하게 적용 가능하다.
도 9는 일 실시예에 따른 콘텐츠 표시순위 결정 방법에 있어서, 콘텐츠에 대한 사용자 반응 정보를 획득하는 경우에 관한 순서도이다.
도 9를 참조하면, 일 실시예에 따른 제어부(140)는 통신부(130)를 통하여 콘텐츠를 수신하도록 할 수 있다(910). 또한, 제어부(140)는 출력부(150)를 통하여 콘텐츠를 출력하도록 할 수 있다(920).
즉, 제어부(140)는 외부 서버로부터 콘텐츠를 수신하도록 통신부(130)를 제어할 수 있으며, 수신된 콘텐츠를 출력하도록 출력부(150)를 제어할 수 있다.
이를 통해, 사용자는 출력부(150)에서 출력되는 콘텐츠를 시청할 수 있다. 또한, 사용자는 출력부(150)에서 출력되는 콘텐츠에 기초하여 다양한 감정을 느낄 수 있으며, 그에 따라 사용자의 상태가 변할 수 있다.
일 실시예에 따른 제어부(140)는 감지부(120)를 통하여 사용자 상태를 감지할 수 있다(930). 즉, 제어부(140)는 출력된 콘텐츠에 대한 사용자의 상태를 감지하도록 감지부(120)를 제어할 수 있다.
일 실시예에 따른 제어부(140)는 사용자의 상태에 기초하여 콘텐츠에 대한 사용자의 감정 상태 정보를 획득할 수 있다(940). 즉, 제어부(140)는 감지된 사용자의 상태에 기초하여 출력된 콘텐츠에 대한 사용자의 감정 상태를 판단할 수 있으며, 이에 기초하여 사용자의 감정 상태 정보를 획득할 수 있다.
일 실시예에 따른 제어부(140)는 감정 상태 정보에 기초하여 콘텐츠에 대한 사용자 반응 정보를 획득할 수 있다(950). 즉, 제어부(140)는 감정 상태 정보에 기초하여 출력된 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보를 획득할 수 있다.
일 실시예에 따른 제어부(140)는 저장부(160)를 통하여 콘텐츠에 대한 사용자 반응 정보를 저장할 수 있다(960). 즉, 제어부(140)는 생성된 사용자 반응 정보를 저장하도록 저장부(160)를 제어할 수 있다.
차량(700)의 입력부(710), 감지부(720), 통신부(730), 제어부(740), 출력부(750) 및 저장부(760)의 동작은 도 9에서 설명한 입력부(110), 감지부(120), 통신부(130), 제어부(140), 출력부(150) 및 저장부(160)의 동작과 동일할 수 있다.
다만, 차량(700)은 감정 태깅 정보(800)에 기초하여 차량(700)의 현재 정황 정보에 포함된 정황 인자들 중 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 것으로 판단하는 경우, 현재의 감정 상태 정보에 기초하여 콘텐츠와 감정 상태와의 관계를 나타내는 사용자 반응 정보를 생성할 수 있다.
도 10은 일 실시예에 따른 콘텐츠 표시순위 결정 방법에 있어서, 콘텐츠 표시순위를 결정하는 경우에 관한 순서도이다.
도 10를 참조하면, 일 실시예에 따른 제어부(140)는 통신부(130)를 통하여 콘텐츠를 수신하도록 할 수 있다(1010). 즉, 제어부(140)는 외부 서버로부터 콘텐츠를 수신하도록 통신부(130)를 제어할 수 있다.
일 실시예에 따른 제어부(140)는 감지부(120)를 통하여 사용자 상태를 감지할 수 있다(1020). 즉, 제어부(140)는 출력된 콘텐츠에 대한 사용자의 상태를 감지하도록 감지부(120)를 제어할 수 있다.
일 실시예에 따른 제어부(140)는 사용자의 상태에 기초하여 콘텐츠에 대한 사용자의 감정 상태 정보를 획득할 수 있다(1030). 즉, 제어부(140)는 감지된 사용자의 상태에 기초하여 출력된 콘텐츠에 대한 사용자의 감정 상태를 판단할 수 있으며, 이에 기초하여 사용자의 감정 상태 정보를 획득할 수 있다.
일 실시예에 따른 제어부(140)는 감정 상태 정보 및 저장된 사용자 반응 정보에 기초하여 콘텐츠 표시순위를 결정할 수 있다(1040). 또한, 일 실시예에 따른 제어부(140)는 결정된 콘텐츠 표시순위에 기초하여 콘텐츠를 출력하도록 출력부(150)를 제어할 수 있다(1050).
구체적으로, 제어부(140)는 사용자의 감정 상태 정보 상의 긍정 정도 또는 부정 정도를 나타내는 유인가에 기초하여 콘텐츠 표시순위를 결정할 수 있다.
제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 긍정 정도가 중립 상태에 비해 높은 경우, 재생 이력이 없는 신규 콘텐츠(310)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
제어부(140)는 사용자의 감정 상태가 긍정적임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 없는 신규 콘텐츠(310)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는, 감정 상태의 부정 정도가 중립 상태에 비해 높은 경우, 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 긍정 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 긍정 피드백 콘텐츠(330)를 판단하고, 긍정 피드백 콘텐츠(330)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는, 감정 상태가 중립 상태에 해당하는 경우, 사용자 반응 정보에 기초하여 재생 이력이 있는 콘텐츠 중 사용자의 관심을 유발하였던 관심 콘텐츠(320)를 판단하고, 관심 콘텐츠(320)의 유형과 대응되는 유형의 콘텐츠의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
따라서, 제어부(140)는 사용자의 감정 상태 정보 상의 유인가에 따라 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 긍정 정도 및 부정 정도를 판단할 수 있으며, 사용자의 감정 상태에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
일 실시예에 따른 제어부(140)는 사용자의 감정 상태 정보 상의 각성 정도를 나타내는 각성도에 기초하여 콘텐츠 표시순위를 결정할 수 있다.
제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 동영상 콘텐츠(411) 및 각성 정도를 완화하는 각성 완화 콘텐츠(412) 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 흥분 상태의 사용자의 각성 정도를 완화할 수 있도록 각성 완화 콘텐츠(412)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
각성 완화 콘텐츠(412)는 자연 풍경 영상, 멜로 영화 및 클레식 음악 등이 포함될 수 있으며, 사용자의 각성 정도를 완화할 수 있는 콘텐츠이면 제한 없이 포함될 수 있다.
즉, 제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 높은 경우, 수신된 콘텐츠에 포함되는 동영상 콘텐츠(411) 및 각성 완화 콘텐츠(412) 중 적어도 하나를 식별하고, 식별된 동영상 콘텐츠(411) 또는 각성 완화 콘텐츠(412)의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태가 흥분 상태임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 각성 정도가 중립 상태에 비해 낮은 감정 상태와 대응되는 각성 완화 콘텐츠(412)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 텍스트 콘텐츠(421) 및 각성 정도를 강화하는 각성 강화 콘텐츠(422) 중 적어도 하나의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 긴장 완화 상태의 사용자의 각성 정도를 강화할 수 있도록 각성 강화 콘텐츠(422)의 표시순위를 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
즉, 제어부(140)는 사용자의 감정 상태 정보가 나타내는 감정 상태의 각성 정도가 중립 상태에 비해 낮은 경우, 수신된 콘텐츠에 포함되는 텍스트 콘텐츠(421) 및 각성 강화 콘텐츠(422) 중 적어도 하나를 식별하고, 식별된 텍스트 콘텐츠(421) 또는 각성 강화 콘텐츠(422)의 표시순위가 다른 콘텐츠에 비해 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
또한, 일 실시예에 따른 제어부(140)는 사용자의 감정 상태가 긴장 완화 상태임을 판단하는 경우, 사용자 반응 정보 상에 포함되어 있는 재생 이력이 있는 콘텐츠에 대한 정보에 기초하여 재생 이력이 있는 콘텐츠 중 각성 정도가 중립 상태에 비해 높은 감정 상태와 대응되는 각성 강화 콘텐츠(422)의 표시순위가 우선하도록 콘텐츠 표시순위를 결정할 수 있다.
따라서, 제어부(140)는 사용자의 감정 상태 정보 상의 각성도에 따라 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 각성 정도를 판단할 수 있으며, 감정 상태의 각성 정도에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
또한, 제어부(140)는 사용자의 감정 상태 정보 상의 각성도 및 유인가를 동시에 고려하여 콘텐츠 표시순위를 결정할 수 있다. 즉, 제어부(140)는 사용자의 감정 상태 정보에 기초하여 사용자의 감정 상태의 각성 정도, 긍정 정도 및 부정 정도를 판단할 수 있으며, 감정 상태의 각성 정도, 긍정 정도 및 부정 정도에 기초하여 통신부(130)를 통하여 수신된 콘텐츠의 표시순위를 결정할 수 있다.
차량(700)의 입력부(710), 감지부(720), 통신부(730), 제어부(740), 출력부(750) 및 저장부(760)의 동작은 도 10에서 설명한 입력부(110), 감지부(120), 통신부(130), 제어부(140), 출력부(150) 및 저장부(160)의 동작과 동일할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
100: 콘텐츠 표시순위 결정 장치
110: 입력부
120: 감지부
130: 통신부
140: 제어부
150: 출력부
151: 디스플레이부
152: 스피커
160: 저장부
700: 차량

Claims (7)

  1. 적어도 하나의 센서를 이용하여 사용자의 상태를 감지하는 감지부;
    재생 이력이 있는 콘텐츠와 사용자의 감정 상태와의 관계를 나타내는 사용자 반응 정보 및 콘텐츠가 저장되어 있는 저장부;
    상기 사용자의 상태에 기초하여 상기 사용자의 감정 상태를 나타내는 감정 상태 정보를 획득하고, 상기 감정 상태 정보 및 상기 사용자 반응 정보 중 적어도 하나에 기초하여 저장된 콘텐츠의 콘텐츠 표시순위를 결정하는 제어부; 및
    콘텐츠를 시각적으로 출력하는 디스플레이부 및 콘텐츠를 청각적으로 출력하는 스피커를 포함하는 출력부;를 포함하는 차량.
  2. 제1항에 있어서,
    상기 차량은,
    외부 서버로부터 외부 정황 정보 및 감정 태깅 데이터(Emotion Tagging Data)를 수신하는 통신부;를 더 포함하고,
    상기 감지부는,
    차량 주행 정보 및 내부 정황 정보를 수집하는 차량.
  3. 제2항에 있어서,
    상기 제어부는,
    상기 차량 주행 정보, 상기 내부 정황 정보 및 상기 외부 정황 정보에 기초하여 현재 위치, 현재 시간, 교통 상황 정보 및 차량 속도 중 적어도 하나를 포함하는 현재 정황 정보를 획득하는 차량.
  4. 제3항에 있어서,
    상기 제어부는,
    상기 저장된 콘텐츠를 출력하도록 상기 출력부를 제어하고, 상기 사용자의 상태를 감지하도록 상기 감지부를 제어하여 상기 사용자의 감정 상태를 판단하고, 상기 감정 태깅 데이터에 기초하여 상기 사용자의 현재 정황에 대응하는 특정 정황에서 상기 사용자의 감정 상태와 동일 감정 상태를 갖는 다른 차량들의 사용자들을 그룹화하는 차량.
  5. 제4항에 있어서,
    상기 제어부는,
    상기 감정 태깅 데이터로부터 그룹화된 다른 차량들의 사용자들의 감정 상태에 영향을 미치는 주요 정황 인자를 추출하는 차량.
  6. 제5항에 있어서,
    상기 제어부는,
    상기 현재 정황 정보에 포함된 정황 인자들 중 상기 주요 정황 인자에 해당하는 정황 인자가 존재하는지 여부를 판단하고, 상기 주요 정황 인자에 해당하는 정황 인자가 존재하지 않는 경우 상기 사용자의 감정 상태가 상기 출력부를 통하여 출력되는 콘텐츠에 의해 유발되는 것으로 판단하는 차량.
  7. 제6항에 있어서,
    상기 제어부는,
    상기 사용자의 감정 상태가 상기 출력부를 통하여 출력되는 콘텐츠에 의해 유발되는 것으로 판단하는 경우, 상기 사용자의 감정 상태에 기초하여 상기 사용자 반응 정보를 획득하는 차량.
KR1020240008470A 2018-09-11 2024-01-19 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량 KR20240013829A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020240008470A KR20240013829A (ko) 2018-09-11 2024-01-19 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180108087A KR20200029715A (ko) 2018-09-11 2018-09-11 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량
KR1020240008470A KR20240013829A (ko) 2018-09-11 2024-01-19 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180108087A Division KR20200029715A (ko) 2018-09-11 2018-09-11 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량

Publications (1)

Publication Number Publication Date
KR20240013829A true KR20240013829A (ko) 2024-01-30

Family

ID=69956955

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020180108087A KR20200029715A (ko) 2018-09-11 2018-09-11 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량
KR1020240008470A KR20240013829A (ko) 2018-09-11 2024-01-19 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020180108087A KR20200029715A (ko) 2018-09-11 2018-09-11 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량

Country Status (1)

Country Link
KR (2) KR20200029715A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114132328B (zh) * 2021-12-10 2024-05-14 智己汽车科技有限公司 一种自动调节驾乘环境的辅助驾驶***及方法、存储介质

Also Published As

Publication number Publication date
KR20200029715A (ko) 2020-03-19

Similar Documents

Publication Publication Date Title
US12032730B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US10310600B2 (en) Display apparatus, vehicle and display method
CN112507799A (zh) 基于眼动注视点引导的图像识别方法、mr眼镜及介质
JP2017168097A (ja) 状況に特有の車両ドライバとの交信を提供するためのシステムおよび方法
US20200125320A1 (en) Media content playback during travel
US20190351912A1 (en) System for determining driver's emotion in vehicle and control method thereof
US20230046135A1 (en) Control system and method using in-vehicle gesture input
US20140007010A1 (en) Method and apparatus for determining sensory data associated with a user
KR20240013829A (ko) 콘텐츠 표시순위 결정 장치, 콘텐츠 표시순위 결정 장치의 제어방법 및 콘텐츠 표시순위 결정 장치를 포함한 차량
US20160288708A1 (en) Intelligent caring user interface
JP2014071811A (ja) 情報処理装置、表示制御方法及びプログラム
US9053193B1 (en) System and method for filtering content based on gestures
KR102625398B1 (ko) 차량 및 그 제어방법
US11937930B2 (en) Cognitive state-based seamless stimuli
US20210287697A1 (en) Techniques for separating driving emotion from media induced emotion in a driver monitoring system
US20200081535A1 (en) Emotion recognition apparatus and control method thereof
KR20180072525A (ko) 경로 안내를 위한 전자 장치 및 이의 제어 방법
KR20200027236A (ko) 차량 및 그 제어 방법
WO2021067380A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US11003248B2 (en) Emotion mapping method, emotion mapping apparatus and vehicle including the same
KR20190092455A (ko) 개인 안전 장치 및 그 동작방법
US20220060831A1 (en) Devices, Systems and Processes for Providing Adaptive Audio Environments
US20200082590A1 (en) Vehicle and control method thereof
US20200298865A1 (en) Vehicle Environmental Controlling
KR102675289B1 (ko) 차량 및 그 제어 방법

Legal Events

Date Code Title Description
A107 Divisional application of patent