KR101506561B1 - 감정 분석을 통한 선호 음원 관리 장치 및 방법 - Google Patents

감정 분석을 통한 선호 음원 관리 장치 및 방법 Download PDF

Info

Publication number
KR101506561B1
KR101506561B1 KR1020130085142A KR20130085142A KR101506561B1 KR 101506561 B1 KR101506561 B1 KR 101506561B1 KR 1020130085142 A KR1020130085142 A KR 1020130085142A KR 20130085142 A KR20130085142 A KR 20130085142A KR 101506561 B1 KR101506561 B1 KR 101506561B1
Authority
KR
South Korea
Prior art keywords
sound source
preferred
user
emotion
sound
Prior art date
Application number
KR1020130085142A
Other languages
English (en)
Other versions
KR20150010313A (ko
Inventor
송재종
장세진
신사임
장달원
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130085142A priority Critical patent/KR101506561B1/ko
Priority to PCT/KR2014/004554 priority patent/WO2015008931A1/ko
Publication of KR20150010313A publication Critical patent/KR20150010313A/ko
Application granted granted Critical
Publication of KR101506561B1 publication Critical patent/KR101506561B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/38Acoustic or auditory stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Cardiology (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Fuzzy Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 감정 분석을 통한 선호 음원 관리 장치 및 방법에 관한 것으로, 음원을 듣고 있는 사용자의 감정 상태를 파악하여 사용자가 선호하는 음원을 분류 및 관리하여 만족도 높은 음원 서비스를 제공하는 데 있다. 본 발명에 따른 선호 음원 관리 장치는 음원 출력부, 생체 정보 수집부, 감정 상태 판단부, 음원 분류부 및 음원 관리부를 포함한다. 음원 출력부는 사용자가 들을 수 있도록 음원을 재생하여 출력한다. 생체 정보 수집부는 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보를 실시간으로 수집한다. 감정 상태 판단부는 수집한 생체 정보에 기초하여 사용자의 감정 상태를 실시간으로 파악한다. 음원 분류부는 파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류한다. 그리고 음원 관리부는 비선호로 분류된 음원을 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시킨다.

Description

감정 분석을 통한 선호 음원 관리 장치 및 방법{Apparatus and method for managing preference sound source using emotion analysis}
본 발명은 음원 서비스 기술에 관한 것으로, 더욱 상세하게는 음원을 듣고 있는 사용자의 감정 상태를 파악하여 사용자가 선호하는 음원을 분류 및 관리하여 만족도 높은 음원 서비스를 제공하는 감정 분석을 통한 선호 음원 관리 장치 및 방법에 관한 것이다.
디지털 음원 활용 및 스마트 모바일 단말들이 대중화되면서 많은 음원을 관리하는 서비스와, 사용자가 선호할 만한 음원들을 예측하는 추천 서비스들이 선보이고 있다.
하지만 기존의 음원 제공 서비스들은 아래와 같은 번거로운 문제점들을 가지고 있다.
첫째, 사용자가 주기적으로 새로운 음원들을 직접 검토하여 그 중 선호하는 음원들을 직접 선택하여 선호 음원 목록에 추가해 주어야 한다.
둘째, 사용자가 반복하여 감상하여 선호도가 떨어진 음원들에 대해서는 사용자가 선호 음원 목록에서 직접 제거하는 등의 번거로운 작업을 수행해야 한다.
이와 같은 작업들을 디지털 음원이 대중화되면서 많은 양의 음원들을 일일이 검토하는 작업이 주기적으로 반복되어야 하기 때문에, 사용자에게는 시간과 노력의 투자가 필요로 하는 번거로운 작업일 수도 있다.
이에 대한 보완기술로 미리 음원들의 특성 및 각 사용자 별 선호 패턴을 분석하여 사용자가 선호할 만한 음원들을 추천해 주는 기술들도 대중화되어 활용되고 있다. 그러나 이러한 기존의 음원 추천 기술들도 한계점을 가지고 있다. 즉 사용자들의 음원 소비 패턴, 음원 분석 또는 음원 관련 정보들의 분석을 통한 기존의 음원 추천 방식이기 때문에, 실시간으로 사용자의 반응과 감정을 반영하여 음원을 추천을 할 수 없는 한계를 가지고 있다.
이와 같은 음원 서비스 기술들은 최근 사람들의 주요 활동의 배경 활동으로 주로 활용되고 있는 음악 감상 활동으로 인해, 주요 활동에 방해가 될 수도 있는 음원 정리 및 선택의 활동이 필요로 한다는 번거로움을 여전히 해소하지 못하는 문제점을 안고 있다.
한국공개특허 제2007-0061311호(2007.06.13.)
따라서 본 발명의 목적은 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 사용자가 선호하는 음원을 분류 및 관리하여 만족도 높은 음원 서비스를 제공하는 감정 분석을 통한 선호 음원 관리 장치 및 방법을 제공하는 데 있다.
본 발명의 다른 목적은 사용자가 주요 활동과 병행하여 음원을 듣는 배경 활동을 하는 멀티태스킹 환경에서 사용자가 주의를 기울여 음원을 선택하고 관리하지 않더라도 사용자가 최적의 감정 컨디션을 유지할 수 있도록 음원 서비스를 제공하는 감정 분석을 통한 선호 음원 관리 장치 및 방법을 제공하는 데 있다.
본 발명의 또 다른 목적은 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 사용자의 별다른 조작 없이 선호 음원 목록을 편집하는 감정 분석을 통한 선호 음원 관리 장치 및 방법을 제공하는 데 있다.
상기 목적을 달성하기 위하여, 본 발명은 사용자가 들을 수 있도록 음원을 재생하는 재생 단계, 음원을 듣는 사용자의 감정 상태를 실시간으로 파악하는 파악 단계, 파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류하는 분류 단계, 및 비선호로 분류된 음원은 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시키는 관리 단계를 포함하는 감정 분석을 통한 선호 음원 관리 방법을 제공한다.
본 발명에 따른 감정 분석을 통한 선호 음원 관리 방법에 있어서, 상기 파악 단계에서, 사용자의 감정 상태는 사용자의 뇌파, 심전도, 맥박, 음성 또는 땀 중에서 적어도 하나의 생체 정보에 기초하여 파악할 수 있다.
본 발명에 따른 감정 분석을 통한 선호 음원 관리 방법은 상기 파악 단계 이전에 수행되는, 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보에 기초하여 사용자의 감정을 모델링하는 단계를 더 포함할 수 있다. 이때 상기 파악 단계에서 모델링된 사용자 감정과, 사용자의 생체 정보를 비교하여 사용자의 감정 상태를 실시간으로 파악할 수 있다.
본 발명에 따른 감정 분석을 통한 선호 음원 관리 방법에 있어서, 상기 모델링하는 단계는, 사용자에게 복수의 음원을 들려주면서 각 음원을 듣는 동안의 뇌파를 취득하는 단계, 상기 복수의 음원에 대한 선호 또는 비선호 여부에 대한 감정 정보를 수집하는 단계, 및 수집한 뇌파 정보와 감정 정보를 매칭하여 뇌파를 기반으로 한 사용자의 감정을 모델링하는 단계를 포함할 수 있다.
본 발명에 따른 감정 분석을 통한 선호 음원 관리 방법에 있어서, 상기 관리 단계에서, 현재 듣고 있는 음원이 선호 음원 목록에 포함된 음원으로, 상기 분류 단계에서 비선호 음원으로 분류된 경우 상기 선호 음원 목록에서 제거하고, 선호 음원으로 분류된 경우 상기 선호 음원 목록에 유지할 수 있다. 또는 상기 관리 단계에서, 현재 듣고 있는 음원이 선호 음원 목록에 포함되지 않은 새로운 음원으로, 상기 분류 단계에서 선호 음원으로 분류된 경우 상기 선호 음원 목록에 추가하고, 비선호 음원으로 분류된 경우 상기 선호 음원 목록에 추가하지 않고 새로운 음원 또는 상기 선호 음원 목록에 포함된 다른 음원을 재생할 수 있다.
본 발명은 또한, 음원 출력부, 생체 정보 수집부, 감정 상태 판단부, 음원 분류부 및 음원 관리부를 포함하는 감정 분석을 통한 선호 음원 관리 장치를 제공한다. 상기 음원 출력부는 사용자가 들을 수 있도록 음원을 재생하여 출력한다. 상기 생체 정보 수집부는 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보를 실시간으로 수집한다. 상기 감정 상태 판단부는 수집한 생체 정보에 기초하여 상기 사용자의 감정 상태를 실시간으로 파악한다. 상기 음원 분류부는 파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류한다. 그리고 음원 관리부는 비선호로 분류된 음원을 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시킨다.
본 발명에 따르면, 선호 음원 관리 장치는 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 사용자가 선호하는 음원을 분류 및 관리하여 선호 음원 목록을 제공하기 때문에, 사용자에게 만족도 높은 음원 서비스를 제공할 수 있다. 즉 선호 음원 관리 장치는 사용자의 감정 상태를 파악할 수 있는 생체 신호 기반 인터페이스를 이용하여 손이나 음성 등의 사용자의 주의를 요하는 인터페이싱 활동 없이도 만족스러운 음원 추전 서비스를 제공할 수 있다.
또한 선호 음원 관리 장치는 사용자가 주요 활동과 병행하여 음원을 듣는 배경 활동을 하는 멀티태스킹 환경에서도 사용자가 주의를 기울여 음원을 선택하고 관리하지 않더라도, 사용자의 감정 분석을 통한 선호 음원을 지속적으로 제공함으로써, 사용자가 최적의 감정 컨디션을 유지할 수 있도록 할 수 있다. 즉 선호 음원 관리 장치는 음원을 듣는 동안 지속적으로 사용자의 감정 상태를 실시간으로 파악하여 사용자의 긍정적인 감정 상태가 지속될 수 있도록 선호하는 음원을 제공할 수 있다.
또한 선호 음원 관리 장치는 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 선호 음원 목록을 편집할 수 있다. 예컨대 선호 음원 관리 장치는 사용자의 감정 분석을 실시간으로 수행하여 새로운 음원 중 사용자의 선호 감정을 유발하는 음원들은 선호 음원 목록에 자동으로 추가할 수 있다. 반대로 선호 음원 관리 장치는 선호 음원 목록의 음원 중에 선호 감정이 더 이상 유발하지 못하는 음원은 선호 음원 목록에서 자동으로 삭제할 수 있다.
도 1은 본 발명의 실시예에 따른 감정 분석을 통한 선호 음원 관리 장치를 보여주는 도면이다.
도 2는 도 1의 선호 음원 관리 장치의 구성을 보여주는 블록도이다.
도 3은 도 2의 제어부의 구성을 보여주는 블록도이다.
도 4는 본 발명의 실시예에 따른 감정 분석을 통한 선호 음원 관리 방법에 따른 흐름도이다.
도 5는 도 4의 사용자의 감정을 모델링하는 단계에 따른 상세 흐름도이다.
도 6은 도 4의 분류 결과에 따라 선호 음원 목록을 관리하는 단계에 따른 상세 흐름도이다.
하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.
이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.
도 1은 본 발명의 실시예에 따른 감정 분석을 통한 선호 음원 관리 장치를 보여주는 도면이다.
도 1을 참조하면, 본 실시예에 따른 선호 음원 관리 장치(100)는 음원 재생기(60)와 헤드셋(70)으로 구현될 수 있다.
음원 재생기(60)는 음원을 재생하여 헤드셋(70)으로 출력한다. 이러한 음원 재생기(60)로는 음원 재생 기능을 갖는 장치로서, 예컨대 MP3 플레이어, 스마트폰, 휴대폰 등이 될 수 있다. 이때 재생되는 음원은 음원 재생기(60)에 저장된 음원이거나, 외부의 음원 제공 장치로부터 스트리밍 방식으로 제공받는 음원일 수 있다.
그리고 헤드셋(70)은 음원 재생기(60)로부터 음원을 전달받아 사용자가 들을 수 있도록 출력한다. 헤드셋(70)은 음원을 듣는 동안 사용자로로부터 생체 정보를 실시간으로 수집하여 음원 재생기(60)로 전달한다.
이때 생체 정보는 사용자의 감정 상태에 따른 신체 변화에 따라 발생되는 정보로서, 예컨대 사용자의 뇌파, 심전도, 맥박, 음성 또는 땀 중에서 적어도 하나가 이용될 수 있다. 본 실시예에서는 생체 정보로 뇌파를 사용하는 예를 개시하였다.
헤드셋(70)은 머리 거치대(71)를 매개로 양쪽에 연결된 음원 출력부(40)와, 머리 거치대(71)에 설치되어 뇌파와 같은 생체 정보를 수집하는 생체 정보 수집부(50)를 포함한다. 헤드셋(70)은 연결 케이블(73)과 같은 유선으로 음원 재생기(60)에 연결되어 정보를 교환한다.
한편 본 실시예에서는 헤드셋(70)이 음원 재생기(60)에 연결 케이블(73)을 매개로 연결된 예를 개시하였지만 이것에 한정되는 것은 아니다. 헤드셋(70)은 적외선, 블루투스 등과 같은 근거리 통신 방식으로 음원 재생기(60)에 무선으로 연결될 수 있다.
특히 음원 재생기(60)는 헤드셋(70)으로부터 수신한 생체 정보를 기반으로 음원을 듣는 사용자의 감정 상태를 파악한다. 음원 재생기(60)는 파악한 감정 상태에 따라 현재 재생 중인 음원의 선호 또는 비선호 음원으로 분류한다. 그리고 음원 재생기(60)는 현재 재생 중인 음원의 분류 결과를 반영하여 선호 음원 목록을 관리한다.
여기서 선호 음원 목록을 관리한다는 것은 음원을 선호 음원 목록에 유지, 삭제 및 추가하거나, 다른 음원을 재생하도록 편집하는 것을 의미한다. 다른 음원은 현재 재생 중인 음원 이외의 음원으로, 선호 음원 목록에 등록된 음원이거나 선호 음원 목록에 등록되지 않은 음원일 수 있다.
한편 본 실시예에서는 헤드셋(70)이 음원 출력부(40)와 생체 정보 수집부(50)로 구성된 예를 개시하였지만 이것에 한정되는 것은 아니다. 음성 출력부(40)와는 별도로 생체 정보 수집부(50)가 마련된 수 있다. 음성 출력부(40)만으로 되는 경우, 스피커, 이어셋, 이어폰, 헤드폰으로 구현될 수 있다.
이와 같은 본 실시예에 따른 선호 음원 관리 장치(100)에 대해서 도 1 내지 도 3을 참조하여 설명하면 다음과 같다. 여기서 도 2는 도 1의 선호 음원 관리 장치(100)의 구성을 보여주는 블록도이다. 도 3은 도 2의 제어부(30)의 구성을 보여주는 블록도이다.
본 실시예에 따른 선호 음원 관리 장치(100)는 음원 출력부(40), 생체 정보 수집부(50), 감정 상태 판단부(31), 음원 분류부(33) 및 음원 관리부(35)를 포함하며, 그 외 입력부(10) 및 저장부(20)를 더 포함할 수 있다.
한편 본 실시예에서는 음원 출력부(40) 및 생체 정보 수집부(50)가 헤드셋(70)에 설치되고, 그 외 구성은 음원 재생기(60)에 설치된 예를 개시하였지만 이것에 한정되는 것은 아니다. 예컨대 음원 출력부(40)는 음원 재생기(60)에 설치될 수 있다. 생체 정보 수집부(50)는 헤드셋(70)과는 별도로 구비될 수 있다.
또한 본 실시예에서는 감정 상태 판단부(31), 음원 분류부(33) 및 음원 관리부(35)가 제어부(30)로 구현된 예를 개시하였지만, 적어도 하나가 별도의 프로세서로 구현될 수 있다.
입력부(10)는 선호 음원 관리 장치(100)의 조작을 위한 복수의 키를 제공하며, 사용자의 키선택에 따른 선택 신호를 발생하여 제어부(30)로 전달한다. 사용자는 입력부(10)를 통해 음원을 재생하거나 사용자의 감정 모델링을 수행하도록 지시할 수 있다. 이때 입력부(10)로는 버튼, 키패드, 터치패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수 있다.
저장부(20)는 선호 음원 관리 장치(100)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 정보를 저장한다. 저장부(20)는 사용자의 감정 모델링과, 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 선호 음원 목록을 편집하기 위한 실행프로그램을 저장한다. 저장부(20)는 모델링된 사용자의 감정 모델, 음원들, 및 선호 음원 목록을 저장한다. 또한 저장부(20)는 비선호 음원으로 분류된 음원과, 그에 따른 비선호 음원 목록을 저장할 수 있다.
음원 출력부(40)는 재생되는 음원을 사용자가 들을 수 있도록 출력한다. 이때 음원 출력부(40)는 헤드셋(70)에 마련되거나 스피커로 구현될 수 있다. 스피커는 음원 재생기(60)에 내장된 형태로 구현되거나, 별도의 기기로 음원 재생기(60)에 연결될 수 있다.
생체 정보 수집부(50)는 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보를 수집한다. 이때 생체 정보 수집부(50)는 음원이 재생되지 않을 때는 생체 정보를 수집하지 않으며, 음원이 재생되는 경우에 제어부(30)의 제어에 따라 생체 정보를 수집하여 제어부(30)에 제공할 수 있다.
그리고 제어부(30)는 선호 음원 관리 장치(100)의 전반적인 제어 동작을 수행하는 마이크로프로세서(microprocessor)로서, 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 선호 음원 목록에 대한 관리를 수행한다. 또한 제어부(30)는 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보에 기초하여 사용자의 감정을 모델링할 수 있다.
이러한 제어부(30)는 감정 상태 판단부(31), 음원 분류부(33) 및 음원 관리부(35)를 포함하여 구성된다. 감정 상태 판단부(31)는 수집한 생체 정보에 기초하여 사용자의 감정 상태를 실시간으로 파악한다. 음원 분류부(33)는 파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류한다. 그리고 음원 관리부(35)는 비선호로 분류된 음원을 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시키는 등의 음원 관리를 수행한다.
제어부(30)는 사용자의 감정 상태를 실시간으로 파악할 때 모델링을 통하여 마련된 사용자별 감정 모델을 이용할 수 있다. 제어부(30)는 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보에 기초하여 사용자의 감정을 모델링할 수 있다. 그리고 제어부(30)는 모델링된 사용자 감정과, 사용자의 생체 정보를 비교하여 사용자의 감정 상태를 실시간으로 파악할 수 있다.
예컨대 사용자의 감정 모델링은 아래와 같이 수행될 수 있다. 이때 생체 정보로서 뇌파가 사용된 예를 개시한다. 먼저 음원 출력부(40)는 사용자에게 복수의 음원을 들려주면서, 생체 정보 수집부(50)는 각 음원을 듣는 동안의 뇌파를 취득한다. 다음으로 제어부(30)는 입력부(10)를 통하여 복수의 음원에 대한 선호 또는 비선호 여부에 대한 감정 정보를 수집한다. 그리고 제어부(30)는 수집한 뇌파 정보와 감정 정보를 매칭하여 뇌파를 기반으로 한 사용자의 감정을 모델링한다.
이때 제어부(30)는 생체 정보 수집부(50)에서 수집된 다채널 뇌파를 통계적으로 정밀 분석하는 작업을 수행할 수 있다.
뇌파의 분석에 위한 특징 정보로 뇌파의 주요 성분이 되는 쎄파, 알파, 베타 주파수 영역대의 전력정보와 복수의 센서에서 측정되는 뇌파 데이터들 간의 상관성정보(Coherence), 시간-주파수 분석을 통해 얻을 수 있는 자기회귀계수(Autoregressive coefficient), 사건 관련 동기 및 비동기 정보(ERS: Event-Related Synchronization, ERD: Event-Related Desynchronization), 각 중요 주파수 영역대의 peak frequency 정보, 전두엽(Frontal region), 측두엽(Temporal region)에서 발생하는 전두엽 비대칭성정보(Frontal asymmetry) 등이 이용될 수 있다.
분석에 사용된 각 특징 정보로, 먼저 뇌파 데이터들 간의 상관성 정보(Coherence)는 두피의 여러 영역(region) 혹은 각 채널/전극에서 측정된 뇌파 데이터들 간의 유사성을 비교하는 정보로서, 스트레스를 받게 되는 상황에서 두피의 여러 영역에서 발생하는 뇌의 활동에 대한 동시성(Synchrony)의 척도로 활용된다.
자기회귀계수(Autoregressive coefficient)는 현재 시점에서 발생하는 뇌파 데이터의 한 샘플값은 과거 몇 개의 샘플들의 조합으로 표현가능하다는 개념에 근간한 것으로 시간영역에서의 각 샘플들 간의 상관성을 살펴보고자 할 때 널리 사용되는 정보이다.
사건관련 동기 및 비동기정보(ERS/ERD)는 뇌가 특정 자극을 외부에서 받게 되는 상황에서 그 자극에 고유한 응답(Response)을 보일 경우, 그 응답의 특성이 어떠한 형태로 주어지는가를 판단하는 척도로 사용되는 특징정보이다.
각 중요 주파수 영역대의 Peak frequency정보는 분석하고자 하는 뇌파의 주파수영역(쎄타, 알파, 베타 대역)내를 세밀히 관찰했을 때 파악되는, 전력(power)값이 최대치를 보이는 주파수를 의미한다.
그리고 전두엽 비대칭성(Frontal asymmetry) 정보는 뇌의 좌우 반구를 기준으로 전두엽부분에서의 좌우반구의 채널 쌍(pair) 간의 알파파 전력 차이 값을 의미하는 특징정보이다.
예컨대 위에서 언급한 여러 특징들을 활용하여 스트레스 상황을 파악할 경우, 사용자의 뇌의 활동은 비스트레스 상황과 비교해볼 때 뇌의 전반적인 부분이 동시적으로 활발히 반응을 하며, peak frequency가 높고, 비대칭성 정보에서는 우반구쪽이 좌반구에 비해서 활동성이 두드러짐을 알 수 있다. 따라서 스트레스와 같은 사용자의 복잡한 감정상황을 뇌파를 통해 파악하고자 할 경우, 집중과 이완에 관여하는 알파파에 주로 초점이 맞추어진 기존의 해석 방법과는 다르게, 뇌파의 여러 활동성을 동시에 관찰하는 것이 중요하며 이를 위해 다양한 특징 정보를 복합적으로 사용해야 될 필요가 있게 된다.
수집한 뇌파 정보를 통계적으로 분석하고 분류하기 위해서, 감정 상태 판단부(31)는 인공 지능 분류기와 같은 뇌파 패턴 분류기를 포함할 수 있다.
이와 같이 언급된 여러 특징들을 활용하여 제어부(30)는 수집한 뇌파 정보와 감정 정보를 매칭하여 뇌파를 기반으로 한 사용자의 감정을 모델링한다.
한편 제어부(30)는 음원 관리를 아래와 같이 수행할 수 있다. 특히 음원이 선호 음원 목록에 포함된 음원인지 아니지에 따라 아래와 같이 수행될 수 있다.
먼저 현재 듣고 있는 음원이 선호 음원 목록에 포함되지 않은 새로운 음원으로서, 분류 단계에서 선호 음원으로 분류된 경우, 음원 관리부(35)는 해당 음원을 선호 음원 목록에 추가한다. 그리고 비선호 음원으로 분류된 경우, 음원 관리부(35)는 선호 음원 목록에 추가하지 않고 새로운 음원 또는 선호 음원 목록에 포함된 다른 음원을 재생한다.
예컨대 음원 재생기(60)에 새로운 음원이 추가된 경우, 제어부(30)는 사용자에게 해당 음원을 30초 정도를 들려주며 실시간으로 현재 음원에 대한 뇌파 정보를 생체 정보 수집부(50)를 통하여 수집한다. 감정 상태 판단부(31)는 수집한 뇌파 정보와 사용자의 감정 모델과의 비교를 통하여 현재 재생 중인 음원에 대한 사용자의 감정 상태를 파악한다. 해당 음원이 선호 음원으로 분류되면, 음원 관리부(35)는 해당 음원을 선호 음원 목록에 추가한다. 해당 음원이 비선호 음원으로 분류되면, 음원 관리부(35)는 해당 음원을 선호 음원 목록에 추가하지 않고 다른 새로운 음원을 재생한다. 그리고 제어부(30)는 이와 같은 과정을 반복하여 새로 추가된 음원에 대한 분류를 완료한다.
이때 새로운 음원에 대한 분류를 수행할 때, 음원 관리부(35)가 해당 음원을 30초 정도 재생하는 예를 개시하였지만 이것에 한정되는 것은 아니다. 음원 재생 시간은 사용자의 필요에 따라 변경할 수 있다.
또한 제어부(30)는 비선호로 분류된 새로운 음원은 저장부(20)에서 삭제할 수도 있고, 별도의 비선호 음원 목록에 등록하여 저장할 수도 있다. 즉 사람의 감정 상태는 항상 일정하지 않으며, 상황에 따라 변하기 때문에, 비선호 음원으로 분류된 음원도 다시 선호 음원으로 분류될 수 있다. 또한 음원을 구입하는 데에 따른 비용이 발생되기 때문에, 한번 비선호 음원으로 분류되었다고 해서 저장부(20)에서 삭제하는 것은 바람직한 것은 아니다. 따라서 비선호로 분류된 새로운 음원을 무조건 삭제하는 것 보다는 일정 기간 저장부(20)에 저장해 두고, 일정 횟수 이상 비선호로 분류되거나 연속하여 일정 횟수 이상 비선호로 분류되는 경우에 삭제하는 것이 바람직하다. 이때 일정 회수는 n회 범위에서 설정될 수 있으며, 이것에 한정되는 것은 아니다.(n은 2 내지 10 이하의 자연수)
다음으로 현재 듣고 있는 음원이 선호 음원 목록에 포함된 음원으로서, 분류 단계에서 비선호 음원으로 분류된 경우, 음원 관리부(35)는 선호 음원 목록에서 해당 음원 제거한다. 그리고 선호 음원으로 분류된 경우, 음원 관리부(35)는 해당 음원을 선호 음원 목록에 유지한다.
예컨대 선호 음원 목록에 있는 음원이 재생되는 경우, 제어부(30)는 사용자에게 해당 음원을 들려주며 실시간으로 현재 음원에 대한 뇌파 정보를 생체 정보 수집부를 통하여 획득한다. 감정 상태 판단부(31)는 수집한 뇌파 정보와 사용자의 감정 모델과의 비교를 통하여 현재 재생 중인 음원에 대한 사용자의 감정 상태를 파악한다. 해당 음원이 음원 분류부(33)에 의해 선호 음원으로 분류되면, 음원 관리부(35)는 해당 음원을 선호 음원 목록에 유지한다. 해당 음원이 비선호 음원으로 분류되면, 음원 관리부(35)는 해당 음원을 선호 음원 목록에서 삭제한다.
한편 본 실시예에서는 사용자의 감정 모델링을 제어부(30)가 직접 수행하는 예를 개시하였지만, 별도의 기기에서 수행된 후 저장부(20)에 데이터로 제공될 수 있다. 또한 일반화된 감정 모델이 개발된다면, 사용자별로 감정 모델링을 수행할 필요가 없이 해당 일반화된 감정 모델을 저장부(30)에 저장하여 사용할 수도 있다.
이와 같이 본 실시예에 따른 선호 음원 관리 장치(100)는 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 사용자가 선호하는 음원을 분류 및 관리하여 선호 음원 목록을 제공하기 때문에, 사용자에게 만족도 높은 음원 서비스를 제공할 수 있다. 즉 선호 음원 관리 장치(100)는 사용자의 감정 상태를 파악할 수 있는 생체 신호 기반 인터페이스를 이용하여 손이나 음성 등의 사용자의 주의를 요하는 인터페이싱 활동 없이도 만족스러운 음원 추전 서비스를 제공할 수 있다.
또한 선호 음원 관리 장치(100)는 사용자의 생체 정보를 이용한 사용자의 감성 분석을 통하여 사용자에게 맞는 음원을 추천하는 서비스를 제공할 수 있다.
또한 선호 음원 관리 장치(100)는 사용자가 주요 활동과 병행하여 음원을 듣는 배경 활동을 하는 멀티태스킹 환경에서도 사용자가 주의를 기울여 음원을 선택하고 관리하지 않더라도, 사용자의 감정 분석을 통한 선호 음원을 지속적으로 제공함으로써, 사용자가 최적의 감정 컨디션을 유지할 수 있도록 할 수 있는 음원 서비스를 제공할 수 있다. 즉 선호 음원 관리 장치(100)는 음원을 듣는 동안 지속적으로 사용자의 감정 상태를 실시간으로 파악하여 사용자의 긍정적인 감정 상태가 지속될 수 있도록 선호하는 음원을 제공할 수 있다.
또한 선호 음원 관리 장치(100)는 음원을 듣고 있는 사용자의 감정 상태를 실시간으로 파악하여 선호 음원 목록을 편집할 수 있다. 예컨대 선호 음원 관리 장치(100)는 사용자의 감정 분석을 실시간으로 수행하여 새로운 음원 중 사용자의 선호 감정을 유발하는 음원들은 선호 음원 목록에 자동으로 추가할 수 있다. 반대로 선호 음원 관리 장치(100)는 선호 음원 목록의 음원 중에 선호 감정이 더 이상 유발하지 못하는 음원은 선호 음원 목록에서 자동으로 삭제할 수 있다. 즉 기존에 선호하던 음원의 경우에도 실시간 청취 시 부정정인 감정 분석 결과가 나타나면, 선호 음원 관리 장치(100)는 해당 음원을 선호 음원 목록에서 자동으로 제거한다. 이로 인해 선호 음원 목록에 있는 음원이라도, 반복 청취를 통해 지겨워져 선호도가 떨어진 음원들을 사용자가 다시 듣지 않도록 선호 음원 목록을 관리할 수 있다.
또한 새로 추가된 음원의 경우도, 선호 음원 관리 장치(100)는 사용자가 일일이 선호도 결정을 내리지 않더라도 음원을 듣는 중 수십 초 정도의 생체 정보를 기반으로 한 감정 분석 결과를 통하여 자동으로 음원의 선호도 여부를 파악하여 선호 음원 리스트를 자동으로 업데이트(편집)할 수 있다.
이와 같은 본 실시예에 따른 선호 음원 관리 장치(100)를 이용한 감정 분석을 통한 선호 음원 관리 방법에 대해서 도 2 및 도 4를 참조하여 설명하면 다음과 같다. 여기서 도 4는 본 발명의 실시예에 따른 감정 분석을 통한 선호 음원 관리 방법에 따른 흐름도이다.
먼저 S81단계에서 선호 음원 관리 장치(100)는 음원을 듣는 사용자의 감정을 모델링한다. 이때 모델링은 선호 음원 관리 장치(100)에서 수행하는 예를 개시하였지만 이것에 한정되는 것은 아니다.
또한 사용자의 감정 모델이 선호 음원 관리 장치(100)에 저장되어 있는 경우, 선호 음원 관리 장치(100)는 S81단계를 생략할 수 있다.
다음으로 S83단계에서 선호 음원 관리 장치(100)는 사용자가 들을 수 있도록 음원을 재생한다.
다음으로 S85단계에서 선호 음원 관리 장치(100)는 음원을 듣는 사용자의 감정 상태를 실시간으로 파악한다. 즉 선호 음원 관리 장치(100)는 해당 음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보를 수집한다. 그리고 선호 음원 관리 장치(100)는 사용자 감정 모델과, 사용자의 생체 정보를 비교하여 사용자의 감정 상태를 실시간으로 파악한다.
다음으로 S87단계에서 선호 음원 관리 장치(100)는 파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류한다.
그리고 S89단계에서 선호 음원 관리 장치(100)는 S87단계의 분류 결과에 따라 선호 음원 목록에 대한 관리, 즉 편집을 수행한다.
여기서 S81단계에 따른 사용자의 감정을 모델링하는 단계를 도 2 및 도 5를 참조하여 구체적으로 설명하면 다음과 같다. 여기서 도 5는 도 4의 사용자의 감정을 모델링하는 단계(S81)에 따른 상세 흐름도이다.
먼저 S811단계에서 선호 음원 관리 장치(100)는 사용자에게 복수의 음원을 들려주면서 각 음원을 듣는 동안의 생체 정보를 취득한다.
다음으로 S813단계에서 선호 음원 관리 장치(100)는 복수의 음원에 대한 선호 또는 비선호 여부에 대한 감정 정보를 입력부(10)의 선택 신호를 통하여 수집한다.
예컨대 S811단계 및 S813단계를 반복하면서, 음원 청취 시의 뇌파 정보를 수집할 수 있다. 즉 음원 청취에 따른 뇌파 정보는 데이터의 양이 증가할수록 신뢰도가 상승하기 때문이다.
그리고 S815 단계에서 선호 음원 관리 장치(1000는 수집한 생체 정보와 감정 정보를 매칭하여 생체 정보를 기반으로 한 사용자의 감정을 모델링한다. 예컨대 선호 음원 관리 장치(100)가 수집한 뇌파 정보를 통계적으로 분석하고 분류하여 뇌파 정보를 통하여 사용자별 감정 모델링을 수행하여 사용자별 감정 모델을 생성한다.
한편 S89단계에 따른 선호 음원 목록을 관리하는 단계를 도 2 및 도 6을 참조하여 구체적으로 설명하면 다음과 같다. 여기서 도 6은 도 4의 분류 결과에 따라 선호 음원 목록을 관리하는 단계(S89)에 따른 상세 흐름도이다.
먼저 S891단계에서 선호 음원 관리 장치(100)는 재생 중인 음원이 기존 음원인지 새 음원인지의 여부를 판단한다. 여기서 기존 음원은 선호 음원 목록에 있는 음원을 의미한다. 새 음원은 선호 음원 관리 장치(100)에 새로이 추가될 음원으로, 선호 음원 목록에 포함되지 않는 음원을 의미한다.
S891단계의 판단 결과 기존 음원인 경우, S893단계에서 선호 음원 관리 장치(100)는 재생 중인 음원의 분류 결과가 선호 인지 비선호인지의 여부를 다시 확인한다.
S893단계의 확인 결과 선호 음원인 경우, S895단계에서 선호 음원 관리 장치(100)는 해당 음원을 선호 음원 목록에 유지한다.
하지만 S893단계의 확인 결과 비선호 음원인 경우, S897단계에서 선호 음원 관리 장치(100)는 해당 음원을 선호 음원 목록에서 삭제한다.
한편 S891단계의 판단 결과 새 음원인 경우, S899단계에서 선호 음원 관리 장치(100)는 재생 중인 음원의 분류 결과가 선호 인지 비선호인지의 여부를 다시 확인한다.
S899단계의 확인 결과 선호 음원인 경우, S901단계에서 선호 음원 관리 장치(100)는 해당 음원을 선호 음원 목록에 추가한다.
하지만 S899단계의 확인 결과 비선호 음원인 경우, S903단계에서 선호 음원 관리 장치(100)는 새로운 다른 음원 또는 선호 음원 목록에 포함된 음원을 재생한다. 이때 선호 음원 관리 장치(100)는 비선호 음원으로 분류된 해당 음원을 저장부(20)에서 삭제할 수도 있고, 별도의 비선호 음원 목록에 추가할 수도 있다.
한편, 본 명세서와 도면에 개시된 실시예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 자명한 것이다.
10 : 입력부
20 : 저장부
30 : 제어부
31 : 감정 상태 판단부
33 : 음원 분류부
35 : 음원 관리부
40 : 음원 출력부
50 : 생체 정보 수집부
60 : 음원 재생기
70 : 헤드셋
71 : 머리 거치대
73 : 연결 케이블
100 : 선호 음원 관리 장치

Claims (6)

  1. 사용자가 들을 수 있도록 음원을 재생하는 재생 단계;
    음원을 듣는 사용자의 감정 상태를 실시간으로 파악하는 파악 단계;
    파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류하는 분류 단계;
    비선호로 분류된 음원을 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시키는 관리 단계;를 포함하고,
    상기 관리 단계에서,
    현재 듣고 있는 음원이 선호 음원 목록에 포함된 음원으로, 상기 분류 단계에서 비선호 음원으로 분류된 경우 상기 선호 음원 목록에서 제거하고, 선호 음원으로 분류된 경우 상기 선호 음원 목록에 유지하는 것을 특징으로 하는 감정 분석을 통한 선호 음원 관리 방법.
  2. 제1항에 있어서, 상기 파악 단계에서,
    사용자의 감정 상태는 사용자의 뇌파, 심전도, 맥박, 음성 또는 땀 중에서 적어도 하나의 생체 정보에 기초하여 파악하는 것을 특징으로 하는 감정 분석을 통한 선호 음원 관리 방법.
  3. 제1항에 있어서, 상기 파악 단계 이전에 수행되는,
    음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보에 기초하여 사용자의 감정을 모델링하는 단계;를 더 포함하고,
    상기 파악 단계에서 모델링된 사용자 감정과, 사용자의 생체 정보를 비교하여 사용자의 감정 상태를 실시간으로 파악하는 것을 특징으로 하는 감정 분석을 통한 선호 음원 관리 방법.
  4. 제3항에 있어서, 상기 모델링하는 단계는,
    사용자에게 복수의 음원을 들려주면서 각 음원을 듣는 동안의 뇌파를 취득하는 단계;
    상기 복수의 음원에 대한 선호 또는 비선호 여부에 대한 감정 정보를 수집하는 단계;
    수집한 뇌파 정보와 감정 정보를 매칭하여 뇌파를 기반으로 한 사용자의 감정을 모델링하는 단계;
    를 포함하는 것을 특징으로 하는 감정 분석을 통하여 선호 음원 관리 방법.
  5. 제1항에 있어서, 상기 관리 단계에서,
    현재 듣고 있는 음원이 선호 음원 목록에 포함되지 않은 새로운 음원으로, 상기 분류 단계에서 선호 음원으로 분류된 경우 상기 선호 음원 목록에 추가하고, 비선호 음원으로 분류된 경우 상기 선호 음원 목록에 추가하지 않고 새로운 음원 또는 상기 선호 음원 목록에 포함된 다른 음원을 재생하는 것을 특징으로 감정 분석을 통하여 선호 음원 관리 방법.
  6. 사용자가 들을 수 있도록 음원을 재생하여 출력하는 음원 출력부;
    음원을 듣는 사용자의 감정 상태에 따라 발생되는 생체 정보를 실시간으로 수집하는 생체 정보 수집부;
    수집한 생체 정보에 기초하여 상기 사용자의 감정 상태를 실시간으로 파악하는 감정 상태 판단부;
    파악된 사용자의 감정 상태에 따라 해당 음원을 선호 또는 비선호 음원으로 분류하는 음원 분류부;
    비선호로 분류된 음원을 제거하고, 선호로 분류된 음원은 선호 음원 목록에 포함시키는 음원 관리부;를 포함하고,
    상기 음원 관리부는,
    현재 듣고 있는 음원이 선호 음원 목록에 포함된 음원으로, 비선호 음원으로 분류된 경우 상기 선호 음원 목록에서 제거하고, 선호 음원으로 분류된 경우 상기 선호 음원 목록에 유지하는 것을 특징으로 하는 감정 분석을 통한 선호 음원 관리 장치.
KR1020130085142A 2013-07-19 2013-07-19 감정 분석을 통한 선호 음원 관리 장치 및 방법 KR101506561B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130085142A KR101506561B1 (ko) 2013-07-19 2013-07-19 감정 분석을 통한 선호 음원 관리 장치 및 방법
PCT/KR2014/004554 WO2015008931A1 (ko) 2013-07-19 2014-05-22 감정 분석을 통한 선호 음원 관리 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130085142A KR101506561B1 (ko) 2013-07-19 2013-07-19 감정 분석을 통한 선호 음원 관리 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20150010313A KR20150010313A (ko) 2015-01-28
KR101506561B1 true KR101506561B1 (ko) 2015-03-27

Family

ID=52346347

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130085142A KR101506561B1 (ko) 2013-07-19 2013-07-19 감정 분석을 통한 선호 음원 관리 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101506561B1 (ko)
WO (1) WO2015008931A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11364894B2 (en) 2018-10-29 2022-06-21 Hyundai Motor Company Vehicle and method of controlling the same

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10285634B2 (en) * 2015-07-08 2019-05-14 Samsung Electronics Company, Ltd. Emotion evaluation
CN105596016A (zh) * 2015-12-23 2016-05-25 王嘉宇 一种人体心理、生理健康监测和管理装置及方法
CN109119076B (zh) * 2018-08-02 2022-09-30 重庆柚瓣家科技有限公司 一种老人用户交流习惯的收集***及方法
KR102212638B1 (ko) * 2019-08-21 2021-02-04 건국대학교 글로컬산학협력단 음악 추천 시스템 및 방법
KR102285883B1 (ko) * 2019-12-24 2021-08-05 주식회사 이엠텍 스테레오 음원 분석 방법
KR102454752B1 (ko) * 2020-10-22 2022-10-17 (주)나연테크 수면유도음향에 따른 뇌파 변화를 반영한 음향 분류 시스템, 음향 분류 방법 및 음향 분류 방법을 실행시키기 위하여 매체에 저장된 프로그램
KR20240046523A (ko) * 2021-10-06 2024-04-09 엘지전자 주식회사 사용자 맞춤형 컨텐츠를 제공하는 인공지능 디바이스 및, 그 디바이스를 제어하는 방법
WO2023219413A1 (en) * 2022-05-11 2023-11-16 Samsung Electronics Co., Ltd. Method and system for modifying audio content for listener

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020046662A (ko) * 2000-12-15 2002-06-21 변기만 감정상태에 기초한 선곡기능을 가진 음악제공시스템 및 방법
KR20060129582A (ko) * 2005-06-07 2006-12-18 주식회사 헬스피아 사용자의 감정 상태에 따라 단말기의 환경설정을 변경하는이동통신 단말기 및 그 변경방법
KR100769911B1 (ko) * 2006-09-12 2007-10-24 엘지전자 주식회사 이동통신 단말기 및 그 동작방법
KR100912123B1 (ko) * 2009-03-12 2009-08-13 (주)이랜서 신체정보에 따른 음악자동선곡 및 재생장치 및 그 방법
KR20110078233A (ko) * 2009-12-30 2011-07-07 한국기술교육대학교 산학협력단 사용자의 선호도를 반영하는 음악제공 시스템 및 그 방법
KR101070844B1 (ko) * 2010-10-01 2011-10-06 주식회사 바로연결혼정보 이상형을 연결시켜주기 위한 감성 매칭시스템 및 매칭방법
KR101142679B1 (ko) * 2009-01-23 2012-05-03 삼성전자주식회사 생체 신호를 이용한 음악 검색 장치 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100049074A1 (en) * 2005-01-31 2010-02-25 Koninklijke Philips Electronics, N.V. Categorizing songs on a physiological effect

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020046662A (ko) * 2000-12-15 2002-06-21 변기만 감정상태에 기초한 선곡기능을 가진 음악제공시스템 및 방법
KR20060129582A (ko) * 2005-06-07 2006-12-18 주식회사 헬스피아 사용자의 감정 상태에 따라 단말기의 환경설정을 변경하는이동통신 단말기 및 그 변경방법
KR100769911B1 (ko) * 2006-09-12 2007-10-24 엘지전자 주식회사 이동통신 단말기 및 그 동작방법
KR101142679B1 (ko) * 2009-01-23 2012-05-03 삼성전자주식회사 생체 신호를 이용한 음악 검색 장치 및 그 방법
KR100912123B1 (ko) * 2009-03-12 2009-08-13 (주)이랜서 신체정보에 따른 음악자동선곡 및 재생장치 및 그 방법
KR20110078233A (ko) * 2009-12-30 2011-07-07 한국기술교육대학교 산학협력단 사용자의 선호도를 반영하는 음악제공 시스템 및 그 방법
KR101070844B1 (ko) * 2010-10-01 2011-10-06 주식회사 바로연결혼정보 이상형을 연결시켜주기 위한 감성 매칭시스템 및 매칭방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11364894B2 (en) 2018-10-29 2022-06-21 Hyundai Motor Company Vehicle and method of controlling the same

Also Published As

Publication number Publication date
WO2015008931A1 (ko) 2015-01-22
KR20150010313A (ko) 2015-01-28

Similar Documents

Publication Publication Date Title
KR101506561B1 (ko) 감정 분석을 통한 선호 음원 관리 장치 및 방법
US10824232B2 (en) Sound outputting apparatus, electronic apparatus, and control method thereof
US20160320840A1 (en) Sound Outputting Apparatus, Electronic Apparatus, and Control Method Thereof
Bendixen et al. Regular patterns stabilize auditory streams
JP4861538B2 (ja) 脳波計測装置、電気的ノイズの推定方法、および、電気的ノイズの推定方法を実行するコンピュータプログラム
CN108156550B (zh) 头戴式耳机的播放方法和装置
KR20170082571A (ko) 스마트 오디오 헤드폰 시스템
US20200186912A1 (en) Audio headset device
AU2018267697B2 (en) A system for configuring a hearing device
Feng et al. Tiles audio recorder: an unobtrusive wearable solution to track audio activity
JP4281790B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017021737A (ja) 筋電信号を用いてアプリケーションに感情識別子を付与するプログラム、端末及びシステム
JPWO2018198332A1 (ja) 脳波データ分析システム、情報処理端末、電子機器、及び認知症検査のための情報の呈示方法
Liaqat et al. Challenges with real-world smartwatch based audio monitoring
Alves Araujo et al. Auris system: Providing vibrotactile feedback for hearing impaired population
WO2014141413A1 (ja) 情報処理装置、出力方法およびプログラム
Kaneshiro et al. Neuroimaging Methods for Music Information Retrieval: Current Findings and Future Prospects.
US20210026449A1 (en) Neurofeedback focus and productivity system, process, and method of use
CN110139164A (zh) 一种语音评论播放方法、装置,终端设备及存储介质
CN106250533B (zh) 一种面向智能机器人的富媒体播放数据处理方法和装置
JP6859622B2 (ja) 脳波信号処理システム、脳波信号処理方法及びプログラム
KR20230148166A (ko) 사용자의 감정 상태를 수정하는 장치 및 방법
CN108446024B (zh) 音乐播放方法及相关产品
CN106101893A (zh) 一种左右声道自动匹配的耳机以及识别方法
CN108028055A (zh) 信息处理装置、信息处理***和程序

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180416

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 5