KR102612206B1 - 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법 - Google Patents

사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법 Download PDF

Info

Publication number
KR102612206B1
KR102612206B1 KR1020220180147A KR20220180147A KR102612206B1 KR 102612206 B1 KR102612206 B1 KR 102612206B1 KR 1020220180147 A KR1020220180147 A KR 1020220180147A KR 20220180147 A KR20220180147 A KR 20220180147A KR 102612206 B1 KR102612206 B1 KR 102612206B1
Authority
KR
South Korea
Prior art keywords
answer
conversation
person
question
weight
Prior art date
Application number
KR1020220180147A
Other languages
English (en)
Inventor
신현미
Original Assignee
주식회사 마인드로
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 마인드로 filed Critical 주식회사 마인드로
Priority to KR1020220180147A priority Critical patent/KR102612206B1/ko
Application granted granted Critical
Publication of KR102612206B1 publication Critical patent/KR102612206B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

사람. 특히 피보호자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 후속 대화를 수행하는 로봇 대화 시스템의 동작 방법이 제공된다. 상기 로봇 대화 시스템의 동작 방법은, 미리 정해진 질문 중 어느 하나를 선택하여 제1 질문으로 사람에게 제공하는 단계; 상기 제1 질문에 대하여 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계; 상기 제1 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하는 단계; 상기 사람으로부터 제공된 제2 대답을 대답지표에 따라 분류하는 단계; 및 상기 제2 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계를 포함한다.

Description

사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법{INTERACTIVE CONVERSATION SYSTEM PERFORMING FOLLOW-UP CONVERSATION USING EMTION AND FEELING ANALYSIS INFORMATION APPERING IN THE CONVERSATION WITH WARDS, HUMANS}
본 발명은 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법에 관한 것으로, 더욱 구체적으로는 사람에 대한 질문으로부터 얻어지는 답변을 중심으로 사람의 정서 및 감정 분석 정보를 획득하고 심층적인 후속 대화를 수행함으로써 사람의 정서 및 감정 안정을 도울 수 있는 대화 시스템 및 그 시스템의 동작 방법에 관한 것이다.
최근 1인 가족화 및 고령화 사회로의 급격한 변화에 따라 돌봄이 필요한 사람을 상대로 단순한 관리뿐만 아니라 정서적인 케어를 할 수 있는 디지털 컴패니언(digital companion)이 요구되고 있다. 이는 COVID-19 등으로 인하여 비대면 의료 서비스가 대중화되고, 디지털 헬스케어 및 인공지능 기술을 비롯한 관련 산업의 기술적 완성도 및 시장 규모의 가파른 성장세를 보임에 따라 디지털 기술 기반 예방 중심의 의료 서비스로 전환되는 추세와도 맞물려 진행된다.
한편, 기존의 사람의 이동 또는 케어를 보조하는 로봇은 사용자가 음성 명령을 통해 제어하거나, 단순 정보 검색을 위하여 질문을 제시하면 이에 대한 답변을 인터넷 검색 등을 이용하여 수집하여 제시하는 수준에 그쳐 사람의 로봇을 적극적으로 이용하게 만들 수 있는 유인을 발생시키기에는 한계가 있었다.
이를 해결하기 위해서는 하나의 신뢰할 수 있는 대상으로서 서비스를 제공할 수 있도록 사람과의 관계 형성 기반의 정서 및 건강 관리 서비스를 제공하는 로봇이 제공될 필요가 있으며, 특히 사람과의 대화를 통해 감정적인 공감을 일으켜 로봇 이용에 대한 거부감을 저감시킬 수 있는 정서와 감정 분석 정보기반 일상 보조 및 돌봄 대화 시스템이 요구된다.
본 발명이 해결하고자 하는 기술적 과제는 사람과의 대화, 특히 대화 시스템(로봇, 태블릿 PC, 음성스피커, IoT 장치 등) 으로부터 피보호자에게 제공되는 질문으로부터 얻어지는 각종 정량적, 정성적 정보를 이용하여 사람과의 일련의 맞춤형 후속 대화를 자연스럽게 수행하고, 이를 통해 정서 및 감정적인 공감을 일으킴으로써 사람의 적극적인 참여(로봇, 스마트 기기 이용 등)를 유도할 수 있는 대화 시스템 및 그 시스템의 동작 방법을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템은, 사람으로부터 입력받은 대화의 의미를 분석하고 감정 정보를 추출하는 감정 분석부; 및 상기 추출된 감정 정보를 인공 지능 모델에 적용하여 사람으로부터 입력받은 대화에 대응한 대화를 생성하는 대화 생성부를 포함하되, 상기 대화 생성부는, 미리 정해진 질문 중 어느 하나를 선택하여 제1 질문으로 사람에게 제공하고, 상기 감정 분석부가 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류한 결과에 기초하여 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하고, 상기 감정 분석부가 상기 사람으로부터 제공된 제2 대답을 상기 대답지표에 따라 분류한 결과에 기초하여 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공지능 모델에 적용하여 제3 질문을 생성하고 후속 대화를 진행하는 단계를 포함한다.
본 발명의 몇몇 실시예에서, 상기 감정 분석부는, 입력된 음성 신호를 인식하여 대화문으로 변환하는 음성 인식부; 자연어 처리를 이용하여 변환된 대화문을 해석하는 자연어 처리부; 및 상기 해석 결과에 기초하여 상기 사람으로부터 입력받은 대화의 감정 정보를 추출하는 감정 추출부를 포함할 수 있다.
본 발명의 몇몇 실시예에서, 상기 대화 생성부는, 상기 제1 대답 및 제2 대답의 해석 결과 및 추출된 감정 정보를 이용하여 상기 인공지능 모델의 가중치(weight) 및 편향(bias)를 결정하는 파라미터 결정부, 상기 가중치 및 편향을 이용하여 생성된 인공지능 모델에 상기 사람으로부터 입력받은 대화를 입력하고, 상기 입력받은 대화에 대응하도록 출력된 대답을 생성하는 인공지능 모델 연산부, 상기 생성된 대답을 이용하여 대화문을 생성하는 대화문 생성부, 및 상기 대화문을 음성 신호로 변환하는 음성 합성부를 포함할 수 있다.
본 발명의 몇몇 실시예에서, 상기 파라미터 결정부는, 상기 사람으로부터 제공된 제1 대답 및 제2 대답으로부터 추출된 감정 정보에 포함된 부정적인 감정의 정도에 따라 상기 가중치 및 편향을 조정할 수 있다.
본 발명의 몇몇 실시예에서, 상기 가중치는 제1 대답의 부정적인 감정에 적용되는 제1 가중치와, 제2 대답의 부정적인 감정에 적용되는 제2 가중치를 포함하고, 상기 제2 가중치는 상기 제1 가중치보다 클 수 있다.
상술한 기술적 과제를 해결하기 위한 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템의 동작 방법은, 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템의 동작 방법에 있어서, 미리 정해진 질문 중 어느 하나를 선택하여 제1 질문으로 사람에게 제공하는 단계; 상기 제1 질문에 대하여 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계; 상기 제1 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하는 단계; 상기 사람으로부터 제공된 제2 대답을 대답지표에 따라 분류하는 단계; 및 상기 제2 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계를 포함한다.
본 발명의 몇몇 실시예에서, 상기 제1 질문에 대하여 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계는, 상기 제1 대답을 정량적 대답 또는 정성적 대답으로 분류하고, 제1 대답이 부정적인 의미를 포함하는지 여부에 따라 분류하는 단계를 포함할 수 있다.
본 발명의 몇몇 실시예에서, 상기 제1 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하는 단계는, 상기 제1 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 상기 제2 질문을 생성하는 단계를 포함할 수 있다.
본 발명의 몇몇 실시예에서, 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계는, 상기 추출된 감정 정보를 이용하여 상기 인공지능 모델의 가중치(weight) 및 편향(bias)를 결정하는 단계를 포함할 수 있다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법은 질문을 통해 사람의 대답을 유도하고, 해당 대답이 로그데이터로 저장 및 누적됨으로써 새로운 입력으로 기능하는 인공지능 모델을 이용할 수 있다. 이러한 모델을 이용함으로써 스토리텔링에 기반한 질문의 플로우(flow)를 생성할 수 있으며, 상술한 것과 같이 사람의 대화 참여 유도 및 공감 형성의 정도를 향상시킬 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 대화 시스템이 탑재되는 로봇의 개념도이다.
도 2는 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템(100)을 설명하기 위한 도면이다.
도 3은 본 발명의 실시예에 따른 대화 시스템에 포함된 감정 분석부를 설명하기 위한 도면이다.
도 4는 본 발명의 실시예에 따른 대화 시스템에 포함된 대화 생성부의 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템의 동작 방법을 설명하기 위한 순서도이다.
도 6은 본 발명의 실시예에 따른 대화 시스템의 동작 방법을 설명하기 위한 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
하나의 구성 요소가 다른 구성 요소와 "연결된(connected to)" 또는 "커플링된(coupled to)" 이라고 지칭되는 것은, 다른 구성 요소와 직접 연결 또는 커플링된 경우 또는 중간에 다른 구성 요소를 개재한 경우를 모두 포함한다. 반면, 하나의 구성 요소가 다른 구성 요소와 "직접 연결된(directly connected to)" 또는 "직접 커플링된(directly coupled to)"으로 지칭되는 것은 중간에 다른 구성 요소를 개재하지 않은 것을 나타낸다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
비록 제1, 제2 등이 다양한 구성 요소들을 서술하기 위해서 사용되나, 이들 구성 요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성 요소를 다른 구성 요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성 요소는 본 발명의 기술적 사상 내에서 제2 구성 요소 일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 실시예에서 사용되는 '부' 또는 '모듈'이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부' 또는 '모듈'은 어떤 역할들을 수행한다. 그러나 '부' 또는 '모듈'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부' 또는 '모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부' 또는 '모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소과, 함수들, 서브루틴들, 프로그램 코드의 세그먼트들, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함할 수 있다. 구성요소들과 '부' 또는 '모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부' 또는 '모듈'들로 결합되거나 추가적인 구성요소들과 '부' 또는 '모듈'들로 더 분리될 수 있다.
도 1은 본 발명의 실시예에 따른 대화 시스템이 탑재되는 로봇의 개념도이다.
도 1을 참조하면, 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 후속 대화를 수행하는 대화 시스템(100)은 도 1에 도시된 것과 같이 사람에 대하여 물건 이동, 이동 지원, 이승 등을 수행하기 위한 구동부(200)를 구비한 로봇(10, 도 1의 (a))이나, 인간형 로봇 타입으로 2족 보행을 위한 구동부(200)를 구비한 로봇 등에 탑재될 수 있다.
로봇(10)은 대화 시스템(100)을 통해 사람과 대화를 수행하면서, 사람의 요청 또는 정해진 루틴에 따라 견인 수단(210) 및 이동 수단(220)을 동작시킬 수 있으며, 구동부(200)의 동작을 통해 다른 위치로 이동하도록 동작할 수 있다. 본 발명의 몇몇 실시예에서, 로봇(10)은 대화 시스템(100)으로부터 얻어진 사람의 감정 및 정서 정보를 구동부(200)의 동작에 이용할 수 있다. 한편 도 1 등에서는 본 발명의 대화 시스템(100)이 로봇(10)에 탑재되는 것을 전제로 한 실시예로 설명되었으나 이에 제한되는 것은 아니다.
대화 시스템(100)을 이용한 로봇(10)의 구동 시스템 및 구동 방법과 관련하여, 도 2를 이용하여 설명한다.
도 2는 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템(100)을 설명하기 위한 도면이다.
도 2를 참조하면, 대화 시스템(100)은 대화 입력부(110), 대화 출력부(120), 감정 분석부(130) 및 대화 생성부(140)를 포함할 수 있다.
대화 시스템(100)은 본 발명의 실시예에서 설명하는 사람의 대화를 통해 감정 정보를 추출하고 추출된 감정 정보에 기초하여 후속 대화를 진행할 수 있는 컴퓨팅 장치를 포함할 수 있다. 예를 들어 대화 시스템(100)은 로봇(10)에 탑재되어 사용자의 음성 명령을 수신하고 이에 대응하는 대답을 제공하거나 화면 상에 사용자 인터페이스 등을 출력하여 사람의 사용을 유도할 수 있는 태블릿 PC 등에 의해 구현될 수 있으나 본 발명이 이에 제한되는 것은 아니다.
컴퓨터 장치로 구현된 대화 시스템(100)은 메모리에 하기 설명되는 각 구성 요소의 기능의 수행을 위한 명령어들을 일시적 또는 비일시적으로 저장하고, 저장된 명령어들을 실행하는 하나 이상의 프로세서를 포함할 수 있다. 또한 대화 시스템(100)은 상기 명령어들의 실행 결과 및 데이터를 저장하는 스토리지 장치를 포함할 수 있다.
대화 입력부(110)는 사람과의 대화를 입력받을 수 있으며, 예를 들어 마이크와 같은 음성 입력 수단뿐만 아니라 터치스크린, 기계식 버튼, 솔리드 스테이트 버튼, 마우스, 키보드와 같은 입력 수단을 포함할 수 있다. 본 발명의 몇몇 실시예에서 대화 입력부(110)는 로봇(10)과 유무선 네트워크를 통해 연결된 사람의 스마트폰, 태블릿 PC 등으로부터 전송되는 데이터를 통해 사람의 대화를 입력받는 통신 인터페이스를 포함할 수 있다.
다만 이하에서는 대화 입력부(110)가 사람과 음성 신호를 이용하여 대화를 진행하는 것을 기준으로 설명하고, 이때 대화 입력부(110)는 마이크로 기능하여 사람의 음성 신호를 수집할 수 있다.
대화 입력부(110)는 대화 생성부(140)가 생성한 제1 내지 제3 질문을 비롯하여 대화 출력부(120)를 통해 사람에 제공되는 질문에 대한 사람의 대답을 입력받을 수 있다. 또한 대화 입력부(110)는 사용자에게 제공되는 질문과 관계없이 독립적으로 사용자로부터 제공되는 대화 및 지시 등을 입력받을 수 있다. 대화 입력부(110)가 음성 입력을 제공받는 경우 대화 입력부(110)는 예를 들어 사람이 입력하는 대화 또는 지시의 시작점을 알 수 있도록 미리 정한 기동어를 인식할 수도 있다.
대화 출력부(120)는 대화 생성부(140)가 생성한 대화 출력을 사람에게 출력할 수 있다. 대화 출력부(120)는 예를 들어 음성 신호의 형태로 생성된 대화를 출력하는 스피커뿐만 아니라 출력 화면에 대화 생성부(140)에 의해 생성된 대화를 출력하는 화면 출력 장치를 포함할 수 있다.
본 발명의 몇몇 실시예에서 대화 출력부(120)는 로봇(10)과 유무선 네트워크를 통해 연결된 사람의 스마트폰, 태블릿 PC로 데이터를 통해 해당 단말을 통해 사람에게 대화를 출력하는 통신 인터페이스를 포함할 수 있다. 대화 입력부(110)와 마찬가지로 이하에서 대화 출력부(120)는 대화 생성부(140)가 생성한 질문 또는 답변, 일상적인 대화를 음성 신호의 형태로 출력하는 스피커인 것으로 설명한다.
대화 출력부(120)는 사람으로부터 입력받은 질문에 대한 답변이나, 대화 생성부(140)가 생성한 질문들을 음성 신호, 시각 신호 등을 통해 사람에게 출력할 수 있다.
감정 분석부(130)는 사람이 대화 입력부(110)를 통해 제공한 대화의 의미를 인식하고, 해당 대화로부터 얻어지는 감정을 분석할 수 있다. 감정 분석부(130)의 구성 및 기능과 관련하여 도 3을 이용하여 더욱 자세하게 설명한다.
도 3은 본 발명의 실시예에 따른 대화 시스템에 포함된 감정 분석부를 설명하기 위한 도면이다.
도 3을 참조하면, 감정 분석부(130)는 음성 인식부(131), 자연어 처리부(132) 및 감정 추출부(133)를 포함할 수 있다.
음성 인식부(131)는 대화 입력부(110)를 통해 입력된 음성 신호를 인식하여 대화문으로 변환할 수 있다. 변환된 대화문은 적어도 하나 이상의 단어를 포함하는 텍스트 데이터를 포함할 수 있다.
자연어 처리부(132)는 자연어 처리를 이용하여 변환된 대화문을 해석할 수 있다. 자연어 처리부(132)는 예를 들어 대화문을 형태로 단위로 분류하고, 분류된 각 형태소 사이의 관계, 형태소의 대화문 내에서의 위치, 형태소의 품사 등의 정보를 이용하여 대화문의 의미를 분석할 수 있다.
자연어 처리부(132)는 분석된 대화문의 의미를 이용하여 사람이 제공한 대화문을 분류할 수 있다. 구체적으로, 자연어 처리부(132)는 대화문이 사람에게 제공된 질문에 대한 대답인지, 또는 앞선 질문과 관련하여 반문하는 질문인지, 또는 사람으로부터 제공된 새로운 질문인지를 파악할 수 있다. 또한 대화문이 대답인 경우, 분석된 대화문의 의미를 이용하여 정량적 대답인지 정성적 대답인지를 분류할 수 있다.
예를 들어 정량적 대답은, 수치로 나타내어지는 지표를 포함하는 지표 대답과, 네/아니오로 나눠지는 단답을 포함할 수 있다. 정성적 대답은 질문에 대하여 일반적인 설명이나 자유로운 응답을 포함할 수 있다.
자연어 처리부(132)는 대화문의 의미 분석 결과에 기초하여 핵심 형태소를 추출할 수 있다. 핵심 형태소는 대화문으로부터 분류된 형태소 가운데 사람에게 제공된 질문과 관련도에 기초하여 선택될 수 있다.
감정 추출부(133)는 사람으로부터 제공된 음성 신호로부터 감정 정보를 추출할 수 있다. 감정 추출부(133)는 음성 신호가 갖는 대화문의 의미에 기초하여 사람의 감정 정보를 추출할 수 있으며, 구체적으로 핵심 형태소뿐만 아니라 핵심 형태소를 강조하는 부사, 형용사 등으로부터 감정 정보를 추출할 수 있다.
한편, 감정 추출부(133)는 사람에게 제공된 질문에 대한 대답이 대답지표에 따라 분류된 결과로부터 감정 정보를 추출할 수 있으며, 이는 사람의 대답이 정량적 대답 또는 정성적 대답인지 여부에 따라 다르게 처리될 수 있다. 예를 들어 대답이 정량적 대답 중 지표 대답이라면, 사람이 "정말 싫어"와 같이 부정적인 지표의 대답을 제공한 경우 감정 추출부(133)는 그 대답으로부터 부정적 감정, 혐오 감정 등을 추출할 수 있다.
또는, 대답이 정성적 대답이라면, 사람이 "어제는 괜찮았는데 지금은 아파요"와 같은 핵심 형태소를 포함하도록 대답한 경우 감정 추출부(133)는 그 대답으로부터 통증, 불편함 등의 감정을 추출할 수 있다. 이를 위해 감정 추출부(133)는 핵심 형태소를 워드벡터(word vector)로 처리하여 벡터 공간 내에서 부정적인 감정으로 분류한 핵심 형태소의 포함 정도에 따라 사람의 대답의 전체적인 감정을 분석할 수 있다. 즉, 벡터 공간 상에서 부정적인 감정 구역에 속한 워드벡터의 좌표가 많이 분포되는 경우 감정 추출부(133)는 해당 대답으로부터 부정적인 감정을 추출할 수 있다.
몇몇 실시예에서, 감정 추출부(133)는 사람의 음성 신호가 갖는 음향적 특징을 이용하여 감정 정보를 추출할 수도 있다. 예를 들어 감정 추출부(133)는 음성 신호의 속도, 높낮이 및 음성 신호의 크기를 이용하여 감정 정보를 추출할 수 있다.
다시 도 2를 참조하면, 대화 생성부(140)는 사람에게 제시할 대화문을 생성할 수 있다. 대화 생성부(140)의 구성 및 기능과 관련하여 도 4를 이용하여 더욱 자세하게 설명한다.
도 4는 본 발명의 실시예에 따른 대화 시스템에 포함된 대화 생성부의 구성을 설명하기 위한 도면이다.
도 4를 참조하면, 대화 생성부(140)는 파라미터 결정부(141), 인공지능 모델 연산부(142), 대화문 생성부(143) 및 음성 합성부(144)를 포함할 수 있다.
파라미터 결정부(141)는 사람으로부터 제공된 대화문에서 추출된 감정 정보, 대화문의 의미로부터 인공지능 모델의 파라미터를 결정할 수 있다. 인공지능 모델의 파라미터는 예를 들어 자연어 처리부(132)가 추출한 핵심 형태소가 인공지능 모델 내의 하나의 노드에서 활성화 함수를 거쳐 최종적으로 출력되는 값에 관한 가중치(weight)와 편향(bias) 값을 포함할 수 있다.
본 발명의 몇몇 실시예에서, 가중치는 사람으로부터 제공받은 대답에 포함된 핵심 형태소 가운데 부정적인 의미의 핵심 형태소에 부여될 수 있다. 또한 파라미터 결정부(141)는 핵심 형태소를 수식하는 강조어, 즉 부사 및 형용사 등에도 가중치를 부여할 수 있다. 예를 들어 파라미터 결정부(141)에 의해 한 그룹의 부정적인 의미의 핵심 형태소에 대하여 제1 가중치가 부여되고, 한 그룹의 강조어에 제2 가중치가 부여될 때, 부정적인 핵심 형태소로부터 추출되는 감정에 중요도를 두기 위해 제1 가중치는 제2 가중치보다 클 수 있다.
한편, 파라미터 결정부(141)는 인공지능 모델의 편향(bias)과 관련하여 주로 대화 시스템(100)이 생성하는 대화문 상의 표현의 다양성을 결정짓도록 설정할 수 있다. 즉, 대화 시스템(100)이 생성하는 대화문의 종결어미의 종류, 의성어, 의태어의 포함 정도가 상기 편향에 의해 결정될 수 있다.
한편, 파라미터 결정부(141)는 사람으로부터 제공된 대화를 누적하여 파라미터를 결정할 수 있다. 즉, 하나의 대답으로부터 결정된 가중치와 편향을 이용하여 파라미터를 결정하는 것뿐만 아니라, 파라미터 결정부(141)는 사람과의 일련의 대화를 이용하여 인공지능 모델을 구성하기 위한 파라미터를 설정할 수 있다. 따라서 파라미터 결정부(141)는 사람의 감정의 흐름 및 변화를 파라미터에 포함시킬 수 있으며, 예를 들어 특정 질문에 대한 대답과 관련하여 가중치를 더 크게 부여함으로써 중요한 질문 및 대답에 대한 인공지능 모델의 반영 정도를 증가시킬 수 있으며, 더욱 구체적으로 가장 최근의 대답에 대한 가중치를 가장 크게 하고 시간적으로 거슬러 올라갈수록 가중치가 감소되도록 설정할 수도 있다.
인공지능 모델 연산부(142)는 파라미터 결정부(141)가 설정한 가중치 및 편향을 이용하여 생성된 인공지능 모델을 이용하여 사람에 제공할 다음 대화를 생성할 수 있다. 상기 인공지능 모델은 예를 들어 입력과 출력 사이에 복수의 은닉층(hidden layer)이 배치된 딥러닝(deep learning) 모델을 포함할 수 있으며, 사람이 제공한 질문에 대하여 답변을 생성하거나, 사람이 제공한 답변에 대하여 다음 질문을 생성하는 것에 사용될 수 있다.
인공지능 모델 연산부(142)가 사람에 제공할 답변 또는 질문을 생성하기 위하여 제공된 질문 또는 답변을 입력으로 제공하면, 파라미터 결정부(141)가 설정한 가중치에 의해 은닉층의 각각의 노드에 의해 연산이 진행되고, 마지막으로 편향을 거쳐 종결어미, 의성어 및 의태어 등이 부가된 결과가 생성될 수 있다.
앞서 설명한 것과 같이, 인공지능 모델의 가중치는 부정적인 의미의 핵심 형태소 및 강조어 등에 기초하여 설정될 수 있으며, 인공지능 모델 연산부(142)는 파라미터를 통해 부정적인 의미가 심하게 나타난 답변일수록 이어질 질문의 종류, 어조 및 앞선 답변과의 관련성 등이 달라지도록 설정할 수 있다. 즉, 인공지능 모델 연산부(142)는 사람의 부정적인 감정에 더 포커스를 맞춰 이에 공감하도록 설정된 출력을 생성할 수 있다.
대화문 생성부(143)는 인공지능 모델을 거쳐 생성된 답변을 대화문의 형태로 생성할 수 있다. 한편, 대화 초기에 사람에 대한 기초 정보 또는 사람과의 대화로부터 추출된 감정 정보가 부족한 경우에, 대화문 생성부(143)는 데이터베이스에 저장된 미리 정한 질문 중 어느 하나를 선택함으로써 대화문을 생성할 수 있다.
대화문 생성부(143)가 생성한 대화문은 음성 합성부(143)에 의해 음성 신호로 변환되어 대화 출력부(120)를 통해 사람에게 제공될 수 있다.
도 5는 본 발명의 실시예에 따른 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템의 동작 방법을 설명하기 위한 순서도이다.
도 5를 참조하면, 본 발명의 실시예에 따른 대화 시스템의 동작 방법은, 미리 정해진 질문 중 하나를 선택하여 제1 질문으로 사람에게 제공하는 단계(S110), 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계(S120), 대답지표에 따라 제1 대답의 원인 탐색을 위한 제2 질문을 사람에 제공하는 단계(S130), 사람으로부터 제공된 제2 질문에 대한 제2 대답을 제공받고, 대답지표에 따라 분류하는 단계(S140), 제1 및 제2 대답으로부터 추출된 감정 정보를 인공지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계(S150)를 포함한다.
본 발명의 실시예에 따른 대화 시스템의 동작 방법과 관련하여, 도 6을 이용하여 자세하게 설명한다.
도 6은 본 발명의 실시예에 따른 대화 시스템의 동작 방법을 설명하기 위한 도면이다.
도 6을 참조하면, 대화 시스템(100)은 제1 질문을 미리 정해진 질문 중 하나를 선택하여 제1 질문으로 사람에게 제공할 수 있다(S110). 해당 질문들은 대화 데이터베이스에 미리 저장되고, 대화문 생성부(143)는 해당 데이터베이스로부터 저장된 미리 정한 질문 중 어느 하나를 선택하여 대화문을 생성할 수 있다.
이어서 사람으로부터 제1 대답이 제공되면, 자연어 처리부(132)는 해당 대답을 분석하고 제1 대답을 대답지표에 따라 분류하는 단계(S120)가 수행된다. 자연어 처리부(132)는 분석된 대화문의 의미를 이용하여 사람이 제공한 대화문을 분류할 수 있으며, 예를 들어 정량적 대답(201)인지 정성적 대답(202)인지를 분류할 수 있다. 또한 자연어 처리부(132)는 정량적 대답 가운데서도 단순한 단답형 대답인지, 수치로 나타내어지는 지표를 포함하는 지표대답인지를 결정할 수 있다. 이 과정에서 자연어 처리부(132)는 사람이 제공한 제1 대답이 긍정적인 대답(지표가 양의 값이거나 긍정적인 단답형인 경우)인지, 부정적인 대답(지표가 음의 값이거나, 부정형의 단답형인 경우)인지 여부를 결정할 수 있다(S121). 긍정적인 대답인 경우 대화 생성부(140)는 사람에게 이어서 제공될 다음 질문을 생성할 수 있다.
그러나 부정적인 대답인 경우, 대화 시스템(100)은 제1 대답의 원인 탐색을 위한 제2 질문을 사람에 제공할 수 있다(S130). 즉, 부정적인 대답인 경우 대화 시스템(100)은 해당 주제에 대하여 대화를 이어 나가기 위한 심층질문 루프에 진입할 수 있다.
또한, 상기 단계(S121)와 관련하여, 본 발명의 몇몇 실시예의 대화 생성부(140)는 사람이 제공한 제1 대답이 긍정 또는 부정적인지 여부와 함께, 제1 대답에 포함된 감정, 의도, 정서 및 표현 등을 분석할 수 있다.
한편, 제2 질문은 사람의 제1 대답의 부정적인 의미에 기초하여 생성될 필요가 있으므로, 사람의 제1 대답으로부터 생성된 파라미터를 인공지능 모델에 적용하여 제2 질문을 생성할 수 있다. 앞서 설명한 것과 같이, 인공지능 모델의 가중치는 부정적인 의미의 핵심 형태소 및 강조어 등에 기초하여 설정될 수 있으며, 대화 생성부(140)는 파라미터를 통해 부정적인 의미가 심한 답변일수록 이에 공감하는 답변을 생성하고, 또한 이어질 제2 질문에서 해당 질문과 관련성의 정도가 대화를 생성할 수 있다.
이어서 사람으로부터 제공된 제2 질문에 대한 제2 대답을 제공받고, 대답지표에 따라 분류하는 단계(S140)가 수행된다. 앞서 제1 대답의 경우와 마찬가지로, 제1 대답이 긍정적인 대답인지, 부정적인 대답인지 여부를 결정하는 단계로, 긍정적인 대답인 경우 대화 생성부(140)는 사람에게 이어서 제공될 다음 질문을 생성할 수 있다. 반면에 부정적인 대답인 경우, 대화 시스템(100)은 제2 대답의 원인 탐색을 위한 심층질문 루프에 다시 진입하여 제1 및 제2 대답으로부터 추출된 감정 정보를 인공지능 모델에 입력하여 생성된 제3 질문으로 후속 대화를 진행할 수 있다(S150).
여기서 제3 질문은 앞서 제1 대답 및 제2 대답으로부터 추출된 감정 정보가 반영된 인공지능 모델로부터 생성될 수 있다. 즉, 심층질문 루프 단계에서 감정 분석부(130)는 앞서 제공된 제1 및 제2 대답으로부터 누적된 감정 정보를 추출하고, 대화 생성부(140)는 누적된 감정 정보가 가중치 및 편향으로 반영된 인공지능 모델을 이용하여 제3 질문을 생성하는 것이다. 이를 통해 사람에 대하여 돌봄이나 정서적 주의가 필요한 구간, 즉 심층질문 루프에서 반복적이고 주의 깊은 질문 및 대답이 이어질 수 있게 함으로써 대화 시스템(100)은 사람과의 공감 형성 및 심리 안정에 도움이 되게 할 수 있다.
정리하면, 본 발명의 실시예에 따른 대화 시스템(100)은 질문을 통해 사람의 대답을 유도하고, 해당 대답이 로그데이터로 저장 및 누적됨으로써 새로운 입력으로 기능하는 인공지능 모델을 이용할 수 있다. 이러한 모델을 이용함으로써 스토리텔링에 기반한 질문의 플로우(flow)를 생성할 수 있으며, 상술한 것과 같이 인터렉티브한 대화를 구성함으로써 사람의 참여 유도 및 공감 형성의 정도를 향상시킬 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 하드디스크, ROM, RAM, CD-ROM, 하드 디스크, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등을 포함한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 대화 시스템 110: 대화 입력부
120: 대화 출력부 130: 감정 분석부
140: 대화 생성부 200: 구동부

Claims (11)

  1. 사람으로부터 입력받은 대화의 의미를 분석하고 감정 정보를 추출하는 감정 분석부; 및
    상기 추출된 감정 정보를 인공 지능 모델에 적용하여 사람으로부터 입력받은 대화에 대응한 대화를 생성하는 대화 생성부를 포함하되,
    상기 대화 생성부는,
    미리 정해진 질문 중 어느 하나를 선택하여 제1 질문으로 사람에게 제공하고,
    상기 감정 분석부가 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류한 결과 상기 제1 대답이 부정적인 대답으로 분류된 경우, 상기 제1 대답과 관련된 주제에 대하여 대화를 이어 나가기 위한 심층질문 루프에 진입하여 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하고,
    상기 감정 분석부가 상기 사람으로부터 제공된 제2 대답을 상기 대답지표에 따라 분류한 결과 상기 제2 대답이 부정적인 대답으로 분류된 경우, 상기 심층질문 루프에 진입하여 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공지능 모델에 적용하여 제3 질문을 생성하고 후속 대화를 진행하는 단계를 포함하되,
    상기 감정 분석부는,
    입력된 음성 신호를 인식하여 대화문으로 변환하는 음성 인식부;
    자연어 처리를 이용하여 변환된 대화문을 해석하는 자연어 처리부; 및
    상기 해석 결과에 기초하여 상기 사람으로부터 입력받은 대화의 감정 정보를 추출하는 감정 추출부를 포함하고,
    상기 대화 생성부는,
    상기 제1 대답 및 제2 대답의 해석 결과 및 추출된 감정 정보를 이용하여 상기 인공지능 모델의 가중치(weight) 및 편향(bias)를 결정하는 파라미터 결정부,
    상기 가중치 및 편향을 이용하여 생성된 인공지능 모델에 상기 사람으로부터 입력받은 대화를 입력하고, 상기 입력받은 대화에 대응하도록 출력된 대답을 생성하는 인공지능 모델 연산부,
    상기 생성된 대답을 이용하여 대화문을 생성하는 대화문 생성부, 및
    상기 대화문을 음성 신호로 변환하는 음성 합성부를 포함하고,
    상기 파라미터 결정부는,
    상기 사람으로부터 제공된 제1 대답 및 제2 대답으로부터 추출된 감정 정보에 포함된 부정적인 감정의 정도에 따라 상기 가중치 및 편향을 조정하고,
    상기 가중치는 제1 대답의 부정적인 감정에 적용되는 제1 가중치와,
    제2 대답의 부정적인 감정에 적용되는 제2 가중치를 포함하고,
    상기 제2 가중치는 상기 제1 가중치보다 큰,
    사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템의 동작 방법에 있어서,
    미리 정해진 질문 중 어느 하나를 선택하여 제1 질문으로 사람에게 제공하는 단계;
    상기 제1 질문에 대하여 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계;
    상기 제1 대답의 대답지표에 따라 분류한 결과 상기 제1 대답이 부정적인 대답으로 분류된 경우, 상기 제1 대답과 관련된 주제에 대하여 대화를 이어 나가기 위한 심층질문 루프에 진입하여 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하는 단계;
    상기 사람으로부터 제공된 제2 대답을 대답지표에 따라 분류하는 단계; 및
    상기 제2 대답의 대답지표에 따라 분류한 결과 상기 제2 대답이 부정적인 대답으로 분류된 경우, 상기 심층질문 루프에 진입하여 상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계를 포함하되,
    상기 제1 대답 및 제2 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 제3 질문으로 후속 대화를 진행하는 단계는,
    상기 추출된 감정 정보를 이용하여 상기 인공지능 모델의 가중치(weight) 및 편향(bias)를 결정하는 단계를 포함하고,
    상기 가중치는 제1 대답의 부정적인 감정에 적용되는 제1 가중치와,
    제2 대답의 부정적인 감정에 적용되는 제2 가중치를 포함하고,
    상기 제2 가중치는 상기 제1 가중치보다 큰,
    사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템.
  7. 제 6항에 있어서,
    상기 제1 질문에 대하여 상기 사람으로부터 제공된 제1 대답을 대답지표에 따라 분류하는 단계는,
    상기 제1 대답을 정량적 대답 또는 정성적 대답으로 분류하고, 제1 대답이 부정적인 의미를 포함하는지 여부에 따라 분류하는 단계를 포함하는,
    사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템.
  8. 제 7항에 있어서,
    상기 제1 대답의 대답지표가 미리 정한 기준을 만족하는 경우 상기 제1 대답의 원인 탐색을 위한 제2 질문을 사용자에게 제공하는 단계는,
    상기 제1 대답으로부터 추출된 감정 정보를 인공 지능 모델에 적용하여 생성된 상기 제2 질문을 생성하는 단계를 포함하는,
    사람과의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터렉티브한 후속 대화를 수행하는 대화 시스템.
  9. 삭제
  10. 삭제
  11. 삭제
KR1020220180147A 2022-12-21 2022-12-21 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법 KR102612206B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220180147A KR102612206B1 (ko) 2022-12-21 2022-12-21 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220180147A KR102612206B1 (ko) 2022-12-21 2022-12-21 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법

Publications (1)

Publication Number Publication Date
KR102612206B1 true KR102612206B1 (ko) 2023-12-12

Family

ID=89159540

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220180147A KR102612206B1 (ko) 2022-12-21 2022-12-21 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법

Country Status (1)

Country Link
KR (1) KR102612206B1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372642B1 (ko) * 2021-01-27 2022-03-08 아주대학교산학협력단 자동 응답 생성 방법 및 장치
KR102385899B1 (ko) * 2019-03-28 2022-04-12 서울대학교산학협력단 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102385899B1 (ko) * 2019-03-28 2022-04-12 서울대학교산학협력단 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법
KR102372642B1 (ko) * 2021-01-27 2022-03-08 아주대학교산학협력단 자동 응답 생성 방법 및 장치

Similar Documents

Publication Publication Date Title
de Lope et al. An ongoing review of speech emotion recognition
JP3940363B2 (ja) 階層言語モデル
WO2019046463A1 (en) SYSTEM AND METHOD FOR THE DEFINITION OF DIALOGUE INTENTIONS AND THE CONSTRUCTION OF INTENTION RECOGNITION MODELS WITHOUT PRIOR KNOWLEDGE
JP2021514514A (ja) 感情コンピューティングユーザインターフェースに基づく感性的インタラクションシステム、装置及び方法
US20020178005A1 (en) System and method for adaptive language understanding by computers
US11720759B2 (en) Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium
JP6804763B2 (ja) 対話システム、対話装置及びそのためのコンピュータプログラム
KR20210070213A (ko) 음성 사용자 인터페이스
KR20180108400A (ko) 전자 장치, 그의 제어 방법 및 비일시적 컴퓨터 판독가능 기록매체
US11568853B2 (en) Voice recognition method using artificial intelligence and apparatus thereof
Chandiok et al. CIT: Integrated cognitive computing and cognitive agent technologies based cognitive architecture for human-like functionality in artificial systems
Anjum Emotion recognition from speech for an interactive robot agent
Zhang Ideological and political empowering english teaching: ideological education based on artificial intelligence in classroom emotion recognition
Hamidi et al. Emotion recognition from Persian speech with neural network
Singh et al. EmoInHindi: A multi-label emotion and intensity annotated dataset in Hindi for emotion recognition in dialogues
CN111177346B (zh) 人机交互方法、装置、电子设备、存储介质
Sati et al. An Intelligent Virtual System using Machine Learning
Aly et al. An online fuzzy-based approach for human emotions detection: an overview on the human cognitive model of understanding and generating multimodal actions
KR102612206B1 (ko) 사람, 특히 피호보자와의 대화에서 나타나는 정서 및 감정 분석 정보를 이용하여 인터엑티브한 후속 대화를 수행하는 대화 시스템 및 그 시스템의 동작 방법
Agrima et al. Emotion recognition from syllabic units using k-nearest-neighbor classification and energy distribution
KR20210049613A (ko) 비정형 질문 또는 요구 발화의 구조화된 패러프레이징 시스템 및 방법
KR20230120790A (ko) 가변적 언어모델을 이용한 음성인식 헬스케어 서비스
Sidorov et al. Contemporary stochastic feature selection algorithms for speech-based emotion recognition.
Bojanić et al. Application of dimensional emotion model in automatic emotional speech recognition
KR102635031B1 (ko) 의미 단위 시각화를 기반으로 한 화자 분리 실시간 통역 서비스 제공 방법, 장치 및 시스템

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant