KR20200114230A - Conversational agent system and method based on user emotion - Google Patents

Conversational agent system and method based on user emotion Download PDF

Info

Publication number
KR20200114230A
KR20200114230A KR1020190035593A KR20190035593A KR20200114230A KR 20200114230 A KR20200114230 A KR 20200114230A KR 1020190035593 A KR1020190035593 A KR 1020190035593A KR 20190035593 A KR20190035593 A KR 20190035593A KR 20200114230 A KR20200114230 A KR 20200114230A
Authority
KR
South Korea
Prior art keywords
response
text
user
conversation data
data
Prior art date
Application number
KR1020190035593A
Other languages
Korean (ko)
Other versions
KR102385899B1 (en
Inventor
이준환
권가진
김수민
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020190035593A priority Critical patent/KR102385899B1/en
Publication of KR20200114230A publication Critical patent/KR20200114230A/en
Application granted granted Critical
Publication of KR102385899B1 publication Critical patent/KR102385899B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

Provided are a system and a method for generating a response based on the emotion of a user. The system for generating a response based on the emotion of a user can comprise: a memory for storing conversation data acquired from a user; and a control part that determines the mood of the conversation data on which the emotion of a user is reflected based on the conversation data, and determines at least one of words and structures to be included in a response to the conversation data based on the determined mood so as to generate the response.

Description

사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법{CONVERSATIONAL AGENT SYSTEM AND METHOD BASED ON USER EMOTION}A system and method for generating a response according to user emotion identification {CONVERSATIONAL AGENT SYSTEM AND METHOD BASED ON USER EMOTION}

본 명세서에서 개시되는 실시예들은 사용자 감정에 따라 응답을 생성하는 시스템 및 방법에 관한 것으로, 보다 상세하게는 사용자의 감정 상태를 결정하고, 사용자의 감정 상태에 적합한 챗봇 응답 분위기를 결정하여 이에 맞는 응답 문장을 제공하는 사용자 감정에 따라 응답을 생성하는 시스템 및 방법에 관한 것이다.The embodiments disclosed in this specification relate to a system and method for generating a response according to a user's emotion, and in more detail, a user's emotional state is determined, a chatbot response atmosphere suitable for the user's emotional state is determined, and a corresponding response It relates to a system and method for generating a response according to a user emotion providing a sentence.

과거 챗봇은 사용자가 입력한 문장으로부터 사전에 정의된 키워드의 유무를 인식해 식별된 키워드에 대응되는 응답을 출력하는 단순 패턴매칭 방식을 통해 사용자의 문장에 응답을 하였다. In the past, chatbots responded to user sentences through a simple pattern matching method that recognizes the presence or absence of predefined keywords from the sentences entered by the user and outputs a response corresponding to the identified keywords.

이때, 챗봇은 키워드가 포함되어 있는 문장의 문맥을 고려하여 특정 응답을 선택하는 것이 아닌 단순히 키워드에 대응되는 응답을 조합하여 응답을 생성하기 때문에 사용자의 문장에 적합한 응답을 제공하지 못하는 경우가 있다. In this case, the chatbot does not select a specific response in consideration of the context of the sentence containing the keyword, but simply combines the response corresponding to the keyword to generate a response, so there are cases in which it is not possible to provide an appropriate response to the user's sentence.

최근 인공지능 기술의 발전으로 머신러닝, 자연어 처리 등의 기술이 결합되면서 인간의 자연스러운 언어로 질문이나 명령을 내리면 맥락을 파악하여 응답이 가능해지고 있다 With recent advances in artificial intelligence technology, technologies such as machine learning and natural language processing are combined, and when a question or command is given in human natural language, it is possible to grasp the context and respond.

특히, 인공지능 기술을 이용하는 경우, 챗봇과 사용자간의 대화가 축적될수록 챗봇 스스로 학습을 통해 사용자 대화에 대한 응답 정확도를 높일 수 있다. In particular, in the case of using artificial intelligence technology, as the conversation between the chatbot and the user accumulates, the response accuracy to the user conversation can be improved by learning the chatbot itself.

하지만, 인공지능 기술을 이용하여도 사용자로부터 획득되는 대화에 대응되는 형식적인 응답을 제공할 수 있을 뿐, 사용자의 감정에 따라 적합한 응답을 제공하지 못한다는 문제점이 있다. However, even with the use of artificial intelligence technology, there is a problem that a formal response corresponding to a conversation obtained from a user can be provided, and an appropriate response cannot be provided according to the user's emotion.

관련하여 선행기술 문헌인 한국특허공개번호 제 10-2019-0005137호에서는 회의일정을 스케줄링하는 챗봇 서버, 메신저 서버 및 방법에 관한 것으로 회의 일정을 스케줄링하는 챗봇 서버는 회의 주관자의 단말과 챗봇과의 채팅방을 통해 회의 주관자로부터 회의 일정 스케줄링 요청 메시지를 수신하고, 회의 일정 스케줄링 요청 메시지에 기초하여 관련 회의 이력을 도출하여 관련 회의 이력에 기초하여 회의 참석자, 회의 일정 및 회의 장소 중 적어도 하나를 결정하여 회의 일정에 대한 정보에 기초하여 회의 참석자의 단말 각각과 챗봇과의 개인 채팅방 및 회의 참석자의 단말간의 그룹 채팅방을 통해 회의와 관련된 정보를 제공할 수 있을 뿐, 사용자의 감정에 따라 적합한 응답을 제공할 수 없다.In a related art document, Korean Patent Publication No. 10-2019-0005137 relates to a chatbot server, a messenger server, and a method for scheduling a meeting. The chatbot server for scheduling a meeting schedule is a chat room between the terminal of the conference organizer and the chatbot. Meeting schedule by receiving a meeting schedule scheduling request message from the conference organizer through the conference schedule, and derives a related meeting history based on the meeting schedule scheduling request message, and determines at least one of meeting participants, meeting schedule, and meeting place based on the related meeting history. Based on the information on, it is possible to provide information related to the meeting through a private chat room between each of the meeting participant's terminals and a chatbot, and a group chat room between the meeting participant's terminals, but it is not possible to provide appropriate responses according to the user's emotion .

따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, there is a need for a technique to solve the above-described problem.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-described background technology is technical information that the inventor possessed for derivation of the present invention or acquired during the derivation process of the present invention, and is not necessarily known to be publicly known before filing the present invention. .

본 명세서에서 개시되는 실시예들은, 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시하는데 목적이 있다. Embodiments disclosed herein are aimed at providing a system and method for generating a response according to user emotion.

본 명세서에서 개시되는 실시예들은, 사용자의 감정을 파악하기 위해 환경 데이터를 함께 분석하여 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시하는데 목적이 있다.The embodiments disclosed in the present specification aim to provide a system and method for generating a response according to the user's emotion by analyzing environmental data together to determine the user's emotion.

본 명세서에서 개시되는 실시예들은, 텍스트 내의 사용자 주요 감정을 식별하여 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시하는데 목적이 있다.Embodiments disclosed in the present specification are intended to provide a system and method for generating a response according to the user emotion by identifying the user's main emotion in the text.

본 명세서에서 개시되는 실시예들은, 사용자의 무드에 따라 응답 발화의 경중 및 고저를 결정하는 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시하는데 목적이 있다. Embodiments disclosed herein are aimed at providing a system and method for generating a response according to a user's emotion that determines the severity and height of the response utterance according to the user's mood.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 사용자 감정에 따라 응답을 생성하는 시스템에 있어서, 사용자로부터 획득된 대화데이터를 저장하는 메모리 및 상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하고, 결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함될 단어 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 제어부를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment, in a system for generating a response according to a user's emotion, a memory for storing conversation data obtained from a user and a user's It may include a control unit that determines a mood of conversation data in which emotion is reflected, and generates the response by determining at least one of words and structures to be included in the response to the conversation data based on the determined mood.

다른 실시예에 따르면, 응답생성시스템이 사용자 감정에 따라 응답을 생성하는 방법에 있어서, 사용자로부터 획득된 대화데이터를 획득하는 단계, 상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하는 단계 및 결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함된 단어 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 단계를 포함할 수 있다.According to another embodiment, in a method for generating a response according to a user's emotion by a response generation system, the step of acquiring conversation data obtained from a user, a mood of the conversation data reflecting the user's emotion based on the conversation data And determining at least one of words and structures included in the response to the conversation data based on the determined mood and generating the response.

또 다른 실시예에 따르면, 응답생성방법을 수행하는 프로그램이 기록된 컴퓨터 판독이 가능한 기록매체로서, 상기 응답생성방법은, 사용자로부터 획득된 대화데이터를 획득하는 단계, 상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하는 단계 및 결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함된 단어 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 단계를 포함할 수 있다.According to another embodiment, a computer-readable recording medium on which a program for performing a response generation method is recorded, the response generation method comprising: obtaining conversation data obtained from a user, and the user Determining a mood of the conversation data reflecting the emotion of the user, and generating the response by determining at least one of a word and a structure included in the response to the conversation data based on the determined mood.

다른 실시예에 따르면, 응답생성시스템에 의해 수행되며, 응답생성방법을 수행하기 위해 기록매체에 저장된 컴퓨터프로그램으로서, 상기 응답생성방법은, 사용자로부터 획득된 대화데이터를 획득하는 단계, 상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하는 단계 및 결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함된 단어 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 단계를 포함할 수 있다.According to another embodiment, a computer program executed by a response generation system and stored in a recording medium to perform a response generation method, wherein the response generation method comprises: obtaining conversation data obtained from a user, and receiving the conversation data Determining a mood of the conversation data in which the emotion of the user is reflected, and generating the response by determining at least one of words and structures included in the response to the conversation data based on the determined mood. have.

전술한 과제 해결 수단 중 어느 하나에 의하면, 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시할 수 있다. According to any one of the above-described problem solving means, a system and method for generating a response according to user emotion can be provided.

전술한 과제 해결 수단 중 어느 하나에 의하면, 사용자의 감정을 파악하기 위해 환경 데이터를 함께 분석하여 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시할 수 있다. According to any one of the above-described problem solving means, it is possible to provide a system and method for generating a response according to the user's emotion by analyzing environmental data together in order to grasp the user's emotion.

전술한 과제 해결 수단 중 어느 하나에 의하면, 텍스트 내의 사용자 주요 감정을 식별하여 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시할 수 있다. According to any one of the above-described problem solving means, it is possible to provide a system and method for identifying a user's main emotion in a text and generating a response according to the user emotion.

전술한 과제 해결 수단 중 어느 하나에 의하면, 사용자의 무드에 따라 응답 발화의 경중 및 고저를 결정하는 사용자 감정에 따라 응답을 생성하는 시스템 및 방법을 제시할 수 있다. According to any one of the above-described problem solving means, it is possible to provide a system and method for generating a response according to a user emotion that determines the severity and height of the response utterance according to the user's mood.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are obvious to those of ordinary skill in the art to which the embodiments disclosed from the following description belong. Can be understood.

도 1 는 일 실시예에 따른 응답생성장치를 도시한 블록도이다.
도 2 내지 도 3 은 일 실시예에 따른 응답생성방법을 설명하기 위한 순서도이다.
1 is a block diagram showing a response generating apparatus according to an embodiment.
2 to 3 are flowcharts illustrating a method of generating a response according to an embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the features of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong are omitted. In addition, parts not related to the description of the embodiments are omitted in the drawings, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐 아니라, ‘그 중간에 다른 구성을 사이에 두고 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be "connected" with another component, this includes not only the case where it is'directly connected', but also the case where it is'connected with another element in the middle.' In addition, when a certain configuration "includes" a certain configuration, this means that other configurations may be further included rather than excluding other configurations, unless otherwise specified.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다. However, before describing this, the meaning of the terms used below is first defined.

‘대화데이터’는 사용자의 의사가 포함된 데이터로 예를 들어, 시각적으로 식별가능한 데이터인 텍스트, 이모티콘 또는 이모지 등이 포함될 수 있다.The'conversation data' is data including the intention of the user, and may include, for example, visually identifiable data such as text, emoticon, or emoji.

‘응답’은 사용자로부터 획득된 대화데이터에 대응하여 사용자에게 제공되는 데이터로 텍스트 또는 이미지가 포함될 수 있다. The'response' is data provided to a user in response to conversation data acquired from the user, and may include text or an image.

그리고 ‘무드’는 텍스트의 표현강도, 문체가 반영되어 대화데이터를 통해 드러나는 대화 분위기이다. And'mood' is the atmosphere of dialogue that is revealed through dialogue data by reflecting the expression strength and style of the text.

위에 정의한 용어 이외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.In addition to the terms defined above, terms that require explanation will be separately described below.

도 1은 일 실시예에 따른 응답생성시스템(100)을 설명하기 위한 블럭도이다.1 is a block diagram illustrating a response generation system 100 according to an embodiment.

응답생성시스템(100)은 네트워크(N)를 통해 원격지의 서버에 접속하거나, 타 단말 및 서버와 연결 가능한 컴퓨터나 휴대용 단말기, 텔레비전, 웨어러블 디바이스(Wearable Device) 등으로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop)등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), GSM(Global System for Mobile communications), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet), 스마트폰(Smart Phone), 모바일 WiMAX(Mobile Worldwide Interoperability for Microwave Access) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다. 또한, 텔레비전은 IPTV(Internet Protocol Television), 인터넷 TV(Internet Television), 지상파 TV, 케이블 TV 등을 포함할 수 있다. 나아가 웨어러블 디바이스는 예를 들어, 시계, 안경, 액세서리, 의복, 신발 등 인체에 직접 착용 가능한 타입의 정보처리장치로서, 직접 또는 다른 정보처리장치를 통해 네트워크를 경유하여 원격지의 서버에 접속하거나 타 단말과 연결될 수 있다.The response generation system 100 may be implemented as a computer, portable terminal, television, wearable device, etc. that connects to a server at a remote location through a network N, or connects to other terminals and servers. Here, the computer includes, for example, a notebook equipped with a web browser, a desktop, a laptop, and the like, and the portable terminal is, for example, a wireless communication device that ensures portability and mobility. , PCS (Personal Communication System), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), GSM (Global System for Mobile communications), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-Code Division Multiple Access (W-CDMA), Wireless Broadband Internet (Wibro), Smart Phone, Mobile Worldwide Interoperability for Microwave Access (WiMAX), etc. It may include a (Handheld) based wireless communication device. Further, the television may include Internet Protocol Television (IPTV), Internet Television (Internet Television), terrestrial TV, and cable TV. Furthermore, a wearable device is a type of information processing device that can be directly worn on the human body, such as watches, glasses, accessories, clothes, shoes, etc., and connects to a remote server or other terminal through a network directly or through another information processing device. Can be connected with.

도 1 을 참조하면, 응답생성시스템(100)은 입출력부(110), 제어부(120), 통신부(130) 및 메모리(140)를 포함할 수 있다.Referring to FIG. 1, the response generation system 100 may include an input/output unit 110, a control unit 120, a communication unit 130, and a memory 140.

입출력부(110)는 사용자로부터 입력을 수신하기 위한 입력부와, 작업의 수행 결과 또는 응답생성시스템(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어, 입출력부(110)는 사용자 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input/output unit 110 may include an input unit for receiving an input from a user, and an output unit for displaying information such as a result of performing a task or a state of the response generation system 100. For example, the input/output unit 110 may include an operation panel for receiving a user input and a display panel for displaying a screen.

구체적으로, 입력부는 키보드, 물리 버튼, 터치 스크린, 카메라 또는 마이크 등과 같이 다양한 형태의 사용자 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(110)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of user input, such as a keyboard, a physical button, a touch screen, a camera, or a microphone. In addition, the output unit may include a display panel or a speaker. However, the present invention is not limited thereto, and the input/output unit 110 may include a configuration supporting various input/output.

제어부(120)는 응답생성시스템(100)의 전체적인 동작을 제어하며, CPU 등과 같은 프로세서를 포함할 수 있다. 제어부(120)는 입출력부(110)를 통해 수신한 사용자 입력에 대응되는 동작을 수행하도록 응답생성시스템(100)에 포함된 다른 구성들을 제어할 수 있다.The control unit 120 controls the overall operation of the response generation system 100, and may include a processor such as a CPU. The control unit 120 may control other components included in the response generation system 100 to perform an operation corresponding to a user input received through the input/output unit 110.

예를 들어, 제어부(120)는 메모리(140)에 저장된 프로그램을 실행시키거나, 메모리(140)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(140)에 저장할 수도 있다.For example, the control unit 120 may execute a program stored in the memory 140, read a file stored in the memory 140, or store a new file in the memory 140.

이러한 제어부(120)는 사용자로부터 획득된 대화데이터를 기초로 대화데이터의 무드를 결정할 수 있다. The controller 120 may determine the mood of the conversation data based on the conversation data obtained from the user.

이를 위해, 제어부(120)는 대화데이터로부터 감정을 나타내는 데이터인 텍스트를 추출할 수 있다. To this end, the controller 120 may extract text, which is data representing emotion, from the conversation data.

예를 들어, 제어부(120)는 대화데이터에 포함된 텍스트인 “빨리 지금 병원 가는 길을 찾아줘!”에서 감정을 나타내는 “빨리” 또는 “어서!” 등을 감정을 나타내는 텍스트로써 추출할 수 있으며, 추가적으로 대화데이터에 포함된 이모티콘을 추출할 수 있다. For example, the control unit 120 expresses emotions in the text "Quickly find your way to the hospital now!" included in the conversation data, "Quickly" or "Come on!" The etc. may be extracted as text representing emotions, and additionally, emoticons included in the conversation data may be extracted.

그리고 제어부(120)는 추출된 텍스트에 대응되는 감정에 대해 가중치를 부여할 수 있다. In addition, the controller 120 may assign a weight to an emotion corresponding to the extracted text.

즉, 제어부(120)는 추출된 텍스트 중 동일한 텍스트의 반복 횟수, 텍스트의 표현강도, 이모티콘 또는 이모지의 사용여부 등에 기초하여 감정에 가중치를 부여할 수 있다. That is, the control unit 120 may assign a weight to the emotion based on the number of repetitions of the same text among the extracted texts, the intensity of expression of the text, and whether or not an emoticon or an emoji is used.

예를 들어, 제어부(120)는 대화데이터로부터 추출된 감정텍스트 중 “빨리”가 2회 이상 반복되는 경우, “빨리”에 대응되는 감정인 긴급에 대해 +2 가중치를 부여할 수 있다.For example, when “fast” is repeated two or more times among the sentiment texts extracted from conversation data, the controller 120 may assign a +2 weight to the appraiser urgency corresponding to “fast”.

또는 예를 들어, 제어부(120)는 대화데이터로부터 추출된 텍스트인 은어 또는 비속어가 문장당 사용빈도를 계산할 수 있다. 즉, 대화데이터에 포함된 텍스트를 구분하는 단위인 문장별로 은어 또는 비속어의 사용빈도 차이가 기 설정된 범위 이내로 유사한 경우, 제어부(120)는 은어 또는 비속어에 대해 가중치를 낮게 설정할 수 있다. 이와 달리 문장별로 은어 또는 비속어의 사용빈도 차이가 기 설정된 범위를 초과한 경우, 제어부(120)는 은어 또는 비속어에 대응되는 감정에 대해 가중치를 부여할 수 있다. Alternatively, for example, the controller 120 may calculate the frequency of use per sentence of a sweet word or profanity that is a text extracted from conversation data. That is, when the difference in the frequency of use of the sweet word or profanity for each sentence, which is a unit for classifying the text included in the conversation data, is similar within a preset range, the controller 120 may set the weight for the sweet word or profanity to be low. In contrast, when the difference in the frequency of use of the sweet word or profanity for each sentence exceeds a preset range, the controller 120 may assign a weight to the emotion corresponding to the sweet word or profanity.

예를 들어, 제어부(120)는 이모티콘에 대응되는 감정에 대해 가중치를 부여하되 텍스트에 비해 높은 가중치를 부여할 수 있다. For example, the control unit 120 may assign a weight to the emotion corresponding to the emoticon, but may give a higher weight than the text.

또는 제어부(120)는 대화데이터에 포함된 텍스트의 구조에 기초하여 추가적인 가중치를 감정에 부여할 수 있다.Alternatively, the controller 120 may assign an additional weight to the emotion based on the structure of the text included in the conversation data.

예를 들어, 제어부(120)는 대화데이터에 포함된 텍스트의 구조에서 품사 일부가 제거된 구조의 텍스트에 대응되는 감정에 품사 일부가 제거 되지 않은 구조의 텍스트보다 높은 가중치를 부여할 수 있다. For example, the controller 120 may assign a higher weight to an emotion corresponding to a text having a structure in which a part of speech has been removed from a structure of a text included in the conversation data than a text having a structure in which the part of speech has not been removed.

실시예에 따라, 제어부(120)는 대화데이터가 획득된 시간 및 사용자의 위치 중 적어도 하나를 포함하는 환경데이터를 획득할 수 있으며, 획득된 환경데이터를 텍스트 형식으로 변환할 수 있고, 텍스트 형식으로 변환된 환경데이터를 기초로 연관성이 높은 텍스트에 대응되는 감정에 추가적인 가중치를 부여할 수 있다. 이를 위해, 제어부(120)는 환경데이터와 연관성이 높은 텍스트와의 관계를 인공지능을 이용하여 학습할 수 있다. 예를 들어, 제어부(120)는 장소 또는 시간대별로 감정에 대응되는 텍스트의 사용 빈도를 학습할 수 있다. Depending on the embodiment, the controller 120 may acquire environment data including at least one of a time when the conversation data was acquired and a user's location, and may convert the obtained environment data into a text format. Based on the converted environmental data, an additional weight may be given to an emotion corresponding to a highly relevant text. To this end, the controller 120 may learn a relationship between environmental data and text having high correlation using artificial intelligence. For example, the controller 120 may learn the frequency of use of text corresponding to the emotion by place or time.

예를 들어, 제어부(120)는 사용자의 단말로부터 대화데이터가 획득된 시간인 ‘저녁 10시’를 획득하고, 사용자의 위치인 GPS 정보를 환경데이터로 획득할 수 있다. 그리고 제어부(120)는 획득된 환경데이터를 ‘저녁 10시’와 GPS정보에 대응되는 장소인 ‘관악산’으로 변환할 수 있고, 연관성이 높은 텍스트에 대응되는 감정인 “긴급”, “위기” 에 대해 추가적인 가중치를 부여할 수 있다. For example, the controller 120 may acquire '10 PM', which is a time when conversation data is acquired from the user's terminal, and acquire GPS information, which is the user's location, as environment data. In addition, the control unit 120 may convert the acquired environmental data into '10 PM' and'Gwanaksan', a place corresponding to GPS information, and for appraisals "emergency" and "crisis" corresponding to highly relevant texts. Additional weights can be assigned.

또는 예를 들어 제어부(120)는 사용자의 단말로부터 대화데이터가 획득된 시간인 ‘오전 10시’를 획득하고, 사용자의 GPS정보를 획득할 수 있다. 그리고 제어부(120)는 획득된 환경데이터인 ‘오전 10시’와 GPS정보에 대응되는 장소인 ‘오피스빌딩’ 변환할 수 있고, 연관성이 높은 텍스트에 대응되는 감정인 “격식” 에 대해 추가적인 가중치를 부여할 수 있다. Alternatively, for example, the controller 120 may acquire '10 am', which is a time when the conversation data was acquired from the user's terminal, and acquire GPS information of the user. In addition, the control unit 120 can convert the acquired environmental data '10 am' and the'office building' which is a place corresponding to GPS information, and gives an additional weight to the appraiser “formal” corresponding to the text with high correlation. can do.

그리고 제어부(120)는 변환된 환경데이터 및 텍스트에 기초하여 대화데이터의 무드를 결정할 수 있다. Further, the controller 120 may determine the mood of the conversation data based on the converted environmental data and text.

즉, 제어부(120)는 텍스트로 변환된 환경데이터와 대화데이터에서 추출된 텍스트를 조합하여 텍스트에 기초하여 감정별로 부여된 가중치를 기초로 대화데이터의 무드를 결정할 수 있다. That is, the controller 120 may determine the mood of the conversation data based on a weight assigned to each emotion based on the text by combining the environment data converted into text and the text extracted from the conversation data.

예를 들어, 제어부(120)는 변환된 환경데이터인 ‘저녁 10시’, ‘관악산’과 대화데이터에서 추출된 텍스트인 “빨리 어서!!”를 기초로 가중치가 부여된 감정인 ‘긴급’, ‘위급’에 기초하여 현재 대화데이터의 무드가 긴급상황 대화임을 결정할 수 있다. For example, the controller 120 may have weighted appraisals'emergency' and'emergency' based on the converted environmental data '10pm' and'Gwanaksan' and the text extracted from conversation data,'Come soon!!' Based on'emergency', it may be determined that the mood of the current conversation data is an emergency conversation.

그리고 제어부(120)는 대화데이터에 대한 응답에 포함될 단어 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성할 수 있다. In addition, the controller 120 may generate the response by determining at least one of words and structures to be included in the response to the conversation data.

실시예에 따라, 제어부(120)는 선정된 무드에 대한 응답을 생성하기 위해, 무드에 맞는 구조(템플릿)를 선택할 수 있다.Depending on the embodiment, the controller 120 may select a structure (template) suitable for the mood in order to generate a response to the selected mood.

예를 들어, 대화데이터의 무드가 긴급한 대화로 결정된 경우, 제어부(120)는 텍스트 구조를 동사, 목적어로 구성된 명령형을 선택할 수 있으며, 대화데이터의 무드가 사무적 대화로 결정된 경우, 제어부(120)는 주어, 동사, 목적어 그리고 높임말로 구성된 사무형을 선택할 수 있다. For example, when the mood of the conversation data is determined to be an urgent conversation, the controller 120 may select an imperative type consisting of a verb and an object as the text structure, and when the mood of the conversation data is determined as an office conversation, the controller 120 You can choose a clerical form consisting of a subject, a verb, an object, and an honorific word.

그리고 제어부(120)는 무드에 대응되는 표현강도를 갖는 단어를 선택하여 대화데이터의 무드에 대응되는 문체를 생성할 수 있다.In addition, the controller 120 may generate a style corresponding to the mood of the conversation data by selecting a word having an expression strength corresponding to the mood.

예를 들어, 대화데이터의 무드가 긴급한 대화로 식별된 경우, 제어부(120)는 명령형 구조에 포함될 단어에 대해 ‘빠른’, ‘긴급한’ 과 같이 형용사, 부사 등의 긴급함의 강도가 높은 단어를 선택하여 명령형의 문체를 생성할 수 있다. For example, when the mood of the conversation data is identified as an urgent conversation, the controller 120 selects words with high urgency such as adjectives and adverbs such as'quick' and'urgent' for words to be included in the imperative structure. Thus, you can create an imperative style.

또는 예를 들어, 대화데이터의 무드가 사무적 대화로 식별된 경우, 제어부(120)는 사무형 구조에 포함될 단어에 대해 형용사의 강도를 제일 낮추어 사무적인 문체를 생성할 수 있다. Or, for example, when the mood of the conversational data is identified as a clerical conversation, the control unit 120 may generate a clerical style by lowering the strength of the adjective for words to be included in the clerical structure.

또한, 제어부(120)는 대화데이터의 무드에 따라 응답의 길이를 선정할 수 있다. Also, the controller 120 may select a length of the response according to the mood of the conversation data.

예를 들어, 대화데이터의 무드가 긴급한 대화로 식별된 경우, 제어부(120)는 짧은 응답을 생성할 수 있으며, 대화데이터의 무드가 사무적 대화로 식별된 경우, 제어부(120)는 사용자의 대화데이터에 포함된 텍스트의 길에 대응되는 길이로 응답을 생성할 수 있다. For example, when the mood of the conversation data is identified as an urgent conversation, the controller 120 may generate a short response, and when the mood of the conversation data is identified as an office conversation, the controller 120 A response can be generated with a length corresponding to the length of the text included in

통신부(130)는 다른 디바이스 또는 네트워크와 유무선 통신을 수행할 수 있다. 이를 위해, 통신부(130)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.The communication unit 130 may perform wired or wireless communication with other devices or networks. To this end, the communication unit 130 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

통신부(130)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication) 등일 수 있다. 또한, 통신부(130)가 지원하는 유선 통신은, 예를 들어 USB 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.The wireless communication supported by the communication unit 130 may be, for example, Wireless Fidelity (Wi-Fi), Wi-Fi Direct, Bluetooth, Ultra Wide Band (UWB), or Near Field Communication (NFC). In addition, wired communication supported by the communication unit 130 may be, for example, USB or HDMI (High Definition Multimedia Interface).

메모리(140)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(120)는 메모리(140)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(140)에 저장할 수도 있다. 또한, 제어부(120)는 메모리(140)에 설치된 프로그램을 실행할 수도 있다.Various types of data such as files, applications, and programs may be installed and stored in the memory 140. The controller 120 may access and use data stored in the memory 140, or may store new data in the memory 140. Also, the controller 120 may execute a program installed in the memory 140.

이러한 메모리(140)는 사용자로부터 획득한 대화데이터 및 환경데이터 중 적어도 하나를 저장할 수 있다. The memory 140 may store at least one of conversation data and environment data acquired from a user.

도 2 는 일 실시예에 따른 응답생성방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of generating a response according to an embodiment.

도 2 에 도시된 실시예에 따른 응답생성방법은 도 1 에 도시된 응답생성시스템(100)에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하에서 생략된 내용이라고 하더라도 도 1 에 도시된 응답생성시스템(100)에 관하여 이상에서 기술한 내용은 도 2 에 도시된 실시예에 따른 응답생성방법에도 적용될 수 있다.The response generation method according to the embodiment shown in FIG. 2 includes steps processed in a time series in the response generation system 100 shown in FIG. 1. Therefore, even if omitted below, the contents described above with respect to the response generation system 100 illustrated in FIG. 1 may also be applied to the response generation method according to the embodiment illustrated in FIG. 2.

우선, 응답생성시스템(100)은 사용자로부터 대화데이터를 획득할 수 있다(S2001). First, the response generation system 100 may obtain conversation data from a user (S2001).

예를 들어, 응답생성시스템(100)은 사용자가 단말에 입력한 텍스트 또는 이모티콘을 대화데이터로 획득할 수 있다. For example, the response generation system 100 may obtain text or emoticon inputted by the user into the terminal as conversation data.

이때, 실시예에 따라, 응답생성시스템(100)은 대화데이터가 획득된 시간 및 사용자의 위치 중 적어도 하나를 포함하는 환경데이터를 획득할 수 있다. In this case, according to an embodiment, the response generation system 100 may acquire environment data including at least one of a time when the conversation data is acquired and a location of a user.

예를 들어, 응답생성시스템(100)은 대화데이터가 획득된 시간인 ‘오전 11시’, 대화데이터가 획득될 당시 사용자의 위치인 ‘강남 파이낸스 센터’ 를 환경데이터로 획득할 수 있다. For example, the response generation system 100 may acquire, as environmental data, '11 am', which is the time when the conversation data is acquired, and'Gangnam Finance Center,' which is the location of the user when the conversation data is acquired.

그리고 응답생성시스템(100)은 대화데이터를 기초로 대화데이터의 무드를 결정할 수 있다(S2002).In addition, the response generation system 100 may determine the mood of the conversation data based on the conversation data (S2002).

이를 위해, 응답생성시스템(100)은 대화데이터로부터 감정을 나타내는 텍스트 또는 이모티콘 등을 추출할 수 있다. To this end, the response generation system 100 may extract text or emoticons representing emotions from conversation data.

예를 들어, 응답생성시스템(100)은 대화데이터에 포함된 텍스트 중 감정을 나타내는 텍스트인 형용사, 감탄사, 부사 등을 추출하거나 이미지 데이터인 이모티콘 또는 이모지 등을 추출할 수 있다.For example, the response generation system 100 may extract adjectives, interjections, adverbs, etc., which are texts representing emotions from texts included in conversation data, or extract emoticons or emojis, which are image data.

그리고 응답생성시스템(100)은 S2001단계에서 획득된 환경데이터를 감정에 대응되도록 변환할 수 있다.In addition, the response generation system 100 may convert the environmental data obtained in step S2001 to correspond to the emotion.

그리고 응답생성시스템(100)은 대화데이터로부터 감정을 나타내는 텍스트를 추출할 수 있고, 추출된 텍스트에 대응되는 감정에 가중치를 부여할 수 있다. In addition, the response generation system 100 may extract a text representing an emotion from the conversation data, and may give a weight to an emotion corresponding to the extracted text.

예를 들어, 응답생성시스템(100)은 대화데이터로부터 감정을 나타내는 텍스트를 추출하되, 대화데이터에 포함된 텍스트의 반복횟수, 텍스트의 표현강도 및 비속어 포함여부 등에 따라 텍스트에 대응되는 감정에 가중치를 부여할 수 있다. For example, the response generation system 100 extracts text representing emotions from the dialogue data, but weights the emotions corresponding to the texts according to the number of repetitions of the text included in the dialogue data, the expression strength of the text, and whether or not slang words are included. Can be given.

또한 실시예에 따라, 응답생성시스템(100)은 환경데이터로 획득된 사용자의 GPS위치에 대응되는 장소로 환경데이터를 텍스트로 변환할 수 있고, 변환된 장소의 용도 또는 성격을 기초로 연관성이 높은 텍스트에 대응되는 감정에 추가 가중치를 부여할 수 있다.In addition, according to an embodiment, the response generation system 100 may convert environmental data into text to a place corresponding to the GPS location of the user acquired as environmental data, and have high correlation based on the purpose or nature of the converted place. An additional weight can be given to the emotion corresponding to the text.

예를 들어, 응답생성시스템(100)은 환경데이터로 사용자의 단말로부터 GPS정보를 획득할 수 있고, 획득된 GPS 정보에 대응되는 장소명칭인 ‘종로’로 환경데이터를 변환할 수 있고, 대화데이터에서 변환된 환경데이터인 ‘종로’와 연관성있는 텍스트에 대응되는 감정에 추가적인 가중치를 부여할 수 있다.For example, the response generation system 100 may obtain GPS information from the user's terminal as environmental data, convert environmental data into'Jongno', which is a place name corresponding to the obtained GPS information, and conversation data An additional weight can be given to the emotion corresponding to the text associated with the environmental data'Jongno' converted in

이후, 응답생성시스템(100)은 결정된 무드에 따라 대화데이터에 대한 응답에 포함된 단어 및 구조 중 적어도 하나를 결정하여 응답을 생성할 수 있다(S2003). Thereafter, the response generation system 100 may generate a response by determining at least one of words and structures included in the response to the conversation data according to the determined mood (S2003).

이를 위해, 응답생성시스템(100)은 변환된 환경데이터 및 텍스트에 기초하여 대화데이터의 무드를 결정할 수 있다.To this end, the response generation system 100 may determine the mood of the conversation data based on the converted environmental data and text.

예를 들어, 응답생성시스템(100)은 S2002단계에서 텍스트에 의해 가중치가 부여된 감정 중 기 설정된 가중치를 초과하는 감정인 ‘화남’, ‘급박’을 기초로 대화데이터의 무드를 결정할 수 있다. For example, in step S2002, the response generation system 100 may determine the mood of the conversation data based on the emotions “Hangan” and “Urgent”, which are emotions exceeding a preset weight among emotions weighted by text in step S2002.

그리고 응답생성시스템(100)은 결정된 무드에 대응하여 텍스트 및 이미지 중 적어도 하나를 배치하여 응답을 생성할 수 있다.In addition, the response generation system 100 may generate a response by arranging at least one of a text and an image corresponding to the determined mood.

도 3 은 결정된 무드에 대응하여 응답을 생성하는 과정을 도시한 순서도이다. 이를 참조하면, 응답생성시스템(100)은 식별된 무드에 대응하여 응답에 포함될 텍스트의 구조를 설정할 수 있다(S3001). 3 is a flowchart illustrating a process of generating a response in response to a determined mood. Referring to this, the response generation system 100 may set the structure of the text to be included in the response in response to the identified mood (S3001).

예를 들어, 대화데이터의 무드가 긴급한 대화로 결정된 경우, 응답생성시스템(100)은 최소 품사만이 포함되는 명령형 구조를 선택할 수 있다. For example, when the mood of the conversation data is determined to be an urgent conversation, the response generation system 100 may select an imperative structure including only the minimum part of speech.

그리고 응답생성시스템(100)은 설정된 구조에 포함될 텍스트의 표현강도를 설정할 수 있고(S3002), 선택된 표현강도에 대응하여 문체를 적용하여 응답을 생성할 수 있다(S3003). In addition, the response generation system 100 may set the expression strength of the text to be included in the set structure (S3002), and generate a response by applying a style corresponding to the selected expression strength (S3003).

예를 들어, 응답생성시스템(100)은 응답에 포함될 단어에 대해 ‘빠른’, ‘긴급한’ 과 같이 형용사, 부사 등의 긴급함의 강도가 높은 텍스트를 선택하여 명령형의 문체를 갖는 응답을 생성할 수 있다. For example, the response generation system 100 may generate a response having an imperative style by selecting text with high intensity of urgency such as adjectives and adverbs such as'quick' and'urgent' for words to be included in the response. have.

그리고 응답생성시스템(100)은 무드에 따라 응답의 길이를 설정할 수 있다(S3004). And the response generation system 100 may set the length of the response according to the mood (S3004).

예를 들어, 응답생성시스템(100)은 명령형 응답을 생성하는 경우 응답의 길이를 매우 짧게 생성할 수 있으며 텍스트 길이가 짧게 생성할 수 있으며, 격식있는 응답을 생성하는 경우에는 사용자의 대화데이터와 유사한 길이로 응답의 길이를 맞추어 응답을 생성할 수 있다. For example, when generating an imperative response, the response generation system 100 may generate a very short response length and a short text length, and when generating a formal response, similar to the user's conversation data. You can create a response by matching the length of the response with the length.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term'~ unit' used in the above embodiments refers to software or hardware components such as field programmable gate array (FPGA) or ASIC, and the'~ unit' performs certain roles. However,'~ part' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, and procedures. , Subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.The components and functions provided in the'~ units' may be combined into a smaller number of elements and'~ units' or separated from the additional elements and'~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.In addition, components and'~ units' may be implemented to play one or more CPUs in a device or a security multimedia card.

도 2 내지 도 3 을 통해 설명된 실시예에 따른 응답생성시스템은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다.예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The response generation system according to the embodiment described with reference to FIGS. 2 to 3 may also be implemented in the form of a computer-readable medium that stores instructions and data executable by a computer. In this case, the instructions and data may be stored in the form of a program code, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Further, the computer-readable medium may be any available medium that can be accessed by a computer, and includes both volatile and nonvolatile media, and removable and non-removable media. Further, the computer-readable medium may be a computer recording medium, which is volatile and non-volatile implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. It may include both volatile, removable and non-removable media. For example, computer recording media may include magnetic storage media such as HDDs and SSDs, optical recording media such as CDs, DVDs, and Blu-ray discs, or accessible through a network. It may be a memory included in the server.

또한 도2 내지 도 3 을 통해 설명된 실시예에 따른 응답생성방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. In addition, the response generation method according to the embodiment described with reference to FIGS. 2 to 3 may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor, and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. . Further, the computer program may be recorded on a tangible computer-readable recording medium (eg, memory, hard disk, magnetic/optical medium, solid-state drive (SSD), etc.).

따라서 도 2 내지 도 3 을 통해 설명된 실시예에 따른 응답생성방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다. Accordingly, the response generation method according to the embodiment described with reference to FIGS. 2 to 3 may be implemented by executing the above-described computer program by the computing device. The computing device may include at least some of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses and can be mounted on a common motherboard or in other suitable manner.

여기서 프로세서는 컴퓨팅장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor can process commands within the computing device. These commands include, for example, to display graphic information for providing a GUI (Graphic User Interface) on an external input or output device, such as a display connected to a high-speed interface. Examples are instructions stored in memory or storage devices. As another embodiment, multiple processors and/or multiple buses may be utilized with multiple memories and memory types as appropriate. In addition, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and/or digital processors.

또한 메모리는 컴퓨팅장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. In addition, memory stores information within the computing device. As an example, the memory may be composed of volatile memory units or a set of them. As another example, the memory may be composed of a nonvolatile memory unit or a set of them. Also, the memory may be another type of computer-readable medium such as a magnetic or optical disk.

그리고 저장장치는 컴퓨팅장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다. In addition, the storage device can provide a large-capacity storage space to the computing device. The storage device may be a computer-readable medium or a configuration including such a medium, for example, devices in a storage area network (SAN) or other configurations, a floppy disk device, a hard disk device, an optical disk device, Or it may be a tape device, a flash memory, or another semiconductor memory device or device array similar thereto.

상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above-described embodiments are for illustrative purposes only, and those of ordinary skill in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical idea or essential features of the above-described embodiments. You can understand. Therefore, it should be understood that the above-described embodiments are illustrative and non-limiting in all respects. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through the present specification is indicated by the claims to be described later rather than the detailed description, and should be interpreted as including all changes or modified forms derived from the meaning and scope of the claims and the concept of equivalents thereof. .

100: 응답생성시스템
110: 입출력부
120: 제어부
130: 통신부
140: 메모리
100: response generation system
110: input/output unit
120: control unit
130: communication department
140: memory

Claims (12)

사용자 감정에 따라 응답을 생성하는 시스템에 있어서,
사용자로부터 획득된 대화데이터를 저장하는 메모리; 및
상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하고, 결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함될 텍스트 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 제어부를 포함하는, 응답생성시스템.
In a system for generating a response according to user emotion,
A memory for storing conversation data obtained from a user; And
And a controller configured to determine a mood of conversation data in which the user's emotion is reflected based on the conversation data, and determine at least one of a text and a structure to be included in a response to the conversation data based on the determined mood to generate the response A response generation system.
제 1 항에 있어서,
상기 제어부는,
상기 대화데이터로부터 감정을 나타내는 데이터인 텍스트를 추출하고, 추출된 텍스트에 대응되는 감정에 가중치를 부여하여 상기 무드를 결정하는, 응답생성시스템.
The method of claim 1,
The control unit,
A response generation system for determining the mood by extracting text, which is data representing emotion, from the conversation data, and assigning a weight to emotion corresponding to the extracted text.
제 2 항에 있어서,
상기 제어부는,
상기 대화데이터에 포함된 텍스트의 반복횟수, 텍스트의 표현강도 및 비속어 포함여부 중 적어도 하나에 기초하여 상기 가중치를 부여하는, 응답생성시스템.
The method of claim 2,
The control unit,
The response generation system for assigning the weight based on at least one of a repetition number of texts included in the conversation data, an expression strength of the text, and whether a profanity is included.
제 3 항에 있어서,
상기 제어부는,
상기 대화데이터가 획득된 시간 및 상기 사용자의 위치 중 적어도 하나를 포함하는 환경데이터를 획득하고, 획득된 환경데이터를 상기 텍스트 형식으로 변환하는, 응답생성시스템.
The method of claim 3,
The control unit,
A response generation system for obtaining environment data including at least one of a time at which the conversation data was acquired and a location of the user, and converting the obtained environment data into the text format.
제 4 항에 있어서,
상기 제어부는,
변환된 환경데이터 및 상기 텍스트에 기초하여 상기 무드를 결정하고, 결정된 무드에 대응하여 선택된 텍스트 및 이미지 중 적어도 하나를 배치하여 상기 응답을 생성하는, 응답생성시스템.
The method of claim 4,
The control unit,
A response generation system for determining the mood based on the converted environmental data and the text, and generating the response by arranging at least one of a selected text and an image corresponding to the determined mood.
응답생성시스템이 사용자 감정에 따라 응답을 생성하는 방법에 있어서,
사용자로부터 획득된 대화데이터를 획득하는 단계;
상기 대화데이터를 기초로 상기 사용자의 감정이 반영된 대화데이터의 무드를 결정하는 단계; 및
결정된 무드에 기초하여 상기 대화데이터에 대한 응답에 포함된 텍스트 및 구조 중 적어도 하나를 결정하여 상기 응답을 생성하는 단계를 포함하는, 응답생성방법.
In the method for generating a response according to the user emotion by the response generation system,
Obtaining conversation data obtained from a user;
Determining a mood of the conversation data in which the emotions of the user are reflected based on the conversation data; And
And generating the response by determining at least one of a text and a structure included in a response to the conversation data based on the determined mood.
제 6 항에 있어서,
상기 대화데이터의 무드를 결정하는 단계는,
상기 텍스트로부터 감정에 대응되는 텍스트를 추출하는 단계; 및
추출된 텍스트에 대응되는 감정에 가중치를 부여하는 단계를 포함하는, 응답생성방법.
The method of claim 6,
The step of determining the mood of the conversation data,
Extracting a text corresponding to an emotion from the text; And
A method for generating a response comprising the step of assigning a weight to an emotion corresponding to the extracted text.
제 7 항에 있어서,
상기 가중치를 부여하는 단계는,
상기 대화데이터에 포함된 텍스트의 반복횟수, 텍스트의 표현강도 및 비속어 포함여부 중 적어도 하나에 기초하여 상기 가중치를 부여하는 단계를 포함하는, 응답생성방법.
The method of claim 7,
The step of assigning the weight,
And assigning the weight based on at least one of the number of repetitions of the text included in the conversation data, the strength of expression of the text, and the presence of profanity.
제 8 항에 있어서,
상기 응답생성방법은,
상기 대화데이터가 획득된 시간 및 상기 사용자의 위치 중 적어도 하나를 포함하는 환경데이터를 획득하는 단계; 및
획득된 환경데이터를 변환하여 상기 감정에 가중치를 부여하는 단계를 더 포함하는, 응답생성방법.
The method of claim 8,
The response generation method,
Obtaining environment data including at least one of a time at which the conversation data was acquired and a location of the user; And
The method of generating a response, further comprising converting the obtained environmental data to give a weight to the emotion.
제 9 항에 있어서,
상기 응답을 생성하는 단계는,
변환된 환경데이터 및 상기 텍스트에 기초하여 상기 무드를 결정하는 단계; 및
결정된 무드에 대응하여 선택된 텍스트 및 이미지 중 적어도 하나를 배치하여 상기 응답을 생성하는 단계를 포함하는, 응답생성방법.
The method of claim 9,
Generating the response,
Determining the mood based on the converted environmental data and the text; And
And generating the response by arranging at least one of text and an image selected in response to the determined mood.
제 6 항에 기재된 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method according to claim 6 is recorded. 응답생성시스템에 의해 수행되며, 제 6 항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
A computer program executed by a response generation system and stored on a medium to perform the method of claim 6.
KR1020190035593A 2019-03-28 2019-03-28 Conversational agent system and method based on user emotion KR102385899B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190035593A KR102385899B1 (en) 2019-03-28 2019-03-28 Conversational agent system and method based on user emotion

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190035593A KR102385899B1 (en) 2019-03-28 2019-03-28 Conversational agent system and method based on user emotion

Publications (2)

Publication Number Publication Date
KR20200114230A true KR20200114230A (en) 2020-10-07
KR102385899B1 KR102385899B1 (en) 2022-04-12

Family

ID=72884449

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190035593A KR102385899B1 (en) 2019-03-28 2019-03-28 Conversational agent system and method based on user emotion

Country Status (1)

Country Link
KR (1) KR102385899B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102319651B1 (en) * 2021-02-19 2021-11-01 (주)아와소프트 Chatbot service providing system using emotional exchange of user persona-based and method thereof
KR102372642B1 (en) * 2021-01-27 2022-03-08 아주대학교산학협력단 Apparatus and method for generating an automatic response

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612206B1 (en) * 2022-12-21 2023-12-12 주식회사 마인드로 Interactive conversation system performing follow-up conversation using emtion and feeling analysis information appering in the conversation with wards, humans

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
KR20180002197A (en) * 2016-06-29 2018-01-08 주식회사 엘지유플러스 Emotional Chatting Application, Chatting Service Method Of Thereof And Chatting Server
KR101825209B1 (en) * 2016-10-04 2018-02-02 주식회사 카카오 System, method, and application for providing emotional expressions
KR101891492B1 (en) * 2017-11-03 2018-08-24 주식회사 머니브레인 Method and computer device for providing contextual natural language conversation by modifying plain response, and computer readable recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
KR20180002197A (en) * 2016-06-29 2018-01-08 주식회사 엘지유플러스 Emotional Chatting Application, Chatting Service Method Of Thereof And Chatting Server
KR101825209B1 (en) * 2016-10-04 2018-02-02 주식회사 카카오 System, method, and application for providing emotional expressions
KR101891492B1 (en) * 2017-11-03 2018-08-24 주식회사 머니브레인 Method and computer device for providing contextual natural language conversation by modifying plain response, and computer readable recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372642B1 (en) * 2021-01-27 2022-03-08 아주대학교산학협력단 Apparatus and method for generating an automatic response
KR102319651B1 (en) * 2021-02-19 2021-11-01 (주)아와소프트 Chatbot service providing system using emotional exchange of user persona-based and method thereof

Also Published As

Publication number Publication date
KR102385899B1 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
US11593556B2 (en) Methods and systems for generating domain-specific text summarizations
US20230377577A1 (en) System, apparatus, and method for processing natural language, and non-transitory computer readable recording medium
US9262411B2 (en) Socially derived translation profiles to enhance translation quality of social content using a machine translation
KR102385899B1 (en) Conversational agent system and method based on user emotion
US9614797B2 (en) Automatic determination of additional languages used in social networks
US20180122369A1 (en) Information processing system, information processing apparatus, and information processing method
US11522730B2 (en) Customized meeting notes
US11341336B2 (en) Recording medium, conversation control method, and information processing apparatus
US10720147B2 (en) System and method for creating voice profiles for specific demographics
CN110770765B (en) Transforming a dictation idea into a visual representation
JP2020042131A (en) Information processor, information processing method and program
KR20170126667A (en) Method for generating conference record automatically and apparatus thereof
US11056103B2 (en) Real-time utterance verification system and method thereof
US11620328B2 (en) Speech to media translation
KR20200095040A (en) Server and method for multilingual chat
KR102222637B1 (en) Apparatus for analysis of emotion between users, interactive agent system using the same, terminal apparatus for analysis of emotion between users and method of the same
KR102226427B1 (en) Apparatus for determining title of user, system including the same, terminal and method for the same
KR20180089242A (en) Method, system and non-transitory computer-readable recording medium for generating dialogue contents according to output type for same at chatbot
JP5103718B2 (en) Automatic translation system and method and program thereof
KR102368193B1 (en) Method and apparatus for verifying voice recognition using voice synthesis
WO2021108130A1 (en) Speech to project framework
US10789425B2 (en) Generating a response to a natural language command based on a concatenated graph
US20240153485A1 (en) Systems and methods for machine-learning based multi-lingual pronunciation generation
KR102405822B1 (en) Method and apparatus for providing service for communication between disabled and non-disabled people
US12028176B2 (en) Machine-learning-model based name pronunciation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant