KR101322486B1 - General dialogue service apparatus and method - Google Patents

General dialogue service apparatus and method Download PDF

Info

Publication number
KR101322486B1
KR101322486B1 KR1020070064510A KR20070064510A KR101322486B1 KR 101322486 B1 KR101322486 B1 KR 101322486B1 KR 1020070064510 A KR1020070064510 A KR 1020070064510A KR 20070064510 A KR20070064510 A KR 20070064510A KR 101322486 B1 KR101322486 B1 KR 101322486B1
Authority
KR
South Korea
Prior art keywords
intention
area
current
user
conversation
Prior art date
Application number
KR1020070064510A
Other languages
Korean (ko)
Other versions
KR20090000442A (en
Inventor
장두성
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020070064510A priority Critical patent/KR101322486B1/en
Publication of KR20090000442A publication Critical patent/KR20090000442A/en
Application granted granted Critical
Publication of KR101322486B1 publication Critical patent/KR101322486B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Machine Translation (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역(즉, 사용자의 다양한 자연어 질의)에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 대화 품질을 높일 수 있는, 범용 대화서비스 장치 및 그 방법을 제공하고자 한다.The present invention infers a conversation using information acquired throughout the conversation in a region where the conversation of the target area and the conversation of the general area are mixed (that is, various natural language queries of the user), and intelligently responds to all types of user queries. The present invention provides a general-purpose chat service device and method for improving the quality of conversation by making a system answer.

이를 위하여, 본 발명은, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 상기 생성된 현재 시스템 상태 정보를 참조하여, 상기 분석된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단; 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및 상기 '목적 영역에 대한 시스템 응답 형틀' 또는 '일반 영역에 대한 시스템 응답 형틀' 또는 상기 '목적 영역에 대한 시스템 응답 형틀'과 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단을 포함한다.To this end, the present invention, region classification means for classifying the input query by region; Semantic interpretation means for analyzing the meaning of the input query in the classified region to analyze the current user intention; System state control means for generating current system state information from previous user intent and previous system intent and previously accumulated system state information; Response reasoning means for inferring a current system intention with respect to the analyzed current user intention with reference to the generated current system state information; Response template generation means for generating a 'system response template for the destination area' from the current user intent and the current system intent; And a system for generating a system response from the 'system response template for the destination area' or the 'system response template for the general area' or the 'system response template for the destination area' and the 'system response template for the general area'. Response generating means.

대화서비스, 목적 영역, 일반 영역, 응답 형틀, 응답 추론Dialogue service, destination domain, general domain, response template, response inference

Description

범용 대화서비스 장치 및 그 방법{General dialogue service apparatus and method}General dialogue service apparatus and method

도 1 은 본 발명에 따른 대화서비스 장치가 적용되는 음성인식 시스템의 일실시예 구성도,1 is a configuration diagram of an embodiment of a speech recognition system to which a chat service device according to the present invention is applied;

도 2 는 본 발명에 따른 범용 대화서비스 장치의 일실시예 구성도,2 is a configuration diagram of an embodiment of a general-purpose chat service device according to the present invention;

도 3 은 본 발명에 따른 범용 대화서비스 방법을 보여주는 일실시예 설명도이다.3 is a diagram illustrating an embodiment of a general-purpose conversation service method according to the present invention.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

11 : 사용자 단말기 12 : 입력 처리부11: user terminal 12: input processing unit

13 : 음성 합성부 14 : 디스플레이부13 speech synthesizer 14 display unit

20 : 대화서비스 장치 21 : 영역 분류부20: conversation service device 21: area classification unit

22 : 의미 해석부 23 : 시스템 상태 제어부22: meaning analysis unit 23: system state control unit

24 : 상태 기반 응답 추론부 25 : 상태 기반 추론 정책 DB24: State Based Response Inference Unit 25: State Based Reasoning Policy DB

26 : 예제 기반 응답 추론부 27 : 예제 대화 DB26: example-based response reasoning unit 27: example dialog DB

28 : 응답 형틀 생성부 29 : 자연어 생성부28: response template generator 29: natural language generator

본 발명은 대화의 영역에 따라 정보상태 및 예제 기반 추론 모델을 같이 이용한 대화서비스 장치 및 그 방법에 관한 것으로, 더욱 상세하게는 목적 영역의 대화와 일반 영역의 대화가 혼재된 사용자의 다양한 자연어 질의에 대해 지능적으로 시스템 답변이나 재질문을 함으로써 대화 품질을 높일 수 있는 범용 대화서비스 장치 및 그 방법에 관한 것이다.The present invention relates to a conversation service apparatus and method using the information state and example-based reasoning model according to the conversation area, and more particularly, to various natural language queries of a user in which a conversation in the destination area and a conversation in the general area are mixed. The present invention relates to a general-purpose conversation service device and a method for improving conversation quality by intelligently answering a system or asking a question about a material.

특히, 본 발명은 대화서비스 시스템[사용자 질의에 대해 응답하는 '네트워크(예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등)를 통한 클라이언트-서버 인터페이스 구조', '사용자-로봇 인터페이스 구조' 등]에서 입력되는 사용자 질의에 대해 호텔, 극장, 열차, 항공권의 예매나 홈네트워크 기기제어 등과 같이 시스템이 설정한 특정 목적 영역과, 채팅 등과 같이 일반 대화가 혼용되어 사용될 때, 보다 유용하게 활용될 수 있다.In particular, the present invention relates to a conversation service system ['network (e.g., wired / wireless Internet (WEB, WAP / ME), intranet, LAN, wireless LAN, telephone network (PSTN), in response to user queries), Hotel-server interface structure through 'synchronous / asynchronous mobile network, WiBro, terrestrial broadcasting network, digital multimedia broadcasting (DMB) broadcasting network', 'user-robot interface structure', etc.] It can be used more usefully when a general conversation such as a chat, etc., and a specific purpose area set by the system such as a reservation of a theater, a train, a ticket, a home network device control, etc. are used.

음성 인터페이스는 컴퓨터로 하여금 사람의 말을 알아듣게 하고, 원하는 정보를 말로 주고 받도록 가능하게 해주는 사용자 중심의 휴먼-컴퓨터 인터페이스 기술이다. 현재, 음성인식 기술이 활발하게 적용되고 분야는 전화 기반 고객 서비스 부문으로, 컴퓨터가 고객과 직접 대화하며 필요한 정보를 주는 방식으로 활용되고 있다.Voice interface is a user-centered human-computer interface technology that allows a computer to understand what a person is saying and to send and receive desired information. At present, voice recognition technology is actively applied and the field is a telephone-based customer service sector, in which a computer communicates directly with a customer and provides necessary information.

특히, 지능형 로봇, 텔레매틱스, 디지털 홈, 차세대 PC 등 유비쿼터스 환경에서 사용자 인터페이스로 음성 인터페이스가 자리매김하고 있다.In particular, voice interfaces are becoming user interfaces in ubiquitous environments such as intelligent robots, telematics, digital homes, and next-generation PCs.

현재, 음성 인터페이스는 사용자-시스템 간의 '대화'하는 방식을 끊임없이 변화시키고 있다.At present, the voice interface is constantly changing the way the user-system 'talks'.

하지만, 현재의 대화서비스(예로서, 전화 기반 고객응대 서비스, 로봇의 음성인식 서비스 등)는 미리 정해진 범위의 대화 이외에는 불가능하기 때문에 응용폭이 제한된다는 단점이 있다.However, current conversation services (eg, telephone-based customer service, voice recognition services of robots, etc.) have a disadvantage in that the application width is limited because it is impossible except for a predetermined range of conversations.

사용자가 대화서비스 장치(일 예, 네트워크 기반의 서버, 지능형 로봇)와의 자연스러운 의사 소통을 위해서는, 사용자의 음성 질의를 대화서비스 장치가 듣고 이해하여 사용자가 원하는 대답을 음성 또는 디스플레이 화면을 통해 제공할 수 있어야 한다. 이를 위해서는 음성 질의 문장을 인식할 수 있는 음성인식 기능, 대화 처리를 통해 사용자의 질의에 대한 적절한 응답을 생성하는 기능, 음성 합성을 통해 음성을 결과로 출력하는 기능, 검색된 정보에 대한 디스플레이 기능 등이 필요하다.In order for the user to communicate naturally with the chat service device (for example, a network-based server or an intelligent robot), the chat service device can listen to and understand the voice query of the user and provide the desired answer through the voice or display screen. Should be To do this, the voice recognition function that can recognize the voice question sentence, the function of generating an appropriate response to the user's query through the conversation process, the function of outputting the voice result through the voice synthesis, the display function of the retrieved information, etc. need.

따라서 현재까지 대화서비스 기술에 대한 연구는 대화서비스 장치의 음성인식 성능을 향상시키고자 하는 연구에 초점이 맞춰져 있다. 그러므로 음성인식 성능을 향상시키기 위해서는, 대화서비스 장치가 사용자의 질의에 대해 키워드를 인식하고 키워드에 대한 적절한 응답을 제공하면, 음성인식 성능이 높지 않더라도 대화를 진행하는 사용자가 불편하지 않게 되므로, 음성인식의 성능 향상에 대한 노력뿐만 아니라, 대화의 자연스러움을 위한 대화 처리에 대한 연구가 병행될 필요가 있다.Therefore, the research on the conversation service technology is focused on the research to improve the speech recognition performance of the conversation service device. Therefore, in order to improve the voice recognition performance, if the chat service apparatus recognizes the keyword for the user's query and provides an appropriate response to the keyword, even if the voice recognition performance is not high, the user conducting the conversation is not inconvenient. In addition to efforts to improve the performance of the system, research on the dialogue processing for the naturalness of the dialogue needs to be conducted in parallel.

하지만, 현재까지는 사용자의 음성 질의에 대한 대화서비스 장치의 인식 성능이 높지 않기 때문에 사용자-대화서비스 장치 간의 자연스러운 대화(지능형 대화)의 진행이 어렵고, 이로 인해 대화서비스 장치의 품질이 떨어져 사용자에게 질 높은 지능형 대화서비스를 제공할 수 없는 문제점이 있었다.However, since the recognition performance of the conversation service device for the user's voice query is not high, it is difficult to proceed with the natural conversation (intelligent conversation) between the user and the conversation service device, and as a result, the quality of the conversation service device is low and the quality is high. There was a problem that can not provide intelligent chat service.

통상, 대화서비스 장치에서 이루어지는 사용자와 시스템 간의 대화는, 홈네트워크 기기 제어 목적이나 열차 예약 목적과 같이 대화서비스 제공자가 제공하는 특정 목적 영역에 관한 대화와, 채팅과 같은 일반적인 영역의 대화로 구분할 수 있다.In general, a conversation between a user and a system in a chat service device may be divided into a conversation about a specific destination area provided by a chat service provider, such as a home network device control purpose or a train reservation purpose, and a conversation of a general area such as a chat. .

대화서비스 시 목적 영역에서 수행되는 대화는, 사용자와 시스템(대화서비스 장치)이 여러 번에 걸쳐 질의와 응답을 주고 받으며, 특정한 목적을 표현하는 정보의 집합을 구성해 나간다. 예를 들어 설명하면, 열차 예약을 목적으로 하는 서비스 영역에서 이루어지는 대화는 '열차 예약'이라는 공동의 목적을 위해 '출발역', '도착역', '일자', '시간', '열차종류', '예약편수' 등의 정보 집합을 대화를 통해 구성해 나간다. 이때, 대화는 이들 정보 집합을 만들기 위해서 사용자의 발화에서 부족한 정보를 시스템(대화서비스 장치)이 사용자에게 요청하기도 하고, 사용자가 시스템(대화서비스 장치)에게 자신이 필요한 정보를 문의하기도 하는 내용으로 이루어진다.In the conversation service, the conversation is performed in the target area, and the user and the system (conversation service device) exchange questions and responses several times, and form a set of information expressing a specific purpose. For example, conversations in the service area for the purpose of train reservations may include 'departure station', 'arrival station', 'date', 'time', 'train type', ' We will organize a set of information such as 'booking number' through dialogue. At this time, the dialogue is composed of contents in which the system (conversation service device) requests the user for information lacking in the user's speech, and the user inquires the system (conversation service device) for the information necessary for creating the information set. .

이러한 목적 영역에서 시스템(대화서비스 장치)이 응답을 생성하기 위해서는, 직전에 사용자가 발화한 질의의 의도(의미) 이외에 현재의 시스템의 상태, 즉 시스템이 가지고 있는 정보의 현황에 기반한 응답 추론이 이루어져야 한다. 이러한 정보의 현황을 응답 추론에 반영하기 위하여 수작업으로 정의한 상태들의 전이를 유한 상태 오토마타(FSA : Finite State Automata)로 표현하여, 이를 이용한 방법이 사용되어 왔다.In order for a system (conversation service device) to generate a response in this purpose area, response inference must be made based on the current state of the system, that is, the current state of the information, in addition to the intention of the user's utterance. do. In order to reflect the current state of the information in response inference, the method of using the state by expressing the transition of manually defined states as Finite State Automata (FSA) has been used.

다른 방법으로는, 각 상태에서 최종 목적 상태까지 도달하기 위한 계획(Plan)을 미리 준비하고 현재 상태에 맞는 적절한 계획을 선택하는 방법도 사용되었으며, 최근에는 시스템이 가지고 있는 정보의 상태 분류와 이들 간의 전이 모델을 통계적 훈련에 의해 모델링하는 마르코프 의사결정과정(MDP : Markov Decision Process), 부분관찰 마르코프 의사결정과정(POMDP : Partially Observable Markov Decision Process) 등이 도입되고 있다.Alternatively, a plan was prepared in advance for each state to reach the final destination state, and the appropriate plan was selected according to the current state. Markov Decision Process (MDP) and Partially Observable Markov Decision Process (POMDP) are introduced to model the transfer model by statistical training.

그러나 앞서 언급된 응답 추론 방법들은 한정된 목적 영역의 사용자 질의에서 최적의 효율을 낼 수 있도록 작성 혹은 학습할 수 있다는 장점이 있는 반면, 예정된 영역이 아닌 일반 영역의 사용자 발화에서는 지능적인 시스템 발화를 만들어 낼 수 없다는 한계가 있다.However, the above-mentioned response inference methods have the advantage that they can be written or learned in order to achieve optimal efficiency in the user query of a limited target domain, whereas the user speech in the general domain rather than the scheduled domain can produce intelligent system speech. There is a limit that cannot be.

한편, 채팅 등과 같은 일반 영역에서의 사용자 발화는 그 발화의 목적이 매우 다양하여 모든 가능한 상태를 미리 정의하는 것이 사실상 불가능하다. 이러한 채팅 영역에 대한 시스템 응답을 생성하기 위해서는, 미리 구축된 예제 DB에서 사용자의 질의에 가장 유사한 대화를 찾아 해당하는 시스템의 응답 예제를 시스템의 응답 발화로 삼는 방법을 주로 사용한다. 이 방법은 일정 수준 이상의 예제 DB가 구축되면, 여러 형태의 사용자 질의에 적절한 응답을 생성할 수 있다는 장점이 있다. 반면에, 사용자에게 보충 질문을 하는 것과 같은 목적 의도를 가진 시스템 응답을 생성하지 못하므로 목적 영역의 대화 관리 방법으로는 부족하다는 한계가 있다.On the other hand, user utterances in general areas such as chats are very diverse in purpose, and it is virtually impossible to predefine all possible states. In order to generate a system response for such a chat area, the most commonly used method is to find a conversation most similar to a user's query in a pre-built example DB and use the response example of the corresponding system as the response utterance of the system. This method has the advantage that if an example DB of more than a certain level is built, it can generate an appropriate response to various types of user queries. On the other hand, since it does not generate a system response with a purpose intention such as asking a supplementary question to the user, there is a limitation that the method of managing a conversation in the destination area is insufficient.

특히, 대화서비스가 처리할 수 있는 영역을 특정한 영역(예로서, 목적 영역 또는 일반 영역)으로만 한정하는 것은 대화서비스를 사용하는 사용자의 발화 자유도와 서비스 완성도에 부정적인 영향을 준다. 즉, 홈네트워크나 텔레매틱스와 같은 특정 목적 영역을 주로 사용하는 대화서비스라고 하더라도, 사용자는 이 서비스를 사용하면서 서비스의 목적 영역에서 벗어나는 예를 들면 "오늘 어때?" 등과 같은 발화를 할 수도 있으며, 그때마다 시스템(대화서비스 장치)이 "죄송합니다. 다시 말해 주십시오." 혹은 "적합하지 않은 발화입니다."라고 한다면 지능적인 대화시스템이라고 할 수 없을 것이다. 이러한 경우에, "한번 즐겨봅시다."와 같이 적절한 시스템 응답을 준다면, 보다 지능적인 대화라 할 수 있다.In particular, limiting the area that the conversation service can handle to only a specific area (for example, a destination area or a general area) has a negative effect on the speech freedom and service completion of the user who uses the conversation service. In other words, even if a conversation service mainly uses a specific target area such as a home network or telematics, the user may use the service and move away from the target area of the service, for example, "What about today?" You can say something like this, and every time the system (conversation service device) says "Sorry, please say it again." Or "unsuitable speech" would not be an intelligent conversation system. In this case, if you give the appropriate system response, such as "Let's enjoy it," it's a smarter conversation.

이처럼 예약이나 기기제어 등과 같은 목적 영역의 대화와 채팅 등과 같은 일반 영역의 대화가 혼재되어 있는 영역에서는, 기존의 계획(Plan) 기반 방법이나 FSN, MDP 등을 이용한 응답 추론 방법은 추론의 대상이 되는 영역이 너무나 방대하여 추론 규칙이나 대화의 상태 및 전이도를 작성하거나 학습하는 것이 거의 불가능하다. 또한, 예제 기반 대화 추론 방법으로는 대화 전반에 걸쳐 습득된 정보를 이용하여 목적 영역의 대화를 진행하기에 부족함이 있다.As described above, in an area where a conversation in a target area such as a reservation or a device control and a conversation in a general area such as a chat are mixed, a conventional plan-based method or a response reasoning method using FSN, MDP, etc. are subject to inference. The area is so vast that writing or learning inference rules or conversation states and transitions is nearly impossible. In addition, the example-based dialogue inference method is insufficient to proceed the conversation in the target area by using the information acquired throughout the conversation.

따라서 모든 형태의 사용자 질의(목적 영역의 대화와 일반 영역의 대화가 혼용되어 사용되는 질의어)에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 가지는 범용의 대화서비스 방안이 절실히 요구된다.Therefore, there is an urgent need for a general-purpose conversation service method having a high conversation quality by intelligently creating a system answer for all types of user queries (queries in which a conversation in a general area and a conversation in a general area are used interchangeably).

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역(즉, 사용자의 다양한 자연어 질의)에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 대화 품질을 높일 수 있는, 범용 대화서비스 장치 및 그 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problems, and infers a conversation using information acquired throughout the conversation in a region where the conversation of the target area and the conversation of the general area are mixed (that is, various natural language queries of the user). It is an object of the present invention to provide a general-purpose conversation service device and a method thereof, which can improve a conversation quality by intelligently making a system answer to all types of user queries.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be readily apparent that the objects and advantages of the invention may be realized and attained by means of the instrumentalities and combinations particularly pointed out in the appended claims.

상기 목적을 달성하기 위한 본 발명은, 대화서비스 장치에 있어서, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 상기 생성된 현재 시스템 상태 정보를 참조하여, 상기 분석된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단; 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및 상기 '목적 영역에 대한 시스템 응답 형틀' 또는 '일반 영역에 대한 시스템 응답 형틀' 또는 상기 '목적 영역에 대한 시스템 응답 형틀'과 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단을 포함한다.According to an aspect of the present invention, there is provided a conversation service apparatus, comprising: area classification means for classifying an input query by area; Semantic interpretation means for analyzing the meaning of the input query in the classified region to analyze the current user intention; System state control means for generating current system state information from previous user intent and previous system intent and previously accumulated system state information; Response reasoning means for inferring a current system intention with respect to the analyzed current user intention with reference to the generated current system state information; Response template generation means for generating a 'system response template for the destination area' from the current user intent and the current system intent; And a system for generating a system response from the 'system response template for the destination area' or the 'system response template for the general area' or the 'system response template for the destination area' and the 'system response template for the general area'. Response generating means.

한편, 본 발명은, 대화서비스 장치에 있어서, 입력 질의어를 영역별로 분류하기 위한 영역분류수단; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단; 목적 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단; 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하기 위한 응답 형틀 생성수단; 일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상기 예제 대화 DB를 기반으로 일반 영역에 대한 현재 시스템 의도 및 일반 영역에 대한 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론수단; 및 상기 '목적 영역에 대한 시스템 응답 형틀' 또는 '일반 영역에 대한 시스템 응답 형틀' 또는 상기 '목적 영역에 대한 시스템 응답 형틀'과 '일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성수단을 포함한다.On the other hand, the present invention provides a conversation service apparatus comprising: area classification means for classifying an input query word by area; Semantic interpretation means for analyzing the meaning of the input query in the classified region to analyze the current user intention; System state control means for generating current system state information from previous user intent and previous system intent and previously accumulated system state information; State-based response inference means for receiving the current user intention for the destination region and inferring the current system intention for the destination region based on the current system state information and state-based inference policy; A response template generating means for generating a system response template for the target region from the current user intention and the current system intention for the target region with reference to the example dialog DB; Example-based response inference means for extracting a current system intention for the general area and a system response template for the general area based on the current user intention for the general area based on the current system state information and the example conversation DB; And generating a system response in natural language from the system response template for the target area or the system response template for the general area or the system response template for the destination area and the system response template for the general area. It includes natural language generating means for.

한편, 본 발명은, 대화서비스 방법에 있어서, 입력 질의어를 영역별로 분류하는 단계; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 단계; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 단계; 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 단계; 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하는 단계; 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 단계; 및 목적 영역 또는 일반 영역 또는 목적 영역과 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 단계를 포함한다.On the other hand, the present invention, in the chat service method, the step of classifying the input query by area; Analyzing a meaning of an input query word in the classified area to analyze a current user intention; Generating current system state information from previous user intentions and previous system intentions and system state information accumulated up to the previous; Inferring the current system intention of the current user intention of the destination area based on the current system state information and the state-based reasoning policy; Generating a system response template for the destination area from the current user intent for the destination area and the current system intent; Extracting a current system intention and a system response template of the general area with respect to the current user intention of the general area based on the current system state information and the example conversation DB; And generating a system response from the system response template for the destination area or the general area or the destination area and the general area.

또한, 본 발명은, 상기 '목적 영역 또는 일반 영역에 대한 시스템 응답 형틀'이 상기 예제 대화 DB에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하는 단계를 더 포함한다.The present invention may further include generating a system response template by referring to an exception processing response template when the 'system response template for the target area or the general area' does not exist in the example conversation DB.

삭제delete

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The foregoing and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1 은 본 발명에 따른 대화서비스 장치가 적용되는 음성인식 시스템의 일실시예 구성도이다.1 is a configuration diagram of an embodiment of a speech recognition system to which a chat service device according to the present invention is applied.

대화시스템의 입력으로는 음성인식, 키보드 입력 등을 통해 입력된 언어적인 정보뿐만 아니라, 터치인식, 화상인식, 동작인식 등의 결과로 기호화된 비언어적인 정보를 포함한 언어적 또는 비언어적 멀티모달 입력을 받는 것이 가능하다.The dialogue system receives not only verbal information input through voice recognition and keyboard input, but also verbal or non-verbal multimodal input including non-verbal information encoded as a result of touch recognition, image recognition, motion recognition, and the like. It is possible.

사용자로부터 질의(문자 또는 음성 질의어 등)가 입력되면(사용자가 네트워크(예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등)를 통해 질의어가 입력되거나, 직접 질의어가 입력됨 등), 입력이 음성일 경우(이때, 직접 입력되는 내용이 문자이면 음성인식 기능을 수행하지는 않음), 음성인식 시스템의 입력 처리부(12)는 음성인식 기능을 수행하여 음성 인식 결과 문장을 대화서비스 장치(20)로 출력한다. 그러면, 대화서비스 장치(20)는 입력 처리부(12)로부터 사용자 질의(사용자의 다양한 자연어 질의 문장, 즉 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있음)를 입력받아 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변(응답 문장)을 생성한 후 음성 합성부(13)로 출력한다(음성 형식으로 출력). 그리고 디스플레이부(14)는 응답 결과(시스템 답변)를 디스플레이할 필요가 있는 경우, 대화서비스 장치(20)로부터 사용자 질의에 대한 응답 문장을 입력받아 사용자에게 디스플레이(문자 형식으로 출력)한다.When a query (text or voice query, etc.) is input from the user (the user enters a network (e.g., wired or wireless Internet (WEB, WAP / ME), intranet, LAN, wireless LAN, telephone network (PSTN), When a query is input through a synchronous / asynchronous mobile communication network, a wireless Internet (WiBro), a terrestrial broadcasting network, a digital multimedia broadcasting (DMB) broadcasting network, or a direct query query, etc.), or when the input is a voice (in this case, If the content is a text, the voice recognition function is not performed.), The input processing unit 12 of the voice recognition system performs the voice recognition function and outputs the voice recognition result sentence to the conversation service device 20. Then, the conversation service apparatus 20 receives a user query from the input processing unit 12 (a variety of natural language query sentences of the user, that is, a conversation in a target area and a conversation in a general area) are received and acquired throughout the conversation. Infer the conversation by using and intelligently generate system answers (response sentences) for all types of user queries and output them to the speech synthesizer 13 (output in voice format). When the display unit 14 needs to display a response result (system answer), the display unit 14 receives a response sentence for a user query from the chat service device 20 and displays the text to the user.

여기서, 입력 처리부(12)는 음성인식을 위해 음성 데이터베이스를 구비하고, 대화서비스 장치(20)는 입력에 적절한 응답 메시지(대화 예제)를 저장하고 있는 예제 대화 데이터베이스를 구비하고 있다. 이때, 음성 데이터베이스에는 사용자의 음성발화 데이터에 대한 문자(열)의 특징값과 해당 특징값에 대응하는 문자(열)이 저장 및 관리된다. 또한, 예제 대화 데이터베이스에는 대화의 예제가 저장 및 관리된다.Here, the input processing unit 12 includes a voice database for voice recognition, and the chat service apparatus 20 includes a sample chat database that stores a response message (conversation example) suitable for input. In this case, the voice database stores and manages a feature value of a text (column) for the user's voice speech data and a text (column) corresponding to the feature value. In addition, examples of conversations are stored and managed in the sample conversation database.

상기에서, 음성인식 시스템과 사용자 간에는 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등을 통해 통신회선을 연결하여 상호 간에 대화서비스와 관련된 통신이 이루어지도록 연결 설정된다.In the above, the voice recognition system and the user between the wired and wireless Internet (WEB, WAP / ME), intranet, LAN (LAN), wireless LAN (Wireless LAN), telephone network (PSTN), synchronous / asynchronous mobile communication network, portable Internet (WiBro), A communication line is connected through a terrestrial broadcasting network, a digital multimedia broadcasting (DMB) broadcasting network, and the like so that communication related to a conversation service is established.

따라서 네트워크를 통해 연결된 사용자 단말기(11)로는 통신중재장치, 모니터, 키보드(혹은 키패드), 마우스, 음성을 입력할 수 있는 장치 등이 포함되어진 개인용컴퓨터(PC), 노트북뿐만 아니라, 일반 유무선 전화기, 셀룰러폰 혹은 PCS폰 등의 이동통신 단말기, IMT-2000, UMTS 등과 같은 차세대 이동통신 단말기, 개인휴대단말기(PDA), DMB폰 등 통신망 기반의 대화서비스(질의/응답)가 가능한 단말기면 족하다.Therefore, the user terminal 11 connected via a network includes a communication mediator, a monitor, a keyboard (or a keypad), a mouse, a personal computer (PC), a laptop, and the like, as well as a general wired / wireless telephone, Mobile communication terminals such as cellular phones or PCS phones, next-generation mobile communication terminals such as IMT-2000, UMTS, personal communication terminals (PDAs), and communication network-based communication services (question / response) such as DMB phones are sufficient.

호텔, 극장, 열차, 항공권의 예매나 홈네트워크 기기제어, 채팅 등과 같이 시스템이 설정한 특정 목적 영역과 일반 대화 영역이 혼재되어 있는 환경에서 대화서비스를 원하는 사용자는 단말기(11)로 네트워크[예로서, 유무선 인터넷(WEB, WAP/ME), 인트라넷, 랜(LAN), 무선랜(Wireless LAN), 전화망(PSTN), 동기/비동기 이동통신망, 휴대 인터넷(WiBro), 지상파 방송망, DMB(Digital Multimedia Broadcasting) 방송망 등]를 통해 질의어(문자 또는 음성발화 등)를 입력하거나, 직접 질의어(문자 또는 음성발화 등)를 입력하여 본 발명에 따른 범용 대화서비스를 수행할 수 있다. 이때, 사용자 단말기(11)에는 음성 입력 및 출력을 위한 사운드카드, 마이크 그리고 스피커 등이 구비될 수 있고, 문자 입력 및 출력을 위한 키보드, 디스플레이부 등이 구비될 수 있다. 즉, 사용자가 단말기(11)의 입력장치(예를 들면, 키보드, 마이크 등)를 통해 문자 혹은 음성발화를 입력하게 되면, 음성인식 서비스 시스템은 음성인식 기능을 포함한 입력 처리부(12)와, 의미 분석 및 적절한 응답 메시지를 출력할 수 있는 대화서비스 장치(20), 그리고 해당 응답 메시지를 음성 또는 문자 또는 음성과 문자 형식으로 출력해주는 출력 처리부[음성 합성부(13), 디스플레이부(14)]를 통해, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론하고 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 갖도록 한다.A user who wants a chat service in a mixed environment of a specific destination area and a general conversation area set by the system, such as booking a hotel, a theater, a train, a ticket, or controlling a home network device or a chat, is connected to the terminal 11 via a network [for example, , Wired / Wireless Internet (WEB, WAP / ME), Intranet, LAN, Wireless LAN, Telephone Network (PSTN), Synchronous / Asynchronous Mobile Network, Mobile Internet (WiBro), Terrestrial Broadcasting Network, Digital Multimedia Broadcasting ) A query network (text or voice utterance, etc.) through a broadcasting network or the like, or a query language (text or voice utterance, etc.) may be directly input to perform a general-purpose conversation service according to the present invention. In this case, the user terminal 11 may include a sound card, a microphone, and a speaker for voice input and output, and a keyboard, a display, and the like for text input and output. That is, when a user inputs a text or voice utterance through an input device (eg, a keyboard, a microphone, etc.) of the terminal 11, the voice recognition service system may include an input processing unit 12 including a voice recognition function and a meaning. A conversation service device 20 capable of analyzing and outputting an appropriate response message, and an output processing unit (voice synthesis unit 13, display unit 14) for outputting the corresponding response message in voice or text or voice and text format. By inferring the dialogue using information acquired throughout the dialogue in the dialogue where the dialogue of the target area and the general area is mixed, the system answers intelligently to all types of user queries to have high quality of conversation. .

여기서, 입력 처리부(12)는 네트워크를 통해 또는 직접 입력 전달된 사용자의 입력(문자 또는 음성발화 등) 데이터를 1차로 처리한다. 이때, 입력 데이터가 문자 데이터인 경우에는 따옴포 등의 불필요한 요소를 제거하는 과정을 거치고, 입력 데이터가 음성발화 데이터인 경우에는 음성인식 기능을 통해 해당 문자열로 변환하는 과정을 거친다. 이때, 음성인식 기능 시, 음성발화 데이터에서 특징을 추출하고 분석하여, 음성의 특징값과 해당 특징값에 대응되는 문자열을 저장 및 관리하고 있는 음성 데이터베이스에서 가장 근접한 결과를 추출하게 된다. 이렇게 입력 처리부(12)에서 변환된 사용자 입력 데이터(인식에 불필요한 요소를 제거한 문자 데이터, 문자화된 음성발화 데이터)는 문자열로 대화서비스 장치(20)로 전달된다.Here, the input processing unit 12 primarily processes input (text or voice utterance, etc.) data of the user, which is directly transmitted through the network or directly. In this case, when the input data is text data, an unnecessary element such as quotes is removed, and when the input data is voice speech data, the input data is converted into a corresponding string through a voice recognition function. At this time, in the speech recognition function, the feature is extracted and analyzed from the speech data, and the closest result is extracted from the speech database storing and managing a feature value of the speech and a character string corresponding to the feature value. In this way, the user input data (character data without the unnecessary elements for recognition, characterized speech speech data) converted by the input processing unit 12 is transmitted to the conversation service apparatus 20 as a character string.

또한, 대화서비스 장치(20)는 사용자가 질의어를 입력했을 때 해당 문장에 대해 의미 분석을 하고 그 정보를 검색키로 하여 사용자의 질의에 맞는 시스템 응답을 문자열로 생성하여 출력 처리부(13,14)로 전달한다.In addition, when the user inputs a query, the chat service device 20 performs a semantic analysis on the sentence and uses the information as a search key to generate a system response corresponding to the user's query as a string to the output processor 13 or 14. To pass.

또한, 출력 처리부(13,14)에서는 대화서비스 장치(20)에서 생성된 문자열의 시스템 응답(시스템 응답 메시지)을 음성 합성부(13)를 통해 음성 데이터로 변환하여 출력하고, 문자 데이터를 디스플레이부(14)를 통해 디스플레이한다.In addition, the output processing unit 13, 14 converts the system response (system response message) of the character string generated by the conversation service apparatus 20 into voice data through the voice synthesis unit 13, and outputs the text data. Display through (14).

만약, 사용자가 사용자 단말기(11)를 통해 질의어를 입력한 경우, 사용자 단말기(11)에서는 전달된 음성 데이터를 스피커를 통해 출력하고, 문자 데이터를 화면상에 출력하게 된다. 이 경우, 출력 처리부(13,14)는 문자열의 시스템 발화(시스템 응답)를 그대로(문자 데이터) 사용자 단말기(11)로 전송하거나, 문자열의 시스템 발화를 음성으로 변환하여 음성 데이터를 사용자 단말기(11)로 전송하거나, 문자열의 시스템 발화를 음성으로 변환하여 음성 데이터를 문자 데이터와 함께 사용자 단말기(11)로 전송할 수 있다.If the user inputs a query through the user terminal 11, the user terminal 11 outputs the transmitted voice data through the speaker and outputs the text data on the screen. In this case, the output processing units 13 and 14 transmit the system utterance (system response) of the character string to the user terminal 11 as it is (text data), or convert the system utterance of the character string into voice and convert the voice data into the user terminal 11. ) Or by converting a system utterance of a character string into voice, the voice data can be transmitted to the user terminal 11 together with the text data.

이후, 사용자는 시스템 응답(시스템 발화) 메시지를 보고 다음 입력을 진행하게 되고, 음성인식 시스템은 상기의 과정을 반복적으로 수행하여 대화서비스를 지능형으로 제공하게 된다.Then, the user sees the system response (system utterance) message and proceeds to the next input, and the voice recognition system performs the above process repeatedly to intelligently provide the conversation service.

그럼, 본 발명에 따른 대화서비스 장치(20)에 대해 보다 상세하게 살펴보기로 한다.Then, the dialog service device 20 according to the present invention will be described in more detail.

대화서비스 장치(20)는 사용자의 자연어 질의(문자 또는 음성발화 등)에 대해 답변이나 재질문을 함으로써 대화를 진행하는데, 이때 대화서비스 장치(20)는 입력되는 사용자의 질의가 호텔예약이나 홈네트워크 기기제어 등과 같이 시스템이 설정한 특정한 목적 영역에 한정되지 않고, 채팅과 같은 일반 대화와 혼용되어 사용될 때, 입력되는 사용자 질의(사용자의 다양한 자연어 질의 문장, 즉 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있음)에 대해 목적 영역 대화와 일반 영역 대화로 분류하고, 사용자 질의의 영역에 따라 적합한 응답 추론부(상태 기반 응답 추론부(24) 또는 예제 기반 응답 추론부(26))를 사용하고, 시스템 상태 제어부(23)를 이용하여 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지할 수 있도록 하여 생성되는 시스템 응답의 품질을 높일 수 있다[범용 대화관리 기능].The conversation service device 20 performs a conversation by answering or answering a user's natural language query (text or voice utterance, etc.). In this case, the conversation service device 20 inputs a user's query to a hotel reservation or home network. It is not limited to a specific destination area set by the system such as device control, and when used in combination with a general conversation such as a chat, the inputted user query (a variety of natural language query sentences of the user, that is, a conversation in the destination area and a conversation in the general area) is used. Are classified into destination domain conversations and general domain conversations, and use the appropriate response inference unit (state-based response inference unit 24 or example-based response inference unit 26) according to the area of the user query, The system status control unit 23 is used to generate and use the system status information within a period of mixed conversations. Can improve the quality of the system response [general conversation management function].

먼저, 도 2를 참조하여, 본 발명에 따른 범용 대화서비스 장치(20)의 구성을 살펴보면, 입력 질의어(문자 데이터 또는 음성발화 데이터 중 어느 하나임)를 영역(목적 영역, 일반 영역)별로 분류하기 위한 영역 분류부(21)와, 분류된 영역(목적 영역 또는 일반 영역)의 특화된 의미(목적 영역 의미 해석, 일반 영역 의미 해석)를 해석하여 현재 사용자 의도를 분석하기 위한 의미 해석부(22)와, 현재 시스템 상태 정보(직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성됨)를 참조하여, 영역별로 분류된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답 추론부(상태 기반 응답 추론부(24), 예제 기반 응답 추론부(26))와, 이전 사용자 의도와 이전 시스템 의도 및 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어부(23)와, 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 생성하기 위한 응답 형틀 생성부(28)와, 목적 영역에 대한 시스템 응답 형틀 또는 일반 영역에 대한 시스템 응답 형틀 또는 목적 영역에 대한 시스템 응답 형틀과 일반 영역에 대한 시스템 응답 형틀로부터 시스템 응답을 생성하기 위한 자연어 생성부(29)를 포함한다.First, referring to FIG. 2, a configuration of the general-purpose chat service device 20 according to the present invention is provided for classifying an input query word (which is either text data or voice speech data) by area (purpose area, general area). A region classifier 21 and a semantic analyzer 22 for analyzing current meanings of users by analyzing specialized meanings (purpose domain meaning interpretation, general domain meaning interpretation) of the classified regions (purpose domain or general domain), The current system of current user intents, categorized by region, with reference to the current system state information (consists of the intentions taken by the system in previous utterances (previous system intentions), and the intentions of users accumulated in the conversation (previous user intents). Response inference unit (state-based response inference unit 24, example-based response inference unit 26) to infer intentions, cumulative previous user intentions and previous system intentions A system state control unit 23 for generating current system state information from the generated system state information, and a system response template for a target region from the current user intention and the current system intention (exchange only some vocabularies to generate actual natural language sentences). System response template for generating a response frame) and a system response template for the target area or a system response template for the general area or a system response template for the destination area and a system response template for the general area. Natural language generation unit 29 for generating a.

이하에서는, 대화 1단계에서 사용자의 의도를 '사용자 의도A'로 정의하고, '사용자 의도A'에 대한 시스템 의도를 '시스템 의도B'로 정의한다. 또한, 대화 2단계에서 사용자의 의도를 '사용자 의도C'로 정의하고, '사용자 의도C'에 대한 시스템 의도를 '시스템 의도D'로 정의한다. 또한, 대화 3단계에서 사용자의 의도를 '사용자 의도E'로 정의하고, '사용자 의도E'에 대한 시스템 의도를 '시스템 의도F'로 정의한다.Hereinafter, in the dialogue step 1, the user's intention is defined as 'user intention A', and the system intention for 'user intention A' is defined as 'system intention B'. In addition, in step 2 of the dialogue, the user's intention is defined as 'user intention C', and the system intention for 'user intention C' is defined as 'system intention D'. In addition, in step 3 of the dialogue, the user's intention is defined as 'user intention E', and the system intention for 'user intention E' is defined as 'system intention F'.

따라서 상기 '현재 시스템 상태 정보'는, 초기 시스템 상태 정보와, 이를 바탕으로 사용자 의도A에 대한 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 "(사용자 의도A, 시스템 의도B)"를 바탕으로 사용자 의도C에 대한 시스템 의도D의 대화 2단계의 상태값(코딩값), 제2 시스템 상태 정보 "(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)"를 바탕으로 사용자 의도E에 대한 시스템 의도F의 대화 3단계 상태값(코딩값)으로 이루어진다.Accordingly, the 'current system state information' may include initial system state information, the state value (coding value) of the first stage of the conversation of the system intention B with respect to the user intention A, and the first system state information " Based on system intention B), and the second system state information "(user intention A, system intention B), (user intention C, System intention D) "

즉, '시스템 의도B'는 사용자 의도A와 초기 시스템 상태 정보를 바탕으로 생성되고, '시스템 의도D'는 사용자 의도C와 제1 이전 시스템 상태 정보(초기 시스템 상태 정보를 바탕으로 한 사용자 의도A에 대한 시스템 의도B의 상태값(코딩값))를 바탕으로 생성되며, '시스템 의도F'는 사용자 의도E와 제2 이전 시스템 상태 정보(제1 이전 시스템 상태 정보를 바탕으로 한 사용자 의도C에 대한 시스템 의도D의 상태값)를 바탕으로 생성된다.That is, 'system intent B' is generated based on user intention A and initial system state information, and 'system intention D' is generated based on user intention C and first previous system state information (user intention A based on initial system state information). Is generated based on the state value (coding value) of system intent B for the user, and 'system intention F' is applied to the user intention E and the second previous system state information (user intention C based on the first previous system state information). Is created based on the state value of system intent D for the system.

상기 이전 및 현재 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며, 시스템 상태 제어부(23)에서는 현재 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지ㆍ관리할 수 있다.The previous and current system state information is managed by the system state control unit 23, and the system state control unit 23 can collectively use, maintain, and manage the current system state information within a period of a mixed area.

상기에서, 응답 추론부(24, 26)는, 목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론부(24)와, 일반 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 예제 대화 DB(27)를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론부(26)를 포함한다. 이때, 예제 기반 응답 추론부(26)에서는 일반 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하게 된다.In the above, the response inference unit 24 and 26 receives the current user intention of the destination area, and based on the current system state information and the state-based reasoning policy (state-based reasoning policy DB 25), A state-based response inference unit 24 for inferring the current system intention and a current user intention for the general area are inputted, and the current system intention for the general area is based on the current system state information and the example dialog DB 27. An example-based response inference unit 26 for extracting a system response template is included. At this time, the example-based response inference unit 26 generates a system response template by referring to the response template for exception processing when the system response template for the general area is not present in the example dialog DB 27.

또한, 응답 형틀 생성부(28)는, 예제 대화 DB(27)를 참조하여, 목적 영역에 대한 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성한다. 이때, 응답 형틀 생성부(28)에서는 목적 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하게 된다.In addition, the response template generation unit 28 generates a system response template for the target area from the current user intention and the current system intention for the target area with reference to the example dialog DB 27. At this time, the response template generation unit 28 generates a system response template by referring to the response template for exception processing when the system response template for the target area is not present in the example dialog DB 27.

따라서 자연어 생성부(29)에서는 목적 영역 및 일반 영역에 대한 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성할 수 있다.Therefore, the natural language generator 29 may generate a system response in natural language from the system response template for the target area and the general area.

이상의 내용을 정리해보면, 본 발명에 따른 범용 대화서비스 장치(20)는, 입력 질의어(문자 데이터 또는 음성발화 데이터 중 어느 하나임)를 영역(목적 영역, 일반 영역)별로 분류하기 위한 영역 분류부(21)와, 분류된 영역(목적 영역 또는 일반 영역)의 특화된 의미(목적 영역 의미 해석, 일반 영역 의미 해석)를 해석하여 현재 사용자 의도를 분석하기 위한 의미 해석부(22)와, 목적 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템이 가지고 있는 상태 정보(직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)로 구성되는 현재 시스템 상태 정보)와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론부(24)와, 예제 대화 DB(27)를 참조하여, 목적 영역에 대한 현재 사용자 의도와 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 생성하기 위한 응답 형틀 생성부(28)와, 일반 영역에 대한 현재 사용자 의도를 입력받아, 현재 시스템 상태 정보와 예제 대화 DB(27)를 기반으로 일반 영역에 대한 현재 시스템 의도 및 시스템 응답 형틀(일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀임)을 추출하기 위한 예제 기반 응답 추론부(26)와, 이전 사용자 의도와 이전 시스템 의도 및 그 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어부(23)와, 목적 영역 또는 일반 영역 또는 목적 영역과 일반 영역에 대한 시스템 응답 형틀로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성부(29)를 포함한다.In summary, the general-purpose chat service device 20 according to the present invention includes an area classification unit 21 for classifying an input query word (either text data or voice speech data) by area (target area, general area). ), A semantic interpreter 22 for analyzing the current user intention by interpreting the specialized meanings (purpose domain meaning interpretation, general domain meaning interpretation) of the classified domain (purpose domain or general domain), and the current The user's intention is inputted, and the state information of the current system (the current system state information composed of the intention that the system took in the previous utterance (previous system intention), and the intention of the user accumulated in the conversation (previous user intention)) and State-based response inference unit 24 to infer the current system intent for the destination area based on state-based reasoning policy (state-based reasoning policy DB 25). , Referring to the example dialog DB 27, to generate a system response template for the target area from the current user intention to the target area and the current system intent (a generational frame that can produce actual natural language sentences by replacing only some vocabularies). The current system intent and the system response template for the general area based on the current system state information and the example dialog DB 27 by receiving the response form generation unit 28 and the current user intention for the general area. Generate current system state information from previous user intention, previous system intention, and system state information accumulated up to that point. The system state control unit 23, and the system for the target area or the general area or the target area and the general area And a natural language generator (29) for generating the system response to a natural language answer from the mold.

본 발명에 따른 범용 대화서비스 장치(20)는 대화의 영역(목적 영역, 일반 영역)에 따라 시스템 상태 정보 및 예제 기반 응답 추론 모델을 같이 이용한다. 이때, 영역 분류부(21)를 통해 목적 영역과 일반 영역으로 사용자의 질의(문자 또는 음성발화 데이터 등)를 분류하여 처리한다. 그리고 목적 영역과 일반 영역으로 분류된 사용자 질의의 영역에 따라 응답 추론부(상태 기반 응답 추론부(25), 예제 기반 응답 추론부(26))를 적용한다.The general-purpose conversation service apparatus 20 according to the present invention uses the system state information and the example-based response inference model according to the conversation area (a target area and a general area). In this case, the area classifying unit 21 classifies and processes the user's query (text or voice speech data, etc.) into the target area and the general area. In addition, a response inference unit (state-based response inference unit 25 and example-based response inference unit 26) is applied according to an area of a user query classified into a target area and a general area.

이때, 시스템 상태 제어부(23)에서는 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지할 수 있다. 이의 구체적인 구현 방법으로, 현재의 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며, 직전의 발화에서 시스템이 취한 의도들(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도들(이전 사용자 의도)로 상태 정보가 이루어지며, 상태 기반 응답 추론부(24)와 예제 기반 응답 추론부(26)에서는 응답 추론의 입력으로 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)를 사용한다. 이때, 목적 영역으로 분류된 사용자 질의의 영역에 대해서는 상태 기반 응답 추론부(23)를 적용하고, 일반 영역으로 분류된 사용자 질의의 영역에 대해서는 예제 기반 응답 추론부(26)를 적용한다.In this case, the system state control unit 23 may integrate and maintain the system state information within the period of the conversation where the regions are mixed. In a concrete implementation method thereof, the current system state information is managed by the system state control unit 23, and the intentions taken by the system in the last utterance (previous system intentions), the intentions of the users accumulated in the conversation (previous user) State information, and the state-based response inference unit 24 and the example-based response inference unit 26 use state information (current system state information) that the current system has as an input for response inference. In this case, the state-based response inference unit 23 is applied to the region of the user query classified into the target region, and the example-based response inference unit 26 is applied to the region of the user query classified into the general region.

여기서, 상태 기반 응답 추론부(23)에서는 분석된 사용자 발화의 의미(현재 사용자 의도)와 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보), 상태 기반 추론 정책을 입력으로 현재의 시스템 의도, 즉 시스템이 어떠한 발화나 행동을 할 것인가를 결정한다. 이때, 현재 시스템 상태 정보는 시스템 상태 제어부(23)에 의해 관리되며(다음 시스템 상태 정보로서 활용될 수 있음), 생성된 현재 시스템 의도는 응답 형틀 생성부(28)에 의해 예제 대화 DB(27)와 예외처리용 응답 형틀(도면에 도시되지 않음)을 참조하여 자연어 생성에 사용될 응답 형틀로 변형되어, 자연어 생성부(29)에서 일부 어휘의 교체와 어미 및 조사의 재배열 등을 통하여 사용자에게 전달될 시스템 발화(시스템 응답)로 변환된다.Here, the state-based response inference unit 23 inputs the meaning of the analyzed user utterance (current user intention), the state information (current system state information) possessed by the current system, and the state-based reasoning policy. Determine what kind of speech or action the system will take. At this time, the current system state information is managed by the system state control unit 23 (which can be utilized as the next system state information), and the generated current system intention is generated by the response template generation unit 28 by the example dialog DB 27. And a response template for exception processing (not shown in the drawing), which is transformed into a response template to be used for generating a natural language, and is transmitted to the user through the replacement of some vocabulary and rearrangement of endings and surveys by the natural language generating unit 29. Is converted into a system utterance (system response).

한편, 예제 기반 응답 추론부(26)에서는 분석된 사용자 발화의 의미(현재 사용자 의도)와 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)를 참조하여 예제 대화 DB(27)에서 탐색하고, 해당 예문의 시스템 답변(시스템 응답)을 시스템 응답 형틀로 삼고, 이는 다시 자연어 생성부(29)에서 일부 어휘의 교체와 어미 및 조사의 재배열 등을 통하여 사용자에게 전달될 시스템 발화(시스템 응답)로 변환된다.Meanwhile, the example-based response inference unit 26 searches for the example conversation DB 27 by referring to the meaning of the analyzed user utterance (current user intention) and the state information (current system state information) of the current system. The system answer (system response) of the example sentence is used as a system response template, which is converted into a system utterance (system response) to be delivered to the user through the replacement of some vocabulary and rearrangement of the ending and the survey by the natural language generator 29. do.

상기와 같은 구성을 갖는 본 발명에 따른 범용 대화서비스 장치(20)의 동작을 도 3을 참조하여 살펴보면 다음과 같다.The operation of the general-purpose chat service device 20 according to the present invention having the above configuration will be described with reference to FIG. 3.

사용자 질의는 열차예약과 같이 서비스가 제공하고자 하는 목적 영역 질의와, 채팅과 같은 그 밖의 일반 영역 질의로 분류할 수 있다.User queries can be categorized into destination domain queries that the service intends to provide, such as train reservations, and other general domain queries, such as chat.

따라서 대화서비스 장치(20)에 이러한 영역이 혼용되어 발화되는 사용자 질의(문자 또는 음성발화 데이터 등)가 들어오면(301), 가장 먼저 영역 분류부(21)에서 목적 영역 질의와 일반 영역 질의로 질의의 영역을 판별한다(302). 이때, 영역을 판별하는 방법론으로는, 대화의 영역이 부착되어 수집된 대량의 사용자 질의 집합에서 훈련된 분류(Classification) 기법을 사용한다.Therefore, when the user service (text or voice utterance data, etc.) that the area is mixed and uttered comes into the conversation service device 20 (301), the area classification unit 21 first queries the target area query and the general area query. The area of 302 is determined (302). At this time, as a methodology for determining a region, a classification technique trained on a large set of user queries collected by attaching a conversation region is used.

일 예로, 영역 분류부(21)에서는 음성언어 주제 판별 방식을 사용할 수 있다.For example, the area classifying unit 21 may use a voice language topic determination method.

참고적으로, 음성언어 주제 판별 방식을 살펴보면, 사용자 음성을 인식하여 문장을 출력하고, 인식된 문장에서 속성을 추출한다. 이때, 속성 추출은 인식된 발화 문장에서 어휘 정보(주요 단어와 그 품사)를 추출하고, 각 주요 단어의 상/하위 관계 등을 고려하여 개념 정보('상/하위 단어')를 추출하거나, 주요 단어들 간에 어휘 및 구문 관계를 고려하여 문맥 정보를 추출하거나, 발화 문장이 적어도 2개의 문장으로 이루어진 경우 발화 문장 간에 수사 관계를 고려하여 '문장간 수사 관계'를 추출한다. 다만, 단어의 어휘 정보와 개념 정보, 단어들 간의 문맥 정보, 문장들 간의 수사 관계는 각각 독립적인 분류 속성으로 이의 일부 혹은 전체를 분류 속성으로 사용 가능하다. 이후, 사용자 질의에서 추출된 속성과 미리 훈련된 주제별 속성 집합을 비교하여 인식된 문장의 속성에 가장 가까운 속성 집합의 주제 코드를 찾고, 그 유사도를 계산한다. 만약, 계산된 유사도가 미리 설정된 임계치보다 높거나 같은 경우 찾아진 주제 코드를 입력 음성의 주제 코드로 최종 확정하여 출력하고, 임계치보다 낮은 경우 주제 판별이 실패한 것으로 판단하여 주제 판별 실패 코드를 출력한다.For reference, referring to a method of discriminating a speech language, a sentence is recognized by recognizing a user's voice and an attribute is extracted from the recognized sentence. At this time, the attribute extraction extracts lexical information (main words and parts of speech) from recognized speech sentences, and extracts conceptual information ('high / low word') in consideration of parent / child relationship of each main word, or main Context information is extracted in consideration of vocabulary and phrase relations between words, or when the spoken sentence is composed of at least two sentences, the 'investigation relation between sentences' is extracted in consideration of the rhetorical relation between the spoken sentences. However, the lexical information and concept information of words, contextual information between words, and rhetorical relations between sentences are independent classification attributes, and some or all of them may be used as classification attributes. Then, by comparing the attributes extracted from the user query with the pre-trained subject-specific attribute set, the subject code of the attribute set closest to the recognized sentence attribute is found, and the similarity is calculated. If the calculated similarity is higher than or equal to the preset threshold, the found subject code is finally determined and output as the subject code of the input voice. If the calculated similarity is lower than the threshold, it is determined that the subject discrimination has failed and the subject discrimination failure code is output.

예를 들면, 사용자로부터의 음성으로부터 얻을 수 있는 문장이 "객실 예약을 하고 싶은데요."일 때, 이 문장으로부터 얻을 수 있는 주요 단어들은 '객실', '예약', '하다'이다. 이들 단어로부터 추출 가능한 상위어는 '객실'의 상위어인 '호텔', '예약'의 상위어인 '고객대응'이다. 이때, 추출된 구문 관계는 '예약'과 '하다'의 목적격 관계인 '예약-을-하다'이다. 이러한 과정을 거쳐, 이 문장의 속성은 {'객실', "예약', '하다', '호텔', '고객대응', '예약-을-하다'}로 표현된다.For example, if the sentence from the user's voice is "I want to make a room reservation," the main words that can be obtained from this sentence are 'room', 'reservation' and 'make'. The upper terms that can be extracted from these words are 'hotel' which is the upper term of 'room' and 'customer response' which is the upper term of 'reservation'. At this time, the extracted syntax relationship is 'reservation-to-make', which is the purpose relationship between 'reservation' and 'make'. Through this process, the attribute of this sentence is expressed as {'room', 'reservation', 'make', 'hotel', 'customer response', 'reservation-to-make'}.

또 다른 예로, 사용자의 음성이 "어제 예약을 했는데요. 그런데, 오늘 일이 생겨서요."일 때, '(예약-을-하다) - 반전 - (일-이-생기다)'와 같은 문장간 수사 관계를 추출할 수 있다. 이 음성의 속성은 이 문장간 수사 관계를 포함하여 {'어제', '예약', '하다', '오늘', '일', '생기다', '날짜', '고객대응', '예약-을-하다', '일-이-생기다', '(예약-을-하다) - 반전 - (일-이-생기다)'}로 표현된다.In another example, when the user's voice says "I made a reservation yesterday, but today's happened," the rhetorical relation between sentences such as '(reservation-make-)-invert- (work-make-)' Can be extracted. The attributes of this voice include rhetorical relations between these sentences: {'Yesterday', 'Reservation', 'Make', 'Today', 'Day', 'Generate', 'Date', 'Customer Response', 'Reservation- '-', 'One-to-produce', '(reservation-to-produce)-inversion- (one-to-produce')}.

이와 같은 음성언어 주제 판별 방식을 통해 영역 분류부(21)는 사용자의 발화 음성을 인식하여, 인식된 발화 문장에서 주요 어휘를 추출한 후 각 주요 단어의 상/하위 관계 등을 고려하여 개념 정보를 추출하거나, 인식된 발화 문장에서 주요 단어를 추출하고 주요 단어들 간에 어휘 및 구문 관계를 고려하여 문맥 정보를 추출하거나, 발화 문장이 적어도 2개의 문장으로 이루어진 경우 인식된 발화 문장들에서 주요 단어를 추출하고 발화 문장 간에 수사 관계를 고려하여 '문장 간 수사 관계'를 추출함으로써, 추출된 속성들로 표현된 문장을 주제별로 분류할 수 있다.Through the speech language subject discrimination method, the area classifier 21 recognizes a user's spoken voice, extracts a main vocabulary from the recognized spoken sentence, and then extracts conceptual information considering the upper / lower relationship of each main word. Extract the main word from the recognized spoken sentences and extract the context information in consideration of the vocabulary and phrase relations between the main words, or extract the main word from the recognized spoken sentences if the spoken sentence consists of at least two sentences; By extracting 'investigative relations between sentences' in consideration of rhetorical relations between spoken sentences, it is possible to classify sentences expressed by the extracted attributes by subject.

이후, 영역 분류부(21)에서 영역(목적 영역 또는 일반 영역)이 분류된 사용자 질의는 영역에 특화된 의미 해석부(22)를 통하여 해당 영역에서 필요한 의미를 분석한다(303,304). 즉, 목적 영역으로 분류된 사용자 질의의 영역에 대해서는 목적 영역 의미 해석을 통하여 사용자의 의도(현재 사용자 의도)를 파악하고(303), 일반 영역으로 분류된 사용자 질의의 영역에 대해서는 일반 영역 의미 해석을 통하여 사용자의 의도(현재 사용자 의도)를 파악한다(304).Subsequently, the user query in which an area (a target area or a general area) is classified in the area classification unit 21 is analyzed through the meaning analysis unit 22 specialized for the area (303, 304). That is, the user's intention (current user intention) is grasped through the interpretation of the meaning of the target area for the user query area classified into the target area (303). Determine the user's intention (current user intention) through (304).

예를 들어, "대전에 가는 열차를 예약해 주세요."라는 사용자 발화에 대해서, [열차 예약]이라는 목적 영역으로 분류되었으면(302), 이 목적 영역을 해석하는 의미 해석부(21)에 의해 {사용자의도="열차예약", 도착역="대전", 문형="요청"} 등과 같이 분석된다(303).For example, if the user utterance "Please book a train going to Daejeon" has been classified into a target area called "train reservation" (302), the semantic analyzer 21 interpreting the target area is { The user's intention " train reservation ", arrival station " charge ", sentence pattern " request "} and the like are analyzed (303).

이후, 분석된 사용자 발화의 의미(현재 사용자 의도, 305)를 입력으로 상태 기반 응답 추론부(24)는 시스템의 의도, 즉 "확인(출발역=서울)"과 같이 시스템이 어떠한 발화나 행동을 할 것인가를 결정한다(306).Subsequently, the state-based response inference unit 24 inputs the meaning of the analyzed user utterance (current user intention, 305) to perform any utterance or action of the system such as the intention of the system, that is, "confirmation (starting station = Seoul)". (306).

이때, 상태 기반 응답 추론부(24)는 현재 시스템이 가지고 있는 상태 정보(현재 시스템 상태 정보)(309)와 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 기반으로 시스템 의도를 추론한다(308). 여기서, 상태 기반 추론 정책이란, 시스템의 각 상태에서 취할 수 있는 시스템의 의도를 수작업 혹은 통계적으로 나열한 정책 규칙이다. 그리고 현재의 시스템 상태 정보(309)는 시스템 상태 제어부(23)에 의해 관리되며, 직전의 발화에서 시스템이 취한 의도, 그동안 대화에서 누적된 사용자의 의도들로 정보 상태가 이루어진다.At this time, the state-based response inference unit 24 infers the system intention based on the state information (current system state information) 309 and the state-based reasoning policy (state-based reasoning policy DB 25) that the current system has. (308). Here, the state-based reasoning policy is a policy rule that manually or statistically lists the intention of the system that can be taken in each state of the system. The current system state information 309 is managed by the system state controller 23, and the information state is made up of the intentions taken by the system in the last utterance and the intentions of the users accumulated in the conversation.

상기에서, 현재 시스템 상태 정보(309)는 다음과 같이 생성된다.In the above, the current system state information 309 is generated as follows.

최초 대화 1단계에서 사용자 의도A[예로서, "열차를 예약해 주세요"라는 사용자 발화에 대해 {사용자의도="열차예약", 문형="요청"}](305)에 대해 시스템 의도B[예로서, "확인(출발역=서울)"](308)가 생성되었다고 가정하고, 대화 2단계에서 사용자 의도C[예로서, "서울에서 출발합니다"라는 사용자 발화에 대해 {사용자의도="출발역(서울)", 문형="응답"}](305)에 대해 시스템 의도D[예로서, "확인(도착역=대전)"](308)가 생성되었다고 가정하며, 대화 3단계에서 사용자 의도E[예로서, "대전에 도착합니다"라는 사용자 발화에 대해 {사용자의도="도착역(대전)", 문형="응답"}](305)에 대해 시스템 의도F[예로서, "예약완료되었습니다"](308)가 생성되었다고 가정하자.In the first step of the first conversation, the user intention A [eg, {user intention = "train reservation", sentence type = "request"}] for user speech "Please book train", system intent B [ As an example, assume that "confirmation (starting station = Seoul)" 308 has been generated, and in step 2 of the dialogue, the user intention C [ (Seoul) ", sentence pattern =" response "}] 305, assuming system intent D [e.g.," confirmation (arrival = war) "] 308 has been created, and user intention E [ For example, a system intention F [e.g., "Reserved" for {user's intention = "arrival station (battle)", sentence sentence = "response"}] (305) for a user utterance "to arrive at war". Assume 308 is generated.

이 경우, 사용자 의도A(305)에 대해서는 초기 시스템 상태 정보(309)를 바탕으로 이전 시스템 의도B(308)가 생성된다. 그러나 사용자 의도C(305)에 대해서는 이전까지 누적된 제1 시스템 상태 정보[(사용자 의도A, 시스템 의도B)](309)를 바탕으로 시스템 의도D(308)가 생성될 것이다. 그리고 사용자 의도E(305)에 대해서는 이전까지 누적된 제2 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)를 바탕으로 시스템 의도F(308)가 생성될 것이다.In this case, for user intent A 305, previous system intent B 308 is generated based on initial system state information 309. However, for user intention C 305, system intention D 308 will be generated based on the previously accumulated first system state information ((user intention A, system intention B)] 309. For the user intention E 305, the system intention F 308 based on the previously accumulated second system state information [(user intention A, system intention B), (user intention C, system intention D)] 309. Will be generated.

이처럼, '시스템 의도B'(308)는 초기 시스템 상태 정보(309)를 바탕으로 한 사용자 의도A(305)에 대한 시스템 의도이고, '시스템 의도D'(308)는 제1 이전 시스템 상태 정보(초기 시스템 상태 정보를 바탕으로 한 사용자 의도A에 대한 시스템 의도B의 상태값(코딩값))(309)를 바탕으로 한 사용자 의도C(305)에 대한 시스템 의도이며, '시스템 의도F'(308)는 제2 이전 시스템 상태 정보(제1 이전 시스템 상태 정보를 바탕으로 한 사용자 의도C에 대한 시스템 의도D의 상태값)(309)를 바탕으로 한 사용자 의도E(305)에 대한 시스템 의도가 될 것이다.As such, 'system intent B' 308 is the system intent for user intent A 305 based on the initial system state information 309, and 'system intention D' 308 is the first previous system state information ( System intent for user intent C 305 based on system intent B's state value (coding value) 309 for user intent A based on initial system state information, and is defined as 'system intent F' (308). ) May be the system intent for user intent E 305 based on the second previous system state information (status value of system intention D for user intention C based on first previous system state information) 309. will be.

따라서 시스템 상태 제어부(23)는 이전 사용자 의도(예로서, 사용자 의도C) 및 이전 시스템 의도(예로서, 사용자 의도C에 대한 시스템 의도D)와 그 이전까지 누적된 시스템 상태 정보(예로서, 사용자 의도A에 대한 시스템 의도B)로부터 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)]를 생성한다(309). 그러면, 상태 기반 응답 추론부(24)에서는 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)와 목적 영역에 대한 현재 사용자 의도(예로서, 사용자 의도E)(305), 상태 기반 추론 정책(상태 기반 추론 정책 DB(25))을 바탕으로 목적 영역에 대한 현재 시스템 의도(예로서, 시스템 의도F)(308)를 추론할 수 있게 된다. 이때, 현재 시스템 의도F(308)는 대화 단계가 지속되는 경우(예로서, 대화 4단계) 다음 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D), (사용자 의도E, 시스템 의도F)]에 반영된다.Therefore, the system state control unit 23 may include the previous user intention (eg, user intention C) and the previous system intention (eg, system intention D for user intention C) and the system state information accumulated up to the previous (eg, user Generates current system state information ((user intent A, system intent B), (user intent C, system intent D)) from system intent B for intent A (309). Then, the state-based response inference unit 24 displays the current system state information [(user intention A, system intention B), (user intention C, system intention D)] 309 and the current user intention for the destination area (for example, Based on the user intention E 305 and the state based reasoning policy (state based reasoning policy DB 25), the current system intention (eg, system intention F) 308 for the destination area can be inferred. . At this time, the current system intention F 308 is the next system state information ((user intention A, system intention B), (user intention C, system intention D), ( User intention E, system intention F)].

이와 같이 생성된 시스템의 의도(308)는 응답 형틀 생성부(28)에서 자연어 생성에 사용될 시스템 응답 형틀로 변형된다(310). 이때, 예제 대화 DB(27)를 참조하여 시스템 응답 형틀을 생성하는데, 만약 목적 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조한다.The intention 308 of the system thus generated is transformed into a system response template to be used for natural language generation in the response template generation unit 28 (310). At this time, a system response template is generated with reference to the example dialog DB 27. If the system response template for the target area is not present in the example dialog DB 27, the response template for exception processing is referred to.

여기서, 응답 형틀이란 일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀을 의미하며, 시스템 의도에 대해 "$(출발역=서울)에서 출발하십니까?"와 같은 시스템 응답 형틀을 생성한다(310).Here, the response template refers to a generation frame capable of generating actual natural language sentences by replacing only some vocabulary, and generates a system response template such as "Do you start from $ (starting station = Seoul)?" ).

이후, 자연어 생성부(29)에서는 시스템 응답 형틀(311)로부터 일부 어휘의 교체와 어미 및 조사의 재배열 등을 통하여 실제 사용자에게 전달될 시스템 발화(시스템 응답)를 생성한다(312,313).Thereafter, the natural language generation unit 29 generates system utterances (system responses) to be delivered to the actual user through the replacement of some words and rearrangement of endings and surveys from the system response template 311 (312 and 313).

한편, "서울에서 출발하십니까?"와 같은 시스템 발화(시스템 응답)에 대하여 사용자는 "예 맞습니다." 혹은 "서울에서부터 2장 예매해 주세요." 등과 같이 시스템이 원하는 [열차 예약] 목적 영역의 발화를 할 수도 있지만, "오늘 어때?"와 같이 다소 서비스 목적과 동떨어진 발화(일반 영역 대화)를 할 수 있다(301). 이러한 경우, 영역 분류부(21)에 의해 일반 영역의 발화로 분류되어(302) 일반 영역을 해석하는 의미 해석부(22)에 의해 그 의미가 분석된다(304). 이 경우, 해석된 사용자 의도는 {사용자의도="인사", 문형="HOW"}와 같다.On the other hand, for a system utterance (system response) such as "Would you like to leave from Seoul?" Or "Please buy 2 tickets from Seoul." The system may utter a desired [train reservation] target area, such as, but may perform a utterance (general area conversation) somewhat different from the service purpose, such as "How about today?" In this case, the meaning is analyzed by the region classifying section 21 as the speech of the general region (302), and the meaning is analyzed by the semantic analysis section 22 for analyzing the general region (304). In this case, the interpreted user intention is the same as {user intention = "greeting", sentence type = "HOW"}.

이후, 예제 기반 응답 추론부(26)는 사용자 발화(사용자 의도)와 가장 가까운 의미를 가진 예문을 해석된 사용자 의도(현재 사용자 의도)와 현재의 시스템 상태 정보(현재 시스템 상태 정보)(309)를 참고하여 예제 대화 DB(27)에서 탐색하여 해당 예문의 시스템 답변(시스템 응답)을 시스템 응답 형틀로 삼는다(311).Thereafter, the example-based response inference unit 26 analyzes a user sentence (current user intention) and a current system state information (current system state information) 309 which have been interpreted as an example having a meaning closest to the user utterance (user intention). By referring to the example dialog DB (27), the system answer (system response) of the example sentence is used as the system response template (311).

여기서, 예제 대화 DB(27)를 검색할 때, 사용자 발화의 의미(사용자 의도)뿐만이 아니라, "사용자의 요청에 대한 확인을 요청"하고 있는 시스템의 현재 상태 정보(현재 시스템 상태 정보)(309)를 참고하여 이러한 상황과 가장 가까운 발화의 답변 "모르니까 물어보지"를 검색한다. 이때, 예제 대화 DB(27)에는 시스템의 응답 형틀의 형태로 시스템 발화(시스템 응답)가 저장되어 있으므로 예제 기반 응답 추론부(26)의 추론 결과는 시스템 응답 형틀이다(311). 이는(311) 다시 자연어 생성부(29)에서 일부 어휘의 교체와 어미 및 조사의 재배열 등을 통하여 실제 사용자에게 전달될 시스템의 발화(시스템 응답)로 생성된다(312,313). 여기서, 예제 기반 응답 추론 시(307), 만약 일반 영역에 대한 시스템 응답 형틀이 예제 대화 DB(27)에 없는 경우, 예외처리용 응답 형틀을 참조한다.Here, when searching the example conversation DB 27, not only the meaning of the user utterance (user intention) but also the current state information (current system state information) 309 of the system "requesting confirmation of the user's request" 309 See "Do not know, do not know" answer to the utterance closest to this situation. In this case, since the system conversation (system response) is stored in the form of the response form of the system in the example conversation DB 27, the inference result of the example-based response inference unit 26 is the system response form (311). This 311 is generated by the natural language generation unit 29 as the speech (system response) of the system to be delivered to the actual user through the replacement of some vocabulary and rearrangement of the mother and the survey (312,313). Here, in the example-based response inference (307), if the system response template for the general area does not exist in the example dialog DB (27), refer to the response template for exception processing.

이때, 현재 시스템 상태 정보(309)는 상기 목적 영역에 대한 응답 추론 방식과 같이 일반 영역의 사용자 의도A(305)에 대해서는 초기 시스템 상태 정보(309)를 바탕으로 이전 시스템 의도B(308)가 생성된다. 그리고 일반 영역의 사용자 의도C(305)에 대해서는 이전까지 누적된 제1 시스템 상태 정보[(사용자 의도A, 시스템 의도B)](309)를 바탕으로 시스템 의도D(308)가 생성될 것이다. 또한, 일반 영역의 사용자 의도E(305)에 대해서는 이전까지 누적된 제2 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)를 바탕으로 시스템 의도F(308)가 생성될 것이다.At this time, the current system state information 309 is generated by the previous system intention B 308 based on the initial system state information 309 for the user intention A 305 of the general area, such as a response inference method for the target area. do. For the user intention C 305 of the general area, the system intention D 308 will be generated based on the first system state information ((user intention A, system intention B) 309 accumulated up to now. In addition, for the user intention E 305 in the general area, the system is based on the second system state information [(user intention A, system intention B), (user intention C, system intention D)] 309 accumulated up to now. Intent F 308 will be generated.

따라서 시스템 상태 제어부(23)는 이전 사용자 의도(예로서, 사용자 의도C) 및 이전 시스템 의도(예로서, 사용자 의도C에 대한 시스템 의도D)와 그 이전까지 누적된 시스템 상태 정보(예로서, 사용자 의도A에 대한 시스템 의도B)로부터 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)]를 생성한다(309). 그러면, 예제 기반 응답 추론부(26)에서는 현재 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)](309)와 일반 영역에 대한 현재 사용자 의도(예로서, 사용자 의도E)(305), 예제 대화 DB(27)를 바탕으로 일반 영역에 대한 현재 시스템 의도(예로서, 시스템 의도F)(308)를 추론할 수 있게 된다. 이때, 현재 시스템 의도F(308)는 대화 단계가 지속되는 경우(예로서, 대화 4단계) 다음 시스템 상태 정보[(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D), (사용자 의도E, 시스템 의도F)]에 반영된다.Therefore, the system state control unit 23 may include the previous user intention (eg, user intention C) and the previous system intention (eg, system intention D for user intention C) and the system state information accumulated up to the previous (eg, user Generates current system state information ((user intent A, system intent B), (user intent C, system intent D)) from system intent B for intent A (309). Then, the example-based response inference unit 26 includes current system state information [(user intention A, system intention B), (user intention C, system intention D)] 309 and the current user intention for the general area (for example, Based on the user intention E) 305 and the example conversation DB 27, it is possible to infer the current system intention (eg, system intention F) 308 for the general area. At this time, the current system intention F 308 is the next system state information ((user intention A, system intention B), (user intention C, system intention D), ( User intention E, system intention F)].

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상 의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.The method of the present invention as described above may be embodied as a program and stored in a computer-readable recording medium (such as a CD-ROM, a RAM, a ROM, a floppy disk, a hard disk, or a magneto-optical disk). Since this process can be easily implemented by those skilled in the art will not be described in detail any more.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the invention. The present invention is not limited to the drawings.

상기와 같은 본 발명은, 목적 영역의 대화와 일반 영역의 대화가 혼재되어 있는 영역에서 대화 전반에 걸쳐 습득된 정보를 이용하여 대화를 추론할 수 있고, 모든 형태의 사용자 질의에 대해 지능적으로 시스템 답변을 만들어 높은 대화 품질을 가지는 범용의 대화서비스를 제공할 수 있는 효과가 있다.As described above, the present invention can infer a conversation by using information acquired throughout the conversation in a conversation where the conversation of the target area and the conversation of the general area are mixed, and intelligently answer the system for all types of user queries. This makes it possible to provide a general-purpose conversation service with high conversation quality.

Claims (22)

대화서비스 장치에 있어서,In the chat service device, 입력 질의어를 영역별로 분류하기 위한 영역분류수단;Area classification means for classifying the input query word by area; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단;Semantic interpretation means for analyzing the meaning of the input query in the classified region to analyze the current user intention; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단;System state control means for generating current system state information from previous user intent and previous system intent and previously accumulated system state information; 상기 생성된 현재 시스템 상태 정보를 참조하여, 상기 분석된 현재 사용자 의도에 대한 현재 시스템 의도를 추론하기 위한 응답추론수단;Response reasoning means for inferring a current system intention with respect to the analyzed current user intention with reference to the generated current system state information; 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 '목적 영역에 대한 시스템 응답 형틀'을 생성하기 위한 응답 형틀 생성수단; 및Response template generation means for generating a 'system response template for the destination area' from the current user intent and the current system intent; And 상기 '목적 영역에 대한 시스템 응답 형틀' 또는 '일반 영역에 대한 시스템 응답 형틀' 또는 상기 '목적 영역에 대한 시스템 응답 형틀'과 '일반 영역에 대한 시스템 응답 형틀'로부터 시스템 응답을 생성하기 위한 시스템 응답 생성수단A system response for generating a system response from the 'system response template for the destination area' or 'system response template for the general area' or 'the system response template for the destination area' and 'the system response template for the general area' Creation 을 포함하는 범용 대화서비스 장치.Universal conversation service device comprising a. 제 1 항에 있어서,The method of claim 1, 상기 현재 시스템 상태 정보는,The current system status information is 직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)를 포함하는, 범용 대화서비스 장치.A general-purpose chat service device, including an intention taken by a system in a previous utterance (previous system intention) and a user's intention accumulated in a conversation (previous user intention). 제 2 항에 있어서,The method of claim 2, 상기 현재 시스템 상태 정보는,The current system status information is 초기 시스템 상태 정보와, 상기 초기 시스템 상태 정보를 바탕으로 이전 사용자 의도A에 대한 이전 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 '(사용자 의도A, 시스템 의도B)'를 바탕으로 이전 사용자 의도C에 대한 이전 시스템 의도D의 대화 2단계의 상태값(코딩값)과, 제2 시스템 상태 정보 '(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)'를 바탕으로 현재 사용자 의도E에 대한 현재 시스템 의도F의 대화 3단계의 상태값(코딩값)으로 이루어지는, 범용 대화서비스 장치.Based on the initial system state information and the initial system state information, the state value (coding value) of the first stage of conversation of the previous system intention B with respect to the previous user intention A, and the first system state information '(user intention A, system intention) B) 'state value (coding value) of the second stage of dialogue with the previous system intention D to the previous user intention C, and the second system state information' (user intention A, system intention B), (user intention C, And a status value (coding value) of three levels of conversation of the current system intention F with respect to the current user intention E based on the system intention D) '. 제 1 항에 있어서,The method of claim 1, 상기 목적 영역 및 일반 영역에 대한 시스템 응답 형틀은,The system response template for the target area and the general area is 일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀인, 범용 대화서비스 장치.General-purpose conversation service device, which is a generation frame capable of generating actual natural language sentences by replacing only some vocabulary words. 제 1 항에 있어서,The method of claim 1, 상기 질의어는,The query word, 언어적인 정보 및 비언어적인 정보를 포함하는, 범용 대화서비스 장치.A general purpose chat service device comprising linguistic and nonverbal information. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,6. The method according to any one of claims 1 to 5, 상기 시스템 상태 제어수단은,The system state control means, 상기 이전 및 현재 시스템 상태 정보를 영역이 혼용된 대화의 기간 내에 통합 사용 및 유지ㆍ관리하는, 범용 대화서비스 장치.And a general-purpose conversation service apparatus which integrates and maintains and manages the previous and current system state information within a period of a mixed area. 제 6 항에 있어서,The method of claim 6, 상기 응답추론수단은,The response reasoning means, 목적 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 상기 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단; 및State-based response inference means for receiving the current user intention for the destination region and inferring the current system intention for the destination region based on the current system state information and state-based inference policy; And 일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역에 대한 상기 현재 시스템 의도 및 상기 '일반 영역에 대한 시스템 응답 형틀'을 추출하기 위한 예제 기반 응답 추론수단An example-based response for extracting the current system intention for the general area and the 'system response template for the general area' based on the current user intention for the general area based on the current system state information and the example conversation DB. Reasoning 을 포함하는 범용 대화서비스 장치.Universal conversation service device comprising a. 제 7 항에 있어서,The method of claim 7, wherein 상기 응답 형틀 생성수단은,The response template generating means, 상기 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 상기 '목적 영역에 대한 시스템 응답 형틀'을 생성하는, 범용 대화서비스 장치.Referring to the example conversation DB, generating the 'system response template for the destination area' from the current user intention and the current system intention for the destination area. 제 8 항에 있어서,9. The method of claim 8, 상기 응답 형틀 생성수단은,The response template generating means, 상기 '목적 영역에 대한 시스템 응답 형틀'이 상기 예제 대화 DB에 없는 경우 예외처리용 응답 형틀을 참조하고,If the 'system response template for the target area' does not exist in the example dialogue DB, refer to the response template for exception processing. 상기 예제 기반 응답 추론수단은,The example-based response inference means, 상기 '일반 영역에 대한 시스템 응답 형틀'이 상기 예제 대화 DB에 없는 경우 예외처리용 응답 형틀을 참조하는, 범용 대화서비스 장치.If the 'system response template for the general area' does not exist in the example conversation DB, refer to an exception processing response template. 제 6 항에 있어서,The method of claim 6, 상기 시스템 응답 생성수단은,The system response generating means, 상기 '목적 영역 또는 일반 영역 또는 목적 영역과 일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하는, 범용 대화서비스 장치.And generating a system response in natural language from the 'target area or general area or a destination area and a system response template for the general area'. 제 7 항에 있어서,The method of claim 7, wherein 상기 상태 기반 추론 정책은,The state-based reasoning policy, 시스템의 각 상태에서 취할 수 있는 시스템의 의도(시스템이 어떠한 발화나 행동을 할 것인가를 나타내는 정보)를 통계적으로 나열한 정책을 포함하는 범용 대화서비스 장치.A general-purpose chat service device that includes a policy that statistically lists the system's intentions (information that indicates what kind of speech or action the system will take) in each state of the system. 대화서비스 장치에 있어서,In the chat service device, 입력 질의어를 영역별로 분류하기 위한 영역분류수단;Area classification means for classifying the input query word by area; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하기 위한 의미해석수단;Semantic interpretation means for analyzing the meaning of the input query in the classified region to analyze the current user intention; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하기 위한 시스템 상태 제어수단;System state control means for generating current system state information from previous user intent and previous system intent and previously accumulated system state information; 목적 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역에 대한 현재 시스템 의도를 추론하기 위한 상태 기반 응답 추론수단;State-based response inference means for receiving the current user intention for the destination region and inferring the current system intention for the destination region based on the current system state information and state-based inference policy; 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하기 위한 응답 형틀 생성수단;A response template generating means for generating a system response template for the target region from the current user intention and the current system intention for the target region with reference to the example dialog DB; 일반 영역에 대한 상기 현재 사용자 의도를 입력받아, 상기 현재 시스템 상태 정보와 상기 예제 대화 DB를 기반으로 일반 영역에 대한 현재 시스템 의도 및 일반 영역에 대한 시스템 응답 형틀을 추출하기 위한 예제 기반 응답 추론수단; 및Example-based response inference means for extracting a current system intention for the general area and a system response template for the general area based on the current user intention for the general area based on the current system state information and the example conversation DB; And 상기 '목적 영역에 대한 시스템 응답 형틀' 또는 '일반 영역에 대한 시스템 응답 형틀' 또는 상기 '목적 영역에 대한 시스템 응답 형틀'과 '일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하기 위한 자연어 생성수단Generating a system response in natural language from the 'system response template for the destination area' or 'system response template for the general area' or 'the system response template for the destination area' and 'the system response template for the general area' Means for generating natural language for 을 포함하는 범용 대화서비스 장치.Universal conversation service device comprising a. 대화서비스 방법에 있어서,In the chat service method, 입력 질의어를 영역별로 분류하는 단계;Classifying the input query by region; 상기 분류된 영역에서 입력 질의어의 의미를 해석하여 현재 사용자 의도를 분석하는 단계;Analyzing a meaning of an input query word in the classified area to analyze a current user intention; 이전 사용자 의도와 이전 시스템 의도 및 이전까지 누적된 시스템 상태 정보로부터 현재 시스템 상태 정보를 생성하는 단계;Generating current system state information from previous user intentions and previous system intentions and system state information accumulated up to the previous; 상기 현재 시스템 상태 정보와 상태 기반 추론 정책을 기반으로 목적 영역의 현재 사용자 의도에 대한 현재 시스템 의도를 추론하는 단계;Inferring the current system intention of the current user intention of the destination area based on the current system state information and the state-based reasoning policy; 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 목적 영역에 대한 시스템 응답 형틀을 생성하는 단계;Generating a system response template for the destination area from the current user intent for the destination area and the current system intent; 상기 현재 시스템 상태 정보와 예제 대화 DB를 기반으로 일반 영역의 현재 사용자 의도에 대한 일반 영역의 현재 시스템 의도 및 시스템 응답 형틀을 추출하는 단계; 및Extracting a current system intention and a system response template of the general area with respect to the current user intention of the general area based on the current system state information and the example conversation DB; And 목적 영역 또는 일반 영역 또는 목적 영역과 일반 영역에 대한 상기 시스템 응답 형틀로부터 시스템 응답을 생성하는 단계Generating a system response from the system response template for the destination or general area or the destination area and the general area; 를 포함하는 범용 대화서비스 방법.Universal conversation service method comprising a. 제 13 항에 있어서,14. The method of claim 13, 상기 '목적 영역 또는 일반 영역에 대한 시스템 응답 형틀'이 상기 예제 대화 DB에 없는 경우, 예외처리용 응답 형틀을 참조하여 시스템 응답 형틀을 생성하는 단계If the 'system response template for the destination area or the general area' does not exist in the example conversation DB, generating a system response template with reference to the exception processing response template. 를 더 포함하는 범용 대화서비스 방법.Universal conversation service method further comprising. 제 13 항 또는 제 14 항에 있어서,The method according to claim 13 or 14, 상기 현재 시스템 상태 정보는,The current system status information is 직전의 발화에서 시스템이 취한 의도(이전 시스템 의도), 그동안 대화에서 누적된 사용자의 의도(이전 사용자 의도)를 포함하는, 범용 대화서비스 방법.General purpose chat service method, including the intention that the system took in the last utterance (previous system intention), and the intention of the user accumulated in the conversation (previous user intention). 제 15 항에 있어서,16. The method of claim 15, 상기 현재 시스템 상태 정보는,The current system status information is 초기 시스템 상태 정보와, 상기 초기 시스템 상태 정보를 바탕으로 이전 사용자 의도A에 대한 이전 시스템 의도B의 대화 1단계의 상태값(코딩값)과, 제1 시스템 상태 정보 '(사용자 의도A, 시스템 의도B)'를 바탕으로 이전 사용자 의도C에 대한 이전 시스템 의도D의 대화 2단계의 상태값(코딩값)과, 제2 시스템 상태 정보 '(사용자 의도A, 시스템 의도B), (사용자 의도C, 시스템 의도D)'를 바탕으로 현재 사용자 의도E에 대한 현재 시스템 의도F의 대화 3단계 상태값(코딩값)으로 이루어지는, 범용 대화서비스 방법.Based on the initial system state information and the initial system state information, the state value (coding value) of the first stage of conversation of the previous system intention B with respect to the previous user intention A, and the first system state information '(user intention A, system intention) B) 'state value (coding value) of the second stage of dialogue with the previous system intention D to the previous user intention C, and the second system state information' (user intention A, system intention B), (user intention C, And a three-step dialogue state (coding value) of the current system intention F with respect to the current user intention E based on the system intention D) '. 제 15 항에 있어서,16. The method of claim 15, 상기 목적 영역 및 일반 영역에 대한 시스템 응답 형틀은,The system response template for the target area and the general area is 일부 어휘만을 교체하여 실제 자연어 문장을 만들어 낼 수 있는 생성 틀인, 범용 대화서비스 방법.General-purpose conversation service method, which is a generational frame that can produce actual natural language sentences by replacing only some vocabulary words. 제 17 항에 있어서,18. The method of claim 17, 상기 질의어는,The query word, 언어적인 정보 및 비언어적인 정보를 포함하는, 범용 대화서비스 방법.General conversation service method comprising linguistic information and non-verbal information. 제 17 항에 있어서,18. The method of claim 17, 상기 목적 영역에 대한 시스템 응답 형틀을 생성하는 과정에서는,In the process of generating a system response template for the target area, 상기 예제 대화 DB를 참조하여, 목적 영역에 대한 상기 현재 사용자 의도와 상기 현재 시스템 의도로부터 상기 '목적 영역에 대한 시스템 응답 형틀'을 생성하는, 범용 대화서비스 방법.Referring to the example conversation DB, generating the 'system response template for the destination area' from the current user intention and the current system intention for the destination area. 제 17 항에 있어서,18. The method of claim 17, 상기 시스템 응답을 생성하는 과정에서는,In the process of generating the system response, 상기 '목적 영역 또는 일반 영역 또는 목적 영역과 일반 영역에 대한 시스템 응답 형틀'로부터 자연어로 된 시스템 응답을 생성하는, 범용 대화서비스 방법.And generating a system response in natural language from the 'target area or general area or a destination area and a system response template for the general area'. 제 17 항에 있어서,18. The method of claim 17, 상기 상태 기반 추론 정책은,The state-based reasoning policy, 시스템의 각 상태에서 취할 수 있는 시스템의 의도(시스템이 어떠한 발화나 행동을 할 것인가를 나타내는 정보)를 통계적으로 나열한 정책을 포함하는 범용 대화서비스 방법.General-purpose chat service method including a policy that statistically lists the intention of the system (information indicating what kind of utterance or action the system will take) in each state of the system. 삭제delete
KR1020070064510A 2007-06-28 2007-06-28 General dialogue service apparatus and method KR101322486B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070064510A KR101322486B1 (en) 2007-06-28 2007-06-28 General dialogue service apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070064510A KR101322486B1 (en) 2007-06-28 2007-06-28 General dialogue service apparatus and method

Publications (2)

Publication Number Publication Date
KR20090000442A KR20090000442A (en) 2009-01-07
KR101322486B1 true KR101322486B1 (en) 2013-10-25

Family

ID=40483631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070064510A KR101322486B1 (en) 2007-06-28 2007-06-28 General dialogue service apparatus and method

Country Status (1)

Country Link
KR (1) KR101322486B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180098453A (en) 2017-02-24 2018-09-04 주식회사 원더풀플랫폼 Method for providing chatbot by subjects and system using therof
KR20190033882A (en) 2017-09-22 2019-04-01 주식회사 원더풀플랫폼 User care system using chatbot
US10460125B2 (en) 2015-08-27 2019-10-29 Samsung Electronics Co., Ltd. Apparatus and method for automatic query processing
KR20230050885A (en) 2021-10-08 2023-04-17 주식회사 케이티 Device, method and computer program for providing conversation service

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013986B1 (en) 2016-12-30 2018-07-03 Google Llc Data structure pooling of voice activated data packets
US11017428B2 (en) 2008-02-21 2021-05-25 Google Llc System and method of data transmission rate adjustment
KR101253104B1 (en) 2009-09-01 2013-04-10 한국전자통신연구원 Database building apparatus and its method, it used speech understanding apparatus and its method
JP2013517563A (en) * 2010-01-15 2013-05-16 コンパス ラボズ,インク. User communication analysis system and method
KR20140089871A (en) 2013-01-07 2014-07-16 삼성전자주식회사 Interactive server, control method thereof and interactive system
KR20180052347A (en) 2016-11-10 2018-05-18 삼성전자주식회사 Voice recognition apparatus and method
US11295738B2 (en) 2016-12-30 2022-04-05 Google, Llc Modulation of packetized audio signals
US10347247B2 (en) 2016-12-30 2019-07-09 Google Llc Modulation of packetized audio signals
KR102169868B1 (en) 2017-11-27 2020-10-26 한국전자통신연구원 Chatting robot system and service method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030078388A (en) * 2002-03-29 2003-10-08 삼성전자주식회사 Apparatus for providing information using voice dialogue interface and method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030078388A (en) * 2002-03-29 2003-10-08 삼성전자주식회사 Apparatus for providing information using voice dialogue interface and method thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10460125B2 (en) 2015-08-27 2019-10-29 Samsung Electronics Co., Ltd. Apparatus and method for automatic query processing
KR20180098453A (en) 2017-02-24 2018-09-04 주식회사 원더풀플랫폼 Method for providing chatbot by subjects and system using therof
KR20190033882A (en) 2017-09-22 2019-04-01 주식회사 원더풀플랫폼 User care system using chatbot
US11050686B2 (en) 2017-09-22 2021-06-29 1Thefull Platform Limited User care system using chatbot
KR20230050885A (en) 2021-10-08 2023-04-17 주식회사 케이티 Device, method and computer program for providing conversation service

Also Published As

Publication number Publication date
KR20090000442A (en) 2009-01-07

Similar Documents

Publication Publication Date Title
KR101322486B1 (en) General dialogue service apparatus and method
US10319381B2 (en) Iteratively updating parameters for dialog states
JP3454897B2 (en) Spoken dialogue system
US9495956B2 (en) Dealing with switch latency in speech recognition
US6484136B1 (en) Language model adaptation via network of similar users
Klaylat et al. Emotion recognition in Arabic speech
US20190221208A1 (en) Method, user interface, and device for audio-based emoji input
JP2001005488A (en) Voice interactive system
WO2008128423A1 (en) An intelligent dialog system and a method for realization thereof
US11532301B1 (en) Natural language processing
Delgado et al. Spoken, multilingual and multimodal dialogue systems: development and assessment
JP2001357053A (en) Dialog device
CN112669842A (en) Man-machine conversation control method, device, computer equipment and storage medium
CN111916088A (en) Voice corpus generation method and device and computer readable storage medium
CN115292461A (en) Man-machine interaction learning method and system based on voice recognition
US7085720B1 (en) Method for task classification using morphemes
CN116450799B (en) Intelligent dialogue method and equipment applied to traffic management service
KR101959292B1 (en) Method and computer device for providing improved speech recognition based on context, and computer readable recording medium
US11626107B1 (en) Natural language processing
Roy et al. Wearable audio computing: A survey of interaction techniques
KR20210123545A (en) Method and apparatus for conversation service based on user feedback
KR101891495B1 (en) Method and computer device for controlling a display to display conversational response candidates to a user utterance input, and computer readable recording medium
Gilbert et al. Intelligent virtual agents for contact center automation
CN112150103B (en) Schedule setting method, schedule setting device and storage medium
CN114328867A (en) Intelligent interruption method and device in man-machine conversation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161005

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181001

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190903

Year of fee payment: 7