KR102381214B1 - 인간-기계 대화 방법, 장치 및 전자 기기 - Google Patents

인간-기계 대화 방법, 장치 및 전자 기기 Download PDF

Info

Publication number
KR102381214B1
KR102381214B1 KR1020200003282A KR20200003282A KR102381214B1 KR 102381214 B1 KR102381214 B1 KR 102381214B1 KR 1020200003282 A KR1020200003282 A KR 1020200003282A KR 20200003282 A KR20200003282 A KR 20200003282A KR 102381214 B1 KR102381214 B1 KR 102381214B1
Authority
KR
South Korea
Prior art keywords
scenario
task
session
session scenario
user
Prior art date
Application number
KR1020200003282A
Other languages
English (en)
Other versions
KR20200124594A (ko
Inventor
수에펑 뤄
칭웨이 황
웨이웨이 왕
청 펑
샤오준 자오
Original Assignee
베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. filed Critical 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디.
Publication of KR20200124594A publication Critical patent/KR20200124594A/ko
Application granted granted Critical
Publication of KR102381214B1 publication Critical patent/KR102381214B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/041Abduction
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Operations Research (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계; 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 단계; 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계; 및 사용자에게 상기 응답 정보를 출력하는 단계를 포함하는 인간-기계 대화 방법을 제공한다. 이에 따라 사용자가 제2 세션 시나리오를 트리거하는 경우, 전자 기기는 제2 세션 시나리오에서 사용자의 회신 정보에 응답할 수 있으므로 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.

Description

인간-기계 대화 방법, 장치 및 전자 기기{MAN-MACHINE DIALOGUE METHOD, DEVICE AND ELECTRONIC EQUIPMENT}
본 발명은 인공 지능 기술분야에 관한 것으로, 특히 인간-기계 대화 방법, 장치 및 전자 기기에 관한 것이다.
대화 시스템은 자연 언어에 기반한 인간-기계 상호작용 시스템이다. 대화 시스템을 통해 인간은 자연 언어를 사용하여 컴퓨터와 복수의 상호작용을 수행함으로써 정보 조회, 서비스 획득 등과 같은 특정된 태스크를 완료할 수 있다.
자연 언어 처리 기술이 나날이 성숙해짐에 따라 스마트 대화 기술은 스마트 고객 서비스, 스마트 아웃바운드, 스마트 스피커 등 애플리케이션 시나리오 또는 제품에 갈수록 널리 응용되고 있다. 스마트 스피커, 스마트 고객 서비스 등 수동식 응답 애플리케이션 시나리오와는 달리 스마트 아웃바운드는 대화 시스템이 능동적으로 대화를 개시하고, 대화 과정에서 전반 대화를 지배하며 대화가 기설정된 태스크에서 수행되도록 안내한다.
현재, 아웃바운드 시나리오에 적용되는 대화 방식은 사용자가 기설정된 프로세스에서 대화를 수행하도록 안내할 수 있을 뿐, 사용자의 능동적인 질문에 응답할 수 없어 상호작용성이 낮다.
본 발명의 실시예는 인간-기계 대화 방법, 장치 및 전자 기기를 제공한다.
본 발명의 실시예에 따른 인간-기계 대화 방법에 있어,
제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계;
사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 단계;
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계; 및
사용자에게 상기 응답 정보를 출력하는 단계를 포함한다.
본 발명의 실시예에 따른 인간-기계 대화 장치에 있어서,
제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 제1 출력 모듈;
사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 제1 판단 모듈;
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 제1 응답 정보 생성 모듈; 및
사용자에게 상기 응답 정보를 출력하는 제2 출력 모듈을 포함한다.
본 발명의 실시예에 따른 전자 기기에 있어서, 프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에서 실행 가능한 컴퓨터 프로그램을 포함하고, 상기 컴퓨터 프로그램은 상기 프로세서에 의해 실행될 경우 상기한 인간-기계 대화 방법의 단계를 구현한다.
본 발명의 실시예에 따른 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체에 있어서, 상기 컴퓨터 프로그램은 상기 프로세서에 의해 실행될 경우 상기한 인간-기계 대화 방법의 단계를 구현한다.
본 발명의 실시예에 따르면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하고; 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하며; 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하고; 사용자에게 상기 응답 정보를 출력한다. 이에 따라 사용자가 제2 세션 시나리오를 트리거하는 경우, 전자 기기는 제2 세션 시나리오에서 사용자의 회신 정보에 응답할 수 있으므로 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.
본 발명의 실시예들에 따른 기술적 해결수단을 보다 명확히 설명하기 위해 이하 본 발명의 실시예들에 대한 설명 과정에서 사용되는 도면에 대해 간략히 설명한다. 아래 설명에서의 도면은 본 발명의 일부 실시예일 뿐 당업자는 진보성 창출에 힘쓸 필요 없이 이러한 도면으로부터 다른 도면을 얻을 수 있음은 자명한 것이다.
도 1은 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 제1 흐름도이다.
도 2는 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 제2 흐름도이다.
도 3은 본 발명의 실시예에 따라 제공되는 태스크 큐 중 태스크 노드의 모식도이다.
도 4는 본 발명의 실시예에 따라 제공되는 제1 세션 시나리오의 태스크 노드 모식도이다.
도 5는 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 제3 흐름도이다.
도 6은 본 발명의 실시예에 따라 제공되는 인간-기계 대화 장치의 구조 모식도이다.
도 7은 본 발명의 실시예에 따라 제공되는 전자 기기의 구조 모식도이다.
이하, 본 발명 실시예의 도면을 결부하여 본 발명 실시예의 기술적 해결수단을 명확하고 완전하게 설명한다. 기재된 실시예는 본 발명의 일부 실시예일 뿐 전체 실시예가 아님은 물론이다. 본 발명의 실시예에 기반하여 당업자가 진보성 창출에 힘쓸 필요 없이 획득한 다른 모든 실시예는 모두 본 발명의 보호 범위 내에 속한다.
도 1을 참조하면, 도 1은 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 흐름도로서, 도 1에 도시된 바와 같이 하기와 같은 단계를 포함한다.
단계 101에서, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력한다.
본 실시예의 인간-기계 대화 방법은 설문지, 판매후 재방문, 리드 스크리닝 등과 같은 태스크형 아웃바운드 시나리오에 적용될 수 있다. 태스크형 아웃바운드 시나리오에서, 본 실시예의 인간-기계 대화 방법을 적용하는 전자 기기가 질문을 능동적으로 개시하며, 전자 기기는 로봇일 수 있다.
전후 논리적 순서를 구비하는 모든 대화 프로세스는 하나의 시나리오(즉 세션 시나리오)를 구성한다. 예를 들어, 날씨 조회 시나리오에서, 사용자가 날씨 조회 의도를 표현한 후, 로봇은 필요한 엔티티(예를 들어, 지점)를 수집하기 위해 사용자에게 반문한 후 날씨 조회를 완료하게 되는데, 이는 날씨를 조회하는 복수의 시나리오이다.
질문과 답변(FAQ), 지식 지도(KG) 또는 채팅 등 단일 대화인 경우, 하나의 질문과 하나의 답변이 하나의 시나리오를 구성한다.
아웃바운드 대화 시스템에서, 단일한 독립적인 문제 또는 복수의 전후 논리적 관계(순서관계, 조건부 점프)를 구비하는 문제 리스트가 하나의 시나리오를 구성한다.
예를 들어, 어느 전자 상거래에 대한 설문지의 경우, 사용자 성별, 연령, 온라인 쇼핑 빈도, 온라인 쇼핑 시간, 온라인 쇼핑 플랫폼 등 정보를 수집해야 하는데, 설문지의 문제 리스트가 하나의 세션 시나리오를 구성하고, 사용자 성별, 연령, 온라인 쇼핑 빈도, 온라인 쇼핑 시간, 온라인 쇼핑 플랫폼은 해당 세션 시나리오의 복수의 태스크로 간주할 수 있다. 전자 기기가 사용자에게 능동적으로 질문을 개시하는 경우에는 세션 시나리오의 태스크에 따라 사용자에게 질문 정보을 출력한다.
질문 정보는 제1 세션 시나리오의 제1 태스크에 따라 결정된 문제로 이해할 수 있다. 예를 들어, 상기 설문지 시나리오의 온라인 쇼핑 빈도(온라인 쇼핑 빈도는 하나의 태스크임)에 있어서, 전자 기기가 사용자에게 출력한 질문 정보는 "얼마나 자주 온라인 쇼핑을 하십니까?" 또는 "매주 평균 온라인 쇼핑을 몇회 하십니까?" 등일 수 있다.
질문 정보는 텍스트 정보 또는 음성 정보일 수 있으며 여기에 한정되지 않는다. 예를 들어, 전자 기기와 사용자가 단문 메시지(단문 메시지는 문자 메시지, 또는 채팅 소프트웨어를 통해 발송된 메시지를 포함함) 방식을 통해 정보를 발송하는 경우, 질문 정보는 텍스트 형태 또는 음성 형태로 출력될 수 있고; 전자 기기와 사용자가 음성 통화 방식을 통해 상호작용하는 경우, 질문 정보는 음성 형태로 출력된다.
본 발명에서, 사용자는 클라이언트를 통해 전자 기기와 상호작용하는 사용자로 이해할 수 있다. 전자 기기가 사용자에게 정보를 출력할 경우에는 사용자가 사용하는 클라이언트에 정보를 출력하고; 전자 기기가 사용자 정보를 수신하는 경우에는 사용자가 사용하는 클라이언트에 의해 발송된 정보를 수신한다. 클라이언트는 휴대폰, 태블릿 PC(Tablet Personal Computer), 랩톱 컴퓨터(Laptop Computer), 개인 휴대 정보 단말기(personal digital assistant, PDA로 약칭함), 모바일 인터넷 장치(Mobile Internet Device, MID로 약칭함) 또는 웨어러블 기기(Wearable Device) 등일 수 있다.
단계 102에서, 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단한다.
회신 정보는 텍스트 정보 또는 음성 정보일 수 있으며, 여기에 한정되지 않는다. 전자 기기가 사용자에게 단문 메시지 방식을 통해 정보를 발송하는 경우, 회신 정보는 텍스트 정보 또는 음성 정보일 수 있고; 전자 기기와 사용자가 음성 통화 방식으로 상호작용하는 경우, 회신 정보는 음성 정보이다.
제2 세션 시나리오는 제1 세션 시나리오와 상이한 세션 시나리오로서, 예를 들어 날씨 조회, 호텔 예약 또는 퀴즈 지식, 이 3자는 상이한 세션 시나리오에 속한다. 제1 세션 시나리오 및 제2 세션 시나리오는 모두 전자 기기가 처리 가능한 세션 시나리오이고, 전자 기기에는 각 세션 시나리오에 대해 대응되는 응답 전략이 미리 설정되어 있다.
사용자의 회신 정보에 포함되는 콘텐츠는 결정되지 않았는 바, 회신 정보는 질문 답변 정보의 콘텐츠 또는 제기된 문제를 포함할 수 있다. 회신 정보에 사용자에 의해 제기된 문제가 포함되는 경우, 전자 기기는 상호작용 성능을 향상시키기 위해 사용자에 의해 제기된 문제에 회신하여야 한다. 회신 정보에 따라 제2 세션 시나리오를 트리거할지 여부를 판단하는 것은 회신 정보에 사용자에 의해 제기된 문제가 포함되는지 여부로 이해할 수 있다.
단계 103에서, 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성한다.
사용자의 회신 정보에 포함되는 콘텐츠는 결정되지 않았는 바, 회신 정보는 질문 답변 정보의 콘텐츠 또는 제기된 문제를 포함할 수 있다. 예를 들어, 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "3일"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거친 후 회신 정보가 사용자에 의해 제기된 문제를 포함하지 않았음을 알 수 있으며, 제2 세션 시나리오가 트리거되지 않은 것으로 판정한다. 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "오늘 날씨는 어때요?"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거친 후 회신 정보가 사용자에 의해 제기된 문제를 포함함을 알 수 있으며, 제2 세션 시나리오가 트리거된 것으로 판정한다. 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "3일입니다. 오늘 날씨는 어때요?"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거쳐 사용자가 질문에 회답한 동시에 질문을 제기하였음을 알 수 있으며, 상기 분석을 거쳐 회신 정보가 제2 세션 시나리오를 트리거한 것으로 판정한다. 전자 기기가 회신 정보에 대해 시맨틱 분석을 수행하는 경우, 사용자에 의해 제기된 문제에 큰 가중치를 설정하고 전자 기기는 가중치가 큰 질문에 반응한다. 이러한 경우, 전자 기기는 사용자의 회답에 따라 다음 질문을 하는 대신 우선 사용자에 의해 제기된 문제를 회신하여야 한다.
제2 세션 시나리오가 트리거된 것으로 판정한 경우, 회신 정보에 대응되는 응답 정보를 생성한다. 즉 전자 기기는 회신 정보에 포함된 사용자 질문에 응답한다. 예를 들어, 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "오늘 날씨는 어때요?"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거친 후 회신 정보가 사용자에 의해 제기된 문제를 포함함을 알 수 있으며, 전자 기기는 "오늘 날씨는 어때요?"에 대응되는 세션 시나리오(즉 제2 세션 시나리오)에 따라 응답 정보를 생성한다. 응답 정보는 전자 기기가 날씨 조회에 대해 질문한 정보, 예를 들어 "어느곳의 날씨를 조회하시겠습니까?"일 수 있다. 마찬가지로 응답 정보도 텍스트 정보 또는 음성 정보일 수 있다.
단계 104에서, 사용자에게 상기 응답 정보를 출력한다.
전자 기기는 응답 정보를 결정한 후 사용자에게 응답 정보를 출력한다. 응답 정보가 텍스트 정보인 경우, 전자 기기는 텍스트 형태로 사용자에게 출력하고, 응답 정보가 음성 정보인 경우, 전자 기기는 음성 재생 형태로 사용자에게 출력한다.
본 실시예의 인간-기계 대화 방법은 능동적으로 사용자에게 질문을 개시할 수 있을 뿐만 아니라 사용자의 질문에 응답할 수 있으므로 본 실시예의 인간-기계 대화 방법을 적용하는 전자 기기는 태스크형 대화 프로세스(예를 들어, 아웃바운드 큐를 사용하여 아웃바운드 태스크를 관리하는 설문지, 판매후 재방문, 리드 스크리닝 등), 및 응답형 대화 프로세스(예를 들어 날씨 조회, 호텔 예약 또는 퀴즈 지식 등) 이 2가지 모드의 대화 프로세스를 모두 지원할 수 있다. 여기서, 태스크형 대화 프로세스는 단일한 질문 또는 전후 논리적 관계(순서관계, 조건부 점프)를 구비하는 문제 리스트를 지원할 수 있고, 응답형 대화 프로세스는 태스크형 대화 시나리오(예를 들어 날씨 조회, 호텔 예약, 렌터카 등 )를 지원할 수 있으며, 동시에 질문과 답변, 지식 지도, 채팅 등도 지원할 수 있다.
본 실시예는, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하고; 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하며; 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하고; 사용자에게 상기 응답 정보를 출력한다. 이에 따라 사용자가 제2 세션 시나리오를 트리거하는 경우, 전자 기기는 제2 세션 시나리오에서 사용자의 회신 정보에 응답할 수 있으므로 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.
도 2를 참조하면, 도 2는 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 흐름도로서, 도 2에 도시된 바와 같이, 하기와 같은 단계를 포함한다.
단계 201에서, 태스크 큐에 처리가 완료되지 않은 태스크가 존재하면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하되, 상기 제1 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
본 실시예의 인간-기계 대화 방법은 설문지, 판매후 재방문, 리드 스크리닝 등과 같은 태스크형 아웃바운드 시나리오에 적용될 수 있다. 태스크형 아웃바운드 시나리오에서, 본 실시예의 인간-기계 대화 방법을 적용하는 전자 기기가 질문을 능동적으로 개시하며, 전자 기기는 로봇일 수 있다.
큐는 선입선출 데이터 구조이며, 상기 데이터 구조를 이용하여 정렬된 대화 태스크 스케줄링을 구현할 수 있다. 아웃바운드 태스크 노드를 저장하는 큐를 태스크 큐(아웃바운드 큐로도 지칭됨)라 지칭할 수 있고, 태스크 큐에는 제1 세션 시나리오의 태스크가 저장된다.
대화가 시작되기 전에 태스크 큐를 초기화하고, 구성된 대화 프로세스 최상층 노드를 순서대로 태스크 큐에 안착시킨다. 어느 전자 상거래에 대한 설문지의 경우에는 사용자 성별, 연령, 온라인 쇼핑 빈도, 온라인 쇼핑 시간, 온라인 쇼핑 플랫폼 등 정보를 수집해야 한다. 태스크 큐를 초기화 할 경우, 수집할 정보 포인트를 순차적으로 태스크 큐에 안착시킨다. 도 3에 도시된 바와 같이, 태스크 큐 내에 안착된 태스크(태스크 노드로도 지칭됨)는 각각 프롤로그 노드, 성별, 연령, 온라인 쇼핑 빈도, 온라인 쇼핑 시간, 온라인 쇼핑 플랫폼, 쇼핑 정보 채널이며, 전자 기기는 태스크별로 큐 내의 순서에 따라 태스크 스케줄링하도록 디폴트한다. 전자 기기가 사용자에게 능동적으로 질문을 개시하는 경우, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력한다. 제1 태스크는 태스크 큐 중 맨 앞에 위치하는 태스크이고, 맨 앞에 위치하는 태스크가 처리 완료된 후 해당 태스크는 태스크 태스크에서 제외되며, 해당 태스크에 인접한 다음 태스크가 태스크 맨 앞에 배열된다. 예를 들어, 전자 기기가 "온라인 쇼핑 빈도"태스크를 완료한 후, "온라인 쇼핑 빈도" 태스크는 태스크에서 제외되고, "온라인 쇼핑 빈도"에 인접한 "네트워크 시간"이 태스크 맨 앞 위치에 놓인다.
질문 정보는 제1 세션 시나리오의 제1 태스크에 따라 결정된 문제로 이해할 수 있다. 예를 들어, 상기 설문지 시나리오의 온라인 쇼핑 빈도(온라인 쇼핑 빈도는 하나의 태스크임)에 있어서, 전자 기기가 사용자에게 출력 가능한 질문 정보는 "얼마나 자주 온라인 쇼핑을 하십니까?" 또는 "매주 평균 온라인 쇼핑을 몇회 하십니까?" 등이다.
질문 정보는 텍스트 정보 또는 음성 정보일 수 있으며 여기에 한정되지 않는다. 예를 들어, 전자 기기와 사용자가 단문 메시지(단문 메시지는 문자 메시지, 또는 채팅 소프트웨어를 통해 발송된 메시지를 포함함) 방식을 통해 정보를 발송하는 경우, 질문 정보는 텍스트 형태 또는 음성 형태로 출력될 수 있고; 전자 기기와 사용자가 음성 통화 방식을 통해 상호작용하는 경우, 질문 정보는 음성 형태로 출력된다.
본 발명에서, 사용자는 클라이언트를 통해 전자 기기와 상호작용하는 사용자로 이해할 수 있다. 전자 기기가 사용자에게 정보를 출력할 경우에는 사용자가 사용하는 클라이언트에 정보를 출력하고; 전자 기기가 사용자 정보를 수신하는 경우에는 사용자가 사용하는 클라이언트에 의해 발송된 정보를 수신한다.
본 실시예는 태스크 큐를 추가하여 설문지, 판매후 재방문 등 고정된 태스크 리스트를 구비하는 아웃바운드 시나리오를 지원할 수 있다.
단계 202에서, 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단한다.
회신 정보는 텍스트 정보 또는 음성 정보일 수 있으며 여기에 한정되지 않는다. 전자 기기가 사용자에게 단문 메시지 방식을 통해 정보를 발송하는 경우, 회신 정보는 텍스트 정보 또는 음성 정보일 수 있으며; 전자 기기와 사용자가 음성 통화 방식으로 상호작용하는 경우, 회신 정보는 음성 정보이다.
제2 세션 시나리오는 제1 세션 시나리오와 상이한 세션 시나리오로서, 예를 들어 날씨 조회, 호텔 예약 또는 퀴즈 지식 이 3자는 상이한 세션 시나리오에 속한다. 제1 세션 시나리오 및 제2 세션 시나리오는 모두 전자 기기가 처리 가능한 세션 시나리오이고, 전자 기기에는 각 세션 시나리오에 대해 대응되는 응답 전략이 미리 설정되어 있다.
사용자의 회신 정보에 포함되는 콘텐츠는 결정되지 않았는 바, 회신 정보는 질문 답변 정보의 콘텐츠 또는 제기된 문제를 포함할 수 있다. 회신 정보에 사용자에 의해 제기된 문제가 포함되는 경우, 전자 기기는 상호작용 성능을 향상시키기 위해 사용자에 의해 제기된 문제에 회신하여야 한다. 회신 정보에 따라 제2 세션 시나리오를 트리거할지 여부를 판단하는 것은 회신 정보에 사용자에 의해 제기된 문제가 포함되는지 여부로 이해할 수 있다.
단계 203에서, 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성한다.
제2 세션 시나리오가 트리거된 것으로 판정한 경우, 회신 정보에 대응되는 응답 정보를 생성한다. 즉 전자 기기는 회신 정보에 포함된 사용자 질문에 응답한다. 예를 들어, 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "오늘 날씨는 어때요?"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거친 후 회신 정보가 사용자에 의해 제기된 문제를 포함함을 알 수 있으며, 전자 기기는 "오늘 날씨는 어때요?"에 대응되는 세션 시나리오(즉 제2 세션 시나리오)에 따라 응답 정보를 생성한다. 응답 정보는 전자 기기가 날씨 조회에 대해 질문한 정보, 예를 들어 "어느곳의 날씨를 조회하시겠습니까?"일 수 있다.
나아가, 본 단계는 구체적으로,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하는 단계; 및
상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계를 포함한다.
대응되게, 상기 사용자에게 상기 응답 정보를 출력하는 단계 이후,
상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택에 처리가 완료되지 않은 세션 시나리오가 존재하는 경우, 상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 획득하는 단계; 및
상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 상기 제1 세션 시나리오로 결정하고, 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행하는 단계를 더 포함한다.
구체적으로, 스택은 하나의 선입후출 데이터 구조로서, 대화 과정에서 세션 시나리오 전환이 발생하면 상기 데이터 구조를 이용하여 전환된 세션 시나리오(예를 들어, 제1 세션 시나리오)의 데이터를 저장할 수 있고, 세션 시나리오 데이터의 스택을 시나리오 스택으로 지칭한다. 본 실시예에서, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하는 것은 제1 세션 시나리오 및 해당 시나리오의 세션 데이터를 시나리오 스택에 저장하는 것으로 이해할 수 있으며, 전자 기기는 제1 세션 시나리오에서 사용자와 대화를 계속하도록 해당 관련 정보에 따라 제1 세션 시나리오가 전환되기 전 상태로 리턴한다.
아웃바운드 대화 과정에서, 현재 시나리오(즉 제1 세션 시나리오)가 아직 완료되지 않고 사용자가 능동적으로 새로운 시나리오(즉 제2 세션 시나리오)에 진입한 경우, 전자 기기는 아직 완료되지 않은 시나리오(즉 제1 세션 시나리오) 및 해당 시나리오의 세션 데이터를 시나리오 스택에 푸시하고, 새로운 시나리오가 완료된 후, 시나리오 스택의 스택 톱으로부터 하나의 미완료 세션 시나리오가 팝업되고, 사용자를 통해 팝업된 세션 시나리오로 리턴하여 대화를 계속한다. 도 4에 도시된 바와 같이, 도 4에서 제1 노드, 제2 노드는 제1 세션 시나리오의 태스크 노드로 간주될 수 있고, 노드 1 및 노드 2는 제1 노드의 서브 노드로 간주될 수 있다.
제2 세션 시나리오가 트리거된 것으로 판정된 경우, 전자 기기는 우선 제2 세션 시나리오를 처리해야 하는데, 이때 제1 세션 시나리오가 스택으로 푸시된다. 즉 전자 기기가 제2 세션 시나리오의 대화 종료시, 제1 세션 시나리오를 시나리오 스택으로부터 팝하여 제1 세션 시나리오에서 대화를 계속하도록, 제1 세션 시나리오를 시나리오 스택에 푸시한다.
시나리오 스택에서 처리 완료된 세션 시나리오가 스택에서 팝된 후, 해당 세션 시나리오에 인접한 세션 시나리오는 스택 톱에 위치한다. 시나리오 스택 내의 모든 세션 시나리오가 모두 처리 완료된 경우, 시나리오 스택은 비어있게 된다.
본 실시예는 대화 과정에서 사용자가 능동적으로 대화를 중단하거나 종료할 수 있도록 지원함으로써 사용자의 체험감을 향상시킨다.
나아가, 기설정된 시간 내에 사용자에 의해 리턴된 회신 정보를 수신하지 못한 경우, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행한다. 즉 기설정된 시간 내에 회신 정보를 수신하지 못하면, 대화를 계속하도록 안내하기 위해 다시 사용자에게 질문 정보를 출력한다. 물론, 기설정된 시간 내에 회신 정보를 수신하지 못한 경우, 세션을 계속하도록 안내하기 위해 사용자에게 문의 정보를 출력할 수도 있다. 기설정된 시간은 실제 상황에 따라 설정될 수 있으며, 여기에 한정되지 않는다.
본 실시예는 인간-기계 대화 과정에서, 사용자가 제2 세션 시나리오를 트리거하면, 전자 기기는 제1 세션 시나리오 및 세션 데이터를 시나리오 스택에 푸시한 후 제2 세션 시나리오에서 사용자와 상호작용한다. 제2 세션 시나리오가 종료되면, 전자 기기는 사용자가 완료되지 않은 시나리오(즉 제1 세션 시나리오)에 계속 진입하도록 안내할 수 있으므로 사용자의 체험감을 향상시킨다.
상기 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 단계 이후 또한 상기 사용자에게 상기 응답 정보를 출력하는 단계 이전에,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거되지 않은 것으로 판정되면, 상기 제1 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계를 더 포함한다.
본 단계에서, 회신 정보에 따라 사용자가 제2 세션 시나리오를 트리거하지 않은 것으로 판단하여 현재 세션 시나리오가 여전히 제1 세션 시나리오임을 표시하는 경우, 전자 기기는 제1 세션 시나리오에 따라 회신 정보에 대응되는 응답 정보를 생성한다. 예를 들어, 질문 정보가 "얼마나 자주 온라인 쇼핑을 하십니까?"이고, 회신 정보가 "3일"인 경우, 전자 기기는 회신 정보에 대해 시맨틱 분석을 거친 후 회신 정보가 사용자에 의해 제기된 문제를 포함하지 않았음을 알 수 있다. 또한 회신 정보가 질문 정보에 대한 회신을 포함하는 경우, 전자 기기는 태스크 큐에 설치된 태스크에 따라 계속하여 사용자에게 질문 정보를 출력한다.
단계 204에서, 사용자에게 상기 응답 정보를 출력한다.
전자 기기는 응답 정보를 결정한 후 사용자에게 응답 정보를 출력한다. 응답 정보가 텍스트 정보인 경우, 전자 기기는 텍스트 형태로 사용자에게 출력하고, 응답 정보가 음성 정보인 경우, 전자 기기는 음성 재생 형태로 사용자에게 출력한다.
단계 205에서, 상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택 내의 세션 시나리오가 모두 처리 완료되면 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하는지 여부를 판단한다.
단계 206에서, 상기 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하면, 제2 태스크를 상기 제1 태스크로 결정하고 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행하되, 상기 제2 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
구체적으로, 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 처리할 경우, 스택 톱의 세션 시나리오가 팝되고, 해당 세션 시나리오에 인접한 세션 시나리오가 스택 톱에 위치한다. 시나리오 스택 내의 모든 세션 시나리오가 모두 처리 완료되는 경우에는 시나리오 스택 내에 처리되지 않은 세션 시나리오가 존재하지 않는 것으로 이해할 수 있다. 이 경우, 시나리오 스택은 비어있게 되고, 현재 세션 시나리오는 시나리오 스택 중 마지막 팝의 세션 시나리오이다.
태스크 큐 중 맨 앞에 위치하는 태스크를 처리할 경우, 해당 태스크는 태스크에서 제외되고, 해당 태스크에 인접한 다음 태스크가 태스크 맨 앞에 배열된다. 태스크 큐 중 모든 태스크가 모두 처리 완료된 경우에는 태스크 큐 내에 처리되지 않은 태스크가 존재하지 않는 것으로 이해할 수 있으며, 이때 태스크 큐는 비어있게 된다.
시나리오 스택은 비어 있고 태스크 큐는 비어있지 않는 경우, 태스크 큐 내의 현재 맨 앞에 위치하는 태스크를 제1 태스크로 사용하여 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행한다. 예를 들어, 태스크 큐 중 현재 태스크 맨 앞에 배열된 태스크가 "온라인 쇼핑 빈도"인 경우, "온라인 쇼핑 빈도"는 제1 태스크이고, 전자 기기는 "온라인 쇼핑 빈도"에 따라 사용자에게 질문 정보를 출력한다.
본 실시예에서, 시나리오 스택에 이전 세션 시나리오(즉 제1 세션 시나리오)를 저장하고, 사용자에 의해 트리거된 새로운 세션 시나리오(즉 제2 세션 시나리오)를 우선적으로 처리하며, 새로운 세션 시나리오 대화가 종료된 후, 이전 세션 시나리오에서 계속하여 미완료 태스크를 수행하도록 이전 세션 시나리오로 리턴함으로써 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.
본 실시예의 인간-기계 대화 방법은 능동적으로 사용자에게 질문을 개시할 수 있을 뿐만 아니라 사용자의 질문에 응답할 수 있으므로 본 실시예의 인간-기계 대화 방법를 적용하는 전자 기기는 태스크형 대화 프로세스(예를 들어, 아웃바운드 큐를 사용하여 아웃바운드 태스크를 관리하는 설문지, 판매후 재방문, 리드 스크리닝 등), 및 응답형 대화 프로세스(예를 들어 날씨 조회, 호텔 예약 또는 퀴즈 지식 등) 이 2가지 모드의 대화 프로세스를 모두 지원할 수 있다. 여기서, 태스크형 대화 프로세스는 단일한 질문 또는 전후 논리적 관계(순서관계, 조건부 점프)를 구비하는 문제 리스트를 지원할 수 있고, 응답형 대화 프로세스는 태스크형 대화 시나리오(예를 들어 날씨 조회, 호텔 예약, 렌터카 등 )를 지원할 수 있으며, 동시에 질문과 답변, 지식 지도, 채팅 등도 지원할 수 있다.
본 발명의 전자 기기지원 시스템 레벨의 세션 카운트 제어 로직을 제공한다. 예를 들어, 아웃바운드 과정에서 통신 채널 또는 복잡한 사용자 환경에 인한 음성 인식률 저하로 인해 전자 기기가 사용자 표현을 명확히 이해하지 못하는 경우, 본 발명은 카운트 제어가 연속되거나 누적되어 일정한 임계값에 도달한 후 우호적으로 세션을 끊을 수 있도록 지원한다. 카운트 제어는 사용자에 의한 연속 또는 누적 실렌트 카운트 제어, 사용자에 의한 연속 또는 누적 거부 카운트 제어, 사용자에 의한 연속 또는 누적 리셋 카운트 제어 등을 포함한다.
도 5에 도시된 바와 같이, 도 5는 본 발명의 실시예에 따라 제공되는 인간-기계 대화 방법의 흐름도이고, 이하 인간-기계 대화 방법의 구체적인 과정을 설명한다.
단계 11에서, 대화가 시작되고, 환영어를 재생시키며, 첫번째 태스크는 화술이다. 전화가 연결되면, 아웃바운드 로봇(전자 기기는 아웃바운드 로봇임)은 우선 환영어를 능동적으로 브로드 캐스팅하고 아웃바운드 안내를 수행하며 질문을 제기한다. 예를 들어, 사용자에게 전화를 받기 편리한 지 여부를 문의하는 경우, 대화는 해당 질문이 대표하는 시나리오(즉 제1 세션 시나리오)에 진입한다.
단계 12에서, 사용자가 새로운 시나리오를 능동적으로 트리거하였는지 여부. 아웃바운드 로봇은 사용자의 입력에 기반하여 사용자의 회답을 청취한 후, 우선 사용자가 새로운 시나리오(즉 제2 세션 시나리오)를 트리거하였는지 여부를 판단하여 트리거한 경우, 단계 13을 수행하고; 그렇지 않으면 단계 14를 수행하며, 현재 시나리오에서 회신 응답 사용자를 생성한다.
단계 13에서, 이전 시나리오(즉 현재 시나리오)를 스택으로 푸시하고 새로운 시나리오에 기반하여 사용자에게 회신한다. 현재 시나리오(즉 제1 세션 시나리오)를 시나리오 스택에 푸시하고, 새로운 시나리오에서 회신을 생성하여 사용자에게 응답한다.
단계 14, 현재 시나리오를 계속한다. 즉 현재 시나리오에서 회신을 생성하여 사용자에게 응답하고 사용자에게 회신하는 동시에 단계 15를 수행한다.
단계 15에서, 현재 시나리오의 종료여부를 판단하여 종료된 경우 단계 16을 수행한다.
단계 16에서, 시나리오 스택에 처리 완료되지 않은 시나리오가 존재하는지 여부를 판단하여 존재하는 경우, 단계 17을 수행하고; 존재하지 않는 경우, 단계 18을 수행한다.
단계 17에서, 대화가 스택 톱 시나리오로 리턴하도록 안내한다. 즉 스택 톱에서 가장 최근의 시나리오를 팝업하고, 안내어를 통해 사용자가 이전 시나리오로 리턴하도록 안내한다.
단계 18에서, 태스크 큐 내에 처리 완료되지 않은 태스크가 존재하는지 여부를 판단하여 존재하는 경우, 단계 19를 수행한다.
단계 19에서, 새로운 태스크 화술을 재생한다. 즉 큐에서 큐 맨 앞의 태스크를 가져와 사용자에게 재생한다.
태스크 큐 및 시나리오 스택이 비어있을 때까지 단계 12 - 단계 19를 반복하여 수행하고 맺는 말을 재생함으로써 아웃바운드 태스크가 종료된다.
대화 과정에서 사용자가 능동적으로 대화를 중단하거나 종료할 수 있도록 지원하는 동시에 사용자가 실렌트하는 경우 능동적으로 사용자에게 문의하여 대화가 계속되도록 안내함으로써 사용자의 체험감을 향상시킨다.
본 실시예의 인간-기계 대화 방법은 로봇이 사용자에게 능동적으로 안내하도록 지원할 뿐만 아니라, 로봇이 수동적으로 응답(시나리오 스택 사용)하도록 지원함으로써 사용자가 아웃바운드 전화를 받는 과정에서 능동적으로 일부 질문을 할 수 있도록 적극적으로 지원하고, 비즈니스 작업을 완료하는 동시에 사용자에게 응답한 후 사용자가 아웃바운드의 기설정된 태스크에 리턴하도록 계속 안내할 수 있으므로 아웃바운드 로봇의 지능과 대화 유창성 대폭 향상시킨다.
본 실시예의 인간-기계 대화 방법은 프로세스형 대화 관리 기초상에서, 시나리오 큐 및 시나리오 스택을 추가하여 기설정된 태스크 리스트를 지원하고, 대화 과정에서 사용자가 능동적으로 현재 대화 시나리오에서 빠져나오는 경우, 현재 시나리오를 스택으로 푸시하며, 적합한 시점에 사용자가 완료되지 않은 시나리오에 리턴하도록 안내하고, 기설정된 태스크를 완료하는 동시에, 적극적으로 지원 사용자가 통화 과정에서 중단, 실렌트, 질문, 새로운 의도 표현 등을 할 수 있도록 적극적으로 지원함으로써 대화의 지능성 및 유창성을 대폭 향상시킨다. 본 발명은 금융 업계의 독촉 수금 시나리오, 각 업계의 리드 스크리닝, 설문지, 보험 업계의 판매후 재방문 등 시나리오에서 인력을 대체할 수 있으므로 기업의 인건비를 줄이고 작업 효율을 향상시킨다.
본 발명의 인간-기계 대화 방법은 하기와 같은 이점을 갖는다.
아웃바운드 큐를 추가함으로써 설문지, 판매후 재방문 등 고정된 태스크 리스트를 구비하는 아웃바운드 시나리오를 원활하게 지원할 수 있고, 사용자가 대화 프로세스를 중단한 후 노드가 적합한 시간에 대화를 기설정된 태스크로 리턴하도록 안내한다.
시나리오 스택을 추가함으로써 대화 과정에서 사용자가 능동적으로 현재 대화 시나리오에서 빠져나와 새로운 시나리오로 진입할 경우, 현재 시나리오 및 세션 데이터를 스택으로 푸시하고, 새로운 시나리오가 종료되고 또한 사용자가 새로운 시나리오에 진입하도록 능동적으로 안내하지 않을 경우, 사용자가 계속하여 완료되지 않은 시나리오에 진입하도록 안내할 수 있다. 아웃바운드 내의 사용자는 수동측으로, 능동적으로 대화가 이전 시나리오에 진입하도록 안내할 의지가 없으므로 이는 아웃바운드에서 특히 중요하다.
능동적 및 수동적 태스크형 대화, 질문과 답변, 채팅, KG 등 대화 기능을 결합하여 아웃바운드 과정에서 사용자에 의한 수동적 질문으로부터 능동적 반문으로의 변환(예를 들어, 일부 정책 및 실행 가능성 등 질문과 답변 형태의 지식), 능동적인 비즈니스 요구 사항(예를 들어, 잔액 확인, 날씨 조회 등)을 보다 잘 만족시킬 수 있고, 이와 동시에 사용자의 능동적인 요구를 만족시킨 후 대화를 이전 시나리오 프로세스 또는 기설정된 아웃바운드 프로세스로 리턴하도록 안내하여 기설정된 태스크를 완료한다.
훈련 데이터는 규모가 적당하고 정확성이 높도록 요구함으로써 폐쇄된 시나리오에서 효과가 우수하고 상용화 가치가 높다.
원활한 세션 카운트 제어 로직(미인식, 거부, 리셋 등)을 통해 아웃바운드 세션 프로세스는 보다 인성화되며 비정상 경우의 세션 상태를 더욱 잘 제어할 수 있다.
도 6을 참조하면, 도 6은 본 발명의 실시예에 따라 제공되는 인간-기계 대화 장치의 구조 모식도이고, 본 실시예는 인간-기계 대화 장치(500)를 제공하며, 상기 인간-기계 대화 장치(500)는,
제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 제1 출력 모듈(501);
사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 제1 판단 모듈(502);
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 제1 응답 정보 생성 모듈(503); 및
사용자에게 상기 응답 정보를 출력하는 제2 출력 모듈(504)을 포함한다.
나아가, 상기 제1 출력 모듈(501)은,
태스크 큐에 처리가 완료되지 않은 태스크가 존재하면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하되, 상기 제1 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
나아가, 상기 제1 응답 정보 생성 모듈(503)은,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하는 스택 푸시 서브 모듈; 및
상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 생성 서브 모듈을 포함한다.
상기 장치는,
상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택에 처리가 완료되지 않은 세션 시나리오가 존재하는 경우, 상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 획득하는 획득 모듈; 및
상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 상기 제1 세션 시나리오로 결정하고 상기 제1 출력 모듈을 트리거하는 제1 결정 모듈(501)을 더 포함한다.
나아가, 상기 장치(500)는,
상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택 내의 세션 시나리오가 모두 처리 완료되면 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하는지 여부를 판단하는 제2 판단 모듈; 및
상기 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하면, 제2 태스크를 상기 제1 태스크로 결정하고 상기 제1 출력 모듈을 트리거하는 제2 결정 모듈을 더 포함하고,
상기 제2 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
나아가, 상기 장치 (500)는,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거되지 않은 것으로 판정되면, 상기 제1 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 제2 응답 정보 생성 모듈을 더 포함한다.
본 발명의 실시예에 따라 제공되는 인간-기계 대화 장치(500)는 도 1, 도 2에 도시된 방법 실시예 중 전자 기기에 의해 구현되는 각 과정을 구현할 수 있다. 반복되지 않도록 여기서 더 이상 설명하지 않는다.
본 실시예의 인간-기계 대화 장치(500)는 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하고; 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하며; 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하고; 사용자에게 상기 응답 정보를 출력한다. 이에 따라 사용자가 제2 세션 시나리오를 트리거하는 경우, 전자 기기는 제2 세션 시나리오에서 사용자의 회신 정보에 응답할 수 있으므로 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.
도 7을 참조하면, 도 7은 본 발명의 실시예에 따라 제공되는 전자 기기의 구조 모식도이다. 도 7에 도시된 바와 같이, 전자 기기(600)는 프로세서(601), 메모리(602) 및 상기 메모리(602)에 저장되고 또한 상기 프로세서에서 실행 가능한 컴퓨터 프로그램을 포함하고, 전자 기기(600) 내의 각 어셈블리는 버스 시스템(603)을 통해 커플링된다. 버스 시스템(603)은 이러한 어셈블리 간의 통신 연결을 구현하기 위한 것임을 이해할 수 있다.
여기서, 프로세서(601)는, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하고;
사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하며;
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하고;
사용자에게 상기 응답 정보를 출력한다.
나아가, 프로세서(601)는 또한,
태스크 큐에 처리가 완료되지 않은 태스크가 존재하면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하되, 상기 제1 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
나아가, 프로세서(601)는 또한,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하고;
상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성한다.
대응되게, 상기 사용자에게 상기 응답 정보를 출력하는 단계 이후, 프로세서(601)는 또한,
상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택에 처리가 완료되지 않은 세션 시나리오가 존재하는 경우, 상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 획득하고;
상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 상기 제1 세션 시나리오로 결정하고, 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행한다.
나아가, 프로세서(601)는 또한,
상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택 내의 세션 시나리오가 모두 처리 완료되면 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하는지 여부를 판단하고;
상기 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하면, 제2 태스크를 상기 제1 태스크로 결정하고 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행하며;
여기서, 상기 제2 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크이다.
나아가, 프로세서(601)는 또한,
상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거되지 않은 것으로 판정되면, 상기 제1 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성한다.
전자 기기(600)는 전술한 실시예들에서 전자 기기에 의해 구현된 각 단계들을 구현할 수 있다. 반복되지 않도록 여기서 더 이상 설명하지 않는다.
본 발명의 실시예에 따른 전자 기기(600) 는 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하고; 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하며; 상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하고; 사용자에게 상기 응답 정보를 출력한다. 이에 따라 사용자가 제2 세션 시나리오를 트리거하는 경우, 전자 기기는 제2 세션 시나리오에서 사용자의 회신 정보에 응답할 수 있으므로 인간-기계 상호작용의 지능성 및 원활성을 향상시키고 인간-기계 상호작용 성능을 향상시킨다.
본 발명의 실시예는 컴퓨터 판독 가능 저장 매체를 추가로 제공하며, 여기서 컴퓨터 판독 가능 저장 매체는 컴퓨터 프로그램을 저장하고, 해당 컴퓨터 프로그램이 프로세서에 의해 실행될 경우, 상기 핵심 요소 추출 방법 실시예의 각 단계를 구현하고, 동일한 기술적 효과를 달성 할 수있다. 반복되지 않도록 여기서 더 이상 설명하지 않는다. 여기서 상기 컴퓨터 판독 가능 저장 매체는 ROM(read-only memory), RAM(random access memory), 자기 디스크 또는 광 디스크 등이다.
당업자는 본 명세서에 개시된 실시예와 결부하여 설명된 다양한 예시적 요소 및 알고리즘 단계가 전자 하드웨어 또는 컴퓨터 소프트웨어 및 전자 하드웨어의 조합으로 구현될 수 있음을 이해할 것이다. 이러한 기능이 하드웨어 또는 소프트웨어에서 수행되는지 여부는 기술적 해결수단의 특정 응용 및 설계 제약 조건에 의해 결정된다. 당업자는 각각의 특정 애플리케이션에 대해 상이한 방법을 사용하여 설명된 기능을 구현할 수 있으나, 이러한 구현이 본 발명의 범위를 벗어나는 것으로 간주되어서는 안 된다.
당업자는 설명의 편의성 및 간결성을 위해, 상기 설명된 시스템, 장치 및 유닛의 구체적인 작업 과정은 전술한 방법 실시예에서의 대응되는 과정을 참조할 수 있고 여기서 더 이상 설명되지 않음을 명확하게 이해할 수 있다.
본 발명에 의해 제공되는 실시예에서, 개시된 장치 및 방법은 다른 방식으로 구현될 수 있음을 이해해야 한다. 예를 들어, 전술한 장치 실시예는 단지 예시적인 것으로, 예를 들어 상기 유닛의 분할은 단지 논리적 기능 분할일 뿐 실제 구현에서 다른 분할 방식이 있을 수 있으며, 예를 들어, 복수의 유닛 또는 어셈블리가 결합되거나 다른 시스템에 통합되거나 일부 특징이 무시되거나 실행되지 않을 수 있다. 또한, 도시되거나 논의된 서로 간의 결합 또는 직접 결합 또는 통신 연결은 일부 인터페이스, 장치 또는 유닛을 통한 간접 결합 또는 통신 연결 일 수 있으며, 전기적, 기계적 또는 다른 형태일 수 있음을 이해해야 한다.
상기 분리 부재로 기술된 유닛은 물리적으로 분리될 수도 있고 분리되지 않을 수도 있고, 유닛으로서 표시되는 부재는 물리적 유닛일 수도 있고 아닐 수도 있다. 즉 한 곳에 위치하거나 복수의 네트워크 유닛에 분산될 수 있다. 유닛의 일부 또는 전부는 본 발명의 실시예의 기술적 해결수단을 달성하기 위한 목적에 의해 실제 필요에 따라 선택될 수 있다.
이 밖에, 본 발명의 각 실시예에서 각각의 기능 유닛은 하나의 프로세싱 유닛에 통합될 수 있거나, 각각의 유닛은 물리적으로 개별적으로 존재할 수 있거나, 또는 둘 이상의 유닛이 하나의 유닛에 통합될 수 있다.
상기 기능은 소프트웨어 기능 유닛의 형태로 구현되고 독립형 제품으로서 판매 또는 사용되는 경우 컴퓨터 판독 가능 저장 매체에 저장될 수 있다. 이러한 이해에 기반하여, 본 발명의 기술적 해결수단은 실질적으로, 또는 선행기술에 기여하는 부분 또는 기술적 해결수단의 일부는 소프트웨어 제품 형태로 구현 될 수 있으며, 상기 컴퓨터 소프트웨어 제품은 컴퓨터 장치(개인용 컴퓨터, 서버 또는 네트워크 기기 등일 수 있음)가 본 발명의 다양한 실시예에서 설명된 방법의 단계 전부 또는 일부를 수행하도록 하는 복수의 명령을 포함하는 저장 매체에 저장된다. 전술한 저장 매체는 USB 플래시 드라이브, 모바일 하드 디스크, ROM, RAM, 자기 디스크 또는 광 디스크와 같은 프로그램 코드를 저장할 수 있는 다양한 매체를 포함한다.
상기는 본 발명의 구체적인 실시형태일 뿐 본 발명의 보호 범위가 이에 한정되는 것은 아니다. 당업자는 본 발명에 개시된 기술적 범위 내에서 변경 또는 대체를 쉽게 생각할 수 있으며 이는 모두 본 발명의 보호 범위에 포함되어야 한다. 따라서, 본 발명의 보호 범위는 청구항의 보호 범위를 기준으로 하여야 한다.

Claims (12)

  1. 인간-기계 대화 방법에 있어서,
    제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계;
    사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 단계 - 상기 제2 세션 시나리오는 상기 제1 세션 시나리오와는 서로 다른 세션 시나리오이고, 상기 회신 정보가 사용자에 의해 제기된 문제를 포함하는 경우, 상기 제2 세션 시나리오를 트리거함 -;
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계; 및
    사용자에게 상기 응답 정보를 출력하는 단계를 포함하고,
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계는,
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하는 단계; 및
    상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계를 포함하고,
    상기 사용자에게 상기 응답 정보를 출력하는 단계 이후 상기 방법은,
    상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택에 처리가 완료되지 않은 세션 시나리오가 존재하는 경우,
    상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 획득하는 단계; 및
    상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 상기 제1 세션 시나리오로 결정하고, 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행하는 단계를 더 포함하고,
    상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택 내의 세션 시나리오가 모두 처리 완료되면,
    태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하는지 여부를 판단하는 단계; 및
    상기 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하면, 제2 태스크를 상기 제1 태스크로 결정하고 상기 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 수행하는 단계를 더 포함하고,
    상기 제2 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크인 것을 특징으로 하는 인간-기계 대화 방법.
  2. 제1항에 있어서,
    상기 제1 세션 시나리오에 따라 사용자에게 질문 정보를 출력하는 단계는,
    태스크 큐에 처리가 완료되지 않은 태스크가 존재하면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 단계를 포함하고, 상기 제1 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크인 것을 특징으로 하는 인간-기계 대화 방법.
  3. 제1항에 있어서,
    상기 사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 단계 이후 또한 상기 사용자에게 상기 응답 정보를 출력하는 단계 이전에 상기 방법은,
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거되지 않은 것으로 판정되면, 상기 제1 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 단계를 더 포함하는 것을 특징으로 하는 인간-기계 대화 방법.
  4. 인간-기계 대화 장치에 있어서,
    제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하는 제1 출력 모듈;
    사용자에 의해 리턴된 회신 정보가 수신되면, 상기 회신 정보에 따라 제2 세션 시나리오가 트리거되는지 여부를 판단하는 제1 판단 모듈 - 상기 제2 세션 시나리오는 상기 제1 세션 시나리오와는 서로 다른 세션 시나리오이고, 상기 회신 정보가 사용자에 의해 제기된 문제를 포함하는 경우, 상기 제2 세션 시나리오를 트리거함 -;
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 제1 응답 정보 생성 모듈; 및
    사용자에게 상기 응답 정보를 출력하는 제2 출력 모듈을 포함하고,
    상기 제1 응답 정보 생성 모듈은,
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거된 것으로 판정되면, 상기 제1 세션 시나리오를 시나리오 스택에 푸시하는 스택 푸시 서브 모듈; 및
    상기 제2 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 생성 서브 모듈을 포함하고,
    상기 인간-기계 대화 장치는,
    상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택에 처리가 완료되지 않은 세션 시나리오가 존재하는 경우, 상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 획득하는 획득 모듈;
    상기 시나리오 스택 중 스택 톱에 위치하는 세션 시나리오를 상기 제1 세션 시나리오로 결정하고 상기 제1 출력 모듈을 트리거하는 제1 결정 모듈;
    상기 제2 세션 시나리오에서의 대화가 종료되고 또한 상기 시나리오 스택 내의 세션 시나리오가 모두 처리 완료되면 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하는지 여부를 판단하는 제2 판단 모듈; 및
    상기 태스크 큐 내에 처리가 완료되지 않은 태스크가 존재하면, 제2 태스크를 상기 제1 태스크로 결정하고 상기 제1 출력 모듈을 트리거하는 제2 결정 모듈을 더 포함하고,
    상기 제2 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크인 것을 특징으로 하는 인간-기계 대화 장치.
  5. 제4항에 있어서,
    상기 제1 출력 모듈은,
    태스크 큐에 처리가 완료되지 않은 태스크가 존재하면, 제1 세션 시나리오의 제1 태스크에 따라 사용자에게 질문 정보를 출력하되, 상기 제1 태스크는 상기 태스크 큐 중 현재 맨 앞에 위치하는 태스크인 것을 특징으로 하는 인간-기계 대화 장치.
  6. 제4항에 있어서,
    상기 회신 정보에 따라 상기 제2 세션 시나리오가 트리거되지 않은 것으로 판정되면, 상기 제1 세션 시나리오에 따라 상기 회신 정보에 대응되는 응답 정보를 생성하는 제2 응답 정보 생성 모듈을 더 포함하는 것을 특징으로 하는 인간-기계 대화 장치.
  7. 전자 기기에 있어서,
    프로세서, 메모리 및 상기 메모리에 저장되고 상기 프로세서에서 실행 가능한 컴퓨터 프로그램을 포함하고,
    상기 컴퓨터 프로그램은 상기 프로세서에 의해 실행될 경우 제1항 내지 제3항 중 어느 한 항에 따른 인간-기계 대화 방법을 구현시키기 위한 것을 특징으로 하는 전자 기기.
  8. 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체에 있어서,
    상기 컴퓨터 프로그램은 프로세서에 의해 실행될 경우 제1항 내지 제3항 중 어느 한 항에 따른 인간-기계 대화 방법을 구현시키기 위한 것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
KR1020200003282A 2019-04-24 2020-01-09 인간-기계 대화 방법, 장치 및 전자 기기 KR102381214B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910333249.7 2019-04-24
CN201910333249.7A CN110096191B (zh) 2019-04-24 2019-04-24 一种人机对话方法、装置及电子设备

Publications (2)

Publication Number Publication Date
KR20200124594A KR20200124594A (ko) 2020-11-03
KR102381214B1 true KR102381214B1 (ko) 2022-04-01

Family

ID=67445727

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200003282A KR102381214B1 (ko) 2019-04-24 2020-01-09 인간-기계 대화 방법, 장치 및 전자 기기

Country Status (4)

Country Link
US (1) US11355109B2 (ko)
JP (1) JP2020181566A (ko)
KR (1) KR102381214B1 (ko)
CN (1) CN110096191B (ko)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110400564A (zh) * 2019-08-21 2019-11-01 科大国创软件股份有限公司 一种基于栈的聊天机器人对话管理方法
US20210117882A1 (en) 2019-10-16 2021-04-22 Talkdesk, Inc Systems and methods for workforce management system deployment
CN111063350B (zh) * 2019-12-17 2022-10-21 思必驰科技股份有限公司 基于任务栈的语音交互状态机及其实现方法
CN110995577B (zh) * 2019-12-31 2021-10-22 珠海市小源科技有限公司 消息的多通道适配方法、装置及存储介质
US11736615B2 (en) 2020-01-16 2023-08-22 Talkdesk, Inc. Method, apparatus, and computer-readable medium for managing concurrent communications in a networked call center
CN111273833B (zh) * 2020-03-25 2022-02-01 北京百度网讯科技有限公司 人机交互的控制方法、装置和***、电子设备
CN111563151B (zh) * 2020-05-07 2024-02-02 腾讯科技(深圳)有限公司 一种信息采集的方法、会话配置的方法、装置及存储介质
CN111639168B (zh) * 2020-05-21 2023-06-09 北京百度网讯科技有限公司 一种多轮对话的处理方法、装置、电子设备及存储介质
CN111612482A (zh) * 2020-05-22 2020-09-01 云知声智能科技股份有限公司 对话管理方法、装置和设备
CN111611368B (zh) * 2020-05-22 2023-07-04 北京百度网讯科技有限公司 多轮对话中公共场景对话回溯的方法和装置
CN111813912A (zh) * 2020-06-29 2020-10-23 北京百度网讯科技有限公司 一种人机对话方法、装置、设备及存储介质
CN114124415B (zh) * 2020-08-13 2023-05-12 腾讯科技(深圳)有限公司 目标交互应用中的信息交互方法和装置
CN111930288B (zh) * 2020-08-14 2022-05-13 中国工商银行股份有限公司 交互式业务处理方法及***
CN112735411A (zh) * 2020-12-25 2021-04-30 广州橙行智动汽车科技有限公司 控制方法、客户端、车辆、语音***和存储介质
US11922141B2 (en) * 2021-01-29 2024-03-05 Walmart Apollo, Llc Voice and chatbot conversation builder
US11429404B2 (en) * 2021-02-03 2022-08-30 Oracle International Corporation Framework for linearizing interviews while permitting user backtracking and provisionally storing answers for repopulating responses
JP7420109B2 (ja) * 2021-04-08 2024-01-23 トヨタ自動車株式会社 情報出力システム、サーバ装置および情報出力方法
CN113159901B (zh) * 2021-04-29 2024-06-04 天津狮拓信息技术有限公司 融资租赁业务会话的实现方法和装置
CN113282725A (zh) * 2021-05-21 2021-08-20 北京市商汤科技开发有限公司 对话交互的方法、装置、电子设备及存储介质
CN113360625B (zh) * 2021-07-02 2022-01-04 北京容联七陌科技有限公司 一种基于nlp的智能对话营销获客方法及***
US11677875B2 (en) 2021-07-02 2023-06-13 Talkdesk Inc. Method and apparatus for automated quality management of communication records
US20230087896A1 (en) * 2021-09-23 2023-03-23 International Business Machines Corporation Leveraging knowledge records for chatbot local search
CN114296547A (zh) * 2021-12-03 2022-04-08 阿里巴巴(中国)有限公司 发起主动对话的方法、设备及存储介质
CN114221920B (zh) * 2021-12-13 2023-06-23 中国平安财产保险股份有限公司 基于人工智能的自动接触方法、装置、计算机设备及介质
US11856140B2 (en) 2022-03-07 2023-12-26 Talkdesk, Inc. Predictive communications system
US11736616B1 (en) 2022-05-27 2023-08-22 Talkdesk, Inc. Method and apparatus for automatically taking action based on the content of call center communications
US11971908B2 (en) 2022-06-17 2024-04-30 Talkdesk, Inc. Method and apparatus for detecting anomalies in communication data
US11943391B1 (en) 2022-12-13 2024-03-26 Talkdesk, Inc. Method and apparatus for routing communications within a contact center

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018245A (ja) 2005-07-07 2007-01-25 Toshiba Corp 対話装置、対話方法及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100738689B1 (ko) * 2005-06-03 2007-07-11 주식회사 케이티 소봇 서비스 방법 및 시스템
JP5149737B2 (ja) * 2008-08-20 2013-02-20 株式会社ユニバーサルエンターテインメント 自動会話システム、並びに会話シナリオ編集装置
US8374859B2 (en) * 2008-08-20 2013-02-12 Universal Entertainment Corporation Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话***及其实现方法
US9374448B2 (en) * 2012-05-27 2016-06-21 Qualcomm Incorporated Systems and methods for managing concurrent audio messages
CN105094315B (zh) * 2015-06-25 2018-03-06 百度在线网络技术(北京)有限公司 基于人工智能的人机智能聊天的方法和装置
JP6601069B2 (ja) * 2015-09-01 2019-11-06 カシオ計算機株式会社 対話制御装置、対話制御方法及びプログラム
CN106775649A (zh) * 2016-11-25 2017-05-31 深圳市保臻社区服务科技有限公司 一种语境引导用户的方法及装置
CN106559321A (zh) * 2016-12-01 2017-04-05 竹间智能科技(上海)有限公司 动态调整对话策略的方法及***
US10467509B2 (en) * 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US20190066669A1 (en) 2017-08-29 2019-02-28 Google Inc. Graphical data selection and presentation of digital content
CN107870994A (zh) * 2017-10-31 2018-04-03 北京光年无限科技有限公司 用于智能机器人的人机交互方法及***
CN108763352A (zh) * 2018-05-15 2018-11-06 深圳市过问科技有限公司 采访提问方法、装置及电子设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018245A (ja) 2005-07-07 2007-01-25 Toshiba Corp 対話装置、対話方法及びプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
I. Papaioannou et. al., Human-Robot Interaction Requires More Than Slot Filling-Multi-Threaded Dialogue for Collaborative Tasks and Social Conversation, FAIM/ISCA Workshop on Artificial Intelligence for Multimodal Human Robot Interaction, pp.61-64, 2018.7. 1부.*
임성수 외 1인, 상호주도형 대화 에이전트 구현을 위한 도메인 독립적 스크립트 언어, 한국정보과학회 학술발표논문집 33(2B), 2006.10. 269-273페이지.
최원기, 김일곤. MAMI: 의료 정보 제공을 위한 멀티 에이전트 시스템에서의 에이전트 플랫폼. 정보과학회논문지: 컴퓨팅의 실제 및 레터 7(5). 2001.10. 489-497페이지. 1부.*

Also Published As

Publication number Publication date
US20200342868A1 (en) 2020-10-29
CN110096191A (zh) 2019-08-06
US11355109B2 (en) 2022-06-07
KR20200124594A (ko) 2020-11-03
JP2020181566A (ja) 2020-11-05
CN110096191B (zh) 2021-06-29

Similar Documents

Publication Publication Date Title
KR102381214B1 (ko) 인간-기계 대화 방법, 장치 및 전자 기기
US11301908B2 (en) System and method for providing contextual summaries in interaction transfer
CN111492383B (zh) 使用意图分类器的自动化通信
KR101793355B1 (ko) 연락 센터용 지능형 자동 에이전트
EP2157571B1 (en) Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
JP5834363B2 (ja) 再帰的な適応的インタラクション管理システム
CN113647067A (zh) 跨通信信道维护机器语言模型状态
JP2023504777A (ja) コンタクトセンターシステムとそのユーザとの間の対話を管理するためのシステム及び方法
US20210157989A1 (en) Systems and methods for dialog management
US9864995B2 (en) System and method for meaning driven process and information management to improve efficiency, quality of work, and overall customer satisfaction
JP2011515028A5 (ko)
CN116324792A (zh) 与通过从自然语言会话挖掘意图来进行机器人创作相关的***和方法
US11930097B2 (en) Integrated orchestration of intelligent systems
CN115982331A (zh) 会话场景中的信息交互方法、装置及设备
US20220366427A1 (en) Systems and methods relating to artificial intelligence long-tail growth through gig customer service leverage
US10657957B1 (en) Real-time voice processing systems and methods
EP3617971A1 (en) Method and system for facilitating computer-generated communication with user
US20240256788A1 (en) Systems and methods for dialog management
WO2022270603A1 (en) A system and method for delivering domain or use-case switch suggestion for an ongoing conversation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant