KR20230007502A - 자동화된 어시스턴트 응답 제시의 핫워드 프리 선점 - Google Patents

자동화된 어시스턴트 응답 제시의 핫워드 프리 선점 Download PDF

Info

Publication number
KR20230007502A
KR20230007502A KR1020227042961A KR20227042961A KR20230007502A KR 20230007502 A KR20230007502 A KR 20230007502A KR 1020227042961 A KR1020227042961 A KR 1020227042961A KR 20227042961 A KR20227042961 A KR 20227042961A KR 20230007502 A KR20230007502 A KR 20230007502A
Authority
KR
South Korea
Prior art keywords
automated assistant
utterance
response
assistant device
presentation
Prior art date
Application number
KR1020227042961A
Other languages
English (en)
Inventor
푸센 차오
알렉스 판드리안토
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20230007502A publication Critical patent/KR20230007502A/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L15/222Barge in, i.e. overridable guidance for interrupting prompts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L2021/02082Noise filtering the noise being echo, reverberation of the speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

자동화된 어시스턴트 응답의 제시는 상기 제시 동안 수신되고 상기 자동화된 어시스턴트로 향할 가능성이 있는 것으로 결정된 핫워드 프리 발화에 응답하여 선택적으로 선점될 수 있다. 발화가 자동화된 어시스턴트로 향할 가능성이 있다는 결정은 예를 들어, 응답의 제시 동안 수신된 오디오 데이터에 대해 수행되는 발화 분류 동작을 사용하여 수행될 수 있고, 이러한 결정에 기초하여 응답은 나중에 수신된 발화와 연관된 다른 응답으로 선점될 수 있다. 또한, 사용자와 자동화된 어시스턴트 간의 대화가 종료될 때 세션을 종료해야 하는 시기를 결정하는데 사용되는 지속시간은 응답 제시가 완료된 시점에 따라 동적으로 제어될 수 있다.

Description

자동화된 어시스턴트 응답 제시의 핫워드 프리 선점
사람은 본 명세서에서 "자동화된 어시스턴트"("챗봇", "인터랙티브 퍼스널 어시스턴트", "지능형 퍼스널 어시스턴트", “개인 음성 어시스턴트”, "대화형 에이전트들”로도 지칭됨)로 지칭되는 인터렉티브 소프트웨어 어플리케이션과의 사람-컴퓨터 간 대화에 참여할 수 있다. 예를 들어, 사람(자동화된 어시스턴트와 인터렉션할 때 "사용자"라고 할 수 있음)은 일부 경우에 텍스트로 변환된 다음 프로세싱될 수 있는 발화된 자연어 입력(즉, 발화)을 사용하여 및/또는 텍스트(예를 들어, 타이핑된) 자연어 입력을 제공함으로써 명령 및/또는 요청을 자동화된 어시스턴트에 제공할 수 있다. 자동화된 어시스턴트는 일반적으로 청각 및/또는 시각적 사용자 인터페이스 출력을 포함할 수 있는 응답 사용자 인터페이스 출력을 제공함으로써 명령 또는 요청에 응답한다.
자동화된 어시스턴트를 통해 사용자는 정보를 얻고, 서비스에 액세스하고, 다양한 작업을 수행할 수 있다. 예를 들어, 사용자는 검색을 실행하고, 길을 찾고, 일부 경우에 서드파티 컴퓨팅 서비스와 인터렉션할 수 있다. 사용자는 또한 승차 공유 애플리케이션에서 자동차 호출, 상품 또는 서비스(예: 피자) 주문, 스마트 디바이스(예: 전등 스위치) 제어, 예약 등과 같은 다양한 액션을 수행할 수 있다.
자동화된 어시스턴트는 음성 인식 및 자연어 프로세싱을 사용하여 사용자와 대화할 수 있으며, 일부는 예를 들어 사용자 의도를 예측하기 위해 기계 학습 및 기타 인공 지능 기술을 사용하기도 한다. 자동화된 어시스턴트는 부분적으로 대화 컨텍스트를 이해하기 때문에 사용자와 자연스럽고 직관적인 방식으로 대화를 진행하는데 능숙할 수 있다. 대화 컨텍스트를 활용하기 위해, 자동화된 어시스턴트는 사용자로부터의 최근 입력, 사용자로부터 온 질문 및/또는 자동화된 어시스턴트에 의해 제공되는 응답/질문을 보존할 수 있다. 예를 들어, 사용자가 "Where is the closest coffee shop?"라고 물으면 자동화된 어시스턴트는 "Two blocks east"이라고 대답할 수 있다. 그런 다음 사용자는 "How late is it open?"라고 물을 수 있다. 적어도 대화 컨텍스트의 일부 형태를 보존함으로써, 자동화된 어시스턴트는 대명사 "it"이 "coffee shop"(즉, 공동 참조 해결)을 지칭하는지 결정할 수 있다.
추가로, 사용자 개인 정보 보호 및/또는 리소스 보존을 위해, 자동화된 어시스턴트가 말한 발화를 완전히 프로세싱하기 전에 사용자는 종종 명시적으로 자동화된 어시스턴트를 호출해야 한다. 자동화된 어시스턴트의 명시적 호출은 일반적으로 클라이언트 디바이스에서 수신되는 특정 사용자 인터페이스 입력에 대한 응답으로 발생한다. 클라이언트 디바이스는 클라이언트 디바이스의 사용자에게 자동화된 어시스턴트와 인터페이싱하기 위한 인터페이스를 제공하고(예: 사용자로부터 입력을 수신하고 청각적 및/또는 그래픽 응답을 제공), 자동화된 어시스턴트를 구현하는 하나 이상의 추가 컴포넌트(예: 사용자 입력을 프로세싱하고 적절한 응답을 생성하는 온-디바이스 컴포넌트(들) 및/또는 원격 서버 디바이스(들))와 인터페이싱하는 어시스턴트 인터페이스를 포함한다.
클라이언트 디바이스를 통해 자동화된 어시스턴트를 호출할 수 있는 일부 사용자 인터페이스 입력은 자동화된 어시스턴트를 호출하기 위한 클라이언트 디바이스의 하드웨어 및/또는 가상 버튼을 포함한다(예: 하드웨어 버튼의 탭, 클라이언트 디바이스에 의해 디스플레이된 그래픽 인터페이스 엘리먼트의 선택). 많은 자동화된 어시스턴트는 "핫워드/문구" 또는 "트리거 단어/문구"(집합적으로 "핫워드"라고 지칭)라고도 하는 하나 이상의 특정한 음성 호출 문구에 응답하여 추가로 또는 대안적으로 호출될 수 있다. 예를 들어, "Hey Assistant", "OK Assistant" 및/또는 "Assistant"와 같은 특정한 음성 호출 문구를 말하여 자동화된 어시스턴트를 호출할 수 있다. 이러한 사용자 인터페이스 입력(들)을 사용하여 자동화된 어시스턴트가 호출될 때, 검출된 오디오 데이터는 클라이언트 디바이스로부터 음성 인식, 자연어 이해 및 이행 각각을 일반적으로 무차별적으로 수행하는 원격 자동화된 어시스턴트 컴포넌트(들)로 일반적으로 스트리밍된다. 그러나, 각각의 음성 발화 전에 명시적 호출을 요구하는 것은 인간 대 인간 인터렉션만큼 자연스럽지 않고 사용자 만족도를 감소시키는 것으로 밝혀졌다.
제시 동안 수신되고 자동화된 어시스턴트로 향할 가능성이 있는 것으로 결정된 핫워드 프리 발화에 응답하여 자동화된 어시스턴트 응답의 제시를 선택적으로 선점하기 위한 기법이 본 명세서에서 설명된다. 발화가 자동화된 어시스턴트로 향할 가능성이 있다는 결정은 예를 들어, 응답의 제시 동안 수신된 오디오 데이터에 대해 수행되는 발화 분류 동작을 사용하여 수행될 수 있고, 이러한 결정에 기초하여 응답은 나중에 수신된 발화와 연관된 다른 응답으로 선점될 수 있다. 또한, 일부 구현예에서, 사용자와 자동화된 어시스턴트 간의 대화가 종료될 때 세션을 종료해야 하는 시기를 결정하는데 사용되는 지속시간은 응답 제시가 완료된 시점에 따라 동적으로 제어될 수 있다.
따라서, 일부 구현예에 따르면, 방법은 자동화된 어시스턴트 디바이스로, 제1 발화에 대한 제1 응답의 제시 동안 오디오 입력을 모니터링하는 단계, 상기 오디오 입력을 모니터링하는 단계는 상기 제1 응답의 제시 동안 말한 제2, 핫워드 프리 발화와 연관된 오디오 데이터를 생성하는 것을 포함하며; 상기 제2, 핫워드 프리 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지를 결정하기 위해 상기 제1 응답을 제시하는 동안 상기 오디오 데이터에 대한 발화 분류 동작을 개시하는 단계; 상기 발화 분류 동작으로부터 상기 제2, 핫워드 프리 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지 결정하는 것에 응답하여, 상기 제2, 핫워드 프리 발화에 대한 제2 응답을 생성하기 위해 발화 이행 동작을 개시하는 단계; 및 상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점하는 단계를 포함한다.
일부 구현예에서, 상기 발화 분류 동작을 개시하는 단계는 주어진 발화가 자동화된 어시스턴트로 향할 가능성이 있는지 여부의 표시를 출력하도록 트레이닝된 신경 네트워크 기반 분류기를 포함하는 발화 분류 서비스에 오디오 데이터를 제공하는 것을 포함한다. 또한, 일부 구현예에서, 상기 발화 분류 서비스는 상기 제2, 핫워드 프리 발화의 전사를 획득하고, 상기 오디오 데이터와 연관된 제1, 음향 표현을 생성하고, 상기 전사와 연관된 제2, 시맨틱 표현을 생성하고 그리고 상기 표시를 생성하기 위해 신경 네트워크 기반 분류기에 상기 제1 및 제2 표현을 제공하도록 구성된다. 또한, 일부 구현예에서, 상기 제1 및 제2 표현은 각각 제1 및 제2 피처 벡터를 포함하고, 상기 발화 분류 서비스는 상기 제1 및 제2 피처 벡터를 연결함으로써 상기 제1 및 제2 표현을 상기 신경 네트워크 기반 분류기에 제공하도록 구성된다.
일부 구현예에서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 분류 서비스는 상기 자동화된 어시스턴트 디바이스 상에 상주한다. 추가로, 일부 구현예에서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 분류 서비스는 상기 자동화된 어시스턴트 디바이스로부터 원격에 있고 상기 자동화된 어시스턴트 디바이스와 통신한다. 일부 구현예에서, 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 이행 동작을 개시하는 단계는 상기 자동화된 어시스턴트 디바이스 상에서 상기 발화 이행 동작을 프로세싱하는 것을 포함한다. 추가로, 일부 구현예에서, 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 이행 동작을 개시하는 단계는 상기 자동화된 어시스턴트 디바이스로부터 원격에 있고 상기 자동화된 어시스턴트 디바이스와 통신하는 서비스에 대해 상기 발화 이행 동작을 개시하는 것을 포함한다.
추가로, 일부 구현예에서, 상기 제1 응답의 제시는 오디오 응답의 재생을 포함하고, 상기 방법은 상기 오디오 데이터로부터 상기 오디오 응답의 적어도 일부를 필터링하기 위해 상기 오디오 데이터에 대해 음향 반향 제거를 수행하는 단계를 더 포함한다. 일부 구현예는 상기 제2, 핫-프리 발화가 상기 제1 발화와 동일한 화자와 연관되는지 여부를 식별하기 위해 상기 오디오 데이터에 대해 화자 식별을 수행하는 단계를 더 포함한다. 추가로, 일부 구현예에서, 상기 제2, 핫워드 프리 발화는 제1 발화에 의존하고, 상기 방법은 상기 제2 응답의 생성이 업데이트된 클라이언트 상태에 기초하도록 상기 제1 응답의 제시를 완료하기 전에 상기 제1 발화에 응답하여 상기 자동화된 어시스턴트 디바이스에 대한 업데이트된 클라이언트 상태를 전파하는 단계를 더 포함한다.
일부 구현예는 상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점한 후, 상기 제2 응답의 제시 동안 상기 오디오 입력을 모니터링하는 단계, 상기 제2 응답의 제시 동안 모니터링 지속시간을 동적으로 제어하는 단계, 및 상기 모니터링 지속시간이 완료되면 자동화된 어시스턴트 세션을 자동으로 종료하는 단계를 더 포함한다. 일부 구현예에서, 상기 모니터링 지속시간을 동적으로 제어하는 단계는 제1 기간 후에 상기 제2 응답의 제시가 완료되지 않았다는 결정에 응답하여 제2 기간 동안 상기 모니터링 지속시간을 자동으로 연장하는 단계를 더 포함한다. 추가로, 일부 구현예에서, 상기 제2 기간 동안의 상기 모니터링 지속시간을 자동으로 연장하는 단계는 상기 제2 응답의 제시의 완료로부터 계산된 지속시간에 기초하여 상기 제2 기간을 결정하는 단계를 포함한다. 추가로, 일부 구현예에서, 상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점하는 단계는 상기 제1 응답의 제시를 중단하는 단계를 포함한다. 일부 구현예는 상기 제1 응답의 제시를 선점한 후에 상기 제1 응답의 제시를 계속하는 단계를 더 포함한다.
추가 구현예에 따라, 방법이 제공될 수 있고, 상기 방법은 자동화된 어시스턴트 디바이스에 의해 수신된 발화에 응답하여, 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 동안의 제1 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 것을 포함하는 응답을 상기 자동화된 어시스턴트 디바이스에 통신하는 단계; 상기 제1 기간 이후 및 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 완료 전에, 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 동안의 제2 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 단계; 상기 제2 기간 이후 및 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 완료 후에, 상기 자동화된 어시스턴트 디바이스에 의해 상기 응답의 제시가 완료된 시간에 기초하여 제3 기간의 지속시간을 결정하는 것을 포함하여, 제3 기간에 대해 오디오 입력의 모니터링을 개시하도록 상기 자동화된 어시스턴트 디바이스에 지시하는 단계; 및 상기 제3 기간이 완료되면 자동화된 어시스턴트 세션을 자동으로 종료하는 단계를 포함한다.
일부 구현예에서, 상기 발화는 핫워드 프리 발화이고, 상기 방법은 상기 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지 결정하기 위해 상기 발화에 대해 발화 분류 동작을 수행하는 단계를 더 포함하고, 상기 응답을 상기 자동화된 어시스턴트 디바이스에 통신하는 단계는 상기 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있다는 것을 상기 발화 분류 동작으로부터 결정하는 것에 응답하여 수행된다. 추가로, 일부 구현예에서, 상기 발화는 제1 발화이고, 상기 방법은 상기 제2 기간 동안 상기 자동화된 어시스턴트 디바이스에 의해 수신된 제2 발화에 응답하여, 상기 제2 발화가 상기 자동화된 어시스턴트 디바이스로 향하지 않는다고 결정하는 단계를 더 포함하고, 상기 제3 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 단계는 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시가 완료되기 전에 상기 제2 발화가 수신된 경우에만 수행된다.
추가로, 일부 구현예는 하나 이상의 프로세서들 및 상기 하나 이상의 프로세서들과 동작가능하게 연결된 메모리를 포함하는 시스템을 포함하고, 상기 메모리는 명령어들을 포함하며, 상기 명령어들은 하나 이상의 프로세서들에 의한 상기 명령어들의 실행에 응답하여, 상기 하나 이상의 프로세서들로 하여금 전술한 방법을 수행하게 한다. 일부 구현예는 오디오 입력 디바이스 및 오디오 입력 디바이스에 결합된 하나 이상의 프로세서들을 포함하고 하나 이상의 프로세서들로 하여금 전술한 방법 중 임의의 것을 수행하게 하기 위해 로컬적으로 저장된 명령어들을 실행하는 자동화된 어시스턴트 디바이스를 포함할 수 있다. 일부 구현예는 명령어들을 포함하는 적어도 하나의 비일시적 컴퓨터 판독가능 매체를 포함하고, 상기 명령어들은 하나 이상의 프로세서에 의한 명령어들의 실행에 응답하여, 상기 하나 이상의 프로세서로 하여금 전술한 방법 중 임의의 것을 수행하게 하는 한다.
본 명세서에서 매우 상세히 기술된 상기 개념들 및 추가적 개념들의 모든 조합들은 본 명세서에 개시된 본 발명의 일부인 것으로 고려되어야 한다. 예를 들면, 본 명세서의 끝부분에 나타나는 청구된 발명의 모든 조합들은 본 명세서에 개시된 본 발명의 일부인 것으로 고려된다.
도 1은 본 명세서에 개시된 구현예들이 구현될 수 있는 예시적 컴퓨팅 환경의 블록도이다.
도 2는 도 1에 언급된 발화 분류 엔진의 예시적 구현예의 블록도이다.
도 3은 묵음 기반 엔드포인팅을 사용하는 자동화된 어시스턴트와 사용자 사이에서 수행되는 예시적 대화를 도시한다.
도 4는 도 3에 도시된 것과 유사한 예시적 대화를 도시하지만, 다양한 구현예에 따라 추가로 핫워드 프리 선점을 활용한다.
도 5는 다양한 구현예에 따라, 자동화된 어시스턴트 세션을 수행하기 위한 동작의 예시적 시퀀스를 도시하는 흐름도이다.
도 6은 다양한 구현예에 따라, 동적으로 제어되는 모니터링 지속시간을 통합하는 자동화된 어시스턴트와 사용자 사이의 예시적 대화를 도시한다.
도 7은 다양한 구현예에 따라, 모니터링 지속시간을 동적으로 제어하기 위한 동작의 예시적 시퀀스를 도시하는 흐름도이다.
도 8 및 도 9는 다양한 구현예에 따라 동적으로 제어되는 모니터링 지속시간을 통합하는 자동화된 어시스턴트와 사용자 사이의 다른 예시적 대화를 도시한다.
도 10은 다양한 구현예에 따라 모니터링 지속기간을 동적으로 제어하기 위한 동작의 다른 예시적인 시퀀스를 도시하는 흐름도이다.
도 11은 컴퓨팅 디바이스의 예시적 아키텍처를 도시한다.
이제 도 1로 돌아가면, 본 명세서에 개시된 기법들이 구현될 수 있는 예시적 환경이 도시된다. 예시적 환경은 복수의 클라이언트 컴퓨팅 디바이스(1061-N)를 포함한다. 각 클라이언트 디바이스(106)는 자동화된 어시스턴트 클라이언트(118)의 각각의 인스턴스를 실행할 수 있다. 자연어 이해 엔진(135)과 같은 하나 이상의 클라우드 기반 자동화된 어시스턴트 컴포넌트들(119)은 일반적으로(110)에 표시된 하나 이상의 로컬 및/또는 광역 네트워크(예를 들어, 인터넷)를 통해 클라이언트 디바이스들(1061-N)에 통신가능하게 연결된 하나 이상의 컴퓨팅 시스템(집합적으로 "클라우드" 컴퓨팅 시스템으로 통칭)에서 구현될 수 있다.
일부 구현예에서, 하나 이상의 클라우드 기반 자동화된 어시스턴트 컴포넌트(119)와의 인터렉션들에 의한 자동화된 어시스턴트 클라이언트(118)의 인스턴스는 사용자의 관점에서 사용자가 인간-대-컴퓨터 대화에 참여할 수 있게 하는 자동화된 어시스턴트(120)의 논리적 인스턴스로 보이는 것을 형성할 수 있다. 이러한 자동화된 어시스턴트(120)의 2개의 인스턴스가 도 1에 도시되어 있다. 점선으로 둘러싸인 제1 자동화된 어시스턴트(120A)는 제1 클라이언트 디바이스(1061)를 동작시키는 제1 사용자(도시되지 않음)를 서비스하고, 자동화된 어시스턴트 클라이언트(1181) 및 하나 이상의 클라우드 기반 자동화된 어시스턴트 컴포넌트(119)를 포함한다. 1점 쇄선으로 둘러싸인 제2 자동화된 어시스턴트(120B)는 다른 클라이언트 디바이스(106N)를 동작시키는 제2 사용자(도시되지 않음)를 서비스하고, 자동화된 어시스턴트 클라이언트(118N) 및 하나 이상의 클라우드 기반 자동화된 어시스턴트 컴포넌트(119)를 포함한다.
따라서, 클라이언트 디바이스(106)상에서 실행되는 자동화된 어시스턴트 클라이언트(118)를 사용하는 각 사용자는 사실상 자동화된 어시스턴트(120)의 자신의 논리적 인스턴스를 사용할 수 있음을 이해해야 한다. 간결하고 간단하게 하기 위해, 본 명세서에서 특정한 사용자에게 "서비스하는 것"으로 사용되는 "자동화된 어시스턴트"라는 용어는 사용자에 의해 동작되는 클라이언트 디바이스(106)에서 실행되는 자동화된 어시스턴트 클라이언트(118) 및 하나 이상의 클라우드 기반 자동화된 어시스턴트 컴포넌트들(119)(여러 자동화된 어시스턴트 클라이언트들(118) 간에 공유될 수 있음)의 조합을 지칭한다. 일부 구현예에서, 자동화된 어시스턴트(120)는 사용자가 그 특정한 인스턴스의 자동화된 어시스턴트(120)에 의해 실제로 "서비스"되는지 여부에 관계없이 임의의 사용자로부터의 요청에 응답할 수 있음을 이해해야 한다.
클라이언트 디바이스(1061-N)는 예를 들어, 데스크톱 컴퓨터 디바이스, 랩톱 컴퓨팅 디바이스, 태블릿 컴퓨팅 디바이스, 모바일폰 컴퓨팅 디바이스, 사용자의 차량의 컴퓨팅 디바이스(예를 들어, 차량 내 통신 시스템, 차량 내 엔터테인먼트 시스템, 차량 내 네비게이션 시스템), 단독형 인터렉티브 스피커, 스마트 텔레비전과 같은 스마트 장비 및/또는 컴퓨팅 디바이스를 포함하는 사용자의 웨어러블 장치(예를 들어, 컴퓨팅 디바이스를 구비한 사용자의 시계, 컴퓨팅 디바이스를 구비한 사용자의 안경, 가상 또는 증강 현실 컴퓨팅 디바이스)일 수 있다. 추가적 및/또는 대안적 클라이언트 컴퓨팅 디바이스들이 제공될 수 있다.
본 명세서에서 보다 상세하게 설명된 바와 같이, 자동화된 어시스턴트(120)는 하나 이상의 클라이언트 디바이스들(1061-N)의 사용자 인터페이스 입력 및 출력 디바이스를 통해 하나 이상의 사용자와 인간 대 컴퓨터 대화 세션에 참여한다. 일부 구현예에서, 자동화된 어시스턴트(120)는 클라이언트 디바이스들(1061-N) 중 하나의 하나 이상의 사용자 인터페이스 입력 디바이스들을 통해 사용자에 의해 제공되는 사용자 인터페이스 입력에 응답하여 사용자와 인간 대 컴퓨터 대화 세션에 참여할 수 있다. 이러한 구현들 중 일부에서, 사용자 인터페이스 입력은 명시적으로 자동화된 어시스턴트(120)에 보내진다.
클라이언트 디바이스들(1061-N) 각각 및 클라우드 기반 자동화된 어시스턴트 컴포넌트들(119)를 동작하는 컴퓨팅 디바이스(들)은 데이터 및 소프트웨어 애플리케이션들의 저장을 위한 하나 이상의 메모리들, 데이터에 액세스하고 어플리케이션을 실행하기 위한 하나 이상의 프로세서 및 네트워크를 통해 통신을 지원하는 다른 컴포넌트들을 포함할 수 있다. 하나 이상의 클라이언트 디바이스들(1061-N)에 의해 및/또는 자동화된 어시스턴트(120)에 의해 수행되는 동작들은 다수의 컴퓨터 시스템들에 걸쳐 분산될 수 있다. 자동화된 어시스턴트(120)는 예를 들면, 네트워크를 통해 서로 연결된 하나 이상의 위치들에서 하나 이상의 컴퓨터에서 실행되는 컴퓨터 프로그램들로서 구현될 수 있다. 다양한 구현예에서, 예를 들어, 자동화된 어시스턴트의 기능의 일부 또는 전부는 다수의 컴퓨터 시스템 사이에, 또는 심지어 클라이언트 컴퓨팅 디바이스에 분산될 수 있다. 일부 구현예에서, 예를 들어, 발화를 검출 및 프로세싱하고 그에 대한 응답을 생성 및 제시하는 것과 관련하여 여기에서 논의된 기능은 예를 들어 온라인 연결이 없을 때에도 이러한 기능을 사용자가 사용할 수 있도록 클라이언트 컴퓨팅 디바이스 내에서 완전히 수행될 수 있다. 이와 같이, 일부 구현예에서, 자동화된 어시스턴트 디바이스는 클라이언트 디바이스를 포함할 수 있고, 다른 구현예에서, 자동화된 어시스턴트 디바이스는 클라이언트 디바이스로부터 원격의 하나 이상의 컴퓨터 시스템들 또는 심지어 클라이언트 디바이스와 하나 이상의 컴퓨터 원격 시스템의 조합을 포함할 수 있고, 이에 따라 자동화된 어시스턴트 디바이스는 디바이스의 분산된 조합이다. 따라서, 자동화된 어시스턴트 디바이스는 다양한 구현예에서 자동화된 어시스턴트의 임의의 기능을 구현하는 임의의 전자 디바이스를 포함하는 것으로 간주될 수 있다.
위에서 언급된 바와 같이, 다양한 구현예에서, 클라이언트 컴퓨팅 디바이스들(1061-N) 각각은 자동화된 어시스턴트 클라이언트(118)를 동작할 수 있다. 다양한 구현예에서, 각각의 자동화된 어시스턴트 클라이언트(118)는 대응하는 음성 캡처/텍스트 음성 변환("TTS")/음성 텍스트 변환("STT") 모듈(114)을 포함할 수 있다. 다른 구현예에서, 음성 캡처/TTS/STT 모듈(114)의 하나 이상의 양태들은 자동화된 어시스턴트 클라이언트(118)와 별도로 구현될 수 있다. 다양한 구현예에서, 음성 캡처/TTS/STT 모듈(114)은 음성 질의에 기초하여 음성 인식 출력을 생성할 수 있다.
각 음성 캡처/TTS/STT 모듈(114)은 하나 이상의 기능을 수행하도록 구성될 수 있다: 예를 들어, 마이크로폰을 통해 사용자의 음성을 캡처하고; 캡처한 오디오를 텍스트로 변환(및/또는 다른 표현 또는 임베딩으로); 및/또는 텍스트를 음성으로 변환. 예를 들어, 일부 구현예에서, 클라이언트 디바이스(106)는 컴퓨팅 리소스들(예를 들어, 프로세서 사이클들, 메모리, 배터리 등)과 관련하여 상대적으로 제한될 수 있기 때문에, 각 클라이언트 디바이스(106)에 대해 로컬적인 음성 캡처/TTS/STT 모듈(114)은 한정된 수의 상이한 발화된 문구, 특히 자동화된 어시스턴트(120)를 호출하는 특정한 문구를 텍스트(또는 보다 낮은 차원성 임베딩과 같은 다른 형태)로 변환하도록 구성될 수 있다. 다른 음성 입력은 클라우드 기반 자동화된 어시스턴트 컴포넌트(119)로 송신될 수 있으며, 이는 클라우드 기반 TTS 모듈(116) 및/또는 클라우드 기반 STT 모듈(117)을 포함할 수 있다.
클라우드 기반 STT 모듈(117)은 음성 캡쳐/TTS/STT 모듈(114)에 의해 캡처된 오디오 데이터를 텍스트(이후 자연어 프로세서(122)에 제공될 수 있음)로 변환하기 위해 클라우드의 사실상 무한한 자원을 활용하도록 구성될 수 있다. 클라우드 기반 TTS 모듈(116)은 텍스트 데이터(예를 들어, 자동화된 어시스턴트(120)에 의해 생성된 자연어 응답)를 컴퓨터 생성 음성 출력으로 변환하기 위해 클라우드의 사실상 무한한 자원을 활용하도록 구성될 수 있다. 일부 구현예에서, TTS 모듈(116)은 컴퓨터 생성된 음성 출력을 클라이언트 디바이스(106)에 제공하여, 예를 들어 하나 이상의 스피커를 사용하여 직접 출력될 수 있다. 다른 구현예에서, 자동화된 어시스턴트(120)에 의해 생성된 텍스트 데이터(예를 들어, 자연어 응답)는 음성 캡처/TTS/STT 모듈(114)에 제공될 수 있고, 음성 캡처/TTS/STT 모듈(114)은 텍스트 데이터를 로컬적으로 출력되는 컴퓨터 생성 음성으로 변환할 수 있다.
자동화된 어시스턴트(120)(및 특히 클라우드 기반 자동화된 어시스턴트 컴포넌트(119))는 자연어 이해 엔진(135), 전술한 TTS 모듈(116), 전술한 STT 모듈(117) 및 기타 컴포넌트를 포함할 수 있고, 이들은 아래에 더 상세히 설명된다. 일부 구현예들에서, 자동화된 어시스턴트(120)의 엔진들 및/또는 모듈들 중 하나 이상은 생략, 조합될 수 있고 및/또는 자동화된 어시스턴트(120)와 별개인 컴포넌트에서 구현될 수 있다. 일부 구현예에서, 자연어 이해 모듈(135), 음성 캡처/TTS/STT(114) 등과 같은 자동화된 어시스턴트(120)의 컴포넌트 중 하나 이상은 프라이버시를 보호하기 위해 클라이언트 디바이스(106)에서 적어도 부분적으로 구현될 수 있다(예를 들어, 클라우드를 제외하고).
일부 구현예에서, 자동화된 어시스턴트(120)는 자동화된 어시스턴트(120)와의 인간 대 컴퓨터 대화 세션 동안 클라이언트 디바이스들(1061-N) 중 하나의 사용자에 의해 생성된 다양한 입력들에 응답하여 응답 콘텐츠를 생성한다. 자동화된 어시스턴트(120)는 대화 세션의 일부로서 사용자에게 제시하기 위해(예를 들어, 사용자의 클라이언트 디바이스로부터 분리될 때 하나 이상의 네트워크를 통해) 응답 콘텐츠를 제공할 수 있다.
본 명세서에서 사용되는 "대화 세션"은 사용자와 자동화된 어시스턴트(120) 사이의 하나 이상의 메시지의 논리적으로 자체 포함된 교환을 포함할 수 있다. 자동화된 어시스턴트(120)는 세션들 간의 시간의 경과, 세션들 간의 사용자 컨텍스트의 변화(예를 들어, 위치, 예정된 미팅 전/중/후 등), 사용자와 자동화된 어시스턴트 사이의 대화 이외의 사용자와 클라이언트 디바이스 사이의 하나 이상의 개입 인터렉션들의 검출(예를 들어, 사용자가 잠시 동안 애플리케이션을 전환하고, 사용자는 멀어졌다가 나중에 독립형 음성 활성화 생산물로 돌아옴), 세션들 사이의 클라이언트 디바이스의 잠금/슬립, 자동화된 어시스턴트(120)의 하나 이상의 인스턴스와의 인터페이스에 사용되는 클라이언트 디바이스의 변경, 사용자에 의해 이용된 입력/출력("I/O
") 양식의 변경 등과 같은 다양한 신호들에 기초하여 사용자와의 다수의 대화 세션들을 구별할 수 있다.
자연어 이해 엔진(135)의 자연어 프로세서(122)는 클라이언트 디바이스(1061-N)를 통해 사용자에 의해 생성된 자연어 입력을 프로세싱하고, 자동화된 어시스턴트(120)의 하나 이상의 다른 컴포넌트에 의해 사용하기 위해 주석이 달린 출력(예: 텍스트 형태)을 생성할 수 있다. 예를 들면, 자연어 프로세서(122)는 클라이언트 디바이스(1061)의 하나 이상의 사용자 인터페이스 입력 디바이스들을 통해 사용자에 의해 생성된 자연어 자유 형식의 입력을 프로세싱할 수 있다. 생성된 주석이 달린 출력은 자연어 입력의 하나 이상의 주석들 및 선택적으로 자연어 입력의 용어들 중 하나 이상(예를 들어, 전부)을 포함한다.
일부 구현예들에서, 자연어 프로세서(122)는 자연어 입력에서 문법적 정보의 다양한 유형들을 식별하고 주석을 달도록 구성된다. 자연어 프로세서(122)는 또한 문법적 역할로 용어에 주석을 달도록 구성된 품사 태그기 및/또는 자연어 입력에서 용어 간의 구문 관계를 결정하도록 구성된 종속성 파서(도시되지 않음)를 포함할 수 있다. 일부 구현예들에서, 자연어 프로세서(122)는 추가적으로 및/또는 대안적으로 사람들(예를 들어, 문학적 캐릭터, 유명인, 공인 등을 포함), 조직들, 위치들(실제 및 가상) 등에 대한 참조들과 같은 하나 이상의 세그먼트들에서 엔터티 참조들을 주석을 달도록 구성된 엔터티 태그기(entity tagger)(도시되지 않음)를 포함할 수 있다. 추가로, 일부 구현예들에서, 자연어 프로세서(122)는 추가적으로 및/또는 대안적으로 하나 이상의 컨텍스트적 큐(cue)들에 기초하여 동일한 엔터티에 대한 참조인 그룹 또는 "클러스터"로 구성된 공동참조 리졸버(coreference resolver)(도시되지 않음)를 포함할 수 있다.
자연어 이해 엔진(135)은 또한 자연어 프로세서(122)의 주석이 달린 출력에 기초하여, 자동화된 어시스턴트(120)와의 인간 대 컴퓨터 대화 세션에 참여하는 사용자의 의도를 결정하도록 구성된 의도 매칭기(136)를 포함할 수 있다. 도 1에서 자연어 프로세서(122)와는 별도로 도시되어 있지만, 다른 구현예에서, 의도 매칭기(136)는 자연어 프로세서(122)(또는 더 일반적으로 자연어 프로세서(122)를 포함하는 파이프 라인)의 통합 부분일 수 있다. 일부 구현예에서, 자연어 프로세서(122) 및 의도 매칭기(136)는 전술한 "자연어 이행" 엔진(135)을 집합적으로 형성할 수 있다.
의도 매칭기(136)는 다양한 기법을 사용하여 사용자의 의도를 결정할 수 있다. 일부 구현예에서, 의도 매칭기(136)는 예를 들어 문법과 응답 액션(또는 보다 일반적으로 의도) 사이의 복수의 매핑을 포함하는 하나 이상의 데이터베이스에 액세스할 수 있다. 추가적으로 또는 대안적으로, 일부 구현예에서, 하나 이상의 데이터베이스는 사용자의 입력에 기초하여 사용자 의도를 나타내는 출력을 생성하도록 트레이닝된 하나 이상의 기계 학습 모델을 저장할 수 있다.
문법은 예를 들어 사용자의 가장 일반적인 의도를 나타내기 위해 선택, 공식화(예: 손으로) 및/또는 시간이 지남에 따라 학습될 수 있다. 예를 들어, 하나의 문법 "play <artist>"는 <artist>의 음악이 사용자에 의해 동작되는 클라이언트 디바이스(106)에 의해 재생되게 하는 응답 액션을 호출하는 의도에 매핑될 수 있다. 또 다른 문법, "많은 문법(수동으로 생성할 수 있음)과 달리," 기계 학습 모델은 예를 들어 사용자와 자동화된 어시스턴트 간의 인터렉션 로그를 사용하여 자동으로 트레이닝될 수 있다. 기계 학습 모델은 신경 네트워크과 같은 다양한 형태를 취할 수 있다. 그들은 사용자 입력에서 사용자 의도를 예측하기 위해 다양한 방식으로 트레이닝될 수 있다. 예를 들어, 일부 구현예에서, 개별 트레이닝 예를 포함하는 트레이닝 데이터가 제공될 수 있다. 각각의 트레이닝 예는 예를 들어 사용자로부터의 자유 형식 입력(예를 들어, 텍스트 또는 비텍스트 형식으로)을 포함할 수 있고 의도와 함께(예를 들어, 손으로) 레이블이 지정될 수 있다. 트레이닝 예는 출력을 생성하기 위해 기계 학습 모델(예를 들어, 신경 네트워크)에 걸쳐 입력으로서 적용될 수 있다. 출력을 레이블과 비교하여 오류를 결정할 수 있다. 이 에러는, 예를 들어, 기울기 하강법(예를 들어, 확률론적, 배치 등) 및/또는 역전파와 같은 기법을 사용하여 모델을 트레이닝하여 모델의 히든 레이어(들)와 연관된 가중치를 조정하는데 사용될 수 있다. 이러한 모델이 (보통 많은) 많은 수의 트레이닝 예로 트레이닝되면, 레이블이 지정되지 않은 자유 형식 자연어 입력에서 의도를 예측하는 출력을 생성하는데 사용될 수 있다.
일부 구현예에서, 자동화된 어시스턴트(120)는 사용자를 대신하여 서비스(150)를 컴퓨팅함으로써 액션의 수행을 용이하게(또는 "브로커")할 수 있다. 일반적으로 의도 매칭기(136)에 의해 식별되거나 결정될 수 있는 의도 유형인 액션은 일반적으로 컴퓨팅 서비스에 대한 요청을 발행하고, 일반적으로 컴퓨팅 서비스에 액션을 수행하는 방법에 관한 지시를 내리기 위해 하나 이상의 파라미터를 컴퓨팅 서비스에 제공하는 것과 관련하여 수행한다.
이와 관련하여 컴퓨팅 서비스는 사용자를 대신하여 일부 활동을 수행하기 위해 호출될 수 있는 거의 모든 유형의 컴퓨터 기능을 포함하는 것으로 간주될 수 있다. 컴퓨팅 서비스는 하나 이상의 프로세서들에 의해 구현될 수 있고, 자동화된 어시스턴트와 동일한 컴퓨터 시스템에 상주할 수 있거나 자동화된 어시스턴트를 호스팅하는 컴퓨터 시스템과 다른 컴퓨터 시스템에 상주할 수 있다. 일부 컴퓨팅 서비스는 네트워크를 통해 액세스할 수 있고(예를 들어, 클라우드 기반 컴퓨팅 서비스의 경우와 같이), 다른 컴퓨팅 서비스는 사용자의 클라이언트 컴퓨팅 디바이스에 상주할 수 있다. 일부 컴퓨팅 서비스는 해당 컴퓨팅 서비스가 호스팅되는 위치(예: 서드파티 컴퓨터 시스템, 자동화된 어시스턴트 컴퓨터 시스템, 사용자 컴퓨팅 디바이스, 클라우드 컴퓨팅 시스템 등)와 관계없이, 사용자 및 자동화된 어시스턴트의 당사자와 상이한 당상자와 연관된 서드파티 컴퓨터 시스템인 것으로 간주될 수 있다. 서비스는 또한 클라이언트 디바이스에 상주할 수 있으며, 도 1에 도시된 다양한 엔진 및 컴포넌트는 일부 구현예에서 컴퓨팅 서비스로 간주될 수 있다.
이행 모듈(124)은 의도 매칭기(136)에 의해 출력되는 의도뿐만 아니라 연관된 파라미터(사용자에 의해 사전에 제공되거나 사용자로부터 요청됨)을 수신하고 의도를 이행하는데 사용될 수 있다. 다양한 구현예에서, 사용자의 의도의 이행은 다양한 이행 정보가 생성/획득되게 할 수 있다. 이행 정보는 일부 구현예에서 이행 정보에 기초하여 자연어 출력을 생성할 수 있는 자연어 생성기("NLG")(126)에 제공될 수 있다.
이행 정보는 의도가 검색 쿼리, 로컬 또는 원격 액션을 수행하기 위한 요청과 관련이 있는지 여부 등에 따라 다양한 방식으로 의도가 이행될 수 있기 때문에 다양한 형태를 취할 수 있다. 일반적으로 의도의 이행 예를 들어 검색 쿼리에 대한 답변, 로컬 또는 원격 액션을 수행한 결과 등을 포함하여 사용자에게 제시될 수 있는 응답의 생성을 초래할 수 있다. 제시는 오디오 재생, 예를 들어, 음성 및/또는 음악 오디오 응답을 포함할 수 있고, 일부 구현예에서 제시는 오디오 정보 대신에 또는 이에 추가하여 시각적 정보, 예를 들어 그래픽 디스플레이 상의 텍스트, 이미지, 애니메이션 및/또는 비디오의 제시를 포함할 수 있다.
추가적으로 또는 대안적으로, 이행 엔진(124)은 예를 들어 자연어 이해 엔진(135)으로부터 사용자의 의도를 수신하고 차례로 대화 엔진(138)을 활용하여 사용자와의 인간 대 컴퓨터 대화 세션을 수행하여 예를 들어, 컴퓨팅 서비스(150)에 의해 하나 이상의 동작의 수행을 호출하거나 호출함으로써 의도와 연관된 액션을 수행하도록 구성될 수 있다. 응답 액션은 예를 들어 상품/서비스 주문, 이벤트 티켓 구매, 레스토랑, 호텔, 비행기, 기차 예약, 택시 또는 승차 공유 케어 주문, 타이머 시작, 알림 설정, 전화 통화 개시, 미디어 재생, 메시지 전송 등을 포함할 수 있다. 이러한 일부 구현예에서, 이행 정보는 액션과 연관된 파라미터, 확인 응답(일부 경우에 미리 결정된 응답에서 선택될 수 있음) 등을 포함할 수 있다.
또한, 발화 분류 엔진(140)은 자동화된 어시스턴트에 의해 검출된 발화가 자동화된 어시스턴트로 향할 가능성이 있는지 여부를 결정하기 위해 일부 구현예에서 사용될 수 있다. 구체적으로, 발화는 일반적으로 사용자에 의해 생성되고 자동화된 어시스턴트에 의해 검출된 음성 입력을 지칭하며, 일부 경우에, 예를 들어, 사용자가 통화 중 또는 직접 대화를 통해 다른 사람에게 말하고 있는 경우, 사용자가 자신에게 말하는 경우 등에 자동화된 어시스턴트에 의해 검출된 사용자 발화는 자동화된 어시스턴트로 향하지 않을 것이라는 것이 이해될 것이다. 따라서, 발화 분류 엔진(140)은 자동화된 어시스턴트에 의해 검출된 발화가 사용자에 의해 자동화된 어시스턴트에 의해 프로세싱되도록 의도된 것인지 여부를 결정하는데 사용될 수 있다.
일부 구현예에서, 예를 들어, 발화 분류 엔진(140)은 주어진 발화가 자동화된 어시스턴트로 향할 가능성이 있는지의 표시를 출력하도록 트레이닝된 신경 네트워크 기반 분류기를 포함하는 컴퓨팅 서비스로서 구현될 수 있다. 도 2는 예를 들어 클라이언트 디바이스(106)에서 구현될 수 있는 발화 분류 엔진(140)의 예시적 구현예를 도시한다. 클라우드 기반 컴포넌트 내에서 이 구현예의 전부 또는 일부를 구현하는 것은 본 개시의 이점을 갖는 통상의 기술자에게 용이하게 명백할 것이다.
도시된 바와 같이, 발화(150)를 포함하는 오디오 입력은 음성 인식기(152) 및 음향 피처 생성기(154) 모두에 제공될 수 있으며, 전자는 시맨틱 정보를 생성하는데 사용되고 후자는 발화(150)에 반영된 발화와 연관된 음향 정보를 생성하는데 사용된다. 음성 인식기(152)는 음성 언어의 단어 및 구를 식별하도록 구성된 하드웨어, 소프트웨어 및 펌웨어의 조합을 포함하는 디바이스일 수 있다. 일부 구현예에서, 음성 인식기(152)는 획득된 발화(150)를 기계 판독 가능 형식으로 변환한다. 기계 판독 가능 형식은 획득된 발화(150)를 나타내는 문장 구조 형식의 하나 이상의 단어를 포함할 수 있다. 일부 구현예에서, 음성 인식기(152)는 음성 인식을 수행하기 위해 방법론들의 다양한 조합을 사용할 수 있다. 예를 들어, 음성 인식기(152)는 은닉 마르코프 모델 접근법, 동적 시간 워핑(DTW) 기반, 신경 네트워크, 딥 피드포워드 및 순환 신경 네트워크 접근법, 또는 다양한 접근법의 일부 조합을 포함할 수 있다. 발화 분류 엔진(140)은 음성 인식기(152)의 출력을 전사 표현 생성기(156)에 제공할 수 있다. 동시에, 발화 분류 엔진(140)은 획득된 발화(150)를 음향 피처 생성기(154)에 제공할 수 있다.
일부 구현예에서, 음향 피처 생성기(154)는 획득된 발화(150)로부터 피처 벡터를 추출하고 추출된 피처 벡터를 순환 신경 네트워크 엘리먼트에 대한 입력으로서 제공하도록 구성된 하드웨어, 소프트웨어 및 펌웨어의 조합을 포함하는 디바이스일 수 있다. 음향 피처 생성기(154)는 획득된 발화(150)의 서로 다른 세그먼트 또는 분석 윈도우를 분석할 수 있다. 일부 구현예에서, 피처 벡터 또는 음향 피처 벡터들의 세트는 획득된 발화(150)의 각각의 프레임에 대해 결정될 수 있다. 예를 들어, 음향 피처 생성기는 각 윈도우의 오디오에 대해 FFT(고속 푸리에 변환)를 수행할 수 있고, 멜 주파수 척도를 사용하여 스펙트럼의 거듭제곱을 매핑하고; 각 멜 주파수에서 파워의 거듭제곱을 취하고; 멜 로그 거듭제곱 목록의 이산 코사인 변환을 취하고; 그리고, 피처들의 진폭 콘텐츠를 분석하여 각각의 윈도우에 대한 음향 피처들을 결정한다. 음향 피처들은 MFCC(mel-frequency cepstral coefficients), 지각 선형 예측(PLP) 변환을 사용하여 결정된 피처 또는 다른 기법을 사용하여 결정된 피처들일 수 있다.
발화 분류 엔진(140)은 음향 피처 생성기(154)의 순환 신경 네트워크 엘리먼트에 피처 벡터를 한 번에 하나씩 제공할 수 있다. 순환 신경 네트워크 엘리먼트는 하나 이상의 LSTM(장단기 기억) 레이어일 수 있다. 음향 피처 생성기(154)는 다수의 LSTM 레이어를 적층하여 구축된 심층 LSTM 신경 네트워크 아키텍처일 수 있다. 발화 분류 엔진(140)은 고정 크기 음성 단위 표현 또는 임베딩의 출력을 제공하기 위해 음향 피처 생성기(154)에서 신경 네트워크를 트레이닝할 수 있다. 예를 들어, 임베딩은 64 비트 벡터일 수 있다. 일부 구현예에서, 유닛은 비트 또는 바이트일 수 있다. 각 피처 벡터에 대해 하나의 임베딩이 출력된다.
일부 구현예에서, 발화 분류 엔진(140)은 획득된 발화(150)의 컨텍스트의 인식을 향상시키기 위해 음성 인식기(152)와 함께 음향 피처 생성기(154)를 포함한다. 발화 분류 엔진(140)에서 음향 피처 생성기(154)를 활성화함으로써, 발화 분류 엔진(140)은 오인식의 실패 사례를 감소시킬 수 있다. 또한, 사람들의 발화는 발화의 텍스트에 캡처되지 않은 독특한 음향 엘리먼트를 포함한다. 예를 들어, 음향 엘리먼트는 몇 가지 예를 들면 음높이, 음성 템포 및 억양과 같은 특성을 포함할 수 있다. 음향 피처 생성기(154)를 포함함으로써, 독특한 음향 엘리먼트는 발화에 대한 청중이 자동화된 어시스턴트 서버(116)일 가능성이 있는지 여부를 결정하는데 도움이 될 수 있다.
전사 표현 생성기(156)는 하나 이상의 신경 네트워크 레이어를 포함할 수 있다. 예를 들어, 전사 표현 생성기(156)는 CNN(Convolutional Neural Network) 단어 임베딩 모델을 포함할 수 있다. 음향 피처 생성기(154)와 같이, 전사 표현 생성기(156)는 하나 이상의 LSTM 레이어를 포함할 수 있고, 다수의 LSTM 레이어를 적층함으로써 구축된 심층 LSTM 신경 네트워크 아키텍처일 수 있다. 또한, 발화 분류 엔진(140)은 획득된 발화(150)의 전사의 출력을 제공하기 위해 전사 표현 생성기(156)에서 신경 네트워크를 트레이닝할 수 있다. 일부 구현예에서, 발화의 전사는 고정 크기 텍스트 단위 표현 또는 임베딩을 포함한다. 예를 들어, 각 임베딩 출력은 100 유닛 벡터일 수 있다. 일부 구현예에서, 유닛은 부동 소수점 또는 정수 값일 수 있다. 전사 표현 생성기(156)로부터 문장의 각 단어에 대한 하나의 임베딩을 출력한다. 전사는 출력으로 제공되는 각 임베딩 유닛을 포함한다.
일부 구현예에서, 발화 분류 엔진(140)은 음성 인식기(152)에 의해 생성된 문장을 포함하는 입력을 전사 표현 생성기(156)에 제공할 수 있다. 발화 분류 엔진(140)은 문장으로부터 한 번에 하나의 단어를 전사 표현 생성기(156)의 CNN 단어 임베딩 모델에 입력할 수 있다. 또한, CNN 단어 임베딩 모델은 네트워크의 계산 복잡도를 줄이기 위해 CNN 단어 임베딩 모델에 제공되는 문장 데이터를 최대 풀링하여 입력 데이터를 줄일 수 있다.
발화 분류 엔진(140)이 획득된 발화(150)가 자동화된 어시스턴트 서버(116)로 향할 확률을 최적화하기 위해, 발화 분류 엔진(140)은 전사 표현 생성기(156) 및 음향 피처 생성기(154)의 출력 둘 모두를 활용할 수 있다. 연결 모듈(158)은 전사 표현 생성기(156)로부터의 임베딩 출력과 음향 피처 생성기(154)로부터의 임베딩 출력을 결합하는 소프트웨어, 하드웨어, 펌웨어 또는 각각의 조합의 디바이스일 수 있다. 예를 들어, 연결 모듈(158)은 전사 표현 생성기(156)로부터 출력된 100-유닛 벡터와 음향 피처 생성기(154) 출력으로부터 출력된 64-유닛 벡터를 결합하여 164-유닛 벡터 출력을 생성할 수 있다.
일부 구현예에서, 연결 모듈(158)은 164-유닛 벡터 출력들의 행렬을 생성할 수 있다. 예를 들어, 행렬은 164-유닛 벡터의 하나 이상의 열을 포함할 수 있다. 이 연결 모듈(158)은 100-유닛 임베딩을 하나 이상의 숫자를 포함하는 시맨틱적으로 의미 있는 벡터로 변환할 수 있다. 연결 모듈(158)은 word2vec 또는 GloVe와 같은 프로그래밍 언어에서 하나 이상의 기능 호출을 사용하여 하나 이상의 숫자를 포함하는 시맨틱적으로 의미 있는 벡터로 100-유닛 임베딩을 변환할 수 있다.
도시된 예에서, 연결 모듈(158)은 전사 표현 생성기(158)로부터 수치 벡터의 행렬 및 음향 피처 생성기(154)로부터 임베딩의 행렬을 생성할 수 있다. 특히, 각 단어가 100-유닛 임베딩과 연관되어 있는 10 단어 문장이 주어지면, 연결 모듈(158)은 10x100 행렬을 생성하고, 이를 음향 피처 생성기(154)로부터의 행렬과 연결할 수 있다. 동일한 예에서, 음향 피처 생성기(154)로부터의 행렬은 각각이 64-유닛 임베딩을 포함하는 10개의 피처 벡터를 포함할 수 있다. 연결 모듈(158)은 전사 표현 생성기(156)로부터의 10x100 행렬과 연결하기 위해 10x64 행렬을 생성할 수 있다. 연결 모듈(158)에 의해 생성된 결과 행렬은 10×164일 수 있다.
발화(150)의 음향 피처에 대한 행렬 및 발화(150)의 텍스트 피처에 대한 행렬을 생성하는 것의 한 가지 이점은 각각의 행렬에 대한 크기가 적절한 행렬로 결합될 수 있다는 점이다. 예를 들어, 각 행렬은 수평 연결을 허용하는 동일한 수의 행을 포함한다. 각각의 행렬 사이의 열의 수가 유사하다고 가정하면, 연결 모듈(158)은 수직 연결을 생성할 것이다. 일부 구현예에서, 연결 모듈(158)은 연결된 행렬(226)을 신경 네트워크(160)에 제공할 수 있다.
일부 구현예에서, 연결 모듈(158)은 신경 네트워크(160)가 하나의 164-유닛 벡터를 프로세싱할 때까지 행렬의 164-유닛 벡터의 수를 버퍼링할 수 있다. 신경 네트워크(160)가 하나의 164-유닛 벡터를 프로세싱하면, 연결 모듈(158)은 다음 164-유닛 벡터를 신경 네트워크(160)에 제공할 수 있다. 음성 인식기(152), 음향 피처 생성기(154), 전사 표현 생성기(156) 및 연결 모듈(158)은 신경 네트워크(160)가 하나의 164-유닛 벡터를 프로세싱할 수 있는 것보다 빠르게 164-유닛 벡터를 생성할 수 있다. 따라서 연결 모듈(158)은 저장하고 프로세싱될 준비가 된 164-유닛 벡터의 행렬 버퍼를 생성한다.
일부 구현예에서, 발화 분류 엔진(140)은 연결된 행렬을 프로세싱하기 위한 신경 네트워크(160)를 포함한다. 특히, 신경 네트워크(160)는 분류기(162) 및 다른 LSTM(164)을 포함할 수 있다. 발화 분류 엔진(140)은 획득된 발화(150)에 대한 청중이 자동화된 어시스턴트일 가능성이 있음을 나타내는 출력을 생성하도록 분류기(162) 및 LSTM(164)을 트레이닝할 수 있다. 일부 구현예에서, 분류기(162) 및 LSTM(164)은 자동화된 어시스턴트로 향하지 않은 녹음된 대화 및 사용자가 이전에 말한 쿼리의 예를 사용하여 트레이닝될 수 있다. 예를 들어, 발화 분류 엔진(140)은 자동화된 어시스턴트를 향하지 않은 다수의 문구를 음성 및 텍스트 포맷으로 검색할 수 있다.
일부 구현예에서, 발화 분류 엔진(140)은 자동화된 어시스턴트 서버(116)로 향하지 않은 문구를 포함하는 다른 문구를 인터넷을 통해 하나 이상의 데이터베이스로부터 검색할 수 있다. 예를 들어, 문구 중 하나는 "Bob said, what's the temperature outside, and I shook" 또는 "What time are your parents coming over?"를 포함할 수 있다. 일반적으로, 이러한 유형의 질문에 대한 청중은, 비록 발화 분류 엔진(140)이 청중이 이러한 유형의 질문에 대한 자동화된 어시스턴트일 가능성이 있는 것으로 해석할 수 있지만, 방에 있는 다른 사람이다. 그러나 이러한 유형의 질문은 신경 네트워크(160)를 트레이닝하는데 사용하기에 최적의 문구 중 일부이다. 분류기(162)는 자동화된 어시스턴트일 가능성이 있는 청중을 밀접하게 식별하고 포함하는 것처럼 보이지만 실제로는 배경 소음이거나 방의 다른 사람을 향하는 문구를 식별하는 방법을 학습할 수 있다. 이러한 예는 "What time are your parents coming over", "How much do you weigh" 또는 "What did you buy at the grocery store?"를 포함한다. 이러한 질문들 각각은 화자가 누구에게 말하고 있는지를 나타내는 식별자를 포함하지 않지만, 자동화된 어시스턴트를 향하지 않는 문구를 식별할 때 시선을 돌리도록 분류기(162)에 지시할 수 있는 대명사를 포함한다.
일부 구현예에서, 발화 분류 엔진(140)은 트레이닝 동안 분류기(162)의 가중치 및 LSTM(164)의 가중치를 업데이트한다. 예를 들어, 발화 분류 엔진(140)은 확률적 경사하강법(stochastic gradient descent)으로 시간에 따른 오류의 역전파를 사용하여 분류기(162) 및 LSTM(164)의 가중치를 업데이트할 수 있다.
일부 구현예에서, 분류기(162) 및 LSTM(164)의 출력은 획득된 발화(150)에 대한 청중이 자동화된 어시스턴트일 가능성이 있었다는 표시를 포함할 수 있다. 예를 들어, 표시는 164-유닛 벡터의 출력이 획득된 발화에 대한 청중이 자동화된 어시스턴트일 가능성이 있음을 표시할 확률을 포함할 수 있다.
다른 구현예에서, 분류기(162) 및 LSTM(210B)의 출력은 집합적으로 0 내지 100 범위의 점수를 포함할 수 있다.
일부 구현예에서, 시그마(166)는 LSTM(164)에 의해 제공되는 출력 각각을 합산한다. 예를 들어, 시그마(166)는 신경 네트워크(160)를 통해 전파되는 각각의 발화에 대한 164-유닛 벡터 각각에 대한 출력 확률 또는 출력 점수를 수신할 수 있다. 시그마(164)는 획득된 전체 발화(150)에 대해 신경 네트워크(160)로부터 각각의 출력 확률 또는 점수를 누적 합산할 수 있다.
일부 구현예에서, 시그마(166)는 최종 출력 확률 또는 점수를 미리 결정된 임계값과 비교한다. 시그마(166)가 최종 출력 확률 또는 점수가 미리 결정된 임계값을 초과한다고 결정하면, 가능성 출력(168)은 획득된 발화(150)에 대한 청중이 자동화된 어시스턴트일 가능성을 표시한다. 대안적으로, 가능성 출력(168)은 최종 출력 확률 또는 점수가 미리 결정된 임계값 미만인 경우 획득된 발화(150)에 대한 청중이 자동화된 어시스턴트가 아닐 가능성을 나타낼 수 있다. 예를 들어, 미리 정해진 임계값은 50%의 확률 또는 50/100의 점수일 수 있다.
일부 구현예에서, 발화 분류 엔진(140)은 획득된 발화(150)를 자동화된 어시스턴트에 제공할지 여부를 가능성 출력(168)으로부터 결정할 수 있다. 예를 들어, 발화 분류 엔진(140)이 최종 출력 확률 또는 점수가 미리 결정된 임계값을 초과한다고 결정하면, 발화 분류 엔진(140)은 획득된 발화(150)의 프로세싱을 개시하기 위해 자동화된 어시스턴트에 제공하기 위한 명령어를 생성할 수 있다. 대안적으로, 발화 분류 엔진(140)은 최종 출력 확률 또는 점수가 미리 결정된 임계값을 초과하지 않는 것으로 결정할 수 있다. 이에 응답하여, 발화 분류 엔진(140)은 획득된 발화(150)를 메모리에서 삭제하고 새롭게 획득된 발화까지 대기를 진행할 수 있다. 다른 구현예에서, 발화 분류 엔진(140)은 획득된 발화(150)를 프로세싱하지 않도록 지시하는 자동화된 어시스턴트에 대한 명령어를 생성할 수 있다. 또한, 명령어는 자동화된 어시스턴트를 향하지 않은 저장된 발화의 데이터베이스에 획득된 발화(150)를 저장하도록 자동화된 어시스턴트에 전달할 수 있다.
이와 같이, 일부 구현예에서, 분류기는 음향 및 시맨틱 정보 둘 모두를 활용하도록 구성될 수 있고, 발화와 연관된 오디오 데이터의 음향 표현 및 발화와 연관된 오디오 데이터로부터 생성된 전사의 시맨틱 표현 둘 모두를 발화가 자동화된 어시스턴트로 향할 가능성을 결정하기 위한 입력으로 활용할 수 있다. 일부 구현예에서, 이러한 표현은 개별 피처 벡터로 인코딩될 수 있고, 일부 구현예에서 이러한 피처 벡터는 분류기에 입력될 때 연결될 수 있다.
일부 구현예에서, 발화 분류 엔진(140)은 개별 단어 또는 문구일 수 있고 특정한 발화가 자동화된 어시스턴트로 향한다는 것을 명시적으로 전달하는데 사용될 수 있는 핫워드(대안적으로 트리거 단어로도 지칭됨)를 포함하는 발화를 검출하는데 사용될 수 있다. 사용자 프라이버시 및/또는 리소스 보존을 위해, 예를 들어, 일부 구현예에서, 자동화된 어시스턴트가 발화를 완전히 프로세싱하기 전에 사용자가 명시적으로 자동화된 어시스턴트를 호출할 것을 요구하는 것이 바람직할 수 있다. 자동화된 어시스턴트의 명시적 호출은 일반적으로 클라이언트 디바이스에서 수신되는 특정 사용자 인터페이스 입력에 대한 응답으로 발생한다. 클라이언트 디바이스는 클라이언트 디바이스의 사용자에게 자동화된 어시스턴트와 인터페이싱하기 위한 인터페이스를 제공하고(예: 사용자로부터 입력을 수신하고 청각적 및/또는 그래픽 응답을 제공), 자동화된 어시스턴트를 구현하는 하나 이상의 추가 컴포넌트(예: 사용자 입력을 프로세싱하고 적절한 응답을 생성하는 원격 서버 디바이스(들))와 인터페이싱하는 어시스턴트 인터페이스를 포함할 수 있다. 클라이언트 디바이스를 통해 자동화된 어시스턴트를 호출할 수 있는 일부 사용자 인터페이스 입력은 자동화된 어시스턴트를 호출하기 위한 클라이언트 디바이스의 하드웨어 및/또는 가상 버튼을 포함한다(예: 하드웨어 버튼의 탭, 클라이언트 디바이스에 의해 디스플레이된 그래픽 인터페이스 엘리먼트의 선택). 그러나, 하나 이상의 핫워드에 대한 응답으로 다른 자동화된 어시스턴트가 추가로 또는 대안적으로 호출될 수 있다. 예를 들어, "Hey Assistant", "OK Assistant" 및/또는 "Assistant"와 같은 특정한 음성 호출 문구를 말하여 자동화된 어시스턴트를 호출할 수 있다.
그러나, 일부 구현예에서, 발화 분류 엔진은 임의의 특정 핫워드를 포함하지 않는 발화를 검출하는데 사용될 수 있으며, 이는 본 명세서에서 핫워드 프리 발화로 지칭되고, 이로부터 발화 분류 엔진은 자동화된 어시스턴트로 향하는 것으로 식별하기 위해 시도할 수 있다. 예를 들어, 다른 사람으로 향하거나 다른 사람이 말한 발화, 텔레비전, 스피커 또는 기타 재생 디바이스를 통해 방송되는 발화 또는 기타 유형의 배경 소음은 예를 들어 자동화된 어시스턴트로 향하지 않을 수 있으므로, 발화 분류 엔진은 자동화된 어시스턴트가 발화에 대한 응답을 생성하게 하기 전에 발화가 자동화된 어시스턴트로 향할 가능성이 있는지를 결정하기 위해 잠재적 발화로 식별된 임의의 오디오 데이터를 평가하는 것이 바람직하다. 일부 구현예에서, 자동화된 어시스턴트 세션을 개시하기 위해 핫워드 프리 발화가 사용될 수 있고(즉, 일부 핫워드 프리 발화는 자동화된 어시스턴트와의 대화에서 제1 발화로 사용될 수 있음), 다른 구현예에서, 자동화된 어시스턴트 세션을 개시하기 위해 핫워드 또는 다른 트리거가 필요할 수 있으며, 후속 발화는 핫워드 프리인지 여부에 관계없이 프로세싱될 수 있다.
도 1로 돌아가서, 발화 및/또는 발화 분류의 검출을 용이하게 하기 위해 다양한 추가 컴포넌트가 일부 구현예에서 사용될 수 있다. 예를 들어, 음향 반향 제거(AEC, Acoustic Echo Cancellation) 엔진(142)은 자동화된 어시스턴트 제시, 예를 들어 사용자 쿼리에 대한 응답으로서 클라이언트 디바이스에 의해 재생되는 음성 오디오로부터 오디오 정보를 제거하기 위해 일부 구현예에서 사용될 수 있다. 또한, AEC 엔진(142) 대신에 또는 이에 추가하여, 화자 식별 엔진(144)은 특정 발화의 화자를 식별하는 데 사용될 수 있으며, 예를 들어 여러 사람이 주어진 위치에서 말하고 있을 때 특정인의 발화만 프로세싱되며 다른 사람의 발화는 무시되도록 한다. 따라서, 일부 구현예에서, 자동화된 어시스턴트에 의해 생성된 오디오의 재생 및/또는 다른 사람의 목소리는 특정인의 발화만이 자동화된 어시스턴트에 의해 프로세싱되고 응답되도록 효과적으로 필터링될 수 있다. 그러나, 다른 구현예에서, 엔진(142, 144)은 생략될 수 있다. 또한, 또 다른 구현예에서, 엔진(142, 144) 중 하나 또는 둘 모두는, 예를 들어 특정 스피커와 연관된 오디오 데이터만이 클라이언트 디바이스로부터 클라우드 기반 자동화된 어시스턴트 컴포넌트로 통신되도록 클라이언트 디바이스에 상주할 수 있다.
이제 도 3 및 4로 돌아가면, 일부 구현예에서, 발화 분류는 이전 발화에 대한 응답을 제시하는 동안 발행된 음성 발화 프로세싱하기 위해 핫워드 또는 자동화된 어시스턴트의 다른 명시적 호출에 대한 필요를 일부 제거함으로써 자동화된 어시스턴트와의 더 자연스럽고 효율적인 인터렉션을 용이하게 하기 위해 일부 경우에 사용될 수 있다. 예를 들어, 일부 자동화된 어시스턴트는 대화를 턴 기반 대화로 바꾸는 묵음 기반 엔드포인팅을 활용하며, 사용자는 한 차례에 발화를 하고 자동화된 어시스턴트는 후속 차례에 발화에 대한 응답을 제시하고, 사용자가 자동화된 어시스턴트가 응답 제시를 완료한 후 미리 결정된 시간 내에 다른 발화를 할 때 후속 차례가 개시된다.
일반적으로, 자동화된 어시스턴트가 묵음 기반 엔드포인팅을 통합하면 핫워드 또는 기타 사용자 액션을 통해 자동화된 어시스턴트의 명시적 호출에 대한 응답으로 세션이 개시되고, 사용자가 발화를 완료하면 자동화된 어시스턴트는 차례를 취하고 발화에 대한 응답을 제시한다. 제시가 완료되면, 모든 후속 발화는 일반적으로 미리 결정된 기간 내에 말해야 한다(이 기간 동안 수신된 모든 발화는 일반적으로 자동화된 어시스턴트에 의해 캡처되고 프로세싱되므로 "마이크-개방" 기간으로 지칭될 수 있음). 마이크 개방 기간 동안 수신된 발화는 자동화된 어시스턴트에 의해 새로운 응답 제시를 개시하는 반면, 개방 기간 동안 발화가 없으면 일반적으로 대화의 종료를 나타내므로 사용자와 자동화된 어시스턴트 간의 세션이 종료된다. 특히, 자동화된 어시스턴트에 의해 응답이 제시되는 기간 동안 모든 사용자 입력이 무시될 수 있다(즉, 이러한 기간 동안 수신된 모든 발화가 일반적으로 무시되기 때문에 이러한 기간은 "마이크 폐쇄" 기간으로 간주될 수 있음).
도 3은 예를 들어, 묵음 기반 엔드포인팅을 사용하는 자동화된 어시스턴트와 사용자 사이에서 수행되는 예시적 대화를 도시한다. 자동화된 어시스턴트를 호출하기 위해 핫워드(화살표 180)가 사용된 후, 사용자와 자동화된 어시스턴트는 교대로 발화를 하고(화살표 182, 186), 해당 발화에 대한 응답을 제시하고(화살표 184, 188), 마이크 개방 및 마이크 폐쇄 기간 교번하는 것은 음성 발화가 프로세싱(마이크 개방) 또는 무시(마이크 폐쇄)되는 동안 발생하고, 그리고 새로운 발화가 특정한 마이크 개방 기간에 수신되지 않으면 세션이 종료된다.
본 명세서에 개시된 다양한 구현예에서, 그러나, 발화 분류는 이전 발화에 대한 응답을 제시하는 동안 발행된 음성 발화 프로세싱하기 위해 핫워드 또는 자동화된 어시스턴트의 다른 명시적 호출에 대한 필요를 일부 제거함으로써 자동화된 어시스턴트와의 더 자연스럽고 효율적인 인터렉션을 용이하게 하기 위해 사용될 수 있다. 도 4에 도시된 바와 같이, 특히 핫워드(화살표 190)가 발화된 후, 제1 발화(화살표 192)에 대한 제1 응답(화살표 194)이 제시되는 동안 제2 발화(화살표 196)가 발행되고, 제1 응답의 제시를 효과적으로 선점하고, 제1 응답의 완료를 요구하지 않고 제2 발화에 대한 제2 응답(화살표 198)을 개시한다. 또한, 도 4에서 언급된 바와 같이, 각 응답이 제시되는 동안, 사용자 입력은 여전히 검출되고 프로세싱되어, 응답 제시 중에도 자동화된 어시스턴트는 "마이크 개방" 기간에 있는 것으로 간주된다.
일부 구현예 및/또는 경우에, 제1 응답의 선점은 제1 응답의 제시에 대한 인터럽트 또는 중단을 초래할 수 있음이 이해될 것이다. 그러나 다른 구현예 및/또는 경우에, 제1 응답의 선점은 제1 응답의 제시가 중단되는 결과를 가져오지 않을 수 있지만 대신 제1 응답의 제시가 일시 중지되거나, 일시적으로 묵음되거나, 일시적으로 볼륨이 낮아질 수 있고 잠재적으로 제1 응답의 계속된 제시와 중복되는 제2 응답의 제시를 포함한다. 또한, 일부 경우에, 선점으로 인해 사용자의 관점에서 제1 응답의 제시에 지각할 수 있는 변경이 없을 수 있다. 특히, 제2 발화가 이전 요청을 정제하거나 수정하기 위한 요청을 포함하는 경우, 제1 응답의 제시를 계속하는 것이 바람직할 수 있지만, 제2 발화와 연관된 요청을 처리하기 위해 일부 방식으로 수정된다. 따라서, 예를 들어 제1 발화가 음악 재생 요청을 포함하는 경우 "louder please"와 같은 제2 발화는 재생을 일시 중지하거나 중단하지 않고 음악 재생 볼륨을 증가시킬 수 있다.
예를 들어, 도 5는 일부 구현예에 따라 사용자와 자동화된 어시스턴트 간의 대화를 수행하기 위한 일련의 동작(200)을 도시한다. 예시적 대화에서, 자동화된 어시스턴트 세션은 예를 들어, 사용자에 의한 핫워드의 발화에 응답하여, 또는 전자 디바이스 상의 소프트 또는 하드 버튼을 누르는 것과 같은 다른 적절한 명시적 액션에 의해 개시될 수 있다(블록 202). 다른 구현예에서, 세션은 사용자에 의한 명시적 호출 없이 개시될 수 있다.
다음으로, 자동화된 어시스턴트 디바이스는 하나 이상의 마이크로폰으로부터 수신된 입력과 같은 오디오 입력을 모니터링할 수 있고 그 결과로서 제1 발화를 검출할 수 있다(블록 204). 그 다음, 도 5에 도시된 바와 같이, 제1 발화 이행 동작이 수행되어 제1 발화에 대한 제1 응답을 생성하고 사용자에게 제시될 수 있다(블록 208). 이행, 생성 및 제시는 자동화된 어시스턴트 디바이스에서 로컬로, 자동화된 어시스턴트 디바이스로부터 원격으로(예를 들어, 클라우드 기반 어시스턴트 기능을 사용하여), 또는 로컬 및 원격 디바이스의 조합을 사용하여 수행될 수 있다. 그러나, 그러한 제시와 동시에, 오디오 입력은 계속 모니터링될 수 있고(블록 210), AEC, 화자 식별 및/또는 발화 분류 중 하나 이상이 수행되어 제1 응답의 제시가 완료되기 전에 사용자에 의한 제2 발화를 검출하는 것을 시도할 수 있다(블록 212). 예시된 구현예에서, 제2 발화는 핫워드 프리(hot-word free)일 수 있고, 그와 같이 오디오 입력의 모니터링은 제1 응답의 제시 동안 발화된 제2, 핫워드 프리 발화와 연관된 오디오 데이터를 생성하는 것을 포함할 수 있다.
그러나 제1 응답을 제시하는 동안 말한 발화가 자동화된 어시스턴트로 향하지 않을 수 있다는 점을 감안할 때, 일부 구현예에서, 제2 발화와 연관된 오디오 데이터에 대해 발화 분류 동작을 수행하여 제2, 핫워드 프리 발화가 자동화된 어시스턴트 디바이스로 향할 가능성이 있다고 결정한다(블록 214). 또한, 위에서 언급한 바와 같이, AEC는 클라이언트 디바이스에 의한 응답의 재생을 필터링하기 위해 일부 구현예에서 수행될 수 있고 및/또는 단일 사용자로 대화를 제한하기 위해 화자 식별이 수행될 수 있다. 예를 들어, 제2 발화는 해당 지역의 다른 사람을 향하거나 특정 사람을 향하지 않을 수 있고, 다른 사람이 말하거나 일부 경우에 배경 소음일 수 있으므로 발화 분류를 사용하여 자동화된 어시스턴트를 향하고 진행 중인 대화와 잠재적으로 관련이 있는 해당 발화를 식별할 수 있다. 그렇지 않다면, 제어는 잠재적으로 다른 발화를 검출하기 위해 오디오 입력의 모니터링을 계속하기 위해 복귀한다(블록 210). 그렇지 않고, 발화 분류 동작이 제2, 핫워드 프리 발화가 자동화된 어시스턴트 디바이스로 향할 가능성이 있다고 결정하면, 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시가 선점될 수 있고(블록 216), 제2 핫워드 프리 발화에 대한 제2 응답을 생성 및 제시하기 위한 제2 발화 이행 동작이 개시될 수 있다(블록 218).
다양한 유형의 발화, 요청 또는 대화는 다양한 구현예에서 본 명세서에 기술된 기법을 활용할 수 있다. 예를 들어, 미디어 쿼리 및/또는 제어 요청은, 예를 들어, 사용자가 제1 발화를 명확히 하기 위해 제1 발화에 대한 응답을 효과적으로 중단하도록 하기 위해 본 명세서에 설명된 기법을 구현할 수 있다. 대화의 예는 "사용자: OK assistant, play Happy Birthday. 어시스턴트: now playing Happy Birthday by Artist A… 사용자: no, I meant the version by Artist B; 어시스턴트: "OK, now playing Happy Birthday by Artist B…"를 포함할 수 있다. 본 명세서에 기술된 기법은 스마트 홈 디바이스 제어, 알림, 약속, 알람 또는 타이머 설정, 쇼핑 목록과의 인터렉션, 디바이스 제어 또는 일반적 정보 질의하기와 관련하여 사용될 수 있다.
위에서 언급한 바와 같이, 일부 구현예에서, 자동화된 어시스턴트와의 세션 수행과 관련하여 묵음 기반 엔드포인팅을 활용하는 것이 바람직할 수 있다. 그러나, 본 발명은 이에 제한되지 않으며, 다른 메커니즘이 사용될 수 있다. 예를 들어, 일부 구현예에서, 자동 음성 인식이 발화 검출을 시도하기 위해 연속적으로 실행되는 장형 인식이 사용될 수 있다.
그러나, 묵음 기반 엔드포인팅을 사용하는 경우 모니터링 지속시간을 동적으로 제어하여 묵음 기반 엔드포인팅에 도달한 결과 세션이 종료되는 시기를 동적으로 제어하는 것도 바람직할 수 있다. 특히, 응답 제시가 완료된 후 후속 발화를 기다리기 위해 미리 결정된 기간을 제공하는 것이 일부 구현예에서 바람직할 수 있으며, 그 후에 발화가 수신되지 않으면 세션이 종료된다. 일부 구현예에서, 특히 클라우드 기반 서비스와 통신하는 디바이스에서 가청 응답이 제공되는 구현예에서, 응답 지속시간의 계산은 디바이스가 다른 언어 또는 음성을 사용하여 스피치를 합성할 수 있다는 사실 및/또는 TTS(텍스트 음성 변환) 데이터가 클라이언트에 대한 여러 통신 과정에서 스트리밍될 수 있다는 사실로 인해 복잡할 수 있어서, 클라우드 기반 서비스가 원격 디바이스에서 제시되는 응답의 끝을 예측하는데 어려움을 겪을 수 있다.
또한, 후속 발화 이행 동작이 이전의 발화 이행 동작의 결과로 업데이트되는 상태 이전에 클라이언트의 상태를 업데이트하려고 시도할 수 있는 경쟁 조건을 피하기 위해 이러한 환경에서 조기 디바이스 상태 전파를 구현하는 것이 바람직할 수 있다. 이러한 조기 전파는 특히 클라이언트 디바이스가 일부 유형의 요청을 로컬로 이행할 수 있는 환경에서 유용할 수 있으므로 클라이언트 상태 정보가 세션이 끝날 때까지 클라우드 기반 서버에 의해 업데이트되지 않으면 클라우드 기반 서버에 의해 프로세싱된 후속 발화는 후속 발화를 프로세싱하려고 시도할 때 동작할 현재 클라이언트 상태를 갖지 않는다.
예를 들어, 도 6은 일부 구현예에서 사용될 수 있는 동적으로 제어되는 모니터링 지속시간을 사용하는 자동화된 어시스턴트와 사용자 사이에서 수행되는 예시적 대화를 도시한다. 이 구현예에서, 그리고 자동화된 어시스턴트 디바이스에 의해 수신된 발화에 대한 응답으로, 응답은 클라이언트 디바이스에 통신될 뿐만 아니라, 클라이언트 디바이스에 의한 응답의 제시 동안의 제1 시간에 대한 오디오 입력의 모니터링을 개시하기 위한 지시도 통신된다. 그 다음, 제1 기간 후 및 클라이언트 디바이스에 의한 응답의 제시가 완료되기 전에, 클라이언트 디바이스는 응답의 제시 동안의 제2 기간에 대해 오디오 입력의 모니터링을 개시하도록 지시받을 수 있다. 그 다음, 제2 기간 후 및 클라이언트 디바이스에 의한 응답의 제시 완료 후, 클라이언트 디바이스는 제3 기간에 대한 오디오 입력의 모니터링을 개시하도록 지시받을 수 있다. 더욱이, 일부 경우에, 제3 기간의 지속시간은 예를 들어 제시의 끝에서 세션의 끝까지 비교적 일정한 타임아웃 지속시간을 유지하기 위해 클라이언트 디바이스에 의해 응답의 제시가 완료되는 시간에 기초하여 결정될 수 있다.
도 6은 특히 텍스트를 음성으로 응답 표시를 재생하는 동안(화살표 220), 클라우드 기반 어시스턴트 컴포넌트가 주기적으로 "마이크 재개방" 메시지를 클라이언트 디바이스에 전달할 수 있음을 도시하며(화살표 222, 224, 226), 각 메시지에 타임아웃 지속시간을 제공하고, 응답 제시가 아직 완료되지 않은 한 각 타임아웃 지속시간이 끝날 때 효과적으로 메시지를 재발행한다. 따라서, 제1 재개방 마이크 메시지(화살표 222)의 지속기간이 완료되면, 텍스트-음성 응답 제시이 여전히 진행 중이라는 사실로 인해 제2 재개방 마이크 메시지(화살표 224)가 발행된다. 그러나 제2 재개방 마이크 메시지 지속시간이 완료되면 텍스트-음성 응답 제시가 이미 완료되었으므로, 텍스트 끝에서 세션의 종료를 제어하기 위해 적어도 원하는 지속시간인 텍스트-음성 응답 제시의 끝으로부터 전체 지속시간을 제공하기 위해 하나의 추가적 재개방 마이크 메시지(화살표 226)가 발행될 수 있다. 더욱이, 일부 구현예에서, 응답 제시가 임의의 개방 마이크 기간과 관련하여 완료되는지에 관계없이 일관된 타임아웃 지속시간이 달성되도록 응답 제시가 완료된 시간에 기초하여 마지막 메시지의 지속시간을 지정하는 것이 바람직할 수 있다. 그러나, 다른 구현예에서, 상이한 조합된 지속기간이 사용될 수 있고(예를 들어, 각각의 메시지에 대한 디폴트 지속기간보다 크거나 더 작음), 또 다른 구현예에서는 지속기간의 조정이 수행되지 않을 수 있다.
구체적으로, 예를 들어, 각각의 재개방 마이크 메시지에 대해 동일한 지속 시간 X를 사용하고 세션을 종료하는 것이 바람직하다고 가정하면, 도 6은 제2 메시지와 연관된 지속시간 X의 나머지 부분을 나타내는 지속시간 A를 도시하고, B는 제2 메시지와 연관된 지속시간 X와 겹치는 제시 응답의 부분을 나타낸다. 따라서 일부 구현예에서, 응답 제시의 끝으로부터의 결합된 지속기간이 실질적으로 X와 동일하도록 제3 메시지(226)에서 X-A와 실질적으로 동일한 지속기간을 지정하는 것이 바람직할 수 있다.
도 7은 클라이언트 디바이스와 인터렉션하고 일부 구현예와 일치하는 타임아웃 지속시간을 동적으로 제어하기 위해 클라우드 기반 서비스에 의해 수행되는 예시적 동작 시퀀스(240)를 도시한다. 시퀀스(240)는 예를 들어, 하나 이상의 프로세서를 사용하고 도 1에 도시된 다양한 컴포넌트 중 하나 이상을 사용하여 구현될 수 있다. 시퀀스(240)는 또한 본 명세서에서 추가로 설명되는 바와 같이 클라이언트 상태를 클라우드 기반 서비스로 전파하는데 사용될 수 있다.
특히, 발화는 클라이언트 디바이스로부터 수신될 수 있고(블록 242) 응답이 생성되어 클라이언트 디바이스로 스트리밍될 수 있다(블록 244). 또한, 이때 마이크의 즉각적인 마이크의 재개방을 미리 결정된 지속시간 또는 기간, 예를 들어 디폴트 기간 동안 요청할 수 있다. 그 후 클라이언트에 대한 응답의 스트리밍을 진행할 수 있다(블록 246). 스트리밍 동안, 클라우드 기반 서버는 클라이언트의 다양한 메시지에 응답할 수 있으며, 클라우드 기반 서비스는 세션의 타임아웃 지속시간을 추가로 모니터링할 수 있다. 예를 들어, 클라우드 기반 서비스는 클라이언트 상태 업데이트의 수신을 모니터링할 수 있으며(블록 248), 이는 클라이언트 상태가 클라우드 기반 서비스에서 업데이트되어 응답 제시 동안 또는 응답 제시가 완료된 이후에 수신된 임의의 추가 발화가 클라이언트의 현재 상태에 기초하여 이행될 수 있도록 한다. 이러한 기능은 유용할 수 있는데 특히, 임의의 후속 발화가 초기 발화에 의존할 때(예를 들어, 초기 발화에 의해 업데이트되는 상태에 의존한다는 면에서), 응답의 제시를 완료하기 전에 업데이트된 클라이언트 상태의 전파가 후속 발화에 대한 임의의 응답의 생성이 업데이트된 클라이언트 상태에 기초할 수 있도록 한다.
또한, 클라우드 기반 서비스는 타임아웃 지속시간의 끝에 도달하는지 모니터링할 수 있다(블록 252). 타임아웃에 도달하면, 클라우드 기반 서비스는 예를 들어 제시를 완료했음을 나타내는 메시지를 클라이언트 디바이스로부터 수신한 결과로서 응답 제시의 완료가 확인되었는지 여부를 결정할 수 있다(블록 254). 그렇지 않다면, 다른 디폴트 기간 동안 마이크를 재개방하기 위한 새로운 요청이 발행될 수 있고(블록 256), 응답의 스트리밍이 그에 따라 진행된다.
블록 254로 돌아가서, 제시의 완료가 확인되면, 클라이언트 디바이스로부터의 통신에서 대기 지속시간이 제공되었는지 여부에 대한 결정이 이루어질 수 있다(블록 256). 그러한 통신에서, 예를 들어, 클라이언트 디바이스는 클라이언트 디바이스가 제시의 완료(도 6의 지속시간 A에 대응함) 이후 응답을 이미 대기한 지속시간 또는 시간량의 표시를 제공할 수 있다. 대안적으로, 클라이언트 디바이스는 제시가 이전의 디폴트 기간(도 6의 지속기간 B에 대응함)과 중첩된 지속시간 또는 시간량의 표시를 제공할 수 있다. 또 다른 대안으로서, 클라이언트 디바이스는 지속시간 A 또는 B 중 하나 이상이 그로부터 결정될 수 있도록 제시가 완료되었을 때를 나타내는 타임스탬프를 제공할 수 있다. 또한, 통신 비용이 클라우드 기반 서비스와 클라이언트 디바이스 간에 메시지를 통신하는데 필요한 시간을 고려하기 위해 지속시간 계산에 포함될 수 있는 것이 인식될 것이다.
클라이언트 디바이스가 그러한 정보 중 어느 것도 제공하지 않았다면, 디폴트 기간을 사용하여 다른 재개방 마이크 요청이 발행될 수 있고(블록 260), 그 후에 다른 발화가 검출되거나 세션이 종료된다. 그러나, 클라이언트 디바이스가 임의의 그러한 정보를 제공했다면, 예를 들어 제시가 완료된 이후의 시간량을 고려하기 위해 디폴트 기간이 먼저 조정될 수 있어서(블록 262), 메시지에서 지정된 지속시간이 디폴트 기간과 실질적으로 동일한 결합된 지속시간을 제공하도록 한다.
또한 일부 구현예에서, 자동화된 어시스턴트에 의해 수신되었지만 자동화된 어시스턴트에 대한 발화로서 궁극적으로 거부된 후속 발화가 사용자와의 세션을 종료하는데 사용되는 타임아웃 지속시간의 연장을 트리거할지 여부를 제어하는 것이 바람직할 수 있다. 예를 들어, 발화가 자동화된 어시스턴트에 대한 것이 아닌 것으로 결정된 경우, 세션과 연관된 사용자가 아닌 다른 사람이 말한 것, 응답 제시 자체의 일부 또는 기타 배경 소음이 있는 경우 발화는 거부될 수 있다. 예를 들어, 도 8 및 9에 도시된 바와 같이, 거부된 발화로 인해 응답 제시가 종료되기 전 또는 이후에 발화가 시작되었는지 여부에 기초하여 응답 제시가 종료될 때 추가 재개방 마이크 메시지가 발행되는지 여부를 제어하는 것이 바람직할 수 있다. 도 8에서, 예를 들어, 텍스트-음성 응답 제시(화살표 270)는 지정된 타임아웃 지속시간(화살표 272)을 갖는 재개방 메시지와 시간이 겹치는 것으로 도시되어 있다. 도 8에서 응답 제시가 완료되기 전에 새로운 발화가 수신되고, 도 9에서 응답 제시가 완료된 후에 새로운 발화가 수신된다. 전자의 경우 제2 재개방 마이크 메시지가 발행될 수 있지만 후자의 경우 새 메시지가 발행되지 않을 수 있다. 예를 들어, 클라이언트 디바이스 또는 클라우드 기반 서비스에서 구현되는 추적 로직은 도 10의 일련의 동작(280)에 의해 도시되며, 여기서 타임아웃 지속시간의 만료(블록 282)에 따라 거부된 발화가 타임아웃 기간 동안 수신되었는지(블록 284), 그렇다면 거부된 발화가 응답 제시의 완료 전에 수신되었는지 여부(블록 286)에 관한 결정이 이루어질 수 있다. 두 조건이 모두 참이면, 다른 타임아웃 기간이 요청될 수 있고(블록 288), 어느 하나의 조건이 참이 아니면, 더 이상 대기가 요구되지 않고 세션이 종료될 수 있다(블록 290).
도 11은 본 명세서에 기술된 기능의 전부 또는 일부를 구현하기에 적절한 예시적 컴퓨팅 디바이스(300)의 블록도이다. 컴퓨팅 디바이스(300)는 일반적으로 적어도 하나의 프로세서(302)를 포함하며, 버스 서브시스템(304)을 통해 다수의 주변 디바이스들과 통신한다. 이들 주변 디바이스들은 예를 들면, 메모리 서브시스템(308) 및 파일 저장 서브시스템(310)을 포함하는 저장 서브시스템(306), 사용자 인터페이스 입력 디바이스(312), 사용자 인터페이스 출력 디바이스(314) 및 네트워크 인터페이스 서브시스템(316)을 포함할 수 있다. 입력 및 출력 디바이스는 컴퓨팅 디바이스(300)와 사용자 인터렉션을 하게 한다. 네트워크 인터페이스 서브시스템(316)은 외부 네트워크에 대한 인터페이스를 제공하며, 다른 컴퓨팅 디바이스들의 대응하는 인터페이스 디바이스들과 연결된다.
사용자 인터페이스 입력 디바이스(312)는 키보드, 마우스, 트랙볼, 터치패드 또는 그래픽 태블릿, 스캐너, 디스플레이에 통합된 터치스크린과 같은 포인팅 디바이스, 음성 인식 시스템, 마이크로폰과 같은 오디오 입력 디바이스 및/또는 다른 유형의 입력 디바이스를 포함한다. 일반적으로, 용어 “입력 디바이스”의 사용은 정보를 컴퓨팅 디바이스(300) 또는 통신 네트워크에 입력하기 위한 모든 가능한 유형의 디바이스들과 방식들을 포함하도록 의도된다.
사용자 인터페이스 출력 디바이스(314)는 디스플레이 서브시스템, 프린터, 팩스 기계 또는 오디오 출력 디바이스와 같은 비-시각적 디스플레이를 포함할 수 있다. 디스플레이 서브시스템은 CRT, LCD와 같은 평면 패널 디바이스, 프로젝션 디바이스 또는 시각적 이미지를 생성하기 위한 일부 기타 메커니즘을 포함할 수 있다. 또한, 디스플레이 서브시스템은 오디오 출력 디바이스와 같은 비-시각적 디스플레이를 제공할 수 있다. 일반적으로, 용어 “출력 디바이스”의 사용은 정보를 컴퓨팅 디바이스(300)로부터 사용자에게 또는 다른 기계 또는 컴퓨팅 디바이스에 정보를 출력하기 위한 모든 가능한 유형의 디바이스들과 방식들을 포함하도록 의도된다.
저장 서브시스템(306)은 본 명세서에 기술된 일부 또는 전부의 모듈들의 기능을 제공하기 위한 프로그래밍 및 데이터 구조를 저장한다. 예를 들면, 저장 서브시스템(306)은 도 5, 7 및/또는 10에 도시된 다양한 시퀀스의 선택된 양태들을 수행하기 위한 로직을 포함할 수 있다.
이들 소프트웨어 모듈들은 일반적으로 프로세서(302) 단독으로 또는 다른 프로세서들과의 조합에 의해 실행된다. 저장 서브시스템(306)에서 사용된 메모리(308)는 프로그램 실행 중에 명령어들 및 데이터의 저장을 위한 메인 RAM(318) 및 고정된 명령어들이 저장되는 ROM(420)을 포함하는 다수의 메모리들을 포함할 수 있다. 파일 저장 서브시스템(310)은 프로그램 및 데이터 파일에 대한 영구적 저장을 제공할 수 있고, 하드 디스크 드라이브, 연관된 이동식 매체와 함께인 플로피 디스크 드라이브, CD-ROM 드라이브, 광학 드라이브 또는 이동식 매체 카트리지들을 포함할 수 있다. 특정 구현예들의 기능을 구현하는 모듈들은 파일 저장 서브시스템(310)에 의해 저장 서브시스템(306)에 또는 프로세서(들)(302)에 의해 액세스가능한 다른 기계에 저장될 수 있다.
버스 서브시스템(304)은 의도된 대로 컴퓨팅 디바이스(300)의 다양한 컴포넌트들 및 서브시스템들이 서로 통신하게 하기 위한 메커니즘을 제공한다. 버스 서브시스템(304)이 개략적으로 단일의 버스로 도시되었지만, 버스 서브시스템의 대안적 구현예들은 다수의 버스들을 사용할 수 있다.
컴퓨팅 디바이스(300)는 모바일 디바이스, 스마트폰, 태블릿, 랩톱 컴퓨터, 데스크톱 컴퓨터, 웨어러블 컴퓨터, 프로그래머블 전자 디바이스, 셋톱 박스, 전용 어시스턴트 디바이스, 워크스테이션, 서버, 컴퓨팅 클러스터, 블레이드 서버, 서버 팜 또는 임의의 기타 데이터 프로세싱 시스템 또는 컴퓨팅 디바이스를 포함하는 다양한 유형일 수 있다. 컴퓨터 및 네트워크의 끊임없이 변화하는 특성으로 인해, 도 11에 도시된 컴퓨팅 디바이스(300)는 일부 구현예들을 설명하기 위한 목적의 특정 예로서만 의도된다. 컴퓨팅 디바이스(300)의 많은 다른 구성들이 도 11에 도시된 컴퓨팅 디바이스(300)보다 많거나 적은 컴포넌트들을 가질 수 있다.
본 명세서에서 논의된 시스템들이 사용자들에 관한 개인 정보를 수집하거나 또는 개인 정보를 사용하는 경우들에 있어서, 사용자들에게 프로그램들 또는 구성들이 사용자 정보(예를 들면, 사용자의 소셜 네트워크, 소셜 액션들 또는 활동들, 직업, 사용자의 선호들 또는 사용자의 현재 지리적 위치)에 관한 정보를 수집할 것인지 여부를 제어할, 사용자와 더 관련된 콘텐츠 서버로부터의 콘텐츠를 수신할지 및/또는 어떻게 수신할지 제어할 기회가 제공될 수 있다. 추가로, 특정 데이터는 그것이 저장되거나 사용되기 전에 하나 이상의 다양한 방식들로 취급되어, 개인적으로 식별가능한 정보는 제거된다. 예를 들면, 사용자의 신원은 사용자에 관한 개인적으로 식별가능한 정보가 결정될 수 없도록 취급되거나 또는 사용자의 지리적 위치는 위치 정보가 획득된 곳에서 일반화되어(시, 우편번호 또는 주 수준으로), 사용자의 특정한 지리적 위치가 결정될 수 없도록 한다. 따라서, 사용자는 사용자에 관한 정보가 어떻게 수집되는지 그리고 사용되는지에 관한 제어를 가질 수 있다.
몇몇 구현예가 본 명세서에서 기술되고 도시되었지만, 기능을 수행하고 및/또는 결과 및/또는 본 명세서에 기술된 하나 이상의 이점을 획득하기 위한 다양한 다른 수단들 및/또는 구조들이 활용될 수 있으며, 그러한 변형들 및/또는 수정들은 본 명세서에서 기술된 구현예들의 범위 내에 있는 것으로 간주된다. 보다 일반적으로, 본 명세서에 기술된 모든 파라미터, 치수, 재료 및 구성은 예시적인 것으로 의도되었으며, 실제 파라미터, 치수, 재료 및/또는 구성은 교시를 사용되는 특정 애플리케이션 또는 애플리케이션들에 의존할 것이다. 통상의 기술자는 일상적인 실험만을 사용하여 본 명세서에 기술된 특정 구현예들에 대한 많은 균등물들을 인식할 수 있거나 또는 확인할 수 있을 것이다. 따라서, 전술한 구현예들은 단지 예일 뿐이며, 첨부된 청구범위 및 그 균등물의 범위 내에서 구현은 구체적으로 기술되고 청구된 것과 다르게도 실시될 수 있음을 이해해야 한다. 본 개시의 구현은 본 명세서에 기술된 각각의 개별적인 구성, 시스템, 물품, 재료, 키트 및/또는 방법에 관한 것이다. 또한 구성, 시스템, 물품, 재료, 키트 및/또는 방법이 상호 불일치하지 않는다면, 그러한 두 개 이상의 구성, 시스템, 물품, 재료, 키트 및/또는 방법의 모든 조합이 본 발명의 범위 내에 포함된다.

Claims (22)

  1. 컴퓨터로 구현되는 방법으로서,
    자동화된 어시스턴트 디바이스로, 제1 발화에 대한 제1 응답의 제시 동안 오디오 입력을 모니터링하는 단계, 상기 오디오 입력을 모니터링하는 단계는 상기 제1 응답의 제시 동안 말한 제2, 핫워드 프리 발화와 연관된 오디오 데이터를 생성하는 것을 포함하며;
    상기 제2, 핫워드 프리 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지를 결정하기 위해 상기 제1 응답을 제시하는 동안 상기 오디오 데이터에 대한 발화 분류 동작을 개시하는 단계;
    상기 발화 분류 동작으로부터 상기 제2, 핫워드 프리 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지 결정하는 것에 응답하여, 상기 제2, 핫워드 프리 발화에 대한 제2 응답을 생성하기 위해 발화 이행 동작을 개시하는 단계; 및
    상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점하는 단계를 포함하는, 방법.
  2. 청구항 1에 있어서, 상기 발화 분류 동작을 개시하는 단계는 주어진 발화가 자동화된 어시스턴트로 향할 가능성이 있는지 여부의 표시를 출력하도록 트레이닝된 신경 네트워크 기반 분류기를 포함하는 발화 분류 서비스에 오디오 데이터를 제공하는 것을 포함하는, 방법.
  3. 청구항 2에 있어서, 상기 발화 분류 서비스는 상기 제2, 핫워드 프리 발화의 전사를 획득하고, 상기 오디오 데이터와 연관된 제1, 음향 표현을 생성하고, 상기 전사와 연관된 제2, 시맨틱 표현을 생성하고 그리고 상기 표시를 생성하기 위해 신경 네트워크 기반 분류기에 상기 제1 및 제2 표현을 제공하도록 구성되는, 방법.
  4. 청구항 3에 있어서, 상기 제1 및 제2 표현은 각각 제1 및 제2 피처 벡터를 포함하고, 상기 발화 분류 서비스는 상기 제1 및 제2 피처 벡터를 연결함으로써 상기 제1 및 제2 표현을 상기 신경 네트워크 기반 분류기에 제공하도록 구성되는, 방법.
  5. 청구항 2 내지 4 중 어느 한 항에 있어서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 분류 서비스는 상기 자동화된 어시스턴트 디바이스 상에 상주하는, 방법.
  6. 청구항 2 내지 4 중 어느 한 항에 있어서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 분류 서비스는 상기 자동화된 어시스턴트 디바이스로부터 원격에 있고 상기 자동화된 어시스턴트 디바이스와 통신하는, 방법.
  7. 임의의 선행하는 청구항에 있어서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 이행 동작을 개시하는 단계는 상기 자동화된 어시스턴트 디바이스 상에서 상기 발화 이행 동작을 프로세싱하는 것을 포함하는, 방법.
  8. 임의의 선행하는 청구항에 있어서, 상기 자동화된 어시스턴트 디바이스는 클라이언트 디바이스이고, 상기 발화 이행 동작을 개시하는 단계는 상기 자동화된 어시스턴트 디바이스로부터 원격에 있고 상기 자동화된 어시스턴트 디바이스와 통신하는 서비스에 대해 상기 발화 이행 동작을 개시하는 것을 포함하는, 방법.
  9. 임의의 선행하는 청구항에 있어서, 상기 제1 응답의 제시는 오디오 응답의 재생을 포함하고, 상기 방법은 상기 오디오 데이터로부터 상기 오디오 응답의 적어도 일부를 필터링하기 위해 상기 오디오 데이터에 대해 음향 반향 제거를 수행하는 단계를 더 포함하는, 방법.
  10. 임의의 선행하는 청구항에 있어서, 상기 제2, 핫-프리 발화가 상기 제1 발화와 동일한 화자와 연관되는지 여부를 식별하기 위해 상기 오디오 데이터에 대해 화자 식별을 수행하는 단계를 더 포함하는, 방법.
  11. 임의의 선행하는 청구항에 있어서, 상기 제2, 핫워드 프리 발화는 제1 발화에 의존하고, 상기 방법은 상기 제2 응답의 생성이 업데이트된 클라이언트 상태에 기초하도록 상기 제1 응답의 제시를 완료하기 전에 상기 제1 발화에 응답하여 상기 자동화된 어시스턴트 디바이스에 대한 업데이트된 클라이언트 상태를 전파하는 단계를 더 포함하는, 방법.
  12. 임의의 선행하는 청구항에 있어서, 상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점한 후:
    상기 제2 응답의 제시 동안 상기 오디오 입력을 모니터링하는 단계;
    상기 제2 응답의 제시 동안 모니터링 지속시간을 동적으로 제어하는 단계; 및
    상기 모니터링 지속시간이 완료되면 자동화된 어시스턴트 세션을 자동으로 종료하는 단계를 더 포함하는, 방법.
  13. 청구항 12에 있어서, 상기 모니터링 지속시간을 동적으로 제어하는 단계는 제1 기간 후에 상기 제2 응답의 제시가 완료되지 않았다는 결정에 응답하여 제2 기간 동안 상기 모니터링 지속시간을 자동으로 연장하는 단계를 더 포함하는, 방법.
  14. 청구항 13에 있어서, 상기 제2 기간 동안의 상기 모니터링 지속시간을 자동으로 연장하는 단계는 상기 제2 응답의 제시의 완료로부터 계산된 지속시간에 기초하여 상기 제2 기간을 결정하는 단계를 포함하는, 방법.
  15. 청구항 1에 있어서, 상기 자동화된 어시스턴트 디바이스 상의 제1 응답의 제시를 상기 자동화된 어시스턴트 디바이스 상의 제2 응답의 제시로 선점하는 단계는 상기 제1 응답의 제시를 중단하는 단계를 포함하는, 방법.
  16. 청구항 1에 있어서, 상기 제1 응답의 제시를 선점한 후에 상기 제1 응답의 제시를 계속하는 단계를 더 포함하는, 방법.
  17. 컴퓨터로 구현되는 방법으로서,
    자동화된 어시스턴트 디바이스에 의해 수신된 발화에 응답하여, 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 동안의 제1 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 것을 포함하는 응답을 상기 자동화된 어시스턴트 디바이스에 통신하는 단계;
    상기 제1 기간 이후 및 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 완료 전에, 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 동안의 제2 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 단계;
    상기 제2 기간 이후 및 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시 완료 후에, 상기 자동화된 어시스턴트 디바이스에 의해 상기 응답의 제시가 완료된 시간에 기초하여 제3 기간의 지속시간을 결정하는 것을 포함하여, 제3 기간에 대해 오디오 입력의 모니터링을 개시하도록 상기 자동화된 어시스턴트 디바이스에 지시하는 단계; 및
    상기 제3 기간이 완료되면 자동화된 어시스턴트 세션을 자동으로 종료하는 단계를 포함하는, 방법.
  18. 청구항 17에 있어서, 상기 발화는 핫워드 프리 발화이고, 상기 방법은 상기 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있는지 결정하기 위해 상기 발화에 대해 발화 분류 동작을 수행하는 단계를 더 포함하고, 상기 응답을 상기 자동화된 어시스턴트 디바이스에 통신하는 단계는 상기 발화가 상기 자동화된 어시스턴트 디바이스로 향할 가능성이 있다는 것을 상기 발화 분류 동작으로부터 결정하는 것에 응답하여 수행되는, 방법.
  19. 청구항 17에 있어서, 상기 발화는 제1 발화이고, 상기 방법은 상기 제2 기간 동안 상기 자동화된 어시스턴트 디바이스에 의해 수신된 제2 발화에 응답하여, 상기 제2 발화가 상기 자동화된 어시스턴트 디바이스로 향하지 않는다고 결정하는 단계를 더 포함하고, 상기 제3 기간에 대해 오디오 입력의 모니터링을 개시하도록 자동화된 어시스턴트 디바이스에 지시하는 단계는 상기 자동화된 어시스턴트 디바이스에 의한 응답의 제시가 완료되기 전에 상기 제2 발화가 수신된 경우에만 수행되는, 방법.
  20. 하나 이상의 프로세서들 및 상기 하나 이상의 프로세서들과 동작가능하게 연결된 메모리를 포함하는 시스템으로서, 상기 메모리는 명령어들을 포함하며, 상기 명령어들은 하나 이상의 프로세서들에 의한 상기 명령어들의 실행에 응답하여, 상기 하나 이상의 프로세서들로 하여금 청구항 1 내지 19 중 어느 한 항의 방법을 수행하게 하는, 시스템.
  21. 자동화된 어시스턴트 디바이스로서,
    오디오 입력 디바이스; 및
    상기 오디오 입력 디바이스에 연결되고 로컬적으로 저장된 명령어들을 실행하는 하나 이상의 프로세서들을 포함하며, 상기 명령어들은 상기 하나 이상의 프로세서들로 하여금 청구항 1 내지 16 중 어느 한 항의 방법을 수행하게 하는, 자동화된 어시스턴트 디바이스.
  22. 명령어들을 포함하는 적어도 하나의 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 하나 이상의 프로세서에 의한 명령어들의 실행에 응답하여, 상기 하나 이상의 프로세서로 하여금 청구항 1 내지 19 중 어느 한 항의 방법의 단계를 수행하게 하는 것을 특징으로 하는 적어도 하나의 비일시적 컴퓨터 판독가능 매체.
KR1020227042961A 2020-05-15 2020-05-15 자동화된 어시스턴트 응답 제시의 핫워드 프리 선점 KR20230007502A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2020/033113 WO2021230878A1 (en) 2020-05-15 2020-05-15 Hot-word free pre-emption of automated assistant response presentation

Publications (1)

Publication Number Publication Date
KR20230007502A true KR20230007502A (ko) 2023-01-12

Family

ID=70977583

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227042961A KR20230007502A (ko) 2020-05-15 2020-05-15 자동화된 어시스턴트 응답 제시의 핫워드 프리 선점

Country Status (6)

Country Link
US (2) US11756533B2 (ko)
EP (1) EP4143822A1 (ko)
KR (1) KR20230007502A (ko)
CN (1) CN115552517A (ko)
AU (2) AU2020447125B2 (ko)
WO (1) WO2021230878A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12026471B2 (en) * 2021-04-16 2024-07-02 Accenture Global Solutions Limited Automated generation of chatbot

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0235349A (ja) 1988-07-23 1990-02-05 Matsushita Electric Works Ltd 電気化学式センサ
DE19946022A1 (de) * 1999-09-25 2001-04-26 Bosch Gmbh Robert Steuerungsvorrichtung und -verfahren zur Festlegung einer Informationsausgabe-Rangfolge mehrerer Informationsquellen, insbesondere Audioquellen
US8185400B1 (en) 2005-10-07 2012-05-22 At&T Intellectual Property Ii, L.P. System and method for isolating and processing common dialog cues
US8608559B2 (en) * 2008-09-24 2013-12-17 Joshua Trading, Llc Customer relationship management systems and methods for use with electronic gaming machines
US9570086B1 (en) * 2011-11-18 2017-02-14 Google Inc. Intelligently canceling user input
US9221385B2 (en) * 2012-05-18 2015-12-29 Texas Emergency Network, LLC Emergency digital sign network with video camera, methods of operation, and storage medium
US10726831B2 (en) 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US10339917B2 (en) * 2015-09-03 2019-07-02 Google Llc Enhanced speech endpointing
JP6159492B1 (ja) * 2016-03-24 2017-07-05 楽天株式会社 情報処理システム、情報処理方法、及び情報処理プログラム
US10311872B2 (en) 2017-07-25 2019-06-04 Google Llc Utterance classifier
US10966023B2 (en) * 2017-08-01 2021-03-30 Signify Holding B.V. Lighting system with remote microphone
US11164066B1 (en) * 2017-09-26 2021-11-02 Google Llc Generating parameter values for recurrent neural networks
US10410654B2 (en) * 2017-10-27 2019-09-10 Bestechnic (Shanghai) Co., Ltd. Active noise control headphones
EP4354295A3 (en) * 2020-02-04 2024-06-05 Afiniti, Ltd. Techniques for error handling in a task assignment system with an external pairing system

Also Published As

Publication number Publication date
AU2020447125A1 (en) 2022-12-01
AU2020447125B2 (en) 2023-08-31
US11756533B2 (en) 2023-09-12
WO2021230878A1 (en) 2021-11-18
CN115552517A (zh) 2022-12-30
US20210358483A1 (en) 2021-11-18
AU2023274128A1 (en) 2023-12-14
EP4143822A1 (en) 2023-03-08
US20230395066A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
US11823659B2 (en) Speech recognition through disambiguation feedback
US10930266B2 (en) Methods and devices for selectively ignoring captured audio data
US10803869B2 (en) Voice enablement and disablement of speech processing functionality
KR102523982B1 (ko) 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트-특정 핫 워드
US11423885B2 (en) Utilizing pre-event and post-event input streams to engage an automated assistant
JP7243625B2 (ja) 情報処理装置、及び情報処理方法
EP3525204A1 (en) Method and apparatus to provide comprehensive smart assistant services
CN111344780A (zh) 基于上下文的设备仲裁
JP6025785B2 (ja) 自然言語理解のための自動音声認識プロキシシステム
CN112292724A (zh) 用于调用自动助理的动态和/或场境特定热词
US11579841B1 (en) Task resumption in a natural understanding system
US11862153B1 (en) System for recognizing and responding to environmental noises
US11605387B1 (en) Assistant determination in a skill
US11694682B1 (en) Triggering voice control disambiguation
AU2023274128A1 (en) Hot-word free pre-emption of automated assistant response presentation
KR20230062612A (ko) 자동화된 어시스턴트를 위한 자연스러운 대화 활성화
JP2024510698A (ja) アシスタントコマンドの文脈的抑制
US11914923B1 (en) Computer system-based pausing and resuming of natural language conversations
US20240096316A1 (en) Multi-assistant device control
US12033632B2 (en) Context-based device arbitration