KR101253104B1 - 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 - Google Patents

패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 Download PDF

Info

Publication number
KR101253104B1
KR101253104B1 KR1020090081936A KR20090081936A KR101253104B1 KR 101253104 B1 KR101253104 B1 KR 101253104B1 KR 1020090081936 A KR1020090081936 A KR 1020090081936A KR 20090081936 A KR20090081936 A KR 20090081936A KR 101253104 B1 KR101253104 B1 KR 101253104B1
Authority
KR
South Korea
Prior art keywords
sentence
semantic expression
expression
pattern
class
Prior art date
Application number
KR1020090081936A
Other languages
English (en)
Other versions
KR20110024075A (ko
Inventor
윤승
김승희
박준
김정세
이일빈
이수종
김상훈
박상규
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020090081936A priority Critical patent/KR101253104B1/ko
Priority to US12/622,060 priority patent/US8370130B2/en
Publication of KR20110024075A publication Critical patent/KR20110024075A/ko
Application granted granted Critical
Publication of KR101253104B1 publication Critical patent/KR101253104B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/40Data acquisition and logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 예제 기반 의미 표현 패턴을 이용하여 입력 음성에 대응하는 의미 표현을 출력하는 음성 이해 기법에 관한 것으로, 입력된 음성에 대한 음성 인식 결과에 따라 형태소 분석을 수행한 후, 각종 부가 정보를 인식 및 추출하여 저장하고, 구문을 분석한 후에, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 음성 인식 결과를 출력하거나 문장을 생성하여 출력하거나 검색된 의미 표현과 부가 정보를 출력함으로써, 음성 인식 응용 시스템에 최적화된 의미 표현을 출력할 수 있는 것이다.
음성 인식, 음성 이해, 의미 표현

Description

패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법{DATABASE BUILDING APPARATUS AND ITS METHOD, IT USED SPEECH UNDERSTANDING APPARATUS AND ITS METHOD}
본 발명은 예제 기반 의미 표현 패턴을 이용하여 음성 인식 결과를 출력하는 기법에 관한 것으로, 더욱 상세하게는 예제 기반 의미 표현 패턴을 구축하여 입력 음성에 대해 사용자 의도가 반영된 음성 인식 결과를 출력하는데 적합한 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법에 관한 것이다.
본 발명은 지식경제부의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-S-019-02, 과제명: 휴대형 한/영 자동 통역 기술개발].
잘 알려진 바와 같이, 음성 인식 응용 시스템은 예를 들면, 고립어 음성 인식기가 채용된 응용 시스템, 연속어 음성 인식기가 채용된 응용 시스템 등으로 분류할 수 있다.
이러한 음성 인식 응용 시스템 중에서 고립어 음성 인식기가 채용된 응용 시 스템의 경우 대개 단순한 명령어 위주의 소규모 음성 인식기가 적용되기 때문에, 그 응용 범위가 제한적이고, 음성 인식 오류도 비교적 단순한 유형으로 나타나 이의 처리에 어려움을 겪지 않는 것이 일반적이다.
그러나, 음성 인식 응용 시스템 중에서 연속어 음성 인식기가 채용된 응용 시스템의 경우 다양한 응용 분야에 쓰이고, 그 인식 대상도 매우 넓어 시스템의 성능이 만족스럽지 못한 경우가 많은데, 이는 근본적으로 음성 인식 기술에 한계가 존재하기 때문이다.
특히, 연속어 음성 인식에 적용되는 언어 모델링 기술의 경우 FSN(finite state network) 또는 CFG(context-free grammar)와 같은 규칙 기반의 언어 모델과 N-Gram 기반의 언어 모델로 나눌 수 있는데, 규칙 기반 언어 모델의 경우 사용자의 다양한 발화를 충분히 모델링하기 어려워 비교적 제한된 분야에만 적용할 수 있다는 단점이 있는데 반해, N-Gram 기반 언어 모델의 경우 다양한 사용자 발화를 모델링할 수 있어 보다 넓은 응용 범위를 가진다.
그러나, 훈련에 사용된 말뭉치의 규모가 충분하고, 도메인에 최적화된 말뭉치라면 전반적으로 사용자가 의도한 발화와 유사한 음성 인식 결과를 출력할 수 있으나 실제로는 응용 분야마다 이러한 최적화된 말뭉치를 구축한다는 것은 불가능에 가까운 일이므로 현실적으로 N-Gram 언어 모델을 채용한 음성 인식 결과는 불완전한 경우가 많다.
이에 따른 오류가 발생할 경우 음성 인식 응용 시스템은 그 처리에 매우 어려움이 있는데, 예를 들면, 한단어만 틀리더라도 응용 시스템의 하나인 자동 통역 시스템의 경우 사용자의 의도와 전혀 다른 번역 결과를 내놓을 수 있으며 또 다른 응용 시스템의 하나인 음성 대화 시스템의 경우 대화 관리자에서 이러한 오류를 그대로 받아들이게 될 경우 처리 오류를 일으키거나 아예 처리가 불가능한 경우가 발생한다.
이러한 오류가 발생할 경우 사용자는 이의 해결을 위해 정확한 인식 결과가 출력될 때까지 계속해서 재발성을 해야 하기 때문에, 사용자 만족도가 크게 떨어진다는 문제가 생기게 되며, 심지어 음성 인식 결과에 오류가 있을 때는 물론이고 극단적으로는 정확한 인식 결과가 출력되었더라도 해당 발화에 대한 대비가 사전에 되어 있지 않을 경우 역시 시스템의 처리에 오류가 나타나는 상황이 발생할 수 있어 이에 대한 대비가 필요하지만, 현재 이를 해결할 수 있는 대응 기술은 존재하지 않는 실정이다.
상술한 바와 같이 음성 인식 응용 시스템에서는 사용자가 발화한 내용 그대로를 인식하는 것이 중요한 것이 아니라, 사용자가 의도한 바를 시스템이 처리할 수 있도록 음성 인식 결과를 출력하는 것이 상대적으로 더 중요하며, 사용자가 의도한 바를 반영한 음성 인식 결과를 출력하는 기법의 개발이 절실히 요구된다.
이에 따라, 본 발명은 입력 음성에 대응하는 말뭉치에 대해 기 구축된 예제 기반 의미 표현 패턴과 부가 정보를 이용하여 사용자의 의도가 반영된 의미 표현을 출력할 수 있는 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장 치 및 그 방법을 제공하고자 한다.
또한, 본 발명은 예제 기반 의미 표현 패턴을 이용하여 용이한 처리를 위해 보정된 음성 인식 결과를 출력할 수 있는 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법을 제공하고자 한다.
본 발명의 일 실시 예의 일 양태에 따르면, 관용어 사전을 참조하여 입력되는 말뭉치를 예제 문장으로 분할하고, 상기 분할된 예제 문장에 대한 형태소 분석과 구문 분석을 수행하는 문장 분석부와, 상기 형태소 분석과 상기 구문 분석을 수행한 결과를 이용하여 상기 예제 문장에 대한 각 층위를 기술하는 층위 기술부와, 시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술된 상기 예제 문장에 대한 클래스 변환을 수행하는 클래스 변환부와, 상기 클래스 변환이 수행된 상기 예제 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현 패턴을 결정하고, 상기 결정된 의미 표현 패턴을 데이터베이스화하여 저장하는 의미 표현 패턴 결정부를 포함하는 패턴 데이터베이스화 장치가 제공된다.
바람직하게는, 상기 문장 분석부는, 상기 형태소 분석을 통해 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하고, 상기 구문 분석을 통해 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 패턴 데이터베이스화 장치가 제공된다.
바람직하게는, 상기 층위 기술부는, 괄호 치기 방식으로 상기 각 층위를 기 술하는 패턴 데이터베이스화 장치가 제공된다.
바람직하게는, 상기 클래스 변환부는, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사를 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타를 이용하여 클래스화하는 패턴 데이터베이스화 장치가 제공된다.
바람직하게는, 상기 부가 정보는, 상, 양태, 시제, 문형 중 적어도 어느 하나의 정보인 패턴 데이터베이스화 장치가 제공된다.
본 발명의 일 실시 예의 다른 양태에 따르면, 관용어 사전을 참조하여 입력되는 말뭉치를 예제 문장으로 분할하고, 상기 분할된 예제 문장에 대한 형태소 분석과 구문 분석을 수행하는 단계와, 상기 형태소 분석과 상기 구문 분석을 수행한 결과를 이용하여 상기 예제 문장에 대한 각 층위를 기술하는 단계와, 시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술된 상기 예제 문장에 대한 클래스 변환을 수행하는 단계와, 상기 클래스 변환이 수행된 상기 예제 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현 패턴을 결정하는 단계와, 상기 결정된 의미 표현 패턴을 데이터베이스화하여 저장하는 단계를 포함하는 패턴 데이터베이스화 방법이 제공된다.
바람직하게는, 상기 형태소 분석과 구문 분석을 수행하는 단계는, 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하는 상기 형태소 분석이 수행되고, 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 상기 구문 분석이 수행되는 패턴 데이터베이스화 방법이 제공된다.
바람직하게는, 상기 각 층위를 기술하는 단계는, 상기 각 층위가 괄호 치기 방식으로 기술되는 패턴 데이터베이스화 방법이 제공된다.
바람직하게는, 상기 클래스 변환을 수행하는 단계는, 명사가 상위어 클래스로 변환되고, 유의어에 해당하는 용언이 하나로 변환되며, 받침에 따른 음운 교체가 발생하는 조사는 동일한 클래스로 할당되고, 시간 및 금액과 같은 숫자 표현도 오토마타를 이용하여 클래스화되는 패턴 데이터베이스화 방법이 제공된다.
바람직하게는, 상기 부가 정보는, 상, 양태, 시제, 문형 중 적어도 어느 하나의 정보인 패턴 데이터베이스화 방법이 제공된다.
본 발명의 다른 실시 예의 일 양태에 따르면, 입력된 음성을 인식하여 음성 인식 결과를 출력하는 음성 인식부와, 상기 출력된 음성 인식 결과에 대응하는 문장에 대한 형태소 분석을 수행하고, 부가 정보를 인식 및 추출하며, 구문 분석을 수행하는 문장 분석부와, 상기 형태소 분석과 상기 구문 분석을 수행한 결과와 상기 부가 정보를 이용하여 상기 문장에 대한 각 층위를 기술하는 층위 기술부와, 시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술된 상기 문장에 대한 클래스 변환을 수행하는 클래스 변환부와, 상기 클래스 변환이 수행된 상기 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 상기 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하는 의미 표현 패턴 결정부와, 상기 결정된 의미 표현을 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지를 검색하는 의미 표현 검색부와, 상기 결정된 의 미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 검색된 의미 표현을 선택 출력하는 검색 결과 처리부를 포함하는 음성 이해 장치가 제공된다.
바람직하게는, 상기 문장 분석부는, 상기 형태소 분석을 통해 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하고, 상기 구문 분석을 통해 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 음성 이해 장치가 제공된다.
바람직하게는, 상기 층위 기술부는, 괄호 치기 방식으로 상기 각 층위를 기술하는 음성 이해 장치가 제공된다.
바람직하게는, 상기 클래스 변환부는, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사를 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타를 이용하여 클래스화하는 음성 이해 장치가 제공된다.
바람직하게는, 상기 검색 결과 처리부는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하지 않은 경우 상기 음성 인식 결과를 출력하는 음성 이해 장치가 제공된다.
바람직하게는, 상기 검색 결과 처리부는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는 경우 상기 검색된 의미 표현에 대응하는 변환 문장으로 생성하여 출력하거나 상기 음성 인식 결과, 상기 검색된 의미 표현 및 상기 부가 정보를 출력하는 음성 이해 장치가 제공된다.
본 발명의 다른 실시 예의 다른 양태에 따르면, 입력된 음성을 인식하여 음성 인식 결과를 출력하는 단계와, 상기 출력된 음성 인식 결과에 대응하는 문장에 대한 형태소 분석을 수행하고, 부가 정보를 인식 및 추출하며, 구문 분석을 수행하는 단계와, 상기 형태소 분석과 상기 구문 분석을 수행한 결과와 상기 부가 정보를 이용하여 상기 문장에 대한 각 층위를 기술하는 단계와, 상기 각 층위가 기술된 상기 문장에 대한 클래스 변환을 수행하는 단계와, 상기 클래스 변환이 수행된 상기 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 상기 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하는 단계와, 상기 결정된 의미 표현을 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지를 검색하는 단계와, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 검색된 의미 표현을 선택 출력하는 단계를 포함하는 음성 이해 방법이 제공된다.
바람직하게는, 상기 구문 분석을 수행하는 단계는, 상기 형태소 분석과 구문 분석을 수행하는 단계는, 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하는 상기 형태소 분석이 수행되고, 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 상기 구문 분석이 수행되는 음성 이해 방법이 제공된다.
바람직하게는, 상기 각 층위를 기술하는 단계는, 상기 각 층위가 괄호 치기 방식으로 기술되는 음성 이해 방법이 제공된다.
바람직하게는, 상기 클래스 변환을 수행하는 단계는, 명사가 상위어 클래스 로 변환되고, 유의어에 해당하는 용언이 하나로 변환되며, 받침에 따른 음운 교체가 발생하는 조사는 동일한 클래스로 할당되고, 시간 및 금액과 같은 숫자 표현도 오토마타를 이용하여 클래스화되는 음성 이해 방법이 제공된다.
바람직하게는, 상기 의미 표현을 선택 출력하는 단계는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하지 않은 경우 상기 음성 인식 결과가 출력되는 음성 이해 방법이 제공된다.
바람직하게는, 상기 의미 표현을 선택 출력하는 단계는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는 경우 상기 검색된 의미 표현에 대응하는 변환 문장이 출력되거나 상기 음성 인식 결과, 상기 검색된 의미 표현 및 상기 부가 정보가 출력되는 음성 이해 방법이 제공된다.
본 발명은, 예제 기반 의미 표현 패턴을 이용하여 입력 음성에 대응하는 의미 표현을 출력함으로써, 음성 인식 응용 시스템에 적용되어 음성 인식 결과를 그대로 출력하지 않고, 입력 음성에 대해 사용자의 의도가 반영된 최적의 의미 표현을 결정하여 오류를 보정하고, 적용 시스템에 부합하는 의미 표현 결과를 출력할 수 있어 시스템 성능을 향상시킬 수 있다.
또한, 본 발명은 검색 대상 의미 표현의 일치도가 상대적으로 매우 낮을 경우 음성 인식 결과를 그대로 출력함으로써, 시스템 성능 저하를 미연에 방지할 수 있다.
본 발명은, 입력된 음성에 대한 음성 인식 결과에 따라 형태소 분석을 수행한 후, 각종 부가 정보를 인식 및 추출하여 저장하고, 구문을 분석한 후에, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 음성 인식 결과를 출력하거나 문장을 생성하여 출력하거나 검색된 의미 표현과 부가 정보를 출력한다는 것이며, 이러한 기술적 수단을 통해 종래 기술에서의 문제점을 해결할 수 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 메모리 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 메모리 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부 를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따라 예제 기반 의미 표현 패턴 데이터베이스를 이용하여 음성을 이해하는데 적합한 음성 이해 시스템의 블록 구성도로서, 패턴 데이터베이스화 장치(100), 음성 이해 장치(200) 등을 포함할 수 있다.
도 1을 참조하면, 패턴 데이터베이스화 장치(100)는 다양한 말뭉치가 입력되면, 관용어 사전을 참조하여 입력된 말뭉치를 문장으로 분할하고, 분할된 문장별로 형태소를 분석하며, 형태소 분석 결과를 이용하여 구문을 분석한 후에, 구문 분석 결과를 이용하여 해당 문장에 대해 예를 들면, 괄호 치기 등의 방식으로 층위를 기술하고, 시소러스/온톨로지, 클래스화 규칙 사전 등을 참조하여 예를 들면, 명사, 용언, 조사, 숫자 등에 따라 클래스 변환을 수행하며, 수의적 표현, 무의미한 표현(예를 들면, 간투사 등), 부가 정보(예를 들면, 상, 양태, 시제, 문형 등) 등을 삭제하여 기본형으로 변환한 후에, 형태소 태그 또는 기호를 삭제하여 예제 기반 의미 표현 패턴을 저장한다.
다음에, 음성 이해 장치(200)는 음성이 입력되면, 입력된 음성을 인식하여 그 음성 인식 결과를 출력하고, 음성 인식 결과에 따른 문장에 대한 형태소 분석을 수행하며, 형태소 분석 결과에 따라 시제, 상, 양태, 문형 등의 부가 정보를 인식 및 추출하여 저장하고, 형태소 분석 결과와 부가 정보에 따라 구문을 분석한 후에, 구문 분석 결과를 이용하여 해당 문장에 대해 예를 들면, 괄호 치기 등의 방식으로 층위를 기술하고, 시소러스/온톨로지, 클래스화 규칙 사전 등을 참조하여 예를 들면, 명사, 용언, 조사, 숫자 등에 따라 클래스 변환을 수행하며, 수의적 표현, 무의미한 표현(예를 들면, 간투사 등), 부가 정보(예를 들면, 상, 양태, 시제, 문형 등) 등을 삭제하여 기본형으로 변환한 후에, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정한다.
또한, 음성 이해 장치(200)는 결정된 의미 표현이 패턴 데이터베이스화 장치(100)에 기 저장된 예제 기반 의미 표현 패턴에 존재하는지를 체크하고, 기 저장된 예제 기반 의미 표현 패턴에 존재하지 않은 경우 음성 인식 결과를 출력하며, 기 저장된 예제 기반 의미 표현 패턴에 존재할 경우 해당 예제 기반 의미 표현 패턴을 이용하여 문장을 생성하도록 설정되어 있는지를 체크하며, 문장을 생성하도록 설정되어 있는 경우 결정된 의미 표현과 해당 예제 기반 의미 표현 패턴을 이용하여 문장을 생성하여 출력하며, 문장을 생성하도록 설정되어 있지 않은 경우 음성 인식 결과, 검색된 의미 표현, 부가 정보 등을 출력한다.
다음에, 상술한 바와 같은 구성을 갖는 음성 이해 시스템에서 입력되는 말뭉치에 대한 문장 분할, 형태소 분석, 구문 분석을 순차 수행하고, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 예제 기반 의미 표현 패턴을 저장하는 패턴 데이터베이스화 장치에 대해 설명한다.
도 2는 본 발명의 일 실시 예에 따라 말뭉치에 대한 예제 기반 의미 표현 패턴을 데이터베이스화하는데 적합한 패턴 데이터베이스화 장치의 블록 구성도로서, 패턴 데이터베이스화 장치(100)는 말뭉치 데이터베이스(102), 제 1 문장 분석부(104), 제 1 관용어 사전 데이터베이스(106), 제 1 층위 기술부(108), 제 1 클래스 변환부(110), 제 1 시소러스/온톨로지 데이터베이스(112), 제 1 클래스화 규칙 사전 데이터베이스(114), 의미 표현 패턴 결정부(116), 예제 기반 의미 표현 패턴 데이터베이스(118) 등을 포함할 수 있다.
도 2를 참조하면, 말뭉치 데이터베이스(102)는 다양한 발화에 대응하는 말뭉치를 데이터베이스화하여 저장하고 있는 것으로, 이러한 말뭉치는 사용자의 다양한 발화를 모두 포함하고 있지는 못하더라도 의도한 바를 많이 포함하고 있을 경우 그에 기반한 예제 기반 의미 표현 패턴을 결정하는데 더욱 효과적이다.
그리고, 제 1 문장 분석부(104)는 말뭉치에 대한 문장 분할, 형태소 분석, 구문 분석을 수행하는 것으로, 말뭉치 데이터베이스(102)로부터 말뭉치가 추출 및 입력되면, 추출 및 입력된 말뭉치를 문장 단위로 처리하기 위해 각각의 예제 문장으로 분할한다. 이 때, 하나의 말뭉치 내에 포함된 '네', '안녕하세요', '감사합니다' 등과 같은 관용구는 별도의 예제 문장으로 분리하여 처리하지 않고, 하나의 예제 문장에 포함하도록 처리할 수 있다.
또한, 제 1 문장 분석부(104)는 각각의 예제 문장으로 분할되면, 제 1 관용어 사전 데이터베이스(106)를 참조하여 각각의 예제 문장에 대한 형태소 분석을 수행하며, 형태소 분석 결과를 이용하여 각각의 예제 문장에 대한 구문 분석을 수행한다. 여기에서, 형태소 분석 결과에는 형태소 태그 또는 기호가 삽입될 수 있으며, 구문 분석의 경우 예를 들면, 의존 문법(dependency grammar) 등을 이용하여 들여쓰기 등과 같은 방식으로 의존 관계를 표시할 수 있다.
다음에, 제 1 층위 기술부(108)는 구문 분석 결과를 이용하여 예제 문장에 예를 들면, 괄호 치기(labeled bracketing) 등의 방식으로 각각의 층위를 기술한다. 이 때, 한국어의 '이다'의 경우 앞 단어와 연결되도록 할 수 있고, 동일한 층위에서는 단어의 어순을 바꿀 수도 있다.
한편, 제 1 클래스 변환부(110)는 층위가 기술된 예제 문장에 대해 제 1 시소러스/온톨로지 데이터베이스(112) 및 제 1 클래스화 규칙 사전 데이터베이스(114)를 참조하여 클래스 변환을 수행한다. 이러한 클래스 변환은 커버리지 증대를 위해 수행하는 것으로, 예를 들면, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사 등도 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화함으로써, 다양한 숫자 변이를 인식할 수 있다.
그리고, 의미 표현 패턴 결정부(116)는 클래스 변환된 예제 문장에서 수의적인 표현(예를 들면, 수의적으로 나타날 수도 있고, 나타나지 않을 수도 있는 표현)에 대해 표시하고, 예를 들면, 간투사(감탄사) 등과 같은 무의미한 표현을 삭제하 며, 예제 문장에서 용언에 예를 들면, 보조 용언, 어미 등을 통해 표현된 상, 양태, 시제, 문형 등의 부가 정보를 삭제하여 기본형으로 변환한다. 이는 음성 인식 결과를 검색할 경우 이러한 정보를 고려하지 않고 예제 기반 의미 표현 패턴을 검색할 수 있도록 하여 일치 여부를 판단하기 위해서이다. 다만, 연결 어미, 전성 어미 등의 경우 삭제 후 기본형으로 변환하는 과정을 거치지 않도록 하여 해당 의미가 의미 표현에 반영될 수 있도록 할 수 있다.
또한, 의미 표현 패턴 결정부(116)는 수의적 표현, 무의미한 표현, 부가 정보 등이 변환 및 삭제된 예제 문장에 대한 형태소 태그 또는 기호를 삭제하여 예제 기반의 의미 표현 패턴을 결정하고, 결정된 의미 표현 패턴을 데이터베이스화하여 예제 기반 의미 표현 패턴 데이터베이스(118)에 저장한다.
따라서, 패턴 데이터베이스화 장치를 이용하여 말뭉치에 대응하는 예제 문장에 대한 문장 분석을 수행하고, 예제 문장에 대한 층위 기술 및 클래스 변환을 수행하며, 이에 따라 예제 기반의 의미 표현 패턴을 데이터베이스화하여 저장함으로써, 음성 이해를 위한 의미 표현 패턴을 예제 기반으로 데이터베이스화할 수 있다.
다음에, 상술한 바와 같은 음성 이해 시스템에서 입력된 음성에 대한 음성 인식 결과에 따라 형태소 분석을 수행한 후, 각종 부가 정보를 인식 및 추출하여 저장하고, 구문을 분석한 후에, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따 라 음성 인식 결과를 출력하거나 문장을 생성하여 출력하거나 검색된 의미 표현과 부가 정보를 출력하는 음성 이해 장치에 대해 설명한다.
도 3은 본 발명의 다른 실시 예에 따라 입력된 음성에 대한 의미 표현을 결정한 후, 예제 기반 의미 표현 패턴을 참조하여 선택 출력하는데 적합한 음성 이해 장치의 블록 구성도로서, 음성 이해 장치(200)는 음성 인식부(202), 제 2 문장 분석부(204), 부가 정보 데이터베이스(206), 제 2 층위 기술부(208), 제 2 클래스 변환부(210), 제 2 시소러스/온톨로지 데이터베이스(212), 제 2 클래스화 규칙 사전 데이터베이스(214), 의미 표현 결정부(216), 제 2 관용어 사전 데이터베이스(218), 의미 표현 검색부(220), 검색 결과 처리부(222) 등을 포함할 수 있다.
도 3을 참조하면, 음성 인식부(202)는 음성이 입력되면, 입력된 음성을 전처리하여 음성 인식을 위한 특징을 추출하고, 추출된 특징과 단어들의 음향 모델 및 단어들 간의 연결 확률을 나타내는 언어 모델과 비교하여 가장 높은 확률을 갖는 문장을 선택 및 출력한다. 여기에서, 출력되는 문장은 가장 높은 확률을 갖는 단어열(1-best)을 포함하거나, 가장 높은 확률을 갖는 n개의 단어 열(n-best)을 포함하거나, 가장 높은 확률을 갖는 단어들의 격자 구조(lattice)를 포함하여 출력될 수 있다.
그리고, 제 2 문장 분석부(204)는 음성 인식 결과로 입력되는 문장에 대해 형태소 분석을 수행하며, 형태소 분석 결과를 이용하여 용언별로 시제를 인식 및 추출하고, 예를 들면, 진행 등과 같은 상을 인식 및 추출하며, 예를 들면, 요청 등과 같은 양태를 인식 및 추출하고, 예를 들면, 긍정문, 부정문, 의문문 등과 같은 문형을 인식 및 추출하는 방식으로 부가 정보를 인식 및 추출하여 부가 정보 데이터베이스(206)에 저장한다.
또한, 제 2 문장 분석부(204)는 형태소 분석 결과와 부가 정보를 이용하여 해당 문장에 대한 구문 분석을 수행한다. 여기에서, 형태소 분석 결과에는 형태소 태그 또는 기호가 삽입될 수 있으며, 구문 분석의 경우 예를 들면, 의존 문법(dependency grammar) 등을 이용하여 들여쓰기 등과 같은 방식으로 의존 관계를 표시할 수 있다.
다음에, 제 2 층위 기술부(208)는 구문 분석 결과를 이용하여 해당 문장에 예를 들면, 괄호 치기(labeled bracketing) 등의 방식으로 각각의 층위를 기술한다. 이 때, 한국어의 '이다'의 경우 앞 단어와 연결되도록 할 수 있고, 동일한 층위에서는 단어의 어순을 바꿀 수도 있다.
한편, 제 2 클래스 변환부(210)는 층위가 기술된 문장에 대해 제 2 시소러스/온톨로지 데이터베이스(212) 및 제 2 클래스화 규칙 사전 데이터베이스(214)를 참조하여 클래스 변환을 수행한다. 이러한 클래스 변환의 경우 예를 들면, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사 등도 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화함으로써, 다양한 숫자 변이를 인식할 수 있다.
그리고, 의미 표현 결정부(216)는 클래스 변환된 문장에서 수의적인 표현(예를 들면, 수의적으로 나타날 수도 있고, 나타나지 않을 수도 있는 표현)에 대해 표 시하고, 예를 들면, 간투사(감탄사) 등과 같은 무의미한 표현을 삭제하며, 문장에서 용언에 예를 들면, 보조 용언, 어미 등을 통해 표현된 상, 양태, 시제, 문형 등의 부가 정보를 삭제하여 기본형으로 변환한다. 이는 음성 인식 결과를 검색할 경우 이러한 정보를 고려하지 않고 예제 기반 의미 표현 패턴을 검색할 수 있도록 하여 일치 여부를 판단하기 위해서이다. 다만, 연결 어미, 전성 어미 등의 경우 삭제 후 기본형으로 변환하는 과정을 거치지 않도록 하여 해당 의미가 의미 표현에 반영될 수 있도록 할 수 있다.
또한, 의미 표현 결정부(216)는 수의적 표현, 무의미한 표현, 부가 정보 등이 변환 및 삭제된 문장에 대한 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 음성 인식 결과, 의미 표현, 부가 정보를 의미 표현 검색부(220)에 전달한다.
한편, 의미 표현 검색부(220)는 전달되는 의미 표현(즉, 결정된 의미 표현)이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재하는지의 여부를 검색한다.
여기에서, 의미 표현 검색부(220)에서는 결정된 의미 표현을 예제 기반 의미 표현 패턴 데이터베이스(118)에서 검색할 경우 완전히 일치하는 것만 찾아내는 것이 아니라, 일부분이 틀린 예제 기반 의미 표현 패턴도 기 설정된 기준에 따라 일치하는 것으로 판단하여 그 검색 결과를 제공할 수 있고, 이러한 일치 여부에 대한 판단은 적용되는 음성 인식 시스템의 성능에 따라 조절하여 오류 보정 기능을 수행할 수 있으며, 경우에 따라서 의미 표현에 기술되어 있는 층위를 이용하여 상위 층위(즉, 문장의 최상위 지배어)에 지배되는 층위 중 일치하는 범위까지만 인식하여 그 검색 결과를 제공할 수 있다.
예를 들면, 전체가 일치하지 않은 경우, 하위 층위는 일치하지 않아도 '호텔은 어느 곳인가요'와 같은 상위 층위만 일치한다면, 일치한 상위 층위만을 출력하여 문장의 핵심 의도를 반영하도록 할 수 있다. 이 때, 의미 표현의 일치도가 상위 층위까지 비교해도 상대적으로 낮은 경우에는 음성 이해 과정을 종료하고, 음성 인식 결과만을 제공하며, 일치도가 높은 경우에는 검색한 의미 표현, 음성 인식 결과, 부가 정보를 제공할 수 있다.
그리고, 검색 결과 처리부(222)에서는 의미 표현의 존재 여부에 대한 검색 결과에 따라 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재하지 않을 경우 전달되는 음성 인식 결과를 출력하고, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재할 경우 문장으로 생성되도록 설정되어 있는지를 체크한 후에, 문장으로 생성되도록 설정되어 있는 경우 예제 기반 의미 표현 패턴 데이터베이스(118)를 참조하여 검색된 의미 표현을 문장(즉, 검색된 의미 표현에 대응하는 변환 문장)으로 변환하여 출력하며, 문장으로 생성되도록 설정되어 있지 않은 경우 전달되는 음성 인식 결과, 의미 표현, 부가 정보를 출력한다.
따라서, 음성 이해 장치에서 입력된 음성에 대한 음성 인식 결과에 따른 문장에 대한 부가 정보를 인식 및 추출하고, 이에 대응하는 의미 표현을 결정하여 예제 기반 의미 표현 패턴 데이터베이스에서의 존재 여부에 따라 검색된 의미 표현을 선택 출력함으로써, 입력 음성에 대응하는 의미 표현을 예제 기반으로 검색하여 사 용자의 의도가 반영된 의미 표현을 효과적으로 출력할 수 있다.
다음에, 상술한 바와 같은 구성을 갖는 패턴 데이터베이스화 장치에서 입력되는 말뭉치에 대한 문장 분할, 형태소 분석, 구문 분석을 순차 수행하고, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 예제 기반 의미 표현 패턴을 저장하는 과정에 대해 설명한다.
도 4는 본 발명의 일 실시 예에 따라 말뭉치에 대한 예제 기반 의미 표현 패턴을 데이터베이스화하는 과정을 도시한 플로우차트이다.
도 4를 참조하면, 패턴 데이터베이스화 장치(100)의 데이터베이스 구축 모드에서(단계402), 제 1 문장 분석부(104)에서는 의미 표현 패턴을 데이터베이스화하기 위한 말뭉치가 추출 및 입력되는지를 체크한다(단계404).
상기 단계(404)에서의 체크 결과, 말뭉치 데이터베이스(102)에서 말뭉치가 추출 및 입력되는 경우 제 1 문장 분석부(104)에서는 추출 및 입력된 말뭉치를 문장 단위로 처리하기 위해 각각의 예제 문장으로 분할한다(단계406). 이 때, 하나의 말뭉치 내에 포함된 '네', '안녕하세요', '감사합니다' 등과 같은 관용구는 별도의 예제 문장으로 분리하여 처리하지 않고, 하나의 예제 문장에 포함하도록 처리할 수 있다. 이하에서는 본 발명의 일 실시 예에 따른 예제 문장으로, '인천 공항에서 가장 가까운 호텔은 어느 곳이죠?'라는 문장으로 하여 설명한다.
또한, 제 1 문장 분석부(104)에서는 제 1 관용어 사전 데이터베이스(106)를 참조하여 분할된 예제 문장에 대한 형태소 분석을 수행하며, 형태소 분석 결과를 이용하여 각각의 예제 문장에 대한 구문 분석을 수행한다(단계408). 여기에서, 형태소 분석 결과에는 형태소 태그 또는 기호가 삽입될 수 있으며, 구문 분석의 경우 예를 들면, 의존 문법(dependency grammar) 등을 이용하여 들여쓰기 등과 같은 방식으로 의존 관계를 표시할 수 있다.
예를 들면, 도 5a 내지 도 5f는 본 발명의 일 실시 예에 따라 예제 기반 의미 표현 패턴을 데이터베이스화하는 것을 설명하기 위한 도면으로서, 예제 문장이 '인천 공항에서 가장 가까운 호텔은 어느 곳이죠?'라고 가정할 경우 형태소 분석을 수행하면 도 5a에 도시한 바와 같이 '인천[고유명사] 공항[용언불가능보통명사]에서[부사격조사] 가장[성상정도부사] 가깝[성성형용사]ㄴ[관형사형전성어미] 호텔[용언불가능보통명사]은[일반보조사] 어느[지시관형사] 곳[용언불가능보통명사]이[긍정지정사]죠[의문형종결어미]?[문미기호]'로 나타낼 수 있으며, 구문 분석은 예를 들면, 의존 문법 등에 따라 들여쓰기 등을 이용하여 의존 관계를 표현할 경우 도 5b에 도시한 바와 같이 '이[긍정지정사]+죠[의문형종결어미]', '어느/17-곳/7[장소][용언불가능보통명사]+이[보격조사]', '호텔[용언불가능보통명사]+은[일반보조사]', '가깝[성상형용사]+ㄴ[관형사형전성어미]', '가장[성상정도부사]', '인천[고유명사] 공항[용언불가능보통명사]+에서[부가격조사]'로 층위별로 기술될 수 있다.
다음에, 제 1 층위 기술부(108)에서는 구문 분석 결과를 이용하여 예제 문장에 예를 들면, 괄호 치기(labeled bracketing) 등의 방식으로 각각의 층위를 기술한다(단계410). 일 예로서, 도 5c에 도시한 바와 같이 '((((인천[고유명사] 공항 [용언불가능보통명사]에서[부사격조사]) (가장[성상정도부사]) (가깝[성상형용사]+ㄴ[관형사형전성어미])) (호텔[용언불가능보통명사]+은[일반보조사])) ('어느[지시관형사] 곳[용언불가능보통명사])+(이[긍정지정사]+죠[의문형종결어미]?[문미기호]))'로 층위를 기술할 수 있다.
한편, 제 1 클래스 변환부(110)에서는 층위가 기술된 예제 문장에 대해 제 1 시소러스/온톨로지 데이터베이스(112) 및 제 1 클래스화 규칙 사전 데이터베이스(114)를 참조하여 클래스 변환을 수행한다(단계412). 이러한 클래스 변환은 도 5d에 도시한 바와 같이 '(((($공항에서[부사격조사]) (가장[성상정도부사])($가까운))($호텔[$보조사-은/는]))(어느[지시관형사] 곳[용언불가능보통명사])+(이[긍정지정사]죠[의문형종결어미]?[문미기호]))'로 나타낼 수 있으며, 이 때 '인천 공항', '가까운', '은'이 클래스화되었음을 알 수 있고, 클래스화된 단어의 앞에는 예를 들면, $ 등과 같은 기호를 붙여 표시할 수 있다.
그리고, 의미 표현 패턴 결정부(116)는 클래스 변환된 예제 문장에서 수의적인 표현(예를 들면, 수의적으로 나타날 수도 있고, 나타나지 않을 수도 있는 표현)에 대해 표시하고, 예를 들면, 간투사(감탄사) 등과 같은 무의미한 표현을 삭제하며, 예제 문장에서 용언에 예를 들면, 보조 용언, 어미 등을 통해 표현된 상, 양태, 시제, 문형 등의 부가 정보를 삭제하여 기본형으로 변환한다. 이는 음성 인식 결과를 검색할 경우 이러한 정보를 고려하지 않고 예제 기반 의미 표현 패턴을 검색할 수 있도록 하여 일치 여부를 판단하기 위해서이다. 다만, 연결 어미, 전성 어미 등의 경우 삭제 후 기본형으로 변환하는 과정을 거치지 않도록 하여 해당 의미 가 의미 표현에 반영될 수 있도록 할 수 있다.
예를 들면, 수의적 표현에 대해 '[]'를 이용하여 표시하는데, 도 5e에 도시한 바와 같이 '(((($공항[에서[부사격조사]]) ([가장[성상정도부사]])($가까운))($호텔[[$보조사-은/는]]))(어느[지시관형사] 곳[용언불가능보통명사])+(이[긍정지정사]죠[의문형종결어미]?[문미기호]))'로 표시할 수 있다.
또한, 의미 표현 패턴 결정부(116)는 수의적 표현, 무의미한 표현, 부가 정보 등이 변환 및 삭제된 예제 문장에 대한 형태소 태그 또는 기호를 삭제하여 예제 기반의 의미 표현 패턴을 결정하고, 결정된 의미 표현 패턴을 데이터베이스화하여 예제 기반 의미 표현 패턴 데이터베이스(118)에 저장한다. 이러한 의미 표현 패턴은 도 5f에 도시한 바와 같이 '(((($공항+에서) ([가장])($가까운))($호텔+[$은/는]))(어느 곳)+(이다))'로 나타낼 수 있다.
따라서, 말뭉치에 대응하는 예제 문장에 대한 문장 분석을 수행하고, 예제 문장에 대한 층위 기술 및 클래스 변환을 수행하며, 이에 따라 예제 기반의 의미 표현 패턴을 데이터베이스화하여 저장함으로써, 음성 이해를 위한 의미 표현 패턴을 예제 기반으로 데이터베이스화할 수 있다.
다음에, 상술한 바와 같은 음성 이해 장치에서 입력된 음성에 대한 음성 인식 결과에 따라 형태소 분석을 수행한 후, 각종 부가 정보를 인식 및 추출하여 저장하고, 구문을 분석한 후에, 그 결과에 따라 층위를 기술하며, 클래스 변환을 수행한 후에, 수의적 표현, 무의미한 표현, 부가 정보를 변환 또는 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 음성 인식 결과를 출력하거나 문장을 생성하여 출력하거나 검색된 의미 표현과 부가 정보를 출력하는 과정에 대해 설명한다.
도 6은 본 발명의 다른 실시 예에 따라 입력된 음성에 대한 의미 표현을 결정한 후, 예제 기반 의미 표현 패턴을 참조하여 선택 출력하는 과정을 도시한 플로우차트이다.
도 6을 참조하면, 음성 이해 장치(200)의 대기 모드에서, 음성 인식부(202)에서는 의미 표현을 출력하기 위한 음성이 입력되는지를 체크한다(단계604).
상기 단계(604)에서의 체크 결과, 음성이 입력될 경우 음성 인식부(202)에서는 입력된 음성을 전처리하여 음성 인식을 위한 특징을 추출하고, 추출된 특징과 단어들의 음향 모델 및 단어들 간의 연결 확률을 나타내는 언어 모델과 비교하여 가장 높은 확률을 갖는 문장을 선택하여 음성 인식 결과로서 출력한다(단계606). 여기에서, 출력되는 문장은 가장 높은 확률을 갖는 단어열(1-best)을 포함하거나, 가장 높은 확률을 갖는 n개의 단어 열(n-best)을 포함하거나, 가장 높은 확률을 갖는 단어들의 격자 구조(lattice)를 포함하여 출력될 수 있다.
그리고, 제 2 문장 분석부(204)에서는 음성 인식 결과로 입력되는 문장에 대해 형태소 분석을 수행하며(단계608), 형태소 분석 결과를 이용하여 용언별로 시제를 인식 및 추출하고, 예를 들면, 진행 등과 같은 상을 인식 및 추출하며, 예를 들면, 요청 등과 같은 양태를 인식 및 추출하고, 예를 들면, 긍정문, 부정문, 의문문 등과 같은 문형을 인식 및 추출하는 방식으로 부가 정보를 인식 및 추출하여 부가 정보 데이터베이스(206)에 저장한다(단계610). 예를 들면, 상술한 바와 같은 본 발명의 일 실시 예에 따른 예제 문장 중 '가까운'과 '입니까(이다)'에서 '현재'라는 시제를 알 수 있고, '밥을 먹고 있습니다'라는 문장에서 '먹다'에 대해 '진행' 상이라는 것을 알 수 있으며, '고기를 더 익혀 주세요'라는 문장에서 '익히다'에 대한 '요청'이라는 양태를 알 수 있다.
또한, 제 2 문장 분석부(204)에서는 형태소 분석 결과와 부가 정보를 이용하여 해당 문장에 대한 구문 분석을 수행한다(단계612). 여기에서, 형태소 분석 결과에는 형태소 태그 또는 기호가 삽입될 수 있으며, 구문 분석의 경우 예를 들면, 의존 문법(dependency grammar) 등을 이용하여 들여쓰기 등과 같은 방식으로 의존 관계를 표시할 수 있다.
다음에, 제 2 층위 기술부(208)에서는 구문 분석 결과를 이용하여 해당 문장에 예를 들면, 괄호 치기(labeled bracketing) 등의 방식으로 각각의 층위를 기술하고, 제 2 클래스 변환부(210)에서는 층위가 기술된 문장에 대해 제 2 시소러스/온톨로지 데이터베이스(212) 및 제 2 클래스화 규칙 사전 데이터베이스(214)를 참조하여 클래스 변환을 수행한다(단계614). 이러한 클래스 변환의 경우 예를 들면, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사 등도 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화함으로써, 다양한 숫자 변이를 인식할 수 있다.
그리고, 의미 표현 결정부(216)에서는 클래스 변환된 문장에서 수의적인 표 현(예를 들면, 수의적으로 나타날 수도 있고, 나타나지 않을 수도 있는 표현)에 대해 표시하고, 예를 들면, 간투사(감탄사) 등과 같은 무의미한 표현을 삭제하며, 문장에서 용언에 예를 들면, 보조 용언, 어미 등을 통해 표현된 상, 양태, 시제, 문형 등의 부가 정보를 삭제하여 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하고, 음성 인식 결과, 의미 표현, 부가 정보를 의미 표현 검색부(220)에 전달한다(단계616).
한편, 의미 표현 검색부(220)에서는 전달되는 의미 표현(즉, 결정된 의미 표현)이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재하는지를 검색하고, 검색 결과 처리부(222)에서는 그 검색 결과에 따라 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재하는지를 체크한다(단계620).
상기 단계(620)에서의 체크 결과, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재하지 않을 경우 검색 결과 처리부(222)에서는 전달되는 음성 인식 결과를 출력한다(단계622).
한편, 상기 단계(620)에서의 체크 결과, 결정된 의미 표현이 예제 기반 의미 표현 패턴 데이터베이스(118)에 존재할 경우 검색 결과 처리부(222)에서는 문장으로 생성되도록 설정되어 있는지를 체크한다(단계624).
상기 단계(624)에서의 체크 결과, 문장으로 생성되도록 설정되어 있는 경우 검색 결과 처리부(222)에서는 예제 기반 의미 표현 패턴 데이터베이스(118)를 참조하여 검색된 의미 표현을 문장(즉, 검색된 의미 표현에 대응하는 변환 문장)으로 변환하여 출력한다(단계626).
한편, 상기 단계(624)에서의 체크 결과, 문장으로 생성되도록 설정되어 있지 않은 경우 검색 결과 처리부(222)에서는 전달되는 음성 인식 결과, 의미 표현, 부가 정보를 출력한다(단계628).
따라서, 입력된 음성에 대한 음성 인식 결과에 따른 문장에 대한 부가 정보를 인식 및 추출하고, 이에 대응하는 의미 표현을 결정하여 예제 기반 의미 표현 패턴 데이터베이스에서의 존재 여부에 따라 검색된 의미 표현을 선택 출력함으로써, 입력 음성에 대응하는 의미 표현을 예제 기반으로 검색하여 사용자의 의도가 반영된 의미 표현을 효과적으로 출력할 수 있다.
한편, 상술한 바와 같은 패턴 데이터베이스화 장치(100)와 음성 이해 장치(200)를 이용한 자동 통역 시스템의 경우 예제 기반 의미 표현 패턴에 대역 의미 표현 패턴을 부가하여 사용하면, 번역 시 정확도를 향상시킬 수 있으며, 음성 대화 시스템의 경우에서는 예제 기반 의미 표현 패턴에서 생성될 수 있는 사용자 발화를 전부 처리할 수 있도록 설정한다면, 음성 인식에 대한 강건성을 향상시킬 수 있음은 물론이다.
이상의 설명에서는 본 발명의 다양한 실시 예들을 제시하여 설명하였으나 본 발명이 반드시 이에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능함을 쉽게 알 수 있을 것이다.
도 1은 본 발명의 실시 예에 따라 예제 기반 의미 표현 패턴 데이터베이스를 이용하여 음성을 이해하는데 적합한 음성 이해 시스템의 블록 구성도,
도 2는 본 발명의 일 실시 예에 따라 말뭉치에 대한 예제 기반 의미 표현 패턴을 데이터베이스화하는데 적합한 패턴 데이터베이스화 장치의 블록 구성도,
도 3은 본 발명의 다른 실시 예에 따라 입력된 음성에 대한 의미 표현을 결정한 후, 예제 기반 의미 표현 패턴을 참조하여 선택 출력하는데 적합한 음성 이해 장치의 블록 구성도,
도 4는 본 발명의 일 실시 예에 따라 말뭉치에 대한 예제 기반 의미 표현 패턴을 데이터베이스화하는 과정을 도시한 플로우차트,
도 5a 내지 도 5f는 본 발명의 일 실시 예에 따라 예제 기반 의미 표현 패턴을 데이터베이스화하는 것을 설명하기 위한 도면,
도 6은 본 발명의 다른 실시 예에 따라 입력된 음성에 대한 의미 표현을 결정한 후, 예제 기반 의미 표현 패턴을 참조하여 선택 출력하는 과정을 도시한 플로우차트,
도 7은 본 발명의 다른 실시 예에 따라 결정된 의미 표현을 예시한 도면.
<도면의 주요부분에 대한 부호의 설명>
100 : 패턴 데이터베이스화 장치 102 : 말뭉치 데이터베이스
104 : 제 1 문장 분석부 106 : 제 1 관용어 사전 데이터베이스
108 : 제 1 층위 기술부 110 : 제 1 클래스 변환부
112 : 제 1 시소러스/온톨로지 데이터베이스
114 : 제 1 클래스화 규칙 사전 데이터베이스
116 : 의미 표현 패턴 결정부
118 : 예제 기반 의미 표현 패턴 데이터베이스
200 : 음성 이해 장치 202 : 음성 인식부
204 : 제 2 문장 분석부 206 : 부가 정보 데이터베이스
208 : 제 2 층위 기술부 210 : 제 2 클래스 변환부
212 : 제 2 시소러스/온톨로지 데이터베이스
214 : 제 2 클래스화 규칙 사전 데이터베이스
216 : 의미 표현 결정부 218 : 제 2 관용어 사전 데이터베이스
220 : 의미 표현 검색부 222 : 검색 결과 처리부

Claims (22)

  1. 관용어 사전을 참조하여 입력되는 말뭉치를 예제 문장으로 분할하고, 상기 분할된 예제 문장에 대한 형태소 분석과 구문 분석을 수행하는 문장 분석부와,
    상기 형태소 분석과 상기 구문 분석을 수행한 결과를 이용하여 상기 예제 문장에 대한 각 층위를 기술하는 층위 기술부와,
    시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술된 상기 예제 문장에 대한 클래스 변환을 수행하는 클래스 변환부와,
    상기 클래스 변환이 수행된 상기 예제 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현 패턴을 결정하고, 상기 결정된 의미 표현 패턴을 데이터베이스화하여 저장하는 의미 표현 패턴 결정부를 포함하는
    패턴 데이터베이스화 장치.
  2. 제 1 항에 있어서,
    상기 문장 분석부는, 상기 형태소 분석을 통해 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하고, 상기 구문 분석을 통해 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는
    패턴 데이터베이스화 장치.
  3. 제 1 항에 있어서,
    상기 층위 기술부는, 괄호 치기 방식으로 상기 각 층위를 기술하는
    패턴 데이터베이스화 장치.
  4. 제 1 항에 있어서,
    상기 클래스 변환부는, 명사를 상위어 클래스로 변환하고, 유의어에 해당하는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사를 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화하는
    패턴 데이터베이스화 장치.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 부가 정보는, 상, 양태, 시제, 문형 중 적어도 어느 하나의 정보인
    패턴 데이터베이스화 장치.
  6. 관용어 사전을 참조하여 입력되는 말뭉치를 예제 문장으로 분할하고, 상기 분할된 예제 문장에 대한 형태소 분석과 구문 분석을 수행하는 단계와,
    상기 형태소 분석과 상기 구문 분석을 수행한 결과를 이용하여 상기 예제 문장에 대한 각 층위를 기술하는 단계와,
    시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술 된 상기 예제 문장에 대한 클래스 변환을 수행하는 단계와,
    상기 클래스 변환이 수행된 상기 예제 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현 패턴을 결정하는 단계와,
    상기 결정된 의미 표현 패턴을 데이터베이스화하여 저장하는 단계를 포함하는
    패턴 데이터베이스화 방법.
  7. 제 6 항에 있어서,
    상기 형태소 분석과 구문 분석을 수행하는 단계는, 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하는 상기 형태소 분석이 수행되고, 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 상기 구문 분석이 수행되는
    패턴 데이터베이스화 방법.
  8. 제 6 항에 있어서,
    상기 각 층위를 기술하는 단계는, 상기 각 층위가 괄호 치기 방식으로 기술되는
    패턴 데이터베이스화 방법.
  9. 제 6 항에 있어서,
    상기 클래스 변환을 수행하는 단계는, 명사가 상위어 클래스로 변환되고, 유의어에 해당하는 용언이 하나로 변환되며, 받침에 따른 음운 교체가 발생하는 조사는 동일한 클래스로 할당되고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화되는
    패턴 데이터베이스화 방법.
  10. 제 6 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 부가 정보는, 상, 양태, 시제, 문형 중 적어도 어느 하나의 정보인
    패턴 데이터베이스화 방법.
  11. 패턴 데이터베이스화 장치에서 결정된 의미표현이 상기 패턴 데이터베이스화장치에 기 저장된 예제기반 의미표현패턴에 존재하는지를 체크하는 음성 이해 장치로서,
    입력된 음성을 인식하여 음성 인식 결과를 출력하는 음성 인식부와,
    상기 출력된 음성 인식 결과에 대응하는 문장에 대한 형태소 분석을 수행하고, 부가 정보를 인식 및 추출하며, 구문 분석을 수행하는 문장 분석부와,
    상기 형태소 분석과 상기 구문 분석을 수행한 결과와 상기 부가 정보를 이용하여 상기 문장에 대한 각 층위를 기술하는 층위 기술부와,
    시소러스/온톨로지 및 클래스화 규칙 사전을 참조하여 상기 각 층위가 기술된 상기 문장에 대한 클래스 변환을 수행하는 클래스 변환부와,
    상기 클래스 변환이 수행된 상기 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 상기 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하는 의미 표현 결정부와,
    상기 결정된 의미 표현이 상기 패턴 데이터베이스화 장치에 포함된 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지를 검색하는 의미 표현 검색부와,
    상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 검색된 의미 표현을 선택 출력하는 검색 결과 처리부를 포함하는
    음성 이해 장치.
  12. 제 11 항에 있어서,
    상기 문장 분석부는, 상기 형태소 분석을 통해 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하고, 상기 구문 분석을 통해 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는
    음성 이해 장치.
  13. 제 11 항에 있어서,
    상기 층위 기술부는, 괄호 치기 방식으로 상기 각 층위를 기술하는
    음성 이해 장치.
  14. 제 11 항에 있어서,
    상기 클래스 변환부는, 명사를 상위어 클래스로 변환하고, 유의어에 해당하 는 용언을 하나로 변환하며, 받침에 따른 음운 교체가 발생하는 조사를 동일한 클래스로 할당하고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화하는
    음성 이해 장치.
  15. 제 11 항 내지 제 14 항 중 어느 한 항에 있어서,
    상기 검색 결과 처리부는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하지 않은 경우 상기 음성 인식 결과를 출력하는
    음성 이해 장치.
  16. 제 15 항에 있어서,
    상기 검색 결과 처리부는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는 경우 상기 검색된 의미 표현에 대응하는 변환 문장으로 생성하여 출력하거나 상기 음성 인식 결과, 상기 검색된 의미 표현 및 상기 부가 정보를 출력하는
    음성 이해 장치.
  17. 입력된 음성을 인식하여 음성 인식 결과를 출력하는 단계와,
    상기 출력된 음성 인식 결과에 대응하는 문장에 대한 형태소 분석을 수행하고, 부가 정보를 인식 및 추출하며, 구문 분석을 수행하는 단계와,
    상기 형태소 분석과 상기 구문 분석을 수행한 결과와 상기 부가 정보를 이용하여 상기 문장에 대한 각 층위를 기술하는 단계와,
    상기 각 층위가 기술된 상기 문장에 대한 클래스 변환을 수행하는 단계와,
    상기 클래스 변환이 수행된 상기 문장에 대해 수의적 표현을 표시하고, 무의미한 표현 및 상기 부가 정보를 삭제하며, 기본형으로 변환하고, 형태소 태그 또는 기호를 삭제하여 의미 표현을 결정하는 단계와,
    상기 결정된 의미 표현이 예제기반 의미표현패턴이 데이터베이스화되어 저장된예제 기반 의미 표현 패턴 데이터베이스에 존재하는지를 검색하는 단계와,
    상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는지의 여부에 따라 검색된 의미 표현을 선택 출력하는 단계를 포함하는
    음성 이해 방법.
  18. 제 17 항에 있어서,
    상기 구문 분석을 수행하는 단계는, 상기 형태소 분석과 구문 분석을 수행하는 단계는, 상기 예제 문장에 상기 형태소 태그 또는 기호를 부여하는 상기 형태소 분석이 수행되고, 의존 문법에 따른 들여쓰기 방식으로 상기 예제 문장의 의존 관계를 표시하는 상기 구문 분석이 수행되는
    음성 이해 방법.
  19. 제 17 항에 있어서,
    상기 각 층위를 기술하는 단계는, 상기 각 층위가 괄호 치기 방식으로 기술되는
    음성 이해 방법.
  20. 제 17 항에 있어서,
    상기 클래스 변환을 수행하는 단계는, 명사가 상위어 클래스로 변환되고, 유의어에 해당하는 용언이 하나로 변환되며, 받침에 따른 음운 교체가 발생하는 조사는 동일한 클래스로 할당되고, 시간 및 금액과 같은 숫자 표현도 오토마타(automata)를 이용하여 클래스화되는
    음성 이해 방법.
  21. 제 17 항 내지 제 20 항 중 어느 한 항에 있어서,
    상기 의미 표현을 선택 출력하는 단계는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하지 않은 경우 상기 음성 인식 결과가 출력되는
    음성 이해 방법.
  22. 제 21 항에 있어서,
    상기 의미 표현을 선택 출력하는 단계는, 상기 결정된 의미 표현이 상기 예제 기반 의미 표현 패턴 데이터베이스에 존재하는 경우 상기 검색된 의미 표현에 대응하는 변환 문장이 출력되거나 상기 음성 인식 결과, 상기 검색된 의미 표현 및 상기 부가 정보가 출력되는
    음성 이해 방법.
KR1020090081936A 2009-09-01 2009-09-01 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 KR101253104B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090081936A KR101253104B1 (ko) 2009-09-01 2009-09-01 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
US12/622,060 US8370130B2 (en) 2009-09-01 2009-11-19 Speech understanding system using an example-based semantic representation pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090081936A KR101253104B1 (ko) 2009-09-01 2009-09-01 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20110024075A KR20110024075A (ko) 2011-03-09
KR101253104B1 true KR101253104B1 (ko) 2013-04-10

Family

ID=43626150

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090081936A KR101253104B1 (ko) 2009-09-01 2009-09-01 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법

Country Status (2)

Country Link
US (1) US8370130B2 (ko)
KR (1) KR101253104B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9620109B2 (en) 2014-02-25 2017-04-11 Samsung Electronics Co., Ltd. Apparatus and method for generating a guide sentence
CN107291701A (zh) * 2016-04-01 2017-10-24 阿里巴巴集团控股有限公司 一种机器语言生成方法及装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9672204B2 (en) * 2010-05-28 2017-06-06 Palo Alto Research Center Incorporated System and method to acquire paraphrases
US9372924B2 (en) * 2012-06-12 2016-06-21 International Business Machines Corporation Ontology driven dictionary generation and ambiguity resolution for natural language processing
CN104756100B (zh) * 2012-11-30 2017-07-28 三菱电机株式会社 意图估计装置以及意图估计方法
JPWO2014103568A1 (ja) * 2012-12-28 2017-01-12 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20140372455A1 (en) * 2013-06-17 2014-12-18 Lenovo (Singapore) Pte. Ltd. Smart tags for content retrieval
KR102175539B1 (ko) * 2013-10-18 2020-11-06 에스케이텔레콤 주식회사 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법
GB2523353B (en) * 2014-02-21 2017-03-01 Jaguar Land Rover Ltd System for use in a vehicle
CN106326303B (zh) * 2015-06-30 2019-09-13 芋头科技(杭州)有限公司 一种口语语义解析***及方法
KR102434604B1 (ko) * 2016-01-05 2022-08-23 한국전자통신연구원 개인화된 음성 인식을 수행하기 위한 음성 인식 단말, 음성 인식 서버 및 음성 인식 방법
US11449744B2 (en) 2016-06-23 2022-09-20 Microsoft Technology Licensing, Llc End-to-end memory networks for contextual language understanding
US10366163B2 (en) * 2016-09-07 2019-07-30 Microsoft Technology Licensing, Llc Knowledge-guided structural attention processing
CN107146610B (zh) * 2017-04-10 2021-06-15 易视星空科技无锡有限公司 一种用户意图的确定方法及装置
KR102444589B1 (ko) * 2020-08-28 2022-09-16 (주)대우건설 건설분야 문서 분석 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215987A (ja) 1999-10-28 2001-08-10 Canon Inc パターンマッチング方法及び装置
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US20070073533A1 (en) 2005-09-23 2007-03-29 Fuji Xerox Co., Ltd. Systems and methods for structural indexing of natural language text
KR20090004216A (ko) * 2007-07-06 2009-01-12 주식회사 예스피치 음성 인식에 대한 통계적 의미 분류 시스템 및 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
US8155951B2 (en) * 2003-06-12 2012-04-10 Patrick William Jamieson Process for constructing a semantic knowledge base using a document corpus
KR100764174B1 (ko) * 2006-03-03 2007-10-08 삼성전자주식회사 음성 대화 서비스 장치 및 방법
KR100772660B1 (ko) 2006-04-14 2007-11-01 학교법인 포항공과대학교 대화 관리 장치 및 그를 위한 대화 예제 기반의 대화모델링기법을 통한 대화 관리 방법
KR101322486B1 (ko) 2007-06-28 2013-10-25 주식회사 케이티 범용 대화서비스 장치 및 그 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001215987A (ja) 1999-10-28 2001-08-10 Canon Inc パターンマッチング方法及び装置
US7050977B1 (en) 1999-11-12 2006-05-23 Phoenix Solutions, Inc. Speech-enabled server for internet website and method
US20070073533A1 (en) 2005-09-23 2007-03-29 Fuji Xerox Co., Ltd. Systems and methods for structural indexing of natural language text
KR20090004216A (ko) * 2007-07-06 2009-01-12 주식회사 예스피치 음성 인식에 대한 통계적 의미 분류 시스템 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9620109B2 (en) 2014-02-25 2017-04-11 Samsung Electronics Co., Ltd. Apparatus and method for generating a guide sentence
CN107291701A (zh) * 2016-04-01 2017-10-24 阿里巴巴集团控股有限公司 一种机器语言生成方法及装置

Also Published As

Publication number Publication date
KR20110024075A (ko) 2011-03-09
US20110054883A1 (en) 2011-03-03
US8370130B2 (en) 2013-02-05

Similar Documents

Publication Publication Date Title
KR101253104B1 (ko) 패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
Reshamwala et al. Review on natural language processing
US6910004B2 (en) Method and computer system for part-of-speech tagging of incomplete sentences
CN107209759B (zh) 注解辅助装置及记录介质
JP6345638B2 (ja) 現場にて音声−音声翻訳をメンテナンスするシステム及び方法
US10672391B2 (en) Improving automatic speech recognition of multilingual named entities
KR100911621B1 (ko) 한영 자동번역 방법 및 장치
US20100332217A1 (en) Method for text improvement via linguistic abstractions
JP2012520528A (ja) 自然言語テキストの自動的意味ラベリングのためのシステム及び方法
JP2000353161A (ja) 自然言語生成における文体制御方法及び装置
JP2001523019A (ja) テキストの本文の談話構造の自動認識
KR20140021838A (ko) 문법 오류 검출 방법 및 이를 위한 오류검출장치
Sawalha Open-source resources and standards for Arabic word structure analysis: Fine grained morphological analysis of Arabic text corpora
KR20120001053A (ko) 문서 감성 분석 시스템 및 그 방법
US11907665B2 (en) Method and system for processing user inputs using natural language processing
KR101149521B1 (ko) 도메인 온톨로지를 이용한 음성 인식 방법 및 그 장치
Ablimit et al. A multilingual language processing tool for Uyghur, Kazak and Kirghiz
KR102204395B1 (ko) 개체명 인식을 이용한 음성인식 띄어쓰기 보정 방법 및 시스템
KR101134455B1 (ko) 음성 인식 장치 및 그 방법
KR20090035346A (ko) 어휘 분석을 수행하는 어학학습 방법
Oncevay et al. Schaman: Spell-checking resources and benchmark for endangered languages from amazonia
KR20040018008A (ko) 품사 태깅 장치 및 태깅 방법
Chege et al. Developing an Open source Spell-checker for Gıkuyu
KR100511247B1 (ko) 음성 인식 시스템의 언어 모델링 방법
Desai et al. Automated paradigm selection for FSA based Konkani verb morphological analyzer

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170307

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180402

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190312

Year of fee payment: 7