JP4724377B2 - 自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル - Google Patents

自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル Download PDF

Info

Publication number
JP4724377B2
JP4724377B2 JP2004130332A JP2004130332A JP4724377B2 JP 4724377 B2 JP4724377 B2 JP 4724377B2 JP 2004130332 A JP2004130332 A JP 2004130332A JP 2004130332 A JP2004130332 A JP 2004130332A JP 4724377 B2 JP4724377 B2 JP 4724377B2
Authority
JP
Japan
Prior art keywords
model
rule
segmentation
front terminal
schema
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004130332A
Other languages
English (en)
Other versions
JP2005115328A (ja
Inventor
イェイ ワン
アセロ アレハンドロ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2005115328A publication Critical patent/JP2005115328A/ja
Application granted granted Critical
Publication of JP4724377B2 publication Critical patent/JP4724377B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23PSHAPING OR WORKING OF FOODSTUFFS, NOT FULLY COVERED BY A SINGLE OTHER SUBCLASS
    • A23P30/00Shaping or working of foodstuffs characterised by the process or apparatus
    • A23P30/30Puffing or expanding
    • AHUMAN NECESSITIES
    • A23FOODS OR FOODSTUFFS; TREATMENT THEREOF, NOT COVERED BY OTHER CLASSES
    • A23LFOODS, FOODSTUFFS, OR NON-ALCOHOLIC BEVERAGES, NOT COVERED BY SUBCLASSES A21D OR A23B-A23J; THEIR PREPARATION OR TREATMENT, e.g. COOKING, MODIFICATION OF NUTRITIVE QUALITIES, PHYSICAL TREATMENT; PRESERVATION OF FOODS OR FOODSTUFFS, IN GENERAL
    • A23L7/00Cereal-derived products; Malt products; Preparation or treatment thereof
    • A23L7/10Cereal-derived products
    • A23L7/161Puffed cereals, e.g. popcorn or puffed rice
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Polymers & Plastics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Food Science & Technology (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Nutrition Science (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、文法のオーサリングに関する。より具体的には、本発明は、規則ベース文法および統計モデルを使用するNLUシステムの使用およびオーサリングに関する。
音声使用可能アプリケーションおよびサービスの開発を容易にするために、現在、意味ベースの堅固な理解システムが開発中である。こうしたシステムは、会話や研究のシステムで幅広く使用されている。ただし、従来の開発者が会話システムを実施する際に使用するのには、特に実用的なものではない。こうした実施は、ドメイン(domain)固有の文法を手作業で開発することに、かなりの部分で依拠している。このタスクはかなり時間のかかる、エラーが生じやすいものであり、ドメインについてのかなりの専門知識を必要とする。
音声使用可能アプリケーションおよびサービスの開発を進めるために、例証ベース文法のオーサリングツールが導入されている。このツールは、SGStudioとして知られている(例えば、非特許文献1および2参照)。このツールは、多くの異なる従来の情報源を利用することによって、文法の開発をきわめて容易にするものである。また、言語知識の少ない一般の開発者でも、音声言語理解に関する意味文法を構築できるようにするものである。このシステムは、相対的に高品質の意味文法を、少ないデータで半自動的に生成するのを容易にする。さらにこのツールは、文法の開発に関連する作業を大幅に軽減するだけでなく、異なるドメインにおける理解の正確さも向上させる。
Y. Wang and A. Acero, GRAMMAR LEARNING FOR SPOKEN LANGUAGE UNDERSTANDING, IEEE Workshop on Automatic Speech Recognition and Understanding, Madonna D. Campiglio Italy, 2001 Y. Wang and A. Acero, EVALUATION OF SPOKEN LANGUAGE GRAMMAR LEARINIG IN ATIS DOMAIN, Proceedings of ICASSP, Orlando, FL 2002
しかしながら、NLUシステムにおける完全に規則ベースの文法は、依然として堅固さに欠け、もろさが見られる場合がある。
NLUシステムは、スキーマ内の規則ベース文法に関するスロットおよび前終端記号に関する統計モデルを含む。トレーニングシステムも提供される。
本発明は、自然言語理解(NLU)システムに対処するものである。より具体的には、本発明は、規則ベース文法および統計モデルを含むNLUシステムに対処するものである。トレーニングシステムも提供される。ただし、本発明について詳細に論じる前に、本発明を使用可能な環境の一例について論じる。
図1は、本発明を実施することのできる好適なコンピューティングシステム環境の一例を示す図である。コンピューティングシステム環境100は、好適なコンピューティング環境の一例に過ぎず、本発明の使用または機能の範囲に関して、どんな制限をも示唆することを意図するものではない。さらに、コンピューティング環境100は、例示的オペレーティング環境100に示された構成要素のいずれか1つまたは組合せに関する、どんな依存関係または要件としても解釈されるべきではない。
本発明は、多数の他の汎用または特定用途向けコンピューティングシステム環境または構成でも、動作可能である。本発明と共に使用するのに好適な、よく知られたコンピューティングシステム、環境、および/または構成の例には、パーソナルコンピュータ、サーバコンピュータ、ハンドヘルドまたはラップトップデバイス、マルチプロセッサシステム、マイクロプロセッサベースシステム、セットトップボックス、プログラム可能大衆消費電子製品、ネットワークPC、ミニコンピュータ、メインフレームコンピュータ、上記システムまたはデバイスのいずれかを含む分散コンピューティング環境などが含まれるが、これらに限定されるものではない。
本発明は、コンピュータによって実行される、プログラムモジュールなどのコンピュータ実行可能命令の一般的なコンテキストで説明することができる。一般に、プログラムモジュールには、特定のタスクを実行するか、または特定の抽象データ型を実施する、ルーチン、プログラム、オブジェクト、構成要素、データ構造などが含まれる。本発明は、通信ネットワークを介してリンクされたリモート処理デバイスによってタスクが実行される、分散コンピューティング環境でも実施可能である。分散コンピューティング環境では、プログラムモジュールは、メモリ記憶デバイスを含む、ローカルおよびリモートの両方のコンピュータ記憶媒体内に位置することができる。
図1を参照すると、本発明を実施するための例示的システムには、コンピュータ110の形態の汎用コンピューティングデバイスが含まれる。コンピュータ110の構成要素には、処理ユニット120、システムメモリ130、および、システムメモリを含む様々なシステム構成要素を処理ユニット120に結合するシステムバス121が含まれるが、これらに限定されるものではない。システムバス121は、様々なバスアーキテクチャのいずれかを使用する、メモリバスまたはメモリコントローラ、周辺バス、およびローカルバスを含む、いくつかのタイプのバス構造のうちのいずれかであってよい。例を挙げると、こうしたアーキテクチャには、ISA(Industry Standard Architecture)バス、MCA(Micro Channel Architecture)バス、EISA(Enhanced ISA)バス、VESA(Video Electronics Standards Association)ローカルバス、およびメザニンバスとしても知られるPCI(Peripheral Component Interconnect)バスが含まれるが、これらに限定されるものではない。
コンピュータ110は、一般的には様々なコンピュータ読取り可能媒体を含む。コンピュータ読取り可能媒体は、コンピュータ110がアクセス可能な任意の使用可能媒体であってよく、揮発性および不揮発性、着脱可能および着脱不可の、両方の媒体を含む。例を挙げると、コンピュータ読取り可能媒体はコンピュータ記憶媒体および通信媒体を含むことができるが、これらに限定されるものではない。コンピュータ記憶媒体には、コンピュータ読取り可能命令、データ構造、プログラムモジュール、または他のデータなどの情報を記憶するための任意の方法または技術で実施される、揮発性および不揮発性、着脱可能および着脱不可の、両方の媒体が含まれる。コンピュータ記憶媒体には、RAM、ROM、EEPROM、フラッシュメモリまたは他のメモリ技術、CD−ROM、デジタル多用途ディスク(DVD)または他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージまたは他の磁気ストレージデバイス、あるいは、所望の情報を記憶するために使用可能でありコンピュータ110によってアクセス可能な任意の他の媒体が含まれるが、これらに限定されるものではない。通信媒体は、一般的には、搬送波または他の移送メカニズムなどの変調データ信号で、コンピュータ読取り可能命令、データ構造、プログラムモジュール、または他のデータを具体化するものであり、任意の情報送達媒体を含む。「変調データ信号」という用語は、信号の特徴のうちの1つまたは複数を、信号内の情報を符号化するような形で設定または変更した信号を意味する。例を挙げると、通信媒体には、有線ネットワークまたは直接有線接続などの有線媒体、ならびに音波、FR、赤外線、および他の無線媒体などの無線媒体が含まれるが、これらに限定されるものではない。上記のうちのいずれかの組合せも、コンピュータ読取り可能媒体の範囲に含まれるものとする。
システムメモリ130には、読取り専用メモリ(ROM)131およびランダムアクセスメモリ(RAM)132などの、揮発性および/または不揮発性メモリの形のコンピュータ記憶媒体が含まれる。起動時などにコンピュータ110内の要素間での情報の転送を助ける基本ルーチンを含む、BIOS(basic input/output system)133は、通常、ROM131に格納される。RAM132には、通常、即時にアクセス可能であり、かつ/または、現在、処理ユニット120によってその上で動作中である、データおよび/またはプログラムモジュールが含まれる。例を挙げると、図1には、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137が示されているが、これらに限定されるものではない。
コンピュータ110は、他の着脱不可/着脱可能、揮発性/不揮発性のコンピュータ記憶媒体も含むことができる。例を挙げると、図1には、着脱不可の不揮発性磁気媒体からの読取りまたはこれへの書込みを行うハードディスクドライブ141、着脱可能の不揮発性磁気ディスク152からの読取りまたはこれへの書込みを行う磁気ディスクドライブ151、および、CD−ROMまたは他の光媒体などの着脱可能の不揮発性光ディスク156からの読取りまたはこれへの書込みを行う光ディスクドライブ155が示されている。例示的オペレーティング環境で使用可能な他の着脱可能/着脱不可、揮発性/不揮発性のコンピュータ記憶媒体には、磁気テープカセット、フラッシュメモリカード、デジタル多用途ディスク、デジタルビデオテープ、ソリッドステートRAM、ソリッドステートROMなどが含まれるが、これらに限定されるものではない。ハードディスクドライブ141は、通常、インターフェース140などの着脱不可のメモリインターフェースを介してシステムバス121に接続され、磁気ディスクドライブ151および光ディスクドライブ155は、通常、インターフェース150などの着脱可能のメモリインターフェースによってシステムバス121に接続される。
上述し、図1に示した、ドライブおよびそれらに関連付けられたコンピュータ記憶媒体は、コンピュータ読取り可能命令、データ構造、プログラムモジュール、および他のデータのストレージをコンピュータ110に提供する。たとえば図1では、ハードディスクドライブ141が、オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147を格納しているように示されている。これらの構成要素は、オペレーティングシステム134、アプリケーションプログラム135、他のプログラムモジュール136、およびプログラムデータ137と、同じであるかまたは異なってもよいことに留意されたい。オペレーティングシステム144、アプリケーションプログラム145、他のプログラムモジュール146、およびプログラムデータ147には、少なくとも、それらが異なるコピーであることを示すために、ここでは異なる番号が与えられている。
ユーザは、キーボード162、マイクロフォン163、およびマウス、トラックボール、またはタッチパッドなどのポインティングデバイス161を介して、コマンドおよび情報をコンピュータ110に入力することができる。他の入力デバイス(図示せず)には、ジョイスティック、ゲームパッド、衛星放送用パラボラアンテナ、スキャナなどが含まれる。これらおよび他のデバイスは、システムバスに結合されたユーザ入力インターフェース160を介して、処理ユニット120に接続されることが多いが、パラレルポート、ゲームポート、またはユニバーサルシリアルバス(USB)などの他のインターフェースおよびバス構造によって接続することもできる。モニタ191または他のタイプのディスプレイデバイスも、ビデオインターフェース190などのインターフェースを介して、システムバス121に接続される。コンピュータは、モニタに加えて、出力周辺インターフェース195を介して接続することのできる、スピーカ197およびプリンタ196などの他の周辺出力デバイスを含むこともできる。
コンピュータ110は、リモートコンピュータ180などの1つまたは複数のリモートコンピュータへの論理接続を使用する、ネットワーク化環境で動作可能である。リモートコンピュータ180は、パーソナルコンピュータ、ハンドヘルドデバイス、サーバ、ルータ、ネットワークPC、ピアデバイス、または他の共通ネットワークノードであってよく、典型的には、コンピュータ110に関して上記で述べた要素の多くまたはすべてを含む。図1に示された論理接続には、ローカルエリアネットワーク(LAN)171およびワイドエリアネットワーク(WAN)173が含まれるが、他のネットワークを含むこともできる。こうしたネットワーキング環境は、オフィス、企業規模のコンピュータネットワーク、イントラネット、およびインターネットでよく見られる。
LANネットワーキング環境で使用される場合、コンピュータ110は、ネットワークインターフェースまたはアダプタ170を介してLAN171に接続される。WANネットワーキング環境で使用される場合、コンピュータ110は、通常、インターネットなどのWAN173を介して通信を確立するためのモデム172または他の手段を含む。モデムは内蔵型でも外付け型でもよく、ユーザ入力インターフェース160または他の適切なメカニズムを介して、システムバス121に接続することができる。ネットワーク化された環境では、コンピュータ110に関して示されたプログラムモジュールまたはその一部を、リモートメモリ記憶デバイスに格納することができる。例を挙げると、図1には、リモートアプリケーションプログラム185がリモートコンピュータ180上に常駐しているように示されているが、これに限定されるものではない。図示されたネットワーク接続は例示的なものであって、コンピュータ間の通信リンクを確立する他の手段も使用可能であることを理解されよう。
本発明は、図1に関して記載したようなコンピュータシステム上で実行可能であることに留意されたい。ただし本発明は、サーバ、メッセージ処理専用コンピュータ、または、本発明の様々な部分が分散コンピューティングシステムの様々な部分で実行される分散型システム上で実行可能である。
図2Aは、本発明の一実施形態に従ったモデルオーサリングシステム200を示すブロック図である。モデルオーサリングシステム200には、モデルオーサリング構成要素202およびオプションのユーザインターフェース204が含まれる。図2Aは、モデルオーサリング構成要素202が、スキーマ206、トレーニング例テキスト文字列および注釈(training example text strings and annotations)208のセット、オプションの文法ライブラリ209を入力として受け取り、規則ベース文法(文脈自由文法(context free grammar)またはCFGなど)210を出力することも示している。オプションの文法ライブラリ209は、アプリケーションデータベースから取得可能な、日付および時刻などのドメインに無関係の概念、ならびに都市名、航空会社などのドメインに依存した概念に関する定義を含む。
システム200の詳細なオペレーションについては、以下でより詳細に述べる。ただし、簡潔に言えば、ユーザは、モデルオーサリング構成要素202に、スキーマ206およびトレーニング例テキスト文字列208を提供する。これは、オプションのユーザインターフェース204または何らかの他のユーザ入力メカニズム、あるいは、自動化手段を介して実行することができる。モデルオーサリング構成要素202は入力を受け取り、その入力に基づいて、規則ベース文法210を生成する。規則ベース文法の一例は、コンピュータが入力をテキストの意味表現にマッピングできるようにする、文脈自由文法(またはCFG)である。
スキーマ206は、例示的に言えば、モデル化されるドメインの意味記述である。スキーマの一例が図2Bに示されている。図2Bは、開発者がシステム200に入力することのできる、かなり簡略化されたスキーマ212を示す。スキーマ212は、様々な都市へ出発し様々な都市から到着するフライト、ならびに様々な出発および到着時刻を有するフライトを示すための、ユーザからの入力に関する様々なテキスト文字列の意味を表すスキーマである。スキーマ212は、フライト表示コマンド(ShowFlight)がスロットとしてFlightに関する意味クラスを含むことを示す。さらにスキーマ212は、Flightに関する意味クラスが、出発時刻、到着時刻、出発都市、および到着都市に対応する4つのスロットを有することを示すように、さらに詳細に示す。
モデルオーサリング構成要素202は、スキーマ212から、図2Cに示された規則セットを生成することができる。規則1は、ShowFlight文が、コマンド部分ShowFlightCmdを常に有し、その後にプロパティ部分ShowFlightPropertiesが続くことを示す。
規則2は、ShowFlightProperties部分の中に、1つまたは複数のプロパティを含むことができることを示す。たとえば、規則2は、ShowFlightProperties部分が、少なくとも1つのShowFlightPropertyを含み、その後にオプションのShowFlightProperties部分を続けることができることを示す。このShowFlightPropertiesの再帰的定義は、その表現を簡略化し、1つまたは複数のプロパティを有することができるようにするものである。
規則3は、ShowFlightProperty部分が、ShowFlightPreFlight部分、Flight部分、およびShowFlightPostFlight部分を含むことを示す。これは、スキーマ内のスロットFlightが、プリアンブルおよびポストアンブルの両方を有することができることを示す。
規則4は、Flightはスキーマ内のオブジェクトであり、ShowFlightはコマンドであるため、スキーマ内のオブジェクトFlightがコマンド部分を有さず、プロパティ部分(FlightProperties)のみを有することを示す。規則5は、FlightProperties部分が、少なくとも1つのFlightPropertyと、その後に続くオプションのFlightPropertiesとを含むように、再度再帰的に定義されることを示す。
規則6から9は、図2Bに示されたスキーマ212の4つのスロットに対応する。規則6は、第1のプロパティが、プリアンブル(FlightPreDepartureCity)が前に付き、ポストアンブル(FlightPostDepartureCity)が後ろに付いた、出発都市スロットを有するように定義する。規則7は、同じ方法で到着都市を定義し、規則8および9は、同様の方法でそれぞれ出発時刻および到着時刻を定義する。
図2Cで識別されたすべての規則が、モデルオーサリング構成要素202によって、スキーマ212から自動的に生成可能であるということは事実であるが、依然として、どの特定の単語が特定の前終端記号(コマンド意味クラス用のコマンド、ならびにスロット用のプリアンブルおよびポストアンブル)に実際にマッピングされるかを示す書き換え規則(rewrite rule)はない。たとえば、「please show me the flights...」の句がShowFlightCmdにマッピングされることを示す規則がない。同様に、具体的にどの単語を、たとえばFlightPreArrivalCityプリアンブルなどにマッピングするかを示す、書き換え規則がない。したがって、開発者は、モデルオーサリング構成要素202がこれらの書き換え規則も学習できるように、トレーニング例テキスト文字列および注釈208も入力する。
図2Dは、例テキスト文字列213「Flight from Seattle to Boston」ならびに、テキスト文字列213に対応する意味注釈214の一例を示す図である。意味注釈214は開発者によって提供され、文字列213の意味論的意味を示すものである。たとえば意味注釈214は、入力テキスト文字列213が、それ自体がどちらも都市である2つのスロットを有するスロットFlightを有するShowFlightコマンドに対応することを示す。Flightスロット内の2つのスロットは、スロットの名前によってのみ区別される。一方は「Arrival」都市と呼ばれ、他方は「Departure」都市と呼ばれる。意味注釈214は、単語「Boston」を「Arrival」都市スロットにマッピングし、単語「Seattle」を「Departure」都市スロットにもマッピングする。したがって、モデルオーサリング構成要素202は、注釈214に基づき、どのスロットが単語「Seattle」および「Boston」にマッピングされているかを知ることができる。
図2Cに示された注釈の付けられた例およびテンプレート文法規則から、モデルオーサリング構成要素202は、図2Eに示された解析ツリー216などの、規則ベース文法(またはCFG)解析ツリーを生成することができる。解析ツリー216の第1のレベル218(ShowFlightがShowFlightCmdおよびそれに続くShowFlightPropertiesで形成されることを示す部分)は、図2Cの規則1から形成される。
第2のレベル220(ShowFlightPropertiesがShowFlightPropertyで形成されることを示す部分)は、オプションのShowFlightProperties部分が使用されない規則2から生成される。
次のレベル222(ShowFlightPropertyが、ShowFlightPreFlightおよびそれに続くFlightおよびそれに続くShowFlightPostFlightで形成されることを示す部分)は、図2Cの規則3から生成される。
次のレベル224(FlightオブジェクトがFlightProperties部分で形成されることを示す)は、図2Cの規則4から生成される。
次のレベル226(FlightProperties部分がFlightProperty部分およびそれに続くFlightProperties部分で形成されることを示す部分)は、図2Cの規則5から生成される。
次のレベル228(FlightProperty部分が、FlightPreDepartureCityおよびそれに続くCityスロットおよびそれに続くFlightPostDepartureCityポストアンブルで形成されることを示すレベル)は、規則6から生成され、次のレベル230(FlightPropertiesが、FlightPreArrivalCityプリアンブル、Cityスロット、およびFlightPostArrivalCityポストアンブルで形成されることを示すレベル)は、規則7から生成される。
最後に、レベル228の下で単語「Seattle」がCityスロットにマッピングされ、レベル230の下で単語「Boston」がCityスロットにマッピングされることを示すレベルが、同様にユーザによって入力される意味注釈214から生成される。したがって、モデルオーサリング構成要素202は、入力文における単語「Seattle」および「Boston」から、CFG解析ツリーおよび図2Cで生成された規則へのマッピング方法を習得することができる。都市規則は、注釈付きデータの代わりにライブラリ文法(これは次に、ドメイン特有のデータベースからデータを取得することによって構築可能である)からも取得可能であることに留意されたい。
ただし、入力文の中には、依然としてまだツリーにマッピングされていないいくつかの単語がある。これらの単語には、「Flight」、「from」、および「to」が含まれる。単語「Flight」および「from」は「Seattle」の前に付けられるため、FlightCmd、ShowFlightPreFlight、およびFlightPreDepartureCityを含む、解析ツリー216内の様々な前終端記号にマッピングすることができる。同様に、単語「to」は、入力テキスト文字列213内の単語「Seattle」と「Boston」との間にあるため、単語「to」を、FlightPostDepartureCityまたはFlightPreArrivalCityのいずれかにマッピングすることができる。
単語「to」は前置詞であることが知られているため、その後に来るものを変えなければならない。したがって、単語「to」を、解析ツリー216内のFlightPreArrivalCity前終端記号にマッピングすると決定することができる。
ただし、単語「Flight」および「from」が解析ツリー216内のどこにあるべきかは、依然として知られていない。また、2つの単語の特定のセグメント化(segmentation)も知られていない。たとえば、一代替形態では、単語「Flight」をShowFlightCmdにマッピング可能であるが、単語「from」はShowFlightPreFlightにマップされる。その場合、前終端記号FlightPreDepartureCityは空のセットにマッピングされる。
他の代替形態によれば、単語「Flight」および「from」はどちらも「ShowFlightCmd」にマッピングされ、他の前終端記号ShowFlightPreFlightおよびFlightPreDepartureCityはどちらも空のセットにマッピングされる。
さらに他の代替形態では、「Flight」はShowFlightCmdにマッピングされ、「from」はFlightPreDepartureCityにマッピングされるが、残りの前終端記号ShowFlightPreFlightは空のセットにマッピングされる。
これは、開発者からの追加の情報がない場合にこれまで解決されなかった、セグメント化のあいまいさを表すものである。従来の一部のシステムでは、可能なセグメント化はそれぞれがユーザに表示され、ユーザはそれらセグメント化のうちの1つを選択できるだけであった。
ただし、その結果、いくつかの問題が生じた。第1に、このタイプのユーザとの対話は押し付けがましく、時間の無駄である。また、可能な前終端記号が他にもある場合、および、入力テキスト文字列内に位置合わせされていない単語が他にもある場合、ユーザに示されなければならない可能性の数は劇的に増える。ユーザが選択するためのこうした候補セグメント化をすべて効果的に表示することは、不可能ではないにしても、非常に困難である。さらに、ユーザが選択するためのセグメント化が適切に表示された場合であっても、ユーザはセグメント化でエラーをするか、または同様のテキスト文字列を矛盾してセグメント化することが多い。
一実施形態によれば、セグメント化選択のあいまい性を除去するために、期待値最大化(expectation maximization)(EM)アルゴリズムが、モデル構成要素202のセグメント化あいまい性(segmentation ambiguity)に適用される。EMアルゴリズムは、通常、モデルが観測可能な隠し変数(hidden variable)を含む場合に、最尤推定量(maximum likelihood estimator)でモデルパラメータを推定するためのアルゴリズムである。
図3Aは、モデルオーサリング構成要素202をより詳細に示すブロック図である。図3Aは、モデルオーサリング構成要素202が例示的にテンプレート文法生成器300、セグメント化EMアプリケーション構成要素302、およびプルーニング(pruning)構成要素304を含むことを示す。テンプレート文法生成器300は、スキーマ206と、スキーマ206内の意味クラスによって(適切なタイプ単一化を介して)参照されるオプションの文法ライブラリ209の任意の規則を受け取り、スキーマ206およびオプションの文法ライブラリ209から習得または収集することのできるすべての規則を含むテンプレート文法を生成する。その後、テンプレート文法は、トレーニング例(training example)(テキスト文字列およびそれらの注釈)と共に、EMセグメント化構成要素によって入力として受け取られる。EMセグメント化構成要素302は、テンプレート文法を使用して、トレーニング例中のセグメント化あいまい性を見つける。その後、構成要素302は、セグメント化あいまい性を除去する働きをする。そのあいまい性除去に基づいて、プルーニング構成要素304を使用して文法から書き換え規則をプルーニングし、規則ベース文法210を提供することができる。
EMセグメント化構成要素302のオペレーションをさらに例示するために、図2Fおよび2Gに例示の表が示されている。図2Fは、例示セットを含む表である。その第1は、おそらく単語「from」が、前終端記号ShowFlightCmdまたは前終端記号FlightPreDepartureCityのいずれかにマッピング可能であることを示す。この例は、EMセグメント化構成要素302が、「from Seattle to Boston」のような例文から成果を得ることができるものである。第2の例は、単語「Flight from」が、前終端記号ShowFlightCmdおよびFlightPreDepartureCityにマッピング可能であることを示す。この例は、EMセグメント化構成要素302が、「Flight from Seattle to Boston」のような例文から成果を得ることができるものである。第3の例は、単語「Flight to」が、前終端記号ShowFlightCmdおよびFlightPreArrivalCityにマッピング可能であることを示し、これも同様に、EMセグメント化構成要素302が「Flight to Boston on Tuesday」のような例から成果を得ることができるものである。ただし、例のセグメント化はあいまいである。言い換えれば、第1の例にある単語「from」が、前終端記号ShowFlightCmdまたは前終端記号FlightPreDepartureCityにマッピングされるかどうかは、まだわからない。同様に、単語「Flight from」を、前終端記号ShowFlightCmdとFlightPreDepartureCityとの間にマッピングする方法もまだわからない。さらに、単語「Flight」を、可能な前終端記号ShowFlightCmdとFlightPreArrivalCityとの間にマッピングする方法も、もちろんわからない。
図2Gは、EMセグメント化構成要素302のオペレーションをさらに示す表である。図3Bは、EMセグメント化構成要素302のオペレーションを示す流れ図であり、図2Fおよび2Gと共に説明する。
第1に、EMセグメント化構成要素302はすべての可能なセグメント化を列挙する。これは、可能な書き換え規則とラベル表示された、図2Gの左の列に示されている。図2Gに示された書き換え規則では、前終端記号名を形成する単語の一部は略記されている。したがって、例を挙げると、書き換え規則SFCmd→εは、ShowFlightCmd(SFCmdと略記)前終端記号が空のセットにマッピングされる、セグメント化を示す。同様に、書き換え規則SFCmd→fromは、単語「from」が前終端記号ShowFlightCmdにマッピングされる、セグメント化を示す。さらに、FPDCity→εは、前終端記号FlightPreDepartureCity(FPDCityと略記)が空のセットにマッピングされるセグメント化を示し、FPACity→εは、前終端記号FlightPreArrivalCity(FPACityと略記)が空のセットにマッピングされるセグメント化を示す。これらの例から、図2Gに示された表の書き換え規則部分の他の注記については改めて説明するまでもない。図2Fに示された例について、それぞれの可能なセグメント化が列挙されていると言えば十分であろう。
図2Fの第1の例から、1つのセグメント化は、単語「from」がShowFlightCmdにマッピングされることを示し、他のセグメント化は、単語「from」がFlightPreDepartureCityにマッピングされることを示す。
図2Fの第2の例は、いくつかの異なるセグメント化の代替例もサポートしている。たとえば、1つのセグメント化代替例によれば、単語「Flight from」は、どちらも前終端記号ShowFlightCmdにマッピングされ、前終端記号FlightPreDepartureCityはεにマッピングされる。他のセグメント化代替例では、単語「Flight from」は、どちらも前終端記号FlightPreDepartureCityにマッピングされ、前終端記号「ShowFlightCmd」はεにマッピングされる。さらに他の代替例では、単語「Flight」と「from」とは分けられ、その結果、「Flight」が前終端記号ShowFlightCmdにマッピングされ、単語「from」は前終端記号FlightPreDepartureCityにマッピングされる。これらのセグメント化は、それぞれ、図2Gに列挙された書き換え規則にも示されている。
第3の例は、第2の例と同様の方法でセグメント化することが可能であって、単語「Flight to」が前終端記号ShowFlightCmdまたは前終端記号FlightPreArrivalCityのいずれかにマッピング可能であり、他方の前終端記号はεにマッピングされるか、あるいは、単語「Flight to」を前終端記号ShowFlightCmdとFlightPreArrivalCityとに分けることが可能である。また、これらのセグメント化も、図2Gに示された書き換え規則で表される。
すべての可能なセグメント化の列挙は、図3Bの流れ図のブロック306で示される。
セグメント化をサポートする書き換え規則がいったん列挙されると、それらにはそれぞれ確率が割り当てられる。始めは、図2Gに示されたすべてのセグメント化に同じ確率が割り当てられる。これは、図3Bのブロック308で示される。
次に、EMセグメント化構成要素302は、図2Fに示された例の新しい予測カウントの可能なオカレンスに基づいて、列挙された書き換え規則に新しい予測カウントを割り当てる。これはブロック310で示される。たとえば、第1の例では、2つの可能なセグメント化があり、一方は単語「from」をShowFlightCmdにマッピングし、前終端記号FlightPreDepartureCityをεにマッピングするものであり、他方はShowFlightCmdをεにマッピングし、単語「from」を前終端記号FlightPreDepartureCityにマッピングするものである。最初の書き換え規則は、前終端記号ShowFlightCmdをε(空のセット)にマッピングすることを述べたものである。したがって、第1の例のセグメント化の半分は、図2Gの表に示された第1の書き換え規則をサポートしている。この第1の例から、第1の書き換え規則(ShowFlightCmd→ε)に、2分の1のカウントが割り当てられる。
上述のように、第2の例は、3つの異なるセグメント化をサポートしており、そのうちの1つは「Flight from」の両方の単語を前終端記号ShowFlightCmdに、前終端記号FlightPreDepartureCityをεに割り当てるものであり、もう1つは単語「Flight」を前終端記号ShowFlightCmdに、単語「from」を前終端記号FlightPreDepartureCityにマッピングするものであり、最後は、前終端記号ShowFlightCmdをεに、「Flight from」の両方の単語を前終端記号FlightPreDepartureCityにマッピングするものである。これら3つのセグメント化のうち、1つは、第1の書き換え規則(SFCmd→ε)をサポートしている。したがって、第2の例から、第1の書き換え規則には3分の1のカウントが割り当てられる。
同様に、第3の例は、3つの可能なセグメント化を有し、そのうちの1つは前終端記号ShowFlightCmdをεにマッピングする。したがって、第3の例から、図2Gに示された第1の書き換え規則には、再度、3分の1のカウントが割り当てられる。
この種の分析を使用すると、第2の書き換え規則(SFCmd→from)は第1の例によってのみサポートされている。したがって、第1の例には2つの可能なセグメント化があり、そのうちの1つは第2の書き換え規則をサポートしているため、第2の書き換え規則(SFCmd→from)には2分の1のカウントが割り当てられる。
第3の書き換え規則(SFCmd→Flight)は、図2Fに示された第2および第3の例のそれぞれからのセグメント化のうちの1つによってサポートされる。したがって、それらの例はそれぞれ3つの可能なセグメント化を有するため、第3の書き換え規則(SFCmd→Flight)には、各例から3分の1のカウントが割り当てられる。
EMセグメント化構成要素302は、このように、図2Gに列挙されたそれぞれの書き換え規則にカウントを割り当て、それらのカウントが図2Gに示された表の第2列に示されている。カウントはすべて、共通の分母を有するように変換され、各前終端記号について確率が得られるように正規化される。言い換えれば、ShowFlightCmd終端記号の全確率量は、合計すると1でなければならない。したがって、各書き換え規則に関連付けられた確率を得るために、その書き換え規則のカウントに正規化係数を掛ける。
たとえば、前終端記号ShowFlightCmdのカウント合計は3であることがわかる。したがって、第1の書き換え規則(SFCmd→ε)の確率は7/18である。同様に、第2の書き換え規則(SFCmd→from)の確率は3/18、というようになる。EMセグメント化構成要素302は、この確率を得るために、各書き換え規則および各前終端記号のカウントを処理する。
前終端記号FPDCityの場合、異なるすべての規則にわたるカウントの合計は2であるため、正規化係数は1/2である。最後の前終端記号FPACityの場合、カウントは1である(3*1/3=1)ため、正規化係数は1である。したがって、EMセグメント化構成要素302は、例によってサポートされている書き換え規則のオカレンスをより正確に反映するように、各書き換え規則に関連付けられた確率を1にリセットする。新しい確率を得るためにカウントを正規化することは、図3Bのブロック312で示される。
EMセグメント化構成要素302は、カウントおよび確率が収束するまで、このプロセス(カウントを再度推定し、新しい確率を取得すること)を反復する。これはブロック314で示される。たとえば、第1の書き換え規則について新しいカウント
Figure 0004724377
を取得するために、EMセグメント化構成要素302は、第1に、非終端記号シーケンスがShowFlightCmdおよびFPDCityであると想定し、単語「from」を観察する合計尤度を求める数式1を以下のように実施する。
数式1 P(from|ShowFlightCmd FPDCity)
=P(ε|ShowFlightCmd)*P(from|FPDCity)
+P(from|ShowFlightCmd)*P(ε|FPDCity)
=[(7/18)×(5/12)]+[(3/18)×(5/12)]=50/216
この数量から、空の文字列をShowFlightCmdと位置合わせし、「from」をFPDCityと位置合わせするセグメント化の比率は、以下のような新しく予測されるカウント
Figure 0004724377
になる。
Figure 0004724377
同様に、第2の書き換え規則(SFCmd→from)の新しいカウント
Figure 0004724377
は、以下のように計算される。
Figure 0004724377
このプロセスは、各例からカウント
Figure 0004724377
を収集するために、それぞれの書き換え規則について続行される。その後、新しいカウントに正規化係数を掛け合わせ、新しい確率を取得する。図3Bに示されるように、構成要素302は、確率が収束するまでこのプロセスを反復し、新しいカウントおよび新しい確率を再度推定する。
反復が完了すると、EMセグメント化構成要素302は、列挙されたそれぞれの書き換え規則に関連付けられた、新しいカウントおよび新しい確率を計算することになる。これは、本質的かつ自然に、非常に役立つものであるが、それぞれのセグメント化に対する確率を、トレーニング中に取得した異なるセグメント化に対応する規則に割り当てているので、望ましい最終結果ではない場合がある。たとえば、解析プログラムによっては、確率を利用できないものがある。また、解析を行う構成要素によっては、規則の数が多すぎて、解析プログラムの効率が悪くなる場合がある。
したがって、一実施形態によれば、構成要素302が、規則および関連する確率をプルーニング構成要素304に提供し、ここで規則をプルーニングすることができる。これは、図3Bのブロック316および318で示される。プルーニング構成要素304は、いくつかの異なる方法のうちの1つ(ブロック320で示されるように、プルーニングされたセグメント化に基づいて、最終規則を取得するために、列挙された規則を改定するなど)で、規則をプルーニングすることができる。たとえば、プルーニング構成要素304は、単に、所望のしきい値レベルより低い確率を有する規則だけをプルーニングすることができる。その後、構成要素304は、残りの規則を規則ベース文法210に導入する。
他の実施形態によれば、プルーニング構成要素304は、各例に対応する尤度の高い所定数のセグメント化を除いてすべて消去し、残りのセグメント化に従って、文法に書き換え規則を導入するだけである。たとえば、プルーニング構成要素304は、最も高い確率を有する1つを除き、各例に対応するすべてのセグメント化を消去することができる。したがって、例1の場合、単語「from」を前終端記号FlightPreDepartureCityにマッピングしたセグメント化が、単語「from」を前終端記号ShowFlightCmdに割り当てたセグメント化よりも高い確率を有すると想定する。その場合、第2のセグメント化(「from」をShowFlightCmdにマッピングしたもの)が消去される。このケースでは、選択されたセグメント化をサポートする2つの書き換え規則が文法に追加される。したがって、書き換え規則「SFCmd→ε」および書き換え規則「FPDCity→from」の両方が、文法に追加される。
同様に、任意の例の最善のセグメント化がもはやサポートしなくなった規則を、図2Gに示された列挙規則から除去することができる。したがって、規則「SFCmd→from」は、消去された例1のセグメント化によってのみサポートされていたので、除去することができる。
ここで、この方法でのEMアルゴリズムの適用について、より正式な数学用語を使用して説明する。セグメント化あいまい性解決法を、各ブロックがシーケンスN=NT、NT、...、NTの前終端記号と位置合わせするように、単語シーケンスw=w、w、...、wに関するmブロック区画π=α、α、...、αを見つける問題として、形式化することができる。ブロックは、wからの0またはそれ以上の単語を含むことができる。
π、N、およびwの接合(joint)確率をモデル化すると、以下のようになる。
Figure 0004724377
次に、Nおよびwが与えられると、以下のように最尤セグメント化を得ることができる。
Figure 0004724377
こうした区画は、ヴィテルビ検索(viterbi search)で見つけることができる。したがって、残る唯一の問題は、あらゆる前終端記号(または概念)NTおよび単語シーケンスαに関するモデルパラメータP(NT→α)を推定することである。これは、トレーニングデータが、各前終端記号に対する単語シーケンスとペアになった前終端記号のリストである場合、最尤(ML)推定で実行することができる。ただし、オーサリングツールを介してユーザから取得されるトレーニング例は、例示的には、前終端記号シーケンスと終端記号シーケンスとのペアである。区画またはセグメント化は隠し変数であり、ツールにはわからない。
EMアルゴリズムは、まず、モデルのパラメータPφを設定し、その後、反復的にパラメータをPφ´に修正し、その結果、観測の尤度Dが増加する。
こうしたPφ´を見つけるために、数式6に補助関数Qを定義する。
Figure 0004724377
これは、L(D|Pφ´)−L(D|Pφ)の下限、すなわち、2つのモデルパラメータ化の間のトレーニングデータの対数尤度差である。EMアルゴリズムは、前終端記号に関するすべての可能な書き換え規則の確率の合計が1でなければならないという制約を条件として、新しいパラメータ化によるトレーニングサンプル尤度の増加を最大にするために、Qを最大化することによって、パラメータPφ´を貪欲に(greedily)リセットする。したがって、各規則NT→αについて、以下の数式を解くことによってその新しい確率が取得できる。
Figure 0004724377
Figure 0004724377
であるので、
Figure 0004724377
したがって、確率は、以下のように、予測カウント掛ける正規化係数−1/λにリセットされるはずである。
Figure 0004724377
予測カウントを計算するには、以下のことに留意されたい。
Figure 0004724377
したがって、以下のようになる。
Figure 0004724377
Figure 0004724377
を、前終端記号シーケンスNを単語シーケンスwに書き換えるプロセスにおいて、サブシーケンスα=w、...、wを生成するために、N中のk番目の前終端記号に対して規則NT→αが使用されるイベントとし、
Figure 0004724377
を、シーケンスN中の位置sからtまでの前終端記号が、終端記号の単語w、...、wq=1をカバーする確率とする。すると、以下のようになる。
Figure 0004724377
したがって、
Figure 0004724377
を計算できる場合、数式9、11、および13を組み合わせて、予測されるカウントを取得し、モデルパラメータをリセットすることができる。実際、
Figure 0004724377
は、数式14に従って動的プログラミングで計算することが可能であり、この式で、εはnull文字列である。
Figure 0004724377
数式11で、
Figure 0004724377
が使用できることに留意されたい。
図4は、本発明の異なる態様に従った、モデルオーサリング構成要素350の他の実施形態を示す図である。規則ベース文法210は、依然として、所望のレベルよりも堅固さに欠け、よりもろい可能性がある。たとえば、以下の規則が生成されるトレーニング時に、以下の前終端記号をモデル化すると想定してみる。
FlightPreArrivalCity→to
ShowFlightCmd→Show me the flight
さらに、ランタイム時に、センテンス入力が「Show flight to Boston」であると想定してみる。「Show flight」がShowFlightCmdであるとする規則はないため、入力されたセンテンスは理解されないことになる。
CFGは、高解像度理解(high resolution understanding)に対して良い働きをする。高解像度理解とは、センテンスを多数のスロットに分解する文法を表す。スロットの数が多いほど、文法が示す解像度理解も高くなる。CFGは、高解像度状況で適切に一般化される。
ただし、アプリケーションの多くは、充填されるスロットの数が多くない、低解像度理解を必要とする。こうしたアプリケーションの1つがコマンドおよび制御である。たとえば、コマンドおよび制御アプリケーションでは、認識しなければならないコマンドの一部に、「ChangePassword」、「ChangeBackground」、および「ChangeLoginPicture」が含まれる。これらのインスタンスでは、充填されるスロットはなく、センテンス全体をコマンドとして認識しなければならない。トレーニング時には、これは、以下のような規則で良い結果が得られる。
ChangeLoginPictureCmd→Please change my login icon
「ChangeLoginPicture」はコマンドであるため、規則に対するプロパティ部分がない。したがって、文法学習者は、獲得した規則中のセンテンス全体を単に「覚える」だけである。ユーザが発行したコマンドを認識して呼び出すためには、コマンドがトレーニングデータ中のセンテンス全体と一致しなければならない。一般化はまったくない。
本発明の一実施形態は、テンプレート文法中の規則で(コマンド、プリアンブル、およびポストアンブルなどの)前終端記号をモデル化する代わりに、前終端記号をモデル化するために(n−gramなどの)統計モデルが使用される。一実施形態では、テンプレート文法中の前終端記号に対応する列挙されたセグメント化について生成されたテキストが、n−gram(または他の統計モデル)に関するトレーニングデータとして使用される。したがって、上記の例では、EMアルゴリズムの予測ステップで収集されたその予測されるカウントと共に、前終端記号に関して列挙されたセグメント化に対応するテキスト文字列を使用して、前終端記号についてn−gramをトレーニングする。したがって、テキスト「Show me the flight」は、ShowFlightCmd前終端記号をモデル化するためにn−gramをトレーニングする際の、トレーニングデータとして使用される。したがって、「Show flight」の付いたセンテンスがShowFlightCmdとして認識される確率は、以下のように計算することができる。
数式15
Pr(<s>showflight</s>|ShowFlightCmd)=
Pr(show|<s>; ShowFlightCmd)*
Pr(flight|show;ShowFlightCmd)*
Pr(</s>|flight; ShowFlightCmd)
規則は「show flight」をShowFlightCmdとして識別しなかったが、上記の数式15でのn−gram確率はゼロにはならない。数式15の第1の係数および第3の係数は、実際にトレーニングデータ内に存在するbigramに対応する(すなわち、[<s> show]および[flight <s/>])ので、非ゼロである。第2の係数は、トレーニングデータ内に示されるbigramに対応していないが、バックオフのような平滑化技法(以下で説明)により、これも非ゼロの確率を有し、以下のように表すことができる。
数式16
Pr(flight|show;ShowFlightCmd)=
backoff_weight*Pr(flight|ShowFlightCmd)
バックオフ重みは、経験的に、ないしは望みどおりに設定可能であり、unigram確率Pr(flight|ShowFlightCmd)は、「flight」がトレーニングデータ中の単語であるため、非ゼロである。
Pr(show flight</s>|ShowFlightCmd)>0であるため、解析プログラムは、入力センテンスをShowFlight候補としてみなすことになる。入力センテンスの最終解釈は、他の解釈候補との比較に依存することになる。
図4は、前終端記号(コマンド、プリアンブル、およびポストアンブルなど)を識別するために、スロットをモデリングするための規則および統計モデル部分326(n−gramなど)を含む、文法部分210(CFGなど)を含む複合モデル351をオーサリングする、モデルオーサリング構成要素350の他の実施形態を示す図である。したがって、ランタイム時に、入力センテンスは、前終端記号を識別する際には統計モデル部分326で評価され、スロットに充填する際には規則ベース文法部分210で評価される。
構成要素350は、部分的に、上述したEMアルゴリズム技法を使用して、複合モデル351をトレーニングする。たとえば、図5は、様々なサンプルセグメント化に従って、ShowFlightCmdに関するすべての列挙規則を示すと想定する。
図2A〜3Bに関して上述したモデルの場合、EMアルゴリズムのEステップ中に、図5に示された列挙規則それぞれについて予測カウントが収集される。Mステップ中には、カウントが正規化される。ただし、複合モデル351の場合、アルゴリズムのMステップ中にカウントを正規化する代わりに、列挙規則の右側にあるテキスト文字列およびそれら規則に対応した関連する予測カウントが、ShowFlightCmd前終端記号用にn−gramをトレーニングおよび平滑化するためのトレーニングデータとして使用される。
言い換えれば、n−gramをトレーニングする際に、単語シーケンスの各オカレンスについて、全カウントを追加する必要はない。代わりに、トレーニングセンテンスに関連付けられた規則に関する予測カウントに対応する分数データ(図3Aに示されたEMセグメント化構成要素302によって生成される)が、単語シーケンスの各オカレンスについて追加される。
図2A〜3Bに関してセグメント化のあいまい性除去について記載された実施形態との他の違いには、EMアルゴリズムのEステップが含まれる。それぞれの列挙規則に確率を関連付ける代わりに、規則の確率は、規則中のすべてのn−gramの積である。
たとえば、上述した規則ベース文法では、規則
ShowFlightCmd→Show me the flight
は、それに関連付けられた極小(atomic)確率を有する。ただし、複合モデル351では、規則に関する確率は以下のように計算することができる。
数式17
Pr(ShowFlightCmd -> show me the flight) =
Pr(show|<s>; ShowFlightCmd) *
Pr(me|show; ShowFlightCmd) *
Pr(the|me; ShowFlightCmd) *
Pr(flight|the; ShowFlightCmd) *
Pr(</s>|flight; ShowFlightCmd)
また、本発明の一実施形態によれば、前終端記号に関する統計モデルのトレーニングには、平滑化アルゴリズムの適用が含まれる。たとえば、前終端記号に関する統計モデルのトレーニングのためのトレーニングデータは、所与の前終端記号に関連付けられたセグメント化について列挙されたテキスト文字列のみを含むため、相対的に疎である可能性がある。これにより、統計モデルが相対的に大量の言語表現をカバーしないままとなり、したがって、統計モデルは相対的にもろくなる。そこで、モデル確率は、より低レベルのn−gramを使用し、一様分布で平滑化される。言い換えれば、統計モデルがbi−gramを含む場合は、コンテキストに関係なく、モデル化された単語に確率を与えるunigramで平滑化される。さらに統計モデルは、語彙中の各単語に同じ確率を割り当てる、一様分布でも平滑化される。したがって、単語が語彙中にある場合、その単語は、統計モデルによって、ゼロ確率ではモデル化されないことになる。平滑化オペレーションでは、各モデルについての重みを見つけて、異なる順序のモデルを線形補間するために、削除された補間が使用される。
モデルオーサリング構成要素350は、本発明の異なる実施形態にしたがって、追加の統計モデル構成要素もトレーニングすることができる。これについては、図6に示されたブロック図で詳細に例示している。たとえば、そのブロック図では、統計モデル部分326は前終端記号に関する統計モデル構成要素340だけでなく、複数の他の統計モデルも含むように示されている。たとえば一実施形態では、統計モデル部分326は、タスクの前の確率をモデル化する統計モデル、およびスロット移行(transition)に関する統計モデルを含む、構成要素であるコマンド前のモデル342およびスロット移行の関する統計モデル344を含むことができる。
たとえば、ランタイム入力センテンスが「Show flights to Boston arriving on Tuesday, 11:00 a.m.」であるとする。用語「arriving on」は、「Tuesday」が到着日に対応することを示すものとして分析される。ただし、「11:00a.m.」の前に、これが出発時刻であるか到着時刻であるかを示す単語がない。「arrival date」スロットの後に「arrival time」スロットが続く確率は、「departure date」スロットの後に「departure time」スロットが続く確率よりも高いことが多い。こうしたスロット移行がモデル化される場合、スロット移行モデルは、「11:00a.m.」が「arrival time」スロットと付き合わされることが好ましい。スロット移行をモデル化するために統計モデル(n−gramモデルなど)をトレーニングすることは、nの順序が異なることを除いて、スロットの前の確率をモデル化するために統計モデル(n−gramモデルなど)をトレーニングすることと同じであることにも留意されたい。スロットの前の確率の場合、unigramモデルがトレーニングされ、2つのスロット間のスロット移行をモデル化するために、bigramモデルがトレーニングされるなどが行われる。
さらに、一部のコマンドは、トレーニングデータ内で他のコマンドよりも頻繁に実行される。したがって、コマンドの前の確率がコマンドの前のモデル342でモデル化される。
次に、本発明の他の例に関して、より詳細に説明する。図7は、アポイントメントスケジューリングコマンドNewApptに関する意味を定義する、スキーマにおける意味クラスを示す、例示的な簡略化された例である。
図8は、意味クラスNewApptに関して自動的に生成可能なテンプレート規則を示す図であり、括弧内の記号はオプションである。図9は、注釈付きセンテンス「New meeting with Peter at 5:00」の一実施形態を示す図である。図10は、上述のように、セグメント化のあいまい性除去がいったん実行されると追加することのできる、2つの規則を示す図である。
ただし上述のように、完全に規則ベースの文法は、堅固さに欠け、もろさが見られる可能性がある。したがって、本発明の一態様では、テンプレート文法中のコマンド、プリアンブル、およびポストアンブルをそれぞれモデル化し、スロット移行をモデル化するために、CFG規則をn−gramに置き換える。スロットn−gramは、プリアンブルおよびポストアンブルのないスロットの解釈を制約する。結果として生じるモデルは、統計モデル(またはHMM)およびCFGの複合である。HMMは、テンプレート規則およびn−gram前終端記号をモデル化し、CFGはライブラリ文法をモデル化する。
こうしたモデルの一例が、図11に示されている。用語「Att」は「Attendee(出席者)」の略語であり、「ST」は「StartTime(開始時刻)」の略語である。排出(emission)確率bは、前終端記号に依存するn−gramであり(図中では、unigramとして示されているが、より高位の排出分布では結果的に高位HMMとなる)、移行確率aは、スロット移行bigramである。スロットノードからの排出はライブラリCFG非終端記号である。単語は、CFGモデルPCFGに従って、それらから生成される。
図11に示されたモデルでは、入力センテンスsの意味は、以下を満たすヴィテルビの意味クラスcおよび状態シーケンスσを見つけることによって取得することができる。
Figure 0004724377
新しいモデルは、CFGモデルの制限を克服するものである。低解像度理解(タスク分類)の場合、プロパティ前終端記号はテンプレート文法に導入されない。したがって、すべてのトレーニングデータが、コマンド前終端記号に関するn−gramのトレーニングおよび平滑化に使用される。モデルは、数式19によって表されるn−gram分類子(classifier)にスケールダウンする。
Figure 0004724377
n−gramモデルは、正確な規則の突合せを必要としない。規則の適用可能度に関して二分決定(binary decision)を行う代わりに、観察された単語シーケンスが状態(前終端記号)から生成される確率を比較して、最も可能性の高い解釈を見つける。したがって、モデルそれ自体が堅固であり、堅固な解析プログラムは不要である。
次に、図7〜11に示された例に関して、トレーニングについてより詳細に説明する。モデルをトレーニングするために、EMアルゴリズムは単語シーケンスを自動的にセグメント化し、各セグメントαと、対応するペアの前終端記号シーケンス中の対応する前終端記号NTとを位置合わせする。EMアルゴリズムは、NTから単語文字列aを生成するための確率を割り当て、初期の一様分布でそれをパラメータ化する、モデルP(NT→α)を構築する。その後、上述のように、パラメータ化を反復的に改良する。反復するたびに、前の反復でのモデルのパラメータ化に従って、規則NT→αに関する予測カウントを計算し(Eステップ)、その後、予測カウントを正規化することによって確率P(NT→α)を再度推定する(Mステップ)。前終端記号をn−gramでモデル化する新しいモデルをトレーニングするために、Eステップで収集された予測カウントを使用して、Mステップでn−gramをトレーニングおよび平滑化し、セグメント化に関する予測カウントを収集するためにEMアルゴリズムによってn−gramが使用される。その結果、図12に示されるトレーニングアルゴリズムが生じる。
一実施形態では、図12の最後の行に示されたしきい値(threshold)が0.01に設定される。もちろん、他のしきい値も使用可能である。
本発明の他のオプションの態様に留意することも価値がある。オプションの文法ライブラリ209(図2A、4、および13に図示)は、統計的に、トレーニングデータ(トレーニング例テキスト文字列および注釈208)に適合可能である。たとえば、文法ライブラリ209が、国内外の大都市および小都市の両方を含む、相対的に大きな都市のリストを含むと想定してみる。ただし、モデルがトレーニングされる特定のアプリケーションは、国内の都市のみに関係するものであり、ニューヨークやロサンゼルスなどの国内の大都市の方が、より小さな都市よりも関係する確率が高いとも想定してみる。モデルオーサリング構成要素202または350は、文法ライブラリ209を含むことのできる、確率文脈自由文法(PCFG)に関連付けられた確率を、注釈付きトレーニングデータ(トレーニング例テキスト文字列および注釈208)から学習する。たとえば、規則Cityname→New Yorkに関する確率が、規則Cityname→Tokyoに関する確率よりも高いことを、学習することができる。これは、上述の他の確率が学習されるのと同じ方法で実行できる。
図13は、スロットに関する規則ベース文法部分と、前終端記号に関する統計モデル部分との両方を使用する、ランタイムシステムを示す図である。システムは入力(自然言語入力文字列400)を受け取り、文法部分およびn−gram部分を使用して、出力402を出力する。
復号については、図14に関してより詳細に説明する。図14は、入力「new meeting with Peter at five」に関する動的プログラミング復号器を表す、動的プログラミングトレリス構造を示す図である。
動的プログラミング復号器は、上記の数式18で表されたヴィテルビパスを見つける。入力を受け取ると、復号器は最初に、ボトムアップ図表解析プログラムを使用して、何らかの入力範囲をカバーしているライブラリ文法非終端記号を見つける。この例では、「Peter」を<Person>として、また「five」を<time>または<num>のいずれかとして識別する。次に復号器は、第1列の意味クラスノード(この例では、意味クラスNewApptしか示していない)から始まり、トレリス全体を検索していく。各ノードで、同じ列の他のノードへ(異なる非終端記号への切り替え)、または同じ行の次のノードへ(非終端記号による入力単語の消費)の、移行が行われる。検索は、最も右の列に達するまで、左から右へと進められる。移行が行われると、開始ノードのスコアに適切な対数確率を追加することによって、スコアが取得される。次にこのスコアが、宛先ノードのそれと比較され、新しいスコアの方が高ければそれに置き換えられる。トレリスの下にあるのは、図表解析プログラムによって識別された非終端記号である。太線のパス410が、ヴィテルビ解釈を表す。上方の細線のパス412は、正しいタスクを識別するが、どちらのスロットでもない。下方の細線のパス414(ヴィテルビパス410の一部を共有する)は、出席者を識別するが、開始時間スロットではない。「at five」を、出席者のポストアンブルとして扱う。図14に示された最初の9つの移行のそれぞれについての対数確率を、ヴィテルビパス410に関して以下にリスト表示する。
1. log P(NewAppt) // 以前のクラス
2. log b(New | <s>; NewApptCmd) // 単語bigram
3. log b(meeting | new; NewApptCmd) // 単語bigram
4. log b(</s> | meeting; NewApptCmd) + // 単語bigram
log a( Attendee | <s>; NewAppt) // スロットbigram
5. log b(with | <s>; PreAttendee) // 単語bigram
6. log b(</s> | with; PreAttendee) // 単語bigram
7. log Pcfg(Peter | <Person>) // PCFG
8. 0
9. log b(</s> | <s>; PostAttendee) + // 単語bigram
log a( StartTime | Attendee; NewAppt) // スロットbigram
いずれの所望のプルーニングメカニズムも使用可能である。たとえば、1つのプルーニングメカニズムでは、トレリスの各列で、スコアが、同じ列の最大スコアよりも低いしきい値(5.0など)よりも小さい場合は、ノードの移行を行わないものとする。言い換えれば、同じ列内のノードに至る他のパスよりも10倍少ない見込みの場合、パスは拡張されない。復号器は、プルーニング後の堅固な解析プログラムよりもかなり速く実行される。
したがって、本発明の様々な実施形態が、前終端記号に関する統計モデル部分を含むだけでなく、スロットに充填するための規則ベース文法部分も含むことが可能であることが理解されよう。本発明は、タスクの前の確率に関するモデル、およびスロット移行に関する統計モデルも含むことができる。最後に、本発明の一実施形態は、規則の生成で使用されたEMアルゴリズムのEステップからの予測カウントを使用する、統計モデルのトレーニングを含む。
以上、特定の実施形態を参照しながら本発明について説明してきたが、当業者であれば、本発明の精神および範囲を逸脱することなく、形態および詳細における変更が可能であることを理解されよう。
本発明を使用可能な環境の一例を示すブロック図である。 本発明の一実施形態に従ったモデルオーサリング構成要素の一実施形態を示すブロック図である。 スキーマの例を示す図である。 スキーマの例について生成された規則セットの例を示す図である。 注釈付きセンテンスの例を示す図である。 解析ツリーの例を示す図である。 例の単語に関する可能な前終端記号を示す表である。 カウントおよび確率に関連した書き換え規則を示す表である。 文法オーサリング構成要素をより詳細に示すブロック図である。 図3Aに示された文法オーサリング構成要素のオペレーションを示す流れ図である。 本発明の他の実施形態に従ったモデルオーサリング構成要素を示す図である。 列挙されたセグメント化の例を示す図である。 本発明の一実施形態に従った統計モデルをより詳細に示す図である。 簡略化されたスキーマの例を示す図である。 図7のスキーマから生成された規則セットの例を示す図である。 注釈付きセンテンスの例を示す図である。 生成された規則を示す図である。 複合モデルを示す状態図である。 トレーニング技術を記述する擬似コードを示す図である。 本発明に従って生成されたモデルを使用するための、ランタイムシステムを示すブロック図である。 復号器トレリスの例を示す図である。
符号の説明
200 モデルオーサリングシステム
202 モデルオーサリング構成要素
204 ユーザインターフェース
206 スキーマ
208 トレーニング例テキスト文字列および注釈
209 文法ライブラリ
210 規則ベース文法

Claims (8)

  1. 自然言語理解(NLU)システムにおいて、スキーマから導出されたスロットおよび前終端記号に音声による自然言語入力をマッピングする際に使用するための構成要素を生成するように構成されたオーサリング構成要素であって、前記オーサリング構成要素は、
    コンピュータのプロセッサを用いて実施されるモデルトレーナを備え、
    前記モデルトレーナは、タスクが完了することを示すスキーマを得て、前記スキーマは、自然言語入力の一部で充填されるように構成されている、複数のスロットと複数の前終端記号とを含み、前記前終端記号は1つ以上の前記スロットに関連付けられたプリアンブルとポストアンブルの少なくとも1つを含み、
    前記モデルトレーナは、トレーニングデータに基づいて規則ベース文法をトレーニングし、前記スキーマから導出された前記スロットに前記自然言語入力からの用語をマッピングし、前記自然言語入力からの用語を前記スキーマから導出された前記前終端記号にマッピングするように、複数の統計モデルをトレーニングするように構成され、前記モデルトレーナは複数の異なる前終端記号のそれぞれに対応する統計モデルをトレーニングするように構成され、前記モデルトレーナは前記トレーニングデータを受け取り、前記スロットおよび前終端記号を前記トレーニングデータに関連付ける、前記トレーニングデータのセグメント化を列挙し、前記モデルトレーナは、前記スキーマから導出された前終端記号のそれぞれに対する統計モデルを、前終端記号のそれぞれに関連付けられた前記テキストを前記統計モデルの前記前終端記号に対するトレーニングデータとして用いてトレーニングするように構成されていることを特徴とするオーサリング構成要素。
  2. 前記モデルトレーナは、スロット間の移行をモデル化する統計スロット移行モデルをトレーニングするように構成されることを特徴とする請求項に記載のオーサリング構成要素。
  3. 前記スキーマはタスクを示し、前記モデルトレーナは、タスクの前の確率をモデル化する統計タスクモデルをトレーニングするように構成されることを特徴とする請求項に記載のオーサリング構成要素。
  4. 前記モデルトレーナは、列挙された各セグメント化に予測カウントを割り当てるように構成されることを特徴とする請求項に記載のオーサリング構成要素。
  5. 前記モデルトレーナは、前終端記号を選択し、前記選択された前終端記号に対応するセグメント化に割り当てられた前記予測カウントを使用して、前記選択された前終端記号に関する前記統計モデルをトレーニングするように構成されることを特徴とする請求項に記載のオーサリング構成要素。
  6. 前記モデルトレーナは、期待値最大化(EM)アルゴリズムの適用に基づいて生成されたそれぞれのセグメント化に予測カウントを割り当てるように構成されることを特徴とする請求項に記載のオーサリング構成要素。
  7. 前記モデルトレーナによってアクセス可能な確率ライブラリ文法をさらに含むことを特徴とする請求項に記載のオーサリング構成要素。
  8. 前記トレーニングデータは意味的な注釈が付けられたトレーニングデータであり、前記モデルトレーナは、前記意味的な注釈が付けられたトレーニングデータに基づいて、前記確率ライブラリ文法において確率を適応するように構成されることを特徴とする請求項に記載のオーサリング構成要素。
JP2004130332A 2003-05-01 2004-04-26 自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル Expired - Lifetime JP4724377B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/427,604 US7603267B2 (en) 2003-05-01 2003-05-01 Rules-based grammar for slots and statistical model for preterminals in natural language understanding system
US10/427,604 2003-05-01

Publications (2)

Publication Number Publication Date
JP2005115328A JP2005115328A (ja) 2005-04-28
JP4724377B2 true JP4724377B2 (ja) 2011-07-13

Family

ID=32990449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004130332A Expired - Lifetime JP4724377B2 (ja) 2003-05-01 2004-04-26 自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル

Country Status (7)

Country Link
US (2) US7603267B2 (ja)
EP (1) EP1475778B1 (ja)
JP (1) JP4724377B2 (ja)
KR (1) KR101120858B1 (ja)
CN (1) CN1542736B (ja)
AT (1) ATE492876T1 (ja)
DE (1) DE602004030635D1 (ja)

Families Citing this family (137)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2544102A1 (en) 2002-11-28 2013-01-09 Nuance Communications Austria GmbH Method to assign word class information
US20060009966A1 (en) * 2004-07-12 2006-01-12 International Business Machines Corporation Method and system for extracting information from unstructured text using symbolic machine learning
JP4081056B2 (ja) * 2004-08-30 2008-04-23 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US20060155530A1 (en) * 2004-12-14 2006-07-13 International Business Machines Corporation Method and apparatus for generation of text documents
WO2006084144A2 (en) * 2005-02-03 2006-08-10 Voice Signal Technologies, Inc. Methods and apparatus for automatically extending the voice-recognizer vocabulary of mobile communications devices
DE602005007939D1 (de) * 2005-02-17 2008-08-14 Loquendo Societa Per Azioni Verfahren und system zum automatischen bereitstellen linguistischer formulierungen, die ausserhalb ekennungssystems liegen
US7617093B2 (en) * 2005-06-02 2009-11-10 Microsoft Corporation Authoring speech grammars
US20060287846A1 (en) * 2005-06-21 2006-12-21 Microsoft Corporation Generating grammar rules from prompt text
US8700404B1 (en) * 2005-08-27 2014-04-15 At&T Intellectual Property Ii, L.P. System and method for using semantic and syntactic graphs for utterance classification
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
KR100732167B1 (ko) * 2005-09-08 2007-06-27 엘지전자 주식회사 스피커 어셈블리 및 영상기기
US8442828B2 (en) * 2005-12-02 2013-05-14 Microsoft Corporation Conditional model for natural language understanding
US7957968B2 (en) * 2005-12-22 2011-06-07 Honda Motor Co., Ltd. Automatic grammar generation using distributedly collected knowledge
US7865357B2 (en) * 2006-03-14 2011-01-04 Microsoft Corporation Shareable filler model for grammar authoring
US8244545B2 (en) * 2006-03-30 2012-08-14 Microsoft Corporation Dialog repair based on discrepancies between user model predictions and speech recognition results
US20070239453A1 (en) * 2006-04-06 2007-10-11 Microsoft Corporation Augmenting context-free grammars with back-off grammars for processing out-of-grammar utterances
US7689420B2 (en) * 2006-04-06 2010-03-30 Microsoft Corporation Personalizing a context-free grammar using a dictation language model
US7707027B2 (en) * 2006-04-13 2010-04-27 Nuance Communications, Inc. Identification and rejection of meaningless input during natural language classification
US8831943B2 (en) * 2006-05-31 2014-09-09 Nec Corporation Language model learning system, language model learning method, and language model learning program
WO2007138875A1 (ja) * 2006-05-31 2007-12-06 Nec Corporation 音声認識用単語辞書・言語モデル作成システム、方法、プログラムおよび音声認識システム
US8209175B2 (en) * 2006-06-08 2012-06-26 Microsoft Corporation Uncertainty interval content sensing within communications
DE102006029755A1 (de) * 2006-06-27 2008-01-03 Deutsche Telekom Ag Verfahren und Vorrichtung zur natürlichsprachlichen Erkennung einer Sprachäußerung
US10796390B2 (en) * 2006-07-03 2020-10-06 3M Innovative Properties Company System and method for medical coding of vascular interventional radiology procedures
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20080071520A1 (en) * 2006-09-14 2008-03-20 David Lee Sanford Method and system for improving the word-recognition rate of speech recognition software
US8433576B2 (en) * 2007-01-19 2013-04-30 Microsoft Corporation Automatic reading tutoring with parallel polarized language modeling
US7856351B2 (en) 2007-01-19 2010-12-21 Microsoft Corporation Integrated speech recognition and semantic classification
US8332207B2 (en) * 2007-03-26 2012-12-11 Google Inc. Large language models in machine translation
US8306822B2 (en) * 2007-09-11 2012-11-06 Microsoft Corporation Automatic reading tutoring using dynamically built language model
JP4640407B2 (ja) 2007-12-07 2011-03-02 ソニー株式会社 信号処理装置、信号処理方法及びプログラム
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US8046222B2 (en) * 2008-04-16 2011-10-25 Google Inc. Segmenting words using scaled probabilities
US9460708B2 (en) * 2008-09-19 2016-10-04 Microsoft Technology Licensing, Llc Automated data cleanup by substitution of words of the same pronunciation and different spelling in speech recognition
KR101149521B1 (ko) * 2008-12-10 2012-05-25 한국전자통신연구원 도메인 온톨로지를 이용한 음성 인식 방법 및 그 장치
US8990088B2 (en) * 2009-01-28 2015-03-24 Microsoft Corporation Tool and framework for creating consistent normalization maps and grammars
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
KR20110006004A (ko) * 2009-07-13 2011-01-20 삼성전자주식회사 결합인식단위 최적화 장치 및 그 방법
US20110238407A1 (en) * 2009-08-31 2011-09-29 O3 Technologies, Llc Systems and methods for speech-to-speech translation
WO2011083528A1 (ja) * 2010-01-06 2011-07-14 日本電気株式会社 データ処理装置、そのコンピュータプログラムおよびデータ処理方法
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US8655647B2 (en) * 2010-03-11 2014-02-18 Microsoft Corporation N-gram selection for practical-sized language models
JP5710317B2 (ja) * 2011-03-03 2015-04-30 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 情報処理装置、自然言語解析方法、プログラムおよび記録媒体
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
CN102147731A (zh) * 2011-04-20 2011-08-10 上海交通大学 基于扩展功能需求描述框架的功能需求自动抽取***
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US8886533B2 (en) * 2011-10-25 2014-11-11 At&T Intellectual Property I, L.P. System and method for combining frame and segment level processing, via temporal pooling, for phonetic classification
US9214157B2 (en) * 2011-12-06 2015-12-15 At&T Intellectual Property I, L.P. System and method for machine-mediated human-human conversation
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
JP5819261B2 (ja) * 2012-06-19 2015-11-18 株式会社Nttドコモ 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
US10373615B2 (en) 2012-10-30 2019-08-06 Google Technology Holdings LLC Voice control user interface during low power mode
US10304465B2 (en) 2012-10-30 2019-05-28 Google Technology Holdings LLC Voice control user interface for low power mode
US9584642B2 (en) 2013-03-12 2017-02-28 Google Technology Holdings LLC Apparatus with adaptive acoustic echo control for speakerphone mode
US10381001B2 (en) 2012-10-30 2019-08-13 Google Technology Holdings LLC Voice control user interface during low-power mode
MX345622B (es) * 2013-01-29 2017-02-08 Fraunhofer Ges Forschung Decodificador para generar una señal de audio mejorada en frecuencia, método de decodificación, codificador para generar una señal codificada y metodo de codificación utilizando informacion secundaria de selección compacta.
US9330659B2 (en) * 2013-02-25 2016-05-03 Microsoft Technology Licensing, Llc Facilitating development of a spoken natural language interface
US10354677B2 (en) * 2013-02-28 2019-07-16 Nuance Communications, Inc. System and method for identification of intent segment(s) in caller-agent conversations
US9460088B1 (en) * 2013-05-31 2016-10-04 Google Inc. Written-domain language modeling with decomposition
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US10235359B2 (en) * 2013-07-15 2019-03-19 Nuance Communications, Inc. Ontology and annotation driven grammar inference
EP2851896A1 (en) 2013-09-19 2015-03-25 Maluuba Inc. Speech recognition using phoneme matching
US9449598B1 (en) * 2013-09-26 2016-09-20 Amazon Technologies, Inc. Speech recognition with combined grammar and statistical language models
US8768712B1 (en) 2013-12-04 2014-07-01 Google Inc. Initiating actions based on partial hotwords
US9601108B2 (en) * 2014-01-17 2017-03-21 Microsoft Technology Licensing, Llc Incorporating an exogenous large-vocabulary model into rule-based speech recognition
US10749989B2 (en) 2014-04-01 2020-08-18 Microsoft Technology Licensing Llc Hybrid client/server architecture for parallel processing
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9785630B2 (en) * 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
US9767093B2 (en) * 2014-06-19 2017-09-19 Nuance Communications, Inc. Syntactic parser assisted semantic rule inference
US20150379166A1 (en) * 2014-06-25 2015-12-31 Linkedin Corporation Model compilation for feature selection in statistical models
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
WO2017059500A1 (en) * 2015-10-09 2017-04-13 Sayity Pty Ltd Frameworks and methodologies configured to enable streamlined integration of natural language processing functionality with one or more user interface environments, including assisted learning process
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
WO2017094967A1 (ko) * 2015-12-03 2017-06-08 한국과학기술원 자연 언어 처리 스키마 및 그 지식 데이터베이스 구축 방법 및 시스템
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10360301B2 (en) * 2016-10-10 2019-07-23 International Business Machines Corporation Personalized approach to handling hypotheticals in text
CN106557461B (zh) * 2016-10-31 2019-03-12 百度在线网络技术(北京)有限公司 基于人工智能的语义解析处理方法和装置
CN110352423B (zh) * 2016-11-04 2021-04-20 渊慧科技有限公司 使用噪声信道模型生成目标序列的方法、存储介质和***
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
DK179560B1 (en) 2017-05-16 2019-02-18 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
CN117112761A (zh) * 2017-09-05 2023-11-24 声音猎手公司 域间通过语法槽的分类
US10896297B1 (en) 2017-12-13 2021-01-19 Tableau Software, Inc. Identifying intent in visual analytical conversations
CN108615526B (zh) 2018-05-08 2020-07-07 腾讯科技(深圳)有限公司 语音信号中关键词的检测方法、装置、终端及存储介质
US11055489B2 (en) * 2018-10-08 2021-07-06 Tableau Software, Inc. Determining levels of detail for data visualizations using natural language constructs
US11537276B2 (en) 2018-10-22 2022-12-27 Tableau Software, Inc. Generating data visualizations according to an object model of selected data sources
US11138374B1 (en) * 2018-11-08 2021-10-05 Amazon Technologies, Inc. Slot type authoring
US11308281B1 (en) * 2018-11-08 2022-04-19 Amazon Technologies, Inc. Slot type resolution process
US11281857B1 (en) * 2018-11-08 2022-03-22 Amazon Technologies, Inc. Composite slot type resolution
CN111292751B (zh) * 2018-11-21 2023-02-28 北京嘀嘀无限科技发展有限公司 语义解析方法及装置、语音交互方法及装置、电子设备
US11314817B1 (en) 2019-04-01 2022-04-26 Tableau Software, LLC Methods and systems for inferring intent and utilizing context for natural language expressions to modify data visualizations in a data visualization interface
JP7393438B2 (ja) * 2019-05-01 2023-12-06 ボーズ・コーポレーション コヒーレンスを使用した信号コンポーネント推定
US11455339B1 (en) 2019-09-06 2022-09-27 Tableau Software, LLC Incremental updates to natural language expressions in a data visualization user interface
US11163954B2 (en) * 2019-09-18 2021-11-02 International Business Machines Corporation Propagation of annotation metadata to overlapping annotations of synonymous type
US10997217B1 (en) 2019-11-10 2021-05-04 Tableau Software, Inc. Systems and methods for visualizing object models of database tables
CN112466291B (zh) * 2020-10-27 2023-05-05 北京百度网讯科技有限公司 语言模型的训练方法、装置和电子设备
CN112987940B (zh) * 2021-04-27 2021-08-27 广州智品网络科技有限公司 一种基于样本概率量化的输入方法、装置和电子设备
US20230162055A1 (en) * 2021-11-22 2023-05-25 Tencent America LLC Hierarchical context tagging for utterance rewriting
US20240086637A1 (en) * 2022-09-08 2024-03-14 Tencent America LLC Efficient hybrid text normalization
US11934794B1 (en) * 2022-09-30 2024-03-19 Knowbl Inc. Systems and methods for algorithmically orchestrating conversational dialogue transitions within an automated conversational system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2867695B2 (ja) * 1990-11-28 1999-03-08 日本電気株式会社 連続音声認識装置
JP3265864B2 (ja) * 1994-10-28 2002-03-18 三菱電機株式会社 音声認識装置
US6052483A (en) 1994-11-04 2000-04-18 Lucent Technologies Inc. Methods and apparatus for classification of images using distribution maps
US6292767B1 (en) * 1995-07-18 2001-09-18 Nuance Communications Method and system for building and running natural language understanding systems
JP3009636B2 (ja) * 1996-05-16 2000-02-14 株式会社エイ・ティ・アール音声翻訳通信研究所 音声言語解析装置
US5797123A (en) * 1996-10-01 1998-08-18 Lucent Technologies Inc. Method of key-phase detection and verification for flexible speech understanding
US6317708B1 (en) * 1999-01-07 2001-11-13 Justsystem Corporation Method for producing summaries of text document
US7031908B1 (en) 2000-06-01 2006-04-18 Microsoft Corporation Creating a language model for a language processing system
US6865528B1 (en) 2000-06-01 2005-03-08 Microsoft Corporation Use of a unified language model
AU2001275845A1 (en) 2000-06-26 2002-01-08 Onerealm Inc. Method and apparatus for normalizing and converting structured content
US6230138B1 (en) * 2000-06-28 2001-05-08 Visteon Global Technologies, Inc. Method and apparatus for controlling multiple speech engines in an in-vehicle speech recognition system
US6952666B1 (en) 2000-07-20 2005-10-04 Microsoft Corporation Ranking parser for a natural language processing system
US6419431B1 (en) * 2000-12-06 2002-07-16 E-Z Trail, Inc. Adjustable support for transport
US7003444B2 (en) 2001-07-12 2006-02-21 Microsoft Corporation Method and apparatus for improved grammar checking using a stochastic parser
US7039579B2 (en) * 2001-09-14 2006-05-02 International Business Machines Corporation Monte Carlo method for natural language understanding and speech recognition language models
US7805302B2 (en) * 2002-05-20 2010-09-28 Microsoft Corporation Applying a structured language model to information extraction

Also Published As

Publication number Publication date
KR101120858B1 (ko) 2012-06-27
US20040220809A1 (en) 2004-11-04
DE602004030635D1 (de) 2011-02-03
ATE492876T1 (de) 2011-01-15
EP1475778A1 (en) 2004-11-10
CN1542736B (zh) 2011-08-03
US7603267B2 (en) 2009-10-13
CN1542736A (zh) 2004-11-03
EP1475778B1 (en) 2010-12-22
JP2005115328A (ja) 2005-04-28
US20040220797A1 (en) 2004-11-04
KR20040094645A (ko) 2004-11-10

Similar Documents

Publication Publication Date Title
JP4724377B2 (ja) 自然言語理解(NLU)システムにおける規則ベース文法に関するスロットおよび前終端記号(preterminal)に関する統計モデル
US11238845B2 (en) Multi-dialect and multilingual speech recognition
US7529657B2 (en) Configurable parameters for grammar authoring for speech recognition and natural language understanding
US7478038B2 (en) Language model adaptation using semantic supervision
US7617093B2 (en) Authoring speech grammars
US7451125B2 (en) System and method for compiling rules created by machine learning program
US7031908B1 (en) Creating a language model for a language processing system
US7634406B2 (en) System and method for identifying semantic intent from acoustic information
US20070129936A1 (en) Conditional model for natural language understanding
EP1475779B1 (en) System with composite statistical and rules-based grammar model for speech recognition and natural language understanding
JP2004246368A (ja) テキストから単語誤り率を予測するための方法および装置
JP2005293580A (ja) Arpa標準フォーマットによる、削除補間nグラム言語モデルの表現
JP4738753B2 (ja) 文法オーサリングにおけるセグメント化あいまい性(segmentationambiguity)の自動的な解決
KR102026967B1 (ko) n-gram 데이터 및 언어 분석에 기반한 문법 오류 교정장치 및 방법
Wang et al. Combination of CFG and n-gram modeling in semantic grammar learning.
Švec et al. Semantic entity detection from multiple ASR hypotheses within the WFST framework
Acero et al. A semantically structured language model
MXPA97002521A (es) Metodo y aparato para un sistema de reconocimientode lenguaje mejorado

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110401

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110411

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4724377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250