JP2014134791A - ディスプレイ装置及び制御方法 - Google Patents

ディスプレイ装置及び制御方法 Download PDF

Info

Publication number
JP2014134791A
JP2014134791A JP2014000277A JP2014000277A JP2014134791A JP 2014134791 A JP2014134791 A JP 2014134791A JP 2014000277 A JP2014000277 A JP 2014000277A JP 2014000277 A JP2014000277 A JP 2014000277A JP 2014134791 A JP2014134791 A JP 2014134791A
Authority
JP
Japan
Prior art keywords
user utterance
user
utterance
collected
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014000277A
Other languages
English (en)
Inventor
So-Yon You
素▲妍▼ 兪
Eun-Hee Park
恩▲姫▼ 朴
Sang-Jin Han
尚珍 韓
Jae-Kwon Kim
在權 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2014134791A publication Critical patent/JP2014134791A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • G10L21/16Transforming into a non-visible representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Otolaryngology (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Selective Calling Equipment (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザ発話に対応する機能を行ううえで、より素早い応答速度及び機能実行エラーを最小限化するためのディスプレイ装置及び制御方法を提供する。
【解決手段】ディスプレイ装置100は、ユーザ発話を収集する音声収集部110と、ユーザ発話を対話型サーバに伝送し、ユーザ発話に基づいて生成された対応する応答情報を受信する通信部120と、ユーザ発話のそれぞれに対応する制御情報を保存する保存部130と、収集されたユーザ発話を対話型サーバに伝送しつつ、収集されたユーザ発話に対応する制御情報が保存部に保存されているか否かを判断する制御部140とを含み、制御部140は、収集されたユーザ発話に対応する制御情報が保存部に保存されている場合、保存された制御情報に基づいてユーザ発話に対応する動作を行い、保存部に保存されていない場合、対話型サーバから受信された応答情報に基づいてユーザ発話に対応する動作を行う。
【選択図】図4

Description

本発明は、ディスプレイ装置及び制御方法に関し、より詳細には、ユーザ発話に対応する動作を行うディスプレイ装置及び制御方法に関する。
一般に、音声認識が可能なディスプレイ装置は、大きくエンベデッド(Embedded)方式と対話型方式とがある。エンベデッド方式のディスプレイ装置は、発話命令に限定されてユーザ発話を認識する。すなわち、エンベデッド方式のディスプレイ装置は、予め設定された発話命令に対応するユーザ発話が収集される場合にのみ、ユーザ発話に対応する機能を行う。すなわち、エンベデッド方式のディスプレイ装置は、予め設定された発話命令に対応するユーザ発話が収集される場合、当該ユーザ発話に対応する機能をより素早く行うことでメリットがあるが、発話命令に対応するユーザ発話のみを認識するということで、ユーザ発話を認識するうえで非常に限定的であった。
対話型方式のディスプレイ装置は、多様なユーザ発話を認識してユーザ意図を把握し、その把握されたユーザの意図に適した動作を行う。このような対話型方式のディスプレイ装置は、ユーザ発話が収集されると、対話型サーバからユーザ発話に関する応答情報を受信し、その受信した応答情報に基づいてユーザ発話に対応する動作を行う。このような対話型方式のディスプレイ装置は、エンベデッド方式のディスプレイ装置に比べて多様なユーザ発話を認識し、認識したユーザ発話に対応する動作を行うということで長所があった。しかし、このような対話型方式のディスプレイ装置は、上述の一連の過程を通じてユーザ発話に対応する機能を行う。すなわち、対話型方式のディスプレイ装置は、音量やチャネル等の単純な機能操作を行う場合、対話型サーバを通じて提供された応答情報に基づいてユーザ発話に対応する機能を行うため、エンベデッド方式のディスプレイ装置に比べて応答速度が遅いという問題がある。
韓国特開第2005−0036331号公報 国際出願公開第2010−0025440号 国際出願公開第2003−0083829号 日本特開第2005−0065156号公報
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、ディスプレイ装置でユーザ発話に対応する機能を行ううえで、より素早い応答速度及び機能実行エラーを最小限化することにある。
以上のような目的を達成するための本発明の一実施形態に係るディスプレイ装置は、ユーザ発話を収集する音声収集部と、前記ユーザ発話を対話型サーバに伝送し、前記ユーザ発話に基づいて生成された対応する応答情報を受信する通信部と、ユーザ発話のそれぞれに対応する制御情報を保存する保存部と、前記収集されたユーザ発話を前記対話型サーバに伝送しつつ、前記収集されたユーザ発話に対応する制御情報が前記保存部に保存されているか否かを判断する制御部とを含み、前記制御部は、前記収集されたユーザ発話に対応する制御情報が前記保存部に保存されている場合、保存された制御情報に基づいて前記ユーザ発話に対応する動作を行い、前記保存部に保存されていない場合、前記対話型サーバから受信された応答情報に基づいて前記ユーザ発話に対応する動作を行う。
そして、前記制御部は、予め設定された臨界時間内に前記保存部に保存された制御情報に基づいて、前記ユーザ発話に対応する動作が行われない場合、前記対話型サーバから受信した応答情報に基づいて、前記ユーザ発話に対応する動作を行ってよい。
なお、映像及び音声を出力する出力部を更に含み、前記保存部は、前記ユーザ発話のそれぞれに関する制御情報のうち、少なくとも一つの制御情報に確認メッセージをマッチングさせて保存し、前記制御部は、前記収集されたユーザ発話に対応する制御情報に確認メッセージがマッチングされている場合、前記出力部を介して前記確認メッセージを出力し、追加ユーザ発話が収集されると、前記制御情報に基づいて前記ディスプレイ装置の機能を制御してよい。
そして、前記制御情報は、ユーザ発話のそれぞれに対して、前記ディスプレイ装置の機能を予め設定されたターゲット値に調整するための情報であってよい。
なお、前記制御部は、前記ディスプレイ装置の機能が前記予め設定されたターゲット値に調整された後、追加ユーザ発話が収集されると、前記ディスプレイ装置の機能を再調整してよい。
そして、前記応答情報は、前記ユーザ発話に対応する応答メッセージまたは前記ディスプレイ装置の機能を制御するための制御命令のうちの一つであってよい。
なお、前記対話型サーバは、前記収集されたユーザ発話をテキスト情報に変換する第1サーバと、前記テキスト情報に変換されたユーザ発話に対応する応答情報を生成する第2サーバとを含み、前記制御部は、前記収集されたユーザ発話をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ発話に関するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ発話に対応する応答情報を受信してよい。
一方、本発明の一実施形態に係るディスプレイ装置の制御方法において、前記方法は、ユーザ発話を収集するステップと、前記収集されたユーザ発話を対話型サーバに伝送しつつ、前記収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断するステップと、前記判断結果、前記収集されたユーザ発話に対応する制御情報が予め保存されている場合、前記予め保存された制御情報に基づいて、前記ユーザ発話に対応する動作を行い、予め保存されていない場合、前記対話型サーバから受信された応答情報に基づいて前記ユーザ発話に対応する動作を行うステップとを含む。
そして、前記判断するステップの後、前記対話型サーバから前記収集されたユーザ発話に対応する応答情報を受信するステップを更に含み、前記動作を行うステップは、予め設定された臨界時間内に予め保存された前記制御情報に基づいて、前記ユーザ発話に対応する動作が行われない場合、前記応答情報に基づいて、前記ユーザ発話に対応する動作を行ってよい。
なお、前記動作を行うステップは、前記収集されたユーザ発話に対応する制御情報に確認メッセージがマッチングされている場合、前記確認メッセージを出力し、追加ユーザ発話が収集されると、前記制御情報に基づいて前記ディスプレイ装置の機能を制御してよい。
そして、前記制御情報は、ユーザ発話のそれぞれに対して、前記ディスプレイ装置の機能を予め設定されたターゲット値に調整するための情報であってよい。
なお、前記動作を行うステップは、前記ディスプレイ装置の機能が前記予め設定されたターゲット値に調整された後、追加ユーザ発話が収集されると、前記収集された追加ユーザ発話に対応する制御情報に基づいてディスプレイ装置の機能を再調整してよい。
そして、前記応答情報は、前記ユーザ発話に対応する応答メッセージまたは前記ディスプレイ装置の機能を制御するための制御命令のうちの一つであってよい。
なお、前記対話型サーバは、前記収集されたユーザ発話をテキスト情報に変換する第1サーバと、前記テキスト情報に変換されたユーザ発話に対応する応答情報を生成する第2サーバとを含み、前記動作を行うステップは、前記収集されたユーザ発話をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ発話に関するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ発話に対応する応答情報を受信してよい。
一方、本発明の一実施形態に係る対話型システムは、ユーザ発話をテキスト情報に変換し、前記変換されたテキスト情報を分析し、前記ユーザ発話に対応する応答情報を提供する対話型サーバ及び前記ユーザ発話が収集されると、前記収集されたユーザ発話を前記対話型サーバに伝送しつつ、前記ユーザ発話に対応する制御情報が予め保存されているか否かを判断し、前記制御情報が保存されている場合、前記予め保存された制御情報に基づいて前記ユーザ発話に対応する動作を行い、前記予め保存されていない場合、前記対話型サーバから提供された応答情報に基づいて前記ユーザ発話に対応する動作を行う。
以上説明したように、本発明によれば、ディスプレイ装置は、多様なユーザ発話に対応する機能を行ううえで、より素早い応答速度及び機能実行エラーを最小限化することができる。
本発明の一実施形態に係る対話型システムの第1例示図である。 本発明の別の実施形態に係る対話型システムの第2例示図である。 本発明の一実施形態に係る対話型システムでユーザ発話に対応する動作を行う方法のシーケンス図である。 本発明の一実施形態に係るディスプレイ装置のブロック図である。 本発明の一実施形態に係る対話型サーバのブロック図である。 本発明の一実施形態に係るディスプレイ装置でユーザ発話に基づいて動作を行うための制御方法のフローチャートである。 本発明の一実施形態に係るディスプレイ装置でユーザ発話に対応する動作を行うための制御方法のフローチャートである。
以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、本発明の一実施形態に係る対話型システムの第1例示図である。
図1に示すように、本発明の一実施形態に係る対話型システムは、ディスプレイ装置100及び対話型サーバ200を含む。
ディスプレイ装置100は、例えば、スマートテレビ、スマートフォン、デスクトップ、ノートパソコン、ナビゲーション等のような多様な電子装置で実現されてよい。このようなディスプレイ装置100は、ユーザからユーザ発話が収集されると、収集されたユーザ発話を対話型サーバ200に伝送しつつ、ユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されている場合、ディスプレイ装置100は予め保存された制御情報に基づいてユーザ発話に対応する動作を行う。一方、判断の結果、ユーザ発話に対応する制御情報が予め保存されていない場合、ディスプレイ装置100は対話型サーバ200からユーザ発話に基づいて生成された応答情報を受信し、受信された応答情報に基づいてユーザ発話に対応する動作を行う。
対話型サーバ200は、ディスプレイ装置100からユーザ発話が受信されると、受信されたユーザ発話をテキスト情報に変換する。その後、対話型サーバ200は、変換されたテキスト情報を分析し、ユーザ発話に関する応答情報を生成し、それをディスプレイ装置100に伝送する。
例えば、音量操作のためのユーザ発話が収集されると、ディスプレイ装置100は収集されたユーザ発話を対話型サーバ200に伝送する。同時に、ディスプレイ装置100は、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されている場合、ディスプレイ装置100は予め保存された制御情報に基づいて音量を調整することができる。すなわち、ディスプレイ装置100は、ユーザ発話に対応する制御情報が予め保存されている場合、対話型サーバ200から応答情報が受信される前に、予め保存された制御情報に基づいて音量を調整することができる。
別の例として、コンテンツ情報提供のためのユーザ発話が収集されると、ディスプレイ装置100は、収集されたユーザ発話を対話型サーバ200に伝送する。同時に、ディスプレイ装置100は、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されていない場合、ディスプレイ装置100は、対話型サーバ200から受信した応答情報に基づいてユーザ発話に対応する機能を行うことができる。すなわち、ディスプレイ装置100は、対話型サーバ200から受信した応答情報に基づいてユーザ発話に対応する応答メッセージを映像及び音声のうち、少なくとも一方で出力することができる。
更に別の例として、外部機器300の制御のためのユーザ発話が収集されると、ディスプレイ装置100は、収集されたユーザ発話を対話型サーバ200に伝送する。同時に、ディスプレイ装置100は、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されていない場合、ディスプレイ装置100は対話型サーバ200から受信した応答情報に基づいてユーザ発話に対応する機能を行うことができる。すなわち、ディスプレイ装置100は、対話型サーバ200から受信した応答情報に基づいて、外部機器30の機能を制御することができる。ここで、外部機器300は、DVDプレーヤ、セットトップボックス、音響機器、ゲーム機等のように、ディスプレイ装置100に接続され、機能を行う電子装置であってよい。
このように、本発明に係る対話型システムで、ディスプレイ装置100は対話型サーバ200から受信した応答情報に基づいてユーザの意図した機能を行うだけでなく、内部的にもユーザ発話に対応する制御情報に基づいてユーザの意図した機能を行うことができる。よって、本発明に係る対話型システムのディスプレイ装置100は、ユーザ発話に対応する機能を行ううえでエラーを最小限化するだけでなく、より素早い処理速度でユーザ発話に対応する機能を行うことができる。
一方、上述のように、ディスプレイ装置100からユーザ発話を受信し、受信されたユーザ発話に基づいて応答情報を生成する対話型サーバ200は、ディスプレイ装置100から受信されたユーザ発話の意味を分析し、ディスプレイ装置100の動作を制御するための応答情報を生成してディスプレイ装置100に伝送する。すなわち、対話型サーバ200は、ディスプレイ装置100からユーザ発話が受信されると、受信されたユーザ発話から発話要素を抽出し、その抽出された発話要素に基づいてユーザ発話に関連する応答情報を生成して伝送することができる。ここで、発話要素は、ユーザ発話内でユーザが要求した動作を行うための中核キーワードであってよい。例えば、“今週の土曜日の○○○(放送番組名)は何時から放送?”というユーザの発話音声の場合、発話要素は、“今週”、“土曜日”、“○○○(放送番組名)”、“何時”、“放送”であってよい。
このような発話要素が抽出されると、対話型サーバ200は、ユーザ発話から抽出した発話要素に基づいてユーザ発話に対応する動作を行うための応答情報を生成してディスプレイ装置100に伝送する。
例えば、ディスプレイ装置100は、ユーザから“今週の土曜日の○○○(放送番組名)は何時から放送?”というEPG(Electronic Program Guide)関連のユーザ発話を収集することができる。このようなユーザ発話が収集されると、ディスプレイ装置100は、収集されたユーザ発話を対話型サーバ200に伝送する。ここで、ユーザ発話は、アナログ信号であってよい。よって、ディスプレイ装置100は、収集されたユーザ発話をデジタル信号に変換した後、変換されたデジタル信号であるユーザ発話を対話型サーバ200に伝送することができる。デジタル信号に変換されたユーザ発話が受信されると、対話型サーバ200は、デジタル信号に変換されたユーザ発話に基づいてテキスト情報を生成した後、生成したテキスト情報を分析してユーザ発話に対応する応答情報を生成することができる。
しかし、本発明は、それに限定されず、ディスプレイ装置100は収集されたユーザ発話を別途の信号処理なしに、対話型サーバ200に伝送することができる。この場合、対話型サーバ200は、ディスプレイ装置100から受信したユーザ発話をデジタル信号に変換した後、変換されたデジタル信号に基づいてユーザ発話に関するテキスト情報を生成することができる。ユーザ発話を通じてテキスト情報に変換することは、公知技術であるため、本発明では詳細な説明を省略する。
上述のように、“今週の土曜日の○○○(放送番組名)は何時から放送?”というユーザ発話に関するテキスト情報が生成されると、対話型サーバ200は、“今週の土曜日の○○○(放送番組名)は何時から放送?”というユーザ発話を分析して発話要素を抽出することができる。ここで、抽出された発話要素は、“今週”、“土曜日”、“○○○(放送番組名)”、“何時”、“放送”であってよい。このような発話要素が抽出されると、対話型サーバ200は、抽出された発話要素に基づいて当該放送番組が始まる放送時間情報に対する応答情報を生成し、ディスプレイ装置100に伝送する。それにより、ディスプレイ装置100は、受信した応答情報に基づいて、“○○○(放送番組名)は7時から放送が始まります”という応答メッセージを音声またはテキスト形態の映像で出力することができる。
更に別の例として、ディスプレイ装置100は、ユーザから“今週の土曜日の○○○(放送番組名)を予約して”という発話音声を収集することができる。このようなユーザ発話が収集されると、ディスプレイ装置100は、収集されたユーザ発話を対話型サーバ200に伝送する。この場合、対話型サーバ200は、“今週の土曜日の○○○(放送番組名)を予約して”というユーザ発話から発話要素を抽出し、抽出された発話要素に基づいて当該放送番組が始まる時点で、“○○○”の予約録画機能を行うための制御命令及び“○○○の録画が予約されました”という応答メッセージを含む応答情報を生成し、それをディスプレイ装置100に伝送することができる。よって、ディスプレイ装置100は、受信した応答情報に基づいて当該放送番組に対する予約録画機能を実行し、それと同時に、“○○○の録画が予約されました”という応答メッセージを音声またはテキスト形態の映像で出力することができる。
一方、上述の対話型サーバ200は、デジタル信号に変換されたユーザ発話をテキスト情報に変換する第1サーバ10及びテキスト情報で生成されたユーザ発話に対応する応答情報を生成する第2サーバ20を含むことができる。以下では、第1及び第2サーバ10、20を介してユーザ発話に適した応答情報をディスプレイ装置100に提供する対話型システムについて詳細に説明する。
図2は、本発明の別の実施形態に係る対話型システムの第2例示図である。
図2に示すように、ディスプレイ装置100は、ユーザからユーザ発話が収集されると、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。同時に、ディスプレイ装置100は、収集されたユーザ発話をデジタル信号に変換し、第1サーバ10に伝送する。デジタル信号に変換されたユーザ発話が受信されると、第1サーバ10は予め保存された多様なユーザ発話に対する特定パターンに応じて、ユーザ発話に関するテキスト情報を生成してディスプレイ装置100に伝送する。
その後、第1サーバ10からユーザ発話に関するテキスト情報が受信されると、ディスプレイ装置100は、受信されたテキスト情報を第2サーバ20に伝送する。しかし、本発明はそれに限定されず、第1サーバ10はユーザ発話に関するテキスト情報が受信されると、受信されたテキスト情報を第2サーバ20に伝送することができる。このように、第1サーバ10から生成されたテキスト情報がディスプレイ装置100或いは第1サーバ10を介して受信されると、第2サーバ20は受信したテキスト情報を分析して発話要素を抽出し、その抽出された発話要素に基づいてユーザ発話に対応する動作を行うための応答情報を生成してディスプレイ装置100に伝送することができる。
これまで、本発明に係るディスプレイ装置100と対話型サーバ200とからなる対話型システムで、ユーザ発話に対応する動作を行うものについて概略に説明してきた。以下では、本発明に係る対話型システムでユーザ発話に対応する動作を行う方法について概略に説明する。
図3は、本発明の一実施形態に係る対話型システムでユーザ発話に対応する動作を行う方法のシーケンス図である。
図3に示すように、ディスプレイ装置100は、ユーザからユーザ発話を収集する(S301)。ユーザ発話が収集されると、ディスプレイ装置100は収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。同時に、ディスプレイ装置100は、収集されたユーザ音声をデジタル信号に変換し、第1サーバ10に伝送する(S302、S303)。本発明では、説明の便宜上、ユーザ発話に対応する制御命令の保存有無判断及びユーザ発話を第1サーバ10に伝送することに対する動作実行ステップを区分しているだけで、ステップS302、S303の動作が同時に行われることが望ましい。
その後、ディスプレイ装置100は、収集されたユーザ発話に関する制御情報が予め保存されている場合、第1サーバ10及び第2サーバ20からユーザ発話に関連して受信される情報を利用することなく、予め保存された制御情報に基づいてユーザ発話に対応する動作を行う(S304)。一方、ディスプレイ装置100は、収集されたユーザ発話に関する制御情報が予め保存されていない場合、後述するステップを通じてユーザ発話に対応する動作を行うことができる。上述のように、ディスプレイ装置100からデジタル信号に変換されたユーザ発話を受信した第1サーバ10はデジタル信号に変換されたユーザ音声をテキスト情報を生成した後、生成されたテキスト情報をディスプレイ装置100に伝送する(S305、S306)。その後、ディスプレイ装置100は、第1サーバ10から受信したテキスト情報を第2サーバ20に伝送する(S307)。ディスプレイ装置100からテキスト情報に変換されたユーザ発話を受信した第2サーバ20は、受信したテキスト情報から発話要素を抽出する(S308)。第2サーバ20でユーザ発話に関するテキスト情報から発話要素を抽出する動作は、図1及び図2を参照して説明しているため、省略する。
このような発話要素が抽出されると、第2サーバ20は抽出した発話要素に基づいて、ユーザ発話に対応する機能を行うための応答情報を生成した後、生成された応答情報をディスプレイ装置100に伝送する(S309、S310)。それにより、ディスプレイ装置100は、ユーザ音声に対応する応答情報に基づいてユーザ発話に対応する動作を行う(S311)。
上述の例のように、音量操作のためのユーザ発話が収集されると、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。同時に、ディスプレイ装置100は、第2サーバ20からユーザ発話に対応する応答情報を受信するために入力されたユーザ発話をデジタル信号に変換して第1サーバ10に伝送する。一方、ユーザ発話に対応する制御情報が予め保存されていると判断されると、ディスプレイ装置100は予め保存された制御情報に基づいて音量を調整することができる。すなわち、ディスプレイ装置100は、ユーザ発話に対応する制御情報が予め保存されている場合、第2サーバ20から応答情報が受信される前に予め保存された制御情報に基づいて音量を調整することができる。
一方、ユーザ発話に対応する制御情報が予め保存されていないと判断されると、ディスプレイ装置100は、第2サーバ20から受信した応答情報に基づいてユーザ発話に対応する機能を行うことができる。すなわち、ディスプレイ装置100は、第2サーバ20から受信した応答情報に基づいて、ユーザ発話に対応する応答メッセージを映像及び音声のうち、少なくとも一方で出力することができる。
このように、本発明に係る対話型システムのディスプレイ装置100は、ユーザ発話が収集されると、収集されたユーザ発話に対するユーザの意図を内部的に判断するだけでなく、第1及び第2サーバ10、20を介して判断することができる。よって、対話型システムのディスプレイ装置は、ユーザ発話に対応する応答を迅速に行うだけでなく、ユーザ発話に対する応答エラーを最小限化することができる。
これまで、本発明に係る対話型システム及び対話型システムを通じてユーザ発話に対応する動作を行うことについて概略に説明している。以下では、上述の対話型システムを構成するディスプレイ装置100及び対話型サーバ20の各構成について詳細に説明する。
図4は、本発明の一実施形態に係るディスプレイ装置のブロック図である。
図4に示すように、ディスプレイ装置100は、音声収集部110と、通信部120と、保存部130及び制御部140を含む。
音声収集部110は、ユーザから発話されたユーザ発話を収集する。具体的に、音声収集部110は、アナログ形態のユーザ発話が収集されると、収集されたユーザ発話をサンプリングしてデジタル信号に変換する。このとき、収集されたユーザ発話にノイズ(例えば、エアコンの音、掃除機の音、音楽の音等)がある場合、音声収集部110は、ノイズを取り除いた後、ノイズが取り除かれたユーザ発話をデジタル信号に変換することができる。
通信部120は、音声収集部110を介してユーザ発話がデジタル信号に変換されると、変換されたデジタル信号を対話型サーバ200に伝送し、伝送されたユーザ発話に対応する応答情報を受信する。ここで、通信部120は、近距離無線通信モジュール(図示せず)、無線通信モジュール(図示せず)等のような多様な通信モジュールを含むことができる。ここで、近距離無線通信モジュール(図示せず)は、近距離に位置する対話型サーバ200及び外部機器300と無線通信を行う通信モジュールとして、例えば、ブルートゥース、Zigbee(登録商標)等であってよい。無線通信モジュール(図示せず)は、Wi−Fi、IEEE等のような無線通信プロトコールによって外部ネットワークに接続されて通信を行うモジュールである。その他に、無線通信モジュールは、3G(3rd Generation)、3GPP(3rd Generation Partnership Project)、LTE(Long Term Evolution)等のような多様な移動通信規格によって移動通信網に接続して、通信を行う移動通信モジュールを更に含むこともできる。
一方、ユーザ発話に対応する応答情報を提供する対話型サーバ200は上述のように、デジタル信号に変換されたユーザ発話をテキストに変換する第1サーバ10及びテキストに変換されたユーザ発話を分析してユーザ発話に対応する応答情報を生成する第2サーバ20で実現されてよい。本発明においては、対話型サーバ200を介してユーザ発話に対応する応答情報を生成することに限定して説明を進める。
保存部130は、ディスプレイ装置100を動作させるために必要な各種プログラム等が保存される記録媒体として、メモリ、HDD(Hard Disk Drive)等で実現されてよい。例えば、保存部130は、制御部140の動作実行のためのプログラムを保存するためのROM、制御部140の動作実行によるデータを一時的に保存するためのRAM等を備えてよい。更に、保存部130は、各種参照データを保存するためのEEROM(Electrically Erasable and Programmable ROM)等を更に備えてよい。特に、保存部130は、ユーザ発話のそれぞれに対応する制御情報を保存する。具体的に、保存部130は、ディスプレイ装置100の音量、チャネル、画質等の調整のためのユーザ発話に対応する制御情報を保存する。ここで、制御情報は、ユーザ発話のそれぞれに対してディスプレイ装置100の機能を予め設定されたターゲット値に調整するための情報として、製造者によって最初設定されたり、入力部150を介して入力されたユーザ命令に基づいて設定されてよい。
ここで、入力部150は、多様なユーザ操作を受信して制御部140に伝達するための入力手段として、入力パネルで実現されてよい。ここで、入力パネルは、タッチパッド(Touch Pad)或いは各種機能キー、数字キー、特殊キー、文字キー等を備えたキーパッド(Key Pad)またはタッチスクリーン(Touch Screen)方式で構成されてよい。更に、入力部150は、ディスプレイ装置100を制御するためのリモコンから伝送されるリモコン信号を受信するためのIR受信部(図示せず)で実現されてよい。このような入力部150を介してディスプレイ装置100の機能を制御するための各種ユーザ操作を受信することができる。例えば、ディスプレイ装置100が、スマートテレビで実現される場合、入力部150は電源オン/オフ、チャネル変更、音量変更等、スマートテレビの機能を制御するためのユーザ操作を受信することができる。
制御部140は、音声収集部110を介して収集されたユーザ発話を通信部120を介して対話型サーバ200に伝送し、同時に、収集されたユーザ発話に対応する制御情報が保存部130に保存されているか否かを判断する。判断の結果、収集されたユーザ発話に対応する制御情報が保存部130に保存されている場合、制御部140は、保存部130に保存された制御情報に基づいてユーザ発話に対応する動作を行う。このとき、制御部140は、通信部120を介してユーザ発話に対応する応答情報が対話型サーバ20から受信されると、受信された応答情報に対しては別途の動作を行わない。一方、判断の結果、収集されたユーザ発話に対応する制御情報が保存部130に保存されていないと判断されると、制御部140は、通信部120を介して対話型サーバ200から受信された応答情報に基づいてユーザ発話に対応する動作を行う。ここで、応答情報は、ユーザ発話に対応する応答メッセージまたはディスプレイ装置100の機能を制御するための制御命令のうちに一つである。よって、制御部140は、通信部120を介して対話型サーバ200から応答情報が受信されると、受信された応答情報に基づいて後述の出力部160を介して応答メッセージを出力するか、またはディスプレイ装置100の機能を制御することができる。
このような制御部140は、本発明の更なる態様により、予め設定された臨海時間内に保存部130に保存された制御情報に基づいて、ユーザ発話に対応する動作が行われない場合、対話型サーバ200から受信した応答情報に基づいてユーザ発話に対応する動作を行うことができる。
一方、本発明の更なる態様によって、ディスプレイ装置100は、映像及び音声を出力する出力部160を更に含んでよい。具体的に、出力部160は、ユーザ発話に関連する応答メッセージまたは確認メッセージを音声またはテキスト形態の映像で出力することができる。ここで、応答メッセージは、対話型サーバ200から受信された応答情報に基づいて生成されたメッセージであり、確認メッセージは、保存部130に保存された複数の制御情報のうち、少なくとも一つの制御情報にマッチングされて保存されたメッセージであってよい。このような応答メッセージまたは確認メッセージを出力する出力部160は、ディスプレイ部161及びオーディオ出力部163を含む。具体的に、ディスプレイ部161は、液晶表示装置(Liquid Crystal Display:LCD)、有機電気発光ダイオード(Organic Light Emitting Display:OLED)またはプラズマ表示パネル(Plasma Display Panel:PDP)等で実現され、ディスプレイ装置100を介して提供可能な多様なディスプレイ画面を提供することができる。特に、ディスプレイ部161は、ユーザの発話音声に関連する応答メッセージ或いは確認メッセージをテキストまたはイメージ形態でディスプレイすることができる。ここで、ディスプレイ部161は、タッチパッドとともに相互レイヤ構造をなすタッチスクリーン形態で実現されてよく、タッチスクリーンはタッチ入力位置、面積、タッチ入力の圧力までも検出するように構成されてよい。
オーディオ出力部163は、スピーカまたはジャック等のような出力ポートで実現され、ユーザ発話に関連する応答メッセージまたは確認メッセージを可聴音で出力することができる。
一方、上述のように、保存部130は、ユーザ発話のそれぞれに対する制御情報のうち、少なくとも一つの制御情報に確認メッセージをマッチングさせて保存することができる。よって、制御部140は、収集されたユーザ発話に対応する制御情報に確認メッセージがマッチングされている場合、出力部160を介してユーザ発話に対応する制御情報にマッチングされている確認メッセージを出力する。出力部160を介して確認メッセージを出力した後、音声収集部110を介して追加ユーザ発話が収集されると、制御部140は、以前のユーザ発話に関連して獲得した制御情報に基づいてディスプレイ装置100の機能を制御する。すなわち、制御部140は、追加ユーザ発話が収集されると、出力部160を介して出力した確認メッセージとマッチングされた制御情報に基づいてディスプレイ装置100の機能を制御する。しかし、本発明はそれに限定されず、制御部140は、出力部160を介して確認メッセージを出力した後、音声収集部110を介して追加ユーザ発話が収集されると、収集された追加ユーザ発話を分析し、保存部130から追加ユーザ発話に対応する新たな制御情報を獲得し、獲得した新たな制御情報に基づいてディスプレイ装置100の機能を制御することができる。
一方、制御部140は、ユーザ発話に対応する制御情報に基づいてディスプレイ装置100の機能を調整した後、追加ユーザ発話が収集されると、収集された追加ユーザ発話に基づいてディスプレイ装置100の機能を再調整することができる。上述のように、制御情報は、ユーザ発話のそれぞれにディスプレイ装置100の機能を予め設定されたターゲット値に調整するための情報である。よって、制御部140は、ユーザ発話に対応する制御情報に基づいて、ディスプレイ装置100の機能を予め設定されたターゲット値に調整する。その後、ユーザから追加ユーザ発話が収集されると、収集された追加ユーザ発話に対応する制御情報が保存部130に保存されているか否かを判断する。判断の結果、追加ユーザ発話に対応する制御情報が保存されている場合、制御部140は、当該制御情報に基づいてディスプレイ装置100の機能を予め設定されたターゲット値に再調整することができる。
以下では、上述のディスプレイ装置100でユーザ発話に対応する制御情報に基づいて、ディスプレイ装置100の機能を制御する動作について、より具体的に説明する。
Figure 2014134791
上記の表1は、音量調整に関連し、ユーザ発話のそれぞれに対する機能調整単位が定量化されたテーブルを示すものであり、このようなテーブルは、保存部130に保存されてよい。このようなテーブルが保存部130に保存された状態で、ユーザから“音量をとても大きくして”というユーザ発話が収集されると、制御部140は、収集されたユーザ発話を通信部120を介して対話型サーバ200に伝送する。同時に、制御部140は、“音量をとても大きくして”というユーザ発話を分析してユーザの意図を把握する。すなわち、制御部140は、“音量をとても大きくして”というユーザ発話から音量をとても大きく調整せよというユーザの意図を把握することができる。よって、制御部140は、このようなユーザの意図に基づいて音量調整に関連するテーブルから“現在値+10”というターゲット値を獲得する。その後、制御部140は、獲得したターゲット値に基づいて現在設定された音量の大きさを調整することができる。例えば、現在設定された音量値が5であれば、制御部140は予め獲得したターゲット値に基づいて現在設定された音量値を5から15に調整することができる。
一方、制御部140は、“音量を小さくして”というユーザ発話が収集されると、収集されたユーザ発話を分析して音量を小さく調整せよというユーザの意図を把握することができる。よって、制御部140は、このようなユーザの意図に基づいて音量調整に関連するテーブルから“現在値−5”というターゲット値を獲得する。その後、制御部140は、獲得したターゲット値に基づいて現在設定された音量の大きさを調整することができる。例えば、現在設定された音量値が10であれば、制御部140は予め獲得したターゲット値に基づいて現在設定された音量値を10から5に調整することができる。
一方、ユーザ発話からユーザの意図が正確に把握することができない場合、制御部140は、出力部160を介して確認メッセージを出力することができる。
Figure 2014134791
上記の表2は、音量調整に関連し、ユーザ発話のそれぞれに対して定量化された機能調整単位及び各機能調整単位別に確認メッセージがマッチングされたテーブルを示すものとして、このようなテーブルは、保存部130に保存されてよい。このようなテーブルが保存部130に保存された状態で、ユーザから“うるさ過ぎる”というユーザ発話が収集されると、制御部140は、収集されたユーザ発話を通信部120を介して対話型サーバ200に伝送する。同時に、制御部140は、“うるさ過ぎる”というユーザ発話を分析してユーザの意図を把握する。すなわち、制御部140は、“うるさ過ぎる”というユーザ発話から音量を小さく調整せよというユーザの意図を把握することができる。よって、制御部140は、このようなユーザの意図に基づいて、音量調整に関連するテーブルから“現在値−5”というターゲット値を獲得することができる。
一方、獲得したターゲット値に関連して確認メッセージがマッチングされている場合、制御部140は、出力部160を介して“音量を下げますか?”という確認メッセージを音声及び映像のうちに一方で出力する。その後、制御部140は、予め設定された臨界時間内に追加ユーザ発話が収集されると、収集された追加ユーザ発話を分析してユーザの意図を把握する。すなわち、制御部140は、収集された追加ユーザ発話が応答に対する発話であると、以前のユーザ発話から獲得したターゲット値に基づいて現在設定された音量を調整することができる。例えば、現在設定された音量値が10である場合、制御部140は、以前のユーザ発話によって獲得した“現在値−5”というターゲット値に基づいて現在設定された音量値を10から5に調整することができる。
このように、ユーザ発話からユーザの意図を把握し、その把握されたユーザの意図に基づいて獲得したターゲット値からディスプレイ装置100の機能を調整する制御部140は、ディスプレイ装置100の機能を調整した後、追加ユーザ発話に基づいて調整された機能を再調整することができる。
Figure 2014134791
上記の表3は、音量再調整に関連し、ユーザ発話のそれぞれに対して、機能調整単位が定量化されたテーブルを示すものとして、このようなテーブルは、保存部130に保存されてよい。このようなテーブルが保存部130に保存された状態で、ユーザから“音が大き過ぎ”という追加ユーザ発話が収集されてよい。すなわち、制御部140は、以前のユーザ発話に対応するターゲット値に基づいて音量を調整した後、予め設定された臨界時間内にユーザから追加ユーザ発話が収集されてよい。この場合、制御部140は、収集された追加ユーザ発話を通信部120を介して対話型サーバ200に伝送する。同時に、制御部140は、“音が大き過ぎ”という追加ユーザ発話を分析してユーザの意図を把握する。すなわち、制御部140は、ユーザ発話に基づいて音量を調整した後、予め設定された臨界時間内に“音が大き過ぎ”という追加ユーザ発話が収集されると、調整された音量を再調整せよというユーザの意図として把握することができる。よって、制御部140は、表3のように、音量再調整に関連し、保存部130に保存されたテーブルに基づいて“現在値−3”というターゲット値を獲得することができる。
例えば、以前のユーザ発話に基づいて音量値が15に調整された状態で、音量再調整に関連して“現在値−3”というターゲット値が獲得されると、制御部140は、現在獲得したターゲット値に基づいて音量値を15から12に調整することができる。
一方、表1ないし表3のうち、少なくとも一つによって、ユーザ発話に対応するターゲット値が獲得されなければ、制御部140は、通信部120を介して対話型サーバ200から受信した応答情報に基づいて応答メッセージを出力したり、或いは、ディスプレイ装置100の機能を調整することができる。
例えば、ユーザから“今日放送の○○○(放送番組名)を録画して”という発話音声が入力されると、制御部140は、“今日放送の○○○(放送番組名)を録画して”というユーザ発話をデジタル信号に変換し、対話型サーバ200に伝送する。それにより、対話型サーバ200は、“今日放送の○○○(放送番組名)を録画して”というユーザ発話に関するテキスト情報を生成する。その後、対話型サーバ200は、“今日放送の○○○(放送番組名)を録画して”というユーザ発話に関するテキスト情報から“今日”、“ ○○○(放送番組名)”、“録画”という発話要素を抽出し、抽出した発話要素に基づいてEPG関連機能であると判断する。その後、対話型サーバ200は、○○○(放送番組名)に対する予約録画に対する制御命令と、“○○○(放送番組名)の録画が予約されました”という応答メッセージを含む応答情報をディスプレイ装置100に伝送する。
よって、制御部140は、受信した応答情報に含まれた制御命令に応じて、○○○(放送番組名)の予約録画を設定する。そして、制御部140は、受信した応答情報に含まれた応答メッセージに基づいて、“○○○(放送番組名)の録画が予約されました”という応答メッセージを映像及び音声のうち少なくとも一方を通じて出力するように出力部160を制御する。よって、出力部160は、“○○○(放送番組名)の録画が予約されました”という応答メッセージを音声またはテキスト形態の映像で出力することができる。
以下では、本発明に係る対話型サーバ200でディスプレイ装置100を介して受信したユーザ発話に適した応答情報を生成し、ディスプレイ装置100に伝送する動作について、詳細に説明する。
図5は、本発明の一実施形態に係る対話型サーバのブロック図である。
図5に示すように、対話型サーバ200は、通信部210と、抽出部220と、保存部230及び制御部240を含む。
通信部210は、ディスプレイ装置100と通信を行い、抽出部220は、通信部210を介してディスプレイ装置100から受信したユーザ発話から発話要素を抽出する。保存部230は、ユーザ発話別の談話履歴情報を記録及びEPG情報を保存している。制御部240は、抽出部220を介して抽出されたユーザ発話に対する発話要素によって分類された機能に基づいて、ユーザ発話に対応する応答情報を異なる形態で生成し、生成された応答情報をディスプレイ装置100に伝送する。ここで、発話要素によって分類される機能は、EPG関連機能及びディスプレイ装置100の動作制御機能のうち、少なくとも一つを含んでよい。よって、制御部240は、ユーザ発話から抽出された発話要素に応じて、ユーザ発話がEPGに関連するものか、それともディスプレイ装置100の動作を制御するためのものかを判断し、その判断結果に応じてユーザ発話に対応する応答情報を生成することができる。
実施形態によって、ユーザ発話から抽出された発話要素がEPS関連発話要素である場合、制御部240は、保存部230に予め保存されたEPG情報に基づいてユーザ発話に対応するEPG情報提供が可能か否かを判断する。判断の結果、EPG情報提供が可能であれば、制御部240は、EPG情報に基づいてユーザ発話に対応する応答情報を生成する。一方、判断の結果、EPG情報提供が不可である場合、制御部240は、保存部230に予め定められた情報及びウェブサーチのうち、少なくとも一つに基づいてユーザ発話に関連する代替応答情報を生成する。
具体的に、抽出部220は、ユーザ発話に対するテキスト情報が受信されると、受信されたテキスト情報から、対話作用(dialogue act)、主作用(main action)及び構成要素(component slot)を含む発話要素を抽出することができる。ここで、対話作用は、ユーザ発話に対する発話行為の力(Illocutionary force)を示すラベルとして、例えば、叙述(statement)、要求(Request)、質問(Question)等であってよい。主作用は、ユーザ発話から実際のユーザの意図を示すラベルを指すものとして、例えば、テレビオン/オフ、番組検索、番組時間検索、番組予約等であってよい。そして、構成要素は、ジャンル、番組名、時間、チャネル名、俳優の名前等であってよい。
例えば、“○○○(放送番組名)は何時から始まる?”というユーザ発話の場合、対話作用は“る?”という質問であってよく、主作用は“始ま”という番組時間の検索であってよい。そして、構成要素は“○○○(放送番組名)”という番組名であってよい。よって、抽出部220は、“○○○(放送番組名)は何時から始まる?”というユーザ発話に対するテキスト情報が受信されると、受信されたテキスト情報から対話作用、主作用及び構成要素を含む発話要素を抽出することができる。このような発話要素が抽出されると、制御部240は、保存部230に保存されたEPG情報を参照して抽出された発話要素がEPG情報に関連する要素であるかを判断することができる。このように、ユーザ発話から抽出された発話要素がEPG情報に関連する要素であると判断されると、制御部240は、抽出された発話要素からユーザ発話に対応する応答情報を生成するための条件を満たすかを判断する。
実施形態によって、制御部240は、ユーザ発話から抽出された発話要素に対話作用、主作用及び構成要素を全て含む場合、ユーザ発話に対応する応答情報を生成するための条件を満たすかを判断することができる。上述の例で、“○○○(放送番組名)は何時から始まる?”というユーザ発話から抽出された発話要素は、対話作用、主作用及び構成要素を全て含む。この場合、制御部240は、ユーザ発話に対応する応答情報を生成するための条件を満たすかを判断することができる。一方、“何時から始まる?”というユーザ発話は、“る?”という対話作用及び“始ま”という主作用に対する発話要素のみを含む。この場合、制御部240は、ユーザ発話に対応する応答情報を生成するための条件を全て満たすことができないと判断し、保存部230に予め保存された談話履歴情報に基づいて中核要素に対する発話要素を問い合わせる代替応答情報を生成する。例えば、制御部240は、“どんな番組のことですか?”という問い合わせ関連応答情報を生成することができる。
このような一連の動作を通じて、ユーザ発話に対応する応答情報を生成するための条件が満たされると、制御部240は、保存部230に保存されたEPG情報に基づいてユーザ発話から抽出された発話要素によって、EPG情報提供が可能かを判断することができる。判断の結果、発話要素に応じて、EPG情報提供が可能であれば、制御部240は、EPG情報に基づいてユーザ発話に対応する応答情報を生成し、EPG情報提供が不可であれば、制御部240は、ユーザ発話に関連する代替応答情報を生成することができる。
例えば、“今週放送の○○○(放送番組名)を録画して!”というユーザ発話の場合、発話要素は、“今週”、“○○○(放送番組名)”、“録画”、“して”になる。このような発話要素が抽出されると、制御部240は、保存部230に保存されたEPG情報から○○○(放送番組名)に対する番組情報及び開始時間情報を獲得することができる。よって、制御部240は、予め獲得した番組情報及び開始時間情報に基づいて、○○○(放送番組名)に対する予約録画関連制御命令及び保存部230に予め保存された談話履歴情報に基づいて生成された応答メッセージを含む応答情報を生成することができる。
一方、“○○○(放送番組名)に出てる主人公って誰?”というユーザ発話の場合、発話要素は“○○○(放送番組名)”、“主人公”、“誰”になる。このような発話要素が抽出されると、制御部240は、保存部230に保存されたEPG情報から○○○(放送番組名)に対する主人公情報があるかをチェックする。チェックの結果、予め保存されたEPG情報から○○○(放送番組名)に対する主人公情報の獲得ができない場合、制御部240は、EPG情報またはウェブサーチを通じて、ユーザ発話に関連する代替情報を受信するかを問い合わせる代替応答情報を生成する。例えば、EPG情報から代替情報を受信するというユーザ発話が入力されると、制御部240は、予め保存されたEPG情報から○○○(放送番組名)に対する出演者情報を獲得する。このように、EPG情報を通じてユーザ発話に関連する代替情報が獲得されると、制御部240は、保存部230に予め保存された談話履歴情報に基づいて予め獲得した代替情報を含む代替応答情報を生成することができる。
一方、制御部240は、ユーザ発話から抽出された発話要素がEPG情報に関連する要素である場合、その抽出された発話要素が複数の要求に対するEPG関連の発話要素であるか判断する。判断の結果、発話要素が複数の要求に対するEPG関連の発話要素であれば、制御部240は、ディスプレイ装置100でユーザ発話を再要求するための発話要素再要求メッセージを生成することができる。
例えば、“今週放送の○○○(放送番組名)を録画して、△△△(放送番組)を視聴予約して!”というユーザ発話の場合、発話要素は、“今週”、“○○○(放送番組名)”、“△△△(放送番組)”“録画”、“視聴”、“して”になる。このような発話要素が抽出されると、制御部240は、抽出された発話要素に複数の要求に対する発話要素(“○○○(放送番組名)”、“△△△(放送番組)”“録画”、“視聴”)があると判断する。よって、制御部240は、保存部230に予め保存された談話履歴情報に基づいて、“一つだけ要求して下さい”という発話音声再要求メッセージを生成することができる。
一方、ユーザ発話から抽出された発話要素がディスプレイ装置100の動作制御に関連した発話要素である場合、制御部240は、抽出された発話要素に基づいてユーザ発話に対応するディスプレイ装置100の動作制御が可能か否かを判断する。判断の結果、ディスプレイ装置100の動作制御が可能であれば、制御部240は、ディスプレイ装置100の動作を制御するための応答情報を生成することができる。
実施形態によって、保存部230は、ディスプレイ装置100の動作を制御することができるマニュアル情報を保存することができる。ここで、マニュアル情報は、ユーザ発話に応じてディスプレイ装置100の動作を制御することができる情報及びユーザ発話を除く残りの制御命令に応じて、ディスプレイ装置100の動作を制御することができる情報を含む。よって、制御部240は、ディスプレイ装置100の制御に関連する発話要素が抽出されると、保存部230に予め保存されたマニュアル情報に基づいてユーザ発話によって、ディスプレイ装置100の動作を制御することができるかを判断する。判断の結果、ユーザ発話音声に応じてディスプレイ装置100の動作を制御することができれば、制御部240は、ユーザ発話に対応する動作を行うための制御命令を含む応答情報を生成することができる。
例えば、“MBCにチャネルを変えて!”というユーザ発話の場合、発話要素は、“MBC”、“チャネル”、“変え”であってよい。このような発話要素が抽出されると、制御部240は、抽出された発話要素がディスプレイ装置100の機能制御に関連する発話要素であると判断する。その後、制御部240は、保存部230に予め保存されたマニュアル情報を参照して抽出された発話要素に応じて、ディスプレイ装置100のチャネル変更が可能かを判断する。判断の結果、ユーザ発話でディスプレイ装置100のチャネル変更が可能であれば、制御部240は、ディスプレイ装置100で現在設定されたチャネルをMBCに変えるようにする制御命令を含む応答情報を生成することができる。
一方、判断の結果、ユーザ発話に応じて、ディスプレイ装置100の動作制御が不可であれば、制御部240は、ディスプレイ装置100の動作制御方法及び現在状態報知のうち、少なくとも一つに関連する応答情報を生成することができる。
例えば、“画面を明るくして!”というユーザ発話の場合、発話要素は、“画面”、“明るく”、“して”が抽出されてよい。このような発話要素が抽出されると、制御部240は、ディスプレイ装置100の機能制御に関連する発話要素であると判断する。その後、制御部240は、保存部230に予め保存されたマニュアル情報を参照して抽出された発話要素に応じて、ディスプレイ装置100の画面調整が可能かを判断する。判断の結果、ユーザ発話でディスプレイ装置100の画面調整が不可であれば、制御部240は、保存部230に保存されたマニュアル情報を参照してディスプレイ装置100の画面調整に対する方法の応答情報を生成することができる。
これまで、本発明に係るユーザ発話に適した応答情報を提供する対話型サーバ200の各構成について詳細に説明してきた。以下では、上述のディスプレイ装置100でユーザ発話に基づいて動作を行うための制御方法について詳細に説明する。
図6は、本発明の一実施形態に係るディスプレイ装置でユーザ発話に基づいて動作を行うための制御方法のフローチャートである。
図6に示すように、ディスプレイ装置は、ユーザからユーザ発話を収集する(S610)。このようなユーザ発話が収集されると、ディスプレイ装置は収集されたユーザ発話を対話型サーバに伝送する。同時に、ディスプレイ装置は、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する(S620、S630)。判断の結果、収集されたユーザ発話に対応する制御情報が予め保存されていない場合、ディスプレイ装置は、対話型サーバから受信された応答情報に基づいてユーザ発話に対応する動作を行う(S640)。一方、判断の結果、収集されたユーザ発話に対応する制御情報が予め保存されている場合、ディスプレイ装置は、予め保存された制御情報に基づいてユーザ発話に対応する動作を行う(S650)。予め保存された制御情報に基づいてユーザ発話に対応する動作を行う場合、ディスプレイ装置は対話型サーバから受信した応答情報が受信されると、受信した応答情報に基づいて別途の動作を行わないことが望ましい。
一方、本発明の更なる態様によって、ディスプレイ装置は、予め設定された臨界時間内にユーザ発話に関連して獲得した制御情報に基づいてユーザ発話に対応する動作を行わない場合、対話型サーバから受信した応答情報に基づいて、ユーザ発話に対応する動作を行うことができる。
例えば、音量操作のためのユーザ発話が収集されると、ディスプレイ装置は収集されたユーザ発話を対話型サーバに伝送すると同時に、当該ユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が保存されている場合、ディスプレイ装置は、予め保存された制御情報に基づいて音量を調整することができる。すなわち、ディスプレイ装置は、ユーザ発話に対応する制御情報が予め保存されている場合、対話型サーバから応答情報が受信される前に、予め保存された制御情報に基づいて音量を調整することができる。
一方、別の例として、ディスプレイ装置は、ユーザからコンテンツ情報提供のためのユーザ発話を収集することができる。この場合、ディスプレイ装置は収集されたユーザ発話を対話型サーバに伝送すると同時に、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されていないと判断されると、ディスプレイ装置は対話型サーバから受信した応答情報に基づいてユーザ発話に対応する動作を行うことができる。すなわち、ディスプレイ装置は、対話型サーバから受信した応答情報に基づいてユーザ 発話に対応する応答メッセージを映像及び音声のうち、少なくとも一方で出力したり、ディスプレイ装置の機能を制御することができる。
このように、本発明に係るディスプレイ装置は、対話型サーバから受信した応答情報に基づいてユーザの意図した機能を行うだけでなく、内部的にもユーザ発話に対応する制御情報に基づいてユーザの意図した機能を行うことができる。よって、本発明に係るディスプレイ装置は、ユーザ発話に対応する機能を行ううえでエラーを最小限化するだけでなく、より素早い処理速度でユーザ発話に対応する機能を行うことができる。
以下では、上述のディスプレイ装置で、ユーザ発話に対応する動作を行う方法について、より具体的に説明する。
図7は、本発明の一実施形態に係るディスプレイ装置でユーザ発話に対応する動作を行うための制御方法のフローチャートである。
図7に示すように、ディスプレイ装置は、ユーザ発話が収集されると、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断する。判断の結果、ユーザ発話に対応する制御情報が予め保存されている場合、ディスプレイ装置は、当該制御情報を獲得し、獲得した制御情報に確認メッセージがマッチングされているか否かを判断する(S710)。ここで、制御情報は、ユーザ発話のそれぞれに対してディスプレイ装置の機能を予め設定されたターゲット値に調整するための情報である。よって、ディスプレイ装置は、収集されたユーザ発話に対応するターゲット情報が予め保存されているか否かを判断し、ターゲット情報が予め保存されていると判断されると、ターゲット情報とともに確認メッセージがマッチングされているか否かを判断する。
判断の結果、ユーザ発話に対応する制御情報に確認メッセージがマッチングされていると判断されると、ディスプレイ装置は、当該確認メッセージを音声または映像で出力する(S720)。その後、ディスプレイ装置は、確認メッセージを出力した後、追加ユーザ発話が収集されるか否かを判断し、追加ユーザ発話が収集されると、追加ユーザ発話に対応する制御情報を獲得する(S730、S740)。その後、追加ユーザ発話に対応する制御情報が獲得されると、ディスプレイ装置は、獲得した制御情報に基づいてディスプレイ装置の機能を調整する(S750)。一方、上述のステップS710でユーザ発話に対応して獲得した制御情報に確認メッセージがマッチングされていない場合、ディスプレイ装置は、ステップS750を通じて、ユーザ発話に対応して獲得した制御情報に基づいてディスプレイ装置の機能を調整することができる。
具体的に、表1で説明しているように、ディスプレイ装置は、音量調整に関連し、ユーザ発話のそれぞれに対する機能調整単位が定量化したテーブルが保存されてよい。このようなテーブルが保存された状態で、ユーザから“音量をとても大きくして”というユーザ発話が収集されると、ディスプレイ装置は、収集されたユーザ発話から音量をとても大きく調整せよというユーザの意図を把握することができる。よって、ディスプレイ装置は、このようなユーザの意図に基づいて、音量調整に関連するテーブルから“現在値+10”というターゲット値を獲得する。その後、ディスプレイ装置は、“現在値+10”というターゲット値に関連し、確認メッセージがマッチングされているか否かを確認し、確認メッセージがマッチングされていない場合、“現在値+10”というターゲット値に基づいて現在設定された音量の大きさを調整することができる。
一方、表2で説明しているように、ユーザから“うるさ過ぎる”というユーザ発話が収集されると、ディスプレイ装置は、収集されたユーザ発話から音量を小さく調整せよというユーザの意図を把握することができる。よって、ディスプレイ装置は、このようなユーザの意図に基づいて、音量調整に関連するテーブルから“現在値−5”というターゲット値を獲得することができる。一方、獲得した“現在値−5”というターゲット値に関連して確認メッセージがマッチングされている場合、ディスプレイ装置は、“音量を下げますか?”という確認メッセージを音声及び映像のうち少なくとも一方で出力する。その後、ディスプレイ装置は、予め設定された臨界時間内に追加ユーザ発話が収集されると、収集された追加ユーザ発話を分析してユーザの意図を把握する。
例えば、表2で説明しているように、ディスプレイ装置は、“うるさ過ぎる”というユーザ発話に関連し、音量調整にお関連するテーブルから“現在値−5”というターゲット値を獲得することができる。一方、獲得したターゲット値に関連して確認っメッセージがマッチングされている場合、ディスプレイ装置は、“音量を下げますか?”という確認メッセージを音声及び映像のうち少なくとも一方で出力する。その後、ディスプレイ装置は、予め設定された臨界時間内に追加ユーザ発話が収集されると、収集された追加ユーザ発話を分析してユーザの意図を把握する。すなわち、ディスプレイ装置は、収集された追加ユーザ発話が応答に対する発話であれば、以前のユーザ発話から獲得したターゲット値に基づいて現在設定された音量を調整することができる。
一方、ユーザ発話に対応するターゲット値に基づいてディスプレイ装置の機能を調整した後、追加ユーザ発話が収集されると、ディスプレイ装置は、収集された追加ユーザ発話に基づいて調整された機能を再調整することができる。
上記の表3で説明しているように、ディスプレイ装置は、以前のユーザ発話に対応するターゲット値に基づいて音量を調整した後、予め設定された臨界時間内にユーザから“音が大き過ぎ”という追加ユーザ発話が収集されてよい。この場合、ディスプレイ装置は、収集された追加ユーザ発話を分析し、調整された音量を再調整せよというユーザの意図と把握することができる。よって、ディスプレイ装置は、音量再調整に関連するテーブルから“現在値−3”というターゲット値を獲得することができる。このようなターゲット値が獲得されると、ディスプレイ装置は、以前のユーザ発話に対応するターゲット値に基づいて調整された音量値を追加ユーザ発話に対応するターゲット値に基づいて再調整することができる。
一方、上述のように、ディスプレイ装置は、ユーザ発話が収集されると、収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断すると同時に、対話型サーバにユーザ発話を伝送する。よって、対話型サーバは、ディスプレイ装置から受信したユーザ発話に基づいて応答情報を生成し、生成された応答情報をディスプレイ装置に伝送する。このような対話型サーバは、ディスプレイ装置から収集されたユーザ発話をテキスト情報に変換する第1サーバ及びテキスト情報に変換されたユーザ発話に対応する応答情報を生成する第2サーバとを含んでよい。具体的に、ディスプレイ装置は、ユーザ発話が収集されると、第1サーバに収集されたユーザ発話をデジタル信号に変換して伝送する。その後、第1サーバからユーザ発話に関するテキスト情報が受信されると、ディスプレイ装置は、受信したテキスト情報を第2サーバに伝送する。しかし、本発明はそれに限定されず、第1サーバは、ユーザ発話に関するテキスト情報を生成した後、第2サーバに伝送することができる。よって、第2サーバは、ディスプレイ装置或いは第1サーバから受信したテキスト情報に基づいて応答情報を生成し、生成された応答情報をディスプレイ装置に伝送する。
よって、ディスプレイ装置は、収集されたユーザ発話に対応する制御情報が予め保存されていない場合、対話型サーバの第2サーバから受信した応答情報に基づいてユーザ発話に対応する応答メッセージを出力するか、またはユーザ発話に対応する機能を制御することができる。
これまで、本発明について、その好適な実施形態を中心に説明してきた。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明は以上の実施形態に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的趣旨の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
10 第1サーバ
20 第2サーバ
20 対話型サーバ
30 外部機器
100 ディスプレイ装置
110 音声収集部
120 通信部
130 保存部
140 制御部
150 入力部
160 出力部
161 ディスプレイ部
163 オーディオ出力部
200 対話型サーバ
210 通信部
220 抽出部
230 保存部
240 制御部
300 外部機器

Claims (14)

  1. ユーザ発話を収集する音声収集部と、
    前記ユーザ発話を対話型サーバに伝送し、前記ユーザ発話に基づいて生成された対応する応答情報を受信する通信部と、
    ユーザ発話のそれぞれに対応する制御情報を保存する保存部と、
    前記収集されたユーザ発話を前記対話型サーバに伝送しつつ、前記収集されたユーザ発話に対応する制御情報が前記保存部に保存されているか否かを判断する制御部と
    を含み、
    前記制御部は、
    前記収集されたユーザ発話に対応する制御情報が前記保存部に保存されている場合、保存された制御情報に基づいて前記ユーザ発話に対応する動作を行い、前記保存部に保存されていない場合、前記対話型サーバから受信された応答情報に基づいて前記ユーザ発話に対応する動作を行うディスプレイ装置。
  2. 前記制御部は、
    予め設定された臨界時間内に前記保存部に保存された制御情報に基づいて、前記ユーザ発話に対応する動作が行われない場合、前記対話型サーバから受信した応答情報に基づいて、前記ユーザ発話に対応する動作を行うことを特徴とする請求項1に記載のディスプレイ装置。
  3. 映像及び音声を出力する出力部を更に含み、
    前記保存部は、
    前記ユーザ発話のそれぞれに関する制御情報のうち、少なくとも一つの制御情報に確認メッセージをマッチングさせて保存し、
    前記制御部は、
    前記収集されたユーザ発話に対応する制御情報に確認メッセージがマッチングされている場合、前記出力部を介して前記確認メッセージを出力し、追加ユーザ発話が収集されると、前記制御情報に基づいて前記ディスプレイ装置の機能を制御することを特徴とする請求項1に記載のディスプレイ装置。
  4. 前記制御情報は、
    ユーザ発話のそれぞれに対して、前記ディスプレイ装置の機能を予め設定されたターゲット値に調整するための情報であることを特徴とする請求項3に記載のディスプレイ装置。
  5. 前記制御部は、
    前記ディスプレイ装置の機能が前記予め設定されたターゲット値に調整された後、追加ユーザ発話が収集されると、前記ディスプレイ装置の機能を再調整することを特徴とする請求項4に記載のディスプレイ装置。
  6. 前記応答情報は、
    前記ユーザ発話に対応する応答メッセージまたは前記ディスプレイ装置の機能を制御するための制御命令のうちの一つであることを特徴とする請求項3に記載のディスプレイ装置。
  7. 前記対話型サーバは、
    前記収集されたユーザ発話をテキスト情報に変換する第1サーバと、前記テキスト情報に変換されたユーザ発話に対応する応答情報を生成する第2サーバとを含み、
    前記制御部は、
    前記収集されたユーザ発話をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ発話に関するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ発話に対応する応答情報を受信することを特徴とする請求項1に記載のディスプレイ装置。
  8. ディスプレイ装置の制御方法において、
    ユーザ発話を収集するステップと、
    前記収集されたユーザ発話を対話型サーバに伝送しつつ、前記収集されたユーザ発話に対応する制御情報が予め保存されているか否かを判断するステップと、
    前記判断の結果、前記収集されたユーザ発話に対応する制御情報が予め保存されている場合、前記予め保存された制御情報に基づいて、前記ユーザ発話に対応する動作を行い、予め保存されていない場合、前記対話型サーバから受信された応答情報に基づいて前記ユーザ発話に対応する動作を行うステップと
    を含む制御方法。
  9. 前記判断するステップの後、前記対話型サーバから前記収集されたユーザ発話に対応する応答情報を受信するステップを更に含み、
    前記動作を行うステップは、
    予め設定された臨界時間内に予め保存された前記制御情報に基づいて、前記ユーザ発話に対応する動作が行われない場合、前記応答情報に基づいて、前記ユーザ発話に対応する動作を行うことを特徴とする請求項8に記載の制御方法。
  10. 前記動作を行うステップは、
    前記収集されたユーザ発話に対応する制御情報に確認メッセージがマッチングされている場合、前記確認メッセージを出力し、追加ユーザ発話が収集されると、前記制御情報に基づいて前記ディスプレイ装置の機能を制御することを特徴とする請求項8に記載の制御方法。
  11. 前記制御情報は、
    ユーザ発話のそれぞれに対して、前記ディスプレイ装置の機能を予め設定されたターゲット値に調整するための情報であることを特徴とする請求項10に記載の制御方法。
  12. 前記動作を行うステップは、
    前記ディスプレイ装置の機能が前記予め設定されたターゲット値に調整された後、追加ユーザ発話が収集されると、前記収集された追加ユーザ発話に対応する制御情報に基づいてディスプレイ装置の機能を再調整することを特徴とする請求項9に記載の制御方法。
  13. 前記応答情報は、
    前記ユーザ発話に対応する応答メッセージまたは前記ディスプレイ装置の機能を制御するための制御命令のうちの一つであることを特徴とする請求項10に記載の制御方法。
  14. 前記対話型サーバは、
    前記収集されたユーザ発話をテキスト情報に変換する第1サーバと、前記テキスト情報に変換されたユーザ発話に対応する応答情報を生成する第2サーバとを含み、
    前記動作を行うステップは、
    前記収集されたユーザ発話をデジタル信号に変換して前記第1サーバに伝送し、前記第1サーバから前記ユーザ発話に関するテキスト情報が受信されると、前記テキスト情報を前記第2サーバに伝送し、前記ユーザ発話に対応する応答情報を受信することを特徴とする請求項8に記載の制御方法。
JP2014000277A 2012-12-31 2014-01-06 ディスプレイ装置及び制御方法 Pending JP2014134791A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0158296 2012-12-31
KR1020120158296A KR20140087717A (ko) 2012-12-31 2012-12-31 디스플레이 장치 및 제어 방법

Publications (1)

Publication Number Publication Date
JP2014134791A true JP2014134791A (ja) 2014-07-24

Family

ID=50028694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014000277A Pending JP2014134791A (ja) 2012-12-31 2014-01-06 ディスプレイ装置及び制御方法

Country Status (5)

Country Link
US (1) US20140188486A1 (ja)
EP (1) EP2750027A3 (ja)
JP (1) JP2014134791A (ja)
KR (1) KR20140087717A (ja)
CN (1) CN103916686A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140087717A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 제어 방법
KR20140093303A (ko) * 2013-01-07 2014-07-28 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR102209519B1 (ko) * 2014-01-27 2021-01-29 삼성전자주식회사 음성 제어를 수행하는 디스플레이 장치 및 그 음성 제어 방법
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム
KR102298767B1 (ko) * 2014-11-17 2021-09-06 삼성전자주식회사 음성 인식 시스템, 서버, 디스플레이 장치 및 그 제어 방법
TWI555393B (zh) * 2015-08-24 2016-10-21 晨星半導體股份有限公司 電視節目智慧播放方法與其控制裝置
KR102420518B1 (ko) * 2015-09-09 2022-07-13 삼성전자주식회사 자연어 처리 시스템, 자연어 처리 장치, 자연어 처리 방법 및 컴퓨터 판독가능 기록매체
KR101965880B1 (ko) * 2017-03-30 2019-04-04 엘지전자 주식회사 음성 인식 방법
KR20180110974A (ko) * 2017-03-30 2018-10-11 엘지전자 주식회사 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법
KR102112565B1 (ko) * 2017-05-19 2020-05-19 엘지전자 주식회사 홈 어플라이언스 및 음성 인식 서버 시스템의 동작 방법
CN107767869B (zh) * 2017-09-26 2021-03-12 百度在线网络技术(北京)有限公司 用于提供语音服务的方法和装置
KR102080931B1 (ko) * 2017-11-14 2020-02-24 (주) 엔에이치엔다이퀘스트 음성 대화 제어 방법 및 장치
US20230282209A1 (en) * 2019-09-19 2023-09-07 Lg Electronics Inc. Display device and artificial intelligence server
EP4037323A4 (en) * 2019-09-24 2023-05-10 LG Electronics Inc. ARTIFICIAL INTELLIGENCE SERVER AND ASSOCIATED OPERATING METHOD
WO2021060590A1 (ko) * 2019-09-27 2021-04-01 엘지전자 주식회사 디스플레이 장치 및 인공 지능 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04184397A (ja) * 1990-11-19 1992-07-01 Matsushita Electric Ind Co Ltd 音声制御装置
JP2003223314A (ja) * 2002-01-31 2003-08-08 Canon Inc 情報処理装置及びその方法、プログラム
JP2004184858A (ja) * 2002-12-05 2004-07-02 Omron Corp 音声認識サービス仲介システムと、それに用いる音声認識マスター参照方法、プログラム、およびそのプログラムを内蔵する記憶媒体
JP2007033901A (ja) * 2005-07-27 2007-02-08 Nec Corp 音声認識システム、音声認識方法、および音声認識用プログラム
JP2009237439A (ja) * 2008-03-28 2009-10-15 Kddi Corp 携帯端末の音声認識装置、音声認識方法、音声認識プログラム
JP2012501480A (ja) * 2008-08-29 2012-01-19 マルチモーダル・テクノロジーズ・インク ハイブリッド型音声認識
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置
JP2013064777A (ja) * 2011-09-15 2013-04-11 Ntt Docomo Inc 端末装置、音声認識プログラム、音声認識方法および音声認識システム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5774859A (en) * 1995-01-03 1998-06-30 Scientific-Atlanta, Inc. Information system having a speech interface
JP2001197379A (ja) * 2000-01-05 2001-07-19 Matsushita Electric Ind Co Ltd 機器設定装置、機器設定システムおよび機器設定処理プログラムを記録した記録媒体
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
KR101502003B1 (ko) * 2008-07-08 2015-03-12 엘지전자 주식회사 이동 단말기 및 그 텍스트 입력 방법
US8522283B2 (en) * 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
US20120089392A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
JP5695447B2 (ja) * 2011-03-01 2015-04-08 株式会社東芝 テレビジョン装置及び遠隔操作装置
US20130033644A1 (en) * 2011-08-05 2013-02-07 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling thereof
EP2555536A1 (en) * 2011-08-05 2013-02-06 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
KR20140087717A (ko) * 2012-12-31 2014-07-09 삼성전자주식회사 디스플레이 장치 및 제어 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04184397A (ja) * 1990-11-19 1992-07-01 Matsushita Electric Ind Co Ltd 音声制御装置
JP2003223314A (ja) * 2002-01-31 2003-08-08 Canon Inc 情報処理装置及びその方法、プログラム
JP2004184858A (ja) * 2002-12-05 2004-07-02 Omron Corp 音声認識サービス仲介システムと、それに用いる音声認識マスター参照方法、プログラム、およびそのプログラムを内蔵する記憶媒体
JP2007033901A (ja) * 2005-07-27 2007-02-08 Nec Corp 音声認識システム、音声認識方法、および音声認識用プログラム
JP2009237439A (ja) * 2008-03-28 2009-10-15 Kddi Corp 携帯端末の音声認識装置、音声認識方法、音声認識プログラム
JP2012501480A (ja) * 2008-08-29 2012-01-19 マルチモーダル・テクノロジーズ・インク ハイブリッド型音声認識
JP2012123492A (ja) * 2010-12-06 2012-06-28 Fujitsu Ten Ltd 情報提供システムおよび情報提供装置
JP2013064777A (ja) * 2011-09-15 2013-04-11 Ntt Docomo Inc 端末装置、音声認識プログラム、音声認識方法および音声認識システム

Also Published As

Publication number Publication date
EP2750027A2 (en) 2014-07-02
US20140188486A1 (en) 2014-07-03
EP2750027A3 (en) 2016-07-13
CN103916686A (zh) 2014-07-09
KR20140087717A (ko) 2014-07-09

Similar Documents

Publication Publication Date Title
JP2014134791A (ja) ディスプレイ装置及び制御方法
JP6802305B2 (ja) 対話型サーバ、ディスプレイ装置及びその制御方法
KR102056461B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
US9219949B2 (en) Display apparatus, interactive server, and method for providing response information
US9412368B2 (en) Display apparatus, interactive system, and response information providing method
KR101605862B1 (ko) 디스플레이 장치, 전자 장치, 대화형 시스템 및 이들의 제어 방법
KR102304052B1 (ko) 디스플레이 장치 및 그의 동작 방법
EP2674941B1 (en) Terminal apparatus and control method thereof
CN103516711A (zh) 显示设备、用于控制显示设备的方法和交互***
JP2014021494A (ja) 音声認識エラー修正方法及びそれを適用した放送受信装置
KR101914708B1 (ko) 서버 및 서버의 제어 방법
KR102084739B1 (ko) 대화형 서버, 디스플레이 장치 및 제어 방법
JP2013142903A (ja) 映像装置及びその制御方法
CN115793945A (zh) 交互服务器及其控制方法和交互***
JP2014093778A (ja) 放送受信装置、サーバおよびその制御方法
KR20140008870A (ko) 컨텐츠 정보 제공 방법 및 이를 적용한 방송 수신 장치
CN103763597A (zh) 控制设备的遥控方法及其装置
KR101859614B1 (ko) 디스플레이 장치, 전자 장치, 대화형 시스템 및 이들의 제어 방법
KR20190140890A (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
KR102049833B1 (ko) 대화형 서버, 디스플레이 장치 및 그 제어 방법
KR20140026220A (ko) 단말 장치 및 단말 장치의 제어 방법
JP2021015180A (ja) 電子機器、プログラムおよび音声認識方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20141226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180611