JP6642424B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP6642424B2 JP6642424B2 JP2016525735A JP2016525735A JP6642424B2 JP 6642424 B2 JP6642424 B2 JP 6642424B2 JP 2016525735 A JP2016525735 A JP 2016525735A JP 2016525735 A JP2016525735 A JP 2016525735A JP 6642424 B2 JP6642424 B2 JP 6642424B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- output
- display
- function
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 261
- 238000003672 processing method Methods 0.000 title claims description 5
- 230000004044 response Effects 0.000 claims description 348
- 230000006870 function Effects 0.000 claims description 215
- 238000004458 analytical method Methods 0.000 claims description 44
- 230000015572 biosynthetic process Effects 0.000 claims description 43
- 238000003786 synthesis reaction Methods 0.000 claims description 43
- 238000000034 method Methods 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 39
- 230000008569 process Effects 0.000 claims description 20
- 238000010586 diagram Methods 0.000 description 37
- 238000005516 engineering process Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005562 fading Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 235000021152 breakfast Nutrition 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- H—ELECTRICITY
- H05—ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
- H05B—ELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
- H05B47/00—Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
- H05B47/10—Controlling the light source
- H05B47/105—Controlling the light source in response to determined parameters
- H05B47/115—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
- H05B47/12—Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by detecting audible sound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Description
1.概要
2.機能構成
3.処理
4.実施例
4.1.実施例1:表示情報の提示方法の一例
4.2.実施例2:表示情報の提示方法の一例
4.3.実施例3:処理内容に応じて情報の提示を制御する場合の一例
4.4.実施例4:複数のユーザに対する情報の提示方法の一例
4.5.実施例5:ユーザの割り込みに伴う情報の提示方法の一例
5.ハードウェア構成
6.まとめ
本実施形態に係る情報処理装置10は、ユーザUaが当該情報処理装置10との間で音声により対話を行うことで、当該情報処理装置10を操作可能とした、所謂、音声入力に基づく対話型のユーザインタフェースを備える。そこで、以下に、図1を参照して、本開示の実施形態に係る情報処理装置の概要について説明する。図1は、本実施形態に係る情報処理装置の概要について説明するための説明図である。
まず、図4を参照して、本実施形態に係る情報処理装置10の機能構成の一例について説明する。図4は、本実施形態に係る情報処理装置10の機能構成の一例を示したブロック図である。
次に、図7を参照して、本実施形態に係る情報処理装置10の一連の動作について説明する。図7は、本実施形態に係る情報処理装置10の一連の動作の一例を示したフローチャートである。
入力情報解析部101は、集音部41から逐次出力される、当該集音部41が集音したユーザUaの音声入力を取得する。入力情報解析部101は、取得した音声入力に対して音声認識技術に基づく解析処理を施すことで、当該音声入力を文字情報に変換する。
応答情報生成部103は、入力情報に基づく構造化データを、入力情報解析部101から取得する。応答情報生成部103は、取得した当該構造化データに対して意味解析を施すことで、当該構造化データの元となる音声入力の意味内容を解析し、当該解析結に基づきユーザUaの要求内容を特定する。
次いで、応答情報生成部103は、特定した応答内容d20に対して、当該応答内容d20の音声出力とあわせて提示する他の情報の出力を制御するための制御情報を、応答内容d20中の対応する語句に関連付けて埋め込むことで、応答情報d30を生成する。
応答制御部111は、応答情報生成部103から応答情報d30を取得し、取得した応答情報d30に基づき、情報処理装置10から要求元であるユーザUaに対する応答に係る動作を制御する。そこで、以降では、図8を参照しながら、図7においてステップS20で示された、応答制御部111による制御に基づく応答処理の流れの一例について説明する。図8は、本実施形態に係る情報処理装置10の応答処理の流れの一例を示したフローチャートである。
応答制御部111は、取得した応答情報d30の内容を先頭から逐次読み出し、読み出した情報の種別に応じて、後述する音声合成部115、または、表示制御部117の動作を制御する。具体的には、応答制御部111は、応答情報d30の内容を、制御情報(タグ情報)が検出されるまで読み出す。
応答制御部111は、制御情報が検出されるまでに読み出した情報(語句)を(ステップS203、NO)、ユーザUaに対して音声出力として提示する応答内容を示す情報として、音声合成部115に出力する。
音声合成部115は、ユーザUaに対して音声出力として提示する応答内容を示す情報(例えば、文字情報)を、応答制御部111から取得する。音声合成部115は、取得した応答内容を示す情報から、例えば、音声合成技術に基づき、当該応答内容を発声している音声信号を作成する。
また、応答制御部111は、制御情報を検出すると(ステップS203、YES)、当該制御情報が、要素が空の完結タグか否かを確認する(ステップS207)。
検出した制御情報が完結タグの場合には(ステップS207、YES)、応答制御部111は、当該制御情報の種別(例えば、タグ情報の種別)や、属性情報として指定された内容に基づき、制御対象となる表示情報や、当該表示情報を提示するための制御内容を特定する。
また、検出した制御情報が完結タグでない場合には(ステップS207、NO)、応答制御部111は、当該制御情報が開始タグか否かを確認する(ステップS209)。
検出した制御情報が開始タグの場合には、応答制御部111は、当該開始タグの以降に埋め込まれた、当該開始タグに対応する終了タグを検出する。そして、応答制御部111は、当該制御情報の種別や、属性情報として指定された内容に加えて、開始タグと終了タグとで囲まれた要素(即ち、音声出力として提示する応答内容を示す語句)の長さに応じて、制御対象となる表示情報や、当該表示情報を提示するための制御内容を特定する。
応答制御部111は、以上の処理を、応答情報d30の終端が検出されるまで継続する(ステップS215、NO)。そして、応答制御部111は、応答情報d30の終端の検出に基づき(ステップS215、YES)、当該応答情報d30に基づく一連の制御を終了する。
次に、本実施形態に係る情報処理装置10の実施例について説明する。
まず、実施例1として、音声出力と連動して表示情報を提示する場合の、当該表示情報の提示方法の一例について、応答情報の一例とあわせて説明する。
前述した実施形態及び実施例では、情報処理装置10が、各機能に対応する語句の音声出力に同期して、当該機能に対応する表示情報が表示面内にフェードインするように表示態様を制御する例について説明した。一方で、当該音声出力に同期して他の情報(例えば、表示情報)の出力が制御されれば、当該他の情報を出力するための態様は、必ずしも、前述した実施形態及び実施例に示した方法には限定されない。
次に、実施例3として、図14〜図17を参照して、ユーザからの音声入力に基づく処理内容に応じて、音声情報や、当該音声情報に同期して出力する他の情報(例えば、表示情報)の出力を制御する場合の一例について説明する。
次に、実施例4として、複数のユーザを対象として、各ユーザの音声入力に対して応答を行う場合の、情報処理装置10の構成や動作の一例について説明する。
次に、実施例5として、図20を参照して、情報処理装置10が、ユーザからの音声入力に対する応答中に、当該ユーザが割り込んで新たな音声入力を行った場合の、当該情報処理装置10による情報の提示方法の一例について説明する。図20は、実施例5に係る情報処理装置10の一例について説明するための図である。
次に、図21を参照して、本開示の各実施形態に係る情報処理装置10のハードウェア構成の一例について説明する。図21は、本開示の実施形態に係る情報処理装置10のハードウェア構成の一例を示した図である。
以上、説明したように、本実施形態に係る情報処理装置10は、ユーザの音声入力に対して、音声出力と当該音声出力とは異なる他の情報(例えば、表示情報)に基づく応答により、ユーザとの間で対話を行う、所謂、対話型のインタフェースを備える。また、このような構成のもと、本実施形態に係る情報処理装置10は、各機能に対応する語句それぞれの音声出力に同期して、当該機能に対応付けられた他の情報の出力を制御する。これにより、ユーザは、音声出力された機能に対応する他の情報を直感的に認識することが可能となる。
(1)
所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力とは異なる他の情報の出力を制御する制御部、
を備える、情報処理装置。
(2)
前記他の情報は表示部に表示される表示情報である、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記一連の語句の音声出力を制御する、前記(2)に記載の情報処理装置。
(4)
前記制御部は、音声合成部の音声合成処理に基づいて前記一連の語句の音声出力を制御する、前記(3)に記載の情報処理装置。
(5)
前記音声合成処理は、ユーザの音声入力に基づいて実行される処理である、前記(4)に記載の情報処理装置。
(6)
前記一連の語句は、前記ユーザの音声入力が示す意味内容に応じて生成される、前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた表示情報の出力を制御する、前記(4)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた前記表示情報を変化させる、前記(7)に記載の情報処理装置。
(9)
前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた前記表示情報の表示および非表示を制御する、前記(7)に記載の情報処理装置。
(10)
前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた音響情報の出力を制御する、前記(7)に記載の情報処理装置。
(11)
前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に応じた発行回数または発光パターンで、発光部の発光を制御する、前記(7)に記載の情報処理装置。
(12)
前記一連の語句は、前記機能に応じた処理内容を示す語句を含み、
前記制御部は、当該一連の語句のうち、前記処理内容を示す語句の音声出力に同期して、当該処理内容に応じた当該音声出力とは異なる他の情報の出力を制御する、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記制御部は、前記機能に対応付けられた語句が音声出力されるタイミングに同期して、当該機能に対応付けられた前記他の情報の出力を制御する、前記(7)〜(11)のいずれか一項に記載の情報処理装置。
(14)
前記制御部は、前記機能に対応付けられた語句が音声出力される期間に同期して、当該機能に対応付けられた前記他の情報の出力を制御する、前記(7)〜(11)のいずれか一項に記載の情報処理装置。
(15)
前記制御部は、前記機能に対応付けられた語句に対して関連付けられた制御情報に基づき、当該機能に対応付けられた前記他の情報の出力を制御する、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記制御部は、前記制御情報は、前記機能に対応付けられた語句を示す文字情報に関連付けられたタグ情報として、前記一連の語句を示す文字情報中に埋め込まれた前記制御情報に基づき、当該機能に対応付けられた前記他の情報の出力を制御する、前記(15)に記載の情報処理装置。
(17)
前記表示情報は、ユーザの選択操作の選択対象で有る、前記(2)〜(11)のいずれか一項に記載の情報処理装置。
(18)
プロセッサが、所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力とは異なる他の情報の出力を制御すること、
を含む、情報処理方法。
(19)
コンピュータに、
所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力とは異なる他の情報の出力を制御すること、
を実行させる、プログラム。
101 入力情報解析部
103 応答情報生成部
105 処理実行部
109 辞書情報記憶部
111 応答制御部
115 音声合成部
117 表示制御部
41 集音部
51 音響出力部
53 表示部
Claims (18)
- ユーザの音声入力の到来方向に基づいて、前記ユーザの位置を推定するとともに、前記音声入力の解析結果に基づいて、応答情報を生成する生成部と、
生成された前記応答情報に対応する、所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力と、該音声出力とは異なる他の情報の出力とを、推定した前記ユーザの位置に対応する領域に向けて出力するように制御する制御部と、
を備える、情報処理装置。 - 前記他の情報は表示部に表示される表示情報である、請求項1に記載の情報処理装置。
- 前記制御部は、音声合成部の音声合成処理に基づいて前記一連の語句の音声出力を制御する、請求項2に記載の情報処理装置。
- 前記音声合成処理は、前記ユーザの前記音声入力に基づいて実行される処理である、請求項3に記載の情報処理装置。
- 前記一連の語句は、前記ユーザの前記音声入力が示す意味内容に応じて生成される、請求項4に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた表示情報の出力を制御する、請求項3〜5のいずれか一項に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた前記表示情報を変化させる、請求項6に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた前記表示情報の表示および非表示を制御する、請求項6に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に対応付けられた音響情報の出力を制御する、請求項6に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句の音声出力に同期して、当該機能に応じた発光回数または発光パターンで、発光部の発光を制御する、請求項6に記載の情報処理装置。
- 前記一連の語句は、前記機能に応じた処理内容を示す語句を含み、
前記制御部は、当該一連の語句のうち、前記処理内容を示す語句の音声出力に同期して、当該処理内容に応じた当該音声出力とは異なる他の情報の出力を、推定した前記ユーザの位置に対応する領域に向けて出力するように制御する、請求項1〜10のいずれか一項に記載の情報処理装置。 - 前記制御部は、前記機能に対応付けられた語句が音声出力されるタイミングに同期して、当該機能に対応付けられた前記他の情報の出力を制御する、請求項6〜10のいずれか一項に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句が音声出力される期間に同期して、当該機能に対応付けられた前記他の情報の出力を制御する、請求項6〜10のいずれか一項に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句に対して関連付けられた制御情報に基づき、当該機能に対応付けられた前記他の情報の出力を制御する、請求項1〜13のいずれか一項に記載の情報処理装置。
- 前記制御部は、前記機能に対応付けられた語句を示す文字情報に関連付けられたタグ情報として前記一連の語句を示す文字情報中に埋め込まれた前記制御情報に基づき、当該機能に対応付けられた前記他の情報の出力を制御する、請求項14に記載の情報処理装置。
- 前記表示情報は、ユーザの選択操作の選択対象で有る、請求項2〜10のいずれか一項に記載の情報処理装置。
- プロセッサが、ユーザの音声入力の到来方向に基づいて、前記ユーザの位置を推定するとともに、前記音声入力の解析結果に基づいて、応答情報を生成することと、
生成された前記応答情報に対応する、所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力と、該音声出力とは異なる他の情報の出力とを、推定した前記ユーザの位置に対応する領域に向けて出力するように制御することと、
を含む、情報処理方法。 - コンピュータに、
ユーザの音声入力の到来方向に基づいて、前記ユーザの位置を推定するとともに、前記音声入力の解析結果に基づいて、応答情報を生成することと、
生成された前記応答情報に対応する、所定の機能に対応付けられた語句を含む一連の語句のうち、前記機能に対応付けられた語句の音声出力が行われるタイミングに関するタイミング情報に基づいて、当該機能に対応付けられた当該音声出力と、該音声出力とは異なる他の情報の出力とを、推定した前記ユーザの位置に対応する領域に向けて出力するように制御することと、
を実行させる、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014114682 | 2014-06-03 | ||
JP2014114682 | 2014-06-03 | ||
PCT/JP2015/062148 WO2015186445A1 (ja) | 2014-06-03 | 2015-04-21 | 情報処理装置、情報処理方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015186445A1 JPWO2015186445A1 (ja) | 2017-04-20 |
JP6642424B2 true JP6642424B2 (ja) | 2020-02-05 |
Family
ID=54766525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016525735A Active JP6642424B2 (ja) | 2014-06-03 | 2015-04-21 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10657959B2 (ja) |
EP (1) | EP3154052A4 (ja) |
JP (1) | JP6642424B2 (ja) |
CN (1) | CN106463110A (ja) |
WO (1) | WO2015186445A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10984387B2 (en) | 2011-06-28 | 2021-04-20 | Microsoft Technology Licensing, Llc | Automatic task extraction and calendar entry |
CN105848374A (zh) * | 2015-01-12 | 2016-08-10 | 芋头科技(杭州)有限公司 | 一种灯光控制***及方法 |
US10361981B2 (en) * | 2015-05-15 | 2019-07-23 | Microsoft Technology Licensing, Llc | Automatic extraction of commitments and requests from communications and content |
US10140770B2 (en) * | 2016-03-24 | 2018-11-27 | Toyota Jidosha Kabushiki Kaisha | Three dimensional heads-up display unit including visual context for voice commands |
CN108279839A (zh) * | 2017-01-05 | 2018-07-13 | 阿里巴巴集团控股有限公司 | 基于语音的交互方法、装置、电子设备及操作*** |
JP6642808B2 (ja) * | 2017-03-29 | 2020-02-12 | 京セラドキュメントソリューションズ株式会社 | 音声入力システム、音声入力装置および音声入力プログラム |
CN107168677A (zh) * | 2017-03-30 | 2017-09-15 | 联想(北京)有限公司 | 音频处理方法及装置、电子设备、存储介质 |
JP6785451B2 (ja) * | 2017-11-07 | 2020-11-18 | パナソニックIpマネジメント株式会社 | 情報提示システム、移動体、情報提示方法及びプログラム |
JP2019109780A (ja) * | 2017-12-19 | 2019-07-04 | ヤフー株式会社 | 情報提供装置、情報提供方法、および情報提供プログラム |
WO2019136248A1 (en) * | 2018-01-05 | 2019-07-11 | Google Llc | Selecting content to render on display of assistant device |
CN110459211B (zh) | 2018-05-07 | 2023-06-23 | 阿里巴巴集团控股有限公司 | 人机对话方法、客户端、电子设备及存储介质 |
CN110874201B (zh) * | 2018-08-29 | 2023-06-23 | 斑马智行网络(香港)有限公司 | 交互方法、设备、存储介质和操作*** |
JP7156138B2 (ja) * | 2019-03-29 | 2022-10-19 | 富士通株式会社 | 情報処理装置、光アクション生成方法、および光アクション生成プログラム |
US20240153488A1 (en) * | 2021-03-17 | 2024-05-09 | Pioneer Corporation | Sound output control device, sound output control method, and sound output control program |
CN113971954B (zh) * | 2021-12-23 | 2022-07-12 | 广州小鹏汽车科技有限公司 | 语音交互方法及装置、车辆及存储介质 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6434527B1 (en) * | 1999-05-17 | 2002-08-13 | Microsoft Corporation | Signalling and controlling the status of an automatic speech recognition system for use in handsfree conversational dialogue |
US7406657B1 (en) * | 2000-09-22 | 2008-07-29 | International Business Machines Corporation | Audible presentation and verbal interaction of HTML-like form constructs |
KR100549482B1 (ko) * | 2001-03-22 | 2006-02-08 | 캐논 가부시끼가이샤 | 정보 처리 장치, 정보처리 방법, 및 프로그램을 기억하는 컴퓨터 판독가능 기억 매체 |
JP4789227B2 (ja) * | 2001-04-04 | 2011-10-12 | Necディスプレイソリューションズ株式会社 | 音声認識機能を内蔵した映像表示装置 |
JP2003108171A (ja) | 2001-09-27 | 2003-04-11 | Clarion Co Ltd | 文書読み上げ装置 |
JP2003308142A (ja) | 2002-04-17 | 2003-10-31 | Seiko Epson Corp | メッセージ処理システム、音声信号処理システム、メッセージ処理設備、メッセージ送信端末、音声信号処理設備、メッセージ処理プログラム、音声信号処理プログラム、設備用プログラム、端末用プログラム及びメッセージのデータ構造、並びにメッセージ処理方法、音声信号処理方法及びメッセージ生成方法 |
AU2003260926A1 (en) * | 2002-10-23 | 2004-05-13 | Koninklijke Philips Electronics N.V. | Controlling an apparatus based on speech |
US20040260438A1 (en) * | 2003-06-17 | 2004-12-23 | Chernetsky Victor V. | Synchronous voice user interface/graphical user interface |
JP2005056170A (ja) * | 2003-08-05 | 2005-03-03 | Matsushita Electric Ind Co Ltd | 対話型操作支援システム |
US20050048992A1 (en) * | 2003-08-28 | 2005-03-03 | Alcatel | Multimode voice/screen simultaneous communication device |
JP2006033795A (ja) * | 2004-06-15 | 2006-02-02 | Sanyo Electric Co Ltd | リモートコントロールシステム、コントローラ、コンピュータにコントローラの機能を付与するプログラム、当該プログラムを格納した記憶媒体、およびサーバ。 |
JP4716083B2 (ja) * | 2004-07-27 | 2011-07-06 | ソニー株式会社 | 情報処理装置および方法、記録媒体、並びにプログラム |
JPWO2006075369A1 (ja) | 2005-01-13 | 2008-06-12 | 富士通株式会社 | 電子機器および制御プログラム |
JP4572686B2 (ja) * | 2005-01-14 | 2010-11-04 | パナソニック電工株式会社 | 静電容量型半導体物理量センサ及びその製造方法 |
JP2006235671A (ja) | 2005-02-22 | 2006-09-07 | Norinaga Tsukiji | 会話装置及びコンピュータ読み取り可能な記録媒体。 |
JP2007213176A (ja) * | 2006-02-08 | 2007-08-23 | Sony Corp | 情報処理装置および方法、並びにプログラム |
CN1870778A (zh) * | 2006-06-13 | 2006-11-29 | 深圳市杰特电信控股有限公司 | 一种手机内信息的定时发送方法 |
US9318108B2 (en) * | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
JP4801623B2 (ja) * | 2006-09-14 | 2011-10-26 | シャープ株式会社 | 電子機器および有効な機能の選択方法 |
US7921214B2 (en) * | 2006-12-19 | 2011-04-05 | International Business Machines Corporation | Switching between modalities in a speech application environment extended for interactive text exchanges |
JP5380777B2 (ja) * | 2007-02-21 | 2014-01-08 | ヤマハ株式会社 | 音声会議装置 |
US8046226B2 (en) * | 2008-01-18 | 2011-10-25 | Cyberpulse, L.L.C. | System and methods for reporting |
JP5182178B2 (ja) * | 2009-03-18 | 2013-04-10 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
US20120265535A1 (en) * | 2009-09-07 | 2012-10-18 | Donald Ray Bryant-Rich | Personal voice operated reminder system |
KR100986619B1 (ko) * | 2010-03-12 | 2010-10-08 | 이상훈 | 이동통신단말기를 이용한 멀티입출력장치 및 방법 |
JP2011253374A (ja) * | 2010-06-02 | 2011-12-15 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
JP5685177B2 (ja) * | 2011-12-12 | 2015-03-18 | 本田技研工業株式会社 | 情報伝達システム |
KR102022318B1 (ko) * | 2012-01-11 | 2019-09-18 | 삼성전자 주식회사 | 음성 인식을 사용하여 사용자 기능을 수행하는 방법 및 장치 |
JP6133564B2 (ja) * | 2012-10-05 | 2017-05-24 | 京セラ株式会社 | 電子機器、制御方法、及び制御プログラム |
US20140122619A1 (en) * | 2012-10-26 | 2014-05-01 | Xiaojiang Duan | Chatbot system and method with interactive chat log |
US9172747B2 (en) * | 2013-02-25 | 2015-10-27 | Artificial Solutions Iberia SL | System and methods for virtual assistant networks |
CN105246743B (zh) * | 2013-05-21 | 2017-03-29 | 三菱电机株式会社 | 语音识别装置、识别结果显示装置及显示方法 |
WO2014199596A1 (ja) * | 2013-06-10 | 2014-12-18 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | 話者識別方法、話者識別装置及び話者識別システム |
KR102160767B1 (ko) * | 2013-06-20 | 2020-09-29 | 삼성전자주식회사 | 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법 |
US20160004322A1 (en) * | 2013-07-05 | 2016-01-07 | Clarion Co., Ltd. | Information Processing Device |
KR20150024188A (ko) * | 2013-08-26 | 2015-03-06 | 삼성전자주식회사 | 음성 데이터에 대응하는 문자 데이터를 변경하는 방법 및 이를 위한 전자 장치 |
EP3084714A4 (en) * | 2013-12-20 | 2017-08-02 | Robert Bosch GmbH | System and method for dialog-enabled context-dependent and user-centric content presentation |
US10389876B2 (en) * | 2014-02-28 | 2019-08-20 | Ultratec, Inc. | Semiautomated relay method and apparatus |
US20170329766A1 (en) * | 2014-12-09 | 2017-11-16 | Sony Corporation | Information processing apparatus, control method, and program |
US10679608B2 (en) * | 2016-12-30 | 2020-06-09 | Google Llc | Conversation-aware proactive notifications for a voice interface device |
-
2015
- 2015-04-21 WO PCT/JP2015/062148 patent/WO2015186445A1/ja active Application Filing
- 2015-04-21 JP JP2016525735A patent/JP6642424B2/ja active Active
- 2015-04-21 US US15/305,173 patent/US10657959B2/en active Active
- 2015-04-21 CN CN201580027141.5A patent/CN106463110A/zh not_active Withdrawn
- 2015-04-21 EP EP15803963.6A patent/EP3154052A4/en not_active Ceased
Also Published As
Publication number | Publication date |
---|---|
WO2015186445A1 (ja) | 2015-12-10 |
EP3154052A1 (en) | 2017-04-12 |
JPWO2015186445A1 (ja) | 2017-04-20 |
US10657959B2 (en) | 2020-05-19 |
CN106463110A (zh) | 2017-02-22 |
US20170047064A1 (en) | 2017-02-16 |
EP3154052A4 (en) | 2018-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6642424B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11217230B2 (en) | Information processing device and information processing method for determining presence or absence of a response to speech of a user on a basis of a learning result corresponding to a use situation of the user | |
US11735182B2 (en) | Multi-modal interaction between users, automated assistants, and other computing services | |
US11347801B2 (en) | Multi-modal interaction between users, automated assistants, and other computing services | |
CN113330512A (zh) | 根据选择的建议向自动化助理补充语音输入 | |
JP7487276B2 (ja) | 検出された口運動および/または注視に基づく自動化アシスタントの適応 | |
EP3564948A1 (en) | Information processing device and information processing method | |
US11200893B2 (en) | Multi-modal interaction between users, automated assistants, and other computing services | |
US20120260176A1 (en) | Gesture-activated input using audio recognition | |
JP2018106702A (ja) | 自然言語バーチャルアシスタントでの全二重発話処理 | |
JP2023015054A (ja) | 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード | |
KR20150012577A (ko) | 음성 인식 기능을 지원하는 전자 기기의 음성 입력 제어 방법 및 장치 장치 | |
CN112639718A (zh) | 自动化助手功能的免热词调配 | |
CN114041283A (zh) | 利用事件前和事件后输入流来接洽自动化助理 | |
CN110033776A (zh) | 一种应用于屏幕设备的虚拟形象交互***与方法 | |
KR20200124298A (ko) | 원격으로 생성된 자동화된 어시스턴트 콘텐츠를 렌더링할 때 클라이언트 디바이스 지연 완화 | |
CN116745843A (zh) | 用于减少自动化助理交互中的时延的方法和*** | |
US20230343324A1 (en) | Dynamically adapting given assistant output based on a given persona assigned to an automated assistant | |
CN112652304B (zh) | 智能设备的语音交互方法、装置和电子设备 | |
CN110543290B (zh) | 多模态响应 | |
Foster et al. | Multimodal generation in the COMIC dialogue system | |
US20230343336A1 (en) | Multi-modal interaction between users, automated assistants, and other computing services |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180306 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180306 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190208 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190222 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20190515 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190522 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190528 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191203 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6642424 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |