JPWO2018235607A1 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JPWO2018235607A1 JPWO2018235607A1 JP2019525358A JP2019525358A JPWO2018235607A1 JP WO2018235607 A1 JPWO2018235607 A1 JP WO2018235607A1 JP 2019525358 A JP2019525358 A JP 2019525358A JP 2019525358 A JP2019525358 A JP 2019525358A JP WO2018235607 A1 JPWO2018235607 A1 JP WO2018235607A1
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- information processing
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 43
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000004458 analytical method Methods 0.000 claims description 40
- 230000008451 emotion Effects 0.000 claims description 19
- 230000014509 gene expression Effects 0.000 claims description 18
- 238000000034 method Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 14
- 238000005516 engineering process Methods 0.000 abstract description 14
- 238000007726 management method Methods 0.000 description 66
- 230000004044 response Effects 0.000 description 48
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 18
- 238000012986 modification Methods 0.000 description 13
- 230000005540 biological transmission Effects 0.000 description 12
- 230000033001 locomotion Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 235000013550 pizza Nutrition 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002889 sympathetic effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Quality & Reliability (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Child & Adolescent Psychology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
1.キャラクタのマージについて
2.エージェントシステムの各装置の構成
3.エージェントシステムの各装置の動作
4.変形例
図1は、本技術の一実施形態に係るエージェントシステムの構成例を示す図である。
図8は、エージェント装置1のハードウェア構成例を示すブロック図である。
次に、図11および図12のフローチャートを参照して、エージェントシステムの一連の処理について説明する。
・変形例1
コンテキスト情報に応じて選択される外部キャラクタが1つであるものとしたが、複数であってもよい。この場合、複数の外部キャラクタのそれぞれの特徴が内部キャラクタの特徴に対してマージされることになる。
マージに用いる外部キャラクタの選択が、ユーザの感情などの、エージェント装置1により推定された情報に基づいて行われるものとしたが、マージに用いる外部キャラクタをユーザが自ら選択することができるようにしてもよい。
ユーザに提示する情報の内容に応じて、マージに用いる外部キャラクタが選択されるようにしてもよい。
ユーザのプロファイルに応じて、マージに用いる外部キャラクタが選択されるようにしてもよい。
図13は、エージェント装置1の他の構成例を示すブロック図である。
図14は、エージェントシステムの他の構成例を示す図である。
図15は、エージェントシステムのさらに他の構成例を示す図である。
外部キャラクタ自体の取引が行われるようにしてもよい。この場合、外部キャラクタを管理するサーバにおいては、例えば、様々なユーザが作成した外部キャラクタが管理され、販売される。
マージ後の内部キャラクタに対するユーザの嗜好を学習し、ユーザの嗜好に応じて内部キャラクタの特徴を変化させるようにしてもよい。
エージェント装置1がロボット型の装置として実現されるようにしてもよい。この場合、図17に示すように、キャラクタの特徴を規定する属性情報には、動作表現も含まれる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
本技術は、以下のような構成をとることもできる。
コンテキストを取得する取得部と、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択するキャラクタ選択部と
を備える情報処理装置。
(2)
メインのキャラクタとして選択されたメインキャラクタを管理する管理部と、
前記メインキャラクタを用いて、前記ユーザに対する情報の提示を行う出力制御部と
をさらに備える前記(1)に記載の情報処理装置。
(3)
前記キャラクタ選択部は、前記所定のキャラクタに設定された前記属性を、前記メインキャラクタに設定された前記属性にマージし、
前記出力制御部は、マージ後の前記属性により規定される特徴を有する前記メインキャラクタを用いて、前記ユーザに対する情報の提示を行う
前記(2)に記載の情報処理装置。
(4)
前記キャラクタ選択部は、前記メインキャラクタと前記所定のキャラクタに設定された複数種類の前記属性を、同じ種類同士、所定の重み付けを行ってマージする
前記(3)に記載の情報処理装置。
(5)
前記複数のキャラクタと前記メインキャラクタのそれぞれの特徴は、発話表現、発話内容、声色、および外観のうちの少なくともいずれかの前記属性により規定される
前記(4)に記載の情報処理装置。
(6)
前記出力制御部は、前記発話内容のルールに関する情報に基づいて、または、対話コーパスに基づく学習を行うことによって得られた前記発話内容のモデル情報に基づいて、前記ユーザに対する情報の提示を行う
前記(5)に記載の情報処理装置。
(7)
前記取得部は、前記ユーザにより入力されたテキストデータ、または前記ユーザの発話音声データを解析し、前記コンテキストを取得する
前記(1)乃至(6)のいずれかに記載の情報処理装置。
(8)
前記キャラクタ選択部は、外部の装置が管理する前記複数のキャラクタの中から、前記所定のキャラクタを選択する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
前記複数のキャラクタを管理するキャラクタ管理部をさらに備え、
前記キャラクタ選択部は、前記キャラクタ管理部が管理する前記複数のキャラクタの中から、前記所定のキャラクタを選択する
前記(1)乃至(7)のいずれかに記載の情報処理装置。
(10)
前記取得部は、前記ユーザによる選択内容を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザによる選択内容に応じて前記所定のキャラクタを選択する
前記(1)乃至(9)のいずれかに記載の情報処理装置。
(11)
前記取得部は、前記ユーザに提示する内容を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザに提示する内容に応じて前記所定のキャラクタを選択する
前記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)
前記取得部は、前記ユーザのプロファイルを前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザのプロファイルに応じて前記所定のキャラクタを選択する
前記(1)乃至(11)のいずれかに記載の情報処理装置。
(13)
前記取得部は、前記ユーザが利用するサービスを前記コンテキストとして取得し、
前記キャラクタ選択部は、前記サービスに応じて前記所定のキャラクタを選択する
前記(1)乃至(12)に記載の情報処理装置。
(14)
前記取得部は、前記ユーザの顔画像の解析結果、前記ユーザの発話音声の解析結果、および、前記ユーザの発話内容の解析結果のうちの少なくともいずれかに基づいて認識した前記ユーザの感情を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザの感情に応じて前記所定のキャラクタを選択する
前記(1)乃至(13)のいずれかに記載の情報処理装置。
(15)
マージ後の前記属性により規定される特徴を有する前記メインキャラクタに対する前記ユーザの嗜好を学習する嗜好学習部をさらに備え、
前記管理部は、前記ユーザの嗜好の学習結果に基づいて、前記メインキャラクタに設定された前記属性を調整する
前記(3)乃至(6)のいずれかに記載の情報処理装置。
(16)
前記キャラクタ選択部は、前記所定のキャラクタとして複数のキャラクタを選択し、選択した複数の前記所定のキャラクタのそれぞれに設定された前記属性を、前記メインキャラクタに設定された前記属性にマージする
前記(3)に記載の情報処理装置。
(17)
コンテキストを取得し、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択する
ステップを含む情報処理方法。
(18)
コンピュータに、
コンテキストを取得し、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択する
ステップを含む処理を実行させるプログラム。
Claims (18)
- コンテキストを取得する取得部と、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択するキャラクタ選択部と
を備える情報処理装置。 - メインのキャラクタとして選択されたメインキャラクタを管理する管理部と、
前記メインキャラクタを用いて、前記ユーザに対する情報の提示を行う出力制御部と
をさらに備える請求項1に記載の情報処理装置。 - 前記キャラクタ選択部は、前記所定のキャラクタに設定された前記属性を、前記メインキャラクタに設定された前記属性にマージし、
前記出力制御部は、マージ後の前記属性により規定される特徴を有する前記メインキャラクタを用いて、前記ユーザに対する情報の提示を行う
請求項2に記載の情報処理装置。 - 前記キャラクタ選択部は、前記メインキャラクタと前記所定のキャラクタに設定された複数種類の前記属性を、同じ種類同士、所定の重み付けを行ってマージする
請求項3に記載の情報処理装置。 - 前記複数のキャラクタと前記メインキャラクタのそれぞれの特徴は、発話表現、発話内容、声色、および外観のうちの少なくともいずれかの前記属性により規定される
請求項4に記載の情報処理装置。 - 前記出力制御部は、前記発話内容のルールに関する情報に基づいて、または、対話コーパスに基づく学習を行うことによって得られた前記発話内容のモデル情報に基づいて、前記ユーザに対する情報の提示を行う
請求項5に記載の情報処理装置。 - 前記取得部は、前記ユーザにより入力されたテキストデータ、または前記ユーザの発話音声データを解析し、前記コンテキストを取得する
請求項1に記載の情報処理装置。 - 前記キャラクタ選択部は、外部の装置が管理する前記複数のキャラクタの中から、前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記複数のキャラクタを管理するキャラクタ管理部をさらに備え、
前記キャラクタ選択部は、前記キャラクタ管理部が管理する前記複数のキャラクタの中から、前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記取得部は、前記ユーザによる選択内容を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザによる選択内容に応じて前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記取得部は、前記ユーザに提示する内容を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザに提示する内容に応じて前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記取得部は、前記ユーザのプロファイルを前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザのプロファイルに応じて前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記取得部は、前記ユーザが利用するサービスを前記コンテキストとして取得し、
前記キャラクタ選択部は、前記サービスに応じて前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - 前記取得部は、前記ユーザの顔画像の解析結果、前記ユーザの発話音声の解析結果、および、前記ユーザの発話内容の解析結果のうちの少なくともいずれかに基づいて認識した前記ユーザの感情を前記コンテキストとして取得し、
前記キャラクタ選択部は、前記ユーザの感情に応じて前記所定のキャラクタを選択する
請求項1に記載の情報処理装置。 - マージ後の前記属性により規定される特徴を有する前記メインキャラクタに対する前記ユーザの嗜好を学習する嗜好学習部をさらに備え、
前記管理部は、前記ユーザの嗜好の学習結果に基づいて、前記メインキャラクタに設定された前記属性を調整する
請求項3に記載の情報処理装置。 - 前記キャラクタ選択部は、前記所定のキャラクタとして複数のキャラクタを選択し、選択した複数の前記所定のキャラクタのそれぞれに設定された前記属性を、前記メインキャラクタに設定された前記属性にマージする
請求項3に記載の情報処理装置。 - コンテキストを取得し、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択する
ステップを含む情報処理方法。 - コンピュータに、
コンテキストを取得し、
異なる特徴を規定する属性が設定された複数のキャラクタの中から、ユーザに対する情報の提示に用いられる所定のキャラクタを前記コンテキストに基づいて選択する
ステップを含む処理を実行させるプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120790 | 2017-06-20 | ||
JP2017120790 | 2017-06-20 | ||
PCT/JP2018/021807 WO2018235607A1 (ja) | 2017-06-20 | 2018-06-07 | 情報処理装置、情報処理方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2018235607A1 true JPWO2018235607A1 (ja) | 2020-04-16 |
Family
ID=64737638
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019525358A Ceased JPWO2018235607A1 (ja) | 2017-06-20 | 2018-06-07 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200105265A1 (ja) |
EP (1) | EP3644173A4 (ja) |
JP (1) | JPWO2018235607A1 (ja) |
WO (1) | WO2018235607A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019010682A1 (zh) * | 2017-07-14 | 2019-01-17 | 深圳前海达闼云端智能科技有限公司 | 机器人性格设定方法、装置和机器人 |
CN109986569B (zh) * | 2017-12-29 | 2022-08-23 | 微软技术许可有限责任公司 | 具有角色化和性格化的聊天机器人 |
US11210968B2 (en) * | 2018-09-18 | 2021-12-28 | International Business Machines Corporation | Behavior-based interactive educational sessions |
JP2023523922A (ja) | 2020-05-20 | 2023-06-08 | ソニーグループ株式会社 | 仮想環境におけるミックステープデジタル資産 |
CN111916065B (zh) * | 2020-08-05 | 2024-07-02 | 北京百度网讯科技有限公司 | 用于处理语音的方法和装置 |
JP7423490B2 (ja) * | 2020-09-25 | 2024-01-29 | Kddi株式会社 | ユーザの感情に応じたキャラクタの傾聴感を表現する対話プログラム、装置及び方法 |
CN113270114A (zh) * | 2021-07-19 | 2021-08-17 | 北京明略软件***有限公司 | 一种语音质检方法及*** |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007179249A (ja) * | 2005-12-27 | 2007-07-12 | Kenwood Corp | 情報検索装置及びプログラム |
WO2016090605A1 (en) * | 2014-12-11 | 2016-06-16 | Intel Corporation | Avatar selection mechanism |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1326445B1 (en) * | 2001-12-20 | 2008-01-23 | Matsushita Electric Industrial Co., Ltd. | Virtual television phone apparatus |
JP2007334251A (ja) | 2006-06-19 | 2007-12-27 | Kenwood Corp | エージェント装置、プログラム、及び音声供給方法 |
US20090177976A1 (en) * | 2008-01-09 | 2009-07-09 | Bokor Brian R | Managing and presenting avatar mood effects in a virtual world |
-
2018
- 2018-06-07 JP JP2019525358A patent/JPWO2018235607A1/ja not_active Ceased
- 2018-06-07 WO PCT/JP2018/021807 patent/WO2018235607A1/ja unknown
- 2018-06-07 US US16/620,992 patent/US20200105265A1/en not_active Abandoned
- 2018-06-07 EP EP18819841.0A patent/EP3644173A4/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007179249A (ja) * | 2005-12-27 | 2007-07-12 | Kenwood Corp | 情報検索装置及びプログラム |
WO2016090605A1 (en) * | 2014-12-11 | 2016-06-16 | Intel Corporation | Avatar selection mechanism |
Also Published As
Publication number | Publication date |
---|---|
WO2018235607A1 (ja) | 2018-12-27 |
EP3644173A4 (en) | 2020-07-01 |
EP3644173A1 (en) | 2020-04-29 |
US20200105265A1 (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPWO2018235607A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20220319517A1 (en) | Electronic personal interactive device | |
US9916825B2 (en) | Method and system for text-to-speech synthesis | |
US10515655B2 (en) | Emotion type classification for interactive dialog system | |
KR102599607B1 (ko) | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드 | |
CN109313898A (zh) | 提供低声语音的数字助理 | |
CN110998725A (zh) | 在对话中生成响应 | |
CN111542814A (zh) | 改变应答以提供表现丰富的自然语言对话的方法、计算机装置及计算机可读存储介质 | |
Costa et al. | Adapting multimodal fission to user’s abilities | |
WO2020213468A1 (ja) | 情報処理システム、情報処理方法、及びプログラム | |
JP6201212B2 (ja) | キャラクタ生成装置およびプログラム | |
CN111556999B (zh) | 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
CN111557001B (zh) | 提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
WO2016206645A1 (zh) | 为机器装置加载控制数据的方法及装置 | |
KR20210131892A (ko) | 대화형 청중 시뮬레이션을 제공하는 장치 및 방법 | |
US11443738B2 (en) | Electronic device processing user utterance and control method thereof | |
KR102017544B1 (ko) | 메신저 플랫폼에 관계없이 복수의 메신저를 이용하는 사용자간 다양한 형식의 채팅 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체 | |
WO2019073668A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7263957B2 (ja) | 情報装置、自動設定方法及び自動設定プログラム | |
Schnelle-Walka et al. | Multimodal dialogmanagement in a smart home context with SCXML | |
KR20200085433A (ko) | 탈부착형 스피커를 포함한 음성합성 시스템 및 방법 | |
JP6993034B1 (ja) | コンテンツ再生方法、及びコンテンツ再生システム | |
JP6957067B1 (ja) | 人とコミュニケーションを行うシステム及びそのためのプログラム | |
JP2024077596A (ja) | 対話サービス提供システム、情報処理装置、対話サービス提供方法、及びプログラム | |
KR20190091189A (ko) | 대화 이해 ai 시스템에 의한, 사용자를 위한 대화 세션에 연관된 관리자 디스플레이를 제어하는 방법, 컴퓨터 판독가능 기록 매체 및 컴퓨터 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220610 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221011 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20230228 |