JP7015711B2 - 装置、ロボット、方法、及びプログラム - Google Patents
装置、ロボット、方法、及びプログラム Download PDFInfo
- Publication number
- JP7015711B2 JP7015711B2 JP2018042273A JP2018042273A JP7015711B2 JP 7015711 B2 JP7015711 B2 JP 7015711B2 JP 2018042273 A JP2018042273 A JP 2018042273A JP 2018042273 A JP2018042273 A JP 2018042273A JP 7015711 B2 JP7015711 B2 JP 7015711B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- word
- time
- voice
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 10
- 244000000626 Daucus carota Species 0.000 description 51
- 235000002767 Daucus carota Nutrition 0.000 description 51
- 230000009471 action Effects 0.000 description 16
- 230000004048 modification Effects 0.000 description 12
- 238000012986 modification Methods 0.000 description 12
- 230000004913 activation Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 10
- 229940034610 toothpaste Drugs 0.000 description 7
- 239000000606 toothpaste Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Signal Processing (AREA)
- Toys (AREA)
- Manipulator (AREA)
Description
複数のユーザとコミュニケーションする装置であって、
前記装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記音に、第1ユーザの音声が含まれているか判断し、
前記音に、前記第1ユーザの音声が含まれていると判断された場合は、前記音声に前記メモリに記憶された前記第1ユーザに対応する第1単語が含まれているか判断し、前記メモリは、少なくとも、前記複数のユーザと前記複数のユーザに対応する単語と前記複数のユーザに対応する単語が最後に発話された時刻とを対応付け、
前記音声に前記第1単語が含まれていると判断された場合は、前記第1単語が前記第1ユーザに最後に発話された第1時刻と、前記メモリにおいて前記第1単語に対応する第2単語が第2ユーザに最後に発話された第2時刻との差が所定時間以内か判断し、前記第1時刻は現在時刻であり、前記第2ユーザは前記第1ユーザとは異なり、前記第1単語と前記第2単語は、同じコンテンツに対応し、
前記第1時刻と前記第2時刻との差が前記所定時間以内であると判断された場合は、前記スピーカに、前記コンテンツに対応する音声を出力させる。
本発明者は、母親等の保護者による子供のしつけを支援するためにロボットに実行させる種々のコンテンツを検討している。例えば、ニンジンを嫌う子供が「ニンジンが嫌い」という発話をし、ニンジンを食べさせたいと願う母親が子供に「ニンジン食べようよ」と発話した場合、子どもに対してニンジンが好きになるような話をロボットに実行させるコンテンツがあれば母親の要望に応えることができる。
複数のユーザとコミュニケーションする装置であって、
前記装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記音に、第1ユーザの音声が含まれているか判断し、
前記音に、前記第1ユーザの音声が含まれていると判断された場合は、前記音声に前記メモリに記憶された前記第1ユーザに対応する第1単語が含まれているか判断し、前記メモリは、少なくとも、前記複数のユーザと前記複数のユーザに対応する単語と前記複数のユーザに対応する単語が最後に発話された時刻とを対応付け、
前記音声に前記第1単語が含まれていると判断された場合は、前記第1単語が前記第1ユーザに最後に発話された第1時刻と、前記メモリにおいて前記第1単語に対応する第2単語が第2ユーザに最後に発話された第2時刻との差が所定時間以内か判断し、前記第1時刻は現在時刻であり、前記第2ユーザは前記第1ユーザとは異なり、前記第1単語と前記第2単語は、同じコンテンツに対応し、
前記第1時刻と前記第2時刻との差が前記所定時間以内であると判断された場合は、前記スピーカに、前記コンテンツに対応する音声を出力させる。
前記音声に前記第1単語が含まれていると判断された場合は、前記メモリにおいて、前記第1単語が前記第1ユーザに発話された時刻を前記第1時刻に更新してもよい。
前記第2ユーザは、幼児であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備えてもよい。
前記第2ユーザは、前記装置とは異なる他の装置であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備えてもよい。
前記第2ユーザは、前記装置とは異なる他の装置であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備えてもよい。
前記第2ユーザは、大人であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備えてもよい。
(全体構成)
図1は、本開示の実施の形態におけるロボット1の構成の一例を示すブロック図である。図1に示すロボット1は、センサ入力部100、行動実行部200、及び出力部300を備える。
次に、図1に示すロボット1の機械的な構成について説明する。図6は、図1に示すロボット1の外観の一例を示す図である。ロボット1は、図6に示すように球帯状のメイン筐体401と第1球冠部402と第2球冠部406とを備えており、メイン筐体401と第1球冠部402と第2球冠部406とは全体として球体を構成する。即ち、ロボット1は球体形状を有する。
上記実施の形態は、ユーザ同士の対話に適用されているが、本開示はこれに限定されず、図1に示すロボット1とは別のロボットとユーザとの対話に適用されてもよい。図5は、図1に示すロボット1を、図1に示すロボット1とは別のロボットとユーザとの対話に適用した場合の実行契機テーブルT2’の一例を示す図である。図5では、母親であるユーザBに代えて図1に示すロボット1とは別のロボットRA及びロボットRBが登録されている。
上記実施の形態では、ユーザAとして子供が採用されているが、大人が採用されてもよい。例えば、ユーザBが同居している老人又は夫に生活習慣を身につけさせようと考える場面がある。このような場面において、本開示は適用可能である。
上記変形例1では、ユーザAとして子供が採用されているが、大人が採用されてもよい。例えば、今後の社会では、ユーザAを介護する介護者の役割を担うロボットRAが介護者に代行して被介護者であるユーザAに生活習慣を身につけさせる場面も想定される。これらの場面において、本開示は適用可能である。
上記実施の形態及び変形例1においてユーザAとして子供が採用されているが、幼児が採用されてもよい。ここで、幼児とは、例えば、言語獲得段階にいる未就学児が該当する。
実施の形態1では、ユーザBとして母親が採用されているが、子供であるユーザAの保護者が採用されてもよい。保護者としては、ユーザBの父親又は祖父母が該当する。
本開示は、図1に示すロボットに適用されているが、これは一例でありロボットを含む装置一般に適用されてもよい。装置としては、例えば、テレビ、又はオーディオ機器等の家電機器を含む。
実施の形態1では、ロボットとして図6に示すロボット1が採用されたが、本開示はこれに限定されず、他のロボットに適用されてもよい。
100 センサ入力部
101 音声入力部
102 マイク
200 行動実行部
201 音声入力検知部
202 発話者判断部
203 音声認識部
204 登録用語有無判断部
205 タイムスタンプ更新部
206 コンテンツ実行部
207 制御命令生成部
208 メモリ
300 出力部
301 音声出力部
301A スピーカ
T1 発話者登録テーブル
T2,T2' 実行契機テーブル
Claims (14)
- 複数のユーザとコミュニケーションする装置であって、
前記装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記音に、第1ユーザの音声が含まれているか判断し、
前記音に、前記第1ユーザの音声が含まれていると判断された場合は、前記音声に前記メモリに記憶された前記第1ユーザに対応する第1単語が含まれているか判断し、前記メモリは、少なくとも、前記複数のユーザと前記複数のユーザに対応する単語と前記複数のユーザに対応する単語が最後に発話された時刻とを対応付け、
前記音声に前記第1単語が含まれていると判断された場合は、前記第1単語が前記第1ユーザに最後に発話された第1時刻と、前記メモリにおいて前記第1単語に対応する第2単語が第2ユーザに最後に発話された第2時刻との差が所定時間以内か判断し、前記第1時刻は現在時刻であり、前記第2ユーザは前記第1ユーザとは異なり、前記第1単語と前記第2単語は、同じコンテンツに対応し、
前記第1時刻と前記第2時刻との差が前記所定時間以内であると判断された場合は、前記スピーカに、前記コンテンツに対応する音声を出力させる、
装置。 - 前記プロセッサは、更に、
前記音声に前記第1単語が含まれていると判断された場合は、前記メモリにおいて、前記第1単語が前記第1ユーザに発話された時刻を前記第1時刻に更新する、
請求項1記載の装置。 - 前記第1ユーザは、前記第2ユーザの保護者である、
請求項1記載の装置。 - 前記第1ユーザは、前記装置とは異なる他の装置であり、
前記第2ユーザは、幼児であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備える、
請求項1記載の装置。 - 前記第2ユーザは、前記第1ユーザの保護者である、
請求項1記載の装置。 - 前記第1ユーザは、幼児であり、
前記第2ユーザは、前記装置とは異なる他の装置であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備える、
請求項1記載の装置。 - 前記第1ユーザは、大人であり、
前記第2ユーザは、前記装置とは異なる他の装置であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備える、
請求項1記載の装置。 - 前記第1ユーザは、前記装置とは異なる他の装置であり、
前記第2ユーザは、大人であり、
前記他の装置は、
前記他の装置周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備える、
請求項1記載の装置。 - 前記コンテンツは、幼児に生活習慣を身につけさせるためのコンテンツである、
請求項1記載の装置。 - 前記第1単語は、拒絶の意味、もしくは、否定語を含む、
請求項5または6に記載の装置。 - 前記第1単語は、前記コンテンツに対応する所定の単語を含む、
請求項3、4、7、及び8のいずれかに記載の装置。 - 複数のユーザとコミュニケーションするロボットであって、
前記ロボット周辺の音を取得するマイクと、
スピーカと、
メモリと、
プロセッサと、を備え、
前記プロセッサは、
前記音に、第1ユーザの音声が含まれているか判断し、
前記音に、前記第1ユーザの音声が含まれていると判断された場合は、前記音声に前記メモリに記憶された前記第1ユーザに対応する第1単語が含まれているか判断し、前記メモリは、少なくとも、前記複数のユーザと前記複数のユーザに対応する単語と前記複数のユーザに対応する単語が最後に発話された時刻とを対応付け、
前記音声に前記第1単語が含まれていると判断された場合は、前記第1単語が前記第1ユーザに最後に発話された第1時刻と、前記メモリにおいて前記第1単語に対応する第2単語が第2ユーザに最後に発話された第2時刻との差が所定時間以内か判断し、前記第1時刻は現在時刻であり、前記第2ユーザは前記第1ユーザとは異なり、前記第1単語と前記第2単語は、同じコンテンツに対応し、
前記第1時刻と前記第2時刻との差が前記所定時間以内であると判断された場合は、前記スピーカに、前記コンテンツに対応する音声を出力させる、
ロボット。 - 複数のユーザとコミュニケーションする装置における方法であって、
前記装置は、前記装置周辺の音を取得するマイクと、スピーカと、メモリと、プロセッサと、を備え、
前記音に、第1ユーザの音声が含まれているか判断し、
前記音に、前記第1ユーザの音声が含まれていると判断された場合は、前記音声に前記メモリに記憶された前記第1ユーザに対応する第1単語が含まれているか判断し、前記メモリは、少なくとも、前記複数のユーザと前記複数のユーザに対応する単語と前記複数のユーザに対応する単語が最後に発話された時刻とを対応付け、
前記音声に前記第1単語が含まれていると判断された場合は、前記第1単語が前記第1ユーザに最後に発話された第1時刻と、前記メモリにおいて前記第1単語に対応する第2単語が第2ユーザに最後に発話された第2時刻との差が所定時間以内か判断し、前記第1時刻は現在時刻であり、前記第2ユーザは前記第1ユーザとは異なり、前記第1単語と前記第2単語は、同じコンテンツに対応し、
前記第1時刻と前記第2時刻との差が前記所定時間以内であると判断された場合は、前記スピーカに、前記コンテンツに対応する音声を出力させる、
方法。 - 請求項13記載の方法をコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042273A JP7015711B2 (ja) | 2018-03-08 | 2018-03-08 | 装置、ロボット、方法、及びプログラム |
US16/205,179 US10923140B2 (en) | 2018-03-08 | 2018-11-29 | Device, robot, method, and recording medium |
CN201910154149.8A CN110246491B (zh) | 2018-03-08 | 2019-03-01 | 与用户交流的装置及其方法、机器人及计算机程序产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018042273A JP7015711B2 (ja) | 2018-03-08 | 2018-03-08 | 装置、ロボット、方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019158967A JP2019158967A (ja) | 2019-09-19 |
JP7015711B2 true JP7015711B2 (ja) | 2022-02-03 |
Family
ID=65628626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018042273A Active JP7015711B2 (ja) | 2018-03-08 | 2018-03-08 | 装置、ロボット、方法、及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10923140B2 (ja) |
JP (1) | JP7015711B2 (ja) |
CN (1) | CN110246491B (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128281A (ja) | 2008-11-28 | 2010-06-10 | Waseda Univ | 対話活性化システム及び対話活性化ロボット |
JP2018097185A (ja) | 2016-12-14 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 音声対話装置、音声対話方法、音声対話プログラム及びロボット |
JP2019147234A (ja) | 2018-02-28 | 2019-09-05 | パナソニックIpマネジメント株式会社 | 装置、ロボット、方法、及びプログラム |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6560576B1 (en) * | 2000-04-25 | 2003-05-06 | Nuance Communications | Method and apparatus for providing active help to a user of a voice-enabled application |
JP3733075B2 (ja) * | 2002-02-07 | 2006-01-11 | 株式会社国際電気通信基礎技術研究所 | インタラクション・メディアシステム |
US7590536B2 (en) * | 2005-10-07 | 2009-09-15 | Nuance Communications, Inc. | Voice language model adjustment based on user affinity |
US20130066634A1 (en) * | 2011-03-16 | 2013-03-14 | Qualcomm Incorporated | Automated Conversation Assistance |
JP5684082B2 (ja) | 2011-09-27 | 2015-03-11 | 株式会社東芝 | 対話支援装置、方法及びプログラム |
US9685160B2 (en) * | 2012-04-16 | 2017-06-20 | Htc Corporation | Method for offering suggestion during conversation, electronic device using the same, and non-transitory storage medium |
JP6432177B2 (ja) | 2014-06-20 | 2018-12-05 | カシオ計算機株式会社 | 対話型通信システム、端末装置およびプログラム |
JP6551793B2 (ja) * | 2016-05-20 | 2019-07-31 | 日本電信電話株式会社 | 対話方法、対話システム、対話装置、およびプログラム |
WO2018112445A1 (en) * | 2016-12-16 | 2018-06-21 | Second Mind Labs, Inc. | Systems to augment conversations with relevant information or automation using proactive bots |
US11663182B2 (en) * | 2017-11-21 | 2023-05-30 | Maria Emma | Artificial intelligence platform with improved conversational ability and personality development |
-
2018
- 2018-03-08 JP JP2018042273A patent/JP7015711B2/ja active Active
- 2018-11-29 US US16/205,179 patent/US10923140B2/en active Active
-
2019
- 2019-03-01 CN CN201910154149.8A patent/CN110246491B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010128281A (ja) | 2008-11-28 | 2010-06-10 | Waseda Univ | 対話活性化システム及び対話活性化ロボット |
JP2018097185A (ja) | 2016-12-14 | 2018-06-21 | パナソニックIpマネジメント株式会社 | 音声対話装置、音声対話方法、音声対話プログラム及びロボット |
JP2019147234A (ja) | 2018-02-28 | 2019-09-05 | パナソニックIpマネジメント株式会社 | 装置、ロボット、方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190279643A1 (en) | 2019-09-12 |
JP2019158967A (ja) | 2019-09-19 |
CN110246491A (zh) | 2019-09-17 |
US10923140B2 (en) | 2021-02-16 |
CN110246491B (zh) | 2024-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11544274B2 (en) | Context-based digital assistant | |
US20190279642A1 (en) | System and method for speech understanding via integrated audio and visual based speech recognition | |
WO2018163648A1 (ja) | 対話システム、対話方法、対話装置、およびプログラム | |
US11220008B2 (en) | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot | |
JP6751536B2 (ja) | 装置、ロボット、方法、及びプログラム | |
JP2018097185A (ja) | 音声対話装置、音声対話方法、音声対話プログラム及びロボット | |
US20210205987A1 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
JP4622384B2 (ja) | ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム | |
US11501768B2 (en) | Dialogue method, dialogue system, dialogue apparatus and program | |
US10994421B2 (en) | System and method for dynamic robot profile configurations based on user interactions | |
WO2018003196A1 (ja) | 情報処理システム、記憶媒体、および情報処理方法 | |
US20220241977A1 (en) | System and method for dynamic program configuration | |
WO2018163646A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP2022169645A (ja) | 装置及びプログラム等 | |
JP2010078763A (ja) | 音声処理装置、音声処理プログラム、およびインターホンシステム | |
JP2003108362A (ja) | コミュニケーション支援装置およびコミュニケーション支援システム | |
JP6598369B2 (ja) | 音声管理サーバー装置 | |
JP7015711B2 (ja) | 装置、ロボット、方法、及びプログラム | |
JP2007030050A (ja) | ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法 | |
JP6889597B2 (ja) | ロボット | |
JP7075168B2 (ja) | 装置、方法、プログラム、及びロボット | |
WO2021064947A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2021064948A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP7331349B2 (ja) | 会話出力システム、サーバ、会話出力方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210301 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211223 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220105 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220124 |