JP6452420B2 - Electronic device, speech control method, and program - Google Patents
Electronic device, speech control method, and program Download PDFInfo
- Publication number
- JP6452420B2 JP6452420B2 JP2014247827A JP2014247827A JP6452420B2 JP 6452420 B2 JP6452420 B2 JP 6452420B2 JP 2014247827 A JP2014247827 A JP 2014247827A JP 2014247827 A JP2014247827 A JP 2014247827A JP 6452420 B2 JP6452420 B2 JP 6452420B2
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- person
- robot
- determined
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、発話が可能な電子機器、電子機器における発話制御方法、および電子機器を制御するためのプログラムに関する。 The present invention relates to an electronic device capable of speaking, an utterance control method in the electronic device, and a program for controlling the electronic device.
従来、フレーズから語調に関する特徴量を分析する技術が知られている。たとえば、特許文献1には、このような分析技術を備えるユーザプロファイル抽出装置が開示されている。当該ユーザプロファイル抽出装置は、発話者の音声信号から有声区間の音声信号をフレーズとして抽出し、フレーズから語調に関する特徴量を分析する。さらに、ユーザプロファイル抽出装置は、第1記憶手段に記憶されている地域別の語調特徴量を読み出して、分析した特徴量に最も近い語調特徴量に対応する地域を判定する。 2. Description of the Related Art Conventionally, a technique for analyzing a feature amount related to tone from a phrase is known. For example, Patent Document 1 discloses a user profile extraction device having such an analysis technique. The user profile extraction apparatus extracts a voice signal of a voiced section from a voice signal of a speaker as a phrase, and analyzes a feature amount related to the tone from the phrase. Further, the user profile extraction device reads out the region-specific tone feature amount stored in the first storage unit, and determines the region corresponding to the tone feature amount closest to the analyzed feature amount.
特許文献2にも、上記のような分析技術を備える情報処理システムが開示されている。情報処理システムでは、音声状況判定部が、ユーザの音声信号から発話中の方言を語調に基づいて分析し、方言が使用されている地域を判定すると共に、分析された方言の数及び各方言の使用時間長に基づいて利用者の発話状況を判定する。さらに、当該情報処理システムでは、サービスゲートウェイが、前回の会話から一定時間以内に該利用者から情報検索要求が送信された場合に、判定された地域情報及び利用者の発話状況に対応する付加情報を情報検索要求に追加して、追加された付加情報に対応する情報検索応答を利用者に提供する。
また、従来、ユーザとの間で会話が可能なロボットが開発されている。たとえば、特許文献3には、このようなロボットとしてのコミュニケーションロボットが開示されている。当該コミュニケーションロボットは、ユーザが発話する言葉を検知する音声検知手段と、所定の応答反応を表出する反応表出手段とを有する。コミュニケーションロボットは、ユーザの話し言葉に反応して予め定められた複数パターンの応答反応を表出させる。詳しくは、コミュニケーションロボットは、話し言葉が通常表現であるか否かの判定、話し言葉が同意要求表現であるか否かの判定、話し言葉が断定表現であるか否かの判定の少なくともいずれかの判定を実施し、判定結果に基づいて異なる応答反応を表出させる。
Conventionally, a robot capable of talking with a user has been developed. For example,
特許文献4には、子供の相手をするためのロボットが開示されている。当該ロボットは、子供の状況を示す情報を取得する。また、ロボットは、取得された状況に基づき、状況と、当該状況が生じたときにロボットがとるべき行動とを対応づけて記憶する行動記憶部を参照して、行動を決定する。
特許文献1のユーザプロファイル抽出装置は、特定された方言を用いて発話をするものではない。この点は、特許文献2の情報処理システムでも同様である。
The user profile extraction device of Patent Document 1 does not utter using a specified dialect. This also applies to the information processing system disclosed in
特許文献3における応答反応は、相槌を打つこと、首を振ること等である。それゆえ、応答反応は、ロボットがユーザに話す場合の話し言葉とは関連性がない。
The response reaction in
特許文献4のロボットは、ロボットの前にいる子供の声に基づき行動を決定する構成であって、子供との会話を通じて行動を決定するものではない。
The robot of
本願発明は、上記の問題点に鑑みなされたものであって、その目的は、会話の相手に適した発話をすることが可能な電子機器、発話制御方法、およびプログラムを提供することにある。 The present invention has been made in view of the above-described problems, and an object thereof is to provide an electronic device, an utterance control method, and a program capable of uttering suitable for a conversation partner.
本発明のある局面に従うと、電子機器は、人との会話に基づき人の特徴を判定し、判定された特徴に応じた発話を行なう。 According to one aspect of the present invention, the electronic device determines the characteristics of a person based on a conversation with the person, and performs an utterance according to the determined characteristics.
好ましくは、特徴は、方言の種別、年齢層、および会話時の気分のうちの少なくとも1つである。 Preferably, the feature is at least one of a dialect type, an age group, and a mood during conversation.
好ましくは、特徴は、方言の種別である。電子機器は、発話のために音声を出力する音声出力手段と、方言の種別を判定する第1の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された種別の方言で発話させる。 Preferably, the feature is a dialect type. The electronic device includes: a voice output unit that outputs a voice for utterance; a first determination unit that determines a type of dialect; and an utterance control unit that causes the voice output unit to perform a utterance according to the determined feature. Prepare. The speech control means causes the voice output means to speak in the determined type of dialect.
好ましくは、特徴は、方言の種別である。電子機器は、発話のために音声を出力する音声出力手段と、方言の種別を判定する第1の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された種別の方言が用いられている地域の情報に関する発話を行なわせる。 Preferably, the feature is a dialect type. The electronic device includes: a voice output unit that outputs a voice for utterance; a first determination unit that determines a type of dialect; and an utterance control unit that causes the voice output unit to perform a utterance according to the determined feature. Prepare. The utterance control means causes the voice output means to utter about the information on the area where the determined type of dialect is used.
好ましくは、特徴は、年齢層である。電子機器は、発話のために音声を出力する音声出力手段と、人の年齢層を判定する第2の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された年齢層に見合った話し方で発話を行わせる。 Preferably, the feature is an age group. The electronic device includes a voice output unit that outputs a voice for utterance, a second determination unit that determines a person's age group, and an utterance control unit that causes the voice output unit to perform a utterance according to the determined feature. Is provided. The utterance control means causes the voice output means to utter in a manner appropriate for the age group determined.
好ましくは、発話制御手段は、音声出力手段に判定された年齢層に見合った内容を発話させる。 Preferably, the speech control means causes the speech output means to utter content corresponding to the determined age group.
好ましくは、特徴は、気分である。電子機器は、発話のために音声を出力する音声出力手段と、人の気分を判定する第3の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された気分に応じた発話を行なわせる。 Preferably, the feature is mood. The electronic device includes a voice output unit that outputs a voice for speech, a third determination unit that determines a person's mood, and a speech control unit that causes the voice output unit to perform a speech according to the determined feature. Prepare. The utterance control means causes the audio output means to utter according to the determined mood.
好ましくは、電子機器は、複数の人との会話に基づき複数の人の各々の特徴を判定する。電子機器は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。電子機器は、特定された特徴に応じた発話を行なう。 Preferably, the electronic device determines the characteristics of each of the plurality of people based on conversations with the plurality of people. The electronic device identifies a feature having the largest number of people who share the same among the determined features. The electronic device speaks according to the specified feature.
好ましくは、電子機器は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。 Preferably, when the electronic device utters a person having a characteristic different from the specified characteristic among the plurality of persons, the electronic apparatus does not perform the utterance according to the specified characteristic, and Speak in response.
好ましくは、電子機器は自走式のロボットである。
本発明の他の局面に従うと、発話制御方法は、電子機器において実行される。発話制御方法は、人との会話に基づき人の特徴を判定するステップと、判定された特徴に応じた発話を行なうステップとを備える。
Preferably, the electronic device is a self-propelled robot.
When the other situation of this invention is followed, the speech control method is performed in an electronic device. The utterance control method includes a step of determining the characteristics of a person based on a conversation with the person, and a step of performing an utterance according to the determined characteristics.
本発明のさらに他の局面に従うと、プログラムは、電子機器を制御する。プログラムは、人との会話に基づき人の特徴を判定するステップと、判定された特徴に応じた発話を行なうステップとを、電子機器のプロセッサに実行させる。 When the further another situation of this invention is followed, a program controls an electronic device. The program causes the processor of the electronic device to execute a step of determining the characteristics of the person based on the conversation with the person and a step of speaking according to the determined characteristics.
上記の発明によれば、会話の相手に適した発話をすることが可能となる。 According to the above-described invention, it is possible to make an utterance suitable for a conversation partner.
以下、図面を参照しつつ、本発明の各実施の形態に係る電子機器について説明する。また、以下の説明では、同一の部材には同一の参照符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。 Hereinafter, electronic devices according to embodiments of the present invention will be described with reference to the drawings. In the following description, the same reference numerals are assigned to the same members. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.
また、実施の形態1〜4では、電子機器が自走式の人間型ロボットである場合を例に挙げて説明する。実施の形態5では、電子機器が自走式の掃除機型ロボットである場合を例に挙げて説明する。なお、電子機器は、必ずしもロボットである必要はない。また、上記ロボットは、必ずしも自走式ではなくてもよい。 In the first to fourth embodiments, the case where the electronic device is a self-propelled humanoid robot will be described as an example. In the fifth embodiment, a case where the electronic device is a self-propelled cleaner-type robot will be described as an example. Note that the electronic device is not necessarily a robot. Further, the robot does not necessarily have to be self-propelled.
さらに、実施の形態1では、説明を簡略化するため、ロボットが一人の人間と会話するときの処理を説明する。その後、実施の形態2等において、ロボットが複数の人間と会話するときの処理を説明する。
[実施の形態1]
<A.外観>
図1は、ロボット1の外観を表した図である。図1を参照して、ロボット1は、車輪111によって自走可能なロボットである。ロボット1は、タッチスクリーン109を備えている。ロボット1は、発話機能のみならず、人と会話を行なう機能を備える。このため、ロボット1は、図示しないマイクおよびスピーカを筐体に備えている。なお、ロボット1は、一般家庭のみならず、公共施設で使用され得る。公共施設としては、たとえば、駅、空港等が挙げられる。
Furthermore, in the first embodiment, in order to simplify the description, processing when the robot has a conversation with one person will be described. Thereafter, in the second embodiment and the like, processing when the robot has a conversation with a plurality of humans will be described.
[Embodiment 1]
<A. Appearance>
FIG. 1 is a diagram showing the appearance of the robot 1. Referring to FIG. 1, the robot 1 is a robot that can self-propelled by
<B.処理の概要>
ロボット1は、人との会話に基づき当該人の特徴を判定し、当該判定された特徴に応じた発話を行なう。典型的には、ロボット1は、人との会話における内容および音声に基づき、人が使用する方言の種別、人の年齢層、人の気分等を判定し、判定結果に基づいた発話を行なう。また、ある局面では、ロボット1は、人との会話に基づき当該人の特徴を判定し、当該判定された特徴に応じた発話を行なう。
<B. Outline of processing>
The robot 1 determines the characteristics of the person based on the conversation with the person, and performs an utterance according to the determined characteristics. Typically, the robot 1 determines the type of dialect used by the person, the age group of the person, the mood of the person, and the like based on the content and voice in the conversation with the person, and performs utterance based on the determination result. Moreover, in a certain situation, the robot 1 determines the characteristics of the person based on the conversation with the person, and performs an utterance according to the determined characteristics.
上述したように、上記特徴としては、方言の種別、年齢層、および会話時の気分が挙げられる。なお、特徴は、これらに限定されるものではない。以下では、特徴が上記の典型な例である場合の処理について、例を挙げて説明する。 As described above, the features include dialect type, age group, and mood during conversation. The features are not limited to these. In the following, an example is given and demonstrated about the process in case a characteristic is said typical example.
(b1.方言の種別)
ロボット1は、人との会話を通じて、人の特徴として方言の種別を判定する。ロボット1は、当該判定結果に基づいた発話を行なう。たとえば、ロボット1は、判定された種別の方言を用いた発話を行なう。
(B1. Dialect type)
The robot 1 determines the type of dialect as a feature of the person through conversation with the person. The robot 1 speaks based on the determination result. For example, the robot 1 speaks using the determined type of dialect.
図2は、ロボット1と人(男性)901とが会話をしている状態を表した図である。図2を参照して、ロボット1は、人901が発話した言葉がたとえば関西弁であると判定すると、人901に対して関西弁で発話を行なう。
FIG. 2 is a diagram showing a state in which the robot 1 and a person (male) 901 are talking. Referring to FIG. 2, when robot 1 determines that the word spoken by
判定結果に基づいた発話は、判定された種別の方言を用いた発話に限定されるものではない。たとえば、判定結果に基づいた発話は、判定された種別の方言が用いられている地域の情報が含まれたものであってもよい。 The utterance based on the determination result is not limited to the utterance using the determined type of dialect. For example, the utterance based on the determination result may include information on a region where the determined type of dialect is used.
(b2.年齢)
ロボット1は、人901との会話を通じて、人901の特徴として年齢層を判定する。ロボット1は、当該判定結果に基づいた発話を行なう。典型的には、ロボット1は、判定された年齢層に応じた発話(話し方)をする。また、ロボット1は、判定された年齢層に応じた内容を発話する。
(B2. Age)
The robot 1 determines an age group as a characteristic of the
(b3.気分)
ロボット1は、人901との会話を通じて、人901の特徴として会話時の人901の気分を判定する。ロボット1は、判定結果(気分)に応じた発話を行なう。たとえば、ロボット1は、人901が落ち込んでいると判定すると、優しい口調で発話する。
(B3. Mood)
The robot 1 determines the mood of the
(b4.利点)
以上のように、ロボット1が、人901との会話に基づき人901の特徴を判定し、当該判定された特徴に応じた発話を行なうため、ロボット1は、会話の相手に適した発話をすることが可能となる。それゆえ、人901は、ロボット1との会話を通じて、ロボット1に親近感を抱くことができる。したがって、ロボット1と人901との会話が活発になり、ロボット1が人901にとって一層役に立つ存在となり得る。
(B4. Advantages)
As described above, since the robot 1 determines the characteristics of the
以下、上記のような機能を有するロボット1の詳細について説明する。
<C.データ>
図3は、ロボット1が使用するデータベースD3の概略構成を説明するための図である。図3を参照して、データベースD3は、上述した特徴とロボットの発話形式とが対応付けられている。特徴は、複数に分類(大分類)されている。詳しくは、各分類は、さらに、複数に分類(小分類)されている。データベースD3においては、小分類毎に、ロボットの発話形式が対応付けられている。
Hereinafter, the details of the robot 1 having the above functions will be described.
<C. Data>
FIG. 3 is a diagram for explaining a schematic configuration of the database D3 used by the robot 1. As shown in FIG. Referring to FIG. 3, in the database D3, the above-described features are associated with the utterance format of the robot. The features are classified into a plurality (major classification). Specifically, each classification is further classified into a plurality (small classification). In the database D3, the robot speech format is associated with each small classification.
大分類としては、典型的には、上述したように、方言の種別、年齢層、および発話時の気分(機嫌)が挙げられる。方言の種別についての分類(小分類)としては、“標準語”、“関西弁”、“九州弁”等が挙げられる。年齢層についての分類としては、“幼い”、“学生”、“お年寄り”等が挙げられる。発話時の気分についての分類としては、“機嫌よい”、“怒り”、“苛立ち”、“落ち込み”等が挙げられる。 As described above, typically, the major classification includes dialect type, age group, and mood (money) when speaking. Examples of dialect types (small classification) include “standard language”, “Kansai dialect”, “Kyushu dialect”, and the like. Examples of age groups include “young”, “student”, and “old”. As a classification about the mood at the time of utterance, “moment”, “anger”, “irritation”, “depression” and the like can be mentioned.
ロボット1は、データベースD3を参照し、人901との会話に使用するフレーズ、語調等を決定する。詳しくは、ロボット1は、データベースD3を参照し、人901との会話を通じて、人901の特徴を判定する。その後、ロボット1は、判定された特徴に応じた発話を行なう。一例として、ロボット1は、人901の発話が関西弁であって、年寄りの発話であると判定すると、関西弁で発話するとともに、ゆっくり一語ずつ丁寧に話す。
The robot 1 refers to the database D3 and determines a phrase, tone, and the like used for conversation with the
なお、小分類毎のロボットの発話形式の欄に、複数の発話形式(たとえば、“標準語で話す”、“日本で最近の話題を活用する”)が記載されている場合には、ロボット1は、全ての発話形式を利用して、人901に対して発話を行なってもよいし、あるいは、ロボット1は、複数の発話形式のうちの1つを利用して、人901に対して発話してもよい。後者の場合には、ロボット1は、予め定められた規則に基づき、どの発話形式を選択するかを決定すればよい。
If a plurality of utterance formats (for example, “speak in standard language”, “utilize recent topics in Japan”) are described in the utterance format column of the robot for each minor classification, the robot 1 May utter the
<D.機能的構成>
図4は、ロボット1の機能的構成を説明するための機能ブロック図である。図4を参照して、ロボット1は、制御部151と、音声入力部152と、記憶部153と、音声出力部154と、通信部155とを備える。
<D. Functional configuration>
FIG. 4 is a functional block diagram for explaining the functional configuration of the robot 1. With reference to FIG. 4, the robot 1 includes a
制御部151は、特徴判定部1510と、発話制御部1520とを含む。特徴判定部1510は、方言判定部1511と、年齢層判定部1512と、気分判定部1513とを有する。
制御部151は、ロボット1の全体の動作を制御する。詳しくは、制御部151は、記憶部153に記憶された、オペレーティングシステムおよび各種のプログラムを実行することにより、ロボット1の全体の動作を制御する。さらに詳しくは、ロボット1は、記憶部153に記憶されたデータベースD3(図3)を参照して、特徴を判定し、当該判定された特徴に応じた発話を行なうための制御を行なう。
The
音声入力部152は、マイク108(図6)に対応する。音声入力部152からは、人901等の声、周囲の雑音等が入力される。
The
音声出力部154は、スピーカ106(図6)に対応する。音声出力部154は、典型的には、発話のために音声を出力する。
The
通信部155は、無線通信IF(InterFace)112およびアンテナ113に対応する。通信部155は、他の通信機器(図示せず)と通信するために設けられている。
The
次に、制御部151の特徴判定部1510と発話制御部1520との処理について説明する。
Next, processing of the
特徴判定部1510は、人901との会話に基づき人901の特徴を判定する。発話制御部1520は、上記判定された特徴に応じた発話を音声出力部154に行なわせる。
The
方言判定部1511は、人901が方言で発話した場合、当該方言の種別を判定する。具体的に説明すると以下の通りである。記憶部153には、各地域の方言(複数の言葉)が当該地域(正確には地域の識別情報)に対応付けて記憶されている。方言判定部1511は、人901が方言を発話した場合、当該方言の種別を判定する。方言判定部1511は、判定結果を発話制御部1520に送る。
When the
発話制御部1520は、典型的には、判定された種別の方言を音声出力部154に発話させる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された種別の方言を音声出力部154に発話させる制御を行なう。
The
あるいは、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、判定された種別の方言が用いられている地域の情報を含んだ発話を、音声出力部154に行わせてもよい。
Alternatively, the
年齢層判定部1512は、人901が発話した場合、人901の年齢層を判定する。具体的に説明すると以下の通りである。具体的に説明すると以下の通りである。記憶部153には、年齢層を判定するためのデータ(図示せず)が記憶されている。当該データは、各年齢層が使用する特有の言葉の情報等が格納されている。年齢層判定部1512は、人901が発話した場合、発話の内容(使用される言葉等)に基づき、年齢層を判定する。
年齢層判定部1512は、判定結果を発話制御部1520に送る。
The age
The age
発話制御部1520は、典型的には、判定された年齢層に見合った話し方で、音声出力部154に発話させる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された年齢層に見合った話で、音声出力部154に発話させる制御を行なう。
The
あるいは、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、判定された年齢層に見合った内容を音声出力部154に発話させてもよい。
Alternatively, the
気分判定部1513は、人901が発話した場合、人901の気分を判定する。具体的に説明すると以下の通りである。記憶部153には、様々な気分を表す言葉が、当該気分(正確には、気分の識別情報)に対応付けて記憶されている。気分判定部1513は、人901が発話した場合、当該発話における言葉が対応付けれた気分を判定する。気分判定部1513は、判定結果を発話制御部1520に送る。なお、気分判定部1513は、人901の発話における声の抑揚等に基づいて、気分を判定してもよい。この場合には、判定の精度を上げるため、ロボット1は、人901の通常時の抑揚を事前に学習しておくことが好ましい。
The
発話制御部1520は、典型的には、判定された気分に応じた発話を、音声出力部154にさせる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された気分に応じた発話を音声出力部154に行わせる。
The
<E.制御構造>
図5は、ロボット1における処理の流れを説明するためのフローチャートである。図5を参照して、ステップS2において、ロボット1は、特徴についてのデフォルトの設定で、人901との会話する。ステップS4において、ロボット1は、人901との会話を通じて、人901の特徴を判定する。ステップS6において、ロボット1は、特徴が判定できたか否かを判断する。
<E. Control structure>
FIG. 5 is a flowchart for explaining the flow of processing in the robot 1. Referring to FIG. 5, in step S <b> 2, robot 1 has a conversation with
特徴が判定できたと判断された場合(ステップS6においてYES)、ロボット1は、ステップS8において、判定された特徴で会話をする。たとえば、デフォルトの設定が標準語である場合、人901の特徴が関西弁であると判定されると、ロボット1は、標準語による発話(会話)を取止め、関西弁に応じた発話(会話)をする。なお、特徴が判定できていないと判断された場合(ステップS6においてNO)、ロボット1は、処理をステップS4に戻す。
If it is determined that the feature has been determined (YES in step S6), the robot 1 has a conversation with the determined feature in step S8. For example, when the default setting is a standard word, if it is determined that the characteristic of the
ステップS10において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。「インベントの発生」としては、たとえば、ロボット1の周囲に人901がいなくなったこと、人901からの発話が予め定めらた時間行われなかったこと、人901から所定の入力を受け付けたこと等とすることができる。
In step S10, the robot 1 determines whether an event indicating the end of the conversation has occurred. Examples of the “occurrence of an event” include that the
イベントが発生したと判断した場合(ステップS10においてYES)、ロボット1は、ステップS12において、判定された特徴をデフォルトに設定する。これにより、ロボット1は、次回の会話において、最初から、上記判定された特徴で会話を開始することができる。たとえば、ロボット1は、ステップS2において、関西弁で会話を開始することができる。なお、イベントが発生していないと判断した場合(ステップS10においてNO)、ロボット1は、処理をステップS8に戻す。 If it is determined that an event has occurred (YES in step S10), the robot 1 sets the determined feature as a default in step S12. Thereby, the robot 1 can start a conversation with the determined characteristics from the beginning in the next conversation. For example, the robot 1 can start a conversation with the Kansai dialect in step S2. When it is determined that no event has occurred (NO in step S10), the robot 1 returns the process to step S8.
なお、特徴についてのデフォルトの設定を変更しない構成であってもよい。たとえば、ステップS2において、常に標準語で会話を開始するようにロボット1を構成してもよい。 A configuration in which default settings for features are not changed may be used. For example, in step S2, the robot 1 may be configured to always start a conversation using a standard language.
<F.ハードウェア構成>
図6は、ロボット1のハードウェア構成を表した図である。図6を参照して、ロボット1は、プログラムを実行するCPU101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、フラッシュメモリ104と、操作キー105と、スピーカ106と、カメラ107と、マイク108と、タッチスクリーン109と、モータ110と、車輪111と、無線通信IF(Interface)112と、アンテナ113とを、少なくとも含んで構成されている。タッチスクリーン109は、ディスプレイ1091と、タッチパネル1092とを含む。各構成要素101〜110,112は、相互にデータバスによって接続されている。
<F. Hardware configuration>
FIG. 6 is a diagram illustrating a hardware configuration of the robot 1. Referring to FIG. 6, the robot 1 includes a
アンテナ113は、無線通信IF112に接続されている。アンテナ113および無線通信IF112は、たとえば、基地局を介した、他の移動体端末、固定電話、およびPC(Personal Computer)との間における無線通信に用いられる。
The
ROM102は、不揮発性の半導体メモリである。ROM102は、ロボット1のブートプログラムが予め格納されている。フラッシュメモリ104は、不揮発性の半導体メモリである。フラッシュメモリ104は、一例としてNAND型で構成してもよい。フラッシュメモリ104は、ロボット1のオペレーティングシステム、ロボット1を制御するための各種のプログラム、並びに、ロボット1が生成したデータ、ロボット1の外部装置から取得したデータ等の各種データを揮発的に格納する。
The
ロボット1における処理は、各ハードウェアおよびCPU101により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ104に予め記憶されている場合がある。また、ソフトウェアは、図示しないメモリカードその他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、アンテナ113および無線通信IF112を介してダウンロードされた後、フラッシュメモリ104に一旦格納される。そのソフトウェアは、CPU101によってフラッシュメモリ104から読み出され、さらにフラッシュメモリ104に実行可能なプログラムの形式で格納される。CPU101は、そのプログラムを実行する。
The processing in the robot 1 is realized by each hardware and software executed by the
本発明の本質的な部分は、フラッシュメモリ104その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、記録媒体としては、DVD-ROM、CD−ROM、FD、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク、光カード、マスクROM、EPROM、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
[実施の形態2]
本実施の形態では、上述したとおり、ロボット1が複数の人間と会話するときの処理を説明する。
An essential part of the present invention can be said to be software stored in the
[Embodiment 2]
In the present embodiment, as described above, processing when the robot 1 has a conversation with a plurality of humans will be described.
図7は、ロボット1と複数の人間とが輪になっている状況を表した図である。図7を参照して、ロボット1は、2名の大人の男性901,902と、2名の大人の女性903,904と、1名の男の子(子供)と会話が可能な状態となっている。
FIG. 7 is a diagram illustrating a situation where the robot 1 and a plurality of humans are in a circle. Referring to FIG. 7, the robot 1 is in a state where it can talk with two
この場合、ロボット1は、5人と会話を行なう。会話の内容としては、5人全員に対するもの、特定の一人に対するもの、5人を1つのグループとしてとらえた場合における一部のサブグループ(たとえば、2人の大人の女性で構成されるサブグループ、4人の大人で構成されるサブグループ)に対するもの等がある。 In this case, the robot 1 has a conversation with five people. The content of the conversation is for all 5 people, for a specific person, and some subgroups when 5 people are considered as a group (for example, a subgroup consisting of 2 adult women, For subgroups of 4 adults).
図8は、ロボット1における処理の流れを説明するためのフローチャートである。図8を参照して、図5のフローチャートの相違は、ステップS102〜S120が追加されている点である。したがって、以下では、図5のフローチャートと異なる点を主として説明する。 FIG. 8 is a flowchart for explaining the flow of processing in the robot 1. Referring to FIG. 8, the difference in the flowchart of FIG. 5 is that steps S102 to S120 are added. Therefore, in the following, differences from the flowchart of FIG. 5 will be mainly described.
ステップS2の後、ロボット1は、ステップS102において、会話の相手が複数人か否かを判断する。複数人ではないと判断された場合(ステップS102においてNO)、ロボット1は、処理をステップS4に進める。複数人であると判断された場合(ステップS102においてYES)、ロボット1は、ステップS104において、会話を通じて各人の特徴の判定を開始する。ステップS106において、ロボット1は、全員分の特徴が判定されたか否かを判断する。 After step S2, the robot 1 determines whether or not there are a plurality of conversation partners in step S102. If it is determined that there are not a plurality of persons (NO in step S102), robot 1 advances the process to step S4. If it is determined that there are a plurality of persons (YES in step S102), the robot 1 starts determining characteristics of each person through conversation in step S104. In step S106, the robot 1 determines whether or not the characteristics for all the members have been determined.
全員の特徴が判定されていないと判断された場合(ステップS106においてNO)、ロボット1は、ステップS108において、判定がなされた人数分の判定結果に基づいて、会話に用いる特徴を決定する。ステップS110において、ロボット1は、決定された特徴で会話する。 If it is determined that the characteristics of all the members have not been determined (NO in step S106), the robot 1 determines the characteristics to be used for the conversation in step S108 based on the determination results for the determined number of people. In step S110, the robot 1 has a conversation with the determined characteristics.
ステップS112において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。インベントが発生したと判断された場合(ステップS112においてYES)、ロボット1は、ステップS114において、決定された特徴をデフォルトに設定する。インベントが発生していないと判断された場合(ステップS112においてNO)、ロボット1は、処理をステップS104に戻す。 In step S112, the robot 1 determines whether an event indicating the end of the conversation has occurred. If it is determined that an event has occurred (YES in step S112), robot 1 sets the determined feature as a default in step S114. If it is determined that no event has occurred (NO in step S112), robot 1 returns the process to step S104.
全員の特徴が判定されたと判断された場合(ステップS106においてYES)、ロボット1は、ステップS116において、全員の判定結果に基づいて、会話に用いる特徴を決定する。ステップS118において、ロボット1は、決定された特徴で会話する。 If it is determined that the characteristics of all members have been determined (YES in step S106), the robot 1 determines the characteristics to be used for the conversation in step S116 based on the determination results of all members. In step S118, the robot 1 has a conversation with the determined characteristics.
ステップS120において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。インベントが発生したと判断された場合(ステップS120においてYES)、ロボット1は、処理をステップS114に進める。インベントが発生していないと判断された場合(ステップS120においてNO)、ロボット1は、処理をステップS120に戻す。 In step S120, the robot 1 determines whether or not an event indicating the end of the conversation has occurred. If it is determined that an event has occurred (YES in step S120), robot 1 advances the process to step S114. If it is determined that no event has occurred (NO in step S120), robot 1 returns the process to step S120.
ロボット1は、ステップS108,S116において、典型的には、最も人数の多い特徴(つまり、特徴を共通にする人が最も多い特徴)を、会話に用いる特徴として決定する。たとえば、ロボット1は、全員(5人)のうち、3人の特徴が関西弁で、かつ2人の特徴が標準語であると判断した場合、ロボット1は、ステップS116において、会話に用いる特徴を関西弁とする。 In steps S108 and S116, the robot 1 typically determines the feature with the largest number of people (that is, the feature with the largest number of people having the same feature) as the feature used for the conversation. For example, if the robot 1 determines that the characteristics of three of all (5) are Kansai dialects and the characteristics of the two are standard words, the robot 1 uses the characteristics for conversation in step S116. Is the Kansai dialect.
以上のように、ロボット1は、複数の前記人との会話に基づき当該複数の人の各々の特徴を判定する。ロボット1は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。ロボット1は、特定された特徴に応じた発話を行なう。これにより、ロボット1は、複数人と会話する場合であっても、全体最適の観点から全体(グループ)に適した発話をすることができる。
[実施の形態3]
本実施の形態でも、実施の形態2と同様、ロボットが複数の人間と会話するときの処理を説明する。
As described above, the robot 1 determines the characteristics of each of the plurality of people based on conversations with the plurality of people. The robot 1 identifies a feature having the largest number of people who share a common feature among the determined features. The robot 1 speaks according to the specified feature. Thereby, even when the robot 1 is talking with a plurality of people, the robot 1 can make an utterance suitable for the whole (group) from the viewpoint of overall optimization.
[Embodiment 3]
In the present embodiment, similarly to the second embodiment, processing when the robot has a conversation with a plurality of humans will be described.
実施の形態2においては、ステップS108およびステップS116において決定された特徴でのみ会話が行われる構成を説明した。 In the second embodiment, the configuration in which the conversation is performed only with the feature determined in step S108 and step S116 has been described.
本実施の形態では、ロボット1が、ステップS108およびステップS116で決定された特徴に基づき、ステップS110およびステップS118において会話(発話)をすることを原則としつつも、ステップS110およびステップS118において例外処理を設ける。以下、例外処理について説明する。 In the present embodiment, the robot 1 basically performs conversation (utterance) in steps S110 and S118 based on the characteristics determined in steps S108 and S116, but exception processing is performed in steps S110 and S118. Is provided. Hereinafter, exception processing will be described.
図9は、図8のステップS110,S118の処理における例外処理を説明するためのフローチャートである。図9を参照して、ステップS202において、ロボット1は、発話するフレーズを決定する。ステップS204において、ロボット1は、決定されたフレーズは、全員向けのフレーズであるか否かを判断する。なお、フレーズが全員向けであるか否かは、フレーズ毎に予め識別情報を付加しておくことより、ロボット1が当該識別情報を参照して判断すればよい。 FIG. 9 is a flowchart for explaining exception processing in the processing of steps S110 and S118 of FIG. With reference to FIG. 9, in step S202, the robot 1 determines a phrase to be uttered. In step S204, the robot 1 determines whether or not the determined phrase is a phrase for everyone. Whether or not the phrase is for everyone can be determined by the robot 1 referring to the identification information by adding identification information in advance for each phrase.
全員向けのフレーズであると判断された場合(ステップS206においてYES)、ロボット1は、ステップS110またはステップS112で決定された特徴で会話する。全員向けのフレーズであると判断されなかった場合(ステップS206においてNO)、ロボット1は、特定の人、または特定のサブグループ向けの特徴で会話する。 If it is determined that the phrase is for everyone (YES in step S206), the robot 1 has a conversation with the characteristics determined in step S110 or step S112. If it is not determined that the phrase is for everyone (NO in step S206), the robot 1 has a conversation with a feature for a specific person or a specific subgroup.
本実施の形態における処理の一例を、具体例を挙げて説明すれば以下のとおりである。たとえば、図7においては、5人のうち4人が中年の大人であるため、ロボット1は、ステップS116において、会話に用いる特徴として、年齢層のうち“中年”を選択する。 An example of the processing in the present embodiment will be described with a specific example as follows. For example, in FIG. 7, since 4 out of 5 are middle-aged adults, the robot 1 selects “middle-aged” from the age group as a feature used for conversation in step S116.
このため、ロボット1は、ステップS118において、“中年”に対応したロボットの発話形式(図3参照)にて、会話する。しかしながら、フレーズが子供向けである場合には、会話に用いる特徴として、年齢層のうち“幼い”を選択する。つまり、フレーズが子供向けの場合には、ロボット1は、発話形式を“中年”に対応した形式から“幼い”に対応した形式に一時的に切り替えて、発話を行なう。 For this reason, in step S118, the robot 1 has a conversation in the robot's utterance format corresponding to “middle age” (see FIG. 3). However, when the phrase is for a child, “little” is selected from the age group as a feature used for conversation. That is, when the phrase is for children, the robot 1 utters by temporarily switching the utterance format from the format corresponding to “middle age” to the format corresponding to “little”.
以上のように、ロボット1は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。これにより、ロボット1は、会話相手に対して一層柔軟な発話を行なうことが可能となる。
[実施の形態4]
上記の実施の形態1から3においては、ロボット1が上述したデータテーブルD3等の各種のデータ、プログラムを格納し、上述した全ての処理を単独で実行する構成を例に挙げて説明した。しかしながら、これに限定されず、ロボット1は、サーバと共同して、上述した各処理を実行してもよい。
As described above, when the robot 1 speaks to a person having a characteristic different from the identified characteristic among a plurality of persons, the robot 1 does not perform the utterance according to the identified characteristic. Speak according to the characteristics. Thereby, the robot 1 can perform more flexible utterance to the conversation partner.
[Embodiment 4]
In the first to third embodiments, the configuration in which the robot 1 stores various data and programs such as the data table D3 described above and executes all the processes described above as an example has been described. However, the present invention is not limited to this, and the robot 1 may execute the processes described above in cooperation with the server.
図10は、ロボットとサーバとを備えた通信システムの概略図である。図10を参照して、通信システムは、ロボット1Aと、サーバ700と、ルータ900とを備える。ロボット1は、ルータ900を介して、サーバ700と通信可能に接続されている。なお、ロボット1Aは、ロボット1と同様のハードウェア構成を有するため、ここでは、ロボット1Aのハードウェア構成については繰り返し説明は行わない。
FIG. 10 is a schematic diagram of a communication system including a robot and a server. Referring to FIG. 10, the communication system includes a
このような通信システムでは、たとえば、ロボット1Aの代わりにサーバ700がデータベースD3を備えていてもよい。また、ロボット1Aの代わりにサーバ700が図4に示した特徴判定部1510を備えていてもよい。
In such a communication system, for example, the
このような構成であっても、ロボット1Aは、会話の相手に適した発話をすることが可能となる。
[実施の形態5]
実施の形態1から4では、電子機器の一例として、人間型のロボット1,1Aを例に挙げて説明したが、これに限定されるものではない。
Even with such a configuration, the
[Embodiment 5]
In the first to fourth embodiments, the
図11は、ロボット2と人901とが会話をしている状態を表した図である。図11を参照して、ロボット1,1Aの代わりに掃除機型のロボット2に、ロボット1,1Aと同様の発話処理(発話制御方法)を行なわせてもよい。
FIG. 11 is a diagram illustrating a state in which the
<まとめ>
(1)以上のように、ロボット1,1A,2は、人との会話に基づき人の特徴を判定し、判定された特徴に応じた発話を行なう。上記の構成によれば、会話の相手に適した発話をすることが可能となる。
<Summary>
(1) As described above, the robots 1, 1 </ b> A, 2 determine the characteristics of the person based on the conversation with the person, and perform utterances according to the determined characteristics. According to the above configuration, it is possible to utter a speech suitable for a conversation partner.
(2)たとえば、特徴は、方言の種別、年齢層、および会話時の気分のうちの少なくとも1つである。 (2) For example, the feature is at least one of a dialect type, an age group, and a mood during conversation.
(3)特徴は、方言の種別である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、方言の種別を判定する方言判定部1511と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された種別の方言で発話させる。上記の構成によれば、ロボット1,1A,2は、人が話している方言と同じ方言で発話することが可能となるため、会話が弾む。
(3) The feature is the type of dialect. The robots 1, 1 </ b> A, and 2 cause the
(4)特徴は、方言の種別である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、方言の種別を判定する方言判定部1511と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された種別の方言が用いられている地域の情報に関する発話を行なわせる。上記の構成によれば、ロボット1,1A,2は、人の出身地に関する情報を発話するため、会話が弾む。
(4) The feature is a dialect type. The robots 1, 1 </ b> A, and 2 cause the
(5)好ましくは、特徴は、年齢層である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、人の年齢層を判定する年齢層判定部1512と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された年齢層に見合った話し方で発話を行わせる。上記の構成によれば、ロボット1,1A,2は、同じような話し方で発話をするため、人は違和感を感じすることなくロボット1,1A,2と会話ができる。
(5) Preferably, the feature is an age group. The robots 1, 1 </ b> A, and 2 include a
(6)発話制御部1520は、音声出力部154に判定された年齢層に見合った内容を発話させる。上記の構成によれば、ロボット1,1A,2は、会話の内容に興味を抱きやすいため、人との会話が弾む。
(6) The
(7)特徴は、気分である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、人の気分を判定する気分判定部1513と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された気分に応じた発話を行なわせる。上記の構成によれば、ロボット1は、ユーザの気分に応じた発話を行なうため、ユーザは、ロボット1と心地の良い会話ができる。
(7) The feature is mood. The robots 1, 1 </ b> A, and 2 cause the
(8)ロボット1,1A,2は、複数の人との会話に基づき複数の人の各々の特徴を判定する。ロボット1,1A,2は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。ロボット1,1A,2は、特定された特徴に応じた発話を行なう。上記の構成によれば、ロボット1,1A,2は、複数人と会話する場合であっても、全体最適の観点から全体(グループ)に適した発話をすることができる。
(8) The
(9)ロボット1,1A,2は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。上記の構成によれば、ロボット1,1A,2は、会話相手に対して一層柔軟な発話を行なうことが可能となる。
(10)好ましくは、ロボット1,1A,2は自走式である。
(9) When the
(10) Preferably, the
今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time is an exemplification, and the present invention is not limited to the above contents. The scope of the present invention is defined by the terms of the claims, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
1,1A,2 ロボット、106 スピーカ、108 マイク、109 タッチスクリーン、111 車輪、151 制御部、152 音声入力部、153 記憶部、154 音声出力部、155 通信部、700 サーバ、900 ルータ、1510 特徴判定部、1511 方言判定部、1512 年齢層判定部、1513 気分判定部、1520 発話制御部、D3 データベース。 1,1A, 2 Robot, 106 Speaker, 108 Microphone, 109 Touch screen, 111 Wheel, 151 Control unit, 152 Audio input unit, 153 Storage unit, 154 Audio output unit, 155 Communication unit, 700 Server, 900 Router, 1510 Determination unit, 1511 Dialect determination unit, 1512 Age group determination unit, 1513 Mood determination unit, 1520 Speech control unit, D3 database.
Claims (10)
複数の前記人との会話に基づき前記複数の人の各々の特徴を判定し、
前記判定された複数の前記特徴のうち、前記特徴を共通にする人が最も多い前記特徴を特定し、
前記特定された特徴に応じた発話を行ない、
前記複数の人のうち前記特定された特徴とは異なる特徴を有する人に対して発話する場合には、前記特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう、電子機器。 A the determined row of power sale electronic devices utterance corresponding to the feature as well as determining the person of features based on the conversation with the person,
Determining characteristics of each of the plurality of persons based on conversations with the plurality of persons;
Among the determined plurality of features, identify the features with the most people who share the features,
Speaking according to the identified features,
When speaking to a person having a characteristic different from the identified characteristic among the plurality of persons, the utterance according to the characteristic of the person is performed without performing the utterance according to the identified characteristic. Electronic equipment to perform .
前記発話のために音声を出力する音声出力手段と、
前記方言の種別を判定する第1の判定手段と、
前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
前記発話制御手段は、前記音声出力手段に前記判定された種別の方言で発話させる、請求項2に記載の電子機器。 The feature is a type of the dialect,
Voice output means for outputting voice for the utterance;
First determining means for determining the type of the dialect;
Utterance control means for causing the voice output means to utter according to the determined characteristics,
The electronic device according to claim 2, wherein the utterance control unit causes the voice output unit to utter in the dialect of the determined type.
前記発話のために音声を出力する音声出力手段と、
前記方言の種別を判定する第1の判定手段と、
前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
前記発話制御手段は、前記音声出力手段に前記判定された種別の方言が用いられている地域の情報に関する発話を行なわせる、請求項2に記載の電子機器。 The feature is a type of the dialect,
Voice output means for outputting voice for the utterance;
A first determination means Ru determine Teisu a type of the dialect,
Utterance control means for causing the voice output means to utter according to the determined characteristics,
The electronic device according to claim 2, wherein the utterance control unit causes the voice output unit to perform utterance regarding information on a region where the determined type of dialect is used.
前記発話のために音声を出力する音声出力手段と、
前記人の年齢層を判定する第2の判定手段と、
前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
前記発話制御手段は、前記音声出力手段に前記判定された年齢層に見合った話し方で発話を行わせる、請求項2に記載の電子機器。 The characteristic is the age group,
Voice output means for outputting voice for the utterance;
Second determination means for determining the age group of the person;
Utterance control means for causing the voice output means to utter according to the determined characteristics,
The electronic device according to claim 2, wherein the utterance control unit causes the audio output unit to utter in a manner suitable for the determined age group.
前記発話のために音声を出力する音声出力手段と、
前記人の気分を判定する第3の判定手段と、
前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
前記発話制御手段は、前記音声出力手段に前記判定された気分に応じた発話を行なわせる、請求項2に記載の電子機器。 The characteristic is the mood,
Voice output means for outputting voice for the utterance;
Third determination means for determining the mood of the person;
Utterance control means for causing the voice output means to utter according to the determined characteristics,
The electronic device according to claim 2, wherein the utterance control unit causes the audio output unit to perform an utterance according to the determined mood.
前記電子機器が、複数の前記人との会話に基づき前記複数の人の各々の特徴を判定するステップと、
前記電子機器が、前記判定された複数の前記特徴のうち、前記特徴を共通にする人が最も多い前記特徴を特定するステップと、
前記電子機器が、前記特定された特徴に応じた発話を行なうステップと、
前記電子機器が、前記複数の人のうち前記特定された特徴とは異なる特徴を有する人に対して発話する場合には、前記特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なうステップとを備える、発話制御方法。 An utterance control method in an electronic device that determines the characteristics of the person based on a conversation with a person and performs an utterance according to the determined characteristics ,
The electronic device determining characteristics of each of the plurality of persons based on conversations with the plurality of persons;
The electronic device identifying the feature having the largest number of people who share the feature among the plurality of determined features;
The electronic device uttering in accordance with the identified characteristics;
When the electronic device utters a person having a characteristic different from the specified characteristic among the plurality of persons, the characteristic of the person is not performed without speaking according to the specified characteristic. An utterance control method comprising the steps of:
複数の前記人との会話に基づき前記複数の人の各々の特徴を判定するステップと、
前記判定された複数の前記特徴のうち、前記特徴を共通にする人が最も多い前記特徴を特定するステップと、
前記特定された特徴に応じた発話を行なうステップと、
前記複数の人のうち前記特定された特徴とは異なる特徴を有する人に対して発話する場合には、前記特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なうステップとを、前記電子機器のプロセッサに実行させる、プログラム。 A program for controlling an electronic device that determines the characteristics of the person based on a conversation with a person and performs an utterance according to the determined characteristics ,
Determining the characteristics of each of the plurality of persons based on conversations with the plurality of persons;
Identifying the feature having the largest number of people who share the feature among the plurality of determined features;
Uttering according to the identified features;
When speaking to a person having a characteristic different from the identified characteristic among the plurality of persons, the utterance according to the characteristic of the person is performed without performing the utterance according to the identified characteristic. A program for causing a processor of the electronic device to execute the step of performing .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014247827A JP6452420B2 (en) | 2014-12-08 | 2014-12-08 | Electronic device, speech control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014247827A JP6452420B2 (en) | 2014-12-08 | 2014-12-08 | Electronic device, speech control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016109897A JP2016109897A (en) | 2016-06-20 |
JP6452420B2 true JP6452420B2 (en) | 2019-01-16 |
Family
ID=56122060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014247827A Expired - Fee Related JP6452420B2 (en) | 2014-12-08 | 2014-12-08 | Electronic device, speech control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6452420B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6902706B2 (en) | 2016-06-01 | 2021-07-14 | パナソニックIpマネジメント株式会社 | Purification unit and purification device |
JP6933455B2 (en) * | 2016-09-29 | 2021-09-08 | 株式会社東芝 | Interest maintenance system and server |
JP6977445B2 (en) * | 2017-09-26 | 2021-12-08 | カシオ計算機株式会社 | Dialogue device, dialogue method and program |
KR102326853B1 (en) * | 2017-12-08 | 2021-11-16 | 한국전자기술연구원 | User adaptive conversation apparatus based on monitoring emotion and ethic and method for thereof |
JP2019175432A (en) * | 2018-03-26 | 2019-10-10 | カシオ計算機株式会社 | Dialogue control device, dialogue system, dialogue control method, and program |
JP7218143B2 (en) * | 2018-10-16 | 2023-02-06 | 東京瓦斯株式会社 | Playback system and program |
CN110085225B (en) * | 2019-04-24 | 2024-01-02 | 北京百度网讯科技有限公司 | Voice interaction method and device, intelligent robot and computer readable storage medium |
US11328711B2 (en) | 2019-07-05 | 2022-05-10 | Korea Electronics Technology Institute | User adaptive conversation apparatus and method based on monitoring of emotional and ethical states |
CN111916056B (en) * | 2019-10-28 | 2023-05-02 | 宁波大学 | Intelligent voice recognition method |
KR20220072561A (en) * | 2020-11-25 | 2022-06-02 | 삼성전자주식회사 | Electronic device and operating method for generating response for user input |
US11934203B2 (en) * | 2021-05-06 | 2024-03-19 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a robot |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175082A (en) * | 1997-12-10 | 1999-07-02 | Toshiba Corp | Voice interaction device and voice synthesizing method for voice interaction |
JP3681145B2 (en) * | 1997-12-11 | 2005-08-10 | 株式会社東芝 | Utterance device and utterance method |
JP3945356B2 (en) * | 2002-09-17 | 2007-07-18 | 株式会社デンソー | Spoken dialogue apparatus and program |
WO2005076258A1 (en) * | 2004-02-03 | 2005-08-18 | Matsushita Electric Industrial Co., Ltd. | User adaptive type device and control method thereof |
JP4311322B2 (en) * | 2004-09-28 | 2009-08-12 | ソニー株式会社 | Viewing content providing system and viewing content providing method |
JP2009087074A (en) * | 2007-09-28 | 2009-04-23 | Panasonic Electric Works Co Ltd | Equipment control system |
JP5309070B2 (en) * | 2010-03-31 | 2013-10-09 | Kddi株式会社 | Multimodal dialogue device |
-
2014
- 2014-12-08 JP JP2014247827A patent/JP6452420B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016109897A (en) | 2016-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6452420B2 (en) | Electronic device, speech control method, and program | |
US11887590B2 (en) | Voice enablement and disablement of speech processing functionality | |
US11600291B1 (en) | Device selection from audio data | |
US10339166B1 (en) | Systems and methods for providing natural responses to commands | |
US11138977B1 (en) | Determining device groups | |
JP6129134B2 (en) | Voice dialogue apparatus, voice dialogue system, terminal, voice dialogue method, and program for causing computer to function as voice dialogue apparatus | |
WO2016194740A1 (en) | Speech recognition device, speech recognition system, terminal used in said speech recognition system, and method for generating speaker identification model | |
JP5731998B2 (en) | Dialog support device, dialog support method, and dialog support program | |
US20230176813A1 (en) | Graphical interface for speech-enabled processing | |
US20210256965A1 (en) | Electronic device and control method thereof | |
JP7113047B2 (en) | AI-based automatic response method and system | |
JP2019090942A (en) | Information processing unit, information processing system, information processing method and information processing program | |
JP5158022B2 (en) | Dialog processing device, dialog processing method, and dialog processing program | |
WO2020202862A1 (en) | Response generation device and response generation method | |
US11694682B1 (en) | Triggering voice control disambiguation | |
JP2010197858A (en) | Speech interactive system | |
KR20210042520A (en) | An electronic apparatus and Method for controlling the electronic apparatus thereof | |
JP6736225B2 (en) | Interactive device, interactive device control method, and program | |
WO2020208972A1 (en) | Response generation device and response generation method | |
WO2021064947A1 (en) | Interaction method, interaction system, interaction device, and program | |
US11755652B2 (en) | Information-processing device and information-processing method | |
Suendermann-Oeft | Modern conversational agents | |
WO2019107144A1 (en) | Information processing device and information processing method | |
JP6998289B2 (en) | Extractor, learning device, extraction method, extraction program, learning method and learning program | |
WO2020189340A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181211 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6452420 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |