JP7205148B2 - ロボット、制御方法、及び、プログラム - Google Patents

ロボット、制御方法、及び、プログラム Download PDF

Info

Publication number
JP7205148B2
JP7205148B2 JP2018188897A JP2018188897A JP7205148B2 JP 7205148 B2 JP7205148 B2 JP 7205148B2 JP 2018188897 A JP2018188897 A JP 2018188897A JP 2018188897 A JP2018188897 A JP 2018188897A JP 7205148 B2 JP7205148 B2 JP 7205148B2
Authority
JP
Japan
Prior art keywords
identification
individual
unit
data
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018188897A
Other languages
English (en)
Other versions
JP2020057300A (ja
Inventor
豊 小野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018188897A priority Critical patent/JP7205148B2/ja
Priority to CN201910886005.1A priority patent/CN111002303B/zh
Priority to US16/591,538 priority patent/US11514269B2/en
Publication of JP2020057300A publication Critical patent/JP2020057300A/ja
Application granted granted Critical
Publication of JP7205148B2 publication Critical patent/JP7205148B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/10Multimodal systems, i.e. based on the integration of multiple recognition engines or fusion of expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Toys (AREA)

Description

本発明は、ロボット、制御方法、及び、プログラムに関する。
個人を識別する技術が知られている。例えば、特許文献1は、顔画像と音声とを統合することにより高い精度で個人を識別する識別装置を開示している。具体的に説明すると、特許文献1に開示された識別装置は、顔画像を用いた識別によって本人らしさを表すスコアαを求め、音声を用いた識別によって本人らしさを表すスコアβを求め、求めたスコアαとスコアβとを各々対応する閾値と比較することにより個人を識別する。また、特許文献1には、スコアαの閾値及びスコアβの閾値を、明るさ又は背景の雑音に応じて変更することが開示されている。
特開2007-156974号公報
個人を識別するために用いられる個人の特徴は、常に同じではなく、様々な要因により変化する。例えば、個人の顔、音声等の特徴は、個人の成長、加齢、又はその他の要因により変化する。これに対して、上述したように、従来の識別装置では、スコアαの閾値及びスコアβの閾値を明るさ又は背景の雑音に応じて変更するにすぎないので、このように個人の特徴が変化すると、個人を適切に識別できなくなるおそれがある。
本発明は、以上のような課題を解決するためのものであり、個人を適切に識別することが可能なロボット、制御方法、及び、プログラムを提供することを目的とする。
上記目的を達成するため、本発明に係るロボットは、
個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する複数の識別手段と、
前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記残りの識別手段により識別された前記個人と対話するための動作を自装置に実行させる動作制御手段と、
前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記自装置により実行された前記動作に対する前記個人の応答に基づいて、前記いずれかの識別手段における前記個人の識別方法を学習するための学習データを更新する更新手段と、
を備えることを特徴とする。
本発明によれば、個人を適切に識別することが可能なロボット、制御方法、及び、プログラムを提供することができる。
本発明の実施形態1に係るロボットの外観を示す図である。 実施形態1に係るロボットのハードウェア構成を示すブロック図である。 実施形態1に係るロボットの機能的な構成を示すブロック図である。 実施形態1において学習データ記憶部に記憶されているデータの例を示す図である。 図4に示した学習データ記憶部に記憶されているデータが更新される例を示す図である。 実施形態1に係るロボットによって実行されるロボット制御処理の流れを示すフローチャートである。 実施形態1に係るロボットによって実行される初期登録処理の流れを示すフローチャートである。 実施形態1に係るロボットによって実行される音声学習処理の流れを示すフローチャートである。 実施形態1に係るロボットによって実行される顔学習処理の流れを示すフローチャートである。 本発明の実施形態2に係るロボットによって実行される音声学習処理の流れを示すフローチャートである。 本発明の実施形態3において学習データ記憶部に記憶されているデータの例を示す図である。 本発明の変形例におけるロボット及びサーバ装置の機能的な構成を示すブロック図である。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
図1に、本発明の実施形態1に係るロボット100の外観を示す。ロボット100は、主に家庭で使用され、ユーザとコミュニケーションすることが可能なコミュニケーションロボットである。図1に示すように、ロボット100は、動物(ペット)を模した形状を有し、予め規定された動作プログラムに従って自律的に動作する。
ロボット100は、自装置の外部に存在するユーザからの呼び掛け又は接触等の外部からの刺激に反応して、様々に動作する。これによって、ロボット100は、ユーザとコミュニケーションをとり、交流することができる。ユーザは、ロボット100とコミュニケーション及び交流をする相手であって、具体的には、例えばロボット100の所有者、家族、友人等である。
図1に示すように、ロボット100は、外観的には小型犬を模した立体的な形状を有する。ロボット100は、例えばプラスチック等の硬質合成樹脂を主たる材料として作製されている。ロボット100は、頭部101と、胴体部102と、耳部103と、目部104と、口部105と、手部107と、足部108と、を備える。
頭部101、耳部103、手部107及び足部108は、ロボット100に内蔵された駆動部材によって動かすことができる部位である。頭部101は、首に設けられた首の関節によって、ピッチ、ロール及びヨーの3方向に回転可能に胴体部102に取り付けられている。目部104には、目に関する画像(目玉等)を表示する表示部117が設けられている。口部105には、ロボット100の前方を撮像する撮像部115aが設けられている。
図2に、ロボット100のハードウェア構成を示す。図2に示すように、ロボット100は、制御部110と、記憶部111と、バッテリ112と、駆動部113と、可動部114と、センサ部115と、無線通信部116と、表示部117と、音声出力部118と、を備える。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等であって、様々な処理や演算を実行する中央演算処理部である。制御部110において、CPUが、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、自装置(ロボット100)全体の動作を制御する。制御部110は、制御手段として機能する。
また、制御部110は、例えばGPU(Graphics Processing Unit)等のような画像処理用のプロセッサと、例えばDSP(Digital Signal Processor)等のような音声処理用のプロセッサと、各種のバッファメモリと、を含む。制御部110は、画像処理用のプロセッサにより、周知の画像認識の手法を用いて、撮像部115aにより撮像された画像に含まれる人、顔、物体等を認識する。また、制御部110は、音声処理用のプロセッサにより、周知の音声認識の手法を用いて、音センサ115bにより検出された音声を認識する。
記憶部111は、フラッシュメモリ、ハードディスク等の不揮発性メモリである。記憶部111は、OS(Operating System)及びアプリケーションプログラムを含む、制御部110が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部111は、制御部110が各種処理を行うことにより生成又は取得するデータを記憶する。記憶部111は、記憶手段として機能する。
バッテリ112は、電気エネルギーを蓄電し、ロボット100の各部に電力を供給するための蓄電池である。バッテリ112は、ロボット100が充電ステーションに接続された場合に、充電ステーションによって充電される。
駆動部113は、ロボット100の可動部114を駆動させるモータ、アクチュエータ等の駆動部材と、これらの駆動部材を駆動する駆動回路と、を備える。可動部114とは、可動する部位であって、具体的には頭部101、手部107及び足部108である。制御部110は、動作プログラムに基づいて、駆動回路に制御信号を送信する。駆動回路は、制御部110から送信された制御信号に従って、駆動部材に駆動用のパルス信号を供給する。駆動部材は、駆動回路から供給されたパルス信号に従って、可動部114を駆動させる。可動部114は、可動手段として機能する。
ロボット100は、駆動部113が可動部114を駆動させることによって、様々に動作することができる。例えば、ロボット100は、足部108を動かすことによって、前方又は後方に移動することができ、自装置の向きを変えることができる。ここで、足部108には車輪が設けられており、駆動部113が車輪を回転駆動させることにより、ロボット100の位置又は向きを変えても良い。また、ロボット100は、頭部101又は手部107を動かすことによって、人の動作及び人の仕草を真似ることができる。
センサ部115は、自装置の周囲又は内部の物理量を検知する複数のセンサを備える。図2に示すように、センサ部115は、周囲を撮像する撮像部115aと、音を検知する音センサ115bと、を含む。また、センサ部115は、図示しないが、自装置への接触を検知する接触センサ、周囲の物体までの距離を測定する距離センサ、自装置の動きを検知する加速度センサ、周囲の温度を検知する温度センサ等を含む。
撮像部115aは、いわゆるカメラであって、口部105に設置されている。撮像部115aは、被写体から射出された光を集光して被写体の画像を取得する画像取得部と、画像取得部によって取得された画像を処理する画像処理部と、を備えており、ロボット100の前方を撮像する撮像手段として機能する。音センサ115bは、頭部101に設置されており、ユーザから発せられた音声、周囲の環境音等を検知する。ロボット100は、図示しないが、音センサ115bとして頭部101を囲むように複数のマイクロフォンを備えており、四方で発生した音を効率良く検知することができる。センサ部115は、このような複数のセンサによって、ロボット100の周囲の状態又は内部の状態を示す情報を取得し、制御部110に供給する。
無線通信部116は、外部の機器と無線で通信するためのインタフェースを備える。無線通信部116は、制御部110の制御の下、例えばWi-Fi(Wireless Fidelity)等の無線LAN(Local Area Network)、Bluetooth(登録商標)、NFC(Near Field Communication)等の通信規格に従って、ロボット100を充電するための充電ステーション、クラウドサーバ等の外部の機器と無線通信をする。無線通信部116は、通信手段として機能する。
表示部117は、例えば液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、LED(Light Emitting Diode)等の表示デバイスである。表示部117は、目部104の眼球部分に設置されており、図示しない表示駆動回路による制御のもと、状況に応じて様々な画像を表示する。
音声出力部118は、スピーカと音声出力インタフェースとを備え、制御部110によって生成された音声データを音声に変換して外部に出力する。スピーカは、頭部101に設置されている。音声出力部118は、動物の鳴き声及び人間の言葉を含む様々な音声を出力する。例えば、ロボット100は、音センサ115bでコミュニケーション対象の音声を収集し、コミュニケーション対象の発話内容に対応する音声を音声出力部118から出力する。これにより、コミュニケーション対象と簡単な会話をすることができる。
次に、図3を参照して、ロボット100の機能的な構成について説明する。図3に示すように、ロボット100は、機能的に、動作制御部130と、顔識別部140と、音声識別部150と、更新部160と、学習部170と、を備える。これら各部は、制御部110において、CPUがROMに記憶されたプログラムをRAMに読み出して、読み出されたプログラムを実行して制御することにより機能する。
また、ロボット100は、動作データ記憶部180と、学習データ記憶部190と、を備える。これらは、記憶部111の適宜の記憶領域に構築される。学習データ記憶部190は、学習データ記憶手段として機能する。なお、顔識別部140、音声識別部150、更新部160、学習部170及び学習データ記憶部190は、ロボット100に含まれる識別装置120の機能に相当する。
動作制御部130は、駆動部113と表示部117と音声出力部118とのうちの少なくとも1つを制御して、予め規定された様々な動作をロボット100に実行させる。例えば、動作制御部130は、駆動部113を制御することにより、可動部114として設けられた頭部101、耳部103、手部107又は足部108を動かす。これにより、動作制御部130は、ロボット100の位置、向き、姿勢等を変更する。更に、動作制御部130は、音声出力部118から音声を出力することによって、ユーザと対話する。動作制御部130は、制御部110が駆動部113、表示部117、音声出力部118等と協働することにより実現される。動作制御部130は、動作制御手段として機能する。
動作データ記憶部180は、ロボット100の動作を様々な条件毎に定めた動作データを記憶している。ロボット100は、撮像部115a及び音センサ115bを含むセンサ部115により取得されたロボット100の周囲の状況、又はロボット100の内部の状況に応じて、様々な動作を実行する。動作制御部130は、動作データ記憶部180を参照して、状況に応じてロボット100に様々な動作を実行させる。
動作データ記憶部180は、動作データの1つとして、音声出力部118から出力される音声の定型文が定められた出力音声データ181を記憶している。出力音声データ181は、例えば「お名前を教えて下さい」、「あなたは昨日、何をしていましたか?」等のような、ロボット100が発する典型的な音声のテキストを定めたデータである。
顔識別部140と音声識別部150とは、個人(ユーザ)を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて個人を識別する。具体的に、顔識別部140は、個人を表す第1データを取得し、取得した第1データに基づいて個人を識別する。第1データは、個人の特徴を表すデータであって、具体的には、個人の顔を表す顔画像データである。顔識別部140は、ロボット100の周囲に存在するいずれかの人物の顔が撮像部115aの画角内に入った場合、その顔を含む撮像画像を撮像部115aの撮像により取得する。これにより、顔識別部140は、第1データとして、個人の顔を表す顔画像データを取得する。
顔識別部140は、顔画像データを取得すると、後述する学習部170により学習された識別方法に従って個人を識別する。具体的に説明すると、顔識別部140は、取得した顔画像データにより表される顔画像を、学習データ記憶部190に記憶された顔識別データ193と照合することにより、顔画像データを取得された個人が誰であるのかを識別する。
学習データ記憶部190には、複数の個人のそれぞれについて、学習部170により学習された結果を示す顔識別データ193が記憶されている。顔識別部140は、学習データ記憶部190に顔識別データ193が記憶された複数の個人のそれぞれについて、取得した顔画像データと顔識別データ193との間における適合度を計算する。適合度は、顔画像データと顔識別データ193とがどの程度適合(類似)しているかを示す指標である。
具体的に説明すると、顔識別部140は、取得した顔画像データから、当該顔画像データに含まれる目、鼻、口、耳等により形成される顔の特徴を示す特徴量を抽出する。そして、顔識別部140は、抽出した特徴量が、学習データ記憶部190に記憶された複数の個人の顔識別データ193のそれぞれにおける特徴量とどの程度類似しているかを示す適合度を計算する。
複数の個人のうちのそれぞれについて適合度を計算した結果、計算したこれらの複数の適合度のうちの最高値が予め定められた閾値よりも高い場合に、顔識別部140は、顔画像データを取得された個人が、複数の個人のうちの適合度が最も高い個人であると特定する。一方で、複数の個人のうちのそれぞれについて計算した適合度の全てが予め定められた閾値よりも低い場合、顔識別部140は、顔画像データを取得された個人が学習データ記憶部190に記憶されていないと判定する。
このようにして、顔識別部140は、学習データ記憶部190に記憶された複数の個人の顔識別データ193の中から、取得した顔画像データと適合するデータを探索する。顔識別部140は、制御部110が撮像部115aと協働することにより実現される。顔識別部140は、顔識別手段(第1識別手段)として機能する。
音声識別部150は、個人を表す、第1データとは異なる種類の第2データを取得し、取得した第2データに基づいて個人を識別する。第2データは、個人の、第1データとは異なる特徴を表すデータであって、具体的には、個人の音声を表す音声データである。音声識別部150は、ロボット100の周囲に存在するいずれかの人物により音声が発せられた場合、その音声を音センサ115bにより検出する。これにより、音声識別部150は、第2データとして、個人の音声の波形を示す音声データを取得する。
音声識別部150は、音声データを取得すると、後述する学習部170により学習された識別方法に従って個人を識別する。具体的に説明すると、音声識別部150は、取得した音声データにより表される音声を学習データ記憶部190に記憶された音声識別データ194と照合することにより、音声データを取得された個人が誰であるのかを識別する。
学習データ記憶部190には、複数の個人のそれぞれについて、学習部170により学習された結果を示す音声識別データ194が記憶されている。音声識別部150は、学習データ記憶部190に音声学習データ192が記憶された複数の個人のそれぞれについて、取得した音声データと音声識別データ194との間における適合度を計算する。適合度は、音声データと音声識別データ194とがどの程度適合(類似)しているかを示す指標である。
具体的に説明すると、音声識別部150は、取得した音声データから音圧、ピッチ等の音声の特徴を示す特徴量を抽出する。そして、音声識別部150は、抽出した特徴量が、学習データ記憶部190に記憶された複数の個人の音声識別データ194のそれぞれにおける特徴量とどの程度類似しているかを示す適合度を計算する。
複数の個人のうちのそれぞれについて適合度を計算した結果、計算した適合度のうちの最高値が予め定められた閾値よりも高い場合に、音声識別部150は、音声データを取得された個人が、複数の個人のうちの適合度が最も高い個人であると特定する。一方で、複数の個人のうちのそれぞれについて計算した適合度の全てが予め定められた閾値よりも低い場合、音声識別部150は、音声データを取得された個人が学習データ記憶部190に記憶されていないと判定する。
このようにして、音声識別部150は、学習データ記憶部190に記憶された複数の個人の音声識別データ194の中から、取得した音声データと適合するデータを探索する。音声識別部150は、制御部110が音センサ115bと協働することにより実現される。音声識別部150は、音声識別手段(第2識別手段)として機能する。
動作制御部130は、顔識別部140又は音声識別部150により個人が識別された場合、その識別された個人に応じた動作をロボット100に実行させる。識別された個人に応じた動作とは、例えば、その個人の名前を呼ぶ、その個人の予め登録されたスケジュールに応じた音声を出力する等のように、識別された個人に応じた内容でその個人とコミュニケーションするための動作である。動作制御部130は、顔識別部140と音声識別部150とのうちの少なくとも一方により個人が識別された場合、可動部114を動かす、表示部117に画像を表示させる、又は音声出力部118から音声を出力することにより、識別された個人とコミュニケーションするための動作をロボット100に実行させる。
このように、ロボット100は、顔と音声という異なる2つの特徴を用いて個人を識別するため、顔と音声とのうちのどちらか一方さえ検出できれば個人を識別することができる。言い換えると、ロボット100は、顔と音声とのうちのどちらか一方では個人が識別できなかった場合であっても、他方で個人を識別することができれば、識別した個人に応じて動作することができる。そのため、ロボット100は、顔を検出できるが音声を検出できない、音声を検出できるが顔を検出できない等の様々な状況でも個人を識別することができ、識別した個人とコミュニケーションを図ることができる。
学習データ記憶部190は、個人の互いに異なる特徴をそれぞれ表す複数の学習データである顔学習データ191と音声学習データ192とを記憶している。顔学習データ191は、個人の第1の特徴である顔の特徴を表す第1学習データであって、学習部170が顔識別部140における個人の識別方法を学習するための学習用データである。音声学習データ192は、個人の、第1の特徴とは異なる第2の特徴である音声の特徴を表す第2学習データであって、学習部170が音声識別部150における個人の識別方法を学習するための学習用データである。また、学習データ記憶部190は、それぞれ複数の学習データに対応する複数の識別データである顔識別データ193と音声識別データ194とを記憶している。顔識別データ193は、顔識別部140が個人を識別するための第1識別データであって、顔学習データ191をもとに学習部170により学習された個人の識別方法を示す学習済みデータである。音声識別データ194は、音声識別部150が個人を識別するための第2識別データであって、音声学習データ192をもとに学習部170により学習された個人の識別方法を示す学習済みデータである。
図4に、学習データ記憶部190に記憶されているデータの例を示す。図4に示すように、学習データ記憶部190は、複数の個人のそれぞれについて、顔学習データ191と音声学習データ192と顔識別データ193と音声識別データ194とを記憶している。複数の個人は、過去にロボット100の周囲で顔及び音声が検出された複数のユーザに相当する。学習データ記憶部190において、顔学習データ191、音声学習データ192、顔識別データ193及び音声識別データ194は、複数の個人のそれぞれを区別するためのID(識別子)と、対応する個人の名前と、が紐付けられて記憶されている。
更新部160は、顔識別部140により取得された顔画像データに基づいて、学習データ記憶部190に記憶された顔学習データ191を更新する。また、更新部160は、音声識別部150により取得された音声データに基づいて、学習データ記憶部190に記憶された音声学習データ192を更新する。更新部160は、制御部110が記憶部111と協働することにより実現される。更新部160は、更新手段として機能する。
具体的に説明すると、更新部160は、顔識別部140により取得された顔画像データにおける輝度の分布、輝度の勾配等を解析する。そして、更新部160は、顔識別に有効な特徴を定量化したパラメータとして、顔画像データから、当該顔画像データに含まれる目、鼻、口、耳等により形成される顔の特徴量を抽出する。顔識別部140は、抽出した特徴量を示す顔学習データ191を生成し、生成した顔学習データ191を、個人のIDに紐付けて、学習データ記憶部190に記憶させる。
また、更新部160は、音声識別部150により取得された音声データを解析する。そいて、更新部160は、音声識別に有効な特徴を定量化したパラメータとして、音圧、ピッチ等の特徴量を抽出する。或いは、更新部160は、音声の特徴量として、音声信号を周波数軸上に変換して得られる特徴パラメータであるメル周波数ケプストラム係数(MFCC:Mel-Frequency Cepstrum Coefficients)を計算しても良い。音声識別部150は、抽出した特徴量を示す音声学習データ192を生成し、生成した音声学習データ192を、個人のIDに紐付けて、学習データ記憶部190に記憶させる。
なお、顔学習データ191は、同一の個人の顔を表すとともに互いに異なる多くの顔画像データを用いて更新されるほど学習用データとしての精度が上がる。そのため、顔学習データ191は、各個人について異なるタイミングで取得された複数の顔画像データを用いて生成及び更新される。同様に、音声学習データ192は、同一の個人の音声を表す多くの音声データを用いて更新されるほど学習用データとしての精度が上がる。そのため、音声学習データ192は、各個人について異なるタイミングで取得された複数の音声データを用いて生成及び更新される。
より詳細に説明すると、更新部160は、複数の識別部のうちのいずれかの識別部により個人が識別されず、且つ、複数の識別部のうちの残りの識別部により個人が識別された場合、学習データ記憶部190に記憶された複数の学習データとのうちの、個人が識別されなかったいずれかの識別手段に対応する学習データを更新する。具体的には、更新部160は、顔識別部140と音声識別部150とのうちの一方の識別部により個人が識別されず、且つ、顔識別部140と音声識別部150とのうちの他方の識別部により個人が識別された場合、学習データ記憶部190に記憶された顔学習データ191と音声学習データ192とのうちの、一方の識別部に対応する学習データを更新する。
ここで、個人が識別された場合とは、顔画像データ又は音声データが取得された個人を比較的高い精度で識別することに成功した場合である。具体的には、学習データ記憶部190に記憶された複数の個人の顔識別データ193又は音声識別データ194の中に、取得された顔画像データ又は音声データとの適合度が予め定められた閾値よりも高いものが存在する場合に相当する。これに対して、個人が識別されなかった場合とは、顔又は音声が取得された個人を比較的高い精度で識別することに失敗した場合である。具体的には、学習データ記憶部190に記憶された複数の個人の顔識別データ193又は音声識別データ194の中に、取得された顔画像データ又は音声データとの適合度が予め定められた閾値よりも高いものが存在しない場合に相当する。
また、顔識別部140と音声識別部150とのうちの一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合とは、具体的には、顔識別部140による個人の識別に成功したにもかかわらず音声識別部150による個人の識別に失敗した場合、及び、音声識別部150による個人の識別に成功したにもかかわらず顔識別部140による個人の識別に失敗した場合である。前者の場合は、例えば加齢、風邪等の要因によりユーザの声が以前とは変化した場合に相当する。後者の場合は、例えば加齢、髪型の変化、化粧、マスクの装着等の要因によりユーザの顔が以前とは変化した場合に相当する。特に、ユーザが子供である場合には、時間の経過と共に顔も音声も変化し易いため、一方の識別部により識別されない状況が生じやすい。
一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、更新部160は、学習データ記憶部190において複数の個人のそれぞれについて記憶された顔学習データ191と音声学習データ192とのうちの、個人を識別できなかった一方の識別部に対応する一方の学習データを更新する。具体的に説明すると、更新部160は、個人の顔又は音声が以前とは変化したことに対応させるために、新たに取得された複数のデータである顔画像データと音声データとのうちの、個人を識別できなかった一方の識別部に対応する一方のデータに基づいて特徴量を抽出する。この一方のデータは、一方の識別部により個人が識別されなかったときにその個人の識別に用いられたデータである。言い換えると、一方のデータは、一方の識別部により取得されて個人の識別に用いられたが、学習データ記憶部190に記憶された顔識別データ193又は音声識別データ194の中に、適合度が閾値よりも高いものが存在しなかったデータである。更新部160は、一方のデータから特徴量を抽出すると、学習データ記憶部190に既に記憶されている学習データに、抽出された特徴量のデータを追加する。これにより、学習データ記憶部190に記憶されている学習データは、以前に抽出された特徴量に新たに抽出された特徴量が加味された新たな学習データに更新される。
例えば、ID「001」の個人の顔画像データと音声データとが取得された場合において、顔識別部140により個人が識別されず、且つ、音声識別部150により個人が識別された場合、更新部160は、学習データ記憶部190に記憶されているID「001」の個人の顔学習データ「データA01」を、図5に示すように、新たな顔学習データ「データA11」に更新する。これに対して、更新部160は、ID「001」の個人の音声学習データ「データA02」については、現状のデータのままでも個人の識別に成功しているため、更新しない。
このとき、更新部160は、学習データ記憶部190において複数の個人のそれぞれについて記憶された顔学習データ191と音声学習データ192とのうちの、他方の識別部により識別された個人に紐付けられた一方の学習データを更新する。言い換えると、更新部160は、学習データ記憶部190に記憶された複数の個人の学習データのうちの更新対象となる個人を特定するために、個人の識別に成功した他方の識別部による識別結果を用いる。
具体的に図5の例において、顔識別部140により個人が識別されず、且つ、音声識別部150により個人が識別された場合、更新部160は、学習データ記憶部190に記憶された複数の個人の顔学習データ191のうちのどの個人の顔学習データ191が更新対象であるかを、音声識別部150による識別結果を用いて特定する。例えば音声識別部150によりID「001」の個人が識別された場合、更新部160は、このID「001」の個人に紐付けられた顔学習データ191が更新対象であると特定する。このように、ロボット100は、2つの識別部を備えているため、一方の識別部で個人を識別できなくても、他方の識別部による識別結果を用いることで、更新対象の学習データを容易に特定することができる。
このように、更新部160は、個人の顔又は音声の特徴が以前と比べて変化した場合に、新たな特徴で学習データ記憶部190に記憶された顔学習データ191又は音声学習データ192を更新する。これにより、顔学習データ191及び音声学習データ192が個人の顔及び音声の最新の特徴を反映するように更新されるため、学習用データとしての品質が強化される。
一方で、顔識別部140と音声識別部150との双方により個人が識別された場合、すなわち複数の識別部の全てにより個人が識別された場合、その個人の顔及び音声の特徴は大きく変化していないため、顔学習データ191及び音声学習データ192を更新する必要性は少ない。そのため、この場合、更新部160は、学習データ記憶部190に記憶された顔学習データ191と音声学習データ192とのどちらも更新しない。これにより、ロボット100における処理を簡略化することができ、特に過学習による識別精度の低下を回避することができる。
また、顔識別部140と音声識別部150とのどちらによっても個人が識別されなかった場合、すなわち複数の識別部のいずれによっても個人が識別されなかった場合は、例えばロボット100が初対面のユーザの顔及び音声を検出した場合のように、その個人の顔識別データ193及び音声識別データ194とがどちらも学習データ記憶部190に記憶されていない可能性が高い。そのため、この場合、更新部160は、顔学習データ191と音声学習データ192とを、学習データ記憶部190に記憶されていない新たな個人のIDに紐付けて記憶させる。言い換えると、更新部160は、その個人の顔学習データ191と音声学習データ192とを、学習データ記憶部190に新規に登録する。
なお、ロボット100の周囲に複数のユーザが存在している場合、撮像部115aにより撮像された顔画像と、音センサ115bにより検出された音声とが、同一のユーザのものでは無い可能性がある。このような場合であっても、顔識別部140と音声識別部150とにより同一のユーザを識別するようにするため、顔識別部140は、撮像部115aにより取得された顔画像データに複数の顔画像が含まれている場合、複数の顔画像のそれぞれにおける唇の動きを解析する。そして、顔識別部140は、撮像部115aにより取得された顔画像データに複数の顔画像が含まれている場合、その複数の顔画像のうちの、音声識別部150により音声データが取得された時に唇が動いている顔画像を、その音声データが取得されたユーザの顔画像であると判定し、その顔画像に基づいてユーザを識別する。
或いは、顔識別部140は、唇の動きからそのユーザが話している内容を読み取り、読み取った内容と、音声識別部150により取得された音声の内容とが一致した場合に、その顔画像を、その音声データが取得された個人の顔画像であると判定しても良い。このとき、複数のユーザにより同時に音声が発せられている場合には、音声識別部150は、音センサ115bにより検出された音声を音源分離することにより、複数のユーザのそれぞれが発している音声の内容を分析しても良い。
図3に戻って、学習部170は、学習データ記憶部190に記憶された顔学習データ191に基づいて、顔識別部140における個人の識別方法を学習する。また、学習部170は、学習データ記憶部190に記憶された音声学習データ192に基づいて、音声識別部150における個人の識別方法を学習する。学習部170は、制御部110が記憶部111と協働することにより実現される。学習部170は、学習手段として機能する。
具体的に説明すると、学習部170は、学習データ記憶部190に記憶された顔学習データ191を教師データとして用いて、個人の顔の特徴を学習する。一例として、学習部170は、ニューラルネットワークの手法を用いることができる。この場合、ニューラルネットワークは、個人の顔画像の特徴量が入力される入力層と、その顔画像が誰のものであるかの識別結果を出力する出力層と、1以上の中間層と、によって構成される。学習部170は、顔学習データ191により表される複数のタイミングにおける個人の顔画像の特徴量を入力層に入力し、出力層において出力される識別結果の正誤を判定する。そして、学習部170は、出力層において出力される識別結果の正解率がなるべく高くなるように、誤差逆伝播法等を用いて中間層におけるパラメータを調整する。学習部170は、このような処理により中間層のパラメータが最適化されたネットワーク(学習モデル)を得ると、得られたネットワークを表すデータを、その個人の顔を識別するための顔識別データ193として、その個人のIDに紐付けて、学習データ記憶部190に記憶させる。
また、学習部170は、学習データ記憶部190に記憶された音声学習データ192を教師データとして用いて、個人の音声の特徴を学習する。学習部170は、音声学習の場合にも、顔学習の場合と同様に、ニューラルネットワークの手法を用いることができる。学習部170は、学習により得られた音声識別データ194を、その個人のIDに紐付けて、学習データ記憶部190に記憶させる。
例えば、図5に示したように、更新部160によりID「001」の個人の顔学習データ「データA01」が新たな顔学習データ「データA11」に更新された場合、学習部170は、その個人の顔識別データ「データA03」を、新たな顔学習データ「データA11」に基づいて学習した新たな顔識別データ「データA13」に更新する。同様に、図示を省略するが、更新部160により音声学習データ192が更新された場合には、学習部170は、対応する個人の音声識別データ194を更新する。
なお、学習部170は、顔及び音声の特徴を学習するために、ニューラルネットワークに限らず、どのような学習アルゴリズムを用いても良い。例えば、学習部170は、サポートベクタマシン等のような周知の学習手法を用いることができる。生成された顔識別データ193は、顔識別部140が顔画像データと比較して適合度を計算するために用いられる。また、生成された音声識別データ194は、音声識別部150が音声データと比較して適合度を計算するために用いられる。
より詳細に説明すると、学習部170は、学習データ記憶部190に記憶されている複数の個人の顔学習データ191及び音声学習データ192のうちのいずれかが更新部160により更新されると、更新された学習データに基づいて識別方法を学習する。上述したように、更新部160は、一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、顔画像データと音声データとのうちの、一方の識別部により取得された一方のデータに基づいて、顔学習データ191又は音声学習データ192を更新する。このように更新部160により学習データが更新されると、学習部170は、対応する一方の識別部における個人の識別方法を学習する。言い換えると、学習部170は、顔画像データと音声データとのうちの、個人が識別されなかった一方の識別部により取得された一方のデータを用いて、一方の識別部における個人の識別方法を学習する。これにより、学習部170は、学習データ記憶部190に記憶されている顔識別データ193又は音声識別データ194を、個人の最新の特徴が反映されたデータに強化する。
学習部170により識別方法が学習された後、顔識別部140及び音声識別部150は、学習後の識別方法により、個人を識別する。個人の最新の特徴が反映された識別方法を用いることで、顔識別部140及び音声識別部150は、高い精度で個人を識別することができる。
以上のように構成されるロボット100において実行される処理の流れについて、図6に示すフローチャートを参照して、説明する。
図6に示すロボット制御処理は、ロボット100の電源が投入され、且つ、バッテリ112が充電されることによって、ロボット100が正常に動作可能な状態になると、開始する。
ロボット制御処理を開始すると、制御部110は、人物の顔を検出したか否かを判定する(ステップS1)。具体的に説明すると、制御部110は、撮像部115aによりロボット100の周囲を撮像する。そして、制御部110は、撮像部115aにより撮像された画像内に、人物の顔が含まれているか否かを、周知の顔検出の手法を用いて判定する。
顔を検出した場合(ステップS1;YES)、制御部110は、顔識別部140として機能し、検出された顔に対して顔識別処理を実行する(ステップS2)。具体的に説明すると、制御部110は、学習データ記憶部190に記憶された複数の個人の顔識別データ193を参照して、複数の個人の顔識別データ193のそれぞれについて、検出された顔画像との適合度を計算する。そして、制御部110は、学習データ記憶部190に記憶された複数の個人の顔識別データ193の中から、検出された顔画像と適合するデータを探索する。
一方で、顔を検出していない場合(ステップS1;NO)、制御部110は、ステップS2における顔識別処理をスキップする。
第2に、制御部110は、音声を検出したか否かを判定する(ステップS3)。具体的に説明すると、制御部110は、音センサ115bによりロボット100の周囲で発生する音を検出する。そして、制御部110は、音センサ115bにより検出された音の中に、人物の音声が含まれているか否かを、周知の音声検出の手法を用いて判定する。
音声を検出した場合(ステップS3;YES)、制御部110は、音声識別部150として機能し、検出された音声に対して音声識別処理を実行する(ステップS4)。具体的に説明すると、制御部110は、学習データ記憶部190において複数の個人のそれぞれについて記憶された音声識別データ194を参照して、複数の個人の音声識別データ194のそれぞれについて、検出された音声との適合度を計算する。そして、制御部110は、学習データ記憶部190に記憶された複数の個人の音声識別データ194の中から、検出された音声と適合するデータを探索する。
一方で、音声を検出していない場合(ステップS3;NO)、制御部110は、ステップS4における音声識別処理をスキップする。
次に、制御部110は、ステップS1での顔検出、及びステップS3での音声検出において、同一ユーザの顔と音声とをどちらも検出したか否かを判定する(ステップS5)。具体的に説明すると、ロボット100の周囲に1人のユーザのみ存在している場合において、ステップS1で顔を検出し、且つ、ステップS3で音声を検出した場合、制御部110は、同一ユーザの顔と音声とをどちらも検出したと判定する。これに対して、ロボット100の周囲に複数のユーザが存在している場合、制御部110は、撮像部115aにより撮像された顔画像における唇が動いているタイミングと、音センサ115bで音声を検出したタイミングとが、所定の誤差範囲内で合致しているかを判定することにより、同一ユーザの顔と音声とをどちらも検出したか否かを判定する。
同一ユーザの顔と音声との少なくとも一方を検出していないと判定した場合(ステップS5;NO)、制御部110は、ステップS6以降の処理をスキップして、処理をステップS1に戻す。一方で、同一ユーザの顔と音声とをどちらも検出したと判定した場合(ステップS5;YES)、制御部110は、ステップS2での顔識別処理、及びステップS4での音声識別処理の結果を判定する(ステップS6)。具体的に説明すると、制御部110は、学習データ記憶部190に顔識別データ193及び音声識別データ194が記憶された複数の個人の中に、顔識別における適合度が予め定められた閾値よりも高く、且つ、音声識別における適合度が予め定められた閾値よりも高い個人が存在するか否かを判定する。
判定の結果、顔識別における適合度と音声識別における適合度とがどちらも低い場合(ステップS6;顔:低、音声:低)、制御部110は、初期登録の処理を実行する(ステップS7)。この場合は、顔識別と音声識別とのどちらにおいても適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されていない場合であって、例えばロボット100が初対面のユーザの顔及び音声を検出した場合に相当する。ステップS7における初期登録の処理の詳細については、図7に示すフローチャートを参照して説明する。
図7に示す初期登録処理を開始すると、制御部110は、ユーザの名前を要求する(ステップS701)。例えば、制御部110は、動作データ記憶部180に出力音声データ181として予め記憶されている「お名前を教えて下さい」等の内容の音声を、音声出力部118を介して出力する。これにより、制御部110は、ユーザに自身の名前を発声するように要求する。
ユーザの名前を要求すると、制御部110は、ステップS701での要求に応答してユーザから発せられる音声を、音センサ115bにより取得する(ステップS702)。音声を取得すると、制御部110は、取得した音声を認識してユーザの名前を特定する(ステップS703)。例えばユーザから「私はXXXです」との音声が発せられた場合、制御部110は、取得した音声に対して音声認識を実行し、取得した音声をテキストに変換する。そして、制御部110は、テキストに変換された音声から名前に該当する「XXX」の部分を切り出す。これにより、制御部110は、ユーザの名前を特定する。
ユーザの名前を特定すると、制御部110は、更新部160として機能し、特定した名前を、このユーザの顔学習データ191及び音声学習データ192と紐付けて、学習データ記憶部190に保存する(ステップS704)。具体的に説明すると、制御部110は、ステップS1で検出された顔画像データに基づいてユーザの顔の特徴を表す顔学習データ191を生成し、ステップS3で検出された音声データに基づいてユーザの音声の特徴を表す音声学習データ192を生成する。そして、制御部110は、他のユーザと区別可能なIDを付与して、生成した顔学習データ191及び音声学習データ192を、学習データ記憶部190に保存する。これにより、新たなユーザの学習データが学習データ記憶部190に新規に登録される。
顔学習データ191及び音声学習データ192を保存すると、制御部110は、学習部170として機能し、保存された顔学習データ191及び音声学習データ192に基づいて、そのユーザの顔及び音声を学習する(ステップS705)。具体的に説明すると、制御部110は、学習データ記憶部190に新たに保存された顔学習データ191及び音声学習データ192を教師データとして用いて顔及び音声の特徴を学習する。そして、制御部110は、学習した結果を示す顔識別データ193及び音声識別データ194を、対応するユーザのIDに紐付けて学習データ記憶部190に記憶させる。以上により、図7に示した初期登録処理は終了する。
なお、制御部110は、特定した名前を学習データ記憶部190に保存する前に、特定した名前が正しいか否かをユーザに確認しても良い。例えば、制御部110は、ステップS703においてユーザの名前を特定すると、特定した名前に予め用意された名前確認用の定型文を組み合わせて、「○○さんですか?」等の音声を音声出力部118から出力する。そして、このような確認に対して、ユーザから同意を示す音声を音センサ115bにより取得できた場合に、特定した名前を、ユーザの顔画像データ及び音声データと紐付けて学習データ記憶部190に保存しても良い。
図6に戻って、ステップS6において、顔識別における適合度が高く、且つ、音声識別における適合度が低い場合(ステップS6;顔:高、音声:低)、制御部110は、音声を学習する(ステップS8)。この場合は、顔識別における適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されており、且つ、音声識別における適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されていない場合であって、具体的にはユーザの声が以前とは変化した場合に相当する。ステップS8における音声学習処理の詳細については、図8に示すフローチャートを参照して説明する。
図8に示す音声学習処理を開始すると、制御部110は、ユーザの音声の特徴量を抽出する(ステップS801)。具体的に説明すると、制御部110は、ステップS3で検出された音声を解析することにより、音圧、ピッチ等の音声の特徴量を抽出する。
音声の特徴量を抽出すると、制御部110は、更新部160として機能し、学習データ記憶部190に記憶された音声学習データ192を更新する(ステップS802)。具体的に説明すると、制御部110は、抽出した特徴量により、ステップS2での顔識別により識別された個人のIDと紐付けられた音声学習データ192を更新する。これにより、制御部110は、学習データ記憶部190に記憶された音声学習データ192を、ユーザの音声の最新の特徴を反映したものに強化する。
音声学習データ192を更新すると、制御部110は、学習部170として機能し、更新後の音声学習データ192に基づいてユーザの音声を学習する(ステップS803)。具体的に説明すると、制御部110は、ユーザの音声の最新の特徴が反映された音声学習データ192を教師データとして用いて音声の特徴を再学習し、再学習した結果を示す音声識別データ194を、対応するユーザのIDに紐付けて学習データ記憶部190に記憶させる。以上により、図8に示した音声学習処理は終了する。
図6に戻って、ステップS6において、顔識別における適合度が低く、且つ、音声識別における適合度が高い場合(ステップS6;顔:低、音声:高)、制御部110は、個人の顔を学習する(ステップS9)。この場合は、顔識別における適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されておらず、且つ、音声識別における適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されている場合であって、具体的にはユーザの顔が以前とは変化した場合に相当する。ステップS9における顔学習処理の詳細については、図9に示すフローチャートを参照して説明する。
図9に示す顔学習処理を開始すると、制御部110は、ユーザの顔の特徴量を抽出する(ステップS901)。具体的に説明すると、制御部110は、ステップS1で検出された顔画像における輝度の分布を解析することにより、目、鼻、口、耳等により形成される顔の特徴量を抽出する。
顔の特徴量を抽出すると、制御部110は、更新部160として機能し、学習データ記憶部190に記憶された顔学習データ191を更新する(ステップS902)。具体的に説明すると、制御部110は、抽出した特徴量により、ステップS4での音声識別により識別された個人のIDと紐付けられた顔学習データ191を更新する。これにより、制御部110は、学習データ記憶部190に記憶された顔学習データ191を、ユーザの顔の最新の特徴を反映したものに強化する。
顔学習データ191を更新すると、制御部110は、学習部170として機能し、更新後の顔学習データ191に基づいてユーザの顔を学習する(ステップS903)。具体的に説明すると、制御部110は、ユーザの顔の最新の特徴が反映された顔学習データ191を教師データとして用いて顔の特徴を再学習し、再学習した結果を示す顔識別データ193を、対応するユーザのIDに紐付けて学習データ記憶部190に記憶させる。以上により、図9に示した顔学習処理は終了する。
図6に戻って、ステップS6において、顔識別における適合度と音声識別における適合度とがどちらも高い場合(ステップS6;顔:高、音声:高)、制御部110は、初期登録、音声学習処理、及び、顔学習処理のいずれの処理も実行しない。この場合は、顔識別と音声識別とのどちらにおいても適合度が閾値よりも高いユーザが学習データ記憶部190に記憶されている場合に相当する。
ステップS6において、顔識別における適合度と音声識別における適合度とのうちの少なくとも一方が高い場合、すなわち顔識別と音声識別とのうちの少なくとも一方によりユーザが識別された場合、制御部110は、動作制御部130として機能し、識別されたユーザとの対話文を生成して音声出力する(ステップS10)。具体的に説明すると、制御部110は、識別されたユーザとコミュニケーションするための対話文を、出力音声データ181に記憶されているテキストを組み合わせて生成し、生成した対話文に対応する音声を合成して音声出力部118から出力する。これにより、制御部110は、識別されたユーザとコミュニケーションを図る。
その後、制御部110は、処理をステップS1に戻し、ステップS1からステップS10の処理を繰り返す。このように、制御部110は、ロボット100の周囲のユーザとコミュニケーションしながら、ユーザの顔画像データ及び音声データを取得し、学習データ記憶部190に記憶された顔学習データ191及び音声学習データ192を更新する。
以上説明したように、実施形態1に係るロボット100及び識別装置120は、顔識別部140と音声識別部150とを備え、一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、一方の識別部に対応する学習データを更新し、更新された学習データに基づいて一方の識別部における個人の識別方法を学習する。このように、他方の識別部により個人を識別しつつ、一方の識別部により個人が識別されなかった場合にその個人の特徴を学習し直すため、ロボット100及び識別装置120は、成長、加齢又はその他の要因により個人の特徴が時間の経過と共に変化した場合でも、個人を適切に識別することができる。
また、実施形態1に係るロボット100は、種類が異なる2つの識別部を備えているため、一方の識別部でユーザを識別できない状況であっても、他方の識別部でユーザを識別できた場合に、ユーザとコミュニケーションをとりながら、一方の識別部の識別方法を学習するための学習データを収集することができる。そのため、ロボット100は、自然な振る舞いの中で、またユーザに意識させること無く、識別精度を向上させるための多数の学習データを収集することができる。
また、実施形態1に係るロボット100及び識別装置120は、個人が識別されなかった一方の識別部における個人の識別方法を、一方の識別部により取得された顔画像データ又は音声データを用いて学習する。これにより、2つの識別部のうちの個人が識別されなかった識別部における識別の精度を的確に向上させることができる。特に、実施形態1に係るロボット100及び識別装置120は、個人が識別されなかった一方の識別部における個人の識別方法を、一方の識別部により個人が識別されなかったときにその個人の識別に用いられたデータを用いて学習する。そのため、個人から取得されたデータを有効に利用しつつ、識別の精度を向上させることができる。
また、実施形態1において、学習データ記憶部190には、複数の個人のそれぞれについて、顔学習データ191と音声学習データ192とが紐付けられて記憶されており、更新部160は、一方の識別手段により個人が識別されず、且つ、他方の識別手段により個人が識別された場合、学習データ記憶部190において複数の個人のそれぞれについて記憶された顔学習データ191と音声学習データ192とのうちの、他方の識別手段により識別された個人に紐付けられた一方の学習データを更新する。これにより、一方の識別部により個人が識別されなかった場合であっても、他方の識別部により個人が識別されているため、複数の個人のうちのどの個人の学習データ191が更新対象であるかを的確に特定することができる。
(実施形態2)
次に、本発明の実施形態2について説明する。
上記実施形態1では、更新部160は、顔識別部140による顔識別に用いられた顔画像データに基づいて、学習データ記憶部190に記憶された顔学習データ191を更新した。また、更新部160は、音声識別部150による音声識別に用いられた音声データに基づいて、学習データ記憶部190に記憶された音声学習データ192を更新した。しかしながら、顔識別に用いられた顔画像データ、又は、音声識別に用いられた音声データだけでは、学習データを更新するためのデータとして十分でない場合もある。そこで、実施形態2では、学習データを更新するために適したデータを取得するために、動作制御部130は、更新部160により更新されるデータを取得し易くするための動作をロボット100に実行させる。
具体的に説明すると、動作制御部130は、顔識別部140と音声識別部150との一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、他方の識別部により識別された個人と対話するための動作をロボット100に実行させる。例えば、動作制御部130は、「あなたは昨日、何をしていましたか?」、「今日の予定は何ですか?」等のような識別された個人と対話するための音声を音声出力部118から出力する。或いは、動作制御部130は、可動部114を動かす、又は表示部117に画像を表示させて個人の注意を引くことにより、個人と対話をしても良い。
更新部160は、一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、ロボット100により実行された動作に対する個人の応答に基づいて、学習データ記憶部190に記憶された顔学習データ191又は音声学習データ192を更新する。具体的に説明すると、ロボット100により実行された動作に対して、識別された個人は、例えばロボット100と対話をするため音声を発する、ロボット100の方に顔を向ける等のように応答する。更新部160は、このような個人との対話の中で、個人の顔画像データ又は音声データを、撮像部115a又は音センサ115bを介して取得する。そして、更新部160は、取得した顔画像データ又は音声データから特徴を抽出し、抽出した特徴により学習データ記憶部190に記憶された顔学習データ191又は音声学習データ192を更新する。
図10に、実施形態2に係るロボット100により実行される音声学習処理の流れを示す。実施形態2に係るロボット100は、図6に示した処理のステップS8において、実施形態1において図8に示した音声学習処理の代わりに、図10に示す音声学習処理を実行する。
図10に示す音声学習処理を開始すると、制御部110は、動作制御部130として機能し、ユーザに対する対話文を生成し、対応する音声を出力する(ステップS811)。具体的に説明すると、制御部110は、動作データ記憶部180に記憶された出力音声データ181のうちから、雑談等の任意の内容のテキストを取得する。そして、制御部110は、取得したテキストを音声合成により音声に変換し、合成した音声を音声出力部118から出力する。
音声を出力すると、制御部110は、出力した音声に応答してユーザが発する音声を音センサ115bにより取得する(ステップS812)。そして、制御部110は、取得した音声を認識し、認識した音声の内容に応答する応答文を生成して、対応する音声を出力する(ステップS813)。具体的に説明すると、制御部110は、ユーザから取得した音声に対する応答として不自然でない内容のテキストを出力音声データ181から取得する。そして、制御部110は、取得したテキストを音声合成により音声に変換して、合成した音声を音声出力部118から出力する。このようにして、制御部110は、顔を識別したユーザと対話する。制御部110は、ステップS812及びステップS813の処理を適宜繰り返す。これにより、制御部110は、ユーザと対話しながら、音声を学習するために適したユーザの音声を収集する。
ステップS812及びステップS813の処理を繰り返す中でユーザの音声を取得すると、制御部110は、更新部160として機能し、ユーザの音声の特徴量を抽出し(ステップS814)、学習データ記憶部190に記憶された音声学習データ192を更新する(ステップS815)。音声学習データ192を更新すると、制御部110は、学習部170として機能し、更新後の音声学習データ192に基づいてユーザの音声を学習する(ステップS816)。ステップS814からステップS816の処理は、図8に示したステップS801からステップS803の処理と同様であるため、説明を省略する。以上により、図10に示した音声学習処理は終了する。
なお、ステップS9における顔学習処理についても、図10に示した音声学習処理と同様に説明することができる。すなわち、制御部110は、ステップS9において、実施形態1において図9に示した顔学習処理の代わりに、ユーザと対話をする中で顔画像データを取得し、取得した顔画像データに基づいて顔学習データ191を更新する。
このように、実施形態2に係るロボット100は、一方の識別部により個人が識別されず、且つ、他方の識別部により個人が識別された場合、更新部160が学習データを更新することに先立って、他方の識別部により識別された個人と対話するための動作をロボット100に実行させる。そして、ロボット100は、識別された個人と対話する中で取得された顔画像データ又は音声データに基づいて、学習データ記憶部190に記憶された学習データを更新する。これにより、顔識別に用いられた顔画像データ、又は、音声識別に用いられた音声データだけを用いるよりも、学習データとしてより適した、個人の特徴を顕著に表すデータを取得し易くなる。そのため、ロボット100は、ユーザに違和感を持たれない自然な振る舞いの中で、より質の良い学習データを収集することができる。
(実施形態3)
次に、本発明の実施形態3について説明する。
上記実施形態1,2では、学習部170は、1人の個人に対して、顔識別部140における識別方法と音声識別部150における識別方法とをそれぞれ1つずつ学習した。しかしながら、同じユーザでも、状況に応じて顔又は音声の特徴が変化する場合がある。そのため、実施形態3では、学習部170は、顔識別部140と音声識別部150とのそれぞれにおける個人の識別方法を、複数の所定の条件の各々が成立しているときに、条件ごとに学習する。
実施形態3に係るロボット100は、図4に示した学習データ記憶部190に代えて、例えば図11に示す学習データ記憶部190aを備える。図11に示すように、学習データ記憶部190aは、複数の個人のそれぞれについて、顔学習データ191と音声学習データ192と顔識別データ193と音声識別データ194とを、「春」と「春以外」という2つの時期に分けて記憶している。ここで、「春」とは例えば3月から6月の期間に相当し、「春以外」とはそれ以外の期間に相当する。しかしながら、時期の定義は適宜変更することができる。
このように、「春」と「春以外」とで学習データ及び識別データを分けるのは、「春」の時期には花粉症等の要因でユーザがマスクを装着していることが多く、マスクを装着している場合とマスクを装着していない場合とで、同じユーザであっても顔画像の特徴が異なるからである。また、音声についても同様に、花粉症等の要因で、同じユーザであっても特徴が異なる場合があるからである。
更新部160は、顔識別部140と音声識別部150とのうちの一方の識別部により個人が識別されず、且つ、他方の識別部によりその個人が識別された場合、一方の識別部により取得された顔画像データ又は音声データに基づいて、学習データ記憶部190aに記憶された顔学習データ191又は音声学習データ192を更新する。このとき、更新部160は、顔画像データ又は音声データが取得された時期が「春」であるか「春以外」であるかに応じて、互いに異なる学習データを更新する。
具体的に、名前が「AAA」である個人の顔学習データ191を更新する場合について説明する。なお、音声学習データ192を更新する場合についても同様に説明可能である。更新部160は、顔画像データが取得された時期が「春」である場合には、図11における「データA01」を更新し、顔画像データが取得された時期が「春以外」である場合には、図11における「データA11」を更新する。学習部170は、学習データ記憶部190aに記憶された2通りの顔学習データ191のそれぞれに基づいて、互いに異なる2通りの識別方法を学習する。学習された2通りの学習方法は、それぞれ異なる2通りの顔識別データ193(例えば図11における「データA03」と「データA13」)として学習データ記憶部190aに記憶される。
顔識別部140は、撮像部115aによりその個人を表す新たな顔画像データを取得すると、学習部170により学習された2通りの識別方法のうちの、新たな顔画像データが取得された時期に対応する一の識別方法に基づいて、その個人を識別する。例えば、顔識別部140は、新たな顔画像データが「春」に取得された場合、「春」用の識別方法に基づいて個人を識別し、新たな顔画像データが「春以外」に取得された場合、「春以外」用の識別方法に基づいて個人を識別する。
このように、実施形態3に係るロボット100及び識別装置120は、顔識別部140及び音声識別部150における個人の識別方法を、時期に応じて複数通り学習する。そして、その個人を表す新たな顔画像データ又は音声データを取得すると、複数通りの識別方法のうちの、新たな顔画像データ又は音声データが取得された時期に対応する一の識別方法に基づいて、その個人を識別する。これにより、個人の特徴が状況に応じて変化しても識別に失敗することを抑制することができるため、識別の精度をより向上させることができる。
なお、学習データ記憶部190aに記憶される学習データの時期の分け方は、「春」又は「春以外」に限らず、「昼」又は「夜」で分けても良い。或いは、例えば周囲の環境、ユーザの状況等のような、時期以外の様々な条件によって学習データを分けても良い。また、学習部170は、顔識別部140と音声識別部150とのうちのいずれか一方の識別部のみにおける個人の識別方法を所定の条件ごとに学習する一方で、他方の識別部における個人の識別方法を、条件ごとに分けずに、すなわち実施形態1,2と同様の方法で識別方法を学習しても良い。言い換えると、学習部170は、複数の識別部のうちの少なくとも1つの識別部における個人の識別方法を、複数の所定の条件の各々が成立しているときに、所定の条件ごとに学習する。そして、少なくとも1つの識別部が、個人を表す新たなデータを取得すると、学習部170により学習された複数の所定の条件に対応する複数の識別方法のうちの、新たなデータが取得されたときの条件に対応する一の識別方法に基づいて、個人を識別する。
(変形例)
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記実施形態では、家庭用のロボット100が識別装置120を備えていた。しかしながら、本発明において、識別装置120は、ロボット100以外の機器に設置され、ロボット100以外の用途に使用されても良い。例えば、識別装置120は、建物又は部屋の入口に設置され、建物又は部屋に入るユーザを識別(認証)する用途に使用されても良い。或いは、識別装置120は、パーソナルコンピュータ、スマートフォン等の情報機器に搭載され、情報機器を使用するユーザを識別(認証)する用途に使用されても良い。
上記実施形態では、ロボット100が、識別装置120の一部として学習データ記憶部190及び学習部170を備えていた。しかしながら、本発明において、学習データ記憶部190及び学習部170は、ロボット100に備えられていなくても良い。言い換えると、顔識別部140及び音声識別部150を備える装置と、学習データ記憶部190及び学習部170を備える装置とが、別であっても良い。
例えば、図12に示すように、学習データ記憶部190及び学習部170は、ロボット100aには備えられず、ロボット100aの外部の学習サーバ200に備えられていても良い。学習サーバ200は、例えばクラウドサーバ等のような、ロボット100aと広域ネットワークで通信可能に接続されたサーバである。この場合、ロボット100aにおける顔識別部140、音声識別部150及び更新部160と、学習サーバ200における学習部170及び学習データ記憶部190と、が協働することにより、識別装置120として機能する。
図12に示すロボット100aにおいて、更新部160は、無線通信部116を介して学習サーバ200と通信することにより、学習データ記憶部190に記憶されている顔学習データ191又は音声学習データ192を更新する。学習サーバ200において、学習部170は、学習データ記憶部190に記憶されている顔学習データ191又は音声学習データ192(図3参照)が更新されると、更新後の顔学習データ191又は音声学習データ192に基づいて、顔識別部140及び音声識別部150における識別方法を学習する。ロボット100aにおいて、顔識別部140は、学習部170により学習された結果を示す顔識別データ193を学習サーバ200から受信し、受信した顔識別データ193に基づいて個人を識別する。また、音声識別部150は、学習部170により学習された結果を示す音声識別データ194を学習サーバ200から受信し、受信した音声識別データ194に基づいて個人を識別する。このように、相対的に負荷が大きい学習部170による学習処理をロボット100aの外部で実行することにより、ロボット100aでの計算負荷を軽減することができ、ロボット100aの構成を簡略化することができる。
なお、図12に示すように、学習部170により学習された結果を、ロボット100a以外の他のロボット100bが利用しても良い。言い換えると、ロボット100aと同様の機能を有する他のロボット100bが、学習サーバ200で学習された顔識別データ193及び音声識別データ194を学習サーバ200から受信し、受信した顔識別データ193及び音声識別データ194に基づいて個人を識別しても良い。このように、学習のもとになる顔画像データ及び音声データを収集した装置(ロボット100a)とは異なる装置(ロボット100b)でも学習結果を利用できるようにすることで、利便性が向上する。
上記実施形態では、顔識別部140及び音声識別部150は、それぞれ顔画像データ及び音声データに基づいて、学習データ記憶部190に学習データが記憶された複数の個人のうちから個人を識別した。しかしながら、学習データ記憶部190には1人の個人の学習データのみ記憶されていても良い。この場合、顔識別部140及び音声識別部150は、顔又は音声が検出された個人が、学習データ記憶部190に学習データが記憶された1人の個人に該当するか否かを識別することにより、個人を認証する。言い換えると、顔識別部140及び音声識別部150による個人の識別は、いわゆる個人を認証することを含んでも良い。
上記実施形態では、顔識別部140は、顔画像により個人を識別し、音声識別部150は、音声により個人を識別した。しかしながら、顔識別部140及び音声識別部150による識別の組み合わせは、これに限らない。顔識別部140及び音声識別部150は、それぞれ互いに異なる特徴を表すデータであれば、顔画像又は音声以外の特徴を表すデータに基づいて個人を識別しても良い。
また、ロボット100及び識別装置120は、顔識別部140及び音声識別部150以外の第3の識別部を備えていても良い。第3の識別部は、一例として、網膜により個人を識別する網膜識別部であっても良い。ロボット100及び識別装置120が3つ以上の識別部(識別手段)を備える場合であっても、上記実施形態と同様の構成を適用することができる。すなわち、ロボット100及び識別装置120は、個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する3つ以上の識別部を備えていても良い。この場合、学習部170は、3つ以上の識別部のうちのいずれか1つ以上の識別部により個人が識別されず、且つ、3つ以上の識別部のうちの残りの1つ以上の識別部により個人が識別された場合、個人が識別されなかったいずれか1つ以上の識別部における個人の識別方法を学習する。
具体的に説明すると、3つ以上の識別部のうちの2つ以上の識別部により個人が識別されず、且つ、残りの1つの識別部により個人が識別された場合、学習部170は、個人が識別されなかった2つ以上の識別部のそれぞれにおける個人の識別方法を学習しても良い。この場合、個人が識別されなかった2つ以上の識別部が上記実施形態における一方の識別部に対応し、個人が識別された1つの識別部が上記実施形態における他方の識別部に対応するとして、上記実施形態と同様に説明可能である。
或いは、3つ以上の識別部のうちの1つの識別部により個人が識別されず、且つ、残りの2つ以上の識別部により個人が識別された場合、学習部170は、個人が識別されなかった1つの識別部における個人の識別方法を学習しても良い。この場合、個人が識別されなかった1つの識別部が上記実施形態における一方の識別部に対応し、個人が識別された2つ以上の識別部が上記実施形態における他方の識別部に対応するとして、上記実施形態と同様に説明可能である。
また、更新部160は、学習データ記憶部190に記憶された顔学習データ191又は音声学習データ192を更新する際に、現時点から所定時間よりも過去に取得された学習データを、学習部170により学習される教師データから除外しても良い。このように取得された時期が古いデータを教師データから除外することで、ユーザの現在の状態に対しての識別性能を向上させることが可能になる。
上記実施形態では、ロボット100は、犬を模したロボットであった。しかしながら、本発明に係るロボット100は、どのような形状を有していても良い。例えば、本発明に係るロボット100は、外観的に他の動物を模していても良いし、人間を模していても良い。また、表示部117は目部104以外の場所に設けられていても良いし、撮像部115aは口部105以外の場所(例えば鼻部等)に設けられていても良い。その他の部位についても、上記実施形態で説明した形態に限らない。
上記実施形態では、制御部110において、CPUがROMに記憶されたプログラムを実行することによって、図3に示した各部として機能した。しかしながら、本発明において、制御部110は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、又は、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図3に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうちの、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。なお、これら専用のハードウェア及びCPUを含む各機能を実行する主体を総称してプロセッサと呼ぶことができる。
なお、本発明に係る機能を実現するための構成を予め備えた識別装置又はロボットとして提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る識別装置又はロボットとして機能させることもできる。すなわち、上記実施形態で例示した識別装置120又はロボット100,100aによる各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る識別装置又はロボットとして機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する複数の識別手段と、
前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記いずれかの識別手段における前記個人の識別方法を学習する学習手段と、
を備えることを特徴とする識別装置。
(付記2)
前記学習手段は、前記いずれかの識別手段における前記個人の識別方法を、前記複数の識別手段によりそれぞれ取得された複数のデータのうちの、前記いずれかの識別手段により取得されたデータを用いて学習する、
ことを特徴とする付記1に記載の識別装置。
(付記3)
前記いずれかの識別手段により前記個人の識別方法の学習に用いられたデータは、前記いずれかの識別手段により前記個人が識別されなかったときに前記個人の識別に用いられたデータである、
ことを特徴とする付記2に記載の識別装置。
(付記4)
前記個人の互いに異なる特徴をそれぞれ表す複数の学習データが紐付けて記憶された学習データ記憶手段と、
前記いずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記学習データ記憶手段に記憶された前記複数の学習データのうちの、前記いずれかの識別手段に対応する学習データを更新する更新手段と、
を更に備え、
前記学習手段は、前記更新手段により更新された前記学習データに基づいて、前記いずれかの識別手段における前記個人の識別方法を学習する、
ことを特徴とする付記1から3のいずれか1つに記載の識別装置。
(付記5)
前記更新手段は、前記いずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記複数の識別手段によりそれぞれ取得された複数のデータのうちの、前記いずれかの識別手段により取得されたデータに基づいて、前記学習データ記憶手段に記憶された前記いずれかの識別手段に対応する学習データを更新する、
ことを特徴とする付記4に記載の識別装置。
(付記6)
前記学習データ記憶手段には、複数の個人のそれぞれについて、前記複数の学習データが紐付けられて記憶され、
前記更新手段は、前記いずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記学習データ記憶手段において前記複数の個人のそれぞれについて記憶された前記複数の学習データのうちの、前記残りの識別手段により識別された前記個人に紐付けられた前記学習データを更新する、
ことを特徴とする付記4又は5に記載の識別装置。
(付記7)
前記複数の識別手段として、前記個人の顔を表す顔画像データを取得し、取得した前記顔画像データに基づいて前記個人を識別する顔識別手段と、前記個人の音声を表す音声データを取得し、取得した前記音声データに基づいて前記個人を識別する音声識別手段と、を備える、
ことを特徴とする付記1から6のいずれか1つに記載の識別装置。
(付記8)
前記顔識別手段は、前記顔画像データに複数の顔画像が含まれている場合、前記複数の顔画像のうちの、前記音声識別手段により前記音声データが取得された期間に唇が動いている顔画像を、前記音声データが取得された前記個人の顔画像であると判定する、
ことを特徴とする付記7に記載の識別装置。
(付記9)
前記学習手段は、前記複数の識別手段のうちの少なくとも1つの識別手段における前記個人の識別方法を、複数の所定の条件の各々が成立しているときに、前記所定の条件ごとに学習し、
前記少なくとも1つの識別手段は、前記個人を表す新たなデータを取得すると、前記学習手段により学習された前記複数の所定の条件に対応する複数の識別方法のうちの、前記新たなデータが取得されたときの条件に対応する一の識別方法に基づいて、前記個人を識別する、
ことを特徴とする付記1から8のいずれか1つに記載の識別装置。
(付記10)
個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する複数の識別手段と、
前記複数の識別手段のうちの少なくとも1つの識別手段により前記個人が識別された場合、前記個人に応じた動作を自装置に実行させる動作制御手段と、
前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記いずれかの識別手段における前記個人の識別方法を学習するための学習データを更新する更新手段と、
を備えることを特徴とするロボット。
(付記11)
前記動作制御手段は、前記いずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記残りの識別手段により識別された前記個人と対話するための動作を前記自装置に実行させ、
前記更新手段は、前記いずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記自装置により実行された前記動作に対する前記個人の応答に基づいて、前記学習データを更新する、
ことを特徴とする付記10に記載のロボット。
(付記12)
個人を表す互いに異なる複数のデータを取得し、取得した複数のデータのそれぞれに基づいて前記個人を識別し、
前記複数のデータのうちのいずれかのデータにより前記個人が識別されず、且つ、前記複数のデータのうちの残りのデータにより前記個人が識別された場合、前記いずれかのデータによる前記個人の識別方法を学習する、
ことを特徴とする識別方法。
(付記13)
コンピュータを、
個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する複数の識別手段、
前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記いずれかの識別手段における前記個人の識別方法を学習する学習手段、
として機能させるためのプログラム。
100,100a,100b…ロボット、101…頭部、102…胴体部、103…耳部、104…目部、105…口部、107…手部、108…足部、110…制御部、111…記憶部、112…バッテリ、113…駆動部、114…可動部、115…センサ部、115a…撮像部、115b…音センサ、116…無線通信部、117…表示部、118…音声出力部、120…識別装置、130…動作制御部、140…顔識別部、150…音声識別部、160…更新部、170…学習部、180…動作データ記憶部、181…出力音声データ、190,190a…学習データ記憶部、191…顔学習データ、192…音声学習データ、193…顔識別データ、194…音声識別データ、200…学習サーバ

Claims (3)

  1. 個人を表す互いに異なるデータをそれぞれ取得し、取得したデータに基づいて前記個人を識別する複数の識別手段と、
    前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記残りの識別手段により識別された前記個人と対話するための動作を自装置に実行させる動作制御手段と、
    前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記自装置により実行された前記動作に対する前記個人の応答に基づいて、前記いずれかの識別手段における前記個人の識別方法を学習するための学習データを更新する更新手段と、
    を備えることを特徴とするロボット。
  2. ロボットが実行する制御方法であって、
    個人を表す互いに異なるデータをそれぞれ取得しこれら取得されたデータに基づいて前記個人を識別する複数の識別部のうちのいずれかの識別部により前記個人が識別されず、且つ、前記複数の識別部のうちの残りの識別部により前記個人が識別された場合、前記残りの識別部により識別された前記個人と対話するための動作を前記ロボットに実行させる動作制御ステップと、
    前記複数の識別部のうちのいずれかの識別部により前記個人が識別されず、且つ、前記残りの識別部により前記個人が識別された場合、前記動作制御ステップにて実行された前記動作に対する前記個人の応答に基づいて、前記いずれかの識別部における前記個人の識別方法を学習するための学習データを更新する更新ステップと、
    を含むことを特徴とする制御方法。
  3. ロボットが備えるコンピュータを、
    個人を表す互いに異なるデータをそれぞれ取得しこれら取得されたデータに基づいて前記個人を識別する複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記複数の識別手段のうちの残りの識別手段により前記個人が識別された場合、前記残りの識別手段により識別された前記個人と対話するための動作を前記ロボットに実行させる動作制御手段、
    前記複数の識別手段のうちのいずれかの識別手段により前記個人が識別されず、且つ、前記残りの識別手段により前記個人が識別された場合、前記ロボットにより実行された前記動作に対する前記個人の応答に基づいて、前記いずれかの識別手段における前記個人の識別方法を学習するための学習データを更新する更新手段、
    として機能させるためのプログラム。
JP2018188897A 2018-10-04 2018-10-04 ロボット、制御方法、及び、プログラム Active JP7205148B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018188897A JP7205148B2 (ja) 2018-10-04 2018-10-04 ロボット、制御方法、及び、プログラム
CN201910886005.1A CN111002303B (zh) 2018-10-04 2019-09-19 识别装置、机器人、识别方法和存储介质
US16/591,538 US11514269B2 (en) 2018-10-04 2019-10-02 Identification device, robot, identification method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188897A JP7205148B2 (ja) 2018-10-04 2018-10-04 ロボット、制御方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2020057300A JP2020057300A (ja) 2020-04-09
JP7205148B2 true JP7205148B2 (ja) 2023-01-17

Family

ID=70052186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188897A Active JP7205148B2 (ja) 2018-10-04 2018-10-04 ロボット、制御方法、及び、プログラム

Country Status (3)

Country Link
US (1) US11514269B2 (ja)
JP (1) JP7205148B2 (ja)
CN (1) CN111002303B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200101221A (ko) * 2019-02-19 2020-08-27 삼성전자주식회사 사용자 입력 처리 방법 및 이를 지원하는 전자 장치
WO2020185973A1 (en) * 2019-03-11 2020-09-17 doc.ai incorporated System and method with federated learning model for medical research applications
FR3100070B1 (fr) * 2019-08-21 2021-09-24 Idemia Identity & Security France Procédé de reconnaissance biométrique à contrôle de dérive et installation associée
US11321447B2 (en) 2020-04-21 2022-05-03 Sharecare AI, Inc. Systems and methods for generating and using anthropomorphic signatures to authenticate users
US12039012B2 (en) 2020-10-23 2024-07-16 Sharecare AI, Inc. Systems and methods for heterogeneous federated transfer learning
CN113192530B (zh) * 2021-04-26 2023-08-22 深圳追一科技有限公司 模型训练、嘴部动作参数获取方法、装置、设备及介质
CN117012205A (zh) * 2022-04-29 2023-11-07 荣耀终端有限公司 声纹识别方法、图形界面及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189148A (ja) 2001-12-21 2003-07-04 Konica Corp 電子カメラ
JP2006263348A (ja) 2005-03-25 2006-10-05 Toshiba Corp 利用者識別装置、利用者識別方法および利用者識別プログラム
JP2007156974A (ja) 2005-12-07 2007-06-21 Kddi Corp 個人認証・識別システム
US20100198598A1 (en) 2009-02-05 2010-08-05 Nuance Communications, Inc. Speaker Recognition in a Speech Recognition System
US20140350924A1 (en) 2013-05-24 2014-11-27 Motorola Mobility Llc Method and apparatus for using image data to aid voice recognition

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4086024B2 (ja) * 2004-09-14 2008-05-14 ソニー株式会社 ロボット装置及びその行動制御方法
JP4752433B2 (ja) * 2005-10-03 2011-08-17 コニカミノルタホールディングス株式会社 モデリングシステム、モデリング方法およびプログラム
JP2016177393A (ja) * 2015-03-19 2016-10-06 カシオ計算機株式会社 情報処理装置、顔認識方法、及びプログラム
US10755195B2 (en) * 2016-01-13 2020-08-25 International Business Machines Corporation Adaptive, personalized action-aware communication and conversation prioritization
JP6549545B2 (ja) * 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム
JP6468274B2 (ja) * 2016-12-08 2019-02-13 カシオ計算機株式会社 ロボット制御装置、生徒ロボット、教師ロボット、学習支援システム、ロボット制御方法及びプログラム
JP6942472B2 (ja) * 2017-01-13 2021-09-29 キヤノン株式会社 映像認識装置、映像認識方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003189148A (ja) 2001-12-21 2003-07-04 Konica Corp 電子カメラ
JP2006263348A (ja) 2005-03-25 2006-10-05 Toshiba Corp 利用者識別装置、利用者識別方法および利用者識別プログラム
JP2007156974A (ja) 2005-12-07 2007-06-21 Kddi Corp 個人認証・識別システム
US20100198598A1 (en) 2009-02-05 2010-08-05 Nuance Communications, Inc. Speaker Recognition in a Speech Recognition System
US20140350924A1 (en) 2013-05-24 2014-11-27 Motorola Mobility Llc Method and apparatus for using image data to aid voice recognition

Also Published As

Publication number Publication date
JP2020057300A (ja) 2020-04-09
US20200110968A1 (en) 2020-04-09
US11514269B2 (en) 2022-11-29
CN111002303B (zh) 2023-03-28
CN111002303A (zh) 2020-04-14

Similar Documents

Publication Publication Date Title
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
JP6572943B2 (ja) ロボット、ロボットの制御方法及びプログラム
JP7400923B2 (ja) 情報処理装置および情報処理方法
US8321221B2 (en) Speech communication system and method, and robot apparatus
WO2017215297A1 (zh) 云端互动***及其多感知型智能机器人和感知互动方法
KR20200091839A (ko) 커뮤니케이션 장치, 커뮤니케이션 로봇 및 컴퓨터가 판독 가능한 기록 매체
JPWO2002099545A1 (ja) マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法
US20230266767A1 (en) Information processing apparatus, information processing method, and program
US11780098B2 (en) Robot, robot control method, and recording medium
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
US11325262B2 (en) Robot, robot control system, robot control method, and non-transitory storage medium
US11938625B2 (en) Information processing apparatus, information processing method, and program
JP2024009862A (ja) 情報処理装置、情報処理方法、およびプログラム
JP7459791B2 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R150 Certificate of patent or registration of utility model

Ref document number: 7205148

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150