JP2007156689A - 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット - Google Patents
光源位置検出装置、これを用いた顔認識装置及び自走式ロボット Download PDFInfo
- Publication number
- JP2007156689A JP2007156689A JP2005349119A JP2005349119A JP2007156689A JP 2007156689 A JP2007156689 A JP 2007156689A JP 2005349119 A JP2005349119 A JP 2005349119A JP 2005349119 A JP2005349119 A JP 2005349119A JP 2007156689 A JP2007156689 A JP 2007156689A
- Authority
- JP
- Japan
- Prior art keywords
- light source
- source position
- photographing
- face recognition
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】光源の位置を容易に検出することができる光源位置検出装置、これを用いた顔認識装置及び自走式ロボットを提供する。
【解決手段】顔認識機能を有する自走式ロボットを、顔認識対象者を撮影する前方カメラ13(顔画像撮影装置)と、前方カメラ13の撮影画像に基づいて顔認識を行うユーザー認識部(顔認識処理部)と、制御装置51(光源位置検出装置)と、前方カメラ13による撮影条件の情報を顔認識対象者に通知する撮影条件通知部66と、周囲の複数点を撮影する全方位カメラ11(周辺状況撮影装置)と、全方位カメラ11の撮影画像に基づいて光源位置を判定する光源位置判定部65とを有する構成とする。光源位置判定部65を、全方位カメラ11の撮影画像の中での明度の高い領域を検出し、全方位カメラ11の撮影範囲のうち明度の高い領域に対応する領域を光源位置と判断する構成とする。
【選択図】図3
【解決手段】顔認識機能を有する自走式ロボットを、顔認識対象者を撮影する前方カメラ13(顔画像撮影装置)と、前方カメラ13の撮影画像に基づいて顔認識を行うユーザー認識部(顔認識処理部)と、制御装置51(光源位置検出装置)と、前方カメラ13による撮影条件の情報を顔認識対象者に通知する撮影条件通知部66と、周囲の複数点を撮影する全方位カメラ11(周辺状況撮影装置)と、全方位カメラ11の撮影画像に基づいて光源位置を判定する光源位置判定部65とを有する構成とする。光源位置判定部65を、全方位カメラ11の撮影画像の中での明度の高い領域を検出し、全方位カメラ11の撮影範囲のうち明度の高い領域に対応する領域を光源位置と判断する構成とする。
【選択図】図3
Description
本発明は、光源の位置を検出する光源位置検出装置、これを用いた顔認識装置及び自走式ロボットに関する。
近年、画像処理技術の発展に伴い、撮像装置が撮影した画像から人物の顔を認識する顔認識装置が実用化されつつある。
このような顔認識装置としては、例えば後記の特許文献1に記載の顔画像識別装置が知られている。
特開2003−296711号公報
このような顔認識装置としては、例えば後記の特許文献1に記載の顔画像識別装置が知られている。
しかしながら、撮像装置の撮影条件は常に一定とは限らず、場合によっては、逆光状態や横光状態となってしまうことがある。逆光状態で撮影した画像では、認識対象人物の顔の明るさが不足するので、顔を正しく認識することが困難である。また、横光状態で撮影した画像では、認識対象人物の顔に明るい部分と暗い部分とができてしまうので、逆光の場合よりもさらに顔の認識が困難となってしまう。
特許文献1に記載の顔画像識別装置は、顔画像における顔の明るさと他の部分の明るさとの差が所定値以上に大きい場合には、逆光状態であると判断して、認識対象人物に動作を停止する旨を伝えたのちに動作を停止する構成とされている。
しかし、この顔画像識別装置では、逆光状態になった場合には単に動作を停止するだけなので、認識対象人物がどのような条件であれば顔認識を行うことができるかを知ることができず、対処が困難であった。
また、この顔画像識別装置では、横光状態を検出することはできないので、横光状態である場合には、そのまま顔認識処理が継続されててしまい、結果的に顔認識処理に失敗してしまう可能性がある。
このため、顔認識を正確に行うためには、撮像装置に対する光源の位置を把握している必要がある。
しかし、この顔画像識別装置では、逆光状態になった場合には単に動作を停止するだけなので、認識対象人物がどのような条件であれば顔認識を行うことができるかを知ることができず、対処が困難であった。
また、この顔画像識別装置では、横光状態を検出することはできないので、横光状態である場合には、そのまま顔認識処理が継続されててしまい、結果的に顔認識処理に失敗してしまう可能性がある。
このため、顔認識を正確に行うためには、撮像装置に対する光源の位置を把握している必要がある。
本発明は、上記問題を解決するためになされたもので、光源の位置を容易に検出することができる光源位置検出装置、これを用いた顔認識装置及び自走式ロボットを提供することを目的とする。
上記課題を解決するために、本発明は以下の手段を採用する。
本発明は、周囲の複数点を撮影する周辺状況撮影装置と、該周辺状況撮影装置の撮影画像に基づいて光源位置を判定する光源位置判定部とを有している光源位置検出装置を提供する。
本発明は、周囲の複数点を撮影する周辺状況撮影装置と、該周辺状況撮影装置の撮影画像に基づいて光源位置を判定する光源位置判定部とを有している光源位置検出装置を提供する。
このように構成される光源位置検出装置では、周辺状況撮影装置によって撮影された周囲の複数点についての撮影画像に基づいて光源位置が検出される。すなわち、この光源位置検出装置では、光源の検出範囲が広いので、光源の位置を容易に検出することができる。
ここで、周辺状況撮影装置としては、例えば広角の撮像装置や全方位カメラ等、周囲の複数点を同時に撮影可能なものを用いてもよく、複数の撮像装置をそれぞれ異なる方向に向けた構成のものを用いてもよく、また、撮像装置の向きを変更することによって周囲の複数点を撮影する構成のものを用いても良い。
ここで、周辺状況撮影装置としては、例えば広角の撮像装置や全方位カメラ等、周囲の複数点を同時に撮影可能なものを用いてもよく、複数の撮像装置をそれぞれ異なる方向に向けた構成のものを用いてもよく、また、撮像装置の向きを変更することによって周囲の複数点を撮影する構成のものを用いても良い。
前記光源位置判定部が、前記周辺状況撮影装置の撮影画像の中での明度の高い領域を検出し、前記周辺状況撮影装置の撮影範囲のうち前記明度の高い領域に対応する領域を光源位置と判断する構成とされていても良い。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像の中での明度に基づいて光源位置を検出するので、光源位置の検出を確実に行うことができる。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像の中での明度に基づいて光源位置を検出するので、光源位置の検出を確実に行うことができる。
前記光源位置判定部が、前記周辺状況撮影装置の撮影画像の明度の分布の中心を求め、前記周辺状況撮影装置の撮影範囲のうち前記明度の分布の中心に対応する位置を前記光源位置と判断する構成とされていても良い。
この場合には、周辺状況撮影装置の撮影画像における明度の分布の中心に対応する位置が光源位置として判断されるので、光源位置の検出精度が高い。
この場合には、周辺状況撮影装置の撮影画像における明度の分布の中心に対応する位置が光源位置として判断されるので、光源位置の検出精度が高い。
前記光源位置判定部が、前記周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、該各検出領域についてそれぞれ明度を検出し、前記周辺状況撮影装置の撮影範囲のうち最も明度の高い前記検出領域に対応する位置を光源位置と判断する構成とされていても良い。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、各検出領域間での明度の比較を行うことで光源位置を検出する。
これにより、光源位置判定部は、撮影画像の一部のみについて明度の算出を行えば良いので、速やかに光源位置の判定を行うことができる。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、各検出領域間での明度の比較を行うことで光源位置を検出する。
これにより、光源位置判定部は、撮影画像の一部のみについて明度の算出を行えば良いので、速やかに光源位置の判定を行うことができる。
また、本発明に係る光源位置検出装置は、前記光源位置判定部が、前記周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、該各検出領域についてそれぞれ明度を検出し、前記周辺状況撮影装置の撮影画像上に、前記周辺状況撮影装置の撮影範囲の中心から前記各検出領域に向う明度ベクトルを設定し、該各明度ベクトルの大きさを対応する前記検出領域の明度に比例した大きさとして、前記各明度ベクトルを合成した合成明度ベクトルの向く方向を、光源位置と判断する構成とされていても良い。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、各検出領域間での明度の比較を行うことで光源位置を検出する。
これにより、光源位置判定部は、撮影画像の一部のみについて明度の算出を行えば良いので、速やかに光源位置の判定を行うことができる。
この場合には、光源位置判定部が、周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、各検出領域間での明度の比較を行うことで光源位置を検出する。
これにより、光源位置判定部は、撮影画像の一部のみについて明度の算出を行えば良いので、速やかに光源位置の判定を行うことができる。
また、本発明は、顔認識対象者を撮影する顔画像撮影装置と、該顔画像撮影装置の撮影画像に基づいて顔認識を行う顔認識処理部と、請求項1から5のいずれかに記載の光源位置検出装置と、前記顔画像撮影装置による撮影条件の情報を前記顔認識対象者に通知する撮影条件通知部とを有し、該撮影条件通知部が、前記光源位置検出装置の出力に基づいて、前記顔画像装置の撮影条件が逆光状態または横光状態にあるかどうかを判定し、前記撮影条件が逆光状態または横光状態にある場合には、その情報を前記顔認識対象者に通知する顔認識装置を提供する。
このように構成される顔認識装置では、顔画像撮影装置の撮影条件が逆光状態または横光状態にある場合には、撮影条件通知部によって顔認識対象者にその旨が通知される。
これにより、顔認識対象者が撮影条件を適切に調整することが可能となり、顔認識装置による顔認識を良好に行うことができる。
ここで、撮影条件通知部は、顔認識対象者に対して音声によって撮影条件を通知する構成としてもよく、また、ディスプレイや通知ランプ等を用いて視覚的に撮影条件を通知する構成としても良い。
また、顔画像撮影装置を、光源位置検出装置の周辺状況撮影装置として用いても良い。この場合には、撮影装置の設置数が少なくて済むので、装置コストが低くて済む。
これにより、顔認識対象者が撮影条件を適切に調整することが可能となり、顔認識装置による顔認識を良好に行うことができる。
ここで、撮影条件通知部は、顔認識対象者に対して音声によって撮影条件を通知する構成としてもよく、また、ディスプレイや通知ランプ等を用いて視覚的に撮影条件を通知する構成としても良い。
また、顔画像撮影装置を、光源位置検出装置の周辺状況撮影装置として用いても良い。この場合には、撮影装置の設置数が少なくて済むので、装置コストが低くて済む。
また、本発明は、本発明に係る顔認識装置を有している自走式ロボットを提供する。
このように構成される自走式ロボットでは、顔認識を良好に行うことができる。
このように構成される自走式ロボットでは、顔認識を良好に行うことができる。
本発明に係る光源位置検出装置によれば、光源の位置を容易に検出することができる。
また、本発明に係る顔認識装置及びこれを用いた自走式ロボットでは、光源位置を把握することができるので、顔認識を良好に行うことができる。
また、本発明に係る顔認識装置及びこれを用いた自走式ロボットでは、光源位置を把握することができるので、顔認識を良好に行うことができる。
以下に、本発明に係る自走式ロボット(以下、単に「ロボット」という。)の一実施形態について、図面を参照して説明する。
図1は、本発明の一の実施形態に係るロボットの正面図、図2は、図1に示したロボットの左側面図である。
図1および図2に示すように、ロボット本体1には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
図1は、本発明の一の実施形態に係るロボットの正面図、図2は、図1に示したロボットの左側面図である。
図1および図2に示すように、ロボット本体1には、頭部2と、この頭部2を下方から支持する胸部3と、この胸部3の右側に設けられた右腕部4a、胸部3の左側に設けられた左腕部4bと、胸部3の下方に接続された腰部5と、この腰部5の下方に接続されたスカート部6と、このスカート部6の下方に接続された脚部7とが設けられている。
頭部2には、頭頂部近傍に全方位カメラ11(周辺状況撮影装置)が一つ設けられている。全方位カメラ11は、例えば、軸線を略垂直にして設けられる双曲面ミラーと、この双曲面ミラーの頂点に対向配置されるカメラ本体とを有している。この全方位カメラ11では、双曲面ミラーに対してその軸線回りの全方向から入射した光が、双曲面ミラーによって反射されてカメラ本体に入射するので、全方位カメラ11の撮影画像P(図4参照)には、カメラ本体の撮像範囲の中心Cと同軸な円環状の領域に、周囲360度の景色が同時に写り込む。
この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図1に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
この全方位カメラ11の外周に沿って複数の赤外線LED12が所定の間隔で円環上に配置されている。
頭部2の前面の中央近傍には、図1に示すように、前方を撮像するための前方カメラ13が正面視して右側に一つ、マイクロフォン14が正面視して左側に一つ、それぞれ設けられている。
胸部3の前面の中央近傍には、モニタ15が一つ設けられている。このモニタ15の上方には、人を検知するための超音波距離センサ16が一つ設けられている。モニタ15の下方には、電源スイッチ17が一つ設けられている。超音波距離センサ16の上方には、2つのスピーカ18が左右に一つずつ設けられている。また、図2に示すように、胸部3の背面には、荷物を収納することができるランドセル部33が設けられている。ランドセル部33には、上部に設けたヒンジ周りに回動可能な開閉扉33aが設けられている。図1に示すように、胸部3の左右の肩部には、マンマシンインターフェースとして機能する肩スイッチ19がそれぞれ一つずつ設けられている。肩スイッチ19には、例えば、タッチセンサが採用されている。
右腕部4aおよび左腕部4bには、多関節構造が採用されている。右腕部4a、左腕部4bにおいて、胸部3との接続部近傍には、体や物の挟み込みを検知して腕の動作を止めるための脇スイッチ20がそれぞれ設けられている。図1に示すように、右腕部4aの手のひら部分には、マンマシンインターフェースとして機能する握手スイッチ21が内蔵されている。これら脇スイッチ20や握手スイッチ21には、例えば、押圧センサが採用される。
腰部5の前面の中央近傍には、人を検知するための超音波距離センサ22が左右に一つずつ設けられている。これら超音波距離センサ22の下方には、複数の赤外線センサ23が配列されたセンサ領域24が設けられている。これら赤外線センサ23は、ロボット本体1の下方前方にある障害物等を検出するためのものである。図1および図2に示すように、腰部5の下方には、前面および背面において、音源方向を検出するためのマイクロフォン25が左右に一つずつ、計4つ設けられている。図2に示すように、腰部5の側面の左右には、本体を持ち上げるときに使用する取手部26がそれぞれ一つずつ設けられている。取手部26は、凹所とされており、操作者の手が挿入できるようになっている。
スカート部6の前面下方には、段差を検出するための赤外線センサ27が、中央および左右に計3つ設けられている。図2に示すように、スカート部6の背面には、充電コネクタ28が設けられている。
図1に示すように、脚部7の前面には、側方の距離を検出するための赤外線センサ29が左右に一つずつ設けられている。これら赤外線センサ29は、主に段差検出に用いられるものである。
図2に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
上述したロボットにおいて、胸部3の超音波距離センサ16、腰部5の超音波距離センサ22およびマイクロフォン25は、ロボット周辺にいる人物を検知する人検知センサ34として機能する。
図2に示すように、脚部7の背面には、充電ステーションにロボット本体1を位置固定するためのフック30が設けられている。脚部7は、走行用車輪31および4つのボールキャスタ32を備えた台車とされている。
上述したロボットにおいて、胸部3の超音波距離センサ16、腰部5の超音波距離センサ22およびマイクロフォン25は、ロボット周辺にいる人物を検知する人検知センサ34として機能する。
このようなロボットは、ロボット本体1に内蔵されたバッテリからの電源供給により、作業空間を自立的に移動することが可能な構成を備えており、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でロボットの所有者や操作者などのユーザの生活を補助・支援・介護するための各種サービスを提供するために用いられる。
そのため、ロボットは、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。このような機能は、例えば、後述するロボット本体1の内部に内蔵されたマイクロコンピュータ等からなる制御装置により実現されるものである。制御装置には、図1および図2に示した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。なお、ロボット本体1の形状としては、図1および図2に示した形状に限られず、愛玩用に動物を模したものなど、種々のものを採用することが可能である。
そのため、ロボットは、ユーザとの会話を実現させる会話機能のほか、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。このような機能は、例えば、後述するロボット本体1の内部に内蔵されたマイクロコンピュータ等からなる制御装置により実現されるものである。制御装置には、図1および図2に示した各種カメラや各種センサ等が接続されており、カメラからの画像情報やセンサからのセンサ検出情報を取得し、これらの情報に基づいて各種プログラムを実行することにより、上述した各種機能を実現させる。なお、ロボット本体1の形状としては、図1および図2に示した形状に限られず、愛玩用に動物を模したものなど、種々のものを採用することが可能である。
以下、ロボット本体1に内蔵されるロボットの電気的構成について図3を参照して説明する。図3において、図1乃至図2と同様の構成要素には、同一の符号を付している。
図3に示すように、本実施形態に係るロボットは、その本体内部に、制御装置51、画像処理部52、音声処理部53、表示制御部54、無線通信部55、駆動制御部56、駆動機構57、およびバッテリ58を備えている。
画像処理部52、音声処理部53、表示制御部54、無線通信部55、および駆動制御部56は、制御装置51と互いに接続されており、制御装置51からの制御信号に基づいて各種処理を実行するとともに、その処理結果や各種センサからの情報等を制御装置51へ提供する。バッテリ58は、各構成要素に対して電力を供給する電源装置として機能する。
図3に示すように、本実施形態に係るロボットは、その本体内部に、制御装置51、画像処理部52、音声処理部53、表示制御部54、無線通信部55、駆動制御部56、駆動機構57、およびバッテリ58を備えている。
画像処理部52、音声処理部53、表示制御部54、無線通信部55、および駆動制御部56は、制御装置51と互いに接続されており、制御装置51からの制御信号に基づいて各種処理を実行するとともに、その処理結果や各種センサからの情報等を制御装置51へ提供する。バッテリ58は、各構成要素に対して電力を供給する電源装置として機能する。
画像処理部52は、制御装置51からの制御信号に基づいて、図1に示した全方位カメラ11、前方カメラ13によって撮影された画像を処理して、制御装置51へ出力する。
音声処理部53は、制御装置51からの制御信号に基づいて、マイクロフォン14から入力される音声信号を認識する音声認識処理を実行し、この音声認識結果を制御装置51へ出力する。更に、音声処理部53は、制御装置51から供給される音声データに基づいて、スピーカ18から発すべき音声信号を生成する音声合成処理を実行し、この音声信号をスピーカ18へ出力する。すなわち、制御装置51内の発話に関する情報処理、並びに、上記音声処理部53、マイクロフォン14、およびスピーカ18等により、このロボット本体1の発話手段が構成される。
表示制御部54は、制御装置51から与えられた画像データを処理して、モニタ15に表示させる。
音声処理部53は、制御装置51からの制御信号に基づいて、マイクロフォン14から入力される音声信号を認識する音声認識処理を実行し、この音声認識結果を制御装置51へ出力する。更に、音声処理部53は、制御装置51から供給される音声データに基づいて、スピーカ18から発すべき音声信号を生成する音声合成処理を実行し、この音声信号をスピーカ18へ出力する。すなわち、制御装置51内の発話に関する情報処理、並びに、上記音声処理部53、マイクロフォン14、およびスピーカ18等により、このロボット本体1の発話手段が構成される。
表示制御部54は、制御装置51から与えられた画像データを処理して、モニタ15に表示させる。
無線通信部55は、アンテナ55aを介して外部との無線通信を実行する。具体的には、無線通信部55は、外部に設けられた情報管理装置(図示せず)とネットワークを介して接続することにより、両者間での情報の授受を実現させる。
駆動制御部56は、制御装置51からの指令に応じて走行用駆動機構57を制御することにより、走行用車輪31を駆動してロボット本体1の走行および操舵を実行する。更に、駆動制御部56は、頭部2と胸部3との間の首関節や、胸部3と右腕部4a間、胸部3と左腕部4b間の肩関節、右腕部4a、左腕部4b内の肘関節、手首関節等を駆動するためにそれぞれ設けられている各駆動機構(図示略)を制御することにより、ロボットの腕等を駆動し、様々な動作を実現させる。また、上記頭部2の顔表情についても、モータ等の駆動機構を制御することにより可変となっている。
バッテリ58は、充電コネクタ28が家庭内に設けられた充電ステーション(図示せず)に電気的に接続することにより自動的に充電される。
駆動制御部56は、制御装置51からの指令に応じて走行用駆動機構57を制御することにより、走行用車輪31を駆動してロボット本体1の走行および操舵を実行する。更に、駆動制御部56は、頭部2と胸部3との間の首関節や、胸部3と右腕部4a間、胸部3と左腕部4b間の肩関節、右腕部4a、左腕部4b内の肘関節、手首関節等を駆動するためにそれぞれ設けられている各駆動機構(図示略)を制御することにより、ロボットの腕等を駆動し、様々な動作を実現させる。また、上記頭部2の顔表情についても、モータ等の駆動機構を制御することにより可変となっている。
バッテリ58は、充電コネクタ28が家庭内に設けられた充電ステーション(図示せず)に電気的に接続することにより自動的に充電される。
制御装置51は、上述したように、ロボット本体1の各構成要素を制御するものであり、動作モード設定部61、動作モード実行部62、ユーザ認識部(顔認識処理部)63、自己位置認識部64、光源位置判定部65、撮影状況通知部66、サービス用スケジュール情報管理部70、動作アプリケーション記憶部72等を備えている。
上記サービス用スケジュール情報管理部70は、ユーザにより予約されたサービス用スケジュール情報を管理する。このサービス用スケジュール情報は、予約を登録したユーザの識別番号、予約されたサービスの内容、該サービスの開始時間ならびに終了時間が互いに対応付けられた情報である。サービス用スケジュール情報管理部70は、一定時間間隔でこのサービス用スケジュール情報を参照し、予約開始時刻になると、予約開始時刻となったサービスの内容、終了時間、ユーザの識別番号等を予約開始情報として動作モード設定部61へ出力する。
動作アプリケーション記憶部72には、後述する各種動作モードを実現させるために必要となる各種動作アプリケーションが格納されているほか、該動作アプリケーションを実行するのに必要となる付加情報等、例えば、家庭内の地図情報、ユーザへの話かけを行うための音声データ、ユーザとの会話時やユーザとの対話時における身振り動作の駆動データ等が格納されている。
上記地図情報は、ロボット本体1が家庭内を自律的に移動するために必要となるマップ情報であり、ユーザにより予め登録された家庭内の所定の位置(例えば、テラス、リビング、寝室、玄関等の各任意位置)に関する位置情報、後述する巡回モードにおいて巡回を行う各巡回ポイントの位置情報、充電ステーションの位置情報、並びに、これらを移動するために必要となる経路情報等が含まれている。
上記地図情報は、ロボット本体1が家庭内を自律的に移動するために必要となるマップ情報であり、ユーザにより予め登録された家庭内の所定の位置(例えば、テラス、リビング、寝室、玄関等の各任意位置)に関する位置情報、後述する巡回モードにおいて巡回を行う各巡回ポイントの位置情報、充電ステーションの位置情報、並びに、これらを移動するために必要となる経路情報等が含まれている。
動作モード設定部61は、上記サービス用スケジュール情報管理部70および音声処理部53から入力されたユーザからのサービス要求指令に基づいて、動作モード実行部62に実行させる動作モードを現在のモードとして設定する。
動作モード実行部62は、動作モード設定部61により現在のモードとして設定された動作モードに対応する動作アプリケーションを動作アプリケーション記憶部72から読み出し、この動作アプリケーションを実行することにより、各種動作モードに基づくサービス等をユーザに提供する。
動作モード実行部62は、動作モード設定部61により現在のモードとして設定された動作モードに対応する動作アプリケーションを動作アプリケーション記憶部72から読み出し、この動作アプリケーションを実行することにより、各種動作モードに基づくサービス等をユーザに提供する。
ユーザ認識部63は、画像処理部52から受け付けた画像に基づいて顔認証を行うことにより、予め登録されているユーザを識別する。顔認証によるユーザ認証の手法については、公知の技術を採用することが可能である。
自己位置認識部64は、画像処理部52から受け付けた画像情報に基づいてロボット本体1の位置および方位(向き、姿勢)を認識するとともに、上記地図情報を参照することにより、家庭内における現在位置を特定する。このように、自己の位置を常に把握するこのできる自己位置認識部64を備えているので、当該ロボットは、自律的に家庭内を移動することができる。
光源位置判定部65は、画像処理部52から受け付けた画像情報に基づいてロボット本体1に対する光源の位置を判定する。
撮影状況通知部66は、ユーザの顔認証時における前方カメラ13による撮影条件の情報をユーザに通知する。
撮影状況通知部66は、ユーザの顔認証時における前方カメラ13による撮影条件の情報をユーザに通知する。
上述した制御装置51は、例えば、CPU(中央演算装置)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備えるマイクロコンピュータ等により構成されている。上述した各部を実現するための一連の処理手順は、プログラムの形式でROM等に記録されており、このプログラムをCPUがRAM等に読み出して、情報の加工・演算処理を実行することにより、上述の動作モード設定部61、動作モード実行部62等の機能や各動作モードの実行によるサービスの提供が実現される。
次に、本実施形態に係るロボットの動作について説明する。
まず、図3の動作モード設定部61は、動作モードに対応する各種キーワード等が音声により入力された場合、或いは、サービス用スケジュール情報管理部70から予約開始情報を受け付けた場合に、対応する動作モードを現在のモードとして設定する。
このようにして、所定の動作モードが現在のモードとして設定されると、動作モード実行部62は、現在のモードとして設定された動作モードに対応する動作アプリケーションを動作アプリケーション記憶部72から読み出して実行する。これにより、各種動作モードに対応するサービスがユーザに対して提供されることとなる。
まず、図3の動作モード設定部61は、動作モードに対応する各種キーワード等が音声により入力された場合、或いは、サービス用スケジュール情報管理部70から予約開始情報を受け付けた場合に、対応する動作モードを現在のモードとして設定する。
このようにして、所定の動作モードが現在のモードとして設定されると、動作モード実行部62は、現在のモードとして設定された動作モードに対応する動作アプリケーションを動作アプリケーション記憶部72から読み出して実行する。これにより、各種動作モードに対応するサービスがユーザに対して提供されることとなる。
一方、上述のようなサービスの提供と並行して、ユーザ認識部63によりサービスを提供している相手であるユーザの認証が行われる。
ユーザの認証にあたっては、光源位置判定部65によって、ロボット本体1の周囲における光源位置の検出が行われるとともに、この光源位置の情報に基づいて、前方カメラ13の撮影条件が逆光状態または横光状態にあるかどうかが判定される。光源位置判定部65による光源位置の検出方法については後述する。
ユーザの認証にあたっては、光源位置判定部65によって、ロボット本体1の周囲における光源位置の検出が行われるとともに、この光源位置の情報に基づいて、前方カメラ13の撮影条件が逆光状態または横光状態にあるかどうかが判定される。光源位置判定部65による光源位置の検出方法については後述する。
光源位置判定部65によって前方カメラ13の撮影条件が逆光状態または横光状態にあると判定された場合には、制御装置51は、撮影情報通知部66に、現在の撮影条件をユーザに通知させる指令を送る。
撮影情報通知部66は、例えば、音声処理部53に動作指令を送って、スピーカ18から撮影条件を音声として出力させるか、もしくは、表示制御部54に動作指令を送って、モニタ15上に撮影条件を文字や画像として表示させることで、現在の撮影条件をユーザに通知する。本実施形態では、撮影情報通知部66は、音声処理部53に動作指令を送って、スピーカ18から撮影条件を音声として出力させる。
撮影情報通知部66は、例えば、音声処理部53に動作指令を送って、スピーカ18から撮影条件を音声として出力させるか、もしくは、表示制御部54に動作指令を送って、モニタ15上に撮影条件を文字や画像として表示させることで、現在の撮影条件をユーザに通知する。本実施形態では、撮影情報通知部66は、音声処理部53に動作指令を送って、スピーカ18から撮影条件を音声として出力させる。
また、制御装置51は、光源位置判定部65によって前方カメラ13の撮影条件が逆光状態または横光状態にあると判定された場合には、撮影情報通知部66に、ユーザを撮影条件が逆光状態や横光状態にならない位置(すなわちロボット本体1を挟んで光源とは反対側の位置)に誘導するユーザ誘導処理を実行させる。
このようなユーザ誘導処理が実行されることにより、ロボット本体1を挟んで光源とは反対側の位置にユーザを誘導するような音声データが撮影情報通知部66から音声処理部53へ出力され、音声処理部53がこの音声データに基づく音声信号をスピーカ18へ出力することにより、該音声がスピーカから発せられることとなる。
この結果、この音声を聞いたユーザを、前方カメラ13の撮影条件が逆光状態または横光状態とならない位置へ誘導することが可能となるので、ユーザの顔が鮮明に写された画像を取り込むことができる。これにより、ユーザ認証の成功率を向上させることが可能となる。
このようなユーザ誘導処理が実行されることにより、ロボット本体1を挟んで光源とは反対側の位置にユーザを誘導するような音声データが撮影情報通知部66から音声処理部53へ出力され、音声処理部53がこの音声データに基づく音声信号をスピーカ18へ出力することにより、該音声がスピーカから発せられることとなる。
この結果、この音声を聞いたユーザを、前方カメラ13の撮影条件が逆光状態または横光状態とならない位置へ誘導することが可能となるので、ユーザの顔が鮮明に写された画像を取り込むことができる。これにより、ユーザ認証の成功率を向上させることが可能となる。
また、制御装置51は、ユーザ認証に先立って、予め光源位置判定部65によって光源位置を検出しておき、この光源位置の情報に基づいて、ロボット本体の位置及び向きを、前方カメラ13の撮影条件が逆光状態または横光状態とならない位置及び向きとするように走行用駆動機構57を制御する指令を駆動制御部56に送り、ロボット本体が前方カメラ13の撮影条件が逆光状態または横光状態とならない位置及び向きとなった状態で、撮影情報通知部66に前記ユーザ誘導処理を実行させる構成としてもよい。
この場合には、前方カメラ13の撮影条件を予め整えた状態でユーザを撮影することができるので、ユーザの顔が鮮明に写された画像を確実に取り込むことができ、ユーザ認証の成功率を向上させることが可能となる。
この場合には、前方カメラ13の撮影条件を予め整えた状態でユーザを撮影することができるので、ユーザの顔が鮮明に写された画像を確実に取り込むことができ、ユーザ認証の成功率を向上させることが可能となる。
また、上記のようにユーザを音声等で誘導する態様に代えて、画像処理部52から取得した画像情報に人物が抽出された場合に、その人物の位置を検出し、前方カメラ13の撮影条件が逆光状態または横光状態とならない位置(すなわちこの人物と光源との間)にロボット本体を移動させることにより、人物の顔画像を取得できるようにしても良い。
以下、光源位置判定部65による光源位置の判定手順について説明する。
光源位置判定部65は、光源位置の判定にあたって、まず、図4に示すように、全方位カメラ11の撮影画像P上の周囲の景色が写りこんでいる領域F上に、複数の検出領域Aを設定し、各検出領域Aについてそれぞれ明度を検出する。
本実施形態では、光源位置判定部65は、撮影画像Pの中心Cの周囲のうち、ロボットの正面側、右正面側、右側面側、右背面側、背面側、左背面側、左側面側、及び左正面側に、それぞれ矩形の検出領域A1〜A8を設定している(すなわち、撮影画像Pのうち、周囲の景色が写りこんでいる領域F全体ではなく、領域Fの一部が検出領域Aに設定されている)。
光源位置判定部65は、光源位置の判定にあたって、まず、図4に示すように、全方位カメラ11の撮影画像P上の周囲の景色が写りこんでいる領域F上に、複数の検出領域Aを設定し、各検出領域Aについてそれぞれ明度を検出する。
本実施形態では、光源位置判定部65は、撮影画像Pの中心Cの周囲のうち、ロボットの正面側、右正面側、右側面側、右背面側、背面側、左背面側、左側面側、及び左正面側に、それぞれ矩形の検出領域A1〜A8を設定している(すなわち、撮影画像Pのうち、周囲の景色が写りこんでいる領域F全体ではなく、領域Fの一部が検出領域Aに設定されている)。
また、光源位置判定部65は、全方位カメラ11のカメラ本体において、検出領域Aに対応する画素が検出した輝度を評価し、輝度が閾値を越えた画素(例えば輝度を0〜255までの256段階で評価した場合に輝度が240以上となる画素)の数に基づいて、各検出領域Aの明度を検出する。
具体的には、光源位置判定部65は、まず、一つの検出領域Aに対して、対応する各画素の輝度を検証する(ステップS1〜S5)。
光源位置判定部65は、検出領域Aに対応する画素の一つについて輝度の検証を行い(ステップS1,S2)、輝度が閾値を越えている場合には、カウンタを作動させる(ステップS3)。光源位置判定部65は、他の画素についても同様にして輝度の検証を行い(ステップS4,S5)、この検出領域Aにおいて輝度が閾値を越えた画素の数を集計する。なお、各検出領域Aの全ての画素について検証を行うのではなく、検証を行う画素を適度に間引きすることで(例えば1/8程度に間引く)、検証に要する時間を短縮することができる。
具体的には、光源位置判定部65は、まず、一つの検出領域Aに対して、対応する各画素の輝度を検証する(ステップS1〜S5)。
光源位置判定部65は、検出領域Aに対応する画素の一つについて輝度の検証を行い(ステップS1,S2)、輝度が閾値を越えている場合には、カウンタを作動させる(ステップS3)。光源位置判定部65は、他の画素についても同様にして輝度の検証を行い(ステップS4,S5)、この検出領域Aにおいて輝度が閾値を越えた画素の数を集計する。なお、各検出領域Aの全ての画素について検証を行うのではなく、検証を行う画素を適度に間引きすることで(例えば1/8程度に間引く)、検証に要する時間を短縮することができる。
光源位置判定部65は、一つの検出領域Aについて輝度の検証を終えたら、全方位カメラ11の撮影画像P上に、カメラ本体の撮影範囲の中心Cから検証を終えた検出領域Aに向う輝度ベクトルVを設定する(ステップS6)。この輝度ベクトルVは、対応する検出領域Aの検証時におけるカウンタの積算値と等しい大きさとされる。
以降は、光源位置判定部65は、検証対象を他の検出領域Aに変更し(ステップS7)、他の検出領域Aについても同様にして各画素の輝度の検証を行って、それぞれ輝度ベクトルVを設定する。
光源位置判定部65は、全ての検出領域Aについて輝度ベクトルVを設定したのちは、これら輝度ベクトルVを合成して、合成輝度ベクトルVcを得る(ステップS9)。
以降は、光源位置判定部65は、検証対象を他の検出領域Aに変更し(ステップS7)、他の検出領域Aについても同様にして各画素の輝度の検証を行って、それぞれ輝度ベクトルVを設定する。
光源位置判定部65は、全ての検出領域Aについて輝度ベクトルVを設定したのちは、これら輝度ベクトルVを合成して、合成輝度ベクトルVcを得る(ステップS9)。
光源位置判定部65は、この合成輝度ベクトルVcの向く方向を、光源の位置と判定するとともに、光源と現在のロボット本体1との位置関係に基づいて、前方カメラ13の逆光度合い(前方カメラ13の正面方向に対する光源の角度θ)を算出する(ステップS10)。
そして、前方カメラ13の撮影条件が逆光状態または横光状態にある場合(例えば−135°<θ<135°の場合)には、撮影情報通知部66がその情報をユーザに通知するとともに、制御装置51が、光源に対するロボット本体1の位置を標定し(ステップS11)、この位置情報に基づいて、ユーザの誘導処理を行う。
そして、前方カメラ13の撮影条件が逆光状態または横光状態にある場合(例えば−135°<θ<135°の場合)には、撮影情報通知部66がその情報をユーザに通知するとともに、制御装置51が、光源に対するロボット本体1の位置を標定し(ステップS11)、この位置情報に基づいて、ユーザの誘導処理を行う。
ここで、本実施形態では、光源位置判定部65が、各検出領域Aごとに輝度ベクトルVを求めて、これら輝度ベクトルVを合成した合成輝度ベクトルVcに基づいて光源位置を判定する構成を示したが、これに限られることなく、光源位置判定部65は、図6に示すように、単純に各検出領域Aに対応する画素の輝度の積算値や平均値に基づいて各検出領域Aの輝度を設定し、全方位カメラ11の撮影範囲のうち最も輝度の高い検出領域A(図6では検出領域A2)に対応する位置を、光源位置と判断する構成とされていてもよい。
また、光源位置判定部65が、図7に示すように、全方位カメラ11の撮影画像Pの中での明度の分布の中心Gを求めて、全方位カメラ11の撮影範囲のうち明度の分布の中心Gに対応する位置を光源位置と判断する構成とされていてもよい。
具体的には、全方位カメラ11の各画素(もしくは画素の輝度が閾値を越えている領域H内の画素のみ)について、その輝度による重み付けを行い、各画素の輝度の分布の中心位置を、明度の分布の中心Gと判断する。
具体的には、全方位カメラ11の各画素(もしくは画素の輝度が閾値を越えている領域H内の画素のみ)について、その輝度による重み付けを行い、各画素の輝度の分布の中心位置を、明度の分布の中心Gと判断する。
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
11 全方位カメラ(周辺状況撮影装置)
13 前方カメラ(顔画像撮影装置)
51 制御装置(光源位置検出装置)
63 ユーザー認識部(顔認識処理部)
65 光源位置判定部
66 撮影条件通知部
A 検出領域
P 撮影画像
V 明度ベクトル
Vc 合成明度ベクトル
13 前方カメラ(顔画像撮影装置)
51 制御装置(光源位置検出装置)
63 ユーザー認識部(顔認識処理部)
65 光源位置判定部
66 撮影条件通知部
A 検出領域
P 撮影画像
V 明度ベクトル
Vc 合成明度ベクトル
Claims (7)
- 周囲の複数点を撮影する周辺状況撮影装置と、
該周辺状況撮影装置の撮影画像に基づいて光源位置を判定する光源位置判定部とを有している光源位置検出装置。 - 前記光源位置判定部が、前記周辺状況撮影装置の撮影画像の中での明度の高い領域を検出し、
前記周辺状況撮影装置の撮影範囲のうち前記明度の高い領域に対応する領域を光源位置と判断する請求項1記載の光源位置検出装置。 - 前記光源位置判定部が、前記周辺状況撮影装置の撮影画像の明度の分布の中心を求め、
前記周辺状況撮影装置の撮影範囲のうち前記明度の分布の中心に対応する位置を前記光源位置と判断する請求項1または2に記載の光源位置検出装置。 - 前記光源位置判定部が、前記周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、
該各検出領域についてそれぞれ明度を検出し、
前記周辺状況撮影装置の撮影範囲のうち最も明度の高い前記検出領域に対応する位置を光源位置と判断する請求項1または2に記載の光源位置検出装置。 - 前記光源位置判定部が、前記周辺状況撮影装置の撮影画像上に複数の検出領域を設定し、
該各検出領域についてそれぞれ明度を検出し、
前記周辺状況撮影装置の撮影画像上に、前記周辺状況撮影装置の撮影範囲の中心から前記各検出領域に向う明度ベクトルを設定し、
該各明度ベクトルの大きさを対応する前記検出領域の明度に比例した大きさとして、
前記各明度ベクトルを合成した合成明度ベクトルの向く方向を、光源位置と判断する請求項1記載の光源位置検出装置。 - 顔認識対象者を撮影する顔画像撮影装置と、
該顔画像撮影装置の撮影画像に基づいて顔認識を行う顔認識処理部と、
請求項1から5のいずれかに記載の光源位置検出装置と、
前記顔画像撮影装置による撮影条件の情報を前記顔認識対象者に通知する撮影条件通知部とを有し、
該撮影条件通知部が、前記光源位置検出装置の出力に基づいて、前記顔画像装置の撮影条件が逆光状態または横光状態にあるかどうかを判定し、前記撮影条件が逆光状態または横光状態にある場合には、その情報を前記顔認識対象者に通知する顔認識装置。 - 請求項6記載の顔認識装置を有している自走式ロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005349119A JP2007156689A (ja) | 2005-12-02 | 2005-12-02 | 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005349119A JP2007156689A (ja) | 2005-12-02 | 2005-12-02 | 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007156689A true JP2007156689A (ja) | 2007-06-21 |
Family
ID=38240994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005349119A Withdrawn JP2007156689A (ja) | 2005-12-02 | 2005-12-02 | 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007156689A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019021083A (ja) * | 2017-07-19 | 2019-02-07 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
JP2019217558A (ja) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
CN111127543A (zh) * | 2019-12-23 | 2020-05-08 | 北京金山安全软件有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
WO2020105123A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
WO2020105124A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
WO2020105125A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
WO2024116291A1 (ja) * | 2022-11-29 | 2024-06-06 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
-
2005
- 2005-12-02 JP JP2005349119A patent/JP2007156689A/ja not_active Withdrawn
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7210872B2 (ja) | 2017-07-19 | 2023-01-24 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置及び画像処理プログラム |
US11533444B2 (en) | 2017-07-19 | 2022-12-20 | Fujifilm Business Innovation Corp. | Image processing device |
JP2019021083A (ja) * | 2017-07-19 | 2019-02-07 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
JP7045938B2 (ja) | 2018-06-15 | 2022-04-01 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
JP2019217558A (ja) * | 2018-06-15 | 2019-12-26 | 株式会社日立製作所 | 対話システム及び対話システムの制御方法 |
WO2020105124A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
WO2020105123A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
JPWO2020105125A1 (ja) * | 2018-11-20 | 2021-09-27 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
JPWO2020105124A1 (ja) * | 2018-11-20 | 2021-10-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
JPWO2020105123A1 (ja) * | 2018-11-20 | 2021-10-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
WO2020105125A1 (ja) * | 2018-11-20 | 2020-05-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
JP7152507B2 (ja) | 2018-11-20 | 2022-10-12 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
CN112996377A (zh) * | 2018-11-20 | 2021-06-18 | 本田技研工业株式会社 | 自主作业机、自主作业机的控制方法以及程序 |
JP7201704B2 (ja) | 2018-11-20 | 2023-01-10 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
CN112996377B (zh) * | 2018-11-20 | 2023-11-28 | 本田技研工业株式会社 | 自主作业机、自主作业机的控制方法以及存储介质 |
US11782447B2 (en) | 2018-11-20 | 2023-10-10 | Honda Motor Co., Ltd. | Autonomous work machine, method of controlling the same, and storage medium |
CN111127543A (zh) * | 2019-12-23 | 2020-05-08 | 北京金山安全软件有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
CN111127543B (zh) * | 2019-12-23 | 2024-04-05 | 北京金山安全软件有限公司 | 图像处理方法、装置、电子设备以及存储介质 |
WO2024116291A1 (ja) * | 2022-11-29 | 2024-06-06 | 日本電気株式会社 | 情報処理装置、情報処理方法、及び、記録媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4822319B2 (ja) | コミュニケーションロボットおよびそれを用いた注意制御システム | |
JP5033994B2 (ja) | コミュニケーションロボット | |
US20120315016A1 (en) | Multi-Purpose Image and Video Capturing Device | |
JP2007156689A (ja) | 光源位置検出装置、これを用いた顔認識装置及び自走式ロボット | |
JP4949969B2 (ja) | コミュニケーションロボットとその動作方法 | |
WO2019179468A1 (zh) | 智能设备的控制方法、装置、设备和存储介质 | |
CN109605363A (zh) | 机器人语音操控***及方法 | |
JP2004299025A (ja) | 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム | |
JP2008087140A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
JP2010231470A (ja) | 情報提供システム | |
JP2009222969A (ja) | 音声認識ロボットおよび音声認識ロボットの制御方法 | |
US20200329202A1 (en) | Image capturing apparatus, control method, and recording medium | |
JP5221939B2 (ja) | 位置特定装置および動作指示装置並びに自走式ロボット | |
JP2007152470A (ja) | 自己診断機能付きロボット | |
JP7187768B2 (ja) | カメラ装置、カメラ装置制御システム、及びプログラム | |
JP2007156688A (ja) | ユーザ認証装置およびその方法 | |
KR101708301B1 (ko) | 로봇 청소기 및 원격 제어 시스템 | |
JP4793904B2 (ja) | コミュニケーションロボットシステムおよびコミュニケーションロボット | |
JP2007152444A (ja) | 自走式ロボットおよび情報管理システム | |
CN106899796A (zh) | 拍照***及方法 | |
JP2019220145A (ja) | 操作端末、音声入力方法、及びプログラム | |
JP2007155985A (ja) | ロボットおよび音声認識装置ならびにその方法 | |
US11195525B2 (en) | Operation terminal, voice inputting method, and computer-readable recording medium | |
US20190385616A1 (en) | Video communication method and robot for implementing the method | |
JP6754099B2 (ja) | エレベータのドア制御システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090203 |