JP2007130691A - コミュニケーションロボット - Google Patents

コミュニケーションロボット Download PDF

Info

Publication number
JP2007130691A
JP2007130691A JP2005323026A JP2005323026A JP2007130691A JP 2007130691 A JP2007130691 A JP 2007130691A JP 2005323026 A JP2005323026 A JP 2005323026A JP 2005323026 A JP2005323026 A JP 2005323026A JP 2007130691 A JP2007130691 A JP 2007130691A
Authority
JP
Japan
Prior art keywords
robot
axis
neck
sight
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005323026A
Other languages
English (en)
Inventor
Yuichiro Yoshikawa
雄一郎 吉川
Kazuhiko Shinosawa
一彦 篠沢
Noriaki Mitsunaga
法明 光永
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005323026A priority Critical patent/JP2007130691A/ja
Publication of JP2007130691A publication Critical patent/JP2007130691A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】視線移動に際して眼球だけでなく首(頭部)も回転し、視線の演出によってコミュニケーションロボットの意図を伝達するときの視線の動きがごく自然で、ロボットの意図を確実に表現できるロボットを提供する。
【解決手段】コミュニケーションロボット10では、頭部64は所定軸たとえば鉛直軸(S軸)周りに回転できる首を介して設けられ、その頭部には、同じく鉛直軸周りに回転できる眼球48が設けられる。CPUは、注視対象者に視線を移動するとき、眼球による視線の移動に対する首の寄与率(A1)を設定し、寄与率に従って計算した首の関節角度θおよび眼球の関節角度αに基づいて首および眼球を制御する。
【選択図】図2

Description

この発明はコミュニケーションロボットに関し、特にたとえば、視線制御によりロボットの意図を演出する、コミュニケーションロボットに関する。
この種の背景技術の一例が非特許文献1および非特許文献2に開示される。非特許文献1には、3つの視線パラメータ、凝視量,凝視持続時間および非凝視時視線位置に基づいて擬人化エージェントの視線制御をすることによって、その擬人化エージェントからユーザが受ける印象を操作できることが示されている。
また、非特許文献2には、視野内の特徴的な領域を次々に選択して注視するCG(Computer Graphics)の研究において、人間を規範としたルールにより視線の動きを首と目の自由度に配分して実現する方法が提案されている。
深山等「擬人化エージェントの印象操作のための視線制御方法」情報処理学会論文誌Vol.43,No.12,pp3596‐3606 2002年12月 L. Itti et al. "Realistic Avatar Eye and Head Animation Using a Neurobiological Model of Visual Attention" In Proc. SPIE 48th Annual International Symposium on Optical Science and Technology pp. 64-78, Aug. 2003.
非特許文献1の従来技術では、視線パラメータだけが考慮され、首の自由度が利用されていなので、かなり不自然な感じを受ける。
これに対して、非特許文献2の従来技術では、視線の動きを首と目の自由度に配分するようにしているので、首の自由度は考慮されてはいるものの、その配分の割合は固定であり、首の自由度がエージェントの意図の演出に利用されているとはいえない。
それゆえに、この発明の主たる目的は、新規な、コミュニケーションロボットを提供することである。
この発明の他の目的は、視線だけでなく、首の自由度もロボットの意図の演出に利用する、新規なコミュニケーションロボットを提供することである。
請求項1の発明は、所定軸周りに回転できる首を介して設けられる頭部と、頭部に設けられ所定軸周りに回転できる眼球とを有し、眼球による視線を用いて意図を演出するようにしたコミュニケーションロボットであって、視線の移動に対する首および眼球の寄与率を設定する寄与率設定手段、および視線を移動するとき、寄与率に従って計算した首の関節角度および眼球の関節角度に基づいて首および眼球を制御する制御手段を備える、コミュニケーションロボットである。
請求項1の発明では、コミュニケーションロボット(10:実施例で相当する部分を例示する参照符号。以下同様。)では、頭部(64)は所定軸たとえば鉛直軸(S軸)周りに回転できる首を介して設けられ、その頭部には、同じく鉛直軸周りに回転できる眼球(48)が設けられる。たとえばCPU(72)であってよい寄与率設定手段(S9)が、その眼球による視線の移動に対する首の寄与率(A1)を設定する。そして、同じくたとえばCPU(72)のような制御手段(S9,S25)は、寄与率に従って計算した首の関節角度および眼球の関節角度に基づいて首および眼球を制御する。
請求項1の発明によれば、視線移動に際して眼球だけでなく首(頭部)も回転するので、視線の演出によってコミュニケーションロボットの意図を伝達するときの視線の動きがごく自然である。しかも、その寄与率は適宜変更できるので、寄与率によってロボットの意図を確実に表現できるようになる。
請求項2の発明は、注視対象を注視する注視時間を設定する時間設定手段、および注視時間だけ視線を注視対象にとどめる注視時間制御手段をさらに備える、請求項1記載のコミュニケーションロボットである。
請求項2の発明では、たとえばCPU(72)であってよい時間設定手段(S9)が注視時間(f(T))を設定するので、たとえばCPU(72)であってよい注視時間制御手段(S9,S25)によってその注視時間だけ対象を注視することができる。
請求項3の発明は、注視時間内において視線を注視対象から逃避させる逃避頻度を設定する逃避頻度設定手段、および逃避頻度に従って視線を注視対象から逃避させる逃避制御手段をさらに備える、請求項2記載のコミュニケーションロボットである。
請求項3の発明では、たとえばCPU(72)であってよい逃避頻度設定手段(S9)が逃避頻度(e(T))を設定するので、たとえばCPU(72)であってよい逃避制御手段(S9,S25)によって視線がその注視対象からその逃避頻度に従って逃避する。したがって、視線逃避による演出を効果的に行える。
この発明によれば、眼球だけでなく首(頭部)も回転させて視線移動を行うので、視線の演出によってコミュニケーションロボットの意図を伝達するときの視線の動きが自然である。しかも、その寄与率は適宜変更できるので、寄与率によってロボットの意図を確実に表現できるようになる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、この実施例のコミュニケーションロボット(以下、単に「ロボット」とも言う。)10は、主として人間のようなコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のもので、身振り手振りのような身体動作を用いてコミュニケーション行動を行う機能を備えている。ただし、コミュニケーション行動には音声が含まれる場合もある。
ロボット10は、たとえば或る会社(組織)の建物内や或るイベント会場のような現実空間に配置される。詳細な構成は後述するが、ロボット10は、自律移動するための機構を備え、現実空間に存在する人間(図1では、人間A,B,C)と出会ったり、当該人間とコミュニケーションを図ったりする。
なお、図1では、簡単のため、3人の人間を示してあるが、これに限定される必要はなく、1人以上であれば何人でも構わない。
また、図1に示すように、人間A、B、Cは、それぞれ、無線タグ14を装着ないし所持しており、無線タグ14から送信される識別情報がロボット10によって検出される。
無線タグ14としては、たとえばRFID(Radio Frequency Identification)タグを用いることができる。図示は省略するが、RFIDタグは、識別情報を記憶するためのメモリや通信用の制御回路等を備えるICチップおよびアンテナ等を含む。この実施例では、後述するように、ロボット10は出会った人間の行動の履歴を記録したり、出会った人間に噂を流したりするので、たとえば、交信距離の比較的長い電磁誘導方式(最大1m程度)またはマイクロ波方式(最大5m程度)のRFIDタグを使用することが望ましい。
なお、通信距離の比較的短い静電結合方式(数mm程度)や電磁結合方式(数cm程度)のRFIDタグなどを使用することもできるが、これらの場合にはロボット10は人間に接近して、無線タグ読取装置18(図3参照)を当該人間(厳密には無線タグ14)に近づけさせる必要がある。
また、無線タグ14は電池内蔵の能動型(アクティブタイプ)および電池無しの受動型(パッシブタイプ)のどちらでもよい。
図2はロボット10の外観を示す正面図であり、この図2を参照して、ロボット10のハードウェアの構成について説明する。ロボット10は台車22を含み、この台車22の下面にはロボット10を自律移動させる車輪24が設けられる。車輪24は車輪モータ26(図3参照)によって駆動され、台車22すなわちロボット10を前後左右任意の方向に動かすことができる。このように、ロボット10は組織の空間内を移動可能なものであるが、場合によっては空間内の所定位置に固定的に設けられてもよい。
なお、図2においては省略するが、台車22の前面には、衝突センサ28(図3参照)が取り付けられ、この衝突センサ28は台車22への人や他の障害物の接触を検知する。つまり、ロボット10の移動中に障害物との接触を検知すると、直ちに車輪24の駆動を停止してロボット10の移動を急停止させる。
また、この実施例では、ロボット10の背の高さは、人、特に子供に威圧感を与えることのないように、100cm程度とされる。ただし、この背の高さは変更可能である。
台車22の上には、多角形柱のセンサ取付パネル30が設けられ、このセンサ取付パネル30の各面には、超音波距離センサ32が取り付けられる。この超音波距離センサ32は、センサ取付パネル30すなわちロボット10の周囲の主として人との距離を計測するものである。
また、台車22の上には、さらに、その下部がセンサ取付パネル30に囲まれて、ロボット10の胴体が直立するように設けられる。この胴体は、下部胴体34と上部胴体36とによって構成され、下部胴体34および上部胴体36は、連結部38によって互いに連結される。図示は省略するが、連結部38には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体36の高さすなわちロボット10の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ40(図3参照)によって駆動される。
なお、上述したロボット10の背の高さは、上部胴体36をそれの最下位置にしたときのものである。したがって、ロボット10の背の高さは、100cm以上にすることも可能である。
上部胴体36のほぼ中央には、1つの全方位カメラ42と1つのマイク46とが設けられる。全方位カメラ42は、ロボット10の周囲を撮影するものであり、後述する眼カメラ48とは区別される。この全方位カメラ42としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、マイク46は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、これら全方位カメラ42およびマイク46の設置位置は上部胴体36に限られず適宜変更され得る。
上部胴体36の両肩には、それぞれ、肩関節50Rおよび50Lによって、上腕52Rおよび52Lが設けられる。肩関節50Rおよび50Lは、それぞれ、3軸の自由度を有する。すなわち、肩関節50Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕52Rの角度を制御できる。Y軸は、上腕52Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に対して、それぞれ異なる方向から直交する軸である。他方、肩関節50Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕52Lの角度を制御できる。B軸は、上腕52Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に対して、それぞれ異なる方向から直交する軸である。
また、上腕52Rおよび52Lのそれぞれの先端には、肘関節54Rおよび54Lを介して、前腕56Rおよび56Lが設けられる。肘関節54Rおよび54Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕56Rおよび56Lの角度を制御できる。
なお、上腕52Rおよび52Lならびに前腕56Rおよび56Lの変位を制御するX軸,Y軸,Z軸,W軸およびA軸,B軸,C軸,D軸では、それぞれ、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、上腕52Rおよび52Lならびに前腕56Rおよび56Lは下方に向けられる。
また、図示は省略するが、上部胴体36の肩関節50Rおよび50Lを含む肩の部分や上述の上腕52Rおよび52Lならびに前腕56Rおよび56Lには、それぞれ、タッチセンサ(図3で包括的に示す。:58)が設けられていて、これらのタッチセンサ58は、人がロボット10の当該各部位に触れたかどうかを検知する。
前腕56Rおよび56Lのそれぞれの先端には、手に相当する球体60Rおよび60Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体36の中央上方には、首関節62を介して頭部64が設けられる。首関節62は、3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上(鉛直上向き)に向かう軸であり、T軸およびU軸は、それぞれ、そのS軸に対して異なる方向で直交する軸である。頭部64のS軸周りの関節角度を「θ」とする。頭部64には、人の口に相当する位置に、スピーカ66が設けられる。スピーカ66は、ロボット10が、それの周辺の人に対して音声ないし音によってコミュニケーションを取るために用いられる。ただし、スピーカ66は、ロボット10の他の部位、たとえば胴体などに設けられてもよい。
また、頭部64には、目に相当する位置に眼球部68Rおよび68Lが設けられる。眼球部68Rおよび68Lは、それぞれ眼カメラ48Rおよび48Lを含む。以下、右の眼球部68Rと左の眼球部68Lとをまとめて眼球部68ということがあり、また、右の眼カメラ48Rと左の眼カメラ48Lとをまとめて眼カメラ48ということもある。
眼カメラ48は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、それに対応する映像信号を取り込む。眼カメラ48としては、上述した全方位カメラ42と同様のカメラを用いることができる。
たとえば、眼カメラ48は眼球部68内に固定され、眼球部68は眼球支持部(図示せず)を介して頭部64内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部64に対して設けられる軸であり、α軸は頭部64の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部64の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部64がホームポジションにあるとき、α軸はS軸と平行であり、β軸はU軸と平行であるように設定される。このような頭部64において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部68ないし眼カメラ48の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
なお、眼カメラ48の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図2に示すように、眼カメラ48のカメラ軸は頭部64の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
さらに、たとえば頭部64の横の右肩部には、無線タグ読取装置18のアンテナ70が設けられる。アンテナ70は無線タグ14から送信される識別情報が重畳された電磁波ないし電波を受信する。
図3はロボット10の電気的な構成を示すブロック図であり、この図3を参照して、ロボット10は、全体を制御するCPU72を含む。CPU72は、マイクロコンピュータ或いはプロセサとも呼ばれ、バス74を介して、メモリ76、モータ制御ボード78、センサ入力/出力ボード80および音声入力/出力ボード82に接続される。
メモリ76は、図示は省略するが、ROMやRAMを含み、ROMにはロボット10の制御プログラムが予め記憶されるとともに、コミュニケーション行動を実行する際にスピーカ66から発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。RAMは、ワークメモリやバッファメモリとして用いられる。また、メモリ76には、無線タグ14の識別情報を取得して人間の行動履歴を記録するための記録プログラム、噂を作成するための作成プログラム、噂を伝達するための伝達プログラムおよび外部コンピュータ20と通信するための通信プログラム等が記録される。さらに、メモリ76にはまた、ロボットが存在する建物や会場の床、壁、天井を撮影した画像の画像データが各場所の名称(識別情報)に対応して記憶される。
モータ制御ボード78は、たとえばDSPで構成され、各腕や頭部および眼球部等の各軸モータの駆動を制御する。すなわち、モータ制御ボード78は、CPU72からの制御データを受け、右眼球部68Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」と示す。)84の回転角度を制御する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左眼球部68Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」と示す。)86の回転角度を制御する。つまり、後述の眼球の関節角度αrおよびαeは、CPU72が、眼球モータ68(68L,68R)すなわちモータ制御ボード78を制御することによって調整される。
また、モータ制御ボード78は、CPU72からの制御データを受け、右肩関節50RのX軸、Y軸およびZ軸のそれぞれの角度を制御する3つのモータと右肘関節54RのW軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」と示す。)88の回転角度を調節する。同様に、モータ制御ボード78は、CPU72からの制御データを受け、左肩関節50LのA軸、B軸およびC軸のそれぞれの角度を制御する3つのモータと左肘関節54LのD軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」と示す。)90の回転角度を調整する。
さらに、モータ制御ボード78は、CPU72からの制御データを受け、頭部64のS軸、T軸およびU軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」と示す。)92の回転角度を制御する。したがって、後述の首の関節角度θrおよびθeは、CPU72がこの頭部モータ92すなわちモータ制御ボード78を制御することによって調整される。さらにまた、モータ制御ボード78は、CPU72からの制御データを受け、腰モータ40および車輪24を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)26の回転角度を制御する。
なお、この実施例では、車輪モータ26を除くモータは、制御を簡素化するために、ステッピングモータ或いはパルスモータを用いるようにしてある。ただし、車輪モータ26と同様に、直流モータを用いるようにしてもよい。
センサ入力/出力ボード80もまた、同様に、DSPで構成され、各センサからの信号を取り込んでCPU72に与える。すなわち、超音波距離センサ32のそれぞれからの反射時間に関するデータがこのセンサ入力/出力ボード80を通してCPU72に入力される。また、全方位カメラ42からの映像信号が、必要に応じてこのセンサ入力/出力ボード80で所定の処理を施された後、CPU72に入力される。眼カメラ48からの映像信号も、同様にして、CPU72に入力される。また、上述した複数のタッチセンサ(図3では、まとめて「タッチセンサ58」と示す。)からの信号がセンサ入力/出力ボード80を介してCPU72に与えられる。さらに、上述した衝突センサ28からの信号も、同様にして、CPU72に与えられる。
音声入力/出力ボード82もまた、同様に、DSPで構成され、CPU72から与えられる音声合成データに従った音声または声がスピーカ66から出力される。すなわち、噂が音声または声としてスピーカ60から発せられる。また、マイク46からの音声入力が、音声入力/出力ボード82を介してCPU72に取り込まれる。
また、CPU72は、バス74を介して通信LANボード94および無線タグ読取装置18に接続される。通信LANボード94は、DSPで構成され、CPU72から送られる送信データを無線通信装置96に与え、無線通信装置96から送信データを、図示は省略するが、たとえば、無線LANのようなネットワークを介して外部コンピュータ20に送信させる。また、通信LANボード94は、無線通信装置96を介してデータを受信し、受信したデータをCPU72に与える。つまり、この通信LANボード94および無線通信装置96によって、ロボット10は外部コンピュータ20等と無線通信を行うことができる。
無線タグ読取装置18は、無線タグ14から送信される識別情報の重畳された電波を、アンテナ70を介して受信し、電波信号を増幅し、当該電波信号から識別情報を分離し、当該情報を復調(デコード)してCPU72に与える。ただし、RFIDの情報は、外部コンピュータでデコードして、CPU72に与えるようにしてもよい。
具体的には、図3に示したCPU72が図4に示すフロー図に従って全体処理を実行する。なお、図7では、簡単のため、ロボット10が人間(厳密には、RFID)を検出した後の処理を示してあるが、人間を検出する以前においては、ロボット10は組織の建物内やイベント会場を移動(巡回)したり、一定時間或る場所に留まったりしている。
この実施例においては、たとえば、表1に例示する視線による意図を演出する。
Figure 2007130691
表1を参照して、たとえば最上行には、視線による演出の意図として、「探し物をしている/落ち着かない」を挙げている。この演出内容を実現するための「状況・人の位置」には、「正面/正面でない」と設定しているが、このことは、この演出のための相手がロボット10の正面にいてもよいし、正面から外れていてもよいことを意味している。また、演出のための「注視対象」は、「人/人でない」と設定しているが、このことは、注視対象が人間であっても、人間でなくてもよいことを意味している。また、「注視物の位置」としては「任意」と設定されている。このことは、注視物(人)の位置は遠くても近くても任意の位置にあってよいことを意味している。
さらに、「注視時間(f)」としては、「小」が設定されている。この「注視時間」とは、視線制御パラメータの1つで、どのぐらいの時間注視対象物(人)を見続ける(注視する)かを示すパラメータである。注視時間「小」とは、実施例では、たとえば1秒以下が想定され、「中」が2‐3秒、「大」が5秒以上と想定されている。
「動作の主(A1)」としては、「首」が設定されている。この「動作の主」とは、その注視対象を注視するための視線の移動(動き)を首と目のどちらの動きで行うかを示す制御パラメータである。つまり、このパラメータA1は、視線の移動のためには、目に加えて首がどの程度寄与すべきかを示す寄与率であり、0−1の範囲の数値として設定される。たとえば、動作の主が「首」のときは、パラメータA1としてたとえば「0.7以上」が設定され、視線の動きの殆どが首の回転で達成されるように設定される。動作の主が「目」のときは、パラメータA1としてたとえば「0.3以下」が設定され、視線の動きの殆どが目の回転で達成されるように設定される。これらに対し、たとえば表1の演出の内容のうち「考え事をしている/注視物について考えている」、「睨んでいる」、「対象物に興味があるが、周りの目を気にしている」、「そのままコミュニケーションを続ける」などのように、動作の主が「首/目」のときは、寄与率(パラメータ)A1としてたとえば「0.4‐0.6」が設定され、視線の動きが首と目の両方の回転で達成されるように設定される。
このように、視線移動に対する「首」および「目」の寄与率を適宜設定するようにした点で、この実施例の視線による意図の演出の方法は従来と大きく異なる。
制御パラメータの3番目のものは、「逃避頻度(e)」である。このパラメータ「逃避頻度」とは、上述のように対象物または対象人物を注視している(見続けている)ときに、その視線を外して別のところを見ることを「逃避」といい、その「逃避」が注視時間のなかでどの程度の頻度で行われるのかを示すパラメータを「逃避頻度」と呼ぶ。この「逃避頻度」も「大」,「中」,「小」で設定されるが、「小」の場合には逃避頻度(e)が1(e=1)と設定するようにしてもよい。また、「大」の場合だと、注視時間がたとえば5秒だとすると逃避頻度をたとえば「8」程度に設定する。
なお、この実施例では、注視対象を注視しているときにも視線をそらせる(逃避する)場合があるが、この「逃避」の際にも上記した首および目の寄与率を考慮して視線を動かすようにしてもよい。そのためにこの実施例では、視線逃避の際の寄与率を「A2」として設定するこことした。ただし、このパラメータA2は先のパラメータA1と同じでも違ってもよい。
表1には最後の欄に「逃避対象」を記入しているが、この逃避対象とは、上述のように視線逃避させるときに視線を向ける方向や対象のことであり、「拘束なし」とはどこへ視線を外してもよいという意味である。この実施例では、たとえば眼カメラ48や全方位カメラ42の撮影画像を処理し、その画像中の「特異な色」の部分または位置(人物や物)へ視線を向けるようにしている。ただし、他の方法で視線逃避先を決定するようにしてもよい。
このような表1を前提にして、以下、図4および図5のフロー図とともに、この実施例の動作を説明する。
図4の最初のステップS1では、ロボット10は、がその視線の意図を表出するべき人がロボットに対してどこにいるのかを検出する。たとえば、CPU72は無線タグ読取装置18からのデータを見て、対象人物が近くに来たことを知り、たとえば眼カメラ48からの画像を処理することによって、その対象人物がロボット10に対してどこにいるのか、たとえば正面にいるのか、そうでないのかなどを検出する。
ただし、このような対象の特定や対象者の位置の特定のためには、別の手段、たとえば赤外線タグや、あるいは床センサ(床面にたとえば圧力センサを分散配置しておき、一定の分解能で人間がどこに存在するか、さらには爪先がどちらに向いているかなどを検知できるセンサシステム)を利用することもできる。
ステップS3では、どのような視線の意図を演出したいのか、表1から選択する。
さらに、ステップS5で、表1に従って、注視対象を選ぶ。そして、その表1に基づいて、視線制御パラメータ、すなわち、寄与率A1(T),注視時間f(T),逃避頻度e(T)さらに必要なら寄与率A2(T)をそれぞれ設定する。それとともに、次に注視対象を変更すべき時刻t_f(T+1)を設定する。ただし、この注視対象変更時刻t_f(T+1)は数1に従って設定すればよい。また、このステップS5において、逃避タイミングの判定に用いる変数Nを「1」に設定する(N=1)。ただし、このN、表1の逃避頻度(e)の値そのままでもよい。
(数1)
t_f(T+1)=t_f(T)+f(T)
ただし、t_f(T)は、前回設定した、今回の変更予定時刻であり、f(T)は、上述のように、今回の注視時間である。
そして、次のステップS7において、CPU72は、ロボットの10の顔の正面方向に対する注視対象の角度γ(T)を計算する。首のたとえば図6を参照して、ロボット10の前方に対象者A氏が存在するとした場合、この角度γは、図6に示すように、ロボットの顔の正面からのその対象人物A氏の存在位置のずれ角をいうものとする。
その後、ステップS9において、CPU72は、注視対象(たとえばA氏)に対して、
寄与率A1(T)に基づいて、注視対象を注視するための首の目標関節角度θr(T+1)および眼球の目標関節角度αr(T+1)を数2および数3に従って計算する。ただし、数2の例においては、角度γd1は、そのとき対象人物を注視するためにロボットの視線を動かす量(移動角)を示し、図6の例でロボットの正面に対象人物を配置する必要があるときは、その視線移動角度はγとなる。
(数2)
θr(T+1)=θr(T)+A1(T)γd1(T)
(数3)
αr(T+1)=αr(T)+(1−A1(T))γd1(T)
そして、同じステップS9で、CPU72は必要な制御データをモータ制御ボード78へ送り、上で計算した首関節角度θr(T+1)および眼球関節角度α(T+1)になるように、頭部モータ92および眼球モータ84および86を制御する。つまり、首の関節角度θをθr(T+1)とするとともに、眼球の関節角度αをαr(T+1)にするように、モータ制御ボード78に必要な制御データを出力する。
なお、数3において、眼球の移動角度αを計算する際に、全移動角度γd1に対して係数(1−A1)を乗算しているのは、その全移動角度γd1を首(頭部)の移動角度と眼球の移動角度とを寄与率A1で按分するためである。つまり、首関節角度θrの計算で寄与率A1をそのまま使用したので、眼球関節角度αrの計算には(1−A1)を用いる。
このようにして、ロボットの10の視線が注視対象に移動されて注視が開始されると、CPU72は次のステップS11において、眼カメラ48および/または全方位カメラ42の画像信号を処理することによって、逃避対象を決定し、その位置を計算する。たとえば、表1に従った逃避先の条件が「拘束なし」であるときには、画像信号を処理することによってたとえば上述の「特異な色」の部分または位置(人物や物)を逃避先として決定する。ただし、逃避先の条件が「正面の人」であるときには、同じくカメラ画像から、ロボットの正面に存在する他の人物を逃避先として決定すればよい。ただし、前述したように、別の方法で逃避先を決定するようにしてもよいことは勿論である。
そして、ステップS13において、CPU72は、ステップS11で決定した逃避先へ視線を移動させるべく、首(頭部)の目標関節角度θe(T+1)および眼球の目標関節角度αe(t+1)を数4および数5に従って計算する。この場合、注視対象からの逃避であるため、角度の基準としては今回の目標関節角度θr(T+1)およびαr(T+1)である。
(数4)
θe(T+1)=θr(T+1)+A2(T)γd2(T)
(数5)
αe(T+1)=αr(T)+(1−A2(T))γd2(T)
ただし、A2は逃避移動の際の首の寄与率であり、γd2はステップS11で決定した逃避先への全移動角度である。
その後、図5のステップS15に進む。ステップS15では、現在時刻tが次に注視対象を変更すべき時刻t_f(T+1)に達したかどうか判断する。“YES”なら、ステップS17でT=T+1として時間を更新した後、最初のステップS1に戻る。
ステップS15で“NO”の判断がなされたときには、続くステップS19において、CPU72は、次の逃避タイミングになったかどうか判断する。
逃避タイミングの計算は数6による。つまり、今回の注視対象変更時刻t_f(T)と注視時間t(T)を逃避頻度e(T)で割りN倍した時間を、今回の注視対象変更時刻t_f(T)に加えた時刻が、逃避タイミングの時刻である。
(数6)
t>t_f(T)+f(T)/e(T)*N
そして、ステップS19で“NO”が判断されたときには、ステップS15に戻るが、“YES”が判断されたときには、次のステップS21において、CPU72は、首の関節角度が目標関節角度θr(T+1)でかつ眼球の目標関節角度がαr(T+1)になったかどうか判断する。つまり、ステップS9で実行した、注視対象への視線の移動が完了したかどうか判断する。
ステップS21において“YES”が判断されたときは、CPU72は続いて逃避先への視線移動のためにステップS23を実行する。つまり、首の関節角度θをθe(T+1)とするとともに、眼球の関節角度αをαe(T+1)にするように、モータ制御ボード78に必要な制御データを出力する。そして、ステップS21で“NO”なら、ステップS25で、今回の注視のための視線移動を続行する。そして、ステップS23またはステップS25の後、ステップS27で逃避タイミング判定のための変数Nをインクリメント(N=N+1)した後、ステップS15に戻る。
そして、ステップS15では、逃避頻度の変数Nが表1に基づいて設定した逃避頻度(e)の値になったかどうか、すなわち、現在時刻tがt>t_f(T+1)になったかどうか判定し、現在時刻tがt>t_f(T+1)となるまで、f(T)/e(T)秒に1回、目標関節角度θr(T+1),αr(T+1)と、逃避先を注視するための関節角度θe(T),αe(T)とを交互に実現する。
なお、表1に列挙した「演出の内容」は単なる一例であり、必要に応じて任意の視線による意図の演出方法が考えられることは勿論である。
たとえば、上の実施例では、首すなわち頭部と眼球とがともに鉛直軸周りに回転または回動できるロボットについて説明したが、この頭部および眼球の回転または回動軸は水平軸であっても同じようにこの発明を適用できる。さらに、鉛直軸および水平軸を同時に制御する場合にも同様に適用可能である。
また、表1に関連して述べた視線制御パラメータf(T),A1(T),e(T)などの具体的数値もまた単なる例示に過ぎず、適宜変更され得るものである。
上述の実施例では、無線タグを用いて人間を識別するようにしたが、これに限定される必要はない。たとえば、予め人間の顔画像をデータベース(顔画像データベース)に記憶しておき、ロボットが遭遇した(出会った)人間の顔画像を撮影して、顔画像データベースと照合することにより、当該人間を特定することもできる。ただし、かかる画像処理は膨大であるため、各人間に異なるマーク(記号、模様、図形、数値など)を付した衣服を着させておき、当該マークを撮影して、ロボットが遭遇した人間を特定するようにしてもよい。
図1はこの発明の一実施例のコミュニケーションロボットおよび当該コミュニケーションロボットが存在する現実空間の様子を示す図解図である。 図2は図1に示すコミュニケーションロボットの外観を正面から見た図解図である。 図3は図1に示すコミュニケーションロボットの電気的な構成を示すブロック図である。 図4は図3に示すCPUの全体処理動作の一部を示すフロー図である。 図5はCPUの全体処理動作の図4に後続する残りの部分を示すフロー図である。 図6は実施例におけるロボットと注視対象との角度を例示する図解図である。
符号の説明
10 …コミュニケーションロボット
14 …無線タグ
18 …無線タグ読取装置
42 …全方位カメラ
48 …眼カメラ
72 …CPU

Claims (3)

  1. 所定軸周りに回転できる首を介して設けられる頭部と、前記頭部に設けられ前記所定軸周りに回転できる眼球とを有し、前記眼球による視線を用いて意図を演出するようにしたコミュニケーションロボットであって、
    前記視線の移動に対する前記首および前記眼球の寄与率を設定する寄与率設定手段、および
    前記視線を移動するとき、寄与率に従って計算した前記首の関節角度および前記眼球の関節角度に基づいて前記首および前記眼球を制御する制御手段を備える、コミュニケーションロボット。
  2. 前記注視対象を注視する注視時間を設定する時間設定手段、および
    前記注視時間だけ前記視線を前記注視対象にとどめる注視時間制御手段をさらに備える、請求項1記載のコミュニケーションロボット。
  3. 前記注視時間内において前記視線を前記注視対象から逃避させる逃避頻度を設定する逃避頻度設定手段、および
    前記逃避頻度に従って前記視線を前記注視対象から逃避させる逃避制御手段をさらに備える、請求項2記載のコミュニケーションロボット。
JP2005323026A 2005-11-08 2005-11-08 コミュニケーションロボット Withdrawn JP2007130691A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005323026A JP2007130691A (ja) 2005-11-08 2005-11-08 コミュニケーションロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005323026A JP2007130691A (ja) 2005-11-08 2005-11-08 コミュニケーションロボット

Publications (1)

Publication Number Publication Date
JP2007130691A true JP2007130691A (ja) 2007-05-31

Family

ID=38152767

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005323026A Withdrawn JP2007130691A (ja) 2005-11-08 2005-11-08 コミュニケーションロボット

Country Status (1)

Country Link
JP (1) JP2007130691A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
CN103471658A (zh) * 2013-09-27 2013-12-25 中国兵器工业计算机应用技术研究所 自主式无人感知***与自主移动感知终端及其工作方法
CN106002911A (zh) * 2016-04-28 2016-10-12 上海钛米机器人科技有限公司 移动机器人通用底盘
CN107160372A (zh) * 2017-07-16 2017-09-15 宁波天业精密铸造有限公司 仿生机械臂
CN108733215A (zh) * 2018-05-17 2018-11-02 华南农业大学 一种拟人化虚拟助手注视方向控制方法
CN110091345A (zh) * 2018-01-31 2019-08-06 丰田自动车株式会社 互动机器人以及其控制程序
CN111136650A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其视觉跟踪方法、计算机可读存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013193149A (ja) * 2012-03-16 2013-09-30 Fujitsu Ltd ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム
CN103471658A (zh) * 2013-09-27 2013-12-25 中国兵器工业计算机应用技术研究所 自主式无人感知***与自主移动感知终端及其工作方法
CN106002911A (zh) * 2016-04-28 2016-10-12 上海钛米机器人科技有限公司 移动机器人通用底盘
CN107160372A (zh) * 2017-07-16 2017-09-15 宁波天业精密铸造有限公司 仿生机械臂
CN107160372B (zh) * 2017-07-16 2023-06-23 宁波天业精密铸造有限公司 仿生机械臂
CN110091345A (zh) * 2018-01-31 2019-08-06 丰田自动车株式会社 互动机器人以及其控制程序
EP3520970A2 (en) 2018-01-31 2019-08-07 Toyota Jidosha Kabushiki Kaisha Communication robot and control program therefor
EP3599065A1 (en) 2018-01-31 2020-01-29 Toyota Jidosha Kabushiki Kaisha Communication robot and control program therefor
CN108733215A (zh) * 2018-05-17 2018-11-02 华南农业大学 一种拟人化虚拟助手注视方向控制方法
CN111136650A (zh) * 2018-11-02 2020-05-12 深圳市优必选科技有限公司 一种机器人及其视觉跟踪方法、计算机可读存储介质

Similar Documents

Publication Publication Date Title
JP5429462B2 (ja) コミュニケーションロボット
JP4822319B2 (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
US9079313B2 (en) Natural human to robot remote control
EP2371434B1 (en) Image generation system, image generation method, and information storage medium
JP7355006B2 (ja) 情報処理装置、情報処理方法、および記録媒体
JP4599522B2 (ja) コミュニケーションロボット
JP5617562B2 (ja) 移動ロボット
JP2007130691A (ja) コミュニケーションロボット
JP2006247780A (ja) コミュニケーションロボット
JP2008149399A (ja) 移動ロボットおよび移動速度推定方法
US20210158630A1 (en) Systems and methods for contextualized interactions with an environment
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP2009045692A (ja) コミュニケーションロボットとその動作方法
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP4565196B2 (ja) コミュニケーションロボット
KR20140009900A (ko) 로봇 제어 시스템 및 그 동작 방법
JP2009151419A (ja) 対象物特定方法および装置
JP4617428B2 (ja) 動作生成システム
JP2007160427A (ja) ロボット制御システム
JP2006205343A (ja) コミュニケーションロボットシステムおよびロボット制御装置
JP2006231497A (ja) コミュニケーションロボット
JP2004042151A (ja) コミュニケーションロボット
JP3942599B2 (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203