JP2003346152A - 物体認識装置及び方法並びにロボット装置 - Google Patents

物体認識装置及び方法並びにロボット装置

Info

Publication number
JP2003346152A
JP2003346152A JP2002151616A JP2002151616A JP2003346152A JP 2003346152 A JP2003346152 A JP 2003346152A JP 2002151616 A JP2002151616 A JP 2002151616A JP 2002151616 A JP2002151616 A JP 2002151616A JP 2003346152 A JP2003346152 A JP 2003346152A
Authority
JP
Japan
Prior art keywords
recognized
recognition
predetermined
learning
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002151616A
Other languages
English (en)
Other versions
JP4164737B2 (ja
Inventor
Jun Yokono
順 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002151616A priority Critical patent/JP4164737B2/ja
Publication of JP2003346152A publication Critical patent/JP2003346152A/ja
Application granted granted Critical
Publication of JP4164737B2 publication Critical patent/JP4164737B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】一般家庭等の実環境において3次元物体の認識
を精度良く行い難い問題があった。 【解決手段】物体認識装置及び方法において、認識対象
の物体を、所定の撮像手段に対して予め定められた所定
の空間位置に移動させて、当該空間位置において所定状
態に保持し、撮像手段の出力に基づいて物体を認識し、
認識できなかったときには当該物体を学習するようにし
た。またロボット装置において、周囲を撮像する撮像手
段と、撮像手段の出力に基づいて認識すべき物体を選択
し、当該選択した物体を撮像手段に対して予め定められ
た所定の空間位置に移動させて所定状態に保持するよう
に、腕部の動きを制御する制御手段と、撮像手段の出力
に基づいて物体を認識し、認識できなかったときには当
該物体を学習する認識学習手段とを設けるようにした。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、物体認識装置及び
方法並びにロボット装置に関し、例えばエンターテイン
メントロボットに適用して好適なものである。
【0002】
【従来の技術】従来、ロボット等における3次元物体の
認識処理には、3次元物体の外観的な特徴を学習する学
習モードと、この学習結果に基づいてその後その3次元
物体を認識する認識モードとがある。
【0003】この場合において、かかる学習モードで
は、例えば背景が既知等の理想的な環境のもとで、予め
人間が選択した学習対象の3次元物体をロボットに搭載
されたCCD(Charge Coupled Device)カメラ等によ
り撮像させることにより、当該CCDカメラから出力さ
れる画像データに基づきその3次元物体の特徴をロボッ
トに学習させる方法(以下、これを第1の学習方法と呼
ぶ)が広く用いられている。
【0004】またこれとは別に、3次元物体を機器に学
習させる方法として、認識させたい3次元物体の周りを
カメラに移動させながら、その3次元物体を一定角度間
隔で撮像し、かくして得られたその3次元物体の複数方
向からの画像の画像データに基づき3次元物体の特徴を
学習させるいわゆるアクティブビジョンと呼ばれる方法
(以下、これを第2の学習方法と呼ぶ)も知られてい
る。
【0005】
【発明が解決しようとする課題】しかしながら、かかる
第1の学習方法では、上述のように学習させたい3次元
物体を人間が選択するものであり、ロボット自身が学習
すべき3次元物体を選択し、これを学習するものではな
い。
【0006】また第2の方法も、学習すべき3次元物体
の存在する範囲や大きさに対する事前知識が必要とな
り、第1の方法と同様に、かかる事前知識なしにロボッ
ト自身が学習すべき3次元物体を選択し、学習すること
はできない。
【0007】これは、実環境下での3次元物体の学習画
像を適切に選ぶことが困難であり、その結果、望むよう
な認識結果が得られないことによるものである。つま
り、従来の3次元物体認識方法では、ロボット等が3次
元物体を学習し易い都合の良い理想的な環境を人間が予
め設定することでロボット等が3次元物体を学習できる
のである。
【0008】従って、必ずしもそのような環境をユーザ
から与えられないであろう一般家庭環境でロボットが動
作することを考えると、3次元物体の認識がうまく行わ
れないおそれがあった。
【0009】本発明は以上の点を考慮してなされたもの
で、どのような環境においても自然にかつ精度良く物体
の認識を行い得る物体認識装置及び方法並びにロボット
装置を提案しようとするものである。
【0010】
【課題を解決するための手段】かかる課題を解決するた
め本発明においては、物体認識装置において、認識対象
の物体を、所定の撮像手段に対して予め定められた所定
の空間位置に移動させて、当該空間位置において所定状
態に保持する保持手段と、撮像手段の出力に基づいて物
体を認識し、認識できなかったときには当該物体を学習
する認識学習手段とを設けるようにした。
【0011】この結果、この物体認識装置は、認識対象
の物体を常に一定条件下で認識処理及び学習処理でき
る。
【0012】また本発明においては、物体認識方法にお
いて、認識対象の物体を、所定の撮像手段に対して予め
定められた所定の空間位置に移動させて、当該空間位置
において所定状態に保持する第1のステップと、撮像手
段の出力に基づいて物体を認識し、認識できなかったと
きには当該物体を学習する第2のステップとを設けるよ
うにした。
【0013】この結果、この物体認識方法によれば、認
識対象の物体を常に一定条件下で認識処理及び学習処理
できる。
【0014】さらに本発明においては、物体を保持可能
な腕部を有するロボット装置において、周囲を撮像する
撮像手段と、撮像手段の出力に基づいて認識すべき物体
を選択し、当該選択した物体を撮像手段に対して予め定
められた所定の空間位置に移動させて所定状態に保持す
るように、腕部の動きを制御する制御手段と、撮像手段
の出力に基づいて物体を認識し、認識できなかったとき
には当該物体を学習する認識学習手段とを設けるように
した。
【0015】この結果、このロボット装置は、認識対象
の物体を常に一定条件下で認識処理及び学習処理でき
る。
【0016】
【発明の実施の形態】以下図面について、本発明の一実
施の形態を詳述する。
【0017】(1)本実施の形態によるロボットの構成 図1及び図2において、1は全体として本実施の形態に
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ腕部ユニット4A、4
Bがそれぞれ配設され、かつ胴体部ユニット2の下部左
右にそれぞれ脚部ユニット5A、5Bがそれぞれ所定位
置に取り付けられることにより構成されている。
【0018】胴体部ユニット2においては、体幹上部を
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA、Aをそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させ得るようになされている。
【0019】また頭部ユニット3は、フレーム10の上
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA、Aをそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させ得るようになされ
ている。
【0020】さらに各腕部ユニット4A、4Bは、それ
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA、Aをそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させ得るようになされている。
【0021】この場合、各腕部ユニット4A、4Bは、
それぞれ上腕部を形成するアクチュエータAの出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータAが連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
【0022】そして各腕部ユニット4A、4Bでは、ア
クチュエータAを駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
【0023】これに対して各脚部ユニット5A、5Bに
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータA〜A
11をそれぞれ駆動することによって、図3に示す互い
に直交するヨー軸27、ロール軸28及びピッチ軸29
の回りにそれぞれ独立に回転させ得るようになされてい
る。
【0024】この場合各脚部ユニット5A、5Bは、そ
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
【0025】これにより各脚部ユニット5A、5Bにお
いては、膝関節機構31を形成するアクチュエータA
12を駆動することによって、下腿部を図3に示すピッ
チ軸35の回りに回転させることができ、また足首関節
機構33のアクチュエータA 、A14をそれぞれ駆
動することによって、足部34を図3に示す直交するピ
ッチ軸36及びロール軸37の回りにそれぞれ独立に回
転させ得るようになされている。
【0026】一方、胴体部ユニット2の体幹下部を形成
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
【0027】そしてこの制御ユニット42は、各構成ユ
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行うことができるようになされてい
る。
【0028】また各サブ制御部43A〜43Dは、それ
ぞれ対応する構成ユニット内の各アクチュエータA
14と接続されており、当該構成ユニット内の各アク
チュエータA〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
【0029】さらに頭部ユニット3には、図5に示すよ
うに、それぞれこのロボット1の「目」として機能する
一対のCCDカメラ50A、50Bと、「耳」として機
能するマイクロホン51と、「口」として機能するスピ
ーカ52となどがそれぞれ所定位置に配設され、制御ユ
ニット42内には、バッテリセンサ53及び加速度セン
サ54などが配設されている。
【0030】そしてCCDカメラ50A、50Bは、そ
れぞれロボット1の前方の状況を撮像し、得られた画像
信号S1A、S1Bをメイン制御部40に送出する一
方、マイクロホン51は、ユーザから音声入力として与
えられる「歩け」、「伏せ」又は「ボールを追いかけ
ろ」等の各種命令音声を集音し、かくして得られた音声
信号S2をメイン制御部40に送出するようになされて
いる。
【0031】またバッテリセンサ53は、バッテリ45
のエネルギ残量を所定周期で検出し、検出結果をバッテ
リ残量検出信号S3としてメイン制御部40に送出する
一方、加速度センサ54は、3軸方向(x軸、y軸及び
z軸)の加速度を所定周期で検出し、検出結果を加速度
検出信号S4としてメイン制御部40に送出する。
【0032】メイン制御部部40は、CCDカメラ50
A、50B及びマイクロホン51からそれぞれ供給され
る画像信号S1A、S1B及び音声信号S2と、バッテ
リセンサ53及び加速度センサ54からそれぞれ供給さ
れるバッテリ残量検出信号S3及び加速度検出信号S4
に基づいて、ロボット1の周囲及び内部の状況や、ユー
ザからの指令、ユーザからの働きかけの有無などを判断
する。
【0033】そしてメイン制御部40は、この判断結果
と、予め内部メモリ40Aに格納されている制御プログ
ラム及び各種制御パラメータに基づいて続く行動を決定
し、決定結果に基づく制御コマンドを対応するサブ制御
部43A〜43Dに送出する。
【0034】この結果、この制御コマンドに基づき、そ
のサブ制御部43A〜43Dの制御のもとに、対応する
アクチュエータA〜A14が駆動され、かくして頭部
ユニット3を上下左右に揺動させたり、腕部ユニット4
A、4Bを上にあげたり、歩行するなどの行動がロボッ
ト1により発現されることとなる。
【0035】またこの際メイン制御部40は、必要に応
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S5に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLED(図示せず)に駆動信号を出
力することによりこれを点滅させる。
【0036】このようにしてこのロボット1において
は、周囲及び内部の状況や、ユーザからの指令などに基
づいて自律的に行動することができるようになされてい
る。
【0037】(2)ロボット1における3次元物体認識
機能 (2−1)本実施の形態による3次元物体認識機能の構
成 次に、このロボット1に搭載された3次元物体認識機能
について説明する。
【0038】このロボット1においては、認識対象の3
次元物体を自動学習し、当該学習結果に基づいてその後
その3次元物体を認識する3次元物体認識機能が搭載さ
れている。
【0039】この場合、かかる3次元物体認識機能は、
モードとして学習モード及び認識モードの2つのモード
を有している。そして学習モードでは、図6に示すよう
に、所定の一方のCCDカメラ50Aから出力される画
像信号S1Aに基づく画像P1中から学習対象の3次元
物体の画像領域を切り出し(ステップSP1)、当該切
り出された画像領域の画像信号に基づいてその3次元物
体の特徴を抽出し、当該抽出した特徴に基づいてその3
次元物体を学習器に学習させる(ステップSP2)。
【0040】また認識モードでは、図7に示すように、
画像信号S1Aに基づく画像P2中から認識対象の3次
元物体の画像領域を切り出し(ステップSP3)、当該
切り出された画像領域の画像信号に基づいてその3次元
物体の特徴を抽出し、当該抽出した特徴とそのときまで
に学習している各3次元物体の特徴とに基づいてその認
識対象の3次元物体を認識して(ステップSP4)、そ
の認識結果を出力する(ステップSP5)。
【0041】ここで、このような3次元物体の認識学習
処理は、メイン制御部40におけるソフトウェア処理に
より図8に示す3次元物体認識処理手順RT1に従って
行われる。
【0042】実際上、メイン制御部40は、CCDカメ
ラ50Aからの画像信号S1Aに基づいて、持ち上げ可
能な大きさ及び距離にある3次元物体60(図9)を検
出すると、この3次元物体認識処理手順RT1をステッ
プSP10において開始し、続くステップSP11にお
いて認識モードに遷移して、まず各CCDカメラ50
A、50Bからの画像信号S1A、S1Bに基づいてそ
の3次元物体までの距離を算出し、当該算出結果に基づ
いて対応するアクチュエータA〜A14を駆動するこ
とにより、その3次元物体をロボット1に持たせ、これ
を当該ロボット1の予め定められた一方の腕部ユニット
4Bにおける手のひら23A(図10)上の所定位置に
載置させる。
【0043】次いでメイン制御部40は、ステップSP
12に進んで、対応するアクチュエータA〜A14
駆動してロボット1の腕部ユニット4Bを動かすことに
より、図9に示すように、その一方の腕部ユニット4B
における手のひら23A上に載置させた3次元物体をC
CDカメラ50Aに対して予め設定された所定の空間位
置にまで移動させる。またこの際、メイン制御部40
は、首関節機構16のアクチュエータA、A等を駆
動することにより、CCDカメラ50Aの光学軸をこの
手のひら23A上に載置された3次元物体60に向けさ
せる。
【0044】続いてメイン制御部40は、ステップSP
13に進んで、対応するアクチュエータA〜A14
駆動して、かかる3次元物体60を載置した手のひら2
3Aをその中心位置を中心として回転させることによ
り、その3次元物体を上述の空間位置において45度ず
つ360度だけ回転させる。またメイン制御部40は、
これと共にCCDカメラ50Aから出力されるその45
度間隔の3次元物体60を撮像した画像の画像信号S1
Aを順次記憶する。
【0045】そしてメイン制御部40は、この後ステッ
プSP14に進んで、このようにして得られた45度間
隔の合計8枚分の画像(以下、これを原画像と呼ぶ)か
らそれぞれ認識対象であるその3次元物体60の画像領
域を切り出す画像切出し処理を実行する。
【0046】なお、この画像切出し処理は、かかる3次
元物体60を載置した自己の手のひら23Aよりも近く
にあるものを抜き出すという画像処理により行うことが
できる。具体的には、CCDカメラ50Aからその3次
元物体60を載置している手のひら23Aまでの距離が
その一方の腕部ユニット4Bにおける肩関節機構19や
肘関節機構22との関係により分かっているので、かか
る8枚分の原画像を撮像する際にこれと合わせて距離画
像を生成して保存し、この距離画像に基づいて求めた距
離が当該手のひら23Aよりも近い画像領域を中心とし
て矩形状に切り出すことにより行うことができる。
【0047】またメイン制御部40は、この後このよう
にして8枚の原画像からそれぞれ切り出した各画像領域
(以下、これを切出し画像と呼ぶ)を、計算の都合上同
じ次元にするため、例えば縦横30画素程度の大きさで
正規化する。
【0048】続いてメイン制御部40は、ステップSP
15に進んで、この正規化した8枚の切出し画像に基づ
いてその3次元物体60を認識する認識処理を実行し、
この後ステップSP16に進んで、その3次元物体60
を認識できたか否かを判断する。
【0049】そしてメイン制御部40は、このステップ
SP16において肯定結果を得ると、ステップSP18
に進んでその認識結果を3次元物体認識機能用のオブジ
ェクトとは異なる他のオブジェクトに出力し、この後ス
テップSP19に進んでこの3次元物体認識処理手順R
T1を終了する。
【0050】これに対してメイン制御部40は、ステッ
プSP16において否定結果を得ると、ステップSP1
7に進んで学習モードに遷移し、ステップSP14にお
いて得られた8枚の切出し画像の画像データに基づいて
その3次元物体60の特徴を抽出してこれを記憶するよ
うにして当該3次元物体60を学習する。この学習結果
は、この後その3次元物体60を認識する際等に利用さ
れる。そしてメイン制御部40は、この後ステップSP
19に進んで、この3次元物体認識処理手順RT1を終
了する。
【0051】このようにしてこのロボット1において
は、実環境にある3次元物体60を自己学習し、当該学
習結果に基づいてその後その3次元物体60を認識し得
るようになされている。
【0052】(2−2)3次元物体の特徴抽出処理及び
認識処理 ここで、このロボット1の場合、原画像から切り出され
た切出し画像の画像データに基づいて認識対象や学習対
象となっている3次元物体60の特徴を抽出する処理に
「ガボア・フィルタリング(Gabor Filtering)」を採
用し、また当該ガボア・フィルタリングにより抽出した
その3次元物体の特徴に基づいてその3次元物体60を
認識したり学習する処理に「サポート・ベクタ・マシー
ン(SVM:Support Vector Machine)」を採用してい
る。
【0053】以下に、ガボア・フィルタリング及びサポ
ート・ベクタ・マシーンについて、それぞれ詳細に説明
する。
【0054】(2−2−1)ガボア・フィルタリング 人間の視覚細胞には、ある特定の方位に対して選択性を
持つ細胞が存在することが既に判っている。これは、垂
直の線に対して発火する細胞と、水平の線に反応する細
胞で構成される。ガボア・フィルタリングは、これと同
様に、方位選択性を持つ複数のフィルタで構成される空
間フィルタである。
【0055】ガボア・フィルタは、ガボア関数によって
空間表現される。ガボア関数g(x,y)は、次式
【0056】
【数1】
【0057】示すように、コサイン成分からなるキャリ
アs(x,y)と、2次元ガウス分布状のエンベローブ
(x,y)とで構成される。キャリアs(x,y)
は、複索関数を用いて、次式
【0058】
【数2】
【0059】のように表現される。ここで、座標値(u
,v)は空間周波数を表し、またPはコサイン成分
の位相を表す。
【0060】この(2)式に示すキャリアは、次式
【0061】
【数3】
【0062】に示すように、実数成分Re(s(x,
y))と虚数成分Im(s(x,y))に分離すること
ができる。
【0063】一方、2次元ガウス分布からなるエンベロ
ープは、次式
【0064】
【数4】
【0065】のように表現される。
【0066】ここで、座標値(u0,v0)はこの関数
のピークであり、定数a及びbはガウス分布のスケール
・パラメータである。また、添え字rは、次式
【0067】
【数5】
【0068】に示すような回転操作を意味する。
【0069】従って、(2)式及び(4)式より、ガボ
ア・フィルタは、次式
【0070】
【数6】
【0071】に示すような空間関数として表現される。
【0072】本実施の形態の場合、認識モードや学習モ
ード時には、8種類の方向と3通りの周波数を採用し
て、合計24個のガボア・フィルタを用いて3次元物体
の特徴抽出を行う。本実施の形態で使用されるガボア・
フィルタの空間領域での様相を図11〜図13に示す。
このうち、図11(A)〜(H)は、方向を22.5度
ずつずらした高周波成分のガボア・フィルタである。ま
た、図12(A)〜(H)は、方向を22.5度ずつず
らした中周波成分のガボア・フィルタである。また、図
13(A)〜(H)は、方向を22.5度ずつずらした
低周波成分のガボア・フィルタである。但し、各図にお
ける濃淡は紙面に直交する座標軸方向の成分に相当す
る。
【0073】ガボア・フィルタのレスポンスは、G
i番目のガボア・フィルタとし、i番目のガボアの結果
(Gabor Jet)をJとし、入力イメージをI
とし、すると、次式
【0074】
【数7】
【0075】で表される。この(7)式の演算は、実際
には高速フーリエ変換を用いて高速化することができ
る。
【0076】図14に示すような入力画像(但し、入力
画像を20×20画素とする)を、図11〜図13に示
す各ガボア・フィルタでフィルタリングされた結果を、
図15〜図17に示す。また図18に周波数領域でのガ
ボア・フィルタの構成を示す。図18(A)は20×2
0画素、図18(B)は64×64画素の画像に対する
フィルタであるが、どちらでも大体全ての周波数を埋め
尽くすことが分かり、理論通りにガボア・フィルタが構
成されていることが分かる。
【0077】作成したガボア・フィルタの性能は、フィ
ルタリングして得られた画像を再構築することによって
調べることができる。再構築されたイメージHは、次式
【0078】
【数8】
【0079】のように表される。
【0080】そして、入力画像Iと再構築された画像H
とのエラーEは、次式
【0081】
【数9】
【0082】のように表される。
【0083】このエラーEを最小にするような最適なa
を求めることにより再構築することができる。
【0084】なお、図19(A)に示す画像を上述のよ
うにして再構築した結果を図19(B)に示す。このと
きのエラーは0.3426であり、ガボア・フィルタをかけた
結果が欠損せず、良いガボア・フィルタが構成されてい
ることが分かる。タスクによりフィルタの構成を変える
とき(例えば顔認識や3次元物体認識によって変えると
き)にこの再構築を用いることができる。
【0085】(2−2−2)サポート・ベクタ・マシー
ン 本実施の形態では、3次元物体の認識処理に関して、パ
ターン認識の分野で最も学習汎化能力が高いとされるサ
ポート・ベクタ・マシーン(SVM)を用いて学習済み
の3次元物体60であるか否かの識別を行う。
【0086】SVM自体に関しては、例えばB.sho
lkop外著の報告(B. Sholkop f, C. Burges, A. Sm
ola, "Advance in Kernel Methods Support Vector Lea
rning", The MIT Press, 1999.)を挙げることができ
る。本発明者らが行った予備実験の結果からは、SVM
による物体認識方法は、主成分分析(PCA)やニュー
ラル・ネットワークを用いる手法に比べ、良好な結果を
示すことが判っている。
【0087】SVMは、識別関数に線形識別器(バーセ
プトロン)を用いた学習機械であり、カーネル関数を使
うことで非線形空間に拡張することができる。また、識
別関数の学習では、クラス間分離のマージンを最大にと
るように行われ、その解は、2次数理計画法を解くこと
で得られるため、グローバル解に到達できることを理論
的に保証することができる。
【0088】通常、パターン認識の問題は、テスト・サ
ンプルx=(x1,x2,…,xn)に対して、次式
【0089】
【数10】
【0090】で与えられる識別関数f(x)を求めるこ
とである。
【0091】ここで、SVMの学習用の教師ラベルを次
【0092】
【数11】
【0093】のようにおく。
【0094】すると、SVMにおける顔パターンの認識
を次式
【0095】
【数12】
【0096】に示す制約条件の下での重み因子wの二乗
を最小化する問題としてとらえることができる。
【0097】このような制約のついた問題は、ラグラン
ジュの未定定数法を用いて解くことができる。すなわ
ち、次式
【0098】
【数13】
【0099】のようにラグランジュをまず導入し、次い
で、次式
【0100】
【数14】
【0101】のように、b,wの各々について偏微分す
る。
【0102】この結果、SVMにおける3次元物体の識
別を次式
【0103】
【数15】
【0104】に示す2次計画問題としてとらえることが
できる。
【0105】特微空間の次元数が、訓練サンプルの数よ
りも少ない場合は、スラック変数ζ≧0を導入して、制
約条件を次式
【0106】
【数16】
【0107】のように変更する。
【0108】最適化については、以下の目的関数を最小
化する、次式
【0109】
【数17】
【0110】のように変更する。
【0111】この(17)式において、Cは、制約条件
をどこまで緩めるかを指定する係数であり、実験的に値
を決定する必要がある。
【0112】ラグランジュ定数αに関する問題は次式器
【0113】
【数18】
【0114】のように変更される。
【0115】しかし、この(18)式のままでは、非線
形の問題を解くことはできない。そこで、本実施の形態
では、カーネル関数K(x,y′)を導入して、一旦、
高次元の空間に写像して(カーネル・トリック)、その
空間で線形分離することにしている。従って、元の空間
では非線形分離していることと同様となる。
【0116】カーネル関数は、ある写像Φを用いて次式
【0117】
【数19】
【0118】のように表される。
【0119】また、上述の(10)式に示した識別関数
も、次式
【0120】
【数20】
【0121】のように表すことができる。
【0122】また、学習に関しても、次式
【0123】
【数21】
【0124】に示す2次計画問題としてとられることが
できる。
【0125】カーネルとしては、次式
【0126】
【数22】
【0127】に示すガウシアン・カーネル(RBF(Ra
dius Basic Function ))などを用いることができる。
【0128】なお、ガボア・フィルタリングに関して
は、認識タクスに応じてフィルタの種類を変更するよう
にしてもよい。
【0129】低周波でのフィルタリングでは、フィルタ
リング後のイメージすべてをベクトルとして持っている
のは冗長である。そこで、ダウンサンプリングして、ベ
クトルの次元を落すようにしてもよい。ダウンサンプリ
ングされた24種類のベクトルを一列に並べ、長いベク
トルにする。
【0130】また、本実施の形態において3次元物体の
認識に適用されるSVMは、特徴空間を2分する識別器
であり、「物体A」か「物体Aでない」かを判別するよ
うに学習する。そのため、データベースの画像中から、
まず物体Aの画像を集め、ガボア・フィルタリング後の
ベクトルに「物体Aでない」というラベルを貼る。一般
に、集める画像の数は、特徴空間の次元より多い方がよ
い。例えば10個の3次元物体を認識したい場合は、同
様に、「物体Bである」、「物体Bでない」…のよう
に、それぞれの3次元物体に対して1つの識別器を構成
する。
【0131】このような学習により、例えば、「物体
A」と「物体Aでない」を分けるサポート・ベクタが求
まる。SVMは、特徴空間を2つに仕切る識別器であ
り、新しい画像が入力されてきたときに、やはりガボア
・フィルタリングのベクトルが、求めたサポート・ベク
タが構成する境界面のどちら側にあるかで認識結果を出
力する。そして、境界に対して、「物体A」の領域であ
れば、「物体A」と認識することができる。また、「物
体Aではない」領域であれば「物体Aでない」と認識さ
れる。
【0132】また認識性能を上げるために、ブートスト
ラップ手法を採用することができる。学習に用いる画像
とは別に画像を撮影して、ブートストラップに用いる。
これは、学習した識別器が誤った認識結果を出したとき
に、その入力画像を学習セットに投入して学習し直すこ
とを意味する。
【0133】また、認識性能を上げるために、認識結果
の時間変化を見る方法もある。最も簡単な方法では、1
0回中8回「物体A」と認識されたら「物体A」と認識
するなどである。他に、カルマン・フィルタを用いた予
測法なども利用できる。
【0134】(3)本実施の形態の動作及び効果 以上の構成において、ロボット1は、3次元物体60を
見つけると、当該3次元物体60を一方の腕部ユニット
4Bの手のひら23A上に載置して、これをCCDカメ
ラ50Aに対して所定の空間位置に位置させる。
【0135】そして、その状態でその腕部ユニット4B
を駆動して3次元物体60をその空間位置において45
度間隔で360度回転させることにより、その3次元物
体60を45度ごとにずらした方向から見たときの画像
データを収集し、当該収集した合計8枚分の画像の画像
データに基づいてその3次元物体60を認識するための
認識処理を実行すると共に、この際その3次元物体60
を認識できなかったときには、その合計8枚分の画像の
画像データに基づいてその3次元物体60を学習する。
【0136】従って、このロボット1は、3次元物体6
0に対する認識処理及び学習処理を常に一定条件(CC
Dカメラ50Aに対して常に一定の位置関係)の下で行
うことができるため、例えば一般家庭等の実環境におい
ても精度良く3次元物体60の認識を行うことができ
る。
【0137】またこのロボット1においては、このよう
に認識対象の3次元物体60を自発的にCCDカメラ5
0Aに対して一定の位置関係にある空間位置に持ってき
てから認識処理及び学習処理を行うため、ユーザの手を
煩わせることなく極めて自然に3次元物体60の認識及
び学習を行うことができる。
【0138】さらにロボット1においては、このように
自発的に3次元物体60の認識及び学習を行うため、ユ
ーザの家庭環境に合った物体認識を行えるようになるこ
とから、よりインタラクションを取れるようになる。
【0139】以上の構成によれば、ロボット1が認識対
象の3次元物体60を持ち、これをCCDカメラ50A
に対して所定の位置関係を有する空間位置にもってきて
から当該3次元物体60の認識処理や学習処理を行うよ
うにしたことにより、3次元物体60に対する認識処理
及び学習処理を常に一定条件下で行うことができ、かく
して一般家庭等の実環境においても精度良くかつ自然に
3次元物体60の認識を行い得るロボットを実現でき
る。
【0140】(4)他の実施の形態 なお上述の実施の形態においては、本発明を図1〜図5
のように構成された2足歩行型のロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成のロボット装置及びロボット装置
以外の他の装置に広く適用することができる。
【0141】この場合において、上述の実施の形態にお
いては、認識対象の物体を、CCDカメラ50Aに対し
て予め定められた所定の空間位置に移動させて、当該空
間位置において所定状態に保持する保持手段としての腕
部ユニット4Bを図1〜図3について説明した構成とす
るようにした場合について述べたが、本発明はこれに限
らず、この他種々の構成を広く適用することができる。
【0142】また上述の実地の形態においては、CCD
カメラ50Aの出力に基づいて3次元物体60を認識
し、認識できなかったときには当該3次元物体60を学
習する認識学習手段としてロボット1全体の動作を司る
メイン制御部40を適用するようにした場合について述
べたが、本発明はこれに限らず、例えばかかる機能を有
する学習認識手段をメイン制御部40とは別に設けるよ
うにしても良い。
【0143】またこの場合において、上述の実施の形態
においては、かかる3次元物体60の特徴を抽出するた
めの手法としてガボア・フィルタを用い、当該抽出した
特徴に基づいて3次元物体60を認識する手法としてサ
ポート・ベクタ・マシーン(SVM)を用いるようにし
た場合について述べたが、本発明はこれに限らず、この
他種々の手法を広く適用することができる。
【0144】因みに、3次元物体60の特徴を抽出する
ための手法としてガボア・フィルタを用いる場合におい
ても、上述の実施の形態のように8種類の方向と3通り
の周波数に固定されるものではなく、その方向及び周波
数の組み合せとしては、この他種々の組み合わせを広く
適用することができる。
【0145】さらに上述の実施の形態においては、認識
対象の3次元物体60を撮像する撮像手段としてCCD
カメラ50Aを適用するようにした場合について述べた
が、本発明はこれに限らず、MOS形固定撮像デバイス
等この他種々の撮像素子を広く適用することができる。
【0146】
【発明の効果】以上のように本発明によれば、物体認識
装置において、認識対象の物体を、所定の撮像手段に対
して予め定められた所定の空間位置に移動させて、当該
空間位置において所定状態に保持する保持手段と、撮像
手段の出力に基づいて物体を認識し、認識できなかった
ときには当該物体を学習する認識学習手段とを設けるよ
うにしたことにより、認識対象の物体を常に一定条件下
で認識処理及び学習処理でき、かくしてどのような環境
においても自然にかつ精度良く物体の認識を行い得る物
体認識装置を実現できる。
【0147】また本発明によれば、物体認識方法におい
て、認識対象の物体を、所定の撮像手段に対して予め定
められた所定の空間位置に移動させて、当該空間位置に
おいて所定状態に保持する第1のステップと、撮像手段
の出力に基づいて物体を認識し、認識できなかったとき
には当該物体を学習する第2のステップとを設けるよう
にしたことにより、認識対象の物体を常に一定条件下で
認識処理及び学習処理でき、かくしてどのような環境に
おいても自然にかつ精度良く物体の認識を行い得る物体
認識方法を実現できる。
【0148】さらに本発明によれば、物体を保持可能な
腕部を有するロボット装置において、周囲を撮像する撮
像手段と、撮像手段の出力に基づいて認識すべき物体を
選択し、当該選択した物体を撮像手段に対して予め定め
られた所定の空間位置に移動させて所定状態に保持する
ように、腕部の動きを制御する制御手段と、撮像手段の
出力に基づいて物体を認識し、認識できなかったときに
は当該物体を学習する認識学習手段とを設けるようにし
たことにより、認識対象の物体を常に一定条件下で認識
処理及び学習処理でき、かくしてどのような環境におい
ても自然にかつ精度良く物体の認識を行い得るロボット
装置を実現できる。
【図面の簡単な説明】
【図1】本実施の形態によるロボットの外部構成を示す
斜視図である。
【図2】ロボットの外部構成を示す斜視図である。
【図3】ロボットの外部構成の説明に供する略線図であ
る。
【図4】ロボットの内部構成の説明に供するブロック図
である。
【図5】ロボットの内部構成の説明に供するブロック図
である。
【図6】学習モード時の処理手順の説明に供する略線図
である。
【図7】認識モード時の処理手順の説明に供する略線図
である。
【図8】3次元物体認識処理手順の説明に供するフロー
チャートである。
【図9】3次元物体画像の切り出しの説明に供する略線
図である。
【図10】3次元物体画像の切り出しの説明に供する略
線図である。
【図11】ガボア・フィルタの空間領域での様相を示し
た図である。
【図12】ガボア・フィルタの空間領域での様相を示し
た図である。
【図13】ガボア・フィルタの空間領域での様相を示し
た図である。
【図14】元の3次元物体画像を示す図である。
【図15】図14の3次元物体画像を図11に示すガボ
ア・フィルタでフィルタリングした結果を示す図であ
る。
【図16】図14の3次元物体画像を図12に示すガボ
ア・フィルタでフィルタリングした結果を示す図であ
る。
【図17】図14の3次元物体画像を図13に示すガボ
ア・フィルタでフィルタリングした結果を示す図であ
る。
【図18】周波数領域でのガボア・フィルタの構成を示
す図である。
【図19】画像の再構築の説明に供する図である。
【符号の説明】
1……ロボット、4A、4B……腕部ユニット、23A
……手のひら、40……メイン制御部、50A、50B
……CCDカメラ、60……3次元物体。
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 315 G06T 1/00 315 Fターム(参考) 3C007 AS36 BS27 CS08 KT02 KT11 LW12 MT08 WA03 WA13 WB16 WB26 5B057 AA05 BA21 CA08 CA13 CA16 CE04 CE06 CE09 DB03 DB09 DC30 DC40 5L096 AA09 BA05 CA04 CA08 GA55 JA11

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】認識対象の物体を、所定の撮像手段に対し
    て予め定められた所定の空間位置に移動させて、当該空
    間位置において所定状態に保持する保持手段と、 上記撮像手段の出力に基づいて上記物体を認識し、認識
    できなかったときには当該物体を学習する認識学習手段
    とを具えることを特徴とする物体認識装置。
  2. 【請求項2】上記保持手段は、 上記保持した物体を、上記撮像手段に対する上記所定の
    空間位置において回転させ、 上記認識学習手段は、 上記撮像手段の出力に基づき得られる上記回転する物体
    の所定の回転角度ごとの画像情報に基づいて当該物体を
    認識し、必要に応じて当該物体を学習することを特徴と
    する請求項1に記載の物体認識装置。
  3. 【請求項3】上記認識学習手段は、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
    マシーン(SVM)を用いて上記認識対象の物体を認識
    することを特徴とする請求項1に記載の物体認識装置。
  4. 【請求項4】認識対象の物体を、所定の撮像手段に対し
    て予め定められた所定の空間位置に移動させて、当該空
    間位置において所定状態に保持する第1のステップと、 上記撮像手段の出力に基づいて上記物体を認識し、認識
    できなかったときには当該物体を学習する第2のステッ
    プとを具えることを特徴とする物体認識方法。
  5. 【請求項5】上記第1のステップでは、 上記保持した物体を、上記撮像手段に対する上記所定の
    空間位置において回転させ、 上記第2のステップでは、 上記撮像手段の出力に基づき得られる上記回転する物体
    の所定の回転角度ごとの画像情報に基づいて当該物体を
    認識し、必要に応じて当該物体を学習することを特徴と
    する請求項4に記載の物体認識方法。
  6. 【請求項6】上記第2のステップでは、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
    マシーン(SVM)を用いて上記認識対象の物体を認識
    することを特徴とする請求項4に記載の物体認識方法。
  7. 【請求項7】物体を保持可能な腕部を有するロボット装
    置において、 周囲を撮像する撮像手段と、 上記撮像手段の出力に基づいて認識すべき物体を選択
    し、当該選択した物体を上記撮像手段に対して予め定め
    られた所定の空間位置に移動させて所定状態に保持する
    ように、上記腕部の動きを制御する制御手段と、 上記撮像手段の出力に基づいて上記物体を認識し、認識
    できなかったときには当該物体を学習する認識学習手段
    とを具えることを特徴とするロボット装置。
  8. 【請求項8】上記制御手段は、 上記物体を、上記撮像手段に対する上記所定の空間位置
    において回転させるように上記腕部の動きを制御し、 上記認識学習手段は、 上記撮像手段の出力に基づき得られる上記回転する物体
    の所定の回転角度ごとの画像信号に基づいて当該物体を
    認識し、必要に応じて当該物体を学習することを特徴と
    する請求項7に記載のロボット装置。
  9. 【請求項9】上記認識学習手段は、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
    マシーン(SVM)を用いて上記認識対象の物体を認識
    することを特徴とする請求項7に記載のロボット装置。
JP2002151616A 2002-05-24 2002-05-24 物体認識装置及び方法並びにロボット装置 Expired - Fee Related JP4164737B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002151616A JP4164737B2 (ja) 2002-05-24 2002-05-24 物体認識装置及び方法並びにロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002151616A JP4164737B2 (ja) 2002-05-24 2002-05-24 物体認識装置及び方法並びにロボット装置

Publications (2)

Publication Number Publication Date
JP2003346152A true JP2003346152A (ja) 2003-12-05
JP4164737B2 JP4164737B2 (ja) 2008-10-15

Family

ID=29769132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002151616A Expired - Fee Related JP4164737B2 (ja) 2002-05-24 2002-05-24 物体認識装置及び方法並びにロボット装置

Country Status (1)

Country Link
JP (1) JP4164737B2 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202860A (ja) * 2004-01-19 2005-07-28 Mitsubishi Electric Corp 検出対象識別装置
WO2006001525A1 (en) * 2004-06-28 2006-01-05 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
JP2006167902A (ja) * 2004-12-20 2006-06-29 Yaskawa Electric Corp 双腕ロボットの制御装置および制御方法
JP2006228227A (ja) * 2005-02-17 2006-08-31 Northrop Grumman Corp 脅威対象がある状況下での地形追随飛行用の軌道を自動的に生成する混合整数線形計画法
JP2008257353A (ja) * 2007-04-02 2008-10-23 Advanced Telecommunication Research Institute International 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム
JP2011022992A (ja) * 2009-05-08 2011-02-03 Honda Research Inst Europe Gmbh 視覚に基づく3次元形状認識を備えたロボット
JP2013031913A (ja) * 2011-08-02 2013-02-14 GM Global Technology Operations LLC ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム
JP2013161391A (ja) * 2012-02-08 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
JP2016146188A (ja) * 2016-03-02 2016-08-12 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2018105433A1 (ja) 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびプログラム
WO2018105434A1 (ja) 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント システム、治具、情報処理装置、情報処理方法、およびプログラム
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム
KR20200113939A (ko) * 2019-03-27 2020-10-07 한국원자력 통제기술원 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법
CN114728417A (zh) * 2019-12-17 2022-07-08 X开发有限责任公司 由远程操作员触发的机器人自主对象学习

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101811626B (zh) * 2010-02-08 2013-01-02 广州御新软件有限公司 挖钞模块驱动机构
AU2013222780B2 (en) 2012-02-24 2015-08-27 Patrick Soon-Shiong Content activation via interaction-based authentication, systems and method

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005202860A (ja) * 2004-01-19 2005-07-28 Mitsubishi Electric Corp 検出対象識別装置
US7912253B2 (en) 2004-06-28 2011-03-22 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
WO2006001525A1 (en) * 2004-06-28 2006-01-05 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
JP2006011978A (ja) * 2004-06-28 2006-01-12 Canon Inc 画像処理方法、画像処理装置
JP2006167902A (ja) * 2004-12-20 2006-06-29 Yaskawa Electric Corp 双腕ロボットの制御装置および制御方法
JP2006228227A (ja) * 2005-02-17 2006-08-31 Northrop Grumman Corp 脅威対象がある状況下での地形追随飛行用の軌道を自動的に生成する混合整数線形計画法
JP2008257353A (ja) * 2007-04-02 2008-10-23 Advanced Telecommunication Research Institute International 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム
JP2011022992A (ja) * 2009-05-08 2011-02-03 Honda Research Inst Europe Gmbh 視覚に基づく3次元形状認識を備えたロボット
JP2013031913A (ja) * 2011-08-02 2013-02-14 GM Global Technology Operations LLC ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム
US8706299B2 (en) 2011-08-02 2014-04-22 GM Global Technology Operations LLC Method and system for controlling a dexterous robot execution sequence using state classification
DE102012213188B4 (de) * 2011-08-02 2015-06-25 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Verfahren und System zum Steuern einer Ausführungssequenz eines geschickten Roboters unter Verwendung einer Zustandsklassifizierung
JP2013161391A (ja) * 2012-02-08 2013-08-19 Sony Corp 情報処理装置、情報処理方法およびコンピュータプログラム
CN103295011A (zh) * 2012-02-08 2013-09-11 索尼公司 信息处理装置、信息处理方法、以及计算机程序
US9008442B2 (en) 2012-02-08 2015-04-14 Sony Corporation Information processing apparatus, information processing method, and computer program
JP2016146188A (ja) * 2016-03-02 2016-08-12 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
WO2018105434A1 (ja) 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント システム、治具、情報処理装置、情報処理方法、およびプログラム
WO2018105433A1 (ja) 2016-12-05 2018-06-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、およびプログラム
US10902629B2 (en) 2016-12-05 2021-01-26 Sony Interactive Entertainment Inc. Information processing device, information processing method, and program
US11200695B2 (en) 2016-12-05 2021-12-14 Sony Interactive Entertainment Inc. System, jig, information processing device, information processing method, and program
US11681910B2 (en) 2017-07-28 2023-06-20 Sony Interactive Entertainment Inc. Training apparatus, recognition apparatus, training method, recognition method, and program
WO2019021456A1 (ja) * 2017-07-28 2019-01-31 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム
JPWO2019021456A1 (ja) * 2017-07-28 2019-12-12 株式会社ソニー・インタラクティブエンタテインメント 学習装置、認識装置、学習方法、認識方法及びプログラム
CN110945537A (zh) * 2017-07-28 2020-03-31 索尼互动娱乐股份有限公司 训练装置、识别装置、训练方法、识别方法和程序
CN110945537B (zh) * 2017-07-28 2023-09-22 索尼互动娱乐股份有限公司 训练装置、识别装置、训练方法、识别方法和程序
KR102193329B1 (ko) 2019-03-27 2020-12-22 한국원자력 통제기술원 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법
KR20200113939A (ko) * 2019-03-27 2020-10-07 한국원자력 통제기술원 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법
US11584004B2 (en) 2019-12-17 2023-02-21 X Development Llc Autonomous object learning by robots triggered by remote operators
CN114728417A (zh) * 2019-12-17 2022-07-08 X开发有限责任公司 由远程操作员触发的机器人自主对象学习
CN114728417B (zh) * 2019-12-17 2024-04-16 X开发有限责任公司 由远程操作员触发的机器人自主对象学习的方法及设备

Also Published As

Publication number Publication date
JP4164737B2 (ja) 2008-10-15

Similar Documents

Publication Publication Date Title
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
JP2003346152A (ja) 物体認識装置及び方法並びにロボット装置
US11331806B2 (en) Robot control method and apparatus and robot using the same
Fang et al. Adaptive active visual servoing of nonholonomic mobile robots
US8060272B2 (en) System and method for image mapping and visual attention
JP4329398B2 (ja) 顔検出装置及び方法、並びにプログラム及び記録媒体
JP2007012047A (ja) 人間型ロボットのための身体近接空間および対象物を認識する方法
JP4016180B2 (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2003269917A (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
CN105631859A (zh) 三自由度仿生立体视觉***
JP4535096B2 (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置
JP2003150569A (ja) 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置
WO2022227664A1 (zh) 机器人姿态的控制方法、机器人、存储介质及计算机程序
Metta et al. Learning to track colored objects with log-polar vision
Hafez et al. Hybrid visual servoing by boosting IBVS and PBVS
CN108621164A (zh) 基于深度相机的太极推手机器人
Vernon et al. The iCub cognitive architecture
CN109531578B (zh) 仿人机械手臂体感控制方法及装置
WO2017179136A1 (ja) 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム
Welke et al. Active multi-view object search on a humanoid head
CN210121851U (zh) 一种机器人
Su Vision Based Surgical Tool Tracking and Force Estimation with Robot Kinematics Prior
US8406505B2 (en) Image brightness reduction for legged mobile robot
Knoop et al. Sensor fusion for model based 3d tracking
US20230290101A1 (en) Data processing method and apparatus, electronic device, and computer-readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20050428

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080125

A131 Notification of reasons for refusal

Effective date: 20080201

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20080331

Free format text: JAPANESE INTERMEDIATE CODE: A523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080703

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080716

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 4

Free format text: PAYMENT UNTIL: 20120808

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees