JP2003346152A - 物体認識装置及び方法並びにロボット装置 - Google Patents
物体認識装置及び方法並びにロボット装置Info
- Publication number
- JP2003346152A JP2003346152A JP2002151616A JP2002151616A JP2003346152A JP 2003346152 A JP2003346152 A JP 2003346152A JP 2002151616 A JP2002151616 A JP 2002151616A JP 2002151616 A JP2002151616 A JP 2002151616A JP 2003346152 A JP2003346152 A JP 2003346152A
- Authority
- JP
- Japan
- Prior art keywords
- recognized
- recognition
- predetermined
- learning
- dimensional object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
を精度良く行い難い問題があった。 【解決手段】物体認識装置及び方法において、認識対象
の物体を、所定の撮像手段に対して予め定められた所定
の空間位置に移動させて、当該空間位置において所定状
態に保持し、撮像手段の出力に基づいて物体を認識し、
認識できなかったときには当該物体を学習するようにし
た。またロボット装置において、周囲を撮像する撮像手
段と、撮像手段の出力に基づいて認識すべき物体を選択
し、当該選択した物体を撮像手段に対して予め定められ
た所定の空間位置に移動させて所定状態に保持するよう
に、腕部の動きを制御する制御手段と、撮像手段の出力
に基づいて物体を認識し、認識できなかったときには当
該物体を学習する認識学習手段とを設けるようにした。
Description
方法並びにロボット装置に関し、例えばエンターテイン
メントロボットに適用して好適なものである。
認識処理には、3次元物体の外観的な特徴を学習する学
習モードと、この学習結果に基づいてその後その3次元
物体を認識する認識モードとがある。
は、例えば背景が既知等の理想的な環境のもとで、予め
人間が選択した学習対象の3次元物体をロボットに搭載
されたCCD(Charge Coupled Device)カメラ等によ
り撮像させることにより、当該CCDカメラから出力さ
れる画像データに基づきその3次元物体の特徴をロボッ
トに学習させる方法(以下、これを第1の学習方法と呼
ぶ)が広く用いられている。
習させる方法として、認識させたい3次元物体の周りを
カメラに移動させながら、その3次元物体を一定角度間
隔で撮像し、かくして得られたその3次元物体の複数方
向からの画像の画像データに基づき3次元物体の特徴を
学習させるいわゆるアクティブビジョンと呼ばれる方法
(以下、これを第2の学習方法と呼ぶ)も知られてい
る。
第1の学習方法では、上述のように学習させたい3次元
物体を人間が選択するものであり、ロボット自身が学習
すべき3次元物体を選択し、これを学習するものではな
い。
の存在する範囲や大きさに対する事前知識が必要とな
り、第1の方法と同様に、かかる事前知識なしにロボッ
ト自身が学習すべき3次元物体を選択し、学習すること
はできない。
像を適切に選ぶことが困難であり、その結果、望むよう
な認識結果が得られないことによるものである。つま
り、従来の3次元物体認識方法では、ロボット等が3次
元物体を学習し易い都合の良い理想的な環境を人間が予
め設定することでロボット等が3次元物体を学習できる
のである。
から与えられないであろう一般家庭環境でロボットが動
作することを考えると、3次元物体の認識がうまく行わ
れないおそれがあった。
で、どのような環境においても自然にかつ精度良く物体
の認識を行い得る物体認識装置及び方法並びにロボット
装置を提案しようとするものである。
め本発明においては、物体認識装置において、認識対象
の物体を、所定の撮像手段に対して予め定められた所定
の空間位置に移動させて、当該空間位置において所定状
態に保持する保持手段と、撮像手段の出力に基づいて物
体を認識し、認識できなかったときには当該物体を学習
する認識学習手段とを設けるようにした。
の物体を常に一定条件下で認識処理及び学習処理でき
る。
いて、認識対象の物体を、所定の撮像手段に対して予め
定められた所定の空間位置に移動させて、当該空間位置
において所定状態に保持する第1のステップと、撮像手
段の出力に基づいて物体を認識し、認識できなかったと
きには当該物体を学習する第2のステップとを設けるよ
うにした。
識対象の物体を常に一定条件下で認識処理及び学習処理
できる。
な腕部を有するロボット装置において、周囲を撮像する
撮像手段と、撮像手段の出力に基づいて認識すべき物体
を選択し、当該選択した物体を撮像手段に対して予め定
められた所定の空間位置に移動させて所定状態に保持す
るように、腕部の動きを制御する制御手段と、撮像手段
の出力に基づいて物体を認識し、認識できなかったとき
には当該物体を学習する認識学習手段とを設けるように
した。
の物体を常に一定条件下で認識処理及び学習処理でき
る。
施の形態を詳述する。
よる2足歩行型のロボットを示し、胴体部ユニット2の
上部に頭部ユニット3が配設されると共に、当該胴体部
ユニット2の上部左右にそれぞれ腕部ユニット4A、4
Bがそれぞれ配設され、かつ胴体部ユニット2の下部左
右にそれぞれ脚部ユニット5A、5Bがそれぞれ所定位
置に取り付けられることにより構成されている。
形成するフレーム10及び体幹下部を形成する腰ベース
11が腰関節機構12を介して連結することにより構成
されており、体幹下部の腰ベース11に固定された腰関
節機構12の各アクチュエータA1、A2をそれぞれ駆
動することによって、体幹上部を図3に示す直交するロ
ール軸13及びピッチ軸14の回りにそれぞれ独立に回
転させ得るようになされている。
端に固定された肩ベース15の上面中央部に首関節機構
16を介して取り付けられており、当該首関節機構16
の各アクチュエータA3、A4をそれぞれ駆動すること
によって、図3に示す直交するピッチ軸17及びヨー軸
18の回りにそれぞれ独立に回転させ得るようになされ
ている。
ぞれ肩関節機構19を介して肩ベース15の左右に取り
付けられており、対応する肩関節機構19の各アクチュ
エータA5、A6をそれぞれ駆動することによって図3
に示す直交するピッチ軸20及びロール軸21の回りに
それぞれ独立に回転させ得るようになされている。
それぞれ上腕部を形成するアクチュエータA7の出力軸
に肘関節機構22を介して前腕部を形成するアクチュエ
ータA8が連結され、当該前腕部の先端に手部23が取
り付けられることにより構成されている。
クチュエータA7を駆動することによって前腕部を図3
に示すヨー軸24の回りに回転させ、アクチュエータA
8を駆動することによって前腕部を図3に示すピッチ軸
25の回りにそれぞれ回転させることができるようにな
されている。
おいては、それぞれ股関節機構26を介して体幹下部の
腰ベース11にそれぞれ取り付けられており、それぞれ
対応する股関節機構26の各アクチュエータA9〜A
11をそれぞれ駆動することによって、図3に示す互い
に直交するヨー軸27、ロール軸28及びピッチ軸29
の回りにそれぞれ独立に回転させ得るようになされてい
る。
れぞれ大腿部を形成するフレーム30の下端に膝関節機
構31を介して下腿部を形成するフレーム32が連結さ
れると共に、当該フレーム32の下端に足首関節機構3
3を介して足部34が連結されることにより構成されて
いる。
いては、膝関節機構31を形成するアクチュエータA
12を駆動することによって、下腿部を図3に示すピッ
チ軸35の回りに回転させることができ、また足首関節
機構33のアクチュエータA1 3、A14をそれぞれ駆
動することによって、足部34を図3に示す直交するピ
ッチ軸36及びロール軸37の回りにそれぞれ独立に回
転させ得るようになされている。
する腰ベース11の背面側には、図4に示すように、当
該ロボット1全体の動作制御を司るメイン制御部40
と、電源回路及び通信回路などの周辺回路41と、バッ
テリ45(図5)となどがボックスに収納されてなる制
御ユニット42が配設されている。
ニット(胴体部ユニット2、頭部ユニット3、各腕部ユ
ニット4A、4B及び各脚部ユニット5A、5B)内に
それぞれ配設された各サブ制御部43A〜43Dと接続
されており、これらサブ制御部43A〜43Dに対して
必要な電源電圧を供給したり、これらサブ制御部43A
〜43Dと通信を行うことができるようになされてい
る。
ぞれ対応する構成ユニット内の各アクチュエータA1〜
A14と接続されており、当該構成ユニット内の各アク
チュエータA1〜A14をメイン制御部40から与えら
れる各種制御コマンドに基づいて指定された状態に駆動
し得るようになされている。
うに、それぞれこのロボット1の「目」として機能する
一対のCCDカメラ50A、50Bと、「耳」として機
能するマイクロホン51と、「口」として機能するスピ
ーカ52となどがそれぞれ所定位置に配設され、制御ユ
ニット42内には、バッテリセンサ53及び加速度セン
サ54などが配設されている。
れぞれロボット1の前方の状況を撮像し、得られた画像
信号S1A、S1Bをメイン制御部40に送出する一
方、マイクロホン51は、ユーザから音声入力として与
えられる「歩け」、「伏せ」又は「ボールを追いかけ
ろ」等の各種命令音声を集音し、かくして得られた音声
信号S2をメイン制御部40に送出するようになされて
いる。
のエネルギ残量を所定周期で検出し、検出結果をバッテ
リ残量検出信号S3としてメイン制御部40に送出する
一方、加速度センサ54は、3軸方向(x軸、y軸及び
z軸)の加速度を所定周期で検出し、検出結果を加速度
検出信号S4としてメイン制御部40に送出する。
A、50B及びマイクロホン51からそれぞれ供給され
る画像信号S1A、S1B及び音声信号S2と、バッテ
リセンサ53及び加速度センサ54からそれぞれ供給さ
れるバッテリ残量検出信号S3及び加速度検出信号S4
に基づいて、ロボット1の周囲及び内部の状況や、ユー
ザからの指令、ユーザからの働きかけの有無などを判断
する。
と、予め内部メモリ40Aに格納されている制御プログ
ラム及び各種制御パラメータに基づいて続く行動を決定
し、決定結果に基づく制御コマンドを対応するサブ制御
部43A〜43Dに送出する。
のサブ制御部43A〜43Dの制御のもとに、対応する
アクチュエータA1〜A14が駆動され、かくして頭部
ユニット3を上下左右に揺動させたり、腕部ユニット4
A、4Bを上にあげたり、歩行するなどの行動がロボッ
ト1により発現されることとなる。
じて所定の音声信号S3をスピーカ54に与えることに
より当該音声信号S5に基づく音声を外部に出力させた
り、外見上の「目」として機能する頭部ユニット3の所
定位置に設けられたLED(図示せず)に駆動信号を出
力することによりこれを点滅させる。
は、周囲及び内部の状況や、ユーザからの指令などに基
づいて自律的に行動することができるようになされてい
る。
機能 (2−1)本実施の形態による3次元物体認識機能の構
成 次に、このロボット1に搭載された3次元物体認識機能
について説明する。
次元物体を自動学習し、当該学習結果に基づいてその後
その3次元物体を認識する3次元物体認識機能が搭載さ
れている。
モードとして学習モード及び認識モードの2つのモード
を有している。そして学習モードでは、図6に示すよう
に、所定の一方のCCDカメラ50Aから出力される画
像信号S1Aに基づく画像P1中から学習対象の3次元
物体の画像領域を切り出し(ステップSP1)、当該切
り出された画像領域の画像信号に基づいてその3次元物
体の特徴を抽出し、当該抽出した特徴に基づいてその3
次元物体を学習器に学習させる(ステップSP2)。
画像信号S1Aに基づく画像P2中から認識対象の3次
元物体の画像領域を切り出し(ステップSP3)、当該
切り出された画像領域の画像信号に基づいてその3次元
物体の特徴を抽出し、当該抽出した特徴とそのときまで
に学習している各3次元物体の特徴とに基づいてその認
識対象の3次元物体を認識して(ステップSP4)、そ
の認識結果を出力する(ステップSP5)。
処理は、メイン制御部40におけるソフトウェア処理に
より図8に示す3次元物体認識処理手順RT1に従って
行われる。
ラ50Aからの画像信号S1Aに基づいて、持ち上げ可
能な大きさ及び距離にある3次元物体60(図9)を検
出すると、この3次元物体認識処理手順RT1をステッ
プSP10において開始し、続くステップSP11にお
いて認識モードに遷移して、まず各CCDカメラ50
A、50Bからの画像信号S1A、S1Bに基づいてそ
の3次元物体までの距離を算出し、当該算出結果に基づ
いて対応するアクチュエータA1〜A14を駆動するこ
とにより、その3次元物体をロボット1に持たせ、これ
を当該ロボット1の予め定められた一方の腕部ユニット
4Bにおける手のひら23A(図10)上の所定位置に
載置させる。
12に進んで、対応するアクチュエータA1〜A14を
駆動してロボット1の腕部ユニット4Bを動かすことに
より、図9に示すように、その一方の腕部ユニット4B
における手のひら23A上に載置させた3次元物体をC
CDカメラ50Aに対して予め設定された所定の空間位
置にまで移動させる。またこの際、メイン制御部40
は、首関節機構16のアクチュエータA4、A5等を駆
動することにより、CCDカメラ50Aの光学軸をこの
手のひら23A上に載置された3次元物体60に向けさ
せる。
13に進んで、対応するアクチュエータA1〜A14を
駆動して、かかる3次元物体60を載置した手のひら2
3Aをその中心位置を中心として回転させることによ
り、その3次元物体を上述の空間位置において45度ず
つ360度だけ回転させる。またメイン制御部40は、
これと共にCCDカメラ50Aから出力されるその45
度間隔の3次元物体60を撮像した画像の画像信号S1
Aを順次記憶する。
プSP14に進んで、このようにして得られた45度間
隔の合計8枚分の画像(以下、これを原画像と呼ぶ)か
らそれぞれ認識対象であるその3次元物体60の画像領
域を切り出す画像切出し処理を実行する。
元物体60を載置した自己の手のひら23Aよりも近く
にあるものを抜き出すという画像処理により行うことが
できる。具体的には、CCDカメラ50Aからその3次
元物体60を載置している手のひら23Aまでの距離が
その一方の腕部ユニット4Bにおける肩関節機構19や
肘関節機構22との関係により分かっているので、かか
る8枚分の原画像を撮像する際にこれと合わせて距離画
像を生成して保存し、この距離画像に基づいて求めた距
離が当該手のひら23Aよりも近い画像領域を中心とし
て矩形状に切り出すことにより行うことができる。
にして8枚の原画像からそれぞれ切り出した各画像領域
(以下、これを切出し画像と呼ぶ)を、計算の都合上同
じ次元にするため、例えば縦横30画素程度の大きさで
正規化する。
15に進んで、この正規化した8枚の切出し画像に基づ
いてその3次元物体60を認識する認識処理を実行し、
この後ステップSP16に進んで、その3次元物体60
を認識できたか否かを判断する。
SP16において肯定結果を得ると、ステップSP18
に進んでその認識結果を3次元物体認識機能用のオブジ
ェクトとは異なる他のオブジェクトに出力し、この後ス
テップSP19に進んでこの3次元物体認識処理手順R
T1を終了する。
プSP16において否定結果を得ると、ステップSP1
7に進んで学習モードに遷移し、ステップSP14にお
いて得られた8枚の切出し画像の画像データに基づいて
その3次元物体60の特徴を抽出してこれを記憶するよ
うにして当該3次元物体60を学習する。この学習結果
は、この後その3次元物体60を認識する際等に利用さ
れる。そしてメイン制御部40は、この後ステップSP
19に進んで、この3次元物体認識処理手順RT1を終
了する。
は、実環境にある3次元物体60を自己学習し、当該学
習結果に基づいてその後その3次元物体60を認識し得
るようになされている。
認識処理 ここで、このロボット1の場合、原画像から切り出され
た切出し画像の画像データに基づいて認識対象や学習対
象となっている3次元物体60の特徴を抽出する処理に
「ガボア・フィルタリング(Gabor Filtering)」を採
用し、また当該ガボア・フィルタリングにより抽出した
その3次元物体の特徴に基づいてその3次元物体60を
認識したり学習する処理に「サポート・ベクタ・マシー
ン(SVM:Support Vector Machine)」を採用してい
る。
ート・ベクタ・マシーンについて、それぞれ詳細に説明
する。
持つ細胞が存在することが既に判っている。これは、垂
直の線に対して発火する細胞と、水平の線に反応する細
胞で構成される。ガボア・フィルタリングは、これと同
様に、方位選択性を持つ複数のフィルタで構成される空
間フィルタである。
空間表現される。ガボア関数g(x,y)は、次式
アs(x,y)と、2次元ガウス分布状のエンベローブ
wr(x,y)とで構成される。キャリアs(x,y)
は、複索関数を用いて、次式
0,v0)は空間周波数を表し、またPはコサイン成分
の位相を表す。
y))と虚数成分Im(s(x,y))に分離すること
ができる。
ープは、次式
のピークであり、定数a及びbはガウス分布のスケール
・パラメータである。また、添え字rは、次式
ア・フィルタは、次式
ード時には、8種類の方向と3通りの周波数を採用し
て、合計24個のガボア・フィルタを用いて3次元物体
の特徴抽出を行う。本実施の形態で使用されるガボア・
フィルタの空間領域での様相を図11〜図13に示す。
このうち、図11(A)〜(H)は、方向を22.5度
ずつずらした高周波成分のガボア・フィルタである。ま
た、図12(A)〜(H)は、方向を22.5度ずつず
らした中周波成分のガボア・フィルタである。また、図
13(A)〜(H)は、方向を22.5度ずつずらした
低周波成分のガボア・フィルタである。但し、各図にお
ける濃淡は紙面に直交する座標軸方向の成分に相当す
る。
i番目のガボア・フィルタとし、i番目のガボアの結果
(Gabor Jet)をJiとし、入力イメージをI
とし、すると、次式
には高速フーリエ変換を用いて高速化することができ
る。
画像を20×20画素とする)を、図11〜図13に示
す各ガボア・フィルタでフィルタリングされた結果を、
図15〜図17に示す。また図18に周波数領域でのガ
ボア・フィルタの構成を示す。図18(A)は20×2
0画素、図18(B)は64×64画素の画像に対する
フィルタであるが、どちらでも大体全ての周波数を埋め
尽くすことが分かり、理論通りにガボア・フィルタが構
成されていることが分かる。
ルタリングして得られた画像を再構築することによって
調べることができる。再構築されたイメージHは、次式
とのエラーEは、次式
を求めることにより再構築することができる。
うにして再構築した結果を図19(B)に示す。このと
きのエラーは0.3426であり、ガボア・フィルタをかけた
結果が欠損せず、良いガボア・フィルタが構成されてい
ることが分かる。タスクによりフィルタの構成を変える
とき(例えば顔認識や3次元物体認識によって変えると
き)にこの再構築を用いることができる。
ン 本実施の形態では、3次元物体の認識処理に関して、パ
ターン認識の分野で最も学習汎化能力が高いとされるサ
ポート・ベクタ・マシーン(SVM)を用いて学習済み
の3次元物体60であるか否かの識別を行う。
lkop外著の報告(B. Sholkop f, C. Burges, A. Sm
ola, "Advance in Kernel Methods Support Vector Lea
rning", The MIT Press, 1999.)を挙げることができ
る。本発明者らが行った予備実験の結果からは、SVM
による物体認識方法は、主成分分析(PCA)やニュー
ラル・ネットワークを用いる手法に比べ、良好な結果を
示すことが判っている。
プトロン)を用いた学習機械であり、カーネル関数を使
うことで非線形空間に拡張することができる。また、識
別関数の学習では、クラス間分離のマージンを最大にと
るように行われ、その解は、2次数理計画法を解くこと
で得られるため、グローバル解に到達できることを理論
的に保証することができる。
ンプルx=(x1,x2,…,xn)に対して、次式
とである。
式
を次式
を最小化する問題としてとらえることができる。
ジュの未定定数法を用いて解くことができる。すなわ
ち、次式
で、次式
る。
別を次式
できる。
りも少ない場合は、スラック変数ζ≧0を導入して、制
約条件を次式
化する、次式
をどこまで緩めるかを指定する係数であり、実験的に値
を決定する必要がある。
形の問題を解くことはできない。そこで、本実施の形態
では、カーネル関数K(x,y′)を導入して、一旦、
高次元の空間に写像して(カーネル・トリック)、その
空間で線形分離することにしている。従って、元の空間
では非線形分離していることと同様となる。
も、次式
できる。
dius Basic Function ))などを用いることができる。
は、認識タクスに応じてフィルタの種類を変更するよう
にしてもよい。
リング後のイメージすべてをベクトルとして持っている
のは冗長である。そこで、ダウンサンプリングして、ベ
クトルの次元を落すようにしてもよい。ダウンサンプリ
ングされた24種類のベクトルを一列に並べ、長いベク
トルにする。
認識に適用されるSVMは、特徴空間を2分する識別器
であり、「物体A」か「物体Aでない」かを判別するよ
うに学習する。そのため、データベースの画像中から、
まず物体Aの画像を集め、ガボア・フィルタリング後の
ベクトルに「物体Aでない」というラベルを貼る。一般
に、集める画像の数は、特徴空間の次元より多い方がよ
い。例えば10個の3次元物体を認識したい場合は、同
様に、「物体Bである」、「物体Bでない」…のよう
に、それぞれの3次元物体に対して1つの識別器を構成
する。
A」と「物体Aでない」を分けるサポート・ベクタが求
まる。SVMは、特徴空間を2つに仕切る識別器であ
り、新しい画像が入力されてきたときに、やはりガボア
・フィルタリングのベクトルが、求めたサポート・ベク
タが構成する境界面のどちら側にあるかで認識結果を出
力する。そして、境界に対して、「物体A」の領域であ
れば、「物体A」と認識することができる。また、「物
体Aではない」領域であれば「物体Aでない」と認識さ
れる。
ラップ手法を採用することができる。学習に用いる画像
とは別に画像を撮影して、ブートストラップに用いる。
これは、学習した識別器が誤った認識結果を出したとき
に、その入力画像を学習セットに投入して学習し直すこ
とを意味する。
の時間変化を見る方法もある。最も簡単な方法では、1
0回中8回「物体A」と認識されたら「物体A」と認識
するなどである。他に、カルマン・フィルタを用いた予
測法なども利用できる。
見つけると、当該3次元物体60を一方の腕部ユニット
4Bの手のひら23A上に載置して、これをCCDカメ
ラ50Aに対して所定の空間位置に位置させる。
を駆動して3次元物体60をその空間位置において45
度間隔で360度回転させることにより、その3次元物
体60を45度ごとにずらした方向から見たときの画像
データを収集し、当該収集した合計8枚分の画像の画像
データに基づいてその3次元物体60を認識するための
認識処理を実行すると共に、この際その3次元物体60
を認識できなかったときには、その合計8枚分の画像の
画像データに基づいてその3次元物体60を学習する。
0に対する認識処理及び学習処理を常に一定条件(CC
Dカメラ50Aに対して常に一定の位置関係)の下で行
うことができるため、例えば一般家庭等の実環境におい
ても精度良く3次元物体60の認識を行うことができ
る。
に認識対象の3次元物体60を自発的にCCDカメラ5
0Aに対して一定の位置関係にある空間位置に持ってき
てから認識処理及び学習処理を行うため、ユーザの手を
煩わせることなく極めて自然に3次元物体60の認識及
び学習を行うことができる。
自発的に3次元物体60の認識及び学習を行うため、ユ
ーザの家庭環境に合った物体認識を行えるようになるこ
とから、よりインタラクションを取れるようになる。
象の3次元物体60を持ち、これをCCDカメラ50A
に対して所定の位置関係を有する空間位置にもってきて
から当該3次元物体60の認識処理や学習処理を行うよ
うにしたことにより、3次元物体60に対する認識処理
及び学習処理を常に一定条件下で行うことができ、かく
して一般家庭等の実環境においても精度良くかつ自然に
3次元物体60の認識を行い得るロボットを実現でき
る。
のように構成された2足歩行型のロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の構成のロボット装置及びロボット装置
以外の他の装置に広く適用することができる。
いては、認識対象の物体を、CCDカメラ50Aに対し
て予め定められた所定の空間位置に移動させて、当該空
間位置において所定状態に保持する保持手段としての腕
部ユニット4Bを図1〜図3について説明した構成とす
るようにした場合について述べたが、本発明はこれに限
らず、この他種々の構成を広く適用することができる。
カメラ50Aの出力に基づいて3次元物体60を認識
し、認識できなかったときには当該3次元物体60を学
習する認識学習手段としてロボット1全体の動作を司る
メイン制御部40を適用するようにした場合について述
べたが、本発明はこれに限らず、例えばかかる機能を有
する学習認識手段をメイン制御部40とは別に設けるよ
うにしても良い。
においては、かかる3次元物体60の特徴を抽出するた
めの手法としてガボア・フィルタを用い、当該抽出した
特徴に基づいて3次元物体60を認識する手法としてサ
ポート・ベクタ・マシーン(SVM)を用いるようにし
た場合について述べたが、本発明はこれに限らず、この
他種々の手法を広く適用することができる。
ための手法としてガボア・フィルタを用いる場合におい
ても、上述の実施の形態のように8種類の方向と3通り
の周波数に固定されるものではなく、その方向及び周波
数の組み合せとしては、この他種々の組み合わせを広く
適用することができる。
対象の3次元物体60を撮像する撮像手段としてCCD
カメラ50Aを適用するようにした場合について述べた
が、本発明はこれに限らず、MOS形固定撮像デバイス
等この他種々の撮像素子を広く適用することができる。
装置において、認識対象の物体を、所定の撮像手段に対
して予め定められた所定の空間位置に移動させて、当該
空間位置において所定状態に保持する保持手段と、撮像
手段の出力に基づいて物体を認識し、認識できなかった
ときには当該物体を学習する認識学習手段とを設けるよ
うにしたことにより、認識対象の物体を常に一定条件下
で認識処理及び学習処理でき、かくしてどのような環境
においても自然にかつ精度良く物体の認識を行い得る物
体認識装置を実現できる。
て、認識対象の物体を、所定の撮像手段に対して予め定
められた所定の空間位置に移動させて、当該空間位置に
おいて所定状態に保持する第1のステップと、撮像手段
の出力に基づいて物体を認識し、認識できなかったとき
には当該物体を学習する第2のステップとを設けるよう
にしたことにより、認識対象の物体を常に一定条件下で
認識処理及び学習処理でき、かくしてどのような環境に
おいても自然にかつ精度良く物体の認識を行い得る物体
認識方法を実現できる。
腕部を有するロボット装置において、周囲を撮像する撮
像手段と、撮像手段の出力に基づいて認識すべき物体を
選択し、当該選択した物体を撮像手段に対して予め定め
られた所定の空間位置に移動させて所定状態に保持する
ように、腕部の動きを制御する制御手段と、撮像手段の
出力に基づいて物体を認識し、認識できなかったときに
は当該物体を学習する認識学習手段とを設けるようにし
たことにより、認識対象の物体を常に一定条件下で認識
処理及び学習処理でき、かくしてどのような環境におい
ても自然にかつ精度良く物体の認識を行い得るロボット
装置を実現できる。
斜視図である。
る。
である。
である。
である。
である。
チャートである。
図である。
線図である。
た図である。
た図である。
た図である。
ア・フィルタでフィルタリングした結果を示す図であ
る。
ア・フィルタでフィルタリングした結果を示す図であ
る。
ア・フィルタでフィルタリングした結果を示す図であ
る。
す図である。
……手のひら、40……メイン制御部、50A、50B
……CCDカメラ、60……3次元物体。
Claims (9)
- 【請求項1】認識対象の物体を、所定の撮像手段に対し
て予め定められた所定の空間位置に移動させて、当該空
間位置において所定状態に保持する保持手段と、 上記撮像手段の出力に基づいて上記物体を認識し、認識
できなかったときには当該物体を学習する認識学習手段
とを具えることを特徴とする物体認識装置。 - 【請求項2】上記保持手段は、 上記保持した物体を、上記撮像手段に対する上記所定の
空間位置において回転させ、 上記認識学習手段は、 上記撮像手段の出力に基づき得られる上記回転する物体
の所定の回転角度ごとの画像情報に基づいて当該物体を
認識し、必要に応じて当該物体を学習することを特徴と
する請求項1に記載の物体認識装置。 - 【請求項3】上記認識学習手段は、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
マシーン(SVM)を用いて上記認識対象の物体を認識
することを特徴とする請求項1に記載の物体認識装置。 - 【請求項4】認識対象の物体を、所定の撮像手段に対し
て予め定められた所定の空間位置に移動させて、当該空
間位置において所定状態に保持する第1のステップと、 上記撮像手段の出力に基づいて上記物体を認識し、認識
できなかったときには当該物体を学習する第2のステッ
プとを具えることを特徴とする物体認識方法。 - 【請求項5】上記第1のステップでは、 上記保持した物体を、上記撮像手段に対する上記所定の
空間位置において回転させ、 上記第2のステップでは、 上記撮像手段の出力に基づき得られる上記回転する物体
の所定の回転角度ごとの画像情報に基づいて当該物体を
認識し、必要に応じて当該物体を学習することを特徴と
する請求項4に記載の物体認識方法。 - 【請求項6】上記第2のステップでは、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
マシーン(SVM)を用いて上記認識対象の物体を認識
することを特徴とする請求項4に記載の物体認識方法。 - 【請求項7】物体を保持可能な腕部を有するロボット装
置において、 周囲を撮像する撮像手段と、 上記撮像手段の出力に基づいて認識すべき物体を選択
し、当該選択した物体を上記撮像手段に対して予め定め
られた所定の空間位置に移動させて所定状態に保持する
ように、上記腕部の動きを制御する制御手段と、 上記撮像手段の出力に基づいて上記物体を認識し、認識
できなかったときには当該物体を学習する認識学習手段
とを具えることを特徴とするロボット装置。 - 【請求項8】上記制御手段は、 上記物体を、上記撮像手段に対する上記所定の空間位置
において回転させるように上記腕部の動きを制御し、 上記認識学習手段は、 上記撮像手段の出力に基づき得られる上記回転する物体
の所定の回転角度ごとの画像信号に基づいて当該物体を
認識し、必要に応じて当該物体を学習することを特徴と
する請求項7に記載のロボット装置。 - 【請求項9】上記認識学習手段は、 ガボア・フィルタを用いて上記物体の特徴を抽出し、 当該抽出した物体の特徴に基づき、サポート・ベクタ・
マシーン(SVM)を用いて上記認識対象の物体を認識
することを特徴とする請求項7に記載のロボット装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002151616A JP4164737B2 (ja) | 2002-05-24 | 2002-05-24 | 物体認識装置及び方法並びにロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002151616A JP4164737B2 (ja) | 2002-05-24 | 2002-05-24 | 物体認識装置及び方法並びにロボット装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003346152A true JP2003346152A (ja) | 2003-12-05 |
JP4164737B2 JP4164737B2 (ja) | 2008-10-15 |
Family
ID=29769132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002151616A Expired - Fee Related JP4164737B2 (ja) | 2002-05-24 | 2002-05-24 | 物体認識装置及び方法並びにロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4164737B2 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202860A (ja) * | 2004-01-19 | 2005-07-28 | Mitsubishi Electric Corp | 検出対象識別装置 |
WO2006001525A1 (en) * | 2004-06-28 | 2006-01-05 | Canon Kabushiki Kaisha | Object recognition method and apparatus therefor |
JP2006167902A (ja) * | 2004-12-20 | 2006-06-29 | Yaskawa Electric Corp | 双腕ロボットの制御装置および制御方法 |
JP2006228227A (ja) * | 2005-02-17 | 2006-08-31 | Northrop Grumman Corp | 脅威対象がある状況下での地形追随飛行用の軌道を自動的に生成する混合整数線形計画法 |
JP2008257353A (ja) * | 2007-04-02 | 2008-10-23 | Advanced Telecommunication Research Institute International | 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム |
JP2011022992A (ja) * | 2009-05-08 | 2011-02-03 | Honda Research Inst Europe Gmbh | 視覚に基づく3次元形状認識を備えたロボット |
JP2013031913A (ja) * | 2011-08-02 | 2013-02-14 | GM Global Technology Operations LLC | ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム |
JP2013161391A (ja) * | 2012-02-08 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP2016146188A (ja) * | 2016-03-02 | 2016-08-12 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
WO2018105433A1 (ja) | 2016-12-05 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、およびプログラム |
WO2018105434A1 (ja) | 2016-12-05 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | システム、治具、情報処理装置、情報処理方法、およびプログラム |
WO2019021456A1 (ja) * | 2017-07-28 | 2019-01-31 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
KR20200113939A (ko) * | 2019-03-27 | 2020-10-07 | 한국원자력 통제기술원 | 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법 |
CN114728417A (zh) * | 2019-12-17 | 2022-07-08 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101811626B (zh) * | 2010-02-08 | 2013-01-02 | 广州御新软件有限公司 | 挖钞模块驱动机构 |
AU2013222780B2 (en) | 2012-02-24 | 2015-08-27 | Patrick Soon-Shiong | Content activation via interaction-based authentication, systems and method |
-
2002
- 2002-05-24 JP JP2002151616A patent/JP4164737B2/ja not_active Expired - Fee Related
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005202860A (ja) * | 2004-01-19 | 2005-07-28 | Mitsubishi Electric Corp | 検出対象識別装置 |
US7912253B2 (en) | 2004-06-28 | 2011-03-22 | Canon Kabushiki Kaisha | Object recognition method and apparatus therefor |
WO2006001525A1 (en) * | 2004-06-28 | 2006-01-05 | Canon Kabushiki Kaisha | Object recognition method and apparatus therefor |
JP2006011978A (ja) * | 2004-06-28 | 2006-01-12 | Canon Inc | 画像処理方法、画像処理装置 |
JP2006167902A (ja) * | 2004-12-20 | 2006-06-29 | Yaskawa Electric Corp | 双腕ロボットの制御装置および制御方法 |
JP2006228227A (ja) * | 2005-02-17 | 2006-08-31 | Northrop Grumman Corp | 脅威対象がある状況下での地形追随飛行用の軌道を自動的に生成する混合整数線形計画法 |
JP2008257353A (ja) * | 2007-04-02 | 2008-10-23 | Advanced Telecommunication Research Institute International | 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム |
JP2011022992A (ja) * | 2009-05-08 | 2011-02-03 | Honda Research Inst Europe Gmbh | 視覚に基づく3次元形状認識を備えたロボット |
JP2013031913A (ja) * | 2011-08-02 | 2013-02-14 | GM Global Technology Operations LLC | ステージクラス化を用いた器用なロボットの実行シーケンスを制御するための方法およびシステム |
US8706299B2 (en) | 2011-08-02 | 2014-04-22 | GM Global Technology Operations LLC | Method and system for controlling a dexterous robot execution sequence using state classification |
DE102012213188B4 (de) * | 2011-08-02 | 2015-06-25 | GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) | Verfahren und System zum Steuern einer Ausführungssequenz eines geschickten Roboters unter Verwendung einer Zustandsklassifizierung |
JP2013161391A (ja) * | 2012-02-08 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法およびコンピュータプログラム |
CN103295011A (zh) * | 2012-02-08 | 2013-09-11 | 索尼公司 | 信息处理装置、信息处理方法、以及计算机程序 |
US9008442B2 (en) | 2012-02-08 | 2015-04-14 | Sony Corporation | Information processing apparatus, information processing method, and computer program |
JP2016146188A (ja) * | 2016-03-02 | 2016-08-12 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
WO2018105434A1 (ja) | 2016-12-05 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | システム、治具、情報処理装置、情報処理方法、およびプログラム |
WO2018105433A1 (ja) | 2016-12-05 | 2018-06-14 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、およびプログラム |
US10902629B2 (en) | 2016-12-05 | 2021-01-26 | Sony Interactive Entertainment Inc. | Information processing device, information processing method, and program |
US11200695B2 (en) | 2016-12-05 | 2021-12-14 | Sony Interactive Entertainment Inc. | System, jig, information processing device, information processing method, and program |
US11681910B2 (en) | 2017-07-28 | 2023-06-20 | Sony Interactive Entertainment Inc. | Training apparatus, recognition apparatus, training method, recognition method, and program |
WO2019021456A1 (ja) * | 2017-07-28 | 2019-01-31 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
JPWO2019021456A1 (ja) * | 2017-07-28 | 2019-12-12 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、認識装置、学習方法、認識方法及びプログラム |
CN110945537A (zh) * | 2017-07-28 | 2020-03-31 | 索尼互动娱乐股份有限公司 | 训练装置、识别装置、训练方法、识别方法和程序 |
CN110945537B (zh) * | 2017-07-28 | 2023-09-22 | 索尼互动娱乐股份有限公司 | 训练装置、识别装置、训练方法、识别方法和程序 |
KR102193329B1 (ko) | 2019-03-27 | 2020-12-22 | 한국원자력 통제기술원 | 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법 |
KR20200113939A (ko) * | 2019-03-27 | 2020-10-07 | 한국원자력 통제기술원 | 전략물자 식별을 위한 3차원 모델을 활용한 2차원 이미지 유사도 비교 시스템 및 그 방법 |
US11584004B2 (en) | 2019-12-17 | 2023-02-21 | X Development Llc | Autonomous object learning by robots triggered by remote operators |
CN114728417A (zh) * | 2019-12-17 | 2022-07-08 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习 |
CN114728417B (zh) * | 2019-12-17 | 2024-04-16 | X开发有限责任公司 | 由远程操作员触发的机器人自主对象学习的方法及设备 |
Also Published As
Publication number | Publication date |
---|---|
JP4164737B2 (ja) | 2008-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4609584B2 (ja) | ロボット装置、顔認識方法及び顔認識装置 | |
JP2003346152A (ja) | 物体認識装置及び方法並びにロボット装置 | |
US11331806B2 (en) | Robot control method and apparatus and robot using the same | |
Fang et al. | Adaptive active visual servoing of nonholonomic mobile robots | |
US8060272B2 (en) | System and method for image mapping and visual attention | |
JP4329398B2 (ja) | 顔検出装置及び方法、並びにプログラム及び記録媒体 | |
JP2007012047A (ja) | 人間型ロボットのための身体近接空間および対象物を認識する方法 | |
JP4016180B2 (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 | |
JP2003269917A (ja) | 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置 | |
CN105631859A (zh) | 三自由度仿生立体视觉*** | |
JP4535096B2 (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び撮像装置 | |
JP2003150569A (ja) | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 | |
WO2022227664A1 (zh) | 机器人姿态的控制方法、机器人、存储介质及计算机程序 | |
Metta et al. | Learning to track colored objects with log-polar vision | |
Hafez et al. | Hybrid visual servoing by boosting IBVS and PBVS | |
CN108621164A (zh) | 基于深度相机的太极推手机器人 | |
Vernon et al. | The iCub cognitive architecture | |
CN109531578B (zh) | 仿人机械手臂体感控制方法及装置 | |
WO2017179136A1 (ja) | 全天球カメラロボット高度調整システム、全天球カメラロボット高度調整方法及びプログラム | |
Welke et al. | Active multi-view object search on a humanoid head | |
CN210121851U (zh) | 一种机器人 | |
Su | Vision Based Surgical Tool Tracking and Force Estimation with Robot Kinematics Prior | |
US8406505B2 (en) | Image brightness reduction for legged mobile robot | |
Knoop et al. | Sensor fusion for model based 3d tracking | |
US20230290101A1 (en) | Data processing method and apparatus, electronic device, and computer-readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20050428 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080125 |
|
A131 | Notification of reasons for refusal |
Effective date: 20080201 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A521 | Written amendment |
Effective date: 20080331 Free format text: JAPANESE INTERMEDIATE CODE: A523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080501 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080610 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080703 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080716 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110808 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Year of fee payment: 4 Free format text: PAYMENT UNTIL: 20120808 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130808 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |