JPH1091207A - 内部表現自動生成方法及び装置 - Google Patents

内部表現自動生成方法及び装置

Info

Publication number
JPH1091207A
JPH1091207A JP8243530A JP24353096A JPH1091207A JP H1091207 A JPH1091207 A JP H1091207A JP 8243530 A JP8243530 A JP 8243530A JP 24353096 A JP24353096 A JP 24353096A JP H1091207 A JPH1091207 A JP H1091207A
Authority
JP
Japan
Prior art keywords
signal
recognition
sensor
control system
sensory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8243530A
Other languages
English (en)
Inventor
Daiki Masumoto
大器 増本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP8243530A priority Critical patent/JPH1091207A/ja
Priority to US08/829,797 priority patent/US5963710A/en
Publication of JPH1091207A publication Critical patent/JPH1091207A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/027Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Feedback Control In General (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】 (修正有) 【課題】 対象の状態、認識・制御システム自体の状態
又は対象と認識・制御システムとの関係を効率良く認識
及び・制御するための適切な内部表現を自動的に生成す
ること。 【解決手段】 認識・制御システムの状態を検出してセ
ンサ信号を出力するセンサ1と、制御信号に応答して認
識・制御システムの状態を変化させるアクチュエータ3
と、センサ信号を処理して感覚信号を出力する感覚モジ
ュール4と、運動信号又は運動指令に基づいてアクチュ
エータを制御する運動モジュール5と、感覚モジュール
からの感覚信号及び運動モジュールからの制御信号に基
づいて、センサ信号と制御信号との相互関係を分析し、
その結果に基づいて感覚モジュールの感覚特性及び運動
モジュールの運動特性を自動的に調整する自動調整モジ
ュール6とを備え、センサ信号及び制御信号の内部表現
である感覚情報及び運動情報を自動的に生成するように
構成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は内部表現自動生成方
法及び装置に係り、特に物体や環境等の対象の状態、認
識・制御システム自体の状態、又は対象と認識・制御シ
ステムとの関係を能動的に変化させることが可能な認識
・制御システムにおいて、認識・制御システム内の感覚
情報と運動情報との間の相互関係を分析してその分析結
果に基づいて感覚モジュールの特性・運動モジュールの
特性を自動的に調整し、感覚情報及び運動情報の適切な
内部表現を自動的に生成する内部表現自動生成方法及び
装置に関する。
【0002】尚、本明細書では、「内部表現」とはシス
テム内のセンサ信号等の感覚情報及び制御信号等の運動
情報を示す。又、「認識・制御システム」とは、例え
ば、各種ロボット、認識システム、検査システム、自律
移動体等のナビゲーションシステム、トラッキングシス
テム等を含む。
【0003】
【従来の技術】従来、例えばロボットにある作業を行わ
せるには、先ず人間が作業を分析し、その分析結果に基
づいてロボットに適した方法を組み上げてプログラミン
グを行う。この様にプログラミングされたロボットは、
プログラムを実行することにより所望の作業を行う。
【0004】従来のロボットでは、動作環境及び作業内
容に関する制約が大きいため、応用範囲が比較的限られ
てしまう。そこで、ロボットの応用範囲を拡げるために
は、様々な状況において種々のタスクを遂行する能力を
ロボットに持たせる必要がある。しかし、ロボットの設
計者が起こり得る状況を予め全て予測し、予測された状
況に対応するための能力をロボットに事前に組み込んで
おくことは非常に難しく、ロボットが複数のタスクに対
応する必要がある場合には、更に難しい。
【0005】そこで、ロボットが環境とインタラクトし
ながら、自分の置かれた状況とタスクの目的に応じて自
らの行動を学習して行くことが望まれる。このような学
習により、様々な状況と種々のタスクを遂行できるよう
になったり、実行効率を自ら向上させることができるよ
うになれば、ロボットの応用範囲も広がる。
【0006】この様な機能を持つロボットを実現するた
めには、教えられた軌道をそのまま記憶して再現するよ
うな低次の学習だけではなく、より高次のタスクレベル
の学習が要求される。しかし、従来のタスクレベルの学
習は、理想環境でのコンピュータシミュレーションしか
行わないものが多く、実際のロボットへの適用性につい
てはあまり考慮されていない。ここで、「理想環境」と
は、例えば格子に区切られた平面上の世界を示す。この
様な平面上の世界において、「状態」とは、ロボットが
存在する格子の座標に対応し、「運動」とは、隣接する
上下左右いずれかの格子への移動に対応する。理想環境
では、ロボットの運動情報と状態遷移が1対1に対応し
ており、状態空間及び運動空間の次元も低いため、強化
学習等を行うことにより、タスクを遂行するための行動
をロボットに学習させることができる。
【0007】
【発明が解決しようとする課題】ところが、実際のロボ
ットは、理想環境では使用されないため、適切な状態空
間及び運動空間を構成すること自体が非常に難しいとい
う問題があった。つまり、膨大な量の感覚情報をどのよ
うにしてコンパクトな状態空間で表現するかの問題や、
状態空間に対応するような運動空間をどのように構成す
るかの問題等を解決しない限り、実際のロボットにタス
クレベルの学習をさせることは非常に難しかった。
【0008】言い変えれば、認識・制御システムの感覚
情報及び制御情報の適切な内部表現を生成することが、
学習するロボット等の認識・制御システムを実現するた
めの重要な課題であった。そこで、本発明は、対象の状
態、認識・制御システム自体の状態、又は対象と認識・
制御システムとの関係を能動的に変化させることが可能
な認識・制御システムにおいて、対象の状態、認識・制
御システム自体の状態又は対象と認識・制御システムと
の関係を効率良く認識及び制御するための適切な内部表
現を自動的に生成する内部表現自動生成方法及び装置を
提供することを目的とする。
【0009】
【課題を解決するための手段】上記の課題は、請求項1
記載の、物体や環境等の対象の状態、認識・制御システ
ム自体の状態、又は対象と認識・制御システムとの関係
を能動的に変化させることが可能な認識・制御システム
において、該認識・制御システムの状態を検出してセン
サ信号を出力するセンサ手段と、制御信号に応答して該
認識・制御システムの状態を変化させるアクチュエータ
手段と、該センサ手段からのセンサ信号を処理して感覚
信号を出力する感覚モジュールと、運動信号又は運動指
令に基づいて該アクチュエータ手段を制御する制御信号
を出力する運動モジュールと、該感覚モジュールからの
感覚信号及び該運動モジュールからの制御信号に基づい
て、センサ信号と制御信号との相互関係を分析し、その
分析結果に基づいて該感覚モジュールの感覚特性及び該
運動モジュールの運動特性を自動的に調整する自動調整
モジュールとを備え、センサ信号及び制御信号の内部表
現である感覚情報及び運動情報を自動的に生成する内部
表現自動生成装置によって達成される。
【0010】請求項2記載の発明では、請求項1におい
て、前記アクチュエータ手段は、前記センサ手段の特性
パラメータを変化させる手段を含み、前記認識・制御シ
ステムが処理を施す対象の状態、該認識・制御システム
自体の状態、又は両者の関係を能動的に変化させる。
【0011】請求項3記載の発明では、請求項1又は2
において、前記センサ手段は、位置センサ、速度セン
サ、温度センサ、湿度センサ、照度センサ、カメラのう
ち少なくとも1つを含む。請求項4記載の発明では、請
求項3において、前記カメラを先端に設けられたロボッ
トアームを更に備え、前記アクチュエータ手段は、該カ
メラの焦点距離、絞り及び解像度のうち少なくとも1つ
を制御する。
【0012】請求項5記載の発明では、請求項1〜4の
いずれかにおいて、前記感覚モジュール及び前記運動モ
ジュールのうち少なくとも一方は、線形変換手段を有す
る。請求項6記載の発明では、請求項1〜5のいずれか
において、前記自動調整モジュールは、感覚信号と制御
信号との相互関係を相関性を示標として検出する手段を
有する。
【0013】上記の課題は、請求項7記載の、物体や環
境等の対象の状態、認識・制御システム自体の状態、又
は対象と認識・制御システムとの関係を能動的に変化さ
せることが可能な認識・制御システムにおいて、該認識
・制御システムの状態を検出してセンサ信号を出力する
第1のステップと、制御信号に応答して該認識・制御シ
ステムの状態を変化させる第2のステップと、該センサ
信号を処理して感覚信号を出力する第3のステップと、
運動信号又は運動指令に基づいて該制御信号を出力する
第4のステップと、該感覚信号及び該制御信号に基づい
て、該センサ信号と該制御信号との相互関係を分析し、
その分析結果に基づいて該第3のステップの感覚特性及
び該第4のステップの運動特性を自動的に調整する第5
のステップとを含み、該センサ信号及び該制御信号の内
部表現である感覚情報及び運動情報を自動的に生成する
内部表現自動生成方法によっても達成される。
【0014】請求項8記載の発明では、請求項7におい
て、前記第2のステップは、前記第1のステップの特性
パラメータを変化させるステップを含み、前記認識・制
御システムが処理を施す対象の状態、該認識・制御シス
テム自体の状態、又は両者の関係を能動的に変化させ
る。
【0015】請求項9記載の発明では、請求項7又は8
において、前記第1のステップは、位置センサ、速度セ
ンサ、温度センサ、湿度センサ、照度センサ、カメラの
うち少なくとも1つを用いる。請求項10記載の発明で
は、請求項9において、前記認識・制御システムはカメ
ラを先端に設けられたロボットアームを備え、前記第2
のステップは、該カメラの焦点距離、絞り及び解像度の
うち少なくとも1つを制御する。
【0016】請求項11記載の発明では、請求項7〜1
0のいずれかにおいて、前記第3及び第4のステップの
うち少なくとも一方は、線形変換ステップを含む。請求
項12記載の発明では、請求項7〜11のいずれかにお
いて、前記第5のステップは、感覚信号と制御信号との
相互関係を相関性を示標として検出するステップを含
む。
【0017】請求項1及び7記載の発明によれば、対象
の状態、認識・制御システム自体の状態又は対象と認識
・制御システムとの関係を効率良く認識及び制御するた
めの適切な内部表現を自動的に生成することができる。
請求項2〜4,8〜10記載の発明によれば、各種ロボ
ット、認識システム、検査システム、自律移動体等のナ
ビゲーションシステム、トラッキングシステム等への適
用に適している。
【0018】請求項5,6,11,12記載の発明によ
れば、必要とされる計算量を比較的小さく抑えつつ、正
確な内部表現を生成することができる。従って、本発明
によれば、対象の状態、認識・制御システム自体の状
態、又は対象と認識・制御システムとの関係を能動的に
変化させることが可能な認識・制御システムにおいて、
対象の状態、認識・制御システム自体の状態又は対象と
認識・制御システムとの関係を効率良く認識及び制御す
るための適切な内部表現を自動的に生成することが可能
となる。
【0019】
【発明の実施の形態】ロボット等の認識・制御システム
は、タスクの目的に応じて行動しながら、多種様々なセ
ンサを用いて感覚情報を得て、自分の置かれている状況
やタスクの達成度を認識する必要がある。このため、認
識と行動との相互作用、即ち、行動が認識に及ぼす影響
及び認識が行動に及ぼす影響を計算する機構を備える必
要がある。以下の説明では、感覚情報と制御情報との間
の相互作用を計算する機構を「モジュール」と言う。
【0020】又、種類の異なる感覚情報を段階的に同種
類の情報に変換しつつ融合する処理構造も必要である。
そこで、本発明者は、各層で感覚情報と運動情報との間
の相互作用を計算する機構を持ち、種類の異なる感覚情
報を融合する処理構造を持った階層型感覚運動融合モデ
ルについて検討した。
【0021】図1は、階層型感覚運動融合モデルの概略
構成を示す図である。このモデルは、物理世界PW、即
ち、外界の情報を取り込むセンサ群Sと外界に作用する
アクチュエータ群Aの上に、自律性を有する処理ユニッ
トPUを階層的に結合した構造を持ち、各処理ユニット
PU間でボトムアップとトップダウンの双方向の情報交
換を実現する。
【0022】各処理ユニットPUは、図2に示すよう
に、認識(又は感覚)モジュールRMと、運動モジュー
ルMMと、それらの連携をとる感覚運動融合モジュール
SFMとの3つのモジュールから構成される。認識モジ
ュールRMは、時空間にわたって収集した下位層(ある
いはセンサ群S)からの感覚情報をより抽象度の高い感
覚情報に変換し、上位層に伝達する。一方、運動モジュ
ールMMは、上位層からの運動情報を下位層(あるいは
アクチュエータ群A)のより具体的な運動情報に変換
し、下位層に伝達することによって外界に作用する。認
識モジュールRMと運動モジュールMMとを結合する感
覚運動融合モジュールSFMは、運動モジュールMMの
外界への働きかけによって生じる感覚情報の変化を予測
し、認識モジュールRMに通知するとともに、認識モジ
ュールRMにより知覚・認識される感覚情報と上位層か
らの運動情報とに基づいて、運動モジュールMMに対す
る上位層からの運動情報を時間的に分割した運動情報を
生成する。
【0023】このように、階層型感覚運動融合モデルで
は、最上位層に与えられたタスクが、より具体的な行動
目標、即ち、下位層が実行すべき運動情報として各処理
ユニットPUに時空間的に分解して伝達される。従っ
て、複数の処理ユニットPUが各々の目標の達成に向け
て自律的及び協調的に動作するのでタスクの目的を達成
することができる。
【0024】次に、感覚情報と運動情報との相互作用を
計算する機構である、感覚運動融合モジュールSFMに
ついて説明する。図3は、感覚運動融合モジュールSF
Mの構成を示す図である。現時刻の感覚情報sl (t)
と、運動情報al (t) と、次の時刻の感覚情報sl (t+
1) の対応関係を、多層ニューラルネットワークが誤差
逆伝搬学習により獲得する。このネットワークが前向き
処理をすることで、次の時刻の感覚情報の予測値s1 p
(t+1)を生成することができる。ここで、tは現在議論
している階層での時間ステップを表す。なお、感覚運動
融合モジュールSFMの持つもう一つの機能、即ち、運
動情報al (t) の生成は、本発明の要旨とは直接関係し
ないので、その説明は省略する。
【0025】感覚運動融合モジュールSFMを構築する
際、認識・制御システムのもつ全ての感覚情報及び全て
の運動情報をそのまま感覚運動融合モジュールSFMに
入力して処理させるのは現実的ではない。その理由は、
高次元空間の間の写像を学習するには、膨大な訓練デー
タが必要になって、訓練にかかる時間が非常に長くなっ
てしまうからである。
【0026】そこで、本発明者は、少数の教師データを
使って、高速に感覚運動融合モジュールSFMを構築す
るため、感覚情報及び運動情報の持つ以下の性質を利用
することを考えた。 (ア)感覚情報と運動情報との間の相互依存関係は、不
均一であり、何らかの構造を持つ。
【0027】(イ)感覚情報と運動情報には冗長な部分
がある。先ず、性質(ア)を利用することを考える。関
係ある構造を自動的に抽出し、関係の強い感覚情報と運
動情報のペアを取り出して、ペア毎の別の感覚運動融合
モジュールを用意すれば、処理を行うプロセッサに対す
る負荷を分散することができる。更に、感覚情報と運動
情報との間の関係の中から階層構造を取り出すことがで
きれば、階層性を生かした効率的な処理が実現できる。
【0028】性質(イ)を利用することを考える。感覚
情報と運動情報との関係を中心に考えると、感覚情報及
び運動情報には冗長な部分がある。例えば、運動によっ
て変化しない感覚情報は冗長であり、感覚情報の変化に
寄与しない運動情報も冗長である。このような冗長性を
取り除けば、関係を低次元の空間で表現することができ
る。
【0029】これらの性質を利用することによって、感
覚情報と運動情報との相互依存関係を良く表すコンパク
トな表現を生成することができるはずであり、その生成
法が以下に説明する感覚運動融合学習法である。感覚運
動融合学習法は、教師なし学習の一種である。「教師な
し学習」は、目標出力が未知である場合に用いられるも
ので、データから構造を抽出したり、冗長性を取り除い
たりすることができる。
【0030】図4に沿って、感覚運動融合学習法の処理
の流れを説明する。認識モジュールRMは、時空間にわ
たって収集した下位層(あるいはセンサ群S)からの感
覚情報をより抽象度の高い感覚情報に変換する。認識モ
ジュールRMの出力は、高次の感覚情報として上位層に
渡され、同時に同じものが、同図中左上のネットワーク
NW1に入力される。一方、運動情報は下位層に渡さ
れ、同時に枝分れした遠心性コピーが、同図中右上のネ
ットワークNW2に入力される。以上の操作を繰り返し
た後、これらのネットワークNW1,NW2の出力の間
の相互依存関係を測る尺度を最大にするように、重みを
更新して行く。相互依存関係を測る尺度としては、一般
的な相互依存関係を測定できる相互情報量や、線形の相
互依存関係を測定する積率相関係数等がある。
【0031】尺度として積率相関係数を使い、線形変換
を行なうネットワークを採用した場合には、この感覚運
動融合学習法は、正準相関分析と等価になる。正準相関
分析は、多変量データ解析手法の一つで、後述する如
く、複数の情報源からの情報を、それらの間の相関の構
造を最もよく表すように次元圧縮するために使われるも
のである。
【0032】説明の便宜上、感覚情報を示す感覚信号を
p次元ベクトルs(t) ={s1(t),s2(t),・・・,s
p (t) }T とし、運動情報を示す運動信号(又は指令)
をm次元ベクトルa={a1(t),a2(t),・・・,am
(t) }T とすると共に、これらが離散時間t=1,・・
・,Nに発生するものとする。
【0033】図5に示す第1のステップST1では、次
のベクトル(1),(2)を定義する。 p(t) =(aT (t-1),aT (t-2),aT (t-3),・・・,aT (t-l))T (1) f(t) =(sT (t),sT (t+1),sT (t+2),・・・,sT (t+k-1))T (2) 上記の定義から、p(t) はlm次元であり、a(t) は、
kp次元である。以下の説明では、データ{(a(t),s
(t))|t=1,・・・,N}が与えられているものとす
る。ここで、N’:=N−k−l+1,l’:=l(p
+m),k’:=kpとする。
【0034】第2のステップST2では、与えられたデ
ータに基づいて、(3)〜(5)に示す如く共分散行列
の推定値を計算する。
【0035】
【数1】
【0036】ただし、p(t) ,f(t) の平均値は予め除
去してあるものとする。第3のステップST3では、Σ
pp,Λ=Σffの固有値及び固有ベクトルを求め、次の
(6),(7)を計算する。 Σpp -1/2=U1 1 -1/21 T (6) Λ-1/2 =U2 2 -1/22 T (7) ただし、Λ=Σff=Ik'の場合には、U2 ,S2 の計算
は不要である。
【0037】第4のステップST4では、次の(8)〜
(10)の特異値分解を計算する。 Σpp -1/2ΣpfΛ-1/2=U3 3 3 T (8) U3 3 T =Il' (9) V3 3 T =Ik' (10) また、U,V,Γを(11)〜(13)に示すように定
義する。
【0038】 U:=U3 T Σpp -1/2 (11) V:=V3 T Λ-1/2 (12) Γ:=S3 (13) 第5のステップST5では、運動信号μ(t) を次式(1
4)に基づいて計算する。
【0039】 μ(t) =[In 0]Up(t) ,t=l+1,・・・,N−k+1 (14) ただし、n×n単位行列をIn とする。ここで、nは運
動信号の次元で、nmin(l’,k’)である。ま
た、μ(t) はデータp(t) のもつ情報を縮約したもの
で、時刻tにおける運動信号である。
【0040】第6のステップST6では、感覚情報ν
(t) を次式(15)に基づいて計算する。 ν(t) =[In 0]Vf(t) ,t=l+1,・・・,N−k+1 (15) ただし、n×n単位行列をIn とする。ν(t) は、デー
タf(t) のもつ情報を縮約したもので、時刻tにおける
感覚信号である。
【0041】線形変換という制約を取り去って、一般の
非線形変換を許すようにアルゴリズムを一般化すること
もできる。しかし、このアルゴリズムでは、今のところ
比較的低次元の問題しか扱うことができないため、本発
明では感覚運動融合学習として正準相関分析のみを扱
う。
【0042】
【実施例】図6は、本発明になる内部表現自動生成装置
の一実施例の要部を示すブロック図である。本実施例で
は、本発明がロボットに適用されており、本発明になる
内部表現自動生成方法の一実施例を採用している。
【0043】図6において、センサ1はセンサ制御機構
2に支持されており、ロボットのある状態を検出してセ
ンサ信号を出力する。センサ1は、例えばロボットアー
ム(図示せず)の位置を検出する位置センサ、ロボット
アームの加速度等を検出する速度センサ、温度センサ、
湿度センサ、照度センサ、ロボットアームに取付けられ
たカメラ等からなる。アクチュエータ3は、ロボットア
ーム等を駆動する駆動手段であり、本実施例では、セン
サ制御機構2を駆動してセンサ1の位置等を制御する。
例えば、センサ1がカメラの場合、センサ制御機構2は
カメラの焦点距離、絞りや解像度を制御する機構からな
り、センサ制御機構2がアクチュエータ3により駆動さ
れることにより、焦点距離、絞り、解像度等のうち少な
くとも1つが制御される。つまり、アクチュエータ3
は、センサ制御機構2を介してセンサ1の感度や解像度
等の特性パラメータを変化させることが可能であり、ロ
ボットが処理を施す対象(物体や環境)の状態、ロボッ
ト自体の状態、又は両者の関係を能動的に変化させるこ
とができる。
【0044】尚、実際には、センサ1、センサ制御機構
2及びアクチュエータ3は夫々複数設けられているが、
説明の便宜上図6では夫々1つしか図示されていない。
感覚モジュール4は、上記認識モジュールRMに対応し
ており、センサ1からのセンサ信号を処理して感覚信号
を出力する。運動モジュール5は、上記運動モジュール
MMに対応しており、運動信号又は運動指令に基づいて
アクチュエータを制御する制御信号を出力する。感覚モ
ジュール4からの感覚信号及び運動モジュール5からの
制御信号は、夫々自動調整モジュール6にも入力され
る。自動調整モジュール6は、ロボットが処理を施す対
象の状態、ロボット自体の状態、又は両者の関係を効率
良く認識して制御するために、センサ信号と制御信号と
の相互関係を分析し、その分析結果に基づいて感覚モジ
ュール4の特性及び運動モジュール5の運動特性を自動
的に調整することで、センサ信号及び制御信号の適切な
内部表現、即ち、感覚情報及び運動情報を、自動的に生
成する。
【0045】図7は、図6に示す感覚モジュール4、運
動モジュール5及び自動調整モジュール6の動作を説明
するためのブロック図であり、本実施例のより具体的な
構成を示す。図7において、中央処理装置(CPU)1
1、ROM12、RAM13、複数のセンサ1及び複数
のアクチュエータ3(いずれも1つのみ図示)は、バス
15を介して接続されている。CPU11は、上記感覚
モジュール4、運動モジュール5及び自動調整モジュー
ル6の動作を行う。ROM12はCPU11が実行する
プログラムやデータを格納しており、RAM13はCP
U11がプログラムを実行中に中間データ等を格納す
る。尚、CPU11が用いる格納手段はROM12及び
RAM13に限定されず、プログラムやデータを格納で
きる格納手段であればその形態は限定されるものではな
い。
【0046】CPU11は、上記図5に示すステップS
T1〜ST6を実行することにより、ロボットが処理を
施す対象の状態、ロボット自体の状態、又は両者の関係
を効率良く認識して制御するために、センサ信号と制御
信号との相互関係を分析し、その分析結果に基づいて感
覚モジュール4の特性及び運動モジュール5の運動特性
を自動的に調整することで、センサ信号及び制御信号の
適切な内部表現、即ち、感覚情報及び運動情報を、自動
的に生成する。
【0047】本発明者は、本実施例を6自由度のロボッ
トアームを有するロボットに適用して実験を行った。図
8は、実験に用いたロボットの概略構成を示す斜視図で
ある。同図中、ロボットは、6自由度のロボットアーム
21と、アクチュエーア(図示せず)を制御する制御部
22と、ロボットアーム21の先端に設けられたビデオ
カメラ23とからなる。ビデオカメラ23は図7に示す
センサ1に対応し、制御部22はCPU11、ROM1
2及びRAM13等を含む。尚、制御部22は、ロボッ
トとは独立して設け、ロボットを遠隔操作する構成とし
ても良い。同図中、20はロボットが処理を施す対象で
ある物体を示す。この場合、ロボットはビデオカメラ2
3により物体20の画像を入力する。
【0048】実験では、照明条件や背景には特に制約を
設けなかった。物体20とビデオカメラ23との間の距
離rを100mm〜150mmまで10mm間隔で6通
りに変化させ、ロボットアーム21の先端(即ち、ビデ
オカメラ23)の方位角θを−30度〜30度まで5度
間隔で13通りに変化させ、ロボットアーム21の先端
の抑角φを10度〜20度まで5度間隔で3通りに変化
させて物体20の画像を撮影した。これにより、6×1
3×3=234通りの画像を撮影した。
【0049】このようにして撮像した画像に対して、上
記感覚運動融合学習法を図9に示すように実装して本実
施例の基本性能を検証した。この検証を行うにあたっ
て、KL展開を行う認識モジュールを用意した。この認
識モジュールは、128×120画素の画像を200次
元にまで圧縮する構成とした。200次元に圧縮された
感覚信号を変換するネットワークとしては、2層の線形
ネットワークを用意した。運動信号又は運動指令は、ロ
ボットの関節角度を制御する6次元の関節角度指令を用
いた。運動信号又は運動指令を変換するネットワークと
しては、やはり2層のネットワークを用意した。そし
て、これらのネットワークの出力間の相関が最大となる
ように重みを決定し、次の(16),(17)に示すベ
クトルを求めた。この場合、上記k=l=1で、n=6
とした。つまり、出力間の相互関係を相関性を示標とし
て検出し、相関性が最大となるように重みを決定した。
【0050】 p(t) =(aT (t-1))T (16) f(t) =(sT (t)) T (17) このようにして生成された内部表現空間の構造について
調べた実験結果を図10〜図12に示す。
【0051】図10は、感覚運動融合学習によって生成
された感覚信号の空間を示す図である。同図中、3つの
軸は、6次元の感覚信号の1,2,3番目の次元を表
し、θ,φ,γの変化する方向を矢印で示す。図10
(a)において、「○」印はθ,φが−30,110の
場合、「*」印はθ,φが−30,105の場合、
「×」印はθ,φが−30,100の場合を示す。この
場合、θ,φ,γの変化する方向を示す矢印の方向は、
同図に示すように、略直交していることがわかる。
【0052】図10(b)において、「○」印はθ,φ
が−20,110の場合、「*」印はθ,φが−20,
105の場合、「×」印はθ,φが−20,100の場
合を示す。この場合、θ,φ,γの変化する方向を示す
矢印の方向は、同図に示すように、略直交していること
がわかる。
【0053】図10(c)において、「○」印はθ,φ
が−10,110の場合、「*」印はθ,φが−10,
105の場合、「×」印はθ,φが−10,100の場
合を示す。この場合、θ,φ,γの変化する方向を示す
矢印の方向は、同図に示すように、略直交していること
がわかる。
【0054】図11は、感覚運動融合学習によって生成
された運動信号(又は運動指令)の空間を示す図であ
る。同図中、3つの軸は、6次元の感覚信号の1,2,
3番目の次元を表し、θ,φ,γの変化する方向を矢印
で示す。図11(a)において、「○」印はθ,φが−
30,110の場合、「*」印はθ,φが−30,10
5の場合、「×」印はθ,φが−30,100の場合を
示す。この場合、θ,φの変化する方向を示す矢印の成
す角度は、同図に示すように、小さいことがわかる。
【0055】図11(b)において、「○」印はθ,φ
が−20,110の場合、「*」印はθ,φが−20,
105の場合、「×」印はθ,φが−20,100の場
合を示す。この場合、θ,φの変化する方向を示す矢印
の成す角度は、同図に示すように、小さいことがわか
る。
【0056】図11(c)において、「○」印はθ,φ
が−10,110の場合、「*」印はθ,φが−10,
105の場合、「×」印はθ,φが−10,100の場
合を示す。この場合、θ,φの変化する方向を示す矢印
の成す角度は、同図に示すように、小さいことがわか
る。
【0057】図12は、上記感覚運動融合学習によって
生成された感覚信号の空間及び運動信号(又は運動指
令)の空間の関係を示す図である。同図中、3つの軸
は、6次元の感覚信号の1,2,3番目の次元を表し、
θ,φ,γの変化する方向を矢印で示す。
【0058】図12(a)において、「○」印はθ,φ
が−30,110の場合、「*」印はθ,φが−30,
105の場合、「×」印はθ,φが−30,100の場
合を示す。図12(b)において、「○」印はθ,φが
−20,110の場合、「*」印はθ,φが−20,1
05の場合、「×」印はθ,φが−20,100の場合
を示す。
【0059】又、図12(c)において、「○」印は
θ,φが−10,110の場合、「*」印はθ,φが−
10,105の場合、「×」印はθ,φが−10,10
0の場合を示す。図12(a)〜(c)より、以下のこ
とがわかった。つまり、・感覚信号の空間及び運動信号
(又は運動指令)の空間の双方において、感覚信号と運
動信号との間の関係の本質的なパラメータθ,φ,γが
適切にコードされている。
【0060】・特に感覚信号の空間では、パラメータ
θ,φ,γが略直交する方向で表されている。 ・両空間の関係を示す図12から、感覚信号の空間と運
動信号の空間におけるパラメータθ,φ,γのコードの
方法にも、比例関係に近い関係が見られる。
【0061】・両空間で独立にコードしているのではな
く、互いに相手の空間との対応がつくようにコードの方
法を決めている。従って、この学習方法により、感覚信
号と運動信号との相互関係を良く表すコンパクトな内部
表現を自動的に生成できることがわかった。
【0062】又、本発明者は、以下の3種類の圧縮画像
について、関節角度指令との相互関係がどの程度表現さ
れているかを調べた。 (A) 標準データ: 234枚の画像夫々を運動信号
との関係を考慮せずに、KL展開によって200次元に
圧縮して得た圧縮画像。
【0063】(B) KL展開: 234枚の画像夫
々を運動信号との関係を考慮せずに、KL展開によって
一気に6次元に圧縮して得た圧縮画像。 (C) 本実施例: 感覚運動融合学習法により、2
00次元の基準データを運動信号との関係を考慮して、
6次元に圧縮して得た画像。
【0064】以下の表1は、上記3種類の圧縮画像につ
いて、一般化決定係数を示す。一般化決定係数は、2つ
のデータ群の間委の関係の深さを示す尺度であり、0か
ら1の間の値を取る。この一般化決定係数を用いて、圧
縮された画像と関節角度指令との間の関係を測定した結
果を図13に示す。図13は、上記3種類の圧縮画像に
ついて、正準相関係数の数と正準相関係数の値との関係
を示す図である。同図中、標準データ(A)を破線で示
し、KL展開(B)を一点鎖線で示し、本実施例(C)
を実線で示す。
【0065】
【表1】
【0066】上記の表1からの明らかな如く、基準デー
タ(A)では一般化決定係数が略1である0.994、
KL展開(B)では一般化決定係数が0.454と小さ
な値となった。しかし、本実施例(C)では、画像をK
L展開(B)と同じ6次元にまで圧縮しているにも拘ら
ず、一般化決定係数が0.854と大きい値に保たれる
ことが確認された。
【0067】つまり、本実施例によれば、KL展開を用
いた方法に比べて、感覚信号と運動信号との相互依存関
係を良く保存したコンパクトな内部表現を生成できるこ
とが確認できた。尚、上述の如く、本実施例によれば、
KL展開を用いた方法に比べて、感覚信号と運動信号と
の相互依存関係を良く保存したコンパクトな表現を生成
できることが定量的に確認できたが、次に、直観的な理
解を容易にするために、原画像とKL展開(B)及び本
実施例(C)で得られた復元画像とを図14に示す。図
14では、缶の上に人形が置かれている移動物体が対象
としてビデオカメラにより撮像されているものとする。
【0068】図14中、(a)は128×120画素の
原画像を示し、(b)はKL展開(B)により画像を6
次元まで圧縮して復元した画像を示し、(c)は本実施
例(C)により画像を6次元まで圧縮して復元した画像
を示す。同図(a)と(b)との比較よりわかるよう
に、KL展開(B)を用いた場合の復元画像は原画像に
比べて画像全体の印象をおおまかにしか表現しておら
ず、人形の大きさが実際の大きさより小さくなってお
り、又、缶の輪郭がぼけている。
【0069】これに対し、図14中、(c)と(a),
(b)との比較よりわかるように、本実施例(C)を用
いた場合の復元画像は原画像に比べてぶれたような画像
となっているものの、KL展開(B)を用いた場合と比
べると、人形の大きさは正確であり、缶の輪郭は比較的
はっきりしており、缶の上部の突出部の形状がはっきり
している。
【0070】従って、図14からも、本実施例によれ
ば、KL展開を用いた方法に比べて、感覚信号と運動信
号との相互依存関係を良く保存したコンパクトな表現を
生成できることが確認できた。つまり、対象物体が運動
(移動)することによって影響を受ける特徴を感覚信号
の中から抽出し、その特徴、即ち、内部表現を生成する
ことができる。
【0071】尚、アルゴリズムの性質上、本実施例にお
ける感覚運動融合学習法でもKL展開を用いた方法で
も、出力の各次元はなるべく直交するように、即ち、な
るべく相関性がないように求められる。このため、出力
の各次元が完全に直交化できたと仮定すると、各次元に
対応する固有画像に出力値を乗じて、全ての次元につい
て総和を求めることにより、原画像を近似的に復元する
ことができる。つまり、近似的に逆変換を行うことによ
り、原画像を復元可能である。
【0072】次に、本発明者は、感覚信号の変化に影響
しない運動信号又は運動指令を付け加えた場合の影響に
ついて調べた。具体的には、図9に示す認識・制御シス
テムにおいて、正規分布に従うランダムな運動信号を1
0個付け加えて実験を行い、重みを決定した。
【0073】図15は、この実験結果を示す。同図中、
入力軸1〜16は入力の各次元に対応し、出力軸1〜1
6は出力の各次元に対応する。入出力(入力,出力)の
高さが、入力から出力への重みを表す。尚、同図中、1
〜16は感覚信号に影響を及ぼす運動信号を示し、7〜
10はランダムな運動信号を表す。
【0074】図15からは、以下のことが確認された。 (あ) ランダムな運動信号が出力に及ぼす影響を表す
図15の右側の領域(入力7〜16,出力1〜6)は、
略高さが0の平面である。 (い) 感覚信号に影響を及ぼす運動信号(入力1〜
6)が出力に及ぼす影響を表す図15の左側の領域(入
力1〜6,出力1〜16)の高さの絶対値が大きい。
【0075】(う) 特に、図15の左上の領域(入力
1〜6,出力1〜16)の高さの絶対値が大きい。 従って、最初の6つの出力で感覚信号に影響を及ぼす運
動信号を良好に表していることが確認できた。又、本実
施例によれば、感覚信号の変化と関係のある運動信号
と、感覚信号の変化と無関係な運動信号とを区別できる
ことも確認できた。
【0076】以上、本発明を実施例により説明したが、
本発明は上記実施例に限定されるものではなく、本発明
の範囲内で種々の変形及び様々な改良が可能であること
は言うまでもない。
【0077】
【発明の効果】請求項1及び7記載の発明によれば、対
象の状態、認識・制御システム自体の状態又は対象と認
識・制御システムとの関係を効率良く認識及び制御する
ための適切な内部表現を自動的に生成することができ
る。
【0078】請求項2〜4,8〜10記載の発明によれ
ば、各種ロボット、認識システム、検査システム、自律
移動体等のナビゲーションシステム、トラッキングシス
テム等への適用に適している。請求項5,6,11,1
2記載の発明によれば、必要とされる計算量を比較的小
さく抑えつつ、比較的正確な内部表現を生成することが
できる。
【0079】従って、本発明によれば、対象の状態、認
識・制御システム自体の状態、又は対象と認識・制御シ
ステムとの関係を能動的に変化させることが可能な認識
・制御システムにおいて、対象の状態、認識・制御シス
テム自体の状態又は対象と認識・制御システムとの関係
を効率良く認識及び制御するための適切な内部表現を自
動的に生成することが可能となる。
【図面の簡単な説明】
【図1】階層型感覚運動融合モデルの概略構成を示す図
である。
【図2】処理ユニットの構成を示す図である。
【図3】感覚運動融合モジュールの構成を示す図であ
る。
【図4】感覚運動融合学習法の処理の流れを説明する図
である。
【図5】感覚運動融合学習法を説明するフローチャート
である。
【図6】本発明になる内部表現自動生成装置の一実施例
の要部の構成を示すブロック図である。
【図7】感覚モジュール、運動モジュール及び自動調整
モジュールの動作を説明するためのブロック図である。
【図8】ロボットの概略構成を示す斜視図である。
【図9】感覚運動融合学習法が実装された認識・制御シ
ステムを示す図である。
【図10】感覚運動融合学習によって生成された感覚信
号の空間を示す図である。
【図11】感覚運動融合学習によって生成された運動信
号(又は運動指令)の空間を示す図である。
【図12】感覚運動融合学習によって生成された感覚信
号の空間及び運動信号(又は運動指令)の空間の関係を
示す図である。
【図13】3種類の圧縮画像について、正準相関係数の
数と正準相関係数の値との関係を示す図である。
【図14】原画像とKL展開及び本実施例で得られた復
元画像とを示す図である。
【図15】認識・制御システムにおいて正規分布に従う
ランダムな運動信号を10個付け加えて実験を行い重み
を決定した実験結果を示す図である。
【符号の説明】 1 センサ 2 センサ制御機構 3 アクチュエータ 4 感覚モジュール 5 運動モジュール 6 自動調整モジュール 11 CPU 12 ROM 13 RAM 15 バス 20 対象 21 ロボットアーム 22 制御部 23 ビデオカメラ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI G06F 15/18 550 G05B 19/403 V

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 物体や環境等の対象の状態、認識・制御
    システム自体の状態、又は対象と認識・制御システムと
    の関係を能動的に変化させることが可能な認識・制御シ
    ステムにおいて、 該認識・制御システムの状態を検出してセンサ信号を出
    力するセンサ手段と、 制御信号に応答して該認識・制御システムの状態を変化
    させるアクチュエータ手段と、 該センサ手段からのセンサ信号を処理して感覚信号を出
    力する感覚モジュールと、 運動信号又は運動指令に基づいて該アクチュエータ手段
    を制御する制御信号を出力する運動モジュールと、 該感覚モジュールからの感覚信号及び該運動モジュール
    からの制御信号に基づいて、センサ信号と制御信号との
    相互関係を分析し、その分析結果に基づいて該感覚モジ
    ュールの感覚特性及び該運動モジュールの運動特性を自
    動的に調整する自動調整モジュールとを備え、 センサ信号及び制御信号の内部表現である感覚情報及び
    運動情報を自動的に生成する、内部表現自動生成装置。
  2. 【請求項2】 前記アクチュエータ手段は、前記センサ
    手段の特性パラメータを変化させる手段を含み、前記認
    識・制御システムが処理を施す対象の状態、該認識・制
    御システム自体の状態、又は両者の関係を能動的に変化
    させる、請求項1記載の内部表現自動生成装置。
  3. 【請求項3】 前記センサ手段は、位置センサ、速度セ
    ンサ、温度センサ、湿度センサ、照度センサ、カメラの
    うち少なくとも1つを含む、請求項1又は2記載の内部
    表現自動生成装置。
  4. 【請求項4】 前記カメラを先端に設けられたロボット
    アームを更に備え、 前記アクチュエータ手段は、該カメラの焦点距離、絞り
    及び解像度のうち少なくとも1つを制御する、請求項3
    記載の内部表現自動生成装置。
  5. 【請求項5】 前記感覚モジュール及び前記運動モジュ
    ールのうち少なくとも一方は、線形変換手段を有する、
    請求項1〜4のうちいずれか1項記載の内部表現自動生
    成装置。
  6. 【請求項6】 前記自動調整モジュールは、感覚信号と
    制御信号との相互関係を相関性を示標として検出する手
    段を有する、請求項1〜5のうちいずれか1項記載の内
    部表現自動生成装置。
  7. 【請求項7】 物体や環境等の対象の状態、認識・制御
    システム自体の状態、又は対象と認識・制御システムと
    の関係を能動的に変化させることが可能な認識・制御シ
    ステムにおいて、 該認識・制御システムの状態を検出してセンサ信号を出
    力する第1のステップと、 制御信号に応答して該認識・制御システムの状態を変化
    させる第2のステップと、 該センサ信号を処理して感覚信号を出力する第3のステ
    ップと、 運動信号又は運動指令に基づいて該制御信号を出力する
    第4のステップと、 該感覚信号及び該制御信号に基づいて、該センサ信号と
    該制御信号との相互関係を分析し、その分析結果に基づ
    いて該第3のステップの感覚特性及び該第4のステップ
    の運動特性を自動的に調整する第5のステップとを含
    み、 該センサ信号及び該制御信号の内部表現である感覚情報
    及び運動情報を自動的に生成する、内部表現自動生成方
    法。
  8. 【請求項8】 前記第2のステップは、前記第1のステ
    ップの特性パラメータを変化させるステップを含み、前
    記認識・制御システムが処理を施す対象の状態、該認識
    ・制御システム自体の状態、又は両者の関係を能動的に
    変化させる、請求項7記載の内部表現自動生成方法。
  9. 【請求項9】 前記第1のステップは、位置センサ、速
    度センサ、温度センサ、湿度センサ、照度センサ、カメ
    ラのうち少なくとも1つを用いる、請求項7又は8記載
    の内部表現自動生成方法。
  10. 【請求項10】 前記認識・制御システムはカメラを先
    端に設けられたロボットアームを備え、 前記第2のステップは、該カメラの焦点距離、絞り及び
    解像度のうち少なくとも1つを制御する、請求項9記載
    の内部表現自動生成方法。
  11. 【請求項11】 前記第3及び第4のステップのうち少
    なくとも一方は、線形変換ステップを含む、請求項7〜
    10のうちいずれか1項記載の内部表現自動生成方法。
  12. 【請求項12】 前記第5のステップは、感覚信号と制
    御信号との相互関係を相関性を示標として検出するステ
    ップを含む、請求項7〜11のうちいずれか1項記載の
    内部表現自動生成方法。
JP8243530A 1996-09-13 1996-09-13 内部表現自動生成方法及び装置 Pending JPH1091207A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP8243530A JPH1091207A (ja) 1996-09-13 1996-09-13 内部表現自動生成方法及び装置
US08/829,797 US5963710A (en) 1996-09-13 1997-03-27 Method and apparatus for automatically generating internal representation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8243530A JPH1091207A (ja) 1996-09-13 1996-09-13 内部表現自動生成方法及び装置

Publications (1)

Publication Number Publication Date
JPH1091207A true JPH1091207A (ja) 1998-04-10

Family

ID=17105279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8243530A Pending JPH1091207A (ja) 1996-09-13 1996-09-13 内部表現自動生成方法及び装置

Country Status (2)

Country Link
US (1) US5963710A (ja)
JP (1) JPH1091207A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021014010A (ja) * 2017-06-27 2021-02-12 正好 石井 マニピュレータ制御装置、及びマニピュレータ制御システム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6188776B1 (en) * 1996-05-21 2001-02-13 Interval Research Corporation Principle component analysis of images for the automatic location of control points
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
US6151532A (en) * 1998-03-03 2000-11-21 Lam Research Corporation Method and apparatus for predicting plasma-process surface profiles
US7451126B2 (en) * 2001-10-18 2008-11-11 Omron Corporation State space navigation system, user system and business methods for machine to machine business
US7310439B2 (en) * 2002-07-29 2007-12-18 Hewlett-Packard Development Company, L.P. Robot having an imaging capability
US8774950B2 (en) * 2008-01-22 2014-07-08 Carnegie Mellon University Apparatuses, systems, and methods for apparatus operation and remote sensing
US8160728B2 (en) * 2009-09-14 2012-04-17 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of determining complete sensor requirements for autonomous mobility
US20140368349A1 (en) * 2013-06-14 2014-12-18 Revolution Display Sensory element projection system and method of use
US10187171B2 (en) * 2017-03-07 2019-01-22 The United States Of America, As Represented By The Secretary Of The Navy Method for free space optical communication utilizing patterned light and convolutional neural networks
US10229092B2 (en) 2017-08-14 2019-03-12 City University Of Hong Kong Systems and methods for robust low-rank matrix approximation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719834A (ja) * 1993-07-02 1995-01-20 Fujitsu Ltd 物体認識装置
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61149819A (ja) * 1984-12-24 1986-07-08 Nippon Telegr & Teleph Corp <Ntt> マニピユレ−タ用の作業対象物形状認識装置
US5319443A (en) * 1991-03-07 1994-06-07 Fanuc Ltd Detected position correcting method
JP3136183B2 (ja) * 1992-01-20 2001-02-19 株式会社日立製作所 制御方法
JPH06131009A (ja) * 1992-10-20 1994-05-13 Fujitsu Ltd フィードバック制御装置
US5477825A (en) * 1993-02-26 1995-12-26 Toyota Jidosha Kabushiki Kaisha Driving power control apparatus for vehicle
JPH0780790A (ja) * 1993-09-16 1995-03-28 Fujitsu Ltd 三次元物体把持システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719834A (ja) * 1993-07-02 1995-01-20 Fujitsu Ltd 物体認識装置
JPH0830327A (ja) * 1994-07-18 1996-02-02 Fujitsu Ltd 能動的環境認識システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長田茂美、増本大器、山川宏、木本隆: "ニューラルネットによる感覚運動融合の階層型モデル", 日本ロボット学会誌, vol. 12, no. 5, JPN4006012466, July 1994 (1994-07-01), JP, pages 685 - 694, ISSN: 0000753194 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021014010A (ja) * 2017-06-27 2021-02-12 正好 石井 マニピュレータ制御装置、及びマニピュレータ制御システム

Also Published As

Publication number Publication date
US5963710A (en) 1999-10-05

Similar Documents

Publication Publication Date Title
Xu et al. Compare contact model-based control and contact model-free learning: A survey of robotic peg-in-hole assembly strategies
JP4609584B2 (ja) ロボット装置、顔認識方法及び顔認識装置
Calinon et al. A probabilistic programming by demonstration framework handling constraints in joint space and task space
US20180272529A1 (en) Apparatus and methods for haptic training of robots
US8392346B2 (en) Reinforcement learning system
US9403273B2 (en) Rapid robotic imitation learning of force-torque tasks
US8924021B2 (en) Control of robots from human motion descriptors
Köker et al. A neural-network committee machine approach to the inverse kinematics problem solution of robotic manipulators
Chalodhorn et al. Learning to Walk through Imitation.
JP7117237B2 (ja) ロボット制御装置、ロボットシステム及びロボット制御方法
Field et al. Learning trajectories for robot programing by demonstration using a coordinated mixture of factor analyzers
Ott et al. Kinesthetic teaching of humanoid motion based on whole-body compliance control with interaction-aware balancing
JPH1091207A (ja) 内部表現自動生成方法及び装置
CN114102600B (zh) 一种多空间融合的人机技能迁移与参数补偿方法及***
Jetchev et al. Trajectory prediction: learning to map situations to robot trajectories
US20220080586A1 (en) Device and method for controlling a robotic device
US20230234232A1 (en) Autonomous control system, autonomous control method, and storage medium
Chalodhorn et al. Learning humanoid motion dynamics through sensory-motor mapping in reduced dimensional spaces
Perico et al. Learning robust manipulation tasks involving contact using trajectory parameterized probabilistic principal component analysis
Zhou et al. Incremental learning robot task representation and identification
Cheng et al. MLP Neural Network-Based Precise Localization of Robot Assembly Parts
WO2023243412A1 (ja) 処理装置、ロボット制御システム及び機械学習方法
JP7474440B2 (ja) 歩行ロボットの制御装置
Salaün et al. A two-level model of anticipation-based motor learning for whole body motion
Joshi Antipodal Robotic Grasping using Deep Learning

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060208

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060714