JP5210884B2 - 物理的多関節システムの姿勢を制御するコンピュータを用いた方法および多関節システムを位置決めするシステム - Google Patents
物理的多関節システムの姿勢を制御するコンピュータを用いた方法および多関節システムを位置決めするシステム Download PDFInfo
- Publication number
- JP5210884B2 JP5210884B2 JP2008547659A JP2008547659A JP5210884B2 JP 5210884 B2 JP5210884 B2 JP 5210884B2 JP 2008547659 A JP2008547659 A JP 2008547659A JP 2008547659 A JP2008547659 A JP 2008547659A JP 5210884 B2 JP5210884 B2 JP 5210884B2
- Authority
- JP
- Japan
- Prior art keywords
- task
- computer
- joint
- motion
- physical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39062—Calculate, jacobian matrix estimator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39219—Trajectory tracking
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39381—Map task, application to behaviour, force tracking, singularity to motion to actuator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40264—Human like, type robot arm
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40476—Collision, planning for collision free path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
- Numerical Control (AREA)
Description
動作制御システム100は、人間の動作のデータを範例として取り込んで、複雑なロボットの動作をプログラミングもしくは学習する過程を単純化するように構成されている。 (A. Nakazawa, S. Nakaoka, K. Ikeuchi, and K. Yokoi著 「Imitating human dance motions through motion structure analysis」 Intl. Conference on Intelligent Robots and Systems (IROS)、P2539−2544、Lausanne,Switzerland、2002年、なお、この文献に記載されるすべての内容をここに引用する)。動作制御システム100は、ロボットが人間が行うタスクを観測することで、そのタスクを学習する「見まね学習」のアルゴリズムを構築するために使用することも出来る(S. Schaal著 「Learning from demonstration」 M.C. Mozer, M. Jordan、T. Petsche編集、Advances in Neural Information Processing Systems 第9章 P1040−1046 MIT Press,1997年、なお、この文献に記載されるすべての内容をここに引用する)。動作制御システム100は、「見まね学習」 を使用して、ロボットに手動でプログラミングをしてくという労力の必要な作業を、専門家がロボットにタスクを観測させるだけで起動する自動プログラミング処理に置き換えることができるのである。動作制御システム100は、キャプチャした人間の動作をコンピュータアニメーションで使用して、ある多関節形状の動きを、類似した構造を有する他の形状の動きにリターゲットすることが出来る(S. Tak及びH. Ko著 「Motion balance filtering」Comput. Graph. Forum. (Eurographics 2000), 19(3):437−446,2000、S. Tak及びH. Ko著、「A physically-based motion regargetting filter」、ACM Trans. On Graphics,24(1):P98−117,2005年 なお、これらの文献に記載されるすべての内容をここに引用する)。
動作制御システム100は、低次元のモーション・プリミティブから人体姿勢を再構築して、人体動作の解析を行うことが出来る。動作制御システム100は、タスク変数として表された低次元のモーション・ディスクリプタから人体の姿勢を再構築するタスク指向の制御手法を有する。このタスク指向の制御手法は、人体姿勢の特徴の観測(もしくは測定)の数が不十分であったり、測定が阻害されている場合に、動作制御システム100が人間の全自由度の再現を伴う処理を行うことを可能にしている。動作コントローラの物理的拘束は、物理的に不可能な姿勢を排除するために使用することも出来る。
動作制御システム100は、拡張カルマンフィルタに代わるものとして、ノイズを含んだ一連の画像から対象物の動作パラメータを再帰的に推定するためにコンピュータの画像認識で使用されるツールを使用することもできる。拡張カルマンフィルタ及び前記ツールは共に追跡制御方法に使用されるが、その機能と設計において異なっている(Ted J Broida及びRama Chellappa著 「Estimation of object motion parameters from noisy images」 IEEE Transactions on Pattern Analysis and Machine Intelligence, PAMI-8(1):P90−99、1989年、Larry Mathies、Takeo Kanade及びRichard Szeliski著 「Kalman filter-based algorithms for estimating depth from image sequences」、International Journal of Computer Vision, 3:P209−236、1989年 なお、この文献に記載されるすべての内容をここに引用する)。カルマンフィルタと同様に、動作制御システム100は、予測推定を可能にする物理的力学に基づいている。
筋神経系をコンピュータで分析する研究は、主に人体動作の合成もしくは解析に関連している(S. DeIp及びP. Loan著、「A computational framework for simulating and analyzing human and. animal movement」 IEEE Computing in Science and Engineering、2(5):P46−55、2000年、D. Thelen、F.C. Anderson及びS. DeIp著 「Generating dynamic simulations of movement using computed muscle control」 Journal of Biomechanics、36:P321−328、2003年、なお、これらの文献に記載されるすべての内容をここに引用する)。合成についての課題、つまり順動力学的解析は、与えられた初期条件と付与された力の結果としてのバイオメカニカル・システムの動作を提供するものである。システムの視点から、動作制御システム100が処理する動作の方程式を表すシステム方程式をSとする。Sは正確には明らかでない場合もあるため、順動力学の方程式を表すS’を、Sの推定式もしくはモデルとして表してもよい。順動力学の課題に対する解法を使用することで、動作制御システム100はボディセグメントの動きをシミュレートしたり、予測したりすることが出来る(F.C. Anderson及びM. G. Pandy著 「Dynamic optimization of human walking」 Journal of Biomechanical Engineering, 123:P381−390、2001年 なお、この文献に記載される全ての内容をここに引用する)。順動力学的シミュレーションによって生成された動作の数値計算は、様々な用途に応用出来る。例えば、手術における外科的処理の変更に関わる実施例においては、対象となる人の動作パターンを基に、シミュレーションは予期される手術の結果を予測することが出来る(S. Piazza及びS. DeIp著「Three-dimensional dynamic simulation of total knew replacement motion during a step-up task」、Journal of Biomechanical Engineering、123:P589−606 2002年 なお、この文献に記載される全ての内容をここに引用する)。
図2は、ソースモデル201と多関節システムに相当するターゲットモデル202間における、一つのタスクディスクリプタの対応関係を説明する図である。ソースモデル201及びターゲットモデル202はそれぞれ、ソースシステム102のモデル及びターゲットシステム104のモデルである。一実施形態において、ソースシステム102及びターゲットシステム104は同等のものである。他の実施形態においては、ソースシステム102及びターゲットシステム104は、2つの異なる多関節システムであり、それぞれ異なる次元、物理パラメータ、自由度を有していてもよい。ターゲットシステム104は、その特定の実施形態が運動学的解析または動力学的解析のどちらに関わるものかによって、運動学的パラメータによって記述してもよいし、運動学的パラメータ及び動力学的パラメータの両方によって記述してもよい。
ソースシステム102から観測されたタスクディスクリプタは、連続する観測の間の対応関係を有する。すなわち、タスクディスクリプタが観測可能な場合、連続する時間インスタンスにおけるタスクディスクリプタの位置及び/または方向の間には対応関係がある。さらに、観測された「ソース」タスクディスクリプタとそれに関連付けられた「ターゲット」タスクディスクリプタの間には空間的な対応関係があるものとされている。ある「ソース」タスクディスクリプタの全ての観測値に対して、同じ次元と同様の自由度を有する、対応する「ターゲット」 タスクディスクリプタを定義することが可能である。また、「ソース」タスクディスクリプタと「ターゲット」タスクディスクリプタは、タスクの位置とタスクフレームの方向を特定するために要求される6パラメータで常に表現しなくてはならないものではない。
・「ソース」タスクディスクリプタの空間的位置及び/または空間的方向が部分的にしか観測出来ない場合がある。つまり、6度の自由度全ては測定できない場合である。これは、例えば、タスクに関連付けられた位置変数は測定により求めることが出来るが、タスクフレームの方向は求めることが出来ない場合に起こりうる。
・「ソース」タスクディスクリプタの位置及び方向は完全に観測可能であるが、ターゲットシステム104が、6度の自由度未満のタスクを実行する場合がある。つまり、利用可能な測定値がタスクの実行に必要な数を超えているため、「ターゲット」タスクディスクリプタと同じパラメータで「ソース」タスクディスクリプタを表せば十分な場合である。
・「ターゲット」システムが、あるタスクを実行するために十分な自由度を有していない時、そのタスクの実行が制限される、もしくは不可能な場合がある。
運動学的構造を含む一実施形態に対応する動作制御システム300について説明する。一実施形態において、ターゲットシステム104はツリー構造を有する一般的な多関節メカニズムを表すものとする。図4は、動作制御システム100の1つの関節に対応する座標系及び座標変換を示す図である。この多関節メカニズムは、i=1...NまでのN個のセグメントと、d=1...nまでのniを合計した自由度を持つ。なお、各関節は自由度niを有する。このシステムは、ルートノードもしくはセグメント0とされる固定または可動の土台(ベース)がある。N個の関節はそれぞれのセグメントを接合しており、関節iはセグメントp(i)とセグメントiを接合している。ここで、p(i)はツリー構造におけるリンクiの親リンク番号を表している。この番号はp(i)<iとなるようにとられる。特に、未分枝運動鎖においては、p(i)=i−1とし、セグメントと関節は土台から先端へと連続的に番号付けられる。セグメントiは、次の式(1)に表される関係c(i)= {j}により定義される子(children)のセットを有している。
座標系{A}から座標系{B}への空間ベクトル量の変換は式(2)により与えられる。
一実施形態において、ターゲットシステム104は6次元タスク空間(n≧m、m = 6)でタスクを行う。タスクディスクリプタの位置及び方向は、それぞれベクトル0pと回転行列0R によって表される。左上付き文字の表記は基準とする座標系を表すものである。以後ベース座標系を基準とする数量の場合はこの左上付き文字は省略する。もう一つの実施形態では、ターゲットシステム104は完全には特定されていない(m<6)タスクを行う。
次に、所望のモーション・プリミティブのセットから、ターゲットシステム104の全自由度に対応する動作を生成するためのタスク空間制御の手法を説明する。これらの所望のモーション・プリミティブは、測定によって観測されたもの、合成されたもの、またはターゲットシステム104の現在の配置から算出されたもののいずれかである。動作制御システム300は、a)所望のタスクディスクリプタを軌道追従する算出タスクディスクリプタのセットに動作の結果を反映させる(例えばデカルト空間における追従誤差を最小化する)軌道追従制御システム302、b)生成した動作をバランスをとって制御し、ターゲットシステム104を不安定な方向へは動かさないようにするバランス制御システム306、c)関節制限、速度制限、トルク制限などの物理制限をターゲットシステム104が超えないようにするコマンドを提供し、システム300が障害との衝突や自己衝突を避け、特異姿勢を原因とする計算問題を避ける拘束システム304を備える。この三つの制御システム302、304、306は互いに相入れない数多くのタスクを提示することもあるが、それは、階層的タスク管理ストラテジによって解決することが出来る。これは、低優先度(もしくは低重要度)の要素の正確性を犠牲にして、より優先度の高い(もしくはより重要度の高い)要素の正確性を保つということである。
図5は、冗長性分解のない一次閉ループ逆運動学システムを実装した動作制御システム300を示すブロック図である。閉ループ逆運動学 (CLHC)の制御アルゴリズムは、時間に応じて変化する所望のタスクディスクリプタの位置及び方向を追従するための制御コマンドを得るために(例えば、軌道追従の課題のために)使用することが出来る。図5のシステムは、図3の軌道追従制御システム302と同様の構造を有していることに注意したい。ここで、式(19)の一次微分運動学を参照する。一実施形態においては、6次元空間のタスクディスクリプタで所望の動作が与えられる。その所望の動作に関する微分運動学は式(21)で表される。
図7は、位置制御システムと方向制御システムを分けて実装した二次閉ループ逆運動学の軌道追従制御システムを示すブロック図である。
図8は、位置制御システムと方向制御システムを分けて実装した二次閉ループ逆運動学の軌道追従制御システムを示すブロック図である。
図9は、ソースモデル上のタスクディスクリプタと一般座標系を示す図である。タスクディスクリプタは、一般座標系の関数として表すことができる任意の量値をとることが出来る。タスクディスクリプタの例としては、ボディセグメントのランドマークの位置、ボディセグメントの方向、全身の重心の位置などが考えられる。所望のタスクディスクリプタは測定により取得もしくは推測される。図9は、測定もしくは推測しやすく、かつタスクの記述に組込みやすい好ましいランドマークを図示している。
図10は、推定されたタスク変数としてバランスディスクリプタを含む一次閉ループ逆運動学システムを示すブロック図である。
一実施形態において、ターゲットシステム104は、満たすべき運動学的拘束と動力学的拘束を有する。関節制限、自分自身や周りの環境との衝突を避ける拘束は、運動学的拘束の例である。正則化(regularization)をしない場合、特異姿勢もターゲットシステム104が通過することができるワークスペースの許容域に拘束を課す。さらに、ターゲットシステム104は、許容可能な関節速度および関節トルクが制限されている場合もある。このことは、ターゲットシステム104が、アクチュエータの速度制限やトルク制限が重要なロボットである場合に特に当てはまる。これらの拘束は、動作の(自由度の)冗長性を有効に利用するために、ベクトルvnを特定することで、零空間において対処される場合もある。これらの拘束は、最も優先度が高く設定される場合もあり、その場合、拘束は第一のタスクとして使用される。
動作制御システム100は、関節制限を回避するためにいくつかの方法を使用することが出来る。その一つは勾配投影法である。勾配投影法においては、パフォーマンス基準が関節制限の関数として定義され、その勾配がヤコビアンの零空間投射行列に投射され、パフォーマンス基準を最適化するのに必要なセルフモーションを得る。第二の方法は、関節制限を避けるための重み付き最小ノルム解(WLN)である。重み付き最小ノルム解は、T. R Chan とR. V. Dubeyによって、「A weighted least-norm solution based scheme for avoiding joint limit for redundant joint manipulators」IEEE Transactions on Robotics and Automation, 11(2), 1995年 で最初に提案されている。なお、この文献に記載される全ての内容をここに引用する。重み付き最小ノルム解は、減衰最小二乗法に関連して公式化される。
ターゲットシステム104は、自身や他の障害との衝突回避により、動作を安全に実行することが出来る。衝突回避は、二組の衝突点のペアが衝突に向けて近づいている各時刻において、その衝突点を求めることによって行うことが出来る。衝突点のペアにおけるそれぞれの衝突点は、「反応」衝突点または「受動」衝突点のどちらかに定義される。反応衝突点は、衝突回避のためのタスクディスクリプタとしてみなし、他のタスクディスクリプタと同じ方法で制御することができる。そのため、反応衝突点は衝突回避タスクディスクリプタを表すともいえ、その所望の動作は衝突を回避するための制御法則に基づいて求められる。受動衝突点は、衝突回避において、明確には制御されない点である。受動衝突点は、外部システム(例えば、環境や障害)もしくはターゲットシステム104上の異なった剛体に与えられる。一実施形態において、動作制御システム100は外部システムに与えられた衝突点を受動的なものとして処理する。この実施形態は、例えば、衝突点がターゲットシステム104の内部制御システムには制御不可能な場合に用いることが出来る。
通常、ターゲットシステム104の各自由度の許容可能な関節速度には制限があり、その制限は関節を駆動するアクチュエータの物理的限界によって決められる場合が多い。ロボット工学においては、関節速度が上限に達した時、その関節速度を固定することによって、関節速度の拘束に対処することもできる。それに代わる手法としては、減衰係数を調節することによって、上述した減衰最小二乗法と同様の手法で速度を制御することもできる。この手法は、動作全体の実行に要する時間を維持することができるが、元の軌道を維持することができず、結果的に生じる動作の軌道は元の動作の軌道から大きく変わってしまう場合がある。ここでは、元の関節動作を保ちつつ、2つの連続するサンプルの間の時間を適応的に調節することで、関節速度を制限する方法を説明する。
102 ソースシステム
104 ターゲットシステム
108 タスクディスクリプタ
110 関節変数
201 ソースモデル
202 ターゲットモデル
300 動作制御システム
304 拘束システム
306 バランス制御システム
310 位置/方向誤差検出システム
312 順運動学システム
314 制御法則システム
316 予測システム
322 衝突回避システム
323 トルク制限システム323
324 特異姿勢ロバストシステム
326 関節速度制限システム
328 関節制限システム
Claims (18)
- 物理的多関節システムの姿勢を制御する、コンピュータを用いた方法であって、
前記コンピュータは、ソースシステムの部位の位置と方向を表す複数のタスクディスクリプタを観測するステップと、
前記コンピュータが読み取り可能な記憶媒体に記憶された関節変数を用いて算出された当該関節変数に対応する位置と前記ソースシステムの前記部位の位置との間の位置誤差を生成するステップと、
前記コンピュータが読み取り可能な記憶媒体に記憶された関節変数を用いて算出された当該関節変数に対応する方向と前記ソースシステムの前記部位の方向との間の方向誤差を生成するステップと、
前記コンピュータが読み取り可能な非一時的記憶媒体を使用することにより、前記位置誤差、前記方向誤差及び運動学的拘束に基づいて、制御法則に基づいた制御コマンドを生成するステップと、
前記コンピュータが読み取り可能な非一時的記憶媒体を使用することにより、前記物理的多関節システムの部位の前記運動学的拘束と前記生成された制御コマンドに基づいて、重み付け行列を生成するステップと、
前記コンピュータが読み取り可能な非一時的記憶媒体を使用することにより、前記観察されたタスクディスクリプタに前記重み付け行列を適用することにより前記物理的関節システムの部位の前記運動学的拘束を課しながら、前記物理的多関節システムの部位の位置と方向を決める関節変数を生成するステップと、
前記生成された関節変数を前記コンピュータが読み取り可能な記憶媒体に記憶するステップとを実行し、
前記タスクディスクリプタの数は前記ソースシステムの動作の自由度よりも少ないことを特徴とする方法。 - 前記ソースシステムは、画像またはデータから検出される人間の特徴を含むことを特徴とする請求項1に記載の方法。
- 多関節システムを位置決めするシステムであって、
ソースシステムの部位の位置と方向を表す複数のタスクディスクリプタを観測する第一の制御システムと、
前記コンピュータが読み取り可能な記憶媒体に記憶された関節変数を用いて算出された当該関節変数に対応する位置と前記ソースシステムの前記部位の位置との間の位置誤差を生成し、
前記コンピュータが読み取り可能な記憶媒体に記憶された関節変数を用いて算出された当該関節変数に対応する方向と前記ソースシステムの前記部位の方向との間の方向誤差を生成し、
前記位置誤差、前記方向誤差及び運動学的拘束に基づいて、制御法則に基づいた制御コマンドを生成し、
前記物理的多関節システムの部位の前記運動学的拘束と前記生成された制御コマンドに基づいて、重み付け行列を生成し、
前記観測されたタスクディスクリプタに前記重み付け行列を適用することにより前記物理的多関節システムの部位の前記運動学的拘束を課すと同時に、前記物理的多関節システムの部位の位置と方向を決める関節変数を生成し、
前記生成された関節変数を前記コンピュータが読み取り可能な記憶媒体に記憶する第二の制御システムとを含み、
前記タスクディスクリプタの数は前記ソースシステムの動作の自由度よりも少ないことを特徴とするシステム。 - 前記コンピュータは、前記物理的多関節システムの部位の位置に課される拘束を生成するステップをさらに実行し、
前記重み付け行列は、少なくとも一部は前記拘束に基づいて構成されることを特徴とする請求項1に記載の方法。 - 前記生成された関節変数に応じて、バランス制御コマンドを生成するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 前記複数のタスクディスクリプタを観測するステップは、一次閉ループ逆運動学を含むことを特徴とする請求項1に記載の方法。
- 前記複数のタスクディスクリプタを観測するステップは、前記ソースシステムの前記部位の位置の逆ヤコビ行列を正則化することを含むことを特徴とする請求項6に記載の方法。
- 前記複数のタスクディスクリプタを観測するステップは、二次閉ループ逆運動学を含むことを特徴とする請求項4に記載の方法。
- 前記複数のタスクディスクリプタを観測するステップは、前記ソースシステムの動作の逆ヤコビ行列を正則化することを含むことを特徴とする請求項8に記載の方法。
- 前記関節変数の順運動学を計算して、前記算出された位置と前記算出された方向を生成することをさらに含むことを特徴とする請求項1に記載の方法。
- 前記運動学的拘束は、タスクを実行するための自由度が不十分であることによるタスクの実行制限から生じる特異姿勢を含むことを特徴とする請求項1に記載の方法。
- 前記運動学的拘束は、制御コマンドを生成する数学を原因とする特異姿勢を含むことを特徴とする請求項1に記載の方法。
- 前記多関節システムは人間モデルであることを特徴とする請求項1に記載の方法。
- 前記多関節システムはロボットであることを特徴とする請求項1に記載の方法。
- 前記ソースシステムは、画像またはデータから検出される人間の特徴を含むことを特徴とする請求項3に記載のシステム。
- 前記第二の制御システムは、前記物理的多関節システムの部位の位置に課される拘束を生成するように構成され、
前記重み付け行列は、少なくともその一部は前記拘束に基づいて構成されることを特徴とする請求項3に記載のシステム。 - 前記第二の制御システムは、前記生成された関節変数に応じて、バランス制御コマンドを生成するステップをさらに含むことを特徴とする請求項3に記載のシステム。
- 前記複数のタスクディスクリプタを観察するステップは、一次閉ループ逆運動学を含むことを特徴とする請求項3に記載のシステム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US75392205P | 2005-12-22 | 2005-12-22 | |
US75392405P | 2005-12-22 | 2005-12-22 | |
US60/753,924 | 2005-12-22 | ||
US60/753,922 | 2005-12-22 | ||
US11/614,930 US8467904B2 (en) | 2005-12-22 | 2006-12-21 | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
US11/614,930 | 2006-12-21 | ||
PCT/US2006/049253 WO2007076119A2 (en) | 2005-12-22 | 2006-12-22 | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009521751A JP2009521751A (ja) | 2009-06-04 |
JP5210884B2 true JP5210884B2 (ja) | 2013-06-12 |
Family
ID=38218713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008547659A Active JP5210884B2 (ja) | 2005-12-22 | 2006-12-22 | 物理的多関節システムの姿勢を制御するコンピュータを用いた方法および多関節システムを位置決めするシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8467904B2 (ja) |
JP (1) | JP5210884B2 (ja) |
WO (1) | WO2007076119A2 (ja) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8768516B2 (en) * | 2009-06-30 | 2014-07-01 | Intuitive Surgical Operations, Inc. | Control of medical robotic system manipulator about kinematic singularities |
US10029367B2 (en) | 1999-09-17 | 2018-07-24 | Intuitive Surgical Operations, Inc. | System and method for managing multiple null-space objectives and constraints |
US9510911B2 (en) | 1999-09-17 | 2016-12-06 | Intuitive Surgical Operations, Inc. | System and methods for managing multiple null-space objectives and SLI behaviors |
CA2458979C (en) | 2001-08-31 | 2010-09-28 | George Danko | Coordinated joint motion control system |
US8467904B2 (en) | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
US8065060B2 (en) * | 2006-01-18 | 2011-11-22 | The Board Of Regents Of The University And Community College System On Behalf Of The University Of Nevada | Coordinated joint motion control system with position error correction |
US8924021B2 (en) * | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
EP1972416B1 (en) * | 2007-03-23 | 2018-04-25 | Honda Research Institute Europe GmbH | Robots with occlusion avoidance functionality |
EP1972415B1 (en) * | 2007-03-23 | 2019-01-02 | Honda Research Institute Europe GmbH | Robots with collision avoidance functionality |
EP1974869A1 (en) * | 2007-03-26 | 2008-10-01 | Honda Research Institute Europe GmbH | Apparatus and method for generating and controlling the motion of a robot |
US8571840B2 (en) * | 2007-03-28 | 2013-10-29 | Autodesk, Inc. | Constraint reduction for dynamic simulation |
EP2014425B1 (en) * | 2007-07-13 | 2013-02-20 | Honda Research Institute Europe GmbH | Method and device for controlling a robot |
CN101842755B (zh) * | 2007-08-28 | 2014-12-10 | 萨里大学 | 逆运动学 |
US8170287B2 (en) | 2007-10-26 | 2012-05-01 | Honda Motor Co., Ltd. | Real-time self collision and obstacle avoidance |
WO2009058693A1 (en) * | 2007-11-01 | 2009-05-07 | Honda Motors Co., Ltd. | Real-time self collision and obstacle avoidance using weighting matrix |
WO2009086088A1 (en) * | 2007-12-21 | 2009-07-09 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
US9165199B2 (en) * | 2007-12-21 | 2015-10-20 | Honda Motor Co., Ltd. | Controlled human pose estimation from depth image streams |
JP2009168626A (ja) * | 2008-01-16 | 2009-07-30 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法 |
KR101549817B1 (ko) * | 2009-01-22 | 2015-09-04 | 삼성전자 주식회사 | 로봇의 보행 제어장치 및 그 방법 |
JP2012518236A (ja) * | 2009-02-17 | 2012-08-09 | オーメック インタラクティブ,リミテッド | ジェスチャー認識のための方法及びシステム |
US20110054870A1 (en) * | 2009-09-02 | 2011-03-03 | Honda Motor Co., Ltd. | Vision Based Human Activity Recognition and Monitoring System for Guided Virtual Rehabilitation |
EP2495632B1 (en) * | 2009-10-30 | 2018-09-12 | Yujin Robot Co., Ltd. | Map generating and updating method for mobile robot position recognition |
JP6321905B2 (ja) * | 2010-02-25 | 2018-05-09 | 本田技研工業株式会社 | 関節システムの制御方法、記憶媒体、制御システム |
DE102011005513A1 (de) * | 2011-03-14 | 2012-09-20 | Kuka Laboratories Gmbh | Roboter und Verfahren zum Betreiben eines Roboters |
US8467596B2 (en) * | 2011-08-30 | 2013-06-18 | Seiko Epson Corporation | Method and apparatus for object pose estimation |
EP2774729A4 (en) | 2011-09-15 | 2016-05-18 | Yaskawa Denki Seisakusho Kk | ROBOTIC SYSTEM AND ROBOT CONTROL |
JPWO2013038544A1 (ja) * | 2011-09-15 | 2015-03-23 | 株式会社安川電機 | ロボットシステム及びロボット制御装置 |
JP6305673B2 (ja) * | 2011-11-07 | 2018-04-04 | セイコーエプソン株式会社 | ロボット制御システム、ロボットシステム及びロボット |
KR101289785B1 (ko) * | 2011-12-28 | 2013-07-26 | 한국과학기술원 | 로봇 머니퓰레이터의 관절 토크 변화량을 최소화하는 최적 궤적 생성시스템 및 그 방법 |
US20150094855A1 (en) * | 2012-05-04 | 2015-04-02 | Leoni Cia Cable Systems Sas | Imitation learning method for a multi-axis manipulator |
KR102146708B1 (ko) | 2012-06-01 | 2020-08-21 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영-공간을 이용하여 매니퓰레이터 암들 사이의 충돌을 회피하는 시스템 및 방법 |
CN107595392B (zh) * | 2012-06-01 | 2020-11-27 | 直观外科手术操作公司 | 使用零空间回避操纵器臂与患者碰撞 |
WO2013183190A1 (ja) * | 2012-06-04 | 2013-12-12 | 株式会社安川電機 | ロボットシステム、ロボット制御装置、及びロボットシステムの制御方法 |
EP2685403A3 (en) | 2012-07-09 | 2017-03-01 | Technion Research & Development Foundation Limited | Natural machine interface system |
KR102109594B1 (ko) | 2012-08-15 | 2020-05-12 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영-공간을 이용하여 조인트 운동을 상쇄하기 위한 시스템 및 방법 |
WO2014109799A1 (en) | 2012-09-17 | 2014-07-17 | President And Fellows Of Harvard College | Soft exosuit for assistance with human motion |
WO2014043702A1 (en) * | 2012-09-17 | 2014-03-20 | Rethink Robotics, Inc. | Constraining robotic manipulators with redundant degrees of freedom |
US9056396B1 (en) * | 2013-03-05 | 2015-06-16 | Autofuss | Programming of a robotic arm using a motion capture system |
KR102188100B1 (ko) * | 2013-03-15 | 2020-12-07 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
KR102285954B1 (ko) * | 2013-03-15 | 2021-08-05 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 다중 영공간 목적 및 sli 거동을 관리하기 위한 시스템 및 방법 |
KR102214809B1 (ko) * | 2013-03-15 | 2021-02-10 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영공간을 이용하여 카테시안 좌표의 에지에의 액세스를 조장하기 위한 시스템 및 방법 |
JP6284302B2 (ja) * | 2013-04-02 | 2018-02-28 | 株式会社タダノ | ブームの伸縮パターン選択装置 |
EP3777677A3 (en) | 2013-05-31 | 2021-02-24 | President And Fellows Of Harvard College | Soft exosuit for assistance with human motion |
CN115089444A (zh) | 2013-12-09 | 2022-09-23 | 哈佛大学校长及研究员协会 | 促进步态改善的方法 |
US9358685B2 (en) * | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US10278883B2 (en) | 2014-02-05 | 2019-05-07 | President And Fellows Of Harvard College | Systems, methods, and devices for assisting walking for developmentally-delayed toddlers |
CN104570736B (zh) * | 2014-02-28 | 2017-06-16 | 中国科学院力学研究所 | 一种星‑臂耦合***的动力学参数在轨辨识方法和装置 |
CN106068175B (zh) * | 2014-03-14 | 2020-04-28 | 索尼公司 | 机器人手臂设备、机器人手臂控制方法及程序 |
EP3128963A4 (en) | 2014-04-10 | 2017-12-06 | President and Fellows of Harvard College | Orthopedic device including protruding members |
US10434030B2 (en) | 2014-09-19 | 2019-10-08 | President And Fellows Of Harvard College | Soft exosuit for assistance with human motion |
DE102014224122B4 (de) * | 2014-11-26 | 2018-10-25 | Siemens Healthcare Gmbh | Verfahren zum Betreiben eines robotischen Gerätes und robotisches Gerät |
JP6550605B2 (ja) * | 2014-12-02 | 2019-07-31 | Soinn株式会社 | 動作の転移装置、動作の転移方法及びプログラム |
TWI558525B (zh) * | 2014-12-26 | 2016-11-21 | 國立交通大學 | 機器人及其控制方法 |
JP2017146115A (ja) * | 2016-02-15 | 2017-08-24 | オムロン株式会社 | 演算装置、演算方法及び演算プログラム |
WO2017160751A1 (en) | 2016-03-13 | 2017-09-21 | President And Fellows Of Harvard College | Flexible members for anchoring to the body |
EP3487666A4 (en) | 2016-07-22 | 2020-03-25 | President and Fellows of Harvard College | OPTIMIZING ORDERS FOR PORTABLE SYSTEMS |
JP6371959B2 (ja) * | 2016-09-02 | 2018-08-15 | 株式会社プロドローン | ロボットアームおよびこれを備える無人航空機 |
US10251709B2 (en) * | 2017-03-05 | 2019-04-09 | Samuel Cho | Architecture, system, and method for developing and robotically performing a medical procedure activity |
WO2018170170A1 (en) | 2017-03-14 | 2018-09-20 | President And Fellows Of Harvard College | Systems and methods for fabricating 3d soft microstructures |
US10870968B2 (en) * | 2018-04-30 | 2020-12-22 | Deere & Company | Work vehicle control system providing coordinated control of actuators |
US10657656B2 (en) * | 2018-06-15 | 2020-05-19 | International Business Machines Corporation | Virtual generation of labeled motion sensor data |
CN113043267A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市优必选科技股份有限公司 | 机器人控制方法、装置、机器人及计算机可读存储介质 |
US11712797B2 (en) * | 2020-09-11 | 2023-08-01 | Fanuc Corporation | Dual hand detection in teaching from demonstration |
WO2023186711A1 (en) * | 2022-03-30 | 2023-10-05 | Sony Group Corporation | Method, computer program, and apparatus for controlling a plurality of joints of a robot based on a desired joint state |
CN117885103B (zh) * | 2024-03-14 | 2024-05-17 | 山东大学 | 基于降阶扩张状态观测器的柔性机械臂控制方法及*** |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0682287B2 (ja) | 1986-10-23 | 1994-10-19 | 新明和工業株式会社 | ロボツトの走査制御方法 |
JPS63300903A (ja) | 1987-06-01 | 1988-12-08 | Hitachi Ltd | 干渉判別における高速化の方式 |
US4831549A (en) * | 1987-07-28 | 1989-05-16 | Brigham Young University | Device and method for correction of robot inaccuracy |
US5159249A (en) * | 1989-05-16 | 1992-10-27 | Dalila Megherbi | Method and apparatus for controlling robot motion at and near singularities and for robot mechanical design |
US4999553A (en) * | 1989-12-28 | 1991-03-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Method and apparatus for configuration control of redundant robots |
US5625577A (en) * | 1990-12-25 | 1997-04-29 | Shukyohojin, Kongo Zen Sohonzan Shorinji | Computer-implemented motion analysis method using dynamics |
US5586224A (en) * | 1990-12-25 | 1996-12-17 | Shukyohojin, Kongo Zen Sohonzan Shorinji | Robot or numerical control programming method |
US5341459A (en) * | 1991-05-09 | 1994-08-23 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Generalized compliant motion primitive |
US5293461A (en) * | 1991-11-20 | 1994-03-08 | The University Of British Columbia | System for determining manipulator coordinates |
US5550953A (en) * | 1994-04-20 | 1996-08-27 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | On-line method and apparatus for coordinated mobility and manipulation of mobile robots |
US5430643A (en) * | 1992-03-11 | 1995-07-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Configuration control of seven degree of freedom arms |
US5737500A (en) * | 1992-03-11 | 1998-04-07 | California Institute Of Technology | Mobile dexterous siren degree of freedom robot arm with real-time control system |
US5675720A (en) * | 1993-09-14 | 1997-10-07 | Fujitsu Limited | Method of searching for points of closest approach, and preprocessing method therefor |
JPH08108383A (ja) | 1994-10-05 | 1996-04-30 | Fujitsu Ltd | マニピュレータ制御装置 |
US5808433A (en) * | 1995-09-29 | 1998-09-15 | Honda Giken Kogyo Kabushiki Kaisha | Method of generating gait of legged walking robot and system for controlling its locomotion |
US6699177B1 (en) * | 1996-02-20 | 2004-03-02 | Computer Motion, Inc. | Method and apparatus for performing minimally invasive surgical procedures |
US6004016A (en) * | 1996-08-06 | 1999-12-21 | Trw Inc. | Motion planning and control for systems with multiple mobile objects |
US6331181B1 (en) * | 1998-12-08 | 2001-12-18 | Intuitive Surgical, Inc. | Surgical robotic tools, data architecture, and use |
US6236737B1 (en) * | 1997-03-26 | 2001-05-22 | Dalhousie University | Dynamic target addressing system |
JPH1133958A (ja) | 1997-07-18 | 1999-02-09 | Ube Ind Ltd | 金型スプレイロボットの簡易干渉チェック方法 |
US6016385A (en) * | 1997-08-11 | 2000-01-18 | Fanu America Corp | Real time remotely controlled robot |
EP1015944B1 (en) * | 1997-09-19 | 2013-02-27 | Massachusetts Institute Of Technology | Surgical robotic apparatus |
US6493608B1 (en) * | 1999-04-07 | 2002-12-10 | Intuitive Surgical, Inc. | Aspects of a control system of a minimally invasive surgical apparatus |
US6708142B1 (en) * | 1999-01-14 | 2004-03-16 | University Of Central Florida | Automatic motion modeling of rigid bodies using collision detection |
US6341246B1 (en) * | 1999-03-26 | 2002-01-22 | Kuka Development Laboratories, Inc. | Object oriented motion system |
US6424885B1 (en) * | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US8004229B2 (en) * | 2005-05-19 | 2011-08-23 | Intuitive Surgical Operations, Inc. | Software center and highly configurable robotic systems for surgery and other uses |
US6577925B1 (en) * | 1999-11-24 | 2003-06-10 | Xerox Corporation | Apparatus and method of distributed object handling |
US6674877B1 (en) * | 2000-02-03 | 2004-01-06 | Microsoft Corporation | System and method for visually tracking occluded objects in real time |
AU2001250802A1 (en) * | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US6853964B1 (en) * | 2000-06-30 | 2005-02-08 | Alyn Rockwood | System for encoding and manipulating models of objects |
JP2002319036A (ja) | 2001-02-13 | 2002-10-31 | Sega Corp | アニメーション生成プログラム |
JP3808321B2 (ja) * | 2001-04-16 | 2006-08-09 | ファナック株式会社 | ロボット制御装置 |
US6456901B1 (en) * | 2001-04-20 | 2002-09-24 | Univ Michigan | Hybrid robot motion task level control system |
US7135003B2 (en) | 2001-06-29 | 2006-11-14 | Honda Giken Kogyo Kabushiki Kaisha | Feedback estimation of joint forces and joint moments |
US7469166B2 (en) * | 2001-06-29 | 2008-12-23 | Honda Motor Co., Ltd. | System and method of predicting novel motion in a serial chain system |
US7274800B2 (en) * | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
CA2458979C (en) * | 2001-08-31 | 2010-09-28 | George Danko | Coordinated joint motion control system |
JP2003089082A (ja) | 2001-09-17 | 2003-03-25 | National Institute Of Advanced Industrial & Technology | 物体間に働く拘束力検出方法及びシステム |
JP2003308532A (ja) | 2002-02-12 | 2003-10-31 | Univ Tokyo | 受動的光学式モーションキャプチャデータの処理法 |
US6845295B2 (en) * | 2002-03-07 | 2005-01-18 | Fanuc Robotics America, Inc. | Method of controlling a robot through a singularity |
FR2839176A1 (fr) * | 2002-04-30 | 2003-10-31 | Koninkl Philips Electronics Nv | Systeme d'animation pour robot comprenant un ensemble de pieces mobiles |
US7805218B2 (en) * | 2002-10-01 | 2010-09-28 | Sony Corporation | Robot device and control method of robot device |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US6995536B2 (en) * | 2003-04-07 | 2006-02-07 | The Boeing Company | Low cost robot manipulator |
GB0308943D0 (en) * | 2003-04-17 | 2003-05-28 | Univ Dundee | A system for determining the body pose of a person from images |
US20050001842A1 (en) * | 2003-05-23 | 2005-01-06 | Woojin Park | Method, system and computer program product for predicting an output motion from a database of motion data |
FR2861858B1 (fr) * | 2003-10-29 | 2014-09-05 | Snecma Moteurs | Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions entre l'objet articule et l'environnement |
FR2861857B1 (fr) | 2003-10-29 | 2006-01-20 | Snecma Moteurs | Deplacement d'un objet articule virtuel dans un environnement virtuel en evitant les collisions internes entre les elements articules de l'objet articule |
US7308112B2 (en) * | 2004-05-14 | 2007-12-11 | Honda Motor Co., Ltd. | Sign based human-machine interaction |
CA2578653A1 (en) * | 2004-07-29 | 2006-02-09 | Kevin Ferguson | A human movement measurement system |
JP4241673B2 (ja) * | 2005-06-17 | 2009-03-18 | 本田技研工業株式会社 | 移動体の経路生成装置 |
US7573477B2 (en) | 2005-06-17 | 2009-08-11 | Honda Motor Co., Ltd. | System and method for activation-driven muscle deformations for existing character motion |
US7688016B2 (en) * | 2005-09-28 | 2010-03-30 | Canadian Space Agency | Robust impedance-matching of manipulators interacting with unknown environments |
US7689320B2 (en) * | 2005-12-20 | 2010-03-30 | Intuitive Surgical Operations, Inc. | Robotic surgical system with joint motion controller adapted to reduce instrument tip vibrations |
US8280169B2 (en) * | 2005-12-21 | 2012-10-02 | Michael Linderman | Recordation of handwriting and hand movement using electromyography |
US8467904B2 (en) | 2005-12-22 | 2013-06-18 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of pose of articulated systems |
US7859540B2 (en) * | 2005-12-22 | 2010-12-28 | Honda Motor Co., Ltd. | Reconstruction, retargetting, tracking, and estimation of motion for articulated systems |
US8301421B2 (en) * | 2006-03-31 | 2012-10-30 | Energid Technologies | Automatic control system generation for robot design validation |
US8924021B2 (en) * | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
KR100776801B1 (ko) * | 2006-07-19 | 2007-11-19 | 한국전자통신연구원 | 화상 처리 시스템에서의 제스처 인식 장치 및 방법 |
FR2911983B1 (fr) * | 2007-01-25 | 2009-05-29 | St Microelectronics Sa | Procede de suivi automatique des mouvements de la mains dans une sequence d'images. |
EP1972415B1 (en) * | 2007-03-23 | 2019-01-02 | Honda Research Institute Europe GmbH | Robots with collision avoidance functionality |
US8103109B2 (en) * | 2007-06-19 | 2012-01-24 | Microsoft Corporation | Recognizing hand poses and/or object classes |
US8170287B2 (en) * | 2007-10-26 | 2012-05-01 | Honda Motor Co., Ltd. | Real-time self collision and obstacle avoidance |
-
2006
- 2006-12-21 US US11/614,930 patent/US8467904B2/en active Active
- 2006-12-22 WO PCT/US2006/049253 patent/WO2007076119A2/en active Application Filing
- 2006-12-22 JP JP2008547659A patent/JP5210884B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US8467904B2 (en) | 2013-06-18 |
WO2007076119A2 (en) | 2007-07-05 |
JP2009521751A (ja) | 2009-06-04 |
US20070162164A1 (en) | 2007-07-12 |
WO2007076119A3 (en) | 2008-08-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5210884B2 (ja) | 物理的多関節システムの姿勢を制御するコンピュータを用いた方法および多関節システムを位置決めするシステム | |
JP5210883B2 (ja) | 物理的な多関節システムの部位の動作を制御する、コンピュータを使用する方法、物理的な多関節システムの部位の動作を制御するシステム、人間とは別体の物理的多関節システムに前記人間の動作を追従させる、コンピュータを用いた方法、人間とは別体の物理的多関節システムによって前記人間の動作を追従させるシステム、及び、ソースシステムとは別体の物理的多関節システムの部位の動きを制御する、コンピュータを用いた方法 | |
Das et al. | Learning-based proxy collision detection for robot motion planning applications | |
US8924021B2 (en) | Control of robots from human motion descriptors | |
Jiang et al. | State-of-the-Art control strategies for robotic PiH assembly | |
Bagnell et al. | An integrated system for autonomous robotics manipulation | |
Yu et al. | Global model learning for large deformation control of elastic deformable linear objects: An efficient and adaptive approach | |
Patil et al. | Toward automated tissue retraction in robot-assisted surgery | |
Khatib et al. | Human-centered robotics and interactive haptic simulation | |
Vochten et al. | Generalizing demonstrated motion trajectories using coordinate-free shape descriptors | |
JP2022176917A (ja) | ロボットデバイスを制御するための方法 | |
Chalasani et al. | A computational framework for complementary situational awareness (csa) in surgical assistant robots | |
JP2021030359A (ja) | 制御装置、制御方法、及び制御プログラム | |
Cursi et al. | Task accuracy enhancement for a surgical macro-micro manipulator with probabilistic neural networks and uncertainty minimization | |
KR20120048106A (ko) | 로봇의 동작 제어 시스템 및 동작 제어 방법 | |
Almaghout et al. | Robotic co-manipulation of deformable linear objects for large deformation tasks | |
JP2021035714A (ja) | 制御装置、制御方法、及び制御プログラム | |
Bodily | Design optimization and motion planning for pneumatically-actuated manipulators | |
WO2021033472A1 (ja) | 制御装置、制御方法、及び制御プログラム | |
Yun et al. | Accurate, robust, and real-time estimation of finger pose with a motion capture system | |
Yu et al. | Generalizable whole-body global manipulation of deformable linear objects by dual-arm robot in 3-d constrained environments | |
Fuentes et al. | Morphing hands and virtual tools (or what good is an extra degree of freedom?) | |
Maaroof | Self-motion control of kinematically redundant robot manipulators | |
Bhattacharyya | Motion planning and constraint exploration for robotic surgery | |
US11787045B2 (en) | Robot with an inverse kinematics (IK)-based controller for retargeting input motions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120612 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5210884 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |