JP7271809B2 - 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 - Google Patents
学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 Download PDFInfo
- Publication number
- JP7271809B2 JP7271809B2 JP2023513902A JP2023513902A JP7271809B2 JP 7271809 B2 JP7271809 B2 JP 7271809B2 JP 2023513902 A JP2023513902 A JP 2023513902A JP 2023513902 A JP2023513902 A JP 2023513902A JP 7271809 B2 JP7271809 B2 JP 7271809B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- model
- learning
- adapter
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 230000013016 learning Effects 0.000 claims description 180
- 230000006870 function Effects 0.000 claims description 28
- 238000012549 training Methods 0.000 claims description 15
- 230000001131 transforming effect Effects 0.000 claims 3
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 239000012636 effector Substances 0.000 description 20
- 238000003860 storage Methods 0.000 description 16
- 238000011144 upstream manufacturing Methods 0.000 description 8
- 238000012546 transfer Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 241000283086 Equidae Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000005282 brightening Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Description
図1に示されるように、本開示の一実施形態に係る学習済みモデル生成装置20は、制御部22と、情報生成部26とを備える。学習済みモデル生成装置20は、学習済みモデル70(図2参照)を生成する。
図2に示されるように、学習済みモデル生成装置20は、入力情報に含まれる認識対象の認識結果を出力する学習済みモデル70を生成する。学習済みモデル70は、ターゲットモデル40の入力側にイメージアダプタ50を結合したモデルとして構成される。イメージアダプタ50は、入力情報を入力可能に構成される。イメージアダプタ50は、単にアダプタとも称される。
学習済みモデル生成装置20の制御部22は、例えば図4に模式的に示される動作を実行することによって学習済みモデル70を生成できる。以下、図4を参照して学習済みモデル生成装置20の動作が説明される。
学習済みモデル生成装置20の制御部22は、以上述べてきた動作を、図5に例示されるフローチャートの手順を含む学習済みモデル生成方法として実行してよい。学習済みモデル生成方法は、制御部22を構成するプロセッサに実行させる学習済みモデル生成プログラムとして実現されてもよい。学習済みモデル生成プログラムは、非一時的なコンピュータ読み取り可能な媒体に格納されてよい。
以上述べてきたように、本実施形態に係る学習済みモデル生成装置20は、ベースモデル30に結合した状態における学習によって生成したイメージアダプタ50を、別の学習によって新たに生成したターゲットモデル40に結合することによって、学習済みモデル70を生成できる。学習済みモデル生成装置20は、実情報又は疑似情報に基づいて学習することによって、イメージアダプタ50を生成する。学習済みモデル生成装置20は、疑似情報だけに基づいて学習することによってターゲットモデル40を生成する。実情報又は疑似情報に基づく学習によって生成されたイメージアダプタ50を結合した学習済みモデル70による認識精度は、ターゲットモデル40だけの場合に比べて認識精度が向上する。したがって、あらかじめ実情報又は疑似情報に基づく学習によってイメージアダプタ50を生成しておけば、ターゲットモデル40にイメージアダプタ50を結合させることで、高い認識精度が期待される。
疑似情報である生成画像のみに基づく学習によって生成したモデルで実画像を含む入力情報から認識対象を認識する場合、生成画像と実画像との差異に起因して、認識精度は低下する。具体的に、生成画像に対して100%に近い確率で認識対象を認識できるモデルにおいて、実画像に対して認識対象を認識できる確率は70%程度に低下し得る。
図6に示されるように、一実施形態に係るロボット制御システム100は、ロボット2と、ロボット制御装置110とを備える。本実施形態において、ロボット2は、作業対象物8を作業開始地点6から作業目標地点7へ移動させるとする。つまり、ロボット制御装置110は、作業対象物8が作業開始地点6から作業目標地点7へ移動するようにロボット2を制御する。作業対象物8は、作業対象とも称される。ロボット制御装置110は、ロボット2が作業を実施する空間に関する情報に基づいて、ロボット2を制御する。空間に関する情報は、空間情報とも称される。
ロボット2は、アーム2Aと、エンドエフェクタ2Bとを備える。アーム2Aは、例えば、6軸又は7軸の垂直多関節ロボットとして構成されてよい。アーム2Aは、3軸又は4軸の水平多関節ロボット又はスカラロボットとして構成されてもよい。アーム2Aは、2軸又は3軸の直交ロボットとして構成されてもよい。アーム2Aは、パラレルリンクロボット等として構成されてもよい。アーム2Aを構成する軸の数は、例示したものに限られない。言い換えれば、ロボット2は、複数の関節で接続されるアーム2Aを有し、関節の駆動によって動作する。
図2に示されるように、ロボット制御システム100は、更にセンサ3を備える。センサ3は、ロボット2の物理情報を検出する。ロボット2の物理情報は、ロボット2の各構成部の現実の位置若しくは姿勢、又は、ロボット2の各構成部の速度若しくは加速度に関する情報を含んでよい。ロボット2の物理情報は、ロボット2の各構成部に作用する力に関する情報を含んでよい。ロボット2の物理情報は、ロボット2の各構成部を駆動するモータに流れる電流又はモータのトルクに関する情報を含んでよい。ロボット2の物理情報は、ロボット2の実際の動作の結果を表す。つまり、ロボット制御システム100は、ロボット2の物理情報を取得することによって、ロボット2の実際の動作の結果を把握することができる。
図1に示される構成例において、ロボット制御システム100は、2台のカメラ4を備えるとする。カメラ4は、ロボット2の動作に影響を及ぼす可能性がある影響範囲5に位置する物品又は人間等を撮影する。カメラ4が撮影する画像は、モノクロの輝度情報を含んでもよいし、RGB(Red, Green and Blue)等で表される各色の輝度情報を含んでもよい。影響範囲5は、ロボット2の動作範囲を含む。影響範囲5は、ロボット2の動作範囲を更に外側に広げた範囲であるとする。影響範囲5は、ロボット2の動作範囲の外側から動作範囲の内側へ向かって移動する人間等がロボット2の動作範囲の内側に入るまでにロボット2を停止できるように設定されてよい。影響範囲5は、例えば、ロボット2の動作範囲の境界から所定距離だけ外側まで拡張された範囲に設定されてもよい。カメラ4は、ロボット2の影響範囲5若しくは動作範囲又はこれらの周辺の領域を俯瞰的に撮影できるように設置されてもよい。カメラ4の数は、2つに限られず、1つであってもよいし、3つ以上であってもよい。
ロボット制御装置110は、学習済みモデル生成装置20で生成された学習済みモデル70を取得する。ロボット制御装置110は、カメラ4で撮影した画像と学習済みモデル70とに基づいて、ロボット2が作業を実施する空間に存在する、作業対象物8、又は作業開始地点6若しくは作業目標地点7等を認識する。言い換えれば、ロボット制御装置110は、カメラ4で撮影した画像に基づいて作業対象物8等を認識するために生成された学習済みモデル70を取得する。ロボット制御装置110は、認識装置とも称される。
ロボット制御装置110(認識装置)は、学習済みモデル70をあらかじめ取得する。ロボット制御装置110は、学習済みモデル70を記憶部に格納してよい。ロボット制御装置110は、カメラ4から作業対象物8を撮影した画像を取得する。ロボット制御装置110は、作業対象物8を撮影した画像を入力情報として学習済みモデル70に入力する。ロボット制御装置110は、学習済みモデル70から入力情報の入力に応じて出力される出力情報を取得する。ロボット制御装置110は、出力情報に基づいて作業対象物8を認識し、作業対象物8を把持したり移動したりする作業を実行する。
以上述べてきたように、ロボット制御システム100は、学習済みモデル生成装置20から学習済みモデル70を取得し、学習済みモデル70によって作業対象物8を認識できる。
以下、他の実施形態が説明される。
学習済みモデル生成装置20は、生成した学習済みモデル70に対して入力情報を入力した場合における出力が教師データを入力した場合における出力に近づくように損失関数を設定してよい。本実施形態において、損失関数として交差エントロピーが用いられ得る。交差エントロピーは、2つの確率分布の間の関係を表す値として算出される。具体的に、本実施形態において、交差エントロピーは、入力する疑似情報又は実情報と、バックボーン、ヘッド又はアダプタとの間の関係を表す値として算出される。
学習済みモデル生成装置20の制御部22は、複数のベースモデル30の各々にイメージアダプタ50を結合した状態で学習することによって、イメージアダプタ50を生成する。つまり、制御部22は、複数のベースモデル30の各々を、イメージアダプタ50を生成するための事前学習に適用する。
30 ベースモデル(31:第1ベースモデル(31a:学習中、31b:学習済み)、32:第2ベースモデル(32a:学習中、32b:学習済み)、301~30x:1番目~x番目のベースモデル、311~31x:1番目~x番目の第1ベースモデル、321~32x:1番目~x番目の第2ベースモデル)
40 ターゲットモデル(41:第1ターゲットモデル(41a:学習中、41b:学習済み)、42:第2ターゲットモデル(42a:学習中、42b:学習済み))
50 アダプタ(50a:学習中、50b:学習済み)
70 学習済みモデル
100 ロボット制御システム(2:ロボット、2A:アーム、2B:エンドエフェクタ、3:センサ、4:カメラ、5:ロボットの影響範囲、6:作業開始台、7:作業目標台、8:作業対象物、110:ロボット制御装置(認識装置)
Claims (16)
- 入力情報に含まれる認識対象の認識結果を出力する学習済みモデルを生成する制御部を備え、
前記制御部は、
前記入力情報と同一又は関連する学習対象の情報を含む教師データを用いた第1の学習を実行することによって生成された少なくとも1つのベースモデルに結合された状態で、前記学習対象の情報のうち前記第1の学習で用いられた情報と異なる情報を含む教師データを用いた第2の学習を実行することによって生成された、前記入力情報を前記少なくとも1つのベースモデルに入力する前に変換可能なアダプタを取得し、
前記学習対象の情報のうち前記第1の学習で用いられた情報及び前記第2の学習で用いられた情報のいずれとも異なる情報を含む教師データを用いた第3の学習を実行することによってターゲットモデルを生成し、
前記アダプタと前記ターゲットモデルとを結合することによって前記学習済みモデルを生成する、学習済みモデル生成装置。 - 前記ベースモデルは、前記入力情報と同一又は関連するタスクの情報として仮想的に生成された学習対象の第1疑似情報を教師データとして事前学習されたモデルであり、
前記制御部は、
前記学習対象の実際の態様を表す第1実情報及び前記第1疑似情報の少なくとも一方を更に教師データとして、前記ベースモデルに結合させた前記アダプタを学習させ、
前記認識対象を表すデータとして仮想的に生成された第2疑似情報、又は、前記認識対象の実際の態様を表す第2実情報を教師データとして学習して前記ターゲットモデルを生成する、請求項1に記載の学習済みモデル生成装置。 - 前記第1疑似情報、前記第2疑似情報、前記第1実情報、及び前記第2実情報は画像を含み、
前記アダプタは、入力される画像の態様を変換して出力する、請求項2に記載の学習済みモデル生成装置。 - 前記ベースモデルは、前記入力情報と同一又は関連するタスクの情報として仮想的に生成された学習対象の第1疑似情報のみを教師データとして事前学習されたモデルであり、
前記制御部は、前記認識対象を表すデータとして仮想的に生成された第2疑似情報のみを教師データとして学習して前記ターゲットモデルを生成する、請求項2に記載の学習済みモデル生成装置。 - 複数の前記ベースモデルが事前学習によって生成され、
前記アダプタは、前記複数のベースモデルそれぞれに前記入力情報を入力可能に構成され、
前記制御部は、前記アダプタの出力を前記複数のベースモデルの各々に入力させて学習させることによって、少なくとも前記アダプタを生成する、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。 - 前記制御部は、前記アダプタの出力を前記複数のベースモデルの各々に入力させて学習させることによって、前記アダプタのみを生成又は更新する、請求項5に記載の学習済みモデル生成装置。
- 前記制御部は、前記アダプタを生成するために、前記複数のベースモデルを複数のグループに分類して前記各グループを順番に、前記アダプタを生成するための事前学習に適用する、請求項5に記載の学習済みモデル生成装置。
- 前記制御部は、前記各グループに1つの前記ベースモデルを分類する、請求項7に記載の学習済みモデル生成装置。
- 前記制御部は、前記アダプタを生成するための事前学習に前記各グループを適用する順番をランダムに決定する、請求項7に記載の学習済みモデル生成装置。
- 前記制御部は、前記認識対象を表すデータとして仮想的に生成された第2疑似情報とに基づいて学習することによって、前記アダプタに結合されるターゲットモデルを生成する、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。
- 前記制御部は、前記アダプタを前記ターゲットモデルに結合した状態で学習することによって前記アダプタを生成する、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。
- 前記制御部は、前記入力情報と同一又は関連するタスクの損失関数を最適化するように、前記ベースモデルに結合したアダプタを学習する、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。
- 前記制御部は、前記入力情報と同一又は関連するタスク以外の損失関数を最適化するように学習することによって、前記ベースモデルに結合したアダプタを生成する、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。
- 前記ベースモデルは、前記入力情報の特徴量を抽出した結果を出力する第1ベースモデルと、前記第1ベースモデルの出力に基づいて前記入力情報についての所定の判断を行う第2ベースモデルとを含む、請求項1から4までのいずれか一項に記載の学習済みモデル生成装置。
- 入力情報に含まれる認識対象の認識結果を出力する学習済みモデルを生成する学習済みモデル生成装置が実行する学習済みモデル生成方法であって、
前記入力情報と同一又は関連する学習対象の情報を含む教師データを用いた第1の学習を実行することによって生成された少なくとも1つのベースモデルに結合された状態で、前記学習対象の情報のうち前記第1の学習で用いられた情報と異なる情報を含む教師データを用いた第2の学習を実行することによって生成された、前記入力情報を前記少なくとも1つのベースモデルに入力する前に変換可能なアダプタを取得することと、
前記学習対象の情報のうち前記第1の学習で用いられた情報及び前記第2の学習で用いられた情報のいずれとも異なる情報を含む教師データを用いた第3の学習を実行することによってターゲットモデルを生成することと、
前記アダプタと前記ターゲットモデルとを結合することによって前記学習済みモデルを生成することと
を含む学習済みモデル生成方法。 - 入力情報に含まれる認識対象の認識結果を出力する学習済みモデルを備えた認識装置であって、
前記学習済みモデルは、
前記入力情報と同一又は関連する学習対象の情報を含む教師データを用いた第1の学習を実行することによって生成された少なくとも1つのベースモデルに結合された状態で、前記学習対象の情報のうち前記第1の学習で用いられた情報と異なる情報を含む教師データを用いた第2の学習を実行することによって生成された、前記入力情報を前記少なくとも1つのベースモデルに入力する前に変換可能なアダプタと、
前記学習対象の情報のうち前記第1の学習で用いられた情報及び前記第2の学習で用いられた情報のいずれとも異なる情報を含む教師データを用いた第3の学習を実行することによって生成したターゲットモデルと
を含み、
前記アダプタと前記ターゲットモデルとを結合することによって構成されている、
認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023072697A JP2023099084A (ja) | 2021-05-28 | 2023-04-26 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021090676 | 2021-05-28 | ||
JP2021090676 | 2021-05-28 | ||
PCT/JP2022/021815 WO2022250154A1 (ja) | 2021-05-28 | 2022-05-27 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023072697A Division JP2023099084A (ja) | 2021-05-28 | 2023-04-26 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022250154A1 JPWO2022250154A1 (ja) | 2022-12-01 |
JPWO2022250154A5 JPWO2022250154A5 (ja) | 2023-05-02 |
JP7271809B2 true JP7271809B2 (ja) | 2023-05-11 |
Family
ID=84228930
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023513902A Active JP7271809B2 (ja) | 2021-05-28 | 2022-05-27 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
JP2023072697A Pending JP2023099084A (ja) | 2021-05-28 | 2023-04-26 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023072697A Pending JP2023099084A (ja) | 2021-05-28 | 2023-04-26 | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP4350614A1 (ja) |
JP (2) | JP7271809B2 (ja) |
CN (1) | CN117396927A (ja) |
WO (1) | WO2022250154A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019194256A1 (ja) | 2018-04-05 | 2019-10-10 | 株式会社小糸製作所 | 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具 |
US10565471B1 (en) | 2019-03-07 | 2020-02-18 | Capital One Services, Llc | Systems and methods for transfer learning of neural networks |
US20200134469A1 (en) | 2018-10-30 | 2020-04-30 | Samsung Sds Co., Ltd. | Method and apparatus for determining a base model for transfer learning |
JP2020144700A (ja) | 2019-03-07 | 2020-09-10 | 株式会社日立製作所 | 画像診断装置、画像処理方法及びプログラム |
JP2021056785A (ja) | 2019-09-30 | 2021-04-08 | セコム株式会社 | 画像認識システム、撮像装置、認識装置及び画像認識方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6166705B2 (ja) | 2014-09-29 | 2017-07-19 | セコム株式会社 | 対象識別装置 |
-
2022
- 2022-05-27 WO PCT/JP2022/021815 patent/WO2022250154A1/ja active Application Filing
- 2022-05-27 EP EP22811422.9A patent/EP4350614A1/en active Pending
- 2022-05-27 CN CN202280037790.3A patent/CN117396927A/zh active Pending
- 2022-05-27 JP JP2023513902A patent/JP7271809B2/ja active Active
-
2023
- 2023-04-26 JP JP2023072697A patent/JP2023099084A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019194256A1 (ja) | 2018-04-05 | 2019-10-10 | 株式会社小糸製作所 | 演算処理装置、オブジェクト識別システム、学習方法、自動車、車両用灯具 |
US20200134469A1 (en) | 2018-10-30 | 2020-04-30 | Samsung Sds Co., Ltd. | Method and apparatus for determining a base model for transfer learning |
US10565471B1 (en) | 2019-03-07 | 2020-02-18 | Capital One Services, Llc | Systems and methods for transfer learning of neural networks |
JP2020144700A (ja) | 2019-03-07 | 2020-09-10 | 株式会社日立製作所 | 画像診断装置、画像処理方法及びプログラム |
JP2021056785A (ja) | 2019-09-30 | 2021-04-08 | セコム株式会社 | 画像認識システム、撮像装置、認識装置及び画像認識方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2023099084A (ja) | 2023-07-11 |
JPWO2022250154A1 (ja) | 2022-12-01 |
CN117396927A (zh) | 2024-01-12 |
WO2022250154A1 (ja) | 2022-12-01 |
EP4350614A1 (en) | 2024-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11338435B2 (en) | Gripping system with machine learning | |
US11741701B2 (en) | Autonomous task performance based on visual embeddings | |
US11185977B2 (en) | Information processing apparatus, grasping system, and information processing method | |
CN111275063A (zh) | 一种基于3d视觉的机器人智能抓取控制方法及*** | |
JP7200610B2 (ja) | 位置検出プログラム、位置検出方法及び位置検出装置 | |
Moutinho et al. | Deep learning-based human action recognition to leverage context awareness in collaborative assembly | |
JP7271809B2 (ja) | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 | |
WO2021117479A1 (ja) | 情報処理装置、方法およびプログラム | |
Leitner et al. | Humanoid learns to detect its own hands | |
JP7271810B2 (ja) | 学習済みモデル生成装置、学習済みモデル生成方法、及び認識装置 | |
Mohammed et al. | Color matching based approach for robotic grasping | |
WO2023042895A1 (ja) | 学習済みモデル生成方法、推論装置、及び学習済みモデル生成装置 | |
Andersen et al. | Using a flexible skill-based approach to recognize objects in industrial scenarios | |
JP7483179B1 (ja) | 推定装置、学習装置、推定方法及び推定プログラム | |
EP4389367A1 (en) | Holding mode determination device for robot, holding mode determination method, and robot control system | |
Botezatu et al. | Early Fusion Based CNN Architecture for Visual Servoing Systems | |
EP4393660A1 (en) | Trained model generation method, trained model generation device, trained model, and device for estimating maintenance state | |
JP7470062B2 (ja) | 情報処理装置、および、学習認識システム | |
Güler et al. | Visual state estimation in unseen environments through domain adaptation and metric learning | |
US20230415349A1 (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
Tokuda et al. | CNN-based Visual Servoing for Pose Control of Soft Fabric Parts | |
Johnson et al. | Recognition of Marker-less human actions in videos using hidden Markov models | |
Qi et al. | 3D Hand Joint and Grasping Estimation for Teleoperation System | |
KR20240096990A (ko) | 비고정 물체를 위치 이동시키는 로봇의 제어 장치 | |
KR20230046038A (ko) | 기계학습을 기반으로 하는 물체 자세 추정 시스템 및 그 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230227 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230426 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7271809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |