JP6915605B2 - 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム - Google Patents
画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム Download PDFInfo
- Publication number
- JP6915605B2 JP6915605B2 JP2018224285A JP2018224285A JP6915605B2 JP 6915605 B2 JP6915605 B2 JP 6915605B2 JP 2018224285 A JP2018224285 A JP 2018224285A JP 2018224285 A JP2018224285 A JP 2018224285A JP 6915605 B2 JP6915605 B2 JP 6915605B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot
- learning
- virtual
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 46
- 238000000034 method Methods 0.000 title claims description 17
- 238000011156 evaluation Methods 0.000 claims description 43
- 238000010801 machine learning Methods 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 57
- 239000002131 composite material Substances 0.000 description 32
- 210000002569 neuron Anatomy 0.000 description 19
- 238000013528 artificial neural network Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 238000005452 bending Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000010365 information processing Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/1605—Simulation of manipulator lay-out, design, modelling of manipulator
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Numerical Control (AREA)
Description
まず、図1を用いて、本発明が適用される場面の一例について説明する。図1は、把持システム100に、本発明に係る画像生成装置を含むロボット訓練システムを適用した場面の一例を模式的に例示している。但し、本発明の適用範囲は、以下で例示する把持システムの例に限られる訳ではない。すなわち、本発明は、入力画像を取得し、この入力画像に基づいて、対象物に対して所定の作業を行うようにロボットを訓練するロボット訓練システム全般に適用可能である。
<2−1.ハードウエア構成>
<2−1−1.把持システムの概要>
図2を用いて、本実施形態に係る画像処理装置5が含まれる把持システム100について、説明する。図2に示すように、この把持システムは、ネットワーク10を介して接続される制御装置3、画像生成装置4、制御装置3の学習装置5、及び評価装置6を備えている。そして、制御装置3には、ロボット2と、このロボット2を含む実作業空間を撮影するカメラ1とが接続され、ビジュアルサーボ装置10を構成している。制御装置3、学習装置4、画像生成装置5、及び評価装置6の間のネットワークの種類は、特に限定されなくてもよく、例えば、インターネット、無線通信網、移動通信網、電話網、専用網等から適宜選択されてよい。
次に、図3を更に用いて、本実施形態に係る制御装置3のハードウェア構成の一例について説明する。図3は、本実施形態に係る制御装置3のハードウェア構成の一例を模式的に例示する。
次に、ロボット2について説明する。ロボット2の概要は、上述したとおりであるが、さらに詳細な例について説明する。
カメラ1は、ロボット2及び対象物Rを含む実作業空間を撮影するようになっている。なお、カメラ1は、所定の場所に固定されてもよいし、モータ等により撮影方向(向き)を変更可能に構成されてもよい。カメラ1には、一般のデジタルカメラ、ビデオカメラ、360度カメラ等が用いられてよいし、可視光撮影用でも赤外光撮影用カメラであってもよい。
図4は、本実施形態に係る学習装置を示すブロック図である。図4に示すように、本実施形態に係る学習装置4は、制御装置3の制御部31を学習するためのものであり、制御部41、記憶部42、通信インタフェース43、入力装置44、出力装置45、外部インタフェース46、及びドライブ47が電気的に接続されたコンピュータである。
図5は、本実施形態に係る画像生成装置を示すブロック図である。図5に示すように、本実施形態に係る画像生成装置5は、制御部51、記憶部52、通信インタフェース53、入力装置54、出力装置55、外部インタフェース56、及びドライブ57が電気的に接続されたコンピュータである。
<2−2−1.画像生成装置>
次に、図7を参照しつつ、画像生成装置5のソフトウェア構成について説明する。図7に示すように、画像生成装置5の制御部51は、記憶部52に記憶された画像生成プログラム521をRAMに展開すると、その画像生成プログラム521をCPUにより解釈及び実行して、仮想画像生成部(第2画像取得部)501、抽出器502、加工器(第1画像取得部、第4画像取得部)503、生成器504、判別器505、学習処理部506、保存処理部507、及び予測器508を備えたコンピュータとして機能する。
次に、図11を参照しつつ、制御装置3のソフトウェア構成について説明する。図11に示すように、制御装置3の制御部31は、記憶部32に記憶された制御プログラム321をRAMに展開すると、その制御プログラム321をCPUにより解釈及び実行して、学習結果データ取得部381、入力画像取得部382、処理部383、及び送信部384を備えたコンピュータとして機能する。
次に、図12を参照しつつ、学習装置4のソフトウェア構成について説明する。図12に示すように、学習装置4の制御部41は、記憶部42に記憶された学習プログラム421をRAMに展開すると、その学習プログラム421をCPUにより解釈及び実行して、学習データ生成部481、処理部482、送信部483を備えたコンピュータとして機能する。
次に、図13を参照しつつ、評価装置6のソフトウェア構成について説明する。図13に示すように、評価装置6の制御部61は、記憶部62に記憶されたシミュレーションプログラム621をRAMに展開すると、そのシミュレーションプログラム621をCPUにより解釈及び実行して、シミュレータ601及び評価部602を備えたコンピュータとして機能する。
次に、上記のように構成された把持システムの動作例について図14のフローチャートを参照しつつ説明する。まず、画像などのデータの収集を行う(ステップS101)。すなわち、カメラ1によって複数の実画像を取得したり、仮想画像生成器501によって複数の仮想画像を取得する。次に、取得した画像から合成画像を生成する。すなわち、仮想画像からロボット2及び対象物Rに関する特徴を抽出し、これに基づいて対応する実画像に対象物を合成した合成画像を生成する(ステップS102)。続いて、仮想画像及び合成画像に基づいて、生成器504と判別器505の訓練を行う(ステップS103)。こうして、生成器504の訓練が完了すれば、訓練済みの生成器504を用いて仮想画像から学習用画像を生成する(ステップS104)。
以上のように本実施形態によれば、ロボット2の制御装置3を学習するための学習用画像を画像生成装置5によって生成している。このような学習用の画像は、実画像に近いものを用いなければ、ロボット2がうまく作動しないおそれがある。しかしながら、ロボット2や対象物Rの位置、向きを変えた多数の学習用画像を準備するのは容易ではない。そこで、本実施形態では、ロボット2及びトレイTのみを含む実作業空間の実画像を取得し、これに対象物の仮想Rの画像を合成した合成画像を生成している。そして、GANを用いることで、仮想画像を、合成画像に近似するような学習用画像に変換し、これを学習用画像として採用している。したがって、学習用画像を生成するに当たって、実際の対象物Rを含む実画像を準備する必要がなく、学習用画像の生成の負荷を低減することができる。すなわち、学習用画像の生成を容易に行うことができる。また、生成される学習用画像に含まれるロボットRを含む実作業空間は、実画像に近似するように生成されているため、この画像から誤ったロボット2と対象物Rとの位置関係が特定されるのを防止することができ、精度の高い学習が可能となる。
以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
上記実施形態では、処理部383、処理部482、生成器504、判別部505、及び予測器508にはいわゆる多層構造の全結合ニューラルネットワークが用いられている。しかしながら、これらを構成するニューラルネットワークの構造及び種類は、このような例に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、これらの少なくとも一つに畳み込みニューラルネットワークが利用されてよい。
上実施形態では、仮想画像生成器501を画像処理装置5内に設けているが、仮想画像を別の装置で生成し、これを画像処理装置5が取得した上で、上記のような処理を行うこともできる。上記実施形態では、実画像に、ロボット2とトレイTを含む実作業空間が写っているが、少なくともロボット2が写されていればよい。
上実施形態では、画像生成装置5に予測器508を設けているが、予測器508は必ずしも必要ではなく、設けなくてもよい。
上実施形態では、GANにより仮想画像と合成画像から、学習用画像を生成しているが、GAN以外を用い、実画像を含む画像に近似するような学習用画像を仮想画像に基づいて生成することもできる。
上記実施形態では、ロボット2が対象物を把持する制御のための学習用画像を画像生成装置5によって生成している。しかしながら、このような学習用画像の生成は、対象物を把持する場合に限られず、ロボットが、対象物に対して何らかの作業を行うビジュアルサーボシステム全般に適用することができる。すなわち、対象物を押したり、動かしたり、加工したり等の作業を行う制御を画像に基づいて行うようなシステム全般に、本発明の画像生成装置を適用することができる。
2 ロボット
3 制御装置
4 学習装置
5 画像生成装置
504 生成器
505 判別器
508 予測器
6 評価装置
Claims (7)
- 入力画像に基づいて、対象物に対し所定の作業を行うロボットの動作を訓練するための学習用画像を生成する画像生成装置であって、
前記ロボットを含み、前記対象物を含まない実作業空間を撮像した第1画像を取得する第1画像取得部と、
前記ロボットに対応する仮想ロボットと、前記対象物に対応する仮想対象物とを含む仮想作業空間を描画した第2画像を取得する第2画像取得部と、
前記第1画像及び第2画像を入力とし、前記第2画像に含まれる少なくとも前記仮想ロボットを、前記第1画像に含まれる前記ロボットに近似させるように前記第2画像を変換した第3画像を出力とするように、機械学習により訓練された学習器と、
を備えている、画像生成装置。 - 前記学習器は、
前記第3画像を生成する生成器と、
前記第2画像に基づいて、前記第1画像に前記仮想対象物が付加された第4画像を取得する第4画像取得部と、
前記生成器及び前記第4画像取得部に接続される判別器と、
をさらに備え、
前記機械学習は、
前記判別器に入力された前記第3画像が、前記第4画像であるか否かを判別するよう前記判別器を訓練する第1訓練ステップ、及び
前記判別器による前記判別が誤るような前記第3画像を生成するよう前記生成器を訓練する第2訓練ステップを交互に行うことを含む、請求項1に記載の画像生成装置。 - 前記学習器は、前記第3画像を入力とし、前記ロボットによる作業のパフォーマンスを出力するように訓練された予測器(predictor)をさらに備えている、請求項2に記載の画像生成装置。
- 前記入力画像を取得する撮像部と、
前記ロボットと、
請求項1から3のいずれかに記載の画像生成装置と、
を備え、
前記ロボットは、前記画像生成装置で生成された前記第3画像を含む学習データによって、前記入力画像から、所定の作業を行うように訓練される、ロボット訓練システム。 - 前記ロボットの作業をシミュレートするシミュレータと、
前記シミュレータによる作業を評価する評価部と、
をさらに備えている、請求項4に記載のロボット訓練システム。 - 入力画像に基づいて、対象物に対し所定の作業を行うロボットの動作を訓練するための学習用画像を生成する画像生成方法であって、
前記ロボットを含み、前記対象物を含まない実作業空間を撮像した第1画像を取得するステップと、
前記ロボットに対応する仮想ロボットと、前記対象物に対応する仮想対象物とを含む仮想作業空間を描画した第2画像を取得するステップと、
機械学習済みの学習器によって、前記第1画像及び第2画像を入力とし、前記第2画像に含まれる少なくとも前記仮想ロボットを、前記第1画像に含まれる前記ロボットに近似させるように前記第2画像を変換した第3画像を出力とするステップと、
を備えている、画像生成方法。 - 入力画像に基づいて、対象物に対し所定の作業を行うロボットの動作を訓練するための学習用画像を生成するコンピュータに、
前記ロボットを含む実作業空間を撮像した第1画像を取得するステップと、
前記ロボットに対応する仮想ロボットと、前記対象物に対応する仮想対象物とを含む仮想作業空間を描画した第2画像を取得するステップと、
機械学習済みの学習器によって、前記第1画像及び第2画像を入力とし、前記第2画像に含まれる少なくとも前記仮想ロボットを、前記第1画像に含まれる前記ロボットに近似させるように前記第2画像を変換した第3画像を出力とするステップと、
を実行させる、画像生成プログラム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018224285A JP6915605B2 (ja) | 2018-11-29 | 2018-11-29 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
US17/269,992 US20210331311A1 (en) | 2018-11-29 | 2019-10-18 | Image generation device, robot training system, image generation method, and non-transitory computer readable storage medium |
CN201980051700.4A CN112534471B (zh) | 2018-11-29 | 2019-10-18 | 图像生成装置及方法、机器人训练***以及存储介质 |
PCT/JP2019/041015 WO2020110505A1 (ja) | 2018-11-29 | 2019-10-18 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
EP19891513.4A EP3889887A4 (en) | 2018-11-29 | 2019-10-18 | IMAGE GENERATING DEVICE, ROBOT TRAINING SYSTEM, IMAGE GENERATING METHOD AND IMAGE GENERATING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018224285A JP6915605B2 (ja) | 2018-11-29 | 2018-11-29 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020082315A JP2020082315A (ja) | 2020-06-04 |
JP6915605B2 true JP6915605B2 (ja) | 2021-08-04 |
Family
ID=70853470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018224285A Active JP6915605B2 (ja) | 2018-11-29 | 2018-11-29 | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210331311A1 (ja) |
EP (1) | EP3889887A4 (ja) |
JP (1) | JP6915605B2 (ja) |
CN (1) | CN112534471B (ja) |
WO (1) | WO2020110505A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7458741B2 (ja) * | 2019-10-21 | 2024-04-01 | キヤノン株式会社 | ロボット制御装置及びその制御方法及びプログラム |
JP7396872B2 (ja) * | 2019-11-22 | 2023-12-12 | ファナック株式会社 | 拡張現実を用いたシミュレーション装置及びロボットシステム |
US11554482B2 (en) * | 2020-07-16 | 2023-01-17 | Hitachi, Ltd. | Self-learning industrial robotic system |
KR20220087623A (ko) * | 2020-12-17 | 2022-06-27 | 삼성전자주식회사 | 기판 처리 장치 |
JP6955733B1 (ja) * | 2021-02-17 | 2021-10-27 | 株式会社エクサウィザーズ | 情報処理装置、情報処理方法、及びプログラム |
CN113436293B (zh) * | 2021-07-13 | 2022-05-03 | 浙江大学 | 一种基于条件生成式对抗网络的智能抓取图像生成方法 |
JP7443441B1 (ja) | 2022-09-06 | 2024-03-05 | 日鉄テックスエンジ株式会社 | 作業システム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2014140480A (ru) * | 2012-03-08 | 2016-04-27 | Конинклейке Филипс Н.В. | Интеллектуальный выбор ориентиров для повышения точности совмещения при слиянии изображений, полученных различными устройствами |
CA2935873C (en) * | 2014-01-06 | 2022-10-25 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
KR20170113724A (ko) * | 2016-03-24 | 2017-10-13 | 인텔렉추얼디스커버리 주식회사 | 컨텍스트 모델의 적응적 초기화를 사용하는 cabac 부호화 방법 및 장치, 그리고 cabac 복호화 방법 및 장치 |
JP6457421B2 (ja) * | 2016-04-04 | 2019-01-23 | ファナック株式会社 | シミュレーション結果を利用して学習を行う機械学習装置,機械システム,製造システムおよび機械学習方法 |
US10402690B2 (en) * | 2016-11-07 | 2019-09-03 | Nec Corporation | System and method for learning random-walk label propagation for weakly-supervised semantic segmentation |
JP6376296B1 (ja) * | 2017-02-09 | 2018-08-22 | 三菱電機株式会社 | 位置制御装置及び位置制御方法 |
JP6542824B2 (ja) * | 2017-03-13 | 2019-07-10 | ファナック株式会社 | 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法 |
JP6983524B2 (ja) * | 2017-03-24 | 2021-12-17 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
CN106952308B (zh) * | 2017-04-01 | 2020-02-28 | 上海蔚来汽车有限公司 | 运动物体的位置确定方法及*** |
-
2018
- 2018-11-29 JP JP2018224285A patent/JP6915605B2/ja active Active
-
2019
- 2019-10-18 EP EP19891513.4A patent/EP3889887A4/en active Pending
- 2019-10-18 WO PCT/JP2019/041015 patent/WO2020110505A1/ja unknown
- 2019-10-18 CN CN201980051700.4A patent/CN112534471B/zh active Active
- 2019-10-18 US US17/269,992 patent/US20210331311A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
CN112534471A (zh) | 2021-03-19 |
EP3889887A1 (en) | 2021-10-06 |
US20210331311A1 (en) | 2021-10-28 |
CN112534471B (zh) | 2024-06-14 |
WO2020110505A1 (ja) | 2020-06-04 |
JP2020082315A (ja) | 2020-06-04 |
EP3889887A4 (en) | 2022-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6915605B2 (ja) | 画像生成装置、ロボット訓練システム、画像生成方法、及び画像生成プログラム | |
JP6951659B2 (ja) | タスク実行システム、タスク実行方法、並びにその学習装置及び学習方法 | |
CN108284436B (zh) | 具有模仿学习机制的远程机械双臂***及方法 | |
Ding et al. | Sim-to-real transfer for optical tactile sensing | |
JP7458741B2 (ja) | ロボット制御装置及びその制御方法及びプログラム | |
CN109910018B (zh) | 具有视觉语义感知的机器人虚实交互操作执行***及方法 | |
WO2020058669A1 (en) | Task embedding for device control | |
JP2019018272A (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
WO2021085345A1 (ja) | 機械学習データ生成装置、機械学習装置、作業システム、コンピュータプログラム、機械学習データ生成方法及び作業機械の製造方法 | |
JP7490142B2 (ja) | 姿勢の脱曖昧化 | |
JP7110884B2 (ja) | 学習装置、制御装置、学習方法、及び学習プログラム | |
CN210115917U (zh) | 具有视觉语义感知的机器人虚实交互操作执行*** | |
CN113050449A (zh) | 一种有缆水下作业机器人仿真*** | |
US11833691B2 (en) | Hybrid robotic motion planning system using machine learning and parametric trajectories | |
JP7390405B2 (ja) | 統合された物理的環境および模擬された環境でロボットシステムを試験するための方法およびシステム | |
JP2023552756A (ja) | ロボット制御計画の生成 | |
JP7167668B2 (ja) | 学習方法、学習装置、プログラムおよび記録媒体 | |
WO2020095805A1 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
JP2021056542A (ja) | 画像データからの物体のポーズ検出 | |
US20220297298A1 (en) | Data generation device, data generation method, control device, control method, and computer program product | |
Horváth et al. | A use case of the simulation-based approach to mobile robot algorithm development | |
TWI801775B (zh) | 機械手臂的自動控制方法以及自動控制系統 | |
Thalmann et al. | Virtual and real humans interacting in the virtual world | |
JP2023074647A (ja) | 機械学習モデルの学習に用いる教師データを作成する方法、システム、及び、コンピュータープログラム | |
Ferre et al. | Two-hand virtual object manipulation based on networked architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210615 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6915605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |