JP7384898B2 - 情報処理装置、駆動制御方法およびコンピュータプログラム - Google Patents
情報処理装置、駆動制御方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JP7384898B2 JP7384898B2 JP2021504864A JP2021504864A JP7384898B2 JP 7384898 B2 JP7384898 B2 JP 7384898B2 JP 2021504864 A JP2021504864 A JP 2021504864A JP 2021504864 A JP2021504864 A JP 2021504864A JP 7384898 B2 JP7384898 B2 JP 7384898B2
- Authority
- JP
- Japan
- Prior art keywords
- gravity
- center
- image
- information processing
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 92
- 238000000034 method Methods 0.000 title claims description 37
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000001514 detection method Methods 0.000 claims description 84
- 230000005484 gravity Effects 0.000 claims description 76
- 238000012545 processing Methods 0.000 claims description 39
- 238000012549 training Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 23
- 238000010801 machine learning Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 241000251468 Actinopterygii Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 241000607479 Yersinia pestis Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K61/00—Culture of aquatic animals
- A01K61/80—Feeding devices
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M29/00—Scaring or repelling devices, e.g. bird-scaring apparatus
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M29/00—Scaring or repelling devices, e.g. bird-scaring apparatus
- A01M29/06—Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like
- A01M29/10—Scaring or repelling devices, e.g. bird-scaring apparatus using visual means, e.g. scarecrows, moving elements, specific shapes, patterns or the like using light sources, e.g. lasers or flashing lights
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01M—CATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
- A01M29/00—Scaring or repelling devices, e.g. bird-scaring apparatus
- A01M29/16—Scaring or repelling devices, e.g. bird-scaring apparatus using sound waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Description
撮影画像における物体の重心の位置を含む検知対象を機械学習した学習結果である参考データを利用して、撮影画像から前記検知対象を検知する検知部と、
前記検知部の検知結果を利用して、前記物体に作用する制御対象の駆動装置を制御する処理部と
を備える。
撮影画像における物体の重心の位置を含む検知対象を機械学習した学習結果である参考データを利用して、撮影画像から前記検知対象を検知し、
その検知の結果を利用して、前記物体に作用する制御対象の駆動装置を制御する。
撮影画像における物体の重心の位置を含む検知対象を機械学習した学習結果である参考データを利用して、撮影画像から前記検知対象を検知する処理と、
その検知の結果を利用して、前記物体に作用する制御対象の駆動装置を制御する処理と
をコンピュータに実行させるコンピュータプログラムを記憶する。
図1は、本発明に係る第1実施形態の情報処理装置の構成を簡略化して表すブロック図である。第1実施形態の情報処理装置1は、撮影装置4と、駆動装置5とに接続されており、撮影装置4により撮影された撮影画像を利用して、駆動装置5の動作を制御する機能を備える。第1実施形態では、駆動装置5は図2に表されているようなロボットアーム10であり、当該ロボットアーム10に備えられているハンド11は物体13を把持することができる機構を備えている。撮影装置4は、ロボットアーム10のハンド11を制御する制御手法により定まる設置位置であって、ロボットアーム10のハンド11における予め定められた作業領域が撮影範囲に含まれる位置に設置されている。情報処理装置1は、撮影装置4による撮影画像を利用して、ロボットアーム10のハンド11の把持動作を制御する。
以下に、本発明に係る第2実施形態を説明する。なお、第2実施形態の説明において、第1実施形態の情報処理装置を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下に、本発明に係る第3実施形態を説明する。なお、第3実施形態の説明において、第1や第2の実施形態の情報処理装置を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
以下に、本発明に係る第4実施形態を説明する。なお、第4実施形態の説明において、第1~第3の実施形態の情報処理装置を構成する構成部分と同一名称部分には同一符号を付し、その共通部分の重複説明は省略する。
なお、本発明は第1~第4の実施形態に限定されずに様々な実施形態を採り得る。例えば、第1~第4の実施形態の情報処理装置1は、検知部21により検知された検知対象を表す情報を撮影画像に重畳して表示すべく表示装置(図示せず)を制御する表示制御部(図示せず)が備えられていてもよい。また、その表示制御部は、第4実施形態における追尾部25による追尾結果を表示するように表示装置を制御してもよい。
4 撮影装置
5 駆動装置
21,31 検知部
22,32 処理部
Claims (7)
- 容器、袋、又は生き物である物体の画像およびその物体の重心の位置を表す情報が含まれている画像を教師データとして機械学習することにより生成された参考データを利用して、撮影画像から容器、袋、又は生き物である検知対象の物体およびその重心の位置を検知する検知手段と、
前記検知手段の検知結果を利用して、前記検知対象の物体に作用する制御対象の駆動装置を制御する処理手段と
を備え、
前記教師データには、容器、袋、又は生き物である物体を撮影した画像であって当該物体の外形と内容物の状態とのうちの画像に映し出されている少なくとも一方が互いに異なる複数のバリエーションの物体をそれぞれ撮影した画像が含まれており、かつ、前記教師データに含まれる画像には、当該画像に映し出される物体の外形又は内容物の状態の変化によって変化する当該物体の重心の位置を表す情報が含まれており、
前記検知手段は、前記参考データを利用して、前記検知対象の物体および当該物体の外形と内容物の状態とのうちの撮影画像に映し出されている少なくとも外形に応じた当該物体の重心の位置を撮影画像から検知する情報処理装置。 - 前記検知手段の検知結果を利用して前記検知対象を追尾する追尾手段をさらに備える請求項1に記載の情報処理装置。
- 前記検知対象は、前記駆動装置の駆動により位置が変化する領域において予め定められた制御注目点をも含み、前記検知手段は、撮影画像から、前記物体の重心の位置に加えて、前記制御注目点をも検知する請求項1又は請求項2に記載の情報処理装置。
- 前記処理手段は、前記検知手段により検知された前記物体の重心の位置と、前記駆動装置である把持機能を持つ装置における前記制御注目点とが同じ仮想直線上に配置されている状態から、前記制御注目点が前記物体の重心の位置に近付く方向に移動し前記物体を把持するように前記駆動装置を制御する請求項3に記載の情報処理装置。
- 機械学習により前記参考データを生成する学習手段をさらに備える請求項1乃至請求項4の何れか一つに記載の情報処理装置。
- 容器、袋、又は生き物である物体の画像およびその物体の重心の位置を表す情報が含まれている画像を教師データとして機械学習することにより生成された参考データを利用して、撮影画像から容器、袋、又は生き物である検知対象の物体およびその重心の位置を検知する場合に、前記教師データには、容器、袋、又は生き物である物体を撮影した画像であって当該物体の外形と内容物の状態とのうちの画像に映し出されている少なくとも一方が互いに異なる複数のバリエーションの物体をそれぞれ撮影した画像が含まれており、かつ、前記教師データに含まれる画像には、当該画像に映し出される物体の外形又は内容物の状態の変化によって変化する当該物体の重心の位置を表す情報が含まれており、当該教師データを用いて機械学習することにより生成された前記参考データを利用して、前記検知対象の物体および当該物体の外形と内容物の状態とのうちの撮影画像に映し出されている少なくとも外形に応じた当該物体の重心の位置を撮影画像から検知し、
その検知の結果を利用して、前記物体に作用する制御対象の駆動装置を制御する駆動制御方法。 - 容器、袋、又は生き物である物体の画像およびその物体の重心の位置を表す情報が含まれている画像を教師データとして機械学習することにより生成された参考データを利用して、撮影画像から容器、袋、又は生き物である検知対象の物体およびその重心の位置を検知する場合に、前記教師データには、容器、袋、又は生き物である物体を撮影した画像であって当該物体の外形と内容物の状態とのうちの画像に映し出されている少なくとも一方が互いに異なる複数のバリエーションの物体をそれぞれ撮影した画像が含まれており、かつ、前記教師データに含まれる画像には、当該画像に映し出される物体の外形又は内容物の状態の変化によって変化する当該物体の重心の位置を表す情報が含まれており、当該教師データを用いて機械学習することにより生成された前記参考データを利用して、前記検知対象の物体および当該物体の外形と内容物の状態とのうちの撮影画像に映し出されている少なくとも外形に応じた当該物体の重心の位置を撮影画像から検知する処理と、
その検知の結果を利用して、前記物体に作用する制御対象の駆動装置を制御する処理と
をコンピュータに実行させるコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019046023 | 2019-03-13 | ||
JP2019046023 | 2019-03-13 | ||
PCT/JP2020/006430 WO2020184101A1 (ja) | 2019-03-13 | 2020-02-19 | 情報処理装置、駆動制御方法およびプログラム記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020184101A1 JPWO2020184101A1 (ja) | 2021-10-21 |
JP7384898B2 true JP7384898B2 (ja) | 2023-11-21 |
Family
ID=72427311
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021504864A Active JP7384898B2 (ja) | 2019-03-13 | 2020-02-19 | 情報処理装置、駆動制御方法およびコンピュータプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7384898B2 (ja) |
WO (1) | WO2020184101A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013191163A (ja) | 2012-03-15 | 2013-09-26 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP5318345B2 (ja) | 2006-01-30 | 2013-10-16 | ゼネラル・エレクトリック・カンパニイ | 固体酸化物電気化学デバイスを製造する方法および固体酸化物電気化学デバイス |
JP2016107349A (ja) | 2014-12-02 | 2016-06-20 | ファナック株式会社 | ロボットを用いて物品を移送する物品移送装置及び物品移送方法 |
WO2017183414A1 (ja) | 2016-04-22 | 2017-10-26 | 三菱電機株式会社 | 物体操作装置及び物体操作方法 |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3153622B2 (ja) * | 1992-05-18 | 2001-04-09 | 株式会社日立製作所 | ワーク搬送用のロボット |
JP6474179B2 (ja) * | 2017-07-30 | 2019-02-27 | 国立大学法人 奈良先端科学技術大学院大学 | 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法 |
-
2020
- 2020-02-19 JP JP2021504864A patent/JP7384898B2/ja active Active
- 2020-02-19 WO PCT/JP2020/006430 patent/WO2020184101A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5318345B2 (ja) | 2006-01-30 | 2013-10-16 | ゼネラル・エレクトリック・カンパニイ | 固体酸化物電気化学デバイスを製造する方法および固体酸化物電気化学デバイス |
JP2013191163A (ja) | 2012-03-15 | 2013-09-26 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP2016107349A (ja) | 2014-12-02 | 2016-06-20 | ファナック株式会社 | ロボットを用いて物品を移送する物品移送装置及び物品移送方法 |
WO2017183414A1 (ja) | 2016-04-22 | 2017-10-26 | 三菱電機株式会社 | 物体操作装置及び物体操作方法 |
JP2018161692A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20220055226A1 (en) | 2022-02-24 |
JPWO2020184101A1 (ja) | 2021-10-21 |
WO2020184101A1 (ja) | 2020-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10639792B2 (en) | Deep machine learning methods and apparatus for robotic grasping | |
US10946515B2 (en) | Deep machine learning methods and apparatus for robotic grasping | |
Marturi et al. | Dynamic grasp and trajectory planning for moving objects | |
Tebbe et al. | A table tennis robot system using an industrial kuka robot arm | |
US10166676B1 (en) | Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot | |
CN110914024B (zh) | 路径输出方法、路径输出***和路径输出程序 | |
JP6931457B2 (ja) | モーション生成方法、モーション生成装置、システム及びコンピュータプログラム | |
WO2021065196A1 (en) | Method and system for trajectory optimization for nonlinear robotic systems with geometric constraints | |
US20180029226A1 (en) | Skill transfer from a person to a robot | |
US20070299559A1 (en) | Evaluating Visual Proto-objects for Robot Interaction | |
JP2008055584A (ja) | 物体把持を行うロボット及びロボットによる物体の把持方法 | |
Zwiener et al. | Contact point localization for articulated manipulators with proprioceptive sensors and machine learning | |
Mseddi et al. | YOLOv5 based visual localization for autonomous vehicles | |
Lv et al. | Sliding Mode Control of Cable‐Driven Redundancy Parallel Robot with 6 DOF Based on Cable‐Length Sensor Feedback | |
Reiner et al. | Lat: A simple learning from demonstration method | |
Wu et al. | End-to-end sensorimotor control problems of auvs with deep reinforcement learning | |
Du et al. | A novel human–manipulators interface using hybrid sensors with Kalman filter and particle filter | |
JP5679121B2 (ja) | ロボットの運動予測制御方法と装置 | |
JP7384898B2 (ja) | 情報処理装置、駆動制御方法およびコンピュータプログラム | |
US12030175B2 (en) | Information processing device, driving control method, and program-recording medium | |
Averta | Learning to prevent grasp failure with soft hands: From on-line prediction to dual-arm grasp recovery | |
Dimmig et al. | A Small Form Factor Aerial Research Vehicle for Pick-and-Place Tasks with Onboard Real-Time Object Detection and Visual Odometry | |
Du et al. | Human‐Manipulator Interface Using Particle Filter | |
WO2024122516A1 (ja) | ロボットの制御システム、ロボットハンド、ロボットの制御プログラム、情報管理プログラム、及び情報処理プログラム | |
CN117961888A (zh) | 一种基于强化学习控制的人形机器人物体抓取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210611 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210611 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20211112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221122 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221122 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221129 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221206 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230203 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7384898 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |