JP7414531B2 - 学習装置、学習方法及びプログラム - Google Patents
学習装置、学習方法及びプログラム Download PDFInfo
- Publication number
- JP7414531B2 JP7414531B2 JP2020000148A JP2020000148A JP7414531B2 JP 7414531 B2 JP7414531 B2 JP 7414531B2 JP 2020000148 A JP2020000148 A JP 2020000148A JP 2020000148 A JP2020000148 A JP 2020000148A JP 7414531 B2 JP7414531 B2 JP 7414531B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- domain
- neural network
- parameters
- inference result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 64
- 238000013528 artificial neural network Methods 0.000 claims description 242
- 238000006243 chemical reaction Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 10
- 238000013459 approach Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 description 39
- 238000012545 processing Methods 0.000 description 35
- 238000010586 diagram Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Neurology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Description
第1実施形態の学習装置は、第1ドメインのデータとして例えば画像の入力を受け付け、推論タスクを行う第1のニューラルネットワークを学習する装置である。推論タスクは、例えば画像に映っている被写体がどのような物体なのかを識別する処理、画像内の物体の画像上の位置を推定する処理、画像内の各ピクセルのラベルを推定する処理、及び、物体の特徴点の位置を回帰する処理等を含む。
図1は、第1実施形態の学習装置1の構成例を示すブロック図である。この学習装置1は、例えば専用または汎用コンピュータを用いて構成される。第1実施形態の学習装置1は、図1に示すように、処理回路10、記憶回路20、通信部30、及び、各部を接続するバス40を備える。
図2は第1実施形態のニューラルネットワークの構成例を示す図である。図2の例では、第1のドメインのデータとして実画像が用いられ、第2のドメインのデータとしてCGが用いられる場合を示す。
ただしa,bは所定の定数である。
図3は第1実施形態の学習方法の例を示すフローチャートである。はじめに、取得部11が、記憶回路20から学習データ(第1のドメインのデータ、第1のドメインのデータの正解ラベル、第2のドメインのデータ、及び、第2のドメインのデータの正解ラベル)を読み出す。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
図4は第2実施形態のニューラルネットワークの構成例を示す図である。図4に示すように、第2実施形態では、第1の更新部141が、更に第3のニューラルネットワーク103を用いて更新処理を行う点が、第1実施形態とは異なる。
+E(log(1-D(y))) ・・・(2)
Lgen=E((1-D(y))2) ・・・(5)
図5は第2実施形態の学習方法の例を示すフローチャートである。ステップS11及びステップS12の処理は、第1実施形態のステップS1及びステップS2(図1参照)と同じなので省略する。
次に第2実施形態の変形例について説明する。変形例の説明では、第2実施形態と同様の説明については省略し、第2実施形態と異なる箇所について説明する。第1のニューラルネットワーク101a及び101b、第2のニューラルネットワーク102、並びに、第3のニューラルネットワーク103のうち、少なくとも2つ以上のニューラルネットワークは、少なくとも一部の重みを共有してもよい。
図6は第2実施形態の変形例のニューラルネットワークの構成例を示す図である。図6の例は、第3のニューラルネットワーク103と第1のニューラルネットワーク101a及び101bで一部の重みを共有させた場合の構成を示す。図6の例では、共有した部分の重みは、第1の更新部141、及び、第2の更新部142の双方から更新される。
次に第3実施形態について説明する。第3実施形態の説明では、第2実施形態の変形例と同様の説明については省略し、第2実施形態の変形例と異なる箇所について説明する。第3実施形態では、CycleGAN構成を適用した場合について説明する。
図7は第3実施形態のニューラルネットワークの構成例を示す図である。図7に示す通り、第3実施形態では、第4のニューラルネットワーク104、及び、第5のニューラルネットワーク105を更に備える。
すなわち、以下の損失が最小になるようにパラメータを更新する。
Ldis=E(log(DB(x)))
+E(log(1-DB(y))) ・・・(2’)
ここでDB(x)は第5のニューラルネットワーク105の出力を示す。xは第2のドメインのデータからサンプリングした入力集合を表す。yは第1のドメインのデータからサンプリングした入力集合を第4のニューラルネットワーク104に入力したときの出力である第2の変換データをサンプリングした入力集合を表す。また、上記の式(2’)ではなく、以下の式(4’)のように2乗誤差を最小化してもよい。
Ldis=E((1-DB(x))2)+E((DB(y))2) ・・・(4’)
+E((1-DB(GB(x)))2))/2
+λE(||GA(GB(x))-x||1) ・・・(7)
図8は第3実施形態の学習方法の例を示すフローチャートである。ステップS31~ステップS33の処理は、第2実施形態のステップS11~ステップS13(図5参照)と同じなので省略する。
次に第4実施形態について説明する。第4実施形態の説明では、第3実施形態と同様の説明については省略し、第3実施形態と異なる箇所について説明する。
図9は第4実施形態のニューラルネットワークの構成例を示す図である。なお、図9は、第1のニューラルネットワーク101a及び101bと、第2の更新部142との間に、更に、第6のニューラルネットワーク106a及び106bを設ける場合を示しており、他の部分の構成は第3実施形態と同じである(図7参照)。
+E(log(1-DW(y))) ・・・(8)
Ldis=E((1-DW(x))2)+E((DW(y))2) ・・・(8’)
図10は第4実施形態の学習方法の例を示すフローチャートである。ステップS51~ステップS56の処理は、第3実施形態のステップS31~ステップS36(図8参照)と同じなので省略する。
10 処理回路
11 取得部
12 変換部
13 推論部
14 更新部
20 記憶回路
30 通信部
141 第1の更新部
142 第2の更新部
143 第3の更新部
Claims (7)
- 第1のドメインのデータを受け付け、第1の推論結果を出力する第1のニューラルネットワークを用いて推論タスクを実行する推論部と、
第2のドメインのデータを受け付け、前記第2のドメインのデータを前記第1のドメインのデータに類似する第1の変換データに変換する第2のニューラルネットワークを用いて、前記第2のドメインのデータを前記第1の変換データに変換する変換部と、
前記第2のニューラルネットワークのパラメータを、前記第1の変換データの特徴を示す分布が、前記第1のドメインのデータの特徴を示す分布に近づくように更新する第1の更新部と、
前記第1の変換データが前記第1のニューラルネットワークに入力されたときに出力された第2の推論結果と、前記第1の変換データの正解ラベルと、前記第1の推論結果と、前記第1のドメインのデータの正解ラベルとに基づいて、前記第1のニューラルネットワークのパラメータを更新する第2の更新部と、を備え、
前記第1の更新部は、前記第1のドメインのデータ、及び、前記第1の変換データのいずれかの入力を受け付け、前記第1のドメインのデータか否かを判定する第3のニューラルネットワークを用いて、前記第2及び第3のニューラルネットワークに敵対的学習を行うことによって、前記第2及び第3のニューラルネットワークのパラメータを更新し、
前記第1及び第3のニューラルネットワークは、少なくとも一部の重みを共有する、
を備える学習装置。 - 前記第2の更新部は、前記第2の推論結果と、前記第1の変換データの正解ラベルと、前記第1の推論結果と、前記第1のドメインのデータの正解ラベルとに基づいて、前記第2のニューラルネットワークのパラメータを更に更新する、
請求項1に記載の学習装置。 - 前記変換部は、前記第1のドメインのデータを受け付け、前記第1のドメインのデータを前記第2のドメインのデータに類似する第2の変換データに変換する第4のニューラルネットワークを用いて、前記第1のドメインのデータを前記第2の変換データに更に変換し、
前記第1の更新部は、前記第2の変換データ、及び、前記第2のドメインのデータのいずれかの入力を受け付け、前記第2のドメインのデータか否かを判定する第5のニューラルネットワークを用いて、前記第4及び第5のニューラルネットワークに敵対的学習を行うことによって、前記第4及び第5のニューラルネットワークのパラメータを更に更新し、前記第1のドメインのデータと、前記第2の変換データを前記第2のニューラルネットワークに更に入力したときの出力とに基づいて、前記第2及び第4のニューラルネットワークのパラメータを更に更新する、
請求項1又は2に記載の学習装置。 - 前記第1のドメインのデータは、撮影画像であり、
前記第2のドメインのデータは、CG(Computer Graphics)であり、
前記第1の変換データは、前記撮影画像に類似するCGであり、
前記第2の変換データは、前記撮影画像から変換されたCGである、
請求項3に記載の学習装置。 - 前記第1及び第2の推論結果のいずれかの入力を受け付け、前記第1の推論結果であるか否かを判定する第6のニューラルネットワークのパラメータを更新する第3の更新部を更に備え、
前記第2の更新部は、前記第2の推論結果を前記第6のニューラルネットワークに入力したときの出力に基づいて、前記第1のニューラルネットワークのパラメータを更新するか否かを判定する、
請求項1乃至4のいずれか1項に記載の学習装置。 - 第1のドメインのデータを受け付け、第1の推論結果を出力する第1のニューラルネットワークを用いて推論タスクを実行するステップと、
第2のドメインのデータを受け付け、前記第2のドメインのデータを前記第1のドメインのデータに類似する第1の変換データに変換する第2のニューラルネットワークを用いて、前記第2のドメインのデータを前記第1の変換データに変換するステップと、
前記第2のニューラルネットワークのパラメータを、前記第1の変換データの特徴を示す分布が、前記第1のドメインのデータの特徴を示す分布に近づくように更新するステップと、
前記第1の変換データが前記第1のニューラルネットワークに入力されたときに出力された第2の推論結果と、前記第1の変換データの正解ラベルと、前記第1の推論結果と、前記第1のドメインのデータの正解ラベルとに基づいて、前記第1のニューラルネットワークのパラメータを更新するステップと、を含み、
前記第1のドメインのデータの特徴を示す分布に近づくように更新するステップは、
前記第1のドメインのデータ、及び、前記第1の変換データのいずれかの入力を受け付けるステップと、
前記第1のドメインのデータか否かを判定する第3のニューラルネットワークを用いて、前記第2及び第3のニューラルネットワークに敵対的学習を行うことによって、前記第2及び第3のニューラルネットワークのパラメータを更新するステップと、を含み、
前記第1及び第3のニューラルネットワークは、少なくとも一部の重みを共有する、
学習方法。 - コンピュータを、
第1のドメインのデータを受け付け、第1の推論結果を出力する第1のニューラルネットワークを用いて推論タスクを実行する推論部と、
第2のドメインのデータを受け付け、前記第2のドメインのデータを前記第1のドメインのデータに類似する第1の変換データに変換する第2のニューラルネットワークを用いて、前記第2のドメインのデータを前記第1の変換データに変換する変換部と、
前記第2のニューラルネットワークのパラメータを、前記第1の変換データの特徴を示す分布が、前記第1のドメインのデータの特徴を示す分布に近づくように更新する第1の更新部と、
前記第1の変換データが前記第1のニューラルネットワークに入力されたときに出力された第2の推論結果と、前記第1の変換データの正解ラベルと、前記第1の推論結果と、前記第1のドメインのデータの正解ラベルとに基づいて、前記第1のニューラルネットワークのパラメータを更新する第2の更新部、として機能させ、
前記第1の更新部は、前記第1のドメインのデータ、及び、前記第1の変換データのいずれかの入力を受け付け、前記第1のドメインのデータか否かを判定する第3のニューラルネットワークを用いて、前記第2及び第3のニューラルネットワークに敵対的学習を行うことによって、前記第2及び第3のニューラルネットワークのパラメータを更新し、
前記第1及び第3のニューラルネットワークは、少なくとも一部の重みを共有する、
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000148A JP7414531B2 (ja) | 2020-01-06 | 2020-01-06 | 学習装置、学習方法及びプログラム |
US17/014,721 US20210209452A1 (en) | 2020-01-06 | 2020-09-08 | Learning device, learning method, and computer program product |
EP20195099.5A EP3846084A1 (en) | 2020-01-06 | 2020-09-08 | Learning device, learning method, and computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020000148A JP7414531B2 (ja) | 2020-01-06 | 2020-01-06 | 学習装置、学習方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021110968A JP2021110968A (ja) | 2021-08-02 |
JP7414531B2 true JP7414531B2 (ja) | 2024-01-16 |
Family
ID=72432750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020000148A Active JP7414531B2 (ja) | 2020-01-06 | 2020-01-06 | 学習装置、学習方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210209452A1 (ja) |
EP (1) | EP3846084A1 (ja) |
JP (1) | JP7414531B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220327189A1 (en) * | 2021-04-09 | 2022-10-13 | Qualcomm Incorporated | Personalized biometric anti-spoofing protection using machine learning and enrollment data |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046390A (ja) | 2017-09-06 | 2019-03-22 | 株式会社東芝 | 学習装置、学習方法、およびプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157972A1 (en) * | 2016-12-02 | 2018-06-07 | Apple Inc. | Partially shared neural networks for multiple tasks |
US11078631B2 (en) * | 2017-11-30 | 2021-08-03 | Sperry Rail Holdings, Inc. | System and method for inspecting a rail using machine learning |
US10802488B1 (en) * | 2017-12-29 | 2020-10-13 | Apex Artificial Intelligence Industries, Inc. | Apparatus and method for monitoring and controlling of a neural network using another neural network implemented on one or more solid-state chips |
KR20210074748A (ko) * | 2019-12-12 | 2021-06-22 | 삼성전자주식회사 | 도메인 적응에 기반한 네트워크의 트레이닝 방법, 동작 방법 및 동작 장치 |
-
2020
- 2020-01-06 JP JP2020000148A patent/JP7414531B2/ja active Active
- 2020-09-08 EP EP20195099.5A patent/EP3846084A1/en active Pending
- 2020-09-08 US US17/014,721 patent/US20210209452A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019046390A (ja) | 2017-09-06 | 2019-03-22 | 株式会社東芝 | 学習装置、学習方法、およびプログラム |
Non-Patent Citations (5)
Title |
---|
BOUSMALIS, Konstantinos et al.,"Unsupervised Pixel-Level Domain Adaptation with Generative Adversarial Networks",arXiv [online],2017年08月,[2023年01月27日検索],インターネット<URL:https://arxiv.org/abs/1612.05424v2>,1612.05424v2 |
HUANG, Sheng-Wei et al.,"AugGAN: Cross Domain Adaptation with GAN-based Data Augmentation",Proceedings of the European Conference on Computer Vision (ECCV) [online],2018年,p. 718-731, [2023年07月20日検索],インターネット<URL:https://openaccess.thecvf.com/content_ECCV_2018/html/Sheng-Wei_Huang_AugGAN_Cross_Domain_ECCV_2018_paper.html> |
LIU, Ming-Yu et al.,"Coupled Generative Adversarial Networks",arXiv [online],2016年09月,[2023年01月27日検索],インターネット<URL:https://arxiv.org/abs/1606.07536v2>,1606.07536v2 |
RADHAKRISHNAN, Sreedhar et al.,"Synthetic to Real World Image Translation Using Generative Adversarial Networks",IEEE Xplore [online],2018年10月,[2023年01月27日検索],インターネット<URL:https://ieeexplore.ieee.org/abstract/document/8493745>,Electronic ISBN: 978-1-5386-4430-0,DOI: 10.1109/ICCCNT.2018.8493745 |
西川由理 ほか,"人物検出における学習データ拡張のためのCycleGANの分散深層学習",情報処理学会研究報告 ハイパフォーマンスコンピューティング(HPC) [online],情報処理学会,2019年12月,Vol.2019-HPC-172,No.5,[2019年12月24日検索],インターネット<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=201010&file_id=1&file_no=1> |
Also Published As
Publication number | Publication date |
---|---|
JP2021110968A (ja) | 2021-08-02 |
US20210209452A1 (en) | 2021-07-08 |
EP3846084A1 (en) | 2021-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11640684B2 (en) | Attribute conditioned image generation | |
US10565757B2 (en) | Multimodal style-transfer network for applying style features from multi-resolution style exemplars to input images | |
CN109472360B (zh) | 神经网络的更新方法、更新装置和电子设备 | |
US10726555B2 (en) | Joint registration and segmentation of images using deep learning | |
US11574198B2 (en) | Apparatus and method with neural network implementation of domain adaptation | |
JP2020087103A (ja) | 学習方法、コンピュータプログラム、分類器、及び生成器 | |
CN113256592B (zh) | 图像特征提取模型的训练方法、***及装置 | |
US11301723B2 (en) | Data generation device, data generation method, and computer program product | |
US11604999B2 (en) | Learning device, learning method, and computer program product | |
JP7414531B2 (ja) | 学習装置、学習方法及びプログラム | |
Rajput | Mixed gaussian-impulse noise robust face hallucination via noise suppressed low-and-high resolution space-based neighbor representation | |
JP7106486B2 (ja) | 学習装置、学習方法、プログラムおよび情報処理システム | |
JP2019023798A (ja) | 超解像装置およびプログラム | |
US20230073175A1 (en) | Method and system for processing image based on weighted multiple kernels | |
US7933449B2 (en) | Pattern recognition method | |
JP2021015425A (ja) | 学習方法、学習プログラム及び学習装置 | |
US20220284545A1 (en) | Image processing device and operating method thereof | |
JP7148078B2 (ja) | 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム | |
JP2019082847A (ja) | データ推定装置、データ推定方法及びプログラム | |
JP7047665B2 (ja) | 学習装置、学習方法及び学習プログラム | |
US7324980B2 (en) | Information processing apparatus and method | |
JP7163977B2 (ja) | 推定装置、学習装置、それらの方法、およびプログラム | |
JP2023075764A (ja) | 学習装置、学習方法及びプログラム | |
WO2024043109A1 (ja) | 画像処理方法、画像処理装置、及びプログラム | |
KR20230157223A (ko) | 영상 처리 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7414531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |