JP6914926B2 - Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張 - Google Patents
Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張 Download PDFInfo
- Publication number
- JP6914926B2 JP6914926B2 JP2018518729A JP2018518729A JP6914926B2 JP 6914926 B2 JP6914926 B2 JP 6914926B2 JP 2018518729 A JP2018518729 A JP 2018518729A JP 2018518729 A JP2018518729 A JP 2018518729A JP 6914926 B2 JP6914926 B2 JP 6914926B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- view
- composite
- target
- composite object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Description
本出願は、参照によりその全体が本明細書に組み込まれる、2016年1月28日に出願された「AUGMENTING MULTI−VIEW IMAGE DATA WITH SYNTHETIC OBJECTS USING IMU AND IMAGE DATA」と題する米国特許出願第15/009,807号、および、2015年10月16日に出願された「AUGMENTING MULTI−VIEW IMAGE DATA WITH SYNTHETIC OBJECTS USING IMU AND IMAGE DATA」と題する米国特許出願第62/242,932号の、米国特許法第119条に基づく利益を主張する。
Claims (20)
- 固有パラメータを有するカメラを用いてキャプチャされる多視点画像内に配置されるべき合成物体のためのアンカー位置の選択を受信するステップであって、前記アンカー位置は、参照画像と関連付けられる参照ビューから1つの点として選択され、前記参照ビューは、前記多視点画像の1つの視点に対応する、前記受信するステップと、
前記多視点画像に関連する視覚追跡情報、前記多視点画像に対応するデバイス向き、および、前記カメラの固有パラメータの推定値を使用して、参照画像と目標画像との間の動きを計算するステップであって、前記カメラの固有パラメータは少なくとも、焦点距離の近似推定値を含む、前記計算するステップと、
前記目標画像と関連付けられる目標ビューに対応する第1の合成画像を生成するステップであって、前記第1の合成画像は、前記多視点画像内の前記アンカー位置に関連する視覚追跡情報を使用して前記合成物体を前記アンカー位置に配置し、前記参照画像と前記目標画像との間で計算された前記動きの逆数を使用して、前記合成物体を方向付け、前記合成物体を、半直線に沿って前記目標ビューに投影することによって、生成される、前記生成するステップであって、前記アンカー位置は前記参照画像の面に垂直な深度とともに参照画像に指定される二次元座標に対応する三次元座標を含み、前記深度は三角測量され、前記第1の合成画像を生成するステップは前記多視点画像のスケール変化に基づいて三角測量された前記深度をスケーリングするステップを含む、前記生成するステップと、
前記目標ビューから拡張画像を生成するために、前記目標画像上に前記第1の合成画像を重ね合わせるステップと、
を含む、方法。 - 前記合成物体は、前記アンカー位置に対して固定位置に配置される、請求項1に記載の方法。
- 前記合成物体は、前記アンカー位置に対して移動する、請求項1に記載の方法。
- 前記合成物体がアニメーション化される、請求項1に記載の方法。
- 前記合成物体のアニメーションは、前記多視点画像の観察中に経過する時間に基づいており、前記アニメーションは、前記多視点画像を通じたナビゲーションとは無関係である、請求項4に記載の方法。
- 前記合成物体のアニメーションは、前記多視点画像のナビゲーションに依存し、前記アニメーションは、前記カメラの空間的動きに依存する、請求項4に記載の方法。
- 前記合成物体がビデオによって表される、請求項4に記載の方法。
- 前記合成物体は、前記多視点画像に関連する少なくとも1つのビューにおいて透明または半透明である、請求項1に記載の方法。
- 前記多視点画像は、動的コンテンツを含む、請求項1に記載の方法。
- 前記多視点画像は、動的コンテキストを含む、請求項1に記載の方法。
- 固有パラメータを有するカメラを用いてキャプチャされる多視点画像内に配置されるべき合成物体のためのアンカー位置の選択を受信するためのコンピュータコードであって、前記アンカー位置は、参照画像と関連付けられる参照ビュー内の1つの点として選択され、前記参照ビューは、前記多視点画像の1つの視点に対応する、受信するためのコンピュータコードと、
前記多視点画像に関連する視覚追跡情報、前記多視点画像に対応するデバイス向き、および、前記カメラの固有パラメータの推定値を使用して、参照画像と目標画像との間の動きを計算するためのコンピュータコードであって、前記カメラの固有パラメータは少なくとも、焦点距離の近似推定値を含む、計算するためのコンピュータコードと、
前記目標画像と関連付けられる目標ビューに対応する第1の合成画像を生成するためのコンピュータコードであって、前記第1の合成画像は、前記多視点画像内の前記アンカー位置に関連する視覚追跡情報を使用して前記合成物体を前記アンカー位置に配置し、前記参照画像と前記目標画像との間で計算された前記動きの逆数を使用して、前記合成物体を方向付け、前記合成物体を、半直線に沿って前記目標ビューに投影することによって、生成される、生成するためのコンピュータコードであって、前記アンカー位置は前記参照画像の面に垂直な深度とともに参照画像に指定される二次元座標に対応する三次元座標を含み、前記深度は三角測量され、前記第1の合成画像を生成するためのコンピュータコードは前記多視点画像のスケール変化に基づいて三角測量された前記深度をスケーリングすることを含む、生成するためのコンピュータコードと、
前記目標ビューから拡張画像を生成するために、前記目標画像上に前記第1の合成画像を重ね合わせるためのコンピュータコードと、
からなるコンピュータプログラムが記録されたコンピュータ可読媒体。 - 前記合成物体は、前記アンカー位置に対して固定位置に配置される、請求項11に記載のコンピュータ可読媒体。
- 前記合成物体は、前記アンカー位置に対して移動する、請求項11に記載のコンピュータ可読媒体。
- 前記合成物体がアニメーション化される、請求項11に記載のコンピュータ可読媒体。
- 前記合成物体のアニメーションは、前記多視点画像の観察中に経過する時間に基づいており、前記アニメーションは、前記多視点画像を通じたナビゲーションとは無関係である、請求項14に記載のコンピュータ可読媒体。
- 前記合成物体のアニメーションは、前記多視点画像のナビゲーションに依存し、前記アニメーションは、前記カメラの空間的動きに依存する、請求項14に記載のコンピュータ可読媒体。
- 前記合成物体がビデオによって表される、請求項14に記載のコンピュータ可読媒体。
- 前記合成物体は、前記多視点画像に関連する少なくとも1つのビューにおいて透明または半透明である、請求項11に記載のコンピュータ可読媒体。
- 前記多視点画像は、動的コンテンツを含む、請求項11に記載のコンピュータ可読媒体。
- 固有パラメータを有するカメラを用いてキャプチャされる多視点画像内に配置されるべき合成物体のためのアンカー位置の選択を受信するための手段であって、前記アンカー位置は、参照画像と関連付けられる参照ビュー内の1つの点として選択され、前記参照ビューは、前記多視点画像の1つの視点に対応する、前記受信するための手段と、
前記多視点画像に関連する視覚追跡情報、前記多視点画像に対応するデバイスの向き、および、前記カメラの固有パラメータの推定値を使用して、前記参照画像と目標画像との間の動きを計算するための手段であって、前記カメラの固有パラメータは少なくとも、焦点距離の近似推定値を含む、前記計算するための手段と、
前記目標画像と関連付けられる目標ビューに対応する第1の合成画像を生成するための手段であって、前記第1の合成画像は、前記多視点画像内の前記アンカー位置に関連する視覚追跡情報を使用して前記合成物体を前記アンカー位置に配置し、前記参照画像と前記目標画像との間で計算された前記動きの逆数を使用して、前記合成物体を方向付け、前記合成物体を、半直線に沿って前記目標ビューに投影することによって、生成される、前記生成するための手段であって、前記アンカー位置は前記参照画像の面に垂直な深度とともに参照画像に指定される二次元座標に対応する三次元座標を含み、前記深度は三角測量され、前記第1の合成画像を生成するための手段は前記多視点画像のスケール変化に基づいて三角測量された前記深度をスケーリングする手段を含む、前記生成するための手段と、
前記目標ビューから拡張画像を生成するために、前記目標画像上に前記第1の合成画像を重ね合わせるための手段と、
を備える、装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562242932P | 2015-10-16 | 2015-10-16 | |
US62/242,932 | 2015-10-16 | ||
US15/009,807 | 2016-01-28 | ||
US15/009,807 US10152825B2 (en) | 2015-10-16 | 2016-01-28 | Augmenting multi-view image data with synthetic objects using IMU and image data |
PCT/US2016/054218 WO2017065975A1 (en) | 2015-10-16 | 2016-09-28 | Augmenting multi-view image data with synthetic objects using imu and image data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018537758A JP2018537758A (ja) | 2018-12-20 |
JP6914926B2 true JP6914926B2 (ja) | 2021-08-04 |
Family
ID=58518414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018518729A Active JP6914926B2 (ja) | 2015-10-16 | 2016-09-28 | Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10152825B2 (ja) |
JP (1) | JP6914926B2 (ja) |
DE (1) | DE112016004731T5 (ja) |
WO (1) | WO2017065975A1 (ja) |
Families Citing this family (46)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
US10152825B2 (en) | 2015-10-16 | 2018-12-11 | Fyusion, Inc. | Augmenting multi-view image data with synthetic objects using IMU and image data |
JP2017123050A (ja) * | 2016-01-07 | 2017-07-13 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、及びサーバ |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
US10999602B2 (en) | 2016-12-23 | 2021-05-04 | Apple Inc. | Sphere projected motion estimation/compensation and mode decision |
US20180182171A1 (en) * | 2016-12-26 | 2018-06-28 | Drawsta, Inc. | Systems and Methods for Real-time Multimedia Augmented Reality |
US10242503B2 (en) | 2017-01-09 | 2019-03-26 | Snap Inc. | Surface aware lens |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US10628675B2 (en) * | 2017-02-07 | 2020-04-21 | Fyusion, Inc. | Skeleton detection and tracking via client-server communication |
US11259046B2 (en) | 2017-02-15 | 2022-02-22 | Apple Inc. | Processing of equirectangular object data to compensate for distortion by spherical projections |
US10924747B2 (en) | 2017-02-27 | 2021-02-16 | Apple Inc. | Video coding techniques for multi-view video |
CN107240124B (zh) * | 2017-05-19 | 2020-07-17 | 清华大学 | 基于时空约束的跨镜头多目标跟踪方法及装置 |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11093752B2 (en) * | 2017-06-02 | 2021-08-17 | Apple Inc. | Object tracking in multi-view video |
US11069147B2 (en) * | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
US10754242B2 (en) | 2017-06-30 | 2020-08-25 | Apple Inc. | Adaptive resolution and projection format in multi-direction video |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
CN108648235B (zh) * | 2018-04-27 | 2022-05-17 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置及存储介质 |
CN108615248B (zh) * | 2018-04-27 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 相机姿态追踪过程的重定位方法、装置、设备及存储介质 |
US11087176B2 (en) * | 2018-05-08 | 2021-08-10 | Microsoft Technology Licensing, Llc | Spatial localization design service |
US11354459B2 (en) | 2018-05-08 | 2022-06-07 | Microsoft Technology Licensing, Llc | Computer vision and speech algorithm design service |
US11030813B2 (en) | 2018-08-30 | 2021-06-08 | Snap Inc. | Video clip object tracking |
US11176737B2 (en) | 2018-11-27 | 2021-11-16 | Snap Inc. | Textured mesh building |
WO2020132541A1 (en) | 2018-12-20 | 2020-06-25 | Snap Inc. | Virtual surface modification |
US11176704B2 (en) | 2019-01-22 | 2021-11-16 | Fyusion, Inc. | Object pose estimation in visual data |
US10887582B2 (en) | 2019-01-22 | 2021-01-05 | Fyusion, Inc. | Object damage aggregation |
US11783443B2 (en) | 2019-01-22 | 2023-10-10 | Fyusion, Inc. | Extraction of standardized images from a single view or multi-view capture |
US10872459B2 (en) * | 2019-02-05 | 2020-12-22 | X Development Llc | Scene recognition using volumetric substitution of real world objects |
WO2020197528A1 (en) | 2019-03-22 | 2020-10-01 | Hewlett-Packard Development Company L.P. | 3d imaging |
CN110008888B (zh) * | 2019-03-29 | 2021-06-04 | 上海交通大学 | 智能监控网络中的综合特征目标检测方法和*** |
US11189098B2 (en) | 2019-06-28 | 2021-11-30 | Snap Inc. | 3D object camera customization system |
US11232646B2 (en) | 2019-09-06 | 2022-01-25 | Snap Inc. | Context-based virtual object rendering |
US11263817B1 (en) | 2019-12-19 | 2022-03-01 | Snap Inc. | 3D captions with face tracking |
US11227442B1 (en) | 2019-12-19 | 2022-01-18 | Snap Inc. | 3D captions with semantic graphical elements |
US11562474B2 (en) | 2020-01-16 | 2023-01-24 | Fyusion, Inc. | Mobile multi-camera multi-view capture |
US11776142B2 (en) | 2020-01-16 | 2023-10-03 | Fyusion, Inc. | Structuring visual data |
US11869135B2 (en) * | 2020-01-16 | 2024-01-09 | Fyusion, Inc. | Creating action shot video from multi-view capture data |
US11276201B1 (en) | 2020-06-01 | 2022-03-15 | Snap Inc. | Localizing an augmented reality device |
US11748954B2 (en) * | 2020-06-01 | 2023-09-05 | Snap Inc. | Tracking an augmented reality device |
US20220198764A1 (en) * | 2020-12-18 | 2022-06-23 | Arkh, Inc. | Spatially Aware Environment Relocalization |
US11605151B2 (en) | 2021-03-02 | 2023-03-14 | Fyusion, Inc. | Vehicle undercarriage imaging |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4272966B2 (ja) * | 2003-10-14 | 2009-06-03 | 和郎 岩根 | 3dcg合成装置 |
US20070237417A1 (en) * | 2004-10-14 | 2007-10-11 | Motilal Agrawal | Method and apparatus for determining camera focal length |
KR100603601B1 (ko) | 2004-11-08 | 2006-07-24 | 한국전자통신연구원 | 다시점 콘텐츠 생성 장치 및 그 방법 |
EP1887526A1 (en) * | 2006-08-11 | 2008-02-13 | Seac02 S.r.l. | A digitally-augmented reality video system |
US8055466B2 (en) * | 2007-03-30 | 2011-11-08 | Mitutoyo Corporation | Global calibration for stereo vision probe |
US8751151B2 (en) * | 2012-06-12 | 2014-06-10 | Trx Systems, Inc. | System and method for localizing a trackee at a location and mapping the location using inertial sensor information |
FR2946444B1 (fr) * | 2009-06-08 | 2012-03-30 | Total Immersion | Procede et dispositif de calibration d'un capteur d'images utilisant un systeme temps reel de suivi d'objets dans une sequence d'images |
US20110298830A1 (en) * | 2010-06-07 | 2011-12-08 | Palm, Inc. | Single Point Input Variable Zoom |
JP5567942B2 (ja) * | 2010-08-30 | 2014-08-06 | Kddi株式会社 | 自由視点映像生成装置、自由視点映像システムにおいて広告を表示する方法及びプログラム |
JP5678643B2 (ja) * | 2010-12-21 | 2015-03-04 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
KR20160084502A (ko) | 2011-03-29 | 2016-07-13 | 퀄컴 인코포레이티드 | 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들 |
US9262950B2 (en) * | 2011-04-20 | 2016-02-16 | Microsoft Technology Licensing, Llc | Augmented reality extrapolation techniques |
US10019962B2 (en) * | 2011-08-17 | 2018-07-10 | Microsoft Technology Licensing, Llc | Context adaptive user interface for augmented reality display |
US8933928B2 (en) * | 2011-11-22 | 2015-01-13 | Seiko Epson Corporation | Multiview face content creation |
US9210413B2 (en) | 2012-05-15 | 2015-12-08 | Imagine Mobile Augmented Reality Ltd | System worn by a moving user for fully augmenting reality by anchoring virtual objects |
US9367914B2 (en) * | 2012-05-16 | 2016-06-14 | The Johns Hopkins University | Imaging system and method for use of same to determine metric scale of imaged bodily anatomy |
EP4193906A1 (en) * | 2013-03-11 | 2023-06-14 | Magic Leap, Inc. | Method for augmented and virtual reality |
US10733798B2 (en) * | 2013-03-14 | 2020-08-04 | Qualcomm Incorporated | In situ creation of planar natural feature targets |
US9581431B1 (en) * | 2014-03-18 | 2017-02-28 | Jeffrey M. Sieracki | Method and system for parallactically synced acquisition of images about common target |
US9888215B2 (en) * | 2013-04-26 | 2018-02-06 | University Of Washington | Indoor scene capture system |
US9934252B2 (en) * | 2014-03-10 | 2018-04-03 | Microsoft Technology Licensing, Llc | Metadata-based photo and/or video animation |
GB201404990D0 (en) * | 2014-03-20 | 2014-05-07 | Appeartome Ltd | Augmented reality apparatus and method |
US10152825B2 (en) | 2015-10-16 | 2018-12-11 | Fyusion, Inc. | Augmenting multi-view image data with synthetic objects using IMU and image data |
-
2016
- 2016-01-28 US US15/009,807 patent/US10152825B2/en active Active
- 2016-09-28 DE DE112016004731.2T patent/DE112016004731T5/de active Pending
- 2016-09-28 JP JP2018518729A patent/JP6914926B2/ja active Active
- 2016-09-28 WO PCT/US2016/054218 patent/WO2017065975A1/en active Application Filing
-
2018
- 2018-11-05 US US16/181,227 patent/US10504293B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10504293B2 (en) | 2019-12-10 |
JP2018537758A (ja) | 2018-12-20 |
WO2017065975A1 (en) | 2017-04-20 |
US10152825B2 (en) | 2018-12-11 |
US20170109930A1 (en) | 2017-04-20 |
DE112016004731T5 (de) | 2018-10-04 |
US20190073834A1 (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6914926B2 (ja) | Imuおよび画像データを使用した合成物体を含む多視点画像データの拡張 | |
US10540773B2 (en) | System and method for infinite smoothing of image sequences | |
US11195314B2 (en) | Artificially rendering images using viewpoint interpolation and extrapolation | |
US11636637B2 (en) | Artificially rendering images using viewpoint interpolation and extrapolation | |
US10719733B2 (en) | Artificially rendering images using interpolation of tracked control points | |
US10430995B2 (en) | System and method for infinite synthetic image generation from multi-directional structured image array | |
US10818029B2 (en) | Multi-directional structured image array capture on a 2D graph | |
US10650574B2 (en) | Generating stereoscopic pairs of images from a single lens camera | |
US10726593B2 (en) | Artificially rendering images using viewpoint interpolation and extrapolation | |
US10586378B2 (en) | Stabilizing image sequences based on camera rotation and focal length parameters | |
KR20070086037A (ko) | 장면 간 전환 방법 | |
Thatte et al. | Depth augmented stereo panorama for cinematic virtual reality with head-motion parallax | |
CN108028904B (zh) | 移动设备上光场增强现实/虚拟现实的方法和*** | |
US20190088027A1 (en) | Method for developing augmented reality experiences in low computer power systems and devices | |
JP6306996B2 (ja) | 映像データ処理方法、映像データ処理装置及び映像データ処理プログラム | |
JP2014071870A (ja) | 仮想視点画像合成装置、仮想視点画像合成方法及び仮想視点画像合成プログラム | |
WO2017011700A1 (en) | Artificially rendering images using viewpoint interpolation and extrapolation | |
KR20150090540A (ko) | 홀로그램 생성 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201105 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210506 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6914926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |