JP6729515B2 - 楽曲解析方法、楽曲解析装置およびプログラム - Google Patents
楽曲解析方法、楽曲解析装置およびプログラム Download PDFInfo
- Publication number
- JP6729515B2 JP6729515B2 JP2017140368A JP2017140368A JP6729515B2 JP 6729515 B2 JP6729515 B2 JP 6729515B2 JP 2017140368 A JP2017140368 A JP 2017140368A JP 2017140368 A JP2017140368 A JP 2017140368A JP 6729515 B2 JP6729515 B2 JP 6729515B2
- Authority
- JP
- Japan
- Prior art keywords
- points
- selection
- point
- candidate
- music
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 20
- 238000000034 method Methods 0.000 claims description 110
- 230000008569 process Effects 0.000 claims description 98
- 238000012545 processing Methods 0.000 claims description 64
- 230000006870 function Effects 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 description 19
- 230000014509 gene expression Effects 0.000 description 16
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000008901 benefit Effects 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005309 stochastic process Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10G—REPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
- G10G3/00—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument
- G10G3/04—Recording music in notation form, e.g. recording the mechanical operation of a musical instrument using electrical means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/061—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
Description
本発明の他の態様に係るプログラムは、楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定する第1処理部、前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の時点とを含む複数の候補点の一部を複数の選択点として選択する候補点選択部、前記複数の選択点の各々について、当該選択点が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定する特定点推定部としてコンピュータを機能させる。
以上に例示した各態様は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<態様1>
本発明の好適な態様(態様1)に係る楽曲解析方法は、コンピュータ(単体のコンピュータまたは複数のコンピュータで構成されるコンピュータシステム)が、楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定し、前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の分割点とを含む複数の候補点の一部を複数の選択点として選択し、前記複数の選択点の各々について、当該選択点が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定する。以上の態様では、第1処理により推定された複数の暫定点を含む複数の候補点の一部が複数の選択点として選択され、複数の選択点の各々について第2処理により算定された確率に応じて楽曲内の複数の特定点が推定される。したがって、楽曲の全体にわたり第2処理を実行する構成と比較して、第2処理の演算量を削減することが可能である。
<態様2>
態様1の好適例(態様2)において、前記第2処理は、当該選択点が特定点である確率を、前記音響信号の当該選択点に対応する特徴量から算定する処理である。以上の態様によれば、音響信号における各選択点に対応する特徴量から、当該選択点が特定点である確率が算定されるから、楽曲内の特定点を適切に推定することが可能である。
<態様3>
態様1または態様2の好適例(態様3)において、前記複数の選択点の選択では、前記複数の選択点の集合と、前記複数の候補点のうち前記選択点として選択されない複数の非選択点の集合との間における劣モジュラ性の評価指標が最大化されるように、前記複数の候補点から前記複数の選択点を選択する。以上の態様では、劣モジュラ性の評価指標が最大化されるように複数の選択点が選択される。したがって、例えば貪欲法等の手法により適切な選択点を効率的に選択できるという利点がある。
<態様4>
態様3の好適例(態様4)において、前記複数の非選択点の各々について、前記第2処理により前記各選択点について算定された確率に応じて、当該非選択点が特定点である確率を算定し、前記複数の特定点の推定においては、前記各選択点について算定された確率と前記各非選択点について算定された確率とに応じて前記楽曲内の複数の特定点を推定する。以上の態様では、非選択点が特定点である確率が、選択点の確率に応じて算定され、選択点と非選択点とを含む複数の暫定点の各々が特定点である確率に応じて、楽曲内の特定点が推定される。したがって、楽曲内の複数の特定点を高精度に推定できるという利点がある。
<態様5>
態様1から態様4の何れかの好適例(態様5)において、前記第1処理は、前記第2処理と比較して演算量が少ない。以上の態様では、第1処理は第2処理と比較して演算量が少ないから、楽曲の全体にわたり第2処理を実行する構成と比較して、楽曲内の特定点の推定に必要な演算量が低減される。
態様1から態様5の何れかの好適例(態様6)において、第2処理は第1処理と比較して特定点の推定精度が高い。以上の態様では、第1処理のみで楽曲内の特定点を推定する構成と比較して特定点を高精度に推定できる。態様5および態様6の双方を具備する構成によれば、演算量を削減しながら特定点を高精度に推定できるという利点がある。
<態様7>
本発明の好適な態様(態様7)に係るプログラムは、楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定する第1処理部、前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の時点とを含む複数の候補点の一部を複数の選択点として選択する候補点選択部、前記複数の選択点の各々について、当該選択点が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定する特定点推定部としてコンピュータを機能させる。以上の態様では、第1処理により推定された複数の暫定点を含む複数の候補点の一部が複数の選択点として選択され、複数の選択点の各々について第2処理により算定された確率に応じて楽曲内の複数の特定点が推定される。したがって、楽曲の全体にわたり第2処理を実行する構成と比較して、第2処理の演算量を削減することが可能である。
Claims (7)
- 楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定し、
前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の分割点とを含む複数の候補点の一部を複数の選択点として選択し、
前記複数の選択点の各々が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定し、
前記複数の選択点の選択においては、前記複数の選択点の集合と、前記複数の候補点のうち前記選択点として選択されない複数の非選択点の集合との間における劣モジュラ性の評価指標が最大化されるように、前記複数の候補点から前記複数の選択点を選択する
コンピュータにより実現される楽曲解析方法。 - 前記第2処理は、前記各選択点が特定点である確率を、前記音響信号の当該選択点に対応する特徴量から算定する処理である
請求項1の楽曲解析方法。 - 前記複数の非選択点の各々について、前記第2処理により前記各選択点について算定された確率に応じて、当該非選択点が特定点である確率を算定し、
前記複数の特定点の推定においては、前記各選択点について算定された確率と前記各非選択点について算定された確率とに応じて前記楽曲内の複数の特定点を推定する
請求項1または請求項2の楽曲解析方法。 - 前記第1処理は、前記第2処理と比較して演算量が少ない
請求項1から請求項3の何れかの楽曲解析方法。 - 前記第2処理は、前記第1処理と比較して特定点の推定精度が高い
請求項1から請求項4の何れかの楽曲解析方法。 - 楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定する第1処理部と、
前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の時点とを含む複数の候補点の一部を複数の選択点として選択する候補点選択部と、
前記複数の選択点の各々が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定する特定点推定部とを具備し、
前記候補点選択部は、前記複数の選択点の集合と、前記複数の候補点のうち前記選択点として選択されない複数の非選択点の集合との間における劣モジュラ性の評価指標が最大化されるように、前記複数の候補点から前記複数の選択点を選択する
楽曲解析装置。 - 楽曲内で音楽的な意味をもつ特定点の候補となる複数の暫定点を当該楽曲の音響信号から第1処理により推定する第1処理部、
前記複数の暫定点と前記複数の暫定点の間隔を分割する複数の時点とを含む複数の候補点の一部を複数の選択点として選択する候補点選択部、および、
前記複数の選択点の各々が特定点である確率を、前記第1処理とは異なる第2処理により算定した結果から、前記楽曲内の複数の特定点を推定する特定点推定部
としてコンピュータを機能させるプログラムであって、
前記候補点選択部は、前記複数の選択点の集合と、前記複数の候補点のうち前記選択点として選択されない複数の非選択点の集合との間における劣モジュラ性の評価指標が最大化されるように、前記複数の候補点から前記複数の選択点を選択する
プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017140368A JP6729515B2 (ja) | 2017-07-19 | 2017-07-19 | 楽曲解析方法、楽曲解析装置およびプログラム |
PCT/JP2018/026002 WO2019017242A1 (ja) | 2017-07-19 | 2018-07-10 | 楽曲解析方法、楽曲解析装置およびプログラム |
US16/743,909 US11328699B2 (en) | 2017-07-19 | 2020-01-15 | Musical analysis method, music analysis device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017140368A JP6729515B2 (ja) | 2017-07-19 | 2017-07-19 | 楽曲解析方法、楽曲解析装置およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019020631A JP2019020631A (ja) | 2019-02-07 |
JP2019020631A5 JP2019020631A5 (ja) | 2020-04-02 |
JP6729515B2 true JP6729515B2 (ja) | 2020-07-22 |
Family
ID=65015942
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017140368A Active JP6729515B2 (ja) | 2017-07-19 | 2017-07-19 | 楽曲解析方法、楽曲解析装置およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11328699B2 (ja) |
JP (1) | JP6729515B2 (ja) |
WO (1) | WO2019017242A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7105880B2 (ja) * | 2018-05-24 | 2022-07-25 | ローランド株式会社 | ビート音発生タイミング生成装置 |
US11024288B2 (en) * | 2018-09-04 | 2021-06-01 | Gracenote, Inc. | Methods and apparatus to segment audio and determine audio segment similarities |
JP7318253B2 (ja) | 2019-03-22 | 2023-08-01 | ヤマハ株式会社 | 楽曲解析方法、楽曲解析装置およびプログラム |
WO2022181477A1 (ja) * | 2021-02-25 | 2022-09-01 | ヤマハ株式会社 | 音響解析方法、音響解析システムおよびプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4940588B2 (ja) | 2005-07-27 | 2012-05-30 | ソニー株式会社 | ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法 |
JP5625235B2 (ja) * | 2008-11-21 | 2014-11-19 | ソニー株式会社 | 情報処理装置、音声解析方法、及びプログラム |
US8478012B2 (en) * | 2009-09-14 | 2013-07-02 | General Electric Company | Methods, apparatus and articles of manufacture to process cardiac images to detect heart motion abnormalities |
JP6179140B2 (ja) | 2013-03-14 | 2017-08-16 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
JP6123995B2 (ja) * | 2013-03-14 | 2017-05-10 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
CN104217729A (zh) * | 2013-05-31 | 2014-12-17 | 杜比实验室特许公司 | 音频处理方法和音频处理装置以及训练方法 |
JP2015079151A (ja) * | 2013-10-17 | 2015-04-23 | パイオニア株式会社 | 楽曲判別装置、楽曲判別装置の判別方法、プログラム |
JP6252147B2 (ja) * | 2013-12-09 | 2017-12-27 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
JP6372072B2 (ja) * | 2013-12-09 | 2018-08-15 | ヤマハ株式会社 | 音響信号分析装置、音響信号分析方法、及び音響信号分析プログラム |
JP6295794B2 (ja) * | 2014-04-09 | 2018-03-20 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
US20160086086A1 (en) * | 2014-09-18 | 2016-03-24 | Victor Ferdinand Gabillon | Multi-media content-recommender system that learns how to elicit user preferences |
WO2017178598A1 (en) * | 2016-04-13 | 2017-10-19 | Universität Hamburg | Cluster analysis based on tangles in abstract separations systems |
US10713703B2 (en) * | 2016-11-30 | 2020-07-14 | Apple Inc. | Diversity in media item recommendations |
CN106875406B (zh) * | 2017-01-24 | 2020-04-14 | 北京航空航天大学 | 图像引导的视频语义对象分割方法及装置 |
US11055317B2 (en) * | 2017-06-01 | 2021-07-06 | Adobe Inc. | Methods and systems for determining and outputting correlations between metrics in a web analytic dataset |
-
2017
- 2017-07-19 JP JP2017140368A patent/JP6729515B2/ja active Active
-
2018
- 2018-07-10 WO PCT/JP2018/026002 patent/WO2019017242A1/ja active Application Filing
-
2020
- 2020-01-15 US US16/743,909 patent/US11328699B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019017242A1 (ja) | 2019-01-24 |
JP2019020631A (ja) | 2019-02-07 |
US11328699B2 (en) | 2022-05-10 |
US20200152162A1 (en) | 2020-05-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6729515B2 (ja) | 楽曲解析方法、楽曲解析装置およびプログラム | |
JP6017687B2 (ja) | オーディオ信号分析 | |
JP4640407B2 (ja) | 信号処理装置、信号処理方法及びプログラム | |
US20150094835A1 (en) | Audio analysis apparatus | |
Stark et al. | Real-time beat-synchronous analysis of musical audio | |
US9646592B2 (en) | Audio signal analysis | |
US10586519B2 (en) | Chord estimation method and chord estimation apparatus | |
Degara et al. | Onset event decoding exploiting the rhythmic structure of polyphonic music | |
GB2533654A (en) | Analysing audio data | |
JP6392450B2 (ja) | マッチング装置、判定装置、これらの方法、プログラム及び記録媒体 | |
JP7337169B2 (ja) | オーディオクリップのマッチング方法及びその装置、コンピュータプログラム並びに電子機器 | |
CN104143339B (zh) | 音乐信号处理设备和方法 | |
JP2017090848A (ja) | 楽曲解析装置および楽曲解析方法 | |
CN113196381B (zh) | 音响解析方法以及音响解析装置 | |
US11837205B2 (en) | Musical analysis method and music analysis device | |
CN113223485B (zh) | 节拍检测模型的训练方法、节拍检测方法及装置 | |
CN109584902A (zh) | 一种音乐节奏确定方法、装置、设备及存储介质 | |
JP7243147B2 (ja) | コード推定方法、コード推定装置およびプログラム | |
JP2019028107A (ja) | 演奏解析方法およびプログラム | |
US20230351988A1 (en) | Method for identifying a song | |
Cantri et al. | Cumulative Scores Based for Real-Time Music Beat Detection System | |
JP5262875B2 (ja) | 追従性評価システム,カラオケシステムおよびプログラム | |
JP7176114B2 (ja) | 楽曲解析装置、プログラムおよび楽曲解析方法 | |
EP4270374A1 (en) | Method for tempo adaptive backing track | |
JP2010085664A (ja) | 追従性評価システム,カラオケシステムおよびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200218 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6729515 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |