JP7177631B2 - 音響シーン再構成装置、音響シーン再構成方法、およびプログラム - Google Patents
音響シーン再構成装置、音響シーン再構成方法、およびプログラム Download PDFInfo
- Publication number
- JP7177631B2 JP7177631B2 JP2018157166A JP2018157166A JP7177631B2 JP 7177631 B2 JP7177631 B2 JP 7177631B2 JP 2018157166 A JP2018157166 A JP 2018157166A JP 2018157166 A JP2018157166 A JP 2018157166A JP 7177631 B2 JP7177631 B2 JP 7177631B2
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- unit
- sound
- bird
- separation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000000926 separation method Methods 0.000 claims description 138
- 238000012545 processing Methods 0.000 claims description 131
- 230000004807 localization Effects 0.000 claims description 122
- 238000012800 visualization Methods 0.000 claims description 74
- 230000005236 sound signal Effects 0.000 claims description 59
- 238000004458 analytical method Methods 0.000 claims description 55
- 238000003491 array Methods 0.000 claims description 22
- 238000010586 diagram Methods 0.000 description 47
- 241000271566 Aves Species 0.000 description 21
- 238000004891 communication Methods 0.000 description 16
- 238000000605 extraction Methods 0.000 description 8
- 230000002194 synthesizing effect Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000011435 rock Substances 0.000 description 2
- 230000001932 seasonal effect Effects 0.000 description 2
- 241001504455 Horornis diphone Species 0.000 description 1
- 241000269800 Percidae Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/40—Visual indication of stereophonic sound image
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K45/00—Other aviculture appliances, e.g. devices for determining whether a bird is about to lay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/03—Application of parametric coding in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Stereophonic System (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
上述した(3)によれば、複数のマイクアレイで収音され分離された分離音のうち、マイクアレイと音源の距離が近い分離音を選択するようにノイズの少ない明瞭な音声信号を分離信号に用いることができる。
上述した(5)によれば、表示させるVR画像を利用者または操作者が簡便に操作することができる。
[音響シーン再構成装置1の構成]
図1は、本実施形態に係る音響シーン再構成装置1の構成例を示すブロック図である。図1に示すように音響シーン再構成装置1は、マイクアレイ10(10A,10B,10C,10D)、取得部20(20A,20B,20C,20D)、音源定位分離部30(30A,30B,30C,30D)、鳥種別識別部40(40A,40B,40C,40D)、解析処理部50、可視化処理部60、およびVRゴーグル70を備える。
次に、マイクアレイ10の構成例を説明する。
図2は、本実施形態に係るマイクアレイ10の構成例を示す図である。図2に示すようにマイクアレイ10それぞれは、M(Mは、2以上の整数、例えば8)個のマイクロホン101N(Nは2以上の整数)A,101NB,・・・,101NM、サンプリング信号生成部102N、AD変換器103NA,103NB,・・・,103NM、記憶部104N、出力データ生成部105N、および出力部106Nを備えている。
サンプリング信号生成部102Nは、AD変換器103NA,103NB,・・・,103NMが使用するサンプリング信号を生成し、生成したサンプリング信号をAD変換器103NA,103NB,・・・,103NMに出力する。サンプリング信号の周波数は、例えば16kHzである。
記憶部104Nは、マイクアレイ番号を記憶する。
出力部106Nは、出力データ生成部105Nが出力するマイクアレイ番号が付与されたMチャネルの音声信号を、取得部20Nに出力する。なお、マイクアレイ10が出力するデジタル信号のファーマットについては後述する。なお、出力部106Nが出力するデータには、後述するように、収録日時、収録開始時刻等の情報が含まれていてもよい。
次に、音源定位分離部30の構成と各部の処理について説明する。
音源定位分離部30N(NはA~D)は、音源定位部301N、音源分離部302N、特徴量抽出部303N、第1出力部304N、および第2出力部305Nを備える。
なお、音源定位分離部30は、発話区間検出部(不図示)を備えていてもよい。音源定位分離部30が発話区間検出部を備える場合、発話区間検出部は、音源定位部301Nが出力する音源方向情報と、取得部20が出力するMチャネルの音声信号に基づいて発話区間(発話の開始時刻と発話の終了時刻)を検出するようにしてもよい。そして、音源分離部302Nは、発話区間検出部が検出した発話区間(発話の開始時刻と発話の終了時刻)も用いて、音源を分離するようにしてもよい。なお、音源分離部302Nは、音声信号の大きさが所定値以上の区間を発話区間とみなすようにしてもよい。
次に、鳥種別識別部40の構成と各部の処理について説明する。
図3は、本実施形態に係る鳥種別識別部40の構成例を示すブロック図である。図3に示すように鳥種別識別部40は、取得部401N、音響モデル記憶部402N、識別部403N、シリアライズ部404N、および出力部405Nを備える。
次に、解析処理部50の構成と各部の処理について説明する。
図4は、本実施形態に係る解析処理部50の構成例を示すブロック図である。図4に示すように解析処理部50は、取得部501A,501B,501C,501D、デシリアライズ部502、取得部503A,503B,503C,503D、データ分離部504、鳥位置推定部505、位置・種別対応付け部506、シリアライズ部507、出力部508、分離音決定部509、分離音選択・位置推定音源ID付与部510、シリアライズ部511、および出力部512を備える。
取得部501Bは、鳥種別識別部40Bが出力するシリアル化された音源IDと鳥種別と鳴き方を取得し、取得したシリアル化された音源IDと鳥種別と鳴き方をデシリアライズ部502に出力する。
取得部501Cは、鳥種別識別部40Cが出力するシリアル化された音源IDと鳥種別と鳴き方を取得し、取得したシリアル化された音源IDと鳥種別と鳴き方をデシリアライズ部502に出力する。
取得部501Dは、鳥種別識別部40Dが出力するシリアル化された音源IDと鳥種別と鳴き方を取得し、取得したシリアル化された音源IDと鳥種別と鳴き方をデシリアライズ部502に出力する。
なお、取得部501A,501B,501Cおよび501Dそれぞれが取得するシリアル化されたデータには、音源定位分離部30が定位できた全ての音声(分離音)毎に鳥種別識別部40A,40B,40C,40Dによって識別されたデータ(音源IDと鳥種別と鳴き方)が含まれている。
取得部503Bは、音源定位分離部30Bが出力する音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音を取得し、取得した音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音をデータ分離部504に出力する。
取得部503Cは、音源定位分離部30Cが出力する音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音を取得し、取得した音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音をデータ分離部504に出力する。
取得部503Dは、音源定位分離部30Dが出力する音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音を取得し、取得した音源IDとマイクロホン番号が付与された音源方位角・仰角と分離音をデータ分離部504に出力する。
なお、取得部503A,503B,503Cおよび503Dそれぞれが取得するデータ(マイクロホン番号が付与された音源方位角・仰角と分離音)には、音源定位分離部30が定位できた全ての音声(分離音)毎のデータ(マイクロホン番号が付与された音源方位角・仰角と分離音)が含まれている。
次に、可視化処理部60の構成と各部の処理について説明する。
図5は、本実施形態に係る可視化処理部60の構成例を示す図である。図5に示すように可視化処理部60は、取得部601、デシリアライズ部602、取得部603、デシリアライズ部604、座標対応付け部605、画像モデル記憶部606、画像合成部607、音声合成部608、通信部609、操作部610、および制御部611を備える。
次に、VRゴーグル70の構成と各部の処理について説明する。
図6は、本実施形態に係るVRゴーグル70の構成例を示す図である。図6に示すようにVRゴーグル70は、取得部701、画像再生部702、取得部703、音声再生部704、センサ705、通信部706、および操作部707を備える。
次に、マイクアレイの配置例を説明する。
図7は、マイクアレイ10の配置例を示す図である。図7において、符号T1,T2,T3,H1それぞれがマイクアレイ10(図1)である。
また、符号g11が示す画像は、実空間におけるマイクアレイT1,T2,T3,H1の配置を示す図である。また、符号g12は、xy平面におけるマイクアレイ設置座標を示す図である。なお、図7において、水平方向・北向きにx軸、垂直方向・西向きにy軸、鉛直方向上向きにz軸を取る。また、原点はT1とする。高さzについて、x,yにかかわらず常にT1の位置の地表面を基準(z=0)とする。また、北をxy平面における方位の0度方向とする。また、各マイクアレイの地上高さは1.3mである。
マイクアレイT3,H1,T2,T1それぞれをマイクアレイNo.1,2,3,4とする。図8に示す例において、マイクアレイT1(マイクアレイNo.4)を基準としている。この場合、例えば、マイクアレイT3(マイクアレイNo.1)の座標は、xが-7.3799(m)、yが7.765218(m)、zが3.01621(m)である。
次に、分離音の決定ルールについて説明する。
図9は、マイクアレイと音源位置と選択される分離音の関係を示す図である。図9の座標、マイクアレイの位置は、図7と同じである。符号g21は、音源位置を示している。符号21の音源位置の座標(x,y,z)は、(-10,10,2)であるとする。この場合、マイクアレイT1,T2,T3,H1のうち、音源との距離が最も近いマイクアレイT3が収音した分離音を分離音決定部509が選択する。
図10に示す例では、マイクアレイNo.1(T3)が音源ID=10,11および12を定位し、マイクアレイNo.2(H1)が音源ID=5および6を定位し、マイクアレイNo.3(T2)が音源ID=12,13および14を定位し、マイクアレイNo.4(T1)が音源ID=20および21を定位した例である。
解析処理部50の鳥位置推定部505は、各音源ID=10,5および12の音源位置(z1,y1,z1)を推定する。同じ区間で検出されたため、これらの音源は1つの音源であると推定される。
解析処理部50の分離音選択・位置推定音源ID付与部510は、分離音に決定した音源ID=6に対して位置推定音源ID=6を付与する。
時刻t5~t6の期間、同様の処理によって、分離音決定部509が音源位置と最も近いマイクアレイNo.4(T1)の音源ID=21を分離音に決定し、分離音選択・位置推定音源ID付与部510が分離音に決定した音源ID=21に対して位置推定音源ID=8を付与する。
次に、処理手順例と処理タイミング例を説明する。
図11は、入力音声信号と発話区間を示す図である。図11において、横軸は時刻であり、縦軸は音声信号の大きさである。また、音響シーン再構成装置1に入力される入力音声信号は、野鳥の鳴き声である。以下の説明において、時刻t11~t12の区間を野鳥の発話区間として検出できたとする。
次に、VRゴーグル70の画像再生部702(図6)に表示される画像例を説明する。
図13と図14は、本実施形態に係るVRゴーグル70の画像再生部702に表示される画像例を示す図である。
図13と図14において、符号g51はVR空間のVR画像であり、符号g52は植物オブジェクトの画像であり、符号g53は鳥オブジェクトの画像であり、符号g54は鳥の鳴き方を表す画像である。なお、符号g54の画像において、「?」の画像は、鳴き方を判別できなかったことを示している。
なお、図13は野鳥が木に止まっている画像の例である。また、図14は野鳥が飛んでいる画像の例である。なお、鳥種別識別部40と解析処理部50は、鳥の声の識別と音源定位によって位置と鳥の種類を推定する。そして、解析処理部50は、推定した次の推定タイミングの推定結果と照らし合わせて、近いところに同じ種類の鳥を同じ鳥であるとします。このように、解析処理部50は、鳥が止まっているのか動いているのかを識別する。そして、解析処理部50は、鳥が動いている(飛んでいる)場合、例えば鳥が羽ばたいている画像を可視化情報として生成する。また、解析処理部50は、鳥が止まっている場合、例えば鳥が木にとまっている画像を可視化情報として生成する。
図15において、符号g61Aの画像は植物オブジェクトが表示状態の画像であり、符号g61Bの画像は植物オブジェクトが非表示状態の画像である。符号g62はVR空間のVR画像であり、符号g63は植物オブジェクトの画像である。音響シーン再構成装置1では、このように植物オブジェクトの表示と非表示とを切り替えることができる。切替は、VRゴーグル70が有する操作部707(図6)または、可視化処理部60が有する操作部610(図5)をVRゴーグル70の利用者または音響シーン再構成装置1の操作者が切り替えるようにしてもよい。
図16において、符号g71Aの画像は鳥種別(鳥の名前)が表示状態の画像であり、符号g71Bの画像は鳥種別(鳥の名前)が非表示状態の画像である。符号g72は野鳥の3D VR画像であり、符号g73は鳥種別(鳥の名前)の画像であり、符号g74が鳥の鳴き方を表す画像である。なお、符号g74のハート印の画像は、鳴き方が「さえずり」であることを表している。このように、本実施形態では、鳴き方に応じて、鳥の3D VR画像の近くに、鳴き方を表す画像も表示させるようにしてもよい。これにより、利用者は、鳥の鳴き方の種類を知ることができる。音響シーン再構成装置1では、このように鳥種別(鳥の名前)の表示と非表示とを切り替えることができる。切替は、VRゴーグル70が有する操作部707(図6)または、可視化処理部60が有する操作部610(図5)をVRゴーグル70の利用者または音響シーン再構成装置1の操作者が切り替えるようにしてもよい。
なお、画像合成部607は、鳥座標に基づいて、鳥の3D VR画像の近くに、鳥の3D VD画像に重ならないように鳥種別(鳥の名前)の画像を合成する。また、表示位置は、鳥オブジェクト(鳥の3D VR画像)の例えば下である。なお、鳥種別(鳥の名前)は、画像モデル記憶部606が記憶している。
図17において、符号g81Aの画像は野鳥の画像を実サイズで表示した状態の画像であり、符号g81Bの画像は野鳥の画像を拡大して表示した状態の画像である。符号g82Aは実サイズの3D VR画像であり、符号g82Bは5倍に拡大表した3D VR画像である。音響シーン再構成装置1では、このように鳥の表示の大きさを切り替えることができる。切替は、VRゴーグル70が有する操作部707(図6)または、可視化処理部60が有する操作部610(図5)をVRゴーグル70の利用者または音響シーン再構成装置1の操作者が切り替えるようにしてもよい。
これにより、VR空間上の野鳥の視認性を高めることができる。なお拡大サイズは、例えば最大5倍程度(野鳥の実サイズの大きさに依る)である。
これにより、利用者と野鳥との間にオブジェクトがあって野鳥の画像が隠れて見えない可能性がある場合でも、野鳥の画像を表示させることができる。
次に、マイクアレイ10が出力するデータ構成例を説明する。
図18は、本実施形態に係るマイクアレイ10が出力するデータ構成例を示す図である。図18に示すようにマイクアレイ10が出力するデータの要素には、フォーマットバージョン、収録開始日、収録開始時刻、収録場所、マイクアレイ(マイクアレイ)機種名、マイクアレイ毎の情報(マイクアレイ毎の通し番号(マイクアレイ番号)、名称、設置位置)、収録音声データのサンプリング周波数、収録音声データのビット数、イベントデータ更新頻度等が含まれている。収録開始日は、年月日であってもよく季節であってもよい。イベントデータ更新頻度とは、図12においてステップS1、S2で送信する間隔(フレーム時間)である。また、データは、例えばマークアップ言語の一種であるXML(Extensible Markup Language)で記述する。
なお、図18に示したデータの構成要素は一例であり、これに限らない。
次に、音源定位分離部30が出力するイベントデータ構成例を説明する。
図19は、本実施形態に係る音源定位分離部30が出力するイベントデータ構成例を示す図である。図19に示すようにイベントデータには、フレーム番号、鳥毎の情報(位置推定音源ID、鳥種別、鳥の鳴き方、鳥座標(x、y、z)、鳥ロール角(deg)、鳥ピッチ角(deg)、鳥ヨー角(deg)、鳥鳴き声の有り無し、鳥の羽ばたき有り無し)等が含まれている。フレーム数は、先頭からのフレーム数である。鳥の情報は、鳥毎に記述する。鳥ロール角は、左右の傾きであり、0で水平、範囲が-360~0~360、時計回りを正とする。鳥ピッチ角は、前後の傾きであり、0で水平、範囲が-360~0~360、時計回りを正とする。鳥ヨー角は、VR空間を上から見た鳥の回転角であり、0で北向き、範囲が-360~0~360、時計回りを正とする。鳴き声無しは、鳥に対応する分離音が無い場合である。羽ばたき有りは、羽根を動かすアニメーションを表示する。羽ばたき無しは、羽根を動かすアニメーションを表示しない。なお、鳥ロール角、鳥ピッチ角、鳥ヨー角は、例えば鳥が飛んでいると判断された場合、飛んでいる方向に頭を向ける角度に設定する。
なお、鳥の羽ばたき有り無しは、例えば鳥の鳴き方が、例えば谷渡りの場合に飛びながら鳴いていると判断して羽ばたき有りと音源定位分離部30が判断するようにしてもよい。
また、データは、例えばマークアップ言語の一種であるXML(Extensible Markup Language)で記述する。なお、鳥種別識別部40が出力するデータは、JSON(JavaScript(登録商標) Object Notation)形式であってもよい。
次に、鳥種別のデータ例を説明する。
図20は、本実施形態に係る鳥種別のデータ例を示す図である。
鳥種別識別部40の音響モデル記憶部402Nは、図20に示すような鳥種別を記憶する。音響モデル記憶部402Nは、例えば、番号と野鳥名(日本名)と野鳥名(英名)を対応付けて記憶する。例えば、音響モデル記憶部402Nは、番号が1に、野鳥名(日本名)をウグイスと、野鳥名(英名)がJapanese Bush Warblerを対応付けて記憶する。鳥種別識別部40が出力する鳥種別は、番号と野鳥名(日本名)と野鳥名(英名)のうち少なくとも1つであればよい。
また、データは、例えばマークアップ言語の一種であるXML(Extensible Markup Language)で記述する。なお、鳥種別識別部40が出力するデータは、JSON(JavaScript(登録商標) Object Notation)形式であってもよい。
次に、鳥の鳴き方のデータ例を説明する。
図21は、本実施形態に係る鳥の鳴き方のデータ例を示す図である。
鳥種別識別部40の音響モデル記憶部402Nは、図21に示すように鳥の鳴き方を記憶する。音響モデル記憶部402Nは、番号と鳴き方(日本名)と鳴き方(英名)を対応付けて記憶する。例えば、音響モデル記憶部402Nは、番号が1に、鳴き方(日本名)を地鳴きと、鳴き方(英名)がCallを対応付けて記憶する。鳥種別識別部40が出力する鳴き方は、番号と鳴き方(日本名)と鳴き方(英名)のうち少なくとも1つであればよい。
また、データは、例えばマークアップ言語の一種であるXML(Extensible Markup Language)で記述する。
次に、オブジェクトの表示と非表示等の設定時に表示装置62(図5)に表示される画像例を説明する。
図22は、本実施形態に係るオブジェクトの表示と非表示等の設定時に表示装置62に表示される画像例を示す図である。
図22において、画像g101は、VRゴーグル70に表示される画像である、画像g111は、上述した植物オブジェクトの表示と非表示を切り替える操作ボタンの画像である。画像g112は、上述した鳥種別の表示と非表示を切り替える操作ボタンの画像である。画像g113は、設定のホーム画面(初期画面)に戻すための操作ボタンの画像である。また、画像g121は、音響シーン再構成装置1が、認識した鳥の種別と鳴き声の結果の表示画像である。画像g122は、VR画像(含む音声)の再生の操作画面の例である。
なお、図22に示した表示画像は一例であり、これに限らない。
次に、本実施形態の音響シーン再構成装置1の鳥種別識別部40によって、鳥の鳴き方、種別、ノイズを識別した結果例を説明する。
図23は、本実施形態に係る鳥種別識別部40によって、鳥の鳴き方、種別、ノイズを識別した結果例を示す図である。
図23において、横方向はフレームごとの認識結果を表し、縦方向はフレームごとの正解ラベルを表している。なお、検証は、5-分割交差検証(5-fold cross-validation)でおこなった。なお、車などのノイズ成分も音響モデル記憶部402Nが記憶している。図23に示すように、平均フレーム正解率は、81.52%であった。
なお、VR表示の場合、利用者は、例えば部屋の中を歩き回ったり、上を見上げたりすることで、VRゴーグル70に、3D VR画像が表示され、3D VR音声が再生される。これにより、利用者は、例えば森の中で野鳥を加増的に観察し、鳴き声を仮想的に体験することができる。
第1実施形態では、VRゴーグル70でVR画像(含む音声)を再生する例を説明したが、本実施形態では、VRゴーグル70でAR画像(含む音声)を再生する例を説明する。AR画像を再生することで、実時間で鳥のいる場所に鳥の種類や鳴き方を表示できる。
AR表示の場合、マイクアレイ10(図1)が収音した音声信号は、音源定位分離部30、鳥種別識別部40、解析処理部50、および可視化処理部60によってリアルタイムで処理される。
可視化処理部60は、CGで作成した鳥を例えばXMLデータに基づきアニメーション付きで表示さる3D VR画像を生成し、鳥の位置から3Dオーディオ化された鳴き声を再生させる3D VR音声を生成する。AR表示においても、例えば、鳥の上部に鳴き声の種類が表示され、下部に鳥の名前が表示される。
または、利用者は、可視化処理部60の制御部611に接続されるコントローラ(表示装置62)を使用して空間内を移動するようにしてもよい。
符号g202の領域は、地図上に現在地と方向、鳴いている野鳥が表示される領域である。これにより、利用者が向いている方向がリアルタイムに矢印に反映され、現在時間に発声している野鳥が表示される。
符号g260は、鳴き声の選択画像である。なお、選択可能な鳴き声の選択ボタンの画像が、例えば色を変えて表示される。符号g261は、鳴き声が「不明」の選択ボタンの画像である。符号g262は、鳴き声が「地鳴き」の選択ボタンの画像である。符号g263は、鳴き声が「さえずり」の選択ボタンの画像である。符号g264は、鳴き声が「谷渡り」の選択ボタンの画像である。符号g265は、鳴き声が「威嚇」の選択ボタンの画像である。符号g266は、鳴き声が「警戒声」の選択ボタンの画像である。符号g267は、鳴き声が「ドラミング」の選択ボタンの画像である。
符号g206は、植物オブジェクトの表示と非表示を切り替えるボタンの画像である。
符号g207は、鳥種別(名前)の表示と非表示を切り替えるボタンの画像である。
符号g208は、マイクアレイ10の表示と非表示を切り替えるボタンの画像である。なお、複数のマイクアレイ10が空間内に設置されている場合は、マイクアレイ10毎に表示を切り替えることができる。
符号g210は、野鳥の拡大表示を行うボタンの画像である。
符号g210は、符号g204のグラフ角度表示を切り替えるボタンの画像である。符号g210は、グラフ上において、各マイクアレイ10および利用者のそれぞれの位置を中心とした角度表示を切り替えるボタンである。
符号g211は、時間表示・表示切り替えボタンの画像である。時計部分をクリックすることで、実際に記録された時間(JST)とファイル再生時からの時間に切り替わる。
これにより、実施形態によれば、VRゴーグル70に表示させる3D VR画像を利用者または操作者が簡便に操作することができる。
図26は、畳み込みニューラルネットワークの処理例を示す図である。
図26に示すように、中間層は主に畳み込み層とプーリング層を交互に繰り返すことでデータの特徴を抽出し、最後に全結合層で認識を行う。ここでのプーリングとは、局所的に最大値や平均値をとる処理のことで、局所的なデータの不変性を獲得することを目的としている。
このような処理によって、鳥の鳴き声に分類する。
101NA,101NB,・・・,101NM…マイクロホン、102N…サンプリング信号生成部、103NA,103NB,・・・,103NM…AD変換器、104N…記憶部、105N…出力データ生成部、106N…出力部、
301N…音源定位部、302N…音源分離部、303N…特徴量抽出部、304N…第1出力部、305N…第2出力部、
401N…取得部、402N…音響モデル記憶部、403N…識別部、404N…シリアライズ部、405N…出力部、
501A,501B,501C,501D…取得部、502…デシリアライズ部、503A,503B,503C,503D…取得部、504…データ分離部、505…鳥位置推定部、506…位置・種別対応付け部、507…シリアライズ部、508…出力部、509…分離音決定部、510…分離音選択・位置推定音源ID付与部、511…シリアライズ部、512…出力部、
601…取得部、602…デシリアライズ部、603…取得部、604…デシリアライズ部、605…座標対応付け部、606…画像モデル記憶部、607…画像合成部、608…音声合成部、609…通信部、610…操作部610、611…制御部、
701…取得部、702…画像再生部、703…取得部、704…音声再生部、705…センサ、706…通信部706、707…操作部
Claims (7)
- 収音した音声信号から音源定位と音源分離を行う音源定位分離部と、
前記音声信号に含まれる音源の種類を識別する識別部と、
前記音源定位分離部が音源定位と音源分離を行った結果と、前記識別部が識別した結果とに基づいて前記音源の位置の推定を行い、前記音源の位置を推定した結果に基づいて分離音を選択し、前記音源の位置の推定した結果と前記音源による音声信号の種類とを対応付けて可視化情報を生成する解析処理部と、
前記可視化情報と前記分離音とを用いて、前記音源に対応する画像を推定された前記音源の位置に表示させる画像を生成し、推定された前記音源の位置に前記分離音を再生させる音声を生成する可視化処理部と、
を備える音響シーン再構成装置。 - 前記音源定位分離部は、
前記音源の音源方向を音源定位し、音源分離して前記分離音を分離し、音源定位した結果に基づいて定位した音源毎に前記音源の識別情報を付与し、定位した前記音源毎に識別情報を付与した音源識別情報と前記音源方向の情報と音源分離した前記分離音とを前記解析処理部に出力し、前記分離音から音響特徴量を抽出し、前記定位した音源毎に前記音源の識別情報を付与した前記音響特徴量を前記識別部に出力し、
前記識別部は、
前記音源定位分離部が出力する定位された前記音源毎に前記音源識別情報と前記音源方向の情報を取得し、取得した前記音源毎に前記音響特徴量に基づいて音源の種類を識別し、前記定位された音源毎に前記音源識別情報と識別した結果である識別結果と前記解析処理部に出力する、請求項1に記載の音響シーン再構成装置。 - 前記音声信号の収音は、M(Mは2以上の整数)個のマイクロホンを備えるマイクアレイによって行われ、前記マイクアレイはN(Nは2以上の整数)個であり、
前記音源定位分離部は、前記マイクアレイ毎に設けられ、第1の前記マイクアレイが収音したMチャネルの音声信号が第1の前記音源定位分離部に入力され、・・・、第Nの前記マイクアレイが収音したMチャネルの音声信号が第Nの前記音源定位分離部に入力され、
前記識別部は、前記音源定位分離部毎に設けられ、第1の前記音源定位分離部が第1の前記識別部に接続され、・・・、第Nの前記音源定位分離部が第Nの前記識別部に接続され、
前記解析処理部は、
第1~第Nの前記音源定位分離部それぞれが出力する定位された音源毎に識別情報が付与された音源識別情報と音源方向の情報と音源分離した前記分離音を取得し、取得した前記分離音ごとに前記分離音に対応する音源の位置を複数のマイクロホンの前記分離音に基づいて推定し、複数の前記音源定位分離部が同時に前記分離音を検出した場合、複数の前記分離音の中から前記分離音に最も距離が近い前記マイクアレイによる前記分離音を選択する、請求項1または請求項2に記載の音響シーン再構成装置。 - 前記音声信号は、鳥の鳴き声であり、
前記音声信号に含まれる音源の種類は、前記鳥の名前と前記鳥の鳴き方である、請求項1から請求項3のいずれか1項に記載の音響シーン再構成装置。 - 前記可視化処理部が生成す画像と音声の設定を行うコントローラを備え、
前記コントローラを操作することで、前記音声信号に含まれる音源の種類の表示と非表示を切り替える操作と、および前記音声信号に含まれる音源の種類の表示倍率を切り替える操作のうち少なくとも1つを行い、操作された操作結果を前記可視化処理部に出力する、請求項1から請求項4のいずれか1項に記載の音響シーン再構成装置。 - 音源定位分離部が、収音した音声信号から音源定位と音源分離を行う音源定位分離ステップと、
識別部が、前記音声信号に含まれる音源の種類を識別する識別ステップと、
解析処理部が、前記音源定位分離ステップによって音源定位と音源分離が行われた結果と、前記識別ステップによって識別された結果とに基づいて前記音源の位置の推定を行い、前記音源の位置を推定した結果に基づいて分離音を選択し、前記音源の位置の推定した結果と前記音源による音声信号の種類とを対応付けて可視化情報を生成するステップと、
可視化処理部が、前記可視化情報と前記分離音とを用いて、前記音源に対応する画像を推定された前記音源の位置に表示させる画像を生成し、推定された前記音源の位置に前記分離音を再生させる音声を生成するステップと、
を含む音響シーン再構成方法。 - 音響シーン再構成装置のコンピュータに、
収音した音声信号から音源定位と音源分離を行う音源定位分離ステップと、
前記音声信号に含まれる音源の種類を識別する識別ステップと、
前記音源定位分離ステップによって音源定位と音源分離が行われた結果と、前記識別ステップによって識別された結果とに基づいて前記音源の位置の推定を行い、前記音源の位置を推定した結果に基づいて分離音を選択し、前記音源の位置の推定した結果と前記音源による音声信号の種類とを対応付けて可視化情報を生成するステップと、
前記可視化情報と前記分離音とを用いて、前記音源に対応する画像を推定された前記音源の位置に表示させる画像を生成し、推定された前記音源の位置に前記分離音を再生させる音声を生成するステップと、
を実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157166A JP7177631B2 (ja) | 2018-08-24 | 2018-08-24 | 音響シーン再構成装置、音響シーン再構成方法、およびプログラム |
US16/536,570 US11373355B2 (en) | 2018-08-24 | 2019-08-09 | Acoustic scene reconstruction device, acoustic scene reconstruction method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157166A JP7177631B2 (ja) | 2018-08-24 | 2018-08-24 | 音響シーン再構成装置、音響シーン再構成方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030376A JP2020030376A (ja) | 2020-02-27 |
JP7177631B2 true JP7177631B2 (ja) | 2022-11-24 |
Family
ID=69587277
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157166A Active JP7177631B2 (ja) | 2018-08-24 | 2018-08-24 | 音響シーン再構成装置、音響シーン再構成方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11373355B2 (ja) |
JP (1) | JP7177631B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111554318B (zh) * | 2020-04-27 | 2023-12-05 | 天津大学 | 一种手机端发音可视化***的实现方法 |
US11425496B2 (en) * | 2020-05-01 | 2022-08-23 | International Business Machines Corporation | Two-dimensional sound localization with transformation layer |
JP7349410B2 (ja) * | 2020-06-11 | 2023-09-22 | Kddi株式会社 | 音響信号を所定の到来方向から再生するシステム及び方法 |
CN112686293A (zh) * | 2020-12-25 | 2021-04-20 | 广东电网有限责任公司中山供电局 | 一种基于gmm识别模型的鸟类智能识别方法及*** |
CN117044242A (zh) * | 2021-03-29 | 2023-11-10 | 索尼集团公司 | 信息处理装置、信息处理***、信息处理方法和程序 |
CN114036325A (zh) * | 2021-10-28 | 2022-02-11 | 浙江工业大学 | 一种基于移动定位和深度学习的户外观鸟记录可视化交互*** |
CN114630260B (zh) * | 2022-02-17 | 2023-11-10 | 安徽建筑大学 | 一种半空间均匀流中声场重建方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304191A (ja) | 2001-04-05 | 2002-10-18 | Japan Science & Technology Corp | 鳴き声による音声ガイドシステム |
JP2004007211A (ja) | 2002-05-31 | 2004-01-08 | Victor Co Of Japan Ltd | 臨場感信号の送受信システム、臨場感信号伝送装置、臨場感信号受信装置、及び臨場感信号受信用プログラム |
JP2010152149A (ja) | 2008-12-25 | 2010-07-08 | Chubu Electric Power Co Inc | 動物観察装置 |
JP2012211768A (ja) | 2011-03-30 | 2012-11-01 | Advanced Telecommunication Research Institute International | 音源定位装置 |
JP2013106298A (ja) | 2011-11-16 | 2013-05-30 | Sony Corp | 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置 |
JP2016050872A (ja) | 2014-09-01 | 2016-04-11 | 株式会社国際電気通信基礎技術研究所 | 音源位置推定装置、音源位置推定方法および音源位置推定プログラム |
WO2017098772A1 (ja) | 2015-12-11 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017147504A (ja) | 2016-02-15 | 2017-08-24 | 株式会社リコー | 音源表示装置及び音源表示方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8886530B2 (en) | 2011-06-24 | 2014-11-11 | Honda Motor Co., Ltd. | Displaying text and direction of an utterance combined with an image of a sound source |
US8183997B1 (en) * | 2011-11-14 | 2012-05-22 | Google Inc. | Displaying sound indications on a wearable computing system |
US9460732B2 (en) * | 2013-02-13 | 2016-10-04 | Analog Devices, Inc. | Signal source separation |
US10204614B2 (en) * | 2013-05-31 | 2019-02-12 | Nokia Technologies Oy | Audio scene apparatus |
JP6501260B2 (ja) * | 2015-08-20 | 2019-04-17 | 本田技研工業株式会社 | 音響処理装置及び音響処理方法 |
JP6723120B2 (ja) | 2016-09-05 | 2020-07-15 | 本田技研工業株式会社 | 音響処理装置および音響処理方法 |
US10770091B2 (en) * | 2016-12-28 | 2020-09-08 | Google Llc | Blind source separation using similarity measure |
-
2018
- 2018-08-24 JP JP2018157166A patent/JP7177631B2/ja active Active
-
2019
- 2019-08-09 US US16/536,570 patent/US11373355B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002304191A (ja) | 2001-04-05 | 2002-10-18 | Japan Science & Technology Corp | 鳴き声による音声ガイドシステム |
JP2004007211A (ja) | 2002-05-31 | 2004-01-08 | Victor Co Of Japan Ltd | 臨場感信号の送受信システム、臨場感信号伝送装置、臨場感信号受信装置、及び臨場感信号受信用プログラム |
JP2010152149A (ja) | 2008-12-25 | 2010-07-08 | Chubu Electric Power Co Inc | 動物観察装置 |
JP2012211768A (ja) | 2011-03-30 | 2012-11-01 | Advanced Telecommunication Research Institute International | 音源定位装置 |
JP2013106298A (ja) | 2011-11-16 | 2013-05-30 | Sony Corp | 撮像制御装置、撮像制御方法、撮像制御方法のプログラムおよび撮像装置 |
JP2016050872A (ja) | 2014-09-01 | 2016-04-11 | 株式会社国際電気通信基礎技術研究所 | 音源位置推定装置、音源位置推定方法および音源位置推定プログラム |
WO2017098772A1 (ja) | 2015-12-11 | 2017-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP2017147504A (ja) | 2016-02-15 | 2017-08-24 | 株式会社リコー | 音源表示装置及び音源表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US20200066023A1 (en) | 2020-02-27 |
JP2020030376A (ja) | 2020-02-27 |
US11373355B2 (en) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7177631B2 (ja) | 音響シーン再構成装置、音響シーン再構成方法、およびプログラム | |
JP7408048B2 (ja) | 人工知能に基づくアニメキャラクター駆動方法及び関連装置 | |
US11514923B2 (en) | Method and device for processing music file, terminal and storage medium | |
US20190335288A1 (en) | Method of Providing to User 3D Sound in Virtual Environment | |
US20150025662A1 (en) | System and method for audio augmented reality | |
US11557269B2 (en) | Information processing method | |
JP2019211747A (ja) | 音声接続合成の処理方法及び装置、コンピュータ設備及び読取り可能な媒体 | |
CN112005556B (zh) | 确定声源的位置的方法、声源定位***以及存储介质 | |
WO2021241431A1 (ja) | 情報処理装置、情報処理方法、及びコンピュータが読み取り可能な記録媒体 | |
Pressing | Some perspectives on performed sound and music in virtual environments | |
JP5383056B2 (ja) | 音データ記録再生装置および音データ記録再生方法 | |
KR20100039613A (ko) | 음악 인식을 통한 로봇의 동작제어장치 | |
WO2020054409A1 (ja) | 音響イベント認識装置および方法、並びにプログラム | |
Torre | The design of a new musical glove: a live performance approach | |
WO2018211750A1 (ja) | 情報処理装置および情報処理方法 | |
US10553199B2 (en) | Low-dimensional real-time concatenative speech synthesizer | |
Beller | Gestural control of real time speech synthesis in lunapark | |
WO2023170757A1 (ja) | 再生制御方法、情報処理方法、再生制御システムおよびプログラム | |
Lionello et al. | Interactive soundscapes: Developing a physical space augmented through dynamic sound rendering and granular synthesis | |
JP3298076B2 (ja) | 画像作成装置 | |
Beller | Spatial Sampling in Mixed Reality | |
Brumley | Spatially Immersive Sound in the Bird Song Diamond Project | |
Singer et al. | Improv: Interactive improvisational animation and music | |
Frisson et al. | MashtaCycle: On-Stage Improvised Audio Collage by Content-Based Similarity and Gesture Recognition | |
Okuno et al. | Robot audition from the viewpoint of computational auditory scene analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210914 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221111 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7177631 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |