JP7230085B2 - 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム - Google Patents
音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム Download PDFInfo
- Publication number
- JP7230085B2 JP7230085B2 JP2021043324A JP2021043324A JP7230085B2 JP 7230085 B2 JP7230085 B2 JP 7230085B2 JP 2021043324 A JP2021043324 A JP 2021043324A JP 2021043324 A JP2021043324 A JP 2021043324A JP 7230085 B2 JP7230085 B2 JP 7230085B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- matching
- classification information
- speech
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000012545 processing Methods 0.000 title claims description 37
- 238000004590 computer program Methods 0.000 title claims description 9
- 238000013145 classification model Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 20
- 230000004044 response Effects 0.000 claims description 5
- 238000007689 inspection Methods 0.000 claims 3
- 230000002028 premature Effects 0.000 claims 1
- 238000012549 training Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003997 social interaction Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011273 social behavior Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/20—Speech recognition techniques specially adapted for robustness in adverse environments, e.g. in noise, of stress induced speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Signal Processing (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
Description
本実施例において、実行主体の内部に事前設定されたマッチング関係情報を予め記憶することができる。そのうち、上記マッチング関係情報は音声分類情報とマッチング音声分類情報との間のマッチング関係を表すために用いることができる。一例として、上記マッチング関係情報は音声分類情報及びマッチング音声分類情報、並びに音声分類情報とマッチング音声分類情報に対応する音声との間のマッチング度を含み得る。そのうち、あるマッチング関係情報におけるマッチング音声分類情報は該マッチング関係情報における音声分類情報とマッチングする音声分類情報であってもよい。例えば、あるマッチング関係情報における音声分類情報は「男、青年音」を例とし、該音声分類情報とマッチングするマッチング音声分類情報は、例えば、「女、少女音」、「女、ロリ音」、「女、御姉音」、「男、青年音」、「男、ショタ音」、「男、おじさん音」等、様々な音声分類情報を含むことができる。ここで、ある音声分類情報に対応する音声とは、分類された音声分類情報と該音声分類情報と同じ音声を指すことができる。音声分類情報とマッチング音声分類情報に対応する音声との間のマッチング度は、音声分類情報とマッチング音声分類情報に対応する音声とマッチングする度合いを示すことができる。一例として、マッチング度は数値の形態であってもよい。一般に、2つの音声のマッチング度が高いほど、音声分類情報に対応する話者がマッチング音声分類情報に対応する音声を好む可能性が高いことを示す。一例として、マッチング関係情報におけるマッチング度は、例えば、多数の音声分類情報に対応する音声の話者間の対話行為の統計に基づいて技術者によって確定され得る。
Claims (13)
- ユーザにより端末を介して送信されたユーザ音声を受信することと、
前記ユーザ音声を分類し、前記ユーザ音声の音声分類情報を得ることと、
前記音声分類情報と、予め設定された、音声分類情報とマッチング音声分類情報との間のマッチング関係を表すための、マッチング関係情報とに基づいて、前記音声分類情報とマッチングするマッチング音声分類情報をターゲットマッチング音声分類情報として確定することであって、前記マッチング関係情報は、音声分類情報及びマッチング音声分類情報、並びに音声分類情報とマッチング音声分類情報に対応する音声との間のマッチング度を含む、ことと、
前記ターゲットマッチング音声分類情報に基づいて、予め設定された音声情報セットから少なくとも一つの音声情報をターゲット音声情報として確定することと、
前記ターゲット音声情報を前記端末にプッシュすることと、
前記端末から送信された、前記ユーザのプッシュされた音声情報に対する操作情報を受信することであって、前記操作情報は、賛成、お気に入り、フル再生、複数回再生、検査後の未再生、または再生途中のシャットダウンを含む、ことと、
前記操作情報に基づいて、前記マッチング関係情報におけるマッチング度を調整することであって、
前記ユーザのプッシュされた音声情報に対して、賛成、お気に入り、フル再生、および複数回再生のうちの少なくとも1つの操作を実行したことに応じて、前記マッチング関係情報における、ユーザ音声の音声分類情報と該音声情報の音声分類情報との間のマッチング度を予め設定された値だけ高くし、
前記ユーザのプッシュされた音声情報に対して、検査後の未再生、および再生途中のシャットダウンのうちの少なくとも1つの操作を実行したことに応じて、前記マッチング関係情報における、ユーザ音声の音声分類情報と該音声情報の音声分類情報との間のマッチング度を予め設定された値だけ低くする、ことと、
を含む、音声を処理するための方法。 - 前記方法は、
前記ターゲットマッチング音声分類情報に基づいて、前記端末にインストールされたプリセットクライアントによって再生される音声の音色を確定することをさらに含む請求項1に記載の方法。 - 前記ユーザ音声を分類し、前記ユーザ音声の音声分類情報を得ることは、
前記ユーザ音声を、予め作成された、音声情報と音声分類情報との間の対応関係を表すための音声分類モデルに入力して、前記ユーザ音声の音声分類情報を取得することを含む請求項1に記載の方法。 - 前記方法は、
前記音声分類情報及び前記マッチング関係情報に基づいて、前記音声分類情報とのマッチング度が予め設定された条件を満たすマッチング音声分類情報を表示対象マッチング音声分類情報とすることと、
前記端末が前記ユーザに表示することに供するために、前記表示対象マッチング音声分類情報を前記端末に送信することと、をさらに含む請求項1に記載の方法。 - 前記方法は、
前記ユーザ音声と予め設定された対象人物音声セットにおける対象人物音声との類似度を確定することであって、前記対象人物音声セットは、少なくとも一人の対象人物の音声を含む、ことと、
前記類似度に基づいて、前記少なくとも一人の対象人物から対象人物を類似人物として選択することと、
前記類似人物の名称を前記端末に送信することと、をさらに含む請求項1に記載の方法。 - ユーザにより端末を介して送信されたユーザ音声を受信するように構成される受信ユニットであって、前記マッチング関係情報は、音声分類情報及びマッチング音声分類情報、並びに音声分類情報とマッチング音声分類情報に対応する音声との間のマッチング度を含む、ユニットと、
前記ユーザ音声を分類し、前記ユーザ音声の音声分類情報を得るように構成される分類ユニットと、
前記音声分類情報と、予め設定された、音声分類情報とマッチング音声分類情報との間のマッチング関係を表すための、マッチング関係情報とに基づいて、前記音声分類情報とマッチングするマッチング音声分類情報をターゲットマッチング音声分類情報として確定するように構成される確定ユニットと、
前記ターゲットマッチング音声分類情報に基づいて、予め設定された音声情報セットから少なくとも一つの音声情報をターゲット音声情報として確定するように構成される情報確定ユニットと、
前記ターゲット音声情報を前記端末にプッシュするように構成されるプッシュユニットと、
前記端末から送信された、前記ユーザのプッシュされた音声情報に対する操作情報を受信するように構成される情報受信ユニットであって、前記操作情報は、賛成、お気に入り、フル再生、複数回再生、検査後の未再生、または再生途中のシャットダウンを含む、ユニットと、
前記操作情報に基づいて、前記マッチング関係情報におけるマッチング度を調整するように構成される調整ユニットであって、
前記ユーザのプッシュされた音声情報に対して、賛成、お気に入り、フル再生、および複数回再生のうちの少なくとも1つの操作を実行したことに応じて、前記マッチング関係情報における、ユーザ音声の音声分類情報と該音声情報の音声分類情報との間のマッチング度を予め設定された値だけ高くし、
前記ユーザのプッシュされた音声情報に対して、検査後の未再生、および再生途中のシャットダウンのうちの少なくとも1つの操作を実行したことに応じて、前記マッチング関係情報における、ユーザ音声の音声分類情報と該音声情報の音声分類情報との間のマッチング度を予め設定された値だけ低くする、調整ユニットと、
を含む、音声を処理するための装置。 - 前記装置は、
前記ターゲットマッチング音声分類情報に基づいて、前記端末にインストールされたプリセットクライアントによって再生される音声の音色を確定するように構成される音色確定ユニットをさらに含む請求項6に記載の装置。 - 前記分類ユニットは、更に
前記ユーザ音声を、予め作成された、音声情報と音声分類情報との間の対応関係を表すための音声分類モデルに入力して、前記ユーザ音声の音声分類情報を取得するように構成される請求項6に記載の装置。 - 前記装置は、
前記音声分類情報及び前記マッチング関係情報に基づいて、前記音声分類情報とのマッチング度が予め設定された条件を満たすマッチング音声分類情報を表示対象マッチング音声分類情報とするように構成される情報確定ユニットと、
前記端末が前記ユーザに表示することに供するために、前記表示対象マッチング音声分類情報を前記端末に送信するように構成される情報プッシュユニットと、をさらに含む請求項6に記載の装置。 - 前記装置は、
前記ユーザ音声と予め設定された対象人物音声セットにおける対象人物音声との類似度を確定するように構成される類似度確定ユニットであって、前記対象人物音声セットは、少なくとも一人の対象人物の音声を含む、類似度確定ユニットと、
前記類似度に基づいて、前記少なくとも一人の対象人物から対象人物を類似人物として選択するように構成される選択ユニットと、
前記類似人物の名称を前記端末に送信するように構成される名称送信ユニットと、をさらに含む請求項6に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備える電子機器であって、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が格納されており、前記命令が前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに請求項1~5のいずれか1項に記載の方法を実行させる、電子機器。 - コンピュータ命令が格納されている非一時的コンピュータ可読記憶媒体であって、
前記コンピュータ命令は前記コンピュータに請求項1~5のいずれか1項に記載の方法を実行させるために用いられることを特徴とする非一時的コンピュータ可読記憶媒体。 - プロセッサによって実行されると、請求項1~5のいずれか1項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010779755.1 | 2020-08-05 | ||
CN202010779755.1A CN111916065B (zh) | 2020-08-05 | 用于处理语音的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021144221A JP2021144221A (ja) | 2021-09-24 |
JP7230085B2 true JP7230085B2 (ja) | 2023-02-28 |
Family
ID=73287197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021043324A Active JP7230085B2 (ja) | 2020-08-05 | 2021-03-17 | 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210217437A1 (ja) |
EP (1) | EP3846164B1 (ja) |
JP (1) | JP7230085B2 (ja) |
KR (1) | KR20210042277A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210790A (ja) | 2008-03-04 | 2009-09-17 | Nec Software Kyushu Ltd | 選曲歌手分析推薦装置、その方法及びプログラム |
JP2014002383A (ja) | 2012-06-15 | 2014-01-09 | Samsung Electronics Co Ltd | 端末装置及び端末装置の制御方法 |
WO2015040751A1 (ja) | 2013-09-20 | 2015-03-26 | 株式会社東芝 | 音声選択支援装置、音声選択方法、およびプログラム |
WO2018235607A1 (ja) | 2017-06-20 | 2018-12-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20200126566A1 (en) | 2018-10-17 | 2020-04-23 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for voice interaction |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08248971A (ja) * | 1995-03-09 | 1996-09-27 | Hitachi Ltd | テキスト朗読読み上げ装置 |
US9361942B2 (en) * | 2011-12-22 | 2016-06-07 | Apple Inc. | Playlist configuration and preview |
US9324318B1 (en) * | 2014-10-14 | 2016-04-26 | Nookster, Inc. | Creation and application of audio avatars from human voices |
US20160379638A1 (en) * | 2015-06-26 | 2016-12-29 | Amazon Technologies, Inc. | Input speech quality matching |
US9336782B1 (en) * | 2015-06-29 | 2016-05-10 | Vocalid, Inc. | Distributed collection and processing of voice bank data |
US10091355B2 (en) * | 2016-02-19 | 2018-10-02 | International Business Machines Corporation | Virtual voice response agent individually configured for a user |
US10074359B2 (en) * | 2016-11-01 | 2018-09-11 | Google Llc | Dynamic text-to-speech provisioning |
CN106599110A (zh) * | 2016-11-29 | 2017-04-26 | 百度在线网络技术(北京)有限公司 | 基于人工智能的语音搜索方法及装置 |
US9934785B1 (en) * | 2016-11-30 | 2018-04-03 | Spotify Ab | Identification of taste attributes from an audio signal |
CN108847214B (zh) * | 2018-06-27 | 2021-03-26 | 北京微播视界科技有限公司 | 语音处理方法、客户端、装置、终端、服务器和存储介质 |
CN109147800A (zh) * | 2018-08-30 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 应答方法和装置 |
-
2021
- 2021-03-17 JP JP2021043324A patent/JP7230085B2/ja active Active
- 2021-03-26 US US17/213,452 patent/US20210217437A1/en not_active Abandoned
- 2021-03-26 EP EP21165129.4A patent/EP3846164B1/en active Active
- 2021-03-30 KR KR1020210040933A patent/KR20210042277A/ko not_active Application Discontinuation
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009210790A (ja) | 2008-03-04 | 2009-09-17 | Nec Software Kyushu Ltd | 選曲歌手分析推薦装置、その方法及びプログラム |
JP2014002383A (ja) | 2012-06-15 | 2014-01-09 | Samsung Electronics Co Ltd | 端末装置及び端末装置の制御方法 |
WO2015040751A1 (ja) | 2013-09-20 | 2015-03-26 | 株式会社東芝 | 音声選択支援装置、音声選択方法、およびプログラム |
WO2018235607A1 (ja) | 2017-06-20 | 2018-12-27 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US20200126566A1 (en) | 2018-10-17 | 2020-04-23 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for voice interaction |
Also Published As
Publication number | Publication date |
---|---|
EP3846164B1 (en) | 2023-01-04 |
KR20210042277A (ko) | 2021-04-19 |
EP3846164A3 (en) | 2021-08-11 |
EP3846164A2 (en) | 2021-07-07 |
CN111916065A (zh) | 2020-11-10 |
JP2021144221A (ja) | 2021-09-24 |
US20210217437A1 (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6820058B2 (ja) | 音声認識方法、装置、デバイス、及び記憶媒体 | |
WO2020177190A1 (zh) | 一种处理方法、装置及设备 | |
US8712776B2 (en) | Systems and methods for selective text to speech synthesis | |
US8352268B2 (en) | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis | |
US10089974B2 (en) | Speech recognition and text-to-speech learning system | |
US11527233B2 (en) | Method, apparatus, device and computer storage medium for generating speech packet | |
US20180137425A1 (en) | Real-time analysis of a musical performance using analytics | |
CN109165302A (zh) | 多媒体文件推荐方法及装置 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
US11586689B2 (en) | Electronic apparatus and controlling method thereof | |
JP7230806B2 (ja) | 情報処理装置、及び情報処理方法 | |
WO2018155481A1 (ja) | 情報処理方法および情報処理装置 | |
US20230396573A1 (en) | Systems and methods for media content communication | |
JP2013025648A (ja) | 対話装置、対話方法および対話プログラム | |
US11511200B2 (en) | Game playing method and system based on a multimedia file | |
JP7337172B2 (ja) | 音声パケット推薦方法、装置、電子機器およびプログラム | |
CN111883131B (zh) | 语音数据的处理方法及装置 | |
JP2021101252A (ja) | 情報処理方法、情報処理装置およびプログラム | |
US11967338B2 (en) | Systems and methods for a computerized interactive voice companion | |
KR102226427B1 (ko) | 호칭 결정 장치, 이를 포함하는 대화 서비스 제공 시스템, 호칭 결정을 위한 단말 장치 및 호칭 결정 방법 | |
JP7230085B2 (ja) | 音声を処理するための方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム | |
CN114694645A (zh) | 一种确定用户意图的方法及装置 | |
CN112071287A (zh) | 用于生成歌谱的方法、装置、电子设备和计算机可读介质 | |
CN111916065B (zh) | 用于处理语音的方法和装置 | |
JPWO2019044534A1 (ja) | 情報処理装置、及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210514 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221004 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7230085 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |