JP7208952B2 - 対話モデルを生成するための方法及び装置 - Google Patents
対話モデルを生成するための方法及び装置 Download PDFInfo
- Publication number
- JP7208952B2 JP7208952B2 JP2020097597A JP2020097597A JP7208952B2 JP 7208952 B2 JP7208952 B2 JP 7208952B2 JP 2020097597 A JP2020097597 A JP 2020097597A JP 2020097597 A JP2020097597 A JP 2020097597A JP 7208952 B2 JP7208952 B2 JP 7208952B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- information
- neural network
- loss function
- sample set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 61
- 238000000034 method Methods 0.000 title claims description 45
- 238000012549 training Methods 0.000 claims description 203
- 238000013528 artificial neural network Methods 0.000 claims description 85
- 230000006870 function Effects 0.000 claims description 74
- 230000009466 transformation Effects 0.000 claims description 43
- 239000013598 vector Substances 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 19
- 230000007246 mechanism Effects 0.000 claims description 12
- 230000002457 bidirectional effect Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000013507 mapping Methods 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 239000003795 chemical substances by application Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003334 potential effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3325—Reformulation based on results of preceding query
- G06F16/3326—Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
第1態様において、本開示の実施形態は、対話モデルを生成するための方法であって、入力情報及び目標回答情報を含むコーパスサンプルからなるコーパスサンプル集合を取得することと、コーパスサンプル集合におけるコーパスサンプルを分類し、分類の結果に基づいて各コーパスサンプルに離散的な潜在変数を設定し、入力情報、目標回答情報及び離散的な潜在変数を含むトレーニングサンプルからなるトレーニングサンプル集合を生成することと、トレーニングサンプル集合を用いて事前設置されたニューラルネットワークをトレーニングし、入力された入力情報と出力された目標回答情報との対応関係を特徴付けるための対話モデルを取得することと、を備える対話モデルを生成するための方法を提供する。
単語の袋損失関数は、変換ニューラルネットワークから出力された離散的な潜在変数とトレーニングサンプルにおける離散的な潜在変数との差異度を特徴付けるために用いられ、回答情報選択損失関数は、変換ニューラルネットワークから出力された目標回答情報とトレーニングサンプルにおける目標回答情報との差異度を特徴付けるために用いられる。
本実施形態において、対話モデルを生成するための方法の実行主体(例えば図1に示すサーバ)は、コーパスサンプル集合を取得することができる。ここで、コーパスサンプル集合は複数のコーパスサンプルを含むことができ、各コーパスサンプルは入力情報及び目標回答情報を含むことができる。なお、上記コーパスサンプルに含まれるコーパスサンプルは対話コーパスである。例えば、コーパスサンプルの入力情報は、「Do you have a pet? I have a cute dog.」であり得、目標回答情報は「That is great.」であってもよい。又は、上記コーパスサンプル集合はTwitterコーパス、Redditコーパス等から得られるコーパスサンプル集合であり得る。
本実施形態において、対話モデルを生成するための方法の実行主体(例えば図1に示すサーバ)は、コーパスサンプル集合を取得することができる。ここで、コーパスサンプル集合は複数のコーパスサンプルを含み、各コーパスサンプルは入力情報及び目標回答情報を含むことができる。なお、上記コーパスサンプルに含まれるコーパスサンプルは対話コーパスである。例えば、上記コーパスサンプル集合はTwitterコーパス、Redditコーパス等から得られるコーパスサンプル集合であってもよい。
Claims (13)
- 入力情報及び目標回答情報を含むコーパスサンプルからなるコーパスサンプル集合を取得することと、
コーパスサンプル集合における目標回答情報の回答方向に応じて前記コーパスサンプル集合におけるコーパスサンプルをkクラスに分類し、分類後の各コーパスサンプルに離散的な潜在変数を設定し、入力情報、目標回答情報及び離散的な潜在変数を含むトレーニングサンプルからなるトレーニングサンプル集合を生成することであって、前記離散的な潜在変数は、潜在ベクトル空間からマッピングすることにより得られ、[1、k]の取り得る値を有し、前記離散的な潜在変数の各取り得る値は、それぞれ前記目標回答情報の特定の回答方向に対応する、ことと、
トレーニングサンプルにおける入力情報及び目標回答情報を入力とし、前記離散的な潜在変数を所望出力とし、事前設置されたニューラルネットワークをトレーニングし、入力された入力情報と出力された目標回答情報との対応関係を特徴付けるための対話モデルを取得することと、を備える対話モデルを生成するための方法。 - 前記事前設置されたニューラルネットワークは変換ニューラルネットワークであり、変換ニューラルネットワークはテキスト情報の単方向符号化及び双方向符号化をサポートするニューラルネットワークであり、
前記トレーニングサンプル集合を用いて事前設置されたニューラルネットワークをトレーニングして前記対話モデルを取得することは、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルにおける入力情報及び離散的な潜在変数を入力とし、該トレーニングサンプルにおける目標回答情報を所望出力とし、事前設定された損失関数を用いて単方向注意メカニズムに基づく変換ニューラルネットワークをトレーニングして、前記変換ニューラルネットワークのパラメータを更新することと、
該トレーニングサンプルにおける入力情報及び目標回答情報を更新済み変換ニューラルネットワークの入力とし、該トレーニングサンプルにおける離散的な潜在変数を所望出力とし、前記損失関数を用いて双方向注意メカニズムに基づく変換ニューラルネットワークをトレーニングして、前記対話モデルを取得することと、を備える請求項1に記載の方法。 - 前記トレーニングサンプル集合を用いて事前設置されたニューラルネットワークをトレーニングして、前記対話モデルを取得することは、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルをテキストベクトルに変換することと、
前記テキストベクトルを事前設置されたニューラルネットワークに入力してトレーニングして、前記対話モデルを取得することと、を備える請求項1または2に記載の方法。 - 前記損失関数は、負の対数尤度損失関数、単語の袋損失関数及び回答情報選択損失関数の和であり、
前記単語の袋損失関数は、前記変換ニューラルネットワークから出力された離散的な潜在変数とトレーニングサンプルにおける離散的な潜在変数との差異度を特徴付けるために用いられ、
前記回答情報選択損失関数は、前記変換ニューラルネットワークから出力された目標回答情報とトレーニングサンプルにおける目標回答情報との差異度を特徴付けるために用いられる、請求項2に記載の方法。 - 前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルをテキストベクトルに変換することは、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルにおける入力情報及び目標回答情報を単語に分割することと、
分割された各単語の、該トレーニングサンプルにおけるキャラクタ情報、単語種類情報、対話回数情報及び位置情報に基づき、該トレーニングサンプルをテキストベクトルに変換することと、を備える請求項3に記載の方法。 - 入力情報及び目標回答情報を含むコーパスサンプルからなるコーパスサンプル集合を取得するように構成されるように構成される取得手段と、
コーパスサンプル集合における目標回答情報の回答方向に応じて前記コーパスサンプル集合におけるコーパスサンプルをkクラスに分類し、分類後の各コーパスサンプルに離散的な潜在変数を設定し、入力情報、目標回答情報及び離散的な潜在変数を含むトレーニングサンプルからなるトレーニングサンプル集合を生成するように構成される生成手段であって、前記離散的な潜在変数は、潜在ベクトル空間からマッピングすることにより得られ、[1、k]の取り得る値を有し、前記離散的な潜在変数の各取り得る値は、それぞれ前記目標回答情報の特定の回答方向に対応する、生成手段と、
トレーニングサンプルにおける入力情報及び目標回答情報を入力とし、前記離散的な潜在変数を所望出力とし、事前設置されたニューラルネットワークをトレーニングし、入力された入力情報と出力された目標回答情報との間の対応関係を特徴付けるための対話モデルを取得するように構成されるトレーニング手段と、
を備える対話モデルを生成するための装置。 - 前記事前設置されたニューラルネットワークは変換ニューラルネットワークであり、変換ニューラルネットワークはテキスト情報の単方向符号化及び双方向符号化をサポートするニューラルネットワークであり、
前記トレーニング手段はさらに、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルにおける入力情報及び離散的な潜在変数を入力とし、該トレーニングサンプルにおける目標回答情報を所望出力とし、事前設定された損失関数を用いて単方向注意メカニズムに基づく変換ニューラルネットワークをトレーニングして、前記変換ニューラルネットワークのパラメータを更新し、
該トレーニングサンプルにおける入力情報及び目標回答情報を更新済み変換ニューラルネットワークの入力とし、該トレーニングサンプルにおける離散的な潜在変数を所望出力とし、前記損失関数を用いて双方向注意メカニズムに基づく変換ニューラルネットワークをトレーニングして、前記対話モデルを取得するように構成される、請求項6に記載の装置。 - 前記トレーニング手段は、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルをテキストベクトルに変換するように構成される変換モジュールと、
前記テキストベクトルを事前設置されたニューラルネットワークに入力してトレーニングして、前記対話モデルを取得するように構成されるトレーニングモジュールと、を備える、請求項6または7に記載の装置。 - 前記損失関数は、負の対数尤度損失関数、単語の袋損失関数及び回答情報選択損失関数の和であり、
前記単語の袋損失関数は、前記変換ニューラルネットワークから出力された離散的な潜在変数とトレーニングサンプルにおける離散的な潜在変数との差異度を特徴付けるために用いられ、
前記回答情報選択損失関数は、前記変換ニューラルネットワークから出力された目標回答情報とトレーニングサンプルにおける目標回答情報との差異度を特徴付けるために用いられる、請求項7に記載の装置。 - 前記変換モジュールはさらに、
前記トレーニングサンプル集合におけるトレーニングサンプルについて、該トレーニングサンプルにおける入力情報及び目標回答情報を単語に分割し、
分割された各単語の該トレーニングサンプルにおけるキャラクタ情報、単語種類情報、対話回数情報及び位置情報に基づき、該トレーニングサンプルをテキストベクトルに変換するように構成される、請求項8に記載の装置。 - 1つまたは複数のプロセッサと、
1つまたは複数のプログラムが記憶される記憶装置と、を備える電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行される場合、前記1つまたは複数のプロセッサに請求項1~5のいずれか1項に記載の方法を実現させる電子機器。 - コンピュータプログラムが記憶されるコンピュータ可読記憶媒体であって、
前記プログラムがプロセッサによって実行される時、請求項1~5のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1~5のいずれか1項に記載の方法を実現する、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911372144.9 | 2019-12-27 | ||
CN201911372144.9A CN111143535B (zh) | 2019-12-27 | 2019-12-27 | 用于生成对话模型的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108094A JP2021108094A (ja) | 2021-07-29 |
JP7208952B2 true JP7208952B2 (ja) | 2023-01-19 |
Family
ID=70520812
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020097597A Active JP7208952B2 (ja) | 2019-12-27 | 2020-06-04 | 対話モデルを生成するための方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11537798B2 (ja) |
JP (1) | JP7208952B2 (ja) |
CN (1) | CN111143535B (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753068B (zh) * | 2020-05-27 | 2024-03-26 | 江汉大学 | 一种开放域对话回复自动生成方法、***及存储介质 |
CN111739519A (zh) * | 2020-06-16 | 2020-10-02 | 平安科技(深圳)有限公司 | 基于语音识别的对话管理处理方法、装置、设备及介质 |
CN111710346B (zh) * | 2020-06-18 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 音频处理方法、装置、计算机设备以及存储介质 |
CN112905755A (zh) * | 2020-09-11 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种回复文本预测方法、装置、设备及存储介质 |
CN112214592B (zh) * | 2020-11-05 | 2024-06-11 | 科大讯飞(北京)有限公司 | 一种回复对话评分模型训练方法、对话回复方法及其装置 |
CN113139575B (zh) * | 2021-03-18 | 2022-03-01 | 杭州电子科技大学 | 一种基于条件嵌入预训练语言模型的图像标题生成方法 |
CN113420542B (zh) * | 2021-06-23 | 2023-04-18 | 平安科技(深圳)有限公司 | 对话生成方法、装置、电子设备及存储介质 |
CN113378583A (zh) * | 2021-07-15 | 2021-09-10 | 北京小米移动软件有限公司 | 对话回复方法及装置、对话模型训练方法及装置、存储介质 |
CN113591462A (zh) * | 2021-07-28 | 2021-11-02 | 咪咕数字传媒有限公司 | 弹幕回复生成方法、装置及电子设备 |
US20230069285A1 (en) * | 2021-08-19 | 2023-03-02 | Bank Of America Corporation | Cognitive scrum master assistance interface for developers |
CN114360517B (zh) * | 2021-12-17 | 2023-04-18 | 天翼爱音乐文化科技有限公司 | 一种复杂环境下的音频处理方法、装置及存储介质 |
CN114416943B (zh) * | 2021-12-29 | 2023-04-18 | 北京百度网讯科技有限公司 | 对话模型的训练方法、装置、电子设备及存储介质 |
CN114416948A (zh) * | 2022-01-18 | 2022-04-29 | 重庆邮电大学 | 一种基于语义感知的一对多对话生成方法及装置 |
CN114549935B (zh) * | 2022-02-25 | 2024-05-07 | 北京百度网讯科技有限公司 | 信息生成方法和装置 |
CN114691858B (zh) * | 2022-03-15 | 2023-10-03 | 电子科技大学 | 一种基于改进的unilm摘要生成方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019036093A (ja) | 2017-08-14 | 2019-03-07 | 日本電信電話株式会社 | モデル学習装置、変換装置、方法、及びプログラム |
CN110275939A (zh) | 2019-06-10 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 对话生成模型的确定方法及装置、存储介质、电子设备 |
JP2020030403A (ja) | 2018-08-24 | 2020-02-27 | ネイバー コーポレーションNAVER Corporation | ディープラーニング生成モデルとマルチモーダル分布を利用してマルチターン会話応答を生成する方法およびシステム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8762156B2 (en) * | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
CN108256066B (zh) * | 2018-01-16 | 2022-01-11 | 智言科技(深圳)有限公司 | 端到端层次解码任务型对话*** |
CN108681610B (zh) * | 2018-05-28 | 2019-12-10 | 山东大学 | 生成式多轮闲聊对话方法、***及计算机可读存储介质 |
CN109582767B (zh) * | 2018-11-21 | 2024-05-17 | 北京京东尚科信息技术有限公司 | 对话***处理方法、装置、设备及可读存储介质 |
CN109800286B (zh) * | 2018-12-17 | 2021-05-11 | 北京百度网讯科技有限公司 | 对话生成方法和装置 |
-
2019
- 2019-12-27 CN CN201911372144.9A patent/CN111143535B/zh active Active
-
2020
- 2020-06-04 JP JP2020097597A patent/JP7208952B2/ja active Active
- 2020-06-08 US US16/895,297 patent/US11537798B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019036093A (ja) | 2017-08-14 | 2019-03-07 | 日本電信電話株式会社 | モデル学習装置、変換装置、方法、及びプログラム |
JP2020030403A (ja) | 2018-08-24 | 2020-02-27 | ネイバー コーポレーションNAVER Corporation | ディープラーニング生成モデルとマルチモーダル分布を利用してマルチターン会話応答を生成する方法およびシステム |
CN110275939A (zh) | 2019-06-10 | 2019-09-24 | 腾讯科技(深圳)有限公司 | 对话生成模型的确定方法及装置、存储介质、电子设备 |
Non-Patent Citations (1)
Title |
---|
BAO, Siqi 外4名,PLATO: Pre-trained Dialogue Generation Model with Discrete Latent Variable,インターネット,2019年11月07日,pp.1-12,https://arxiv.org/abs/1910.07931v2 |
Also Published As
Publication number | Publication date |
---|---|
US11537798B2 (en) | 2022-12-27 |
US20210200957A1 (en) | 2021-07-01 |
CN111143535A (zh) | 2020-05-12 |
CN111143535B (zh) | 2021-08-10 |
JP2021108094A (ja) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7208952B2 (ja) | 対話モデルを生成するための方法及び装置 | |
JP6803365B2 (ja) | 音声合成モデルを生成するための方法、及び装置 | |
JP6751122B2 (ja) | ページ制御方法および装置 | |
JP7104683B2 (ja) | 情報を生成する方法および装置 | |
US11308671B2 (en) | Method and apparatus for controlling mouth shape changes of three-dimensional virtual portrait | |
JP2021096813A (ja) | データ処理方法及び装置 | |
CN110688528B (zh) | 生成视频的分类信息的方法、装置、电子设备和介质 | |
CN109981787B (zh) | 用于展示信息的方法和装置 | |
CN111666416B (zh) | 用于生成语义匹配模型的方法和装置 | |
CN109740167B (zh) | 用于生成信息的方法和装置 | |
CN111340220B (zh) | 用于训练预测模型的方法和装置 | |
CN112509562B (zh) | 用于文本后处理的方法、装置、电子设备和介质 | |
CN111462728A (zh) | 用于生成语音的方法、装置、电子设备和计算机可读介质 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
CN111104796B (zh) | 用于翻译的方法和装置 | |
CN112364653A (zh) | 用于语音合成的文本分析方法、装置、服务器和介质 | |
CN110009101B (zh) | 用于生成量化神经网络的方法和装置 | |
KR20210028041A (ko) | 전자 장치 및 그 제어 방법 | |
CN114511152A (zh) | 预测模型的训练方法和装置 | |
CN113468344A (zh) | 实体关系抽取方法、装置、电子设备和计算机可读介质 | |
JP2021108095A (ja) | スピーチ理解における解析異常の情報を出力するための方法 | |
WO2022206091A1 (zh) | 用于生成数据的方法和装置 | |
CN110633476B (zh) | 用于获取知识标注信息的方法及装置 | |
CN110929209B (zh) | 用于发送信息的方法及装置 | |
CN112149426A (zh) | 阅读任务处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230106 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7208952 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |