JP7283009B2 - 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 - Google Patents
対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7283009B2 JP7283009B2 JP2021193599A JP2021193599A JP7283009B2 JP 7283009 B2 JP7283009 B2 JP 7283009B2 JP 2021193599 A JP2021193599 A JP 2021193599A JP 2021193599 A JP2021193599 A JP 2021193599A JP 7283009 B2 JP7283009 B2 JP 7283009B2
- Authority
- JP
- Japan
- Prior art keywords
- training
- dialogue
- task
- data
- dialogue understanding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 175
- 238000000034 method Methods 0.000 title claims description 63
- 239000013598 vector Substances 0.000 claims description 43
- 230000006870 function Effects 0.000 claims description 29
- 239000000463 material Substances 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 15
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 11
- 238000004590 computer program Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 101000822695 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C1 Proteins 0.000 description 1
- 101000655262 Clostridium perfringens (strain 13 / Type A) Small, acid-soluble spore protein C2 Proteins 0.000 description 1
- 101000655256 Paraclostridium bifermentans Small, acid-soluble spore protein alpha Proteins 0.000 description 1
- 101000655264 Paraclostridium bifermentans Small, acid-soluble spore protein beta Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/54—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
Description
Claims (13)
- コンピュータにより実行される、対話理解モデルの訓練方法であって、
対話理解訓練データを取得し、
前記対話理解訓練データを用いて、対話理解事前訓練タスクと汎用事前訓練タスクとの共同訓練を行って対話理解モデルを得る、
ことを含み、
前記対話理解モデルは、入力層と、汎用事前訓練層と、出力層とを備え、前記対話理解訓練データは、言語材料データと、前記言語材料データに対応するラベルデータとを含み、
前記対話理解訓練データを用いて、対話理解事前訓練タスクと汎用事前訓練タスクとの共同訓練を行って対話理解モデルを得ることは、
前記入力層を用いて、前記言語材料データを入力ベクトルに変換し、
前記汎用事前訓練層を用いて、前記入力ベクトルを処理して隠れ層出力ベクトルを得、
前記出力層を用いて、前記隠れ層出力ベクトルを処理して予測データを得、
前記予測データ及び対応するラベルデータに基づいて、前記対話理解事前訓練タスクの損失関数及び前記汎用事前訓練タスクの損失関数を計算し、前記対話理解事前訓練タスクの損失関数と前記汎用事前訓練タスクの損失関数に基づいて総損失関数を算出し、前記総損失関数が予め設定された収束条件を満たした場合に前記対話理解モデルの訓練を終了する、ことを含む、
対話理解モデルの訓練方法。 - 前記対話理解事前訓練タスクにインテント事前訓練タスクが含まれる場合に、前記言語材料データは第1検索語を含み、前記ラベルデータは、前記第1検索語に対応する、ユーザがクリックしたウェブサイト名を含み、及び/又は、
前記対話理解事前訓練タスクにスロット事前訓練タスクが含まれる場合に、前記言語材料データは第2検索語を含み、前記ラベルデータは、知識マップにおける前記第2検索語の各文字に対応する上位語を含む、
請求項1に記載の対話理解モデルの訓練方法。 - 前記対話理解事前訓練タスクにインテント事前訓練タスクとスロット事前訓練タスクが含まれる場合に、前記出力層は前記インテント事前訓練タスクと前記スロット事前訓練タスクとの共有層であり、前記出力層の出力データはインテントデータとスロットデータとを含む、
請求項1に記載の対話理解モデルの訓練方法。 - 前記入力層は、
品詞ベクトル層、及び/又は、
命名エンティティベクトル層を含む、
請求項1に記載の対話理解モデルの訓練方法。 - 対話理解の少なくとも1つの分野の各分野における対話理解訓練データを取得し、
前記各分野における対話理解訓練データを用いて前記対話理解モデルを微調整して前記各分野における対話理解モデルを得る、
ことを更に含む請求項1~4のいずれか1項に記載の対話理解モデルの訓練方法。 - 対話理解モデルの訓練装置であって
対話理解訓練データを取得する第1取得手段と、
前記対話理解訓練データを用いて、対話理解事前訓練タスクと汎用事前訓練タスクとの共同訓練を行って対話理解モデルを得る第1訓練手段と、
を備え、
前記対話理解モデルは、入力層と、汎用事前訓練層と、出力層とを備え、前記対話理解訓練データは、言語材料データと、前記言語材料データに対応するラベルデータとを含み、
前記第1訓練手段は、
前記入力層を用いて前記言語材料データを入力ベクトルに変換する入力モジュールと、
前記汎用事前訓練層を用いて、前記入力ベクトルを処理して隠れ層出力ベクトルを得る隠れ層モジュールと、
前記出力層を用いて前記隠れ層出力ベクトルを処理して予測データを得る出力モジュールと、
前記予測データ及び対応するラベルデータに基づいて、前記対話理解事前訓練タスクの損失関数及び前記汎用事前訓練タスクの損失関数を計算し、前記対話理解事前訓練タスクの損失関数と前記汎用事前訓練タスクの損失関数に基づいて総損失関数を算出し、前記総損失関数が予め設定された収束条件を満たした場合に前記対話理解モデルの訓練を終了する収束モジュールと、
を備える対話理解モデルの訓練装置。 - 前記対話理解事前訓練タスクにインテント事前訓練タスクが含まれる場合に、前記言語材料データは第1検索語を含み、前記ラベルデータは、前記第1検索語に対応する、ユーザがクリックしたウェブサイト名を含み、及び/又は、
前記対話理解事前訓練タスクにスロット事前訓練タスクが含まれる場合に、前記言語材料データは第2検索語を含み、前記ラベルデータは、知識マップにおける前記第2検索語の各文字に対応する上位語を含む、
請求項6に記載の対話理解モデルの訓練装置。 - 前記対話理解事前訓練タスクにインテント事前訓練タスクとスロット事前訓練タスクが含まれる場合に、前記出力層は前記インテント事前訓練タスクと前記スロット事前訓練タスクとの共有層であり、前記出力層の出力データはインテントデータとスロットデータとを含む、
請求項6に記載の対話理解モデルの訓練装置。 - 前記入力層は、
品詞ベクトル層、及び/又は、
命名エンティティベクトル層、
を備える請求項6に記載の対話理解モデルの訓練装置。 - 対話理解の少なくとも1つの分野の各分野における対話理解訓練データを取得する第2取得手段と、
前記各分野における対話理解訓練データを用いて前記対話理解モデルを微調整して前記各分野における対話理解モデルを得る第2訓練手段と、
を更に備える請求項6~9のいずれか1項に記載の対話理解モデルの訓練装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリとを備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~5のいずれか1項に記載の対話理解モデルの訓練方法を実行させる電子デバイス。 - コンピュータに請求項1~5のいずれか1項に記載の対話理解モデルの訓練方法を実行させるためのコンピュータコマンドが記憶される非一時的なコンピュータ可読記憶媒体。
- プロセッサにより実行されると、請求項1~5のいずれか1項に記載の対話理解モデルの訓練方法を実現するプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011503354.X | 2020-12-18 | ||
CN202011503354.XA CN112507099B (zh) | 2020-12-18 | 2020-12-18 | 对话理解模型的训练方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022097396A JP2022097396A (ja) | 2022-06-30 |
JP7283009B2 true JP7283009B2 (ja) | 2023-05-30 |
Family
ID=74922370
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021193599A Active JP7283009B2 (ja) | 2020-12-18 | 2021-11-29 | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220198327A1 (ja) |
JP (1) | JP7283009B2 (ja) |
CN (1) | CN112507099B (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11501070B2 (en) * | 2020-07-01 | 2022-11-15 | International Business Machines Corporation | Taxonomy generation to insert out of vocabulary terms and hypernym-hyponym pair induction |
US11960842B2 (en) | 2021-02-27 | 2024-04-16 | Walmart Apollo, Llc | Methods and apparatus for natural language understanding in conversational systems using machine learning processes |
US20220277142A1 (en) * | 2021-02-27 | 2022-09-01 | Walmart Apollo, Llc | Methods and apparatus for natural language understanding in conversational systems using machine learning processes |
CN113177113B (zh) * | 2021-05-27 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 任务型对话模型预训练方法、装置、设备及存储介质 |
CN113220888B (zh) * | 2021-06-01 | 2022-12-13 | 上海交通大学 | 基于Ernie模型的案件线索要素抽取方法及*** |
CN113282736B (zh) * | 2021-07-08 | 2022-07-22 | 北京百度网讯科技有限公司 | 对话理解及模型训练方法、装置、设备和存储介质 |
CN113641804A (zh) * | 2021-07-19 | 2021-11-12 | 北京百度网讯科技有限公司 | 预训练模型获取方法、装置、电子设备及存储介质 |
CN113657465B (zh) * | 2021-07-29 | 2024-04-09 | 北京百度网讯科技有限公司 | 预训练模型的生成方法、装置、电子设备和存储介质 |
US20230245146A1 (en) * | 2022-01-28 | 2023-08-03 | Walmart Apollo, Llc | Methods and apparatus for automatic item demand and substitution prediction using machine learning processes |
CN114610860B (zh) * | 2022-05-07 | 2022-09-27 | 荣耀终端有限公司 | 一种问答方法及*** |
CN115098665A (zh) * | 2022-08-25 | 2022-09-23 | 北京聆心智能科技有限公司 | 一种对话数据扩展方法、装置及设备 |
CN116521841B (zh) * | 2023-04-18 | 2024-05-14 | 百度在线网络技术(北京)有限公司 | 用于生成回复信息的方法、装置、设备及介质 |
CN116881428B (zh) * | 2023-09-06 | 2023-11-21 | 杭州华鲤智能科技有限公司 | 一种语言模型训练方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157638A1 (en) | 2016-12-02 | 2018-06-07 | Microsoft Technology Licensing, Llc | Joint language understanding and dialogue management |
CN110909145A (zh) | 2019-11-29 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 针对多任务模型的训练方法及装置 |
JP2020091549A (ja) | 2018-12-03 | 2020-06-11 | 日本放送協会 | テキスト分類装置、学習装置、およびプログラム |
JP2020135689A (ja) | 2019-02-25 | 2020-08-31 | 株式会社コトバデザイン | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9870356B2 (en) * | 2014-02-13 | 2018-01-16 | Microsoft Technology Licensing, Llc | Techniques for inferring the unknown intents of linguistic items |
CN106095872A (zh) * | 2016-06-07 | 2016-11-09 | 北京高地信息技术有限公司 | 用于智能问答***的答案排序方法及装置 |
US10140980B2 (en) * | 2016-12-21 | 2018-11-27 | Google LCC | Complex linear projection for acoustic modeling |
CN108897989B (zh) * | 2018-06-06 | 2020-05-19 | 大连理工大学 | 一种基于候选事件元素注意力机制的生物事件抽取方法 |
CN110222827A (zh) * | 2019-06-11 | 2019-09-10 | 苏州思必驰信息科技有限公司 | 基于文本的抑郁判定网络模型的训练方法 |
CN110222164B (zh) * | 2019-06-13 | 2022-11-29 | 腾讯科技(深圳)有限公司 | 一种问答模型训练方法、问题语句处理方法、装置及存储介质 |
CN111079938B (zh) * | 2019-11-28 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 问答阅读理解模型获取方法、装置、电子设备及存储介质 |
CN111737432A (zh) * | 2020-06-22 | 2020-10-02 | 四川长虹电器股份有限公司 | 一种基于联合训练模型的自动对话方法和*** |
CN111897944B (zh) * | 2020-08-17 | 2024-03-22 | 哈尔滨工业大学 | 基于语义空间共享的知识图谱问答*** |
-
2020
- 2020-12-18 CN CN202011503354.XA patent/CN112507099B/zh active Active
-
2021
- 2021-06-15 US US17/348,270 patent/US20220198327A1/en active Pending
- 2021-11-29 JP JP2021193599A patent/JP7283009B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180157638A1 (en) | 2016-12-02 | 2018-06-07 | Microsoft Technology Licensing, Llc | Joint language understanding and dialogue management |
JP2020091549A (ja) | 2018-12-03 | 2020-06-11 | 日本放送協会 | テキスト分類装置、学習装置、およびプログラム |
JP2020135689A (ja) | 2019-02-25 | 2020-08-31 | 株式会社コトバデザイン | モデル学習システム、意図解釈システム、モデル学習方法およびモデル学習用プログラム |
CN110909145A (zh) | 2019-11-29 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 针对多任务模型的训练方法及装置 |
Non-Patent Citations (1)
Title |
---|
Shikib Mehri, Mihail Eric, Dilek Hakkani-Tur,DialoGLUE: A Natural Language Understanding Benchmark for Task-Oriented Dialogue,arXiv,2020年10月01日,[令和 4 年10 月11 日検索],インターネット <URL:http://arxiv.org/abs/2009.13570> |
Also Published As
Publication number | Publication date |
---|---|
CN112507099A (zh) | 2021-03-16 |
JP2022097396A (ja) | 2022-06-30 |
US20220198327A1 (en) | 2022-06-23 |
CN112507099B (zh) | 2021-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP7228662B2 (ja) | イベント抽出方法、装置、電子機器及び記憶媒体 | |
US20210342549A1 (en) | Method for training semantic analysis model, electronic device and storage medium | |
JP7214949B2 (ja) | Poi状態情報を取得する方法、装置、デバイス、プログラム及びコンピュータ記憶媒体 | |
KR20220005416A (ko) | 다항 관계 생성 모델의 트레이닝 방법, 장치, 전자 기기 및 매체 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
KR102521765B1 (ko) | 인과 관계의 판별 방법, 장치, 전자 기기 및 저장 매체 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
JP2023007367A (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP2021111420A (ja) | テキストエンティティの語義記述処理方法、装置及び機器 | |
JP7335300B2 (ja) | 知識事前訓練モデルの訓練方法、装置及び電子機器 | |
US20170371860A1 (en) | Latent Ambiguity Handling in Natural Language Processing | |
JP2021111334A (ja) | 検索データに基づくヒューマンコンピュータ対話型インタラクションの方法、装置及び電子機器 | |
EP3251114B1 (en) | Transcription correction using multi-token structures | |
JP2022003537A (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
KR20210125405A (ko) | 질문 분석 방법, 장치, 지식 기반 질문 응답 시스템 및 전자 기기 | |
US11321370B2 (en) | Method for generating question answering robot and computer device | |
US20220129448A1 (en) | Intelligent dialogue method and apparatus, and storage medium | |
US20230214689A1 (en) | Method and apparatus for processing dialogue, electronic device, and storage medium | |
JP2023012493A (ja) | 言語モデルの事前トレーニング方法、装置、デバイスおよび記憶媒体 | |
JP2022028897A (ja) | 文章翻訳方法、装置、電子機器及び記憶媒体 | |
JP2022031863A (ja) | 単語スロットの認識方法、装置及び電子機器 | |
CN114281968A (zh) | 一种模型训练及语料生成方法、装置、设备和存储介质 | |
CN112507103A (zh) | 任务型对话及模型训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7283009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |