JP7079311B2 - 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 - Google Patents
機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7079311B2 JP7079311B2 JP2020204323A JP2020204323A JP7079311B2 JP 7079311 B2 JP7079311 B2 JP 7079311B2 JP 2020204323 A JP2020204323 A JP 2020204323A JP 2020204323 A JP2020204323 A JP 2020204323A JP 7079311 B2 JP7079311 B2 JP 7079311B2
- Authority
- JP
- Japan
- Prior art keywords
- noise
- vector
- sample
- model
- machine reading
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Optimization (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Machine Translation (AREA)
- Character Input (AREA)
Description
ステップ101において、取得されたサンプルデータに基づいて、初期モデルをトレーニングして、中間モデルを生成する。
ステップ201において、中間モデルに対応する辞書と予め設定された重み行列とに基づいて、ノイズベクトル内の各要素の値を算出する。
ステップ301において、ノイズベクトルを処理対象サンプルに対応するテキストベクトルに***して、解析対象ベクトルを生成する。
ステップ401において、予め設定された重み行列から、ノイズベクトル内の各要素に対応する重みベクトルを取得する。
Claims (19)
- 機械読解モデルのトレーニング方法であって、
取得されたサンプルデータに基づいて、初期モデルをトレーニングして、中間モデルを生成するステップと、
第1の予め設定されたルールに従って前記サンプルデータから処理対象サンプルを抽出するステップと、
予め設定されたノイズ生成方法に従ってノイズテキストを生成するステップと、
前記ノイズテキストをそれぞれ各処理対象サンプルに追加して、ノイズサンプルを取得するステップと、
前記ノイズサンプルに基づいて、前記中間モデルに対して補正トレーニングを行って、機械読解モデルを生成するステップと、を含む、
ことを特徴とする機械読解モデルのトレーニング方法。 - 前記予め設定されたルールに従って前記サンプルデータから処理対象サンプルを抽出するステップは、
前記サンプルデータの数Nに基づいて、前記サンプルデータから抽出される処理対象サンプルの数Mを決定するステップであって、MはNより小さいステップ、
又は、
前記サンプルデータからランダムに処理対象サンプルを抽出するステップ、
又は、
前記サンプルデータ内の各サンプルに対応するマーク回答位置に基づいて、マーク回答位置が異なる処理対象サンプルを抽出するステップ、を含む、
ことを特徴とする請求項1に記載の機械読解モデルのトレーニング方法。 - 前記予め設定されたノイズ生成方法に従ってノイズテキストを生成するステップは、
前記中間モデルに対応する辞書及び予め設定された重み行列に基づいて、ノイズベクトルの各要素の値を算出するステップと、
前記ノイズベクトルの各要素の値に基づいて、ノイズテキストを生成するステップと、を含む、
ことを特徴とする請求項1に記載の機械読解モデルのトレーニング方法。 - 前記予め設定された重み行列にはL×K個の要素が含まれ、
前記中間モデルに対応する辞書及び予め設定された重み行列に基づいて、ノイズベクトルの各要素の値を算出するステップは、
予め設定された重み行列内の第i行の要素の値と、前記中間モデルに対応する辞書内の最初のK個の文字にそれぞれ対応するベクトル値とに基づいて、前記ノイズベクトルのi番目の要素の値を決定するステップを含む、
ことを特徴とする請求項3に記載の機械読解モデルのトレーニング方法。 - 前記ノイズベクトルの各要素の値を算出した後に、
前記ノイズベクトルを前記処理対象サンプルに対応するテキストベクトルに***して、解析対象ベクトルを生成するステップと、
前記ノイズベクトルの***位置及び前記処理対象サンプル内の回答の初期マーク位置に基づいて、前記解析対象ベクトル内の回答のマーク位置を決定するステップと、
前記中間モデルを使用して前記解析対象ベクトルをエンコード及びデコード処理して、前記解析対象ベクトル内の回答の予測位置を決定するステップと、
前記解析対象ベクトル内の回答の予測位置と前記マーク位置とのマッチング度が閾値以上である場合、前記中間モデルが再生成されたノイズベクトルをエンコード及びデコード処理した後、決定された予測位置と前記マーク位置とのマッチング度が閾値より小さくなるまで、前記予め設定された重み行列を更新して、ノイズベクトルを再生成するステップと、をさらに含む、
ことを特徴とする請求項4に記載の機械読解モデルのトレーニング方法。 - 前記ノイズベクトルを前記処理対象サンプルに対応するテキストベクトルに***する前に、
前記処理対象サンプルに対応するテキストベクトル内の回答のマーク位置[Ss,Se]に基づいて、前記ノイズベクトルの***位置SiがSs-x以下であるか、又は、SiがSe以上であると決定するステップをさらに含み、Ssは回答の開始位置であり、Seは回答の終了位置であり、xはノイズベクトルの長さである、
ことを特徴とする請求項5に記載の機械読解モデルのトレーニング方法。 - 前記ノイズベクトルの各要素の値に基づいて、ノイズテキストを生成するステップは、
前記予め設定された重み行列からノイズベクトルの各要素に対応する重みベクトルを取得するステップと、
各重みベクトル内の最大の重み値の位置に基づいて、予め設定された辞書から対応する位置の文字を抽出して、ノイズテキストの対応する位置の文字とするステップと、を含む、
ことを特徴とする請求項3~6のいずれかに記載の機械読解モデルのトレーニング方法。 - 前記ノイズベクトルの各要素の値に基づいて、ノイズテキストを生成するステップは、
前記中間モデルに対応する辞書から、文字に対応するベクトル値とノイズベクトル内のj番目の要素の値とのマッチング度が最高である文字を選択して、ノイズテキスト内のj番目の位置の文字とするステップを含む、
ことを特徴とする請求項3~6のいずれかに記載の機械読解モデルのトレーニング方法。 - 機械読解モデルのトレーニング装置であって、
取得されたサンプルデータに基づいて、初期モデルをトレーニングして、中間モデルを生成するための第1の生成モジュールと、
第1の予め設定されたルールに従って前記サンプルデータから処理対象サンプルを抽出するための抽出モジュールと、
予め設定されたノイズ生成方法に従ってノイズテキストを生成するための第2の生成モジュールと、
前記ノイズテキストをそれぞれ各処理対象サンプルに追加し、ノイズサンプルを取得するための取得モジュールと、
前記ノイズサンプルに基づいて、前記中間モデルに対して補正トレーニングを行って、機械読解モデルを生成するための第3の生成モジュールと、を含む、
ことを特徴とする機械読解モデルのトレーニング装置。 - 前記抽出モジュールは、具体的に、
前記サンプルデータの数Nに基づいて、前記サンプルデータから抽出される処理対象サンプルの数Mを決定し、MはNより小さく、
又は、
前記サンプルデータからランダムに処理対象サンプルを抽出し、
又は、
前記サンプルデータ内の各サンプルに対応するマーク回答位置に基づいて、マーク回答位置が異なる処理対象サンプルを抽出する、
ことを特徴とする請求項9に記載の機械読解モデルのトレーニング装置。 - 前記第2の生成モジュールは、
前記中間モデルに対応する辞書及び予め設定された重み行列に基づいて、ノイズベクトルの各要素の値を算出するための算出ユニットと、
前記ノイズベクトルの各要素の値に基づいて、ノイズテキストを生成するための第1の生成ユニットと、を含む、
ことを特徴とする請求項9に記載の機械読解モデルのトレーニング装置。 - 前記予め設定された重み行列にはL×K個の要素が含まれ、
前記算出ユニットは、具体的に、
予め設定された重み行列内の第i行の要素の値と、前記中間モデルに対応する辞書内の最初のK個の文字にそれぞれ対応するベクトル値とに基づいて、前記ノイズベクトル内のi番目の要素の値を決定する、
ことを特徴とする請求項11に記載の機械読解モデルのトレーニング装置。 - 前記第2の生成モジュールは、
前記ノイズベクトルを前記処理対象サンプルに対応するテキストベクトルに***して、解析対象ベクトルを生成するための第2の生成ユニットと、
前記ノイズベクトルの***位置及び前記処理対象サンプル内の回答の初期マーク位置に基づいて、前記解析対象ベクトル内の回答のマーク位置を決定するための第1の決定ユニットと、
前記中間モデルを使用して前記解析対象ベクトルをエンコード及びデコード処理して、前記解析対象ベクトル内の回答の予測位置を決定するための第2の決定ユニットと、
前記解析対象ベクトル内の回答の予測位置と前記マーク位置とのマッチング度が閾値以上である場合、前記中間モデルが再生成されたノイズベクトルをエンコード及びデコード処理した後、決定された予測位置と前記マーク位置とのマッチング度が閾値より小さくなるまで、前記予め設定された重み行列を更新して、ノイズベクトルを再生成するための更新ユニットと、をさらに含む、
ことを特徴とする請求項12に記載の機械読解モデルのトレーニング装置。 - 前記処理対象サンプルに対応するテキストベクトル内の回答のマーク位置[Ss,Se]に基づいて、前記ノイズベクトルの***位置SiがSs-x以下であるか、又は、SiがSe以上であると決定するための決定モジュールをさらに含み、Ssは回答の開始位置であり、Seは回答の終了位置であり、xはノイズベクトルの長さである、
ことを特徴とする請求項13に記載の機械読解モデルのトレーニング装置。 - 前記第1の生成ユニットは、具体的に、
前記予め設定された重み行列からノイズベクトルの各要素に対応する重みベクトルを取得し、
各重みベクトル内の最大の重み値の位置に基づいて、予め設定された辞書から対応する位置の文字を抽出して、ノイズテキストの対応する位置の文字とする、
ことを特徴とする請求項11~14のいずれかに記載の機械読解モデルのトレーニング装置。 - 前記第1の生成ユニットは、具体的に、
前記中間モデルに対応する辞書から、文字に対応するベクトル値とノイズベクトル内のj番目の要素の値とのマッチング度が最高である文字を選択して、ノイズテキスト内のj番目の位置の文字とする、
ことを特徴とする請求項11~14のいずれかに記載の機械読解モデルのトレーニング装置。 - 電子機器であって、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも一つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも一つのプロセッサによって実行される場合、前記少なくとも一つのプロセッサが請求項1~8のいずれかに記載の機械読解モデルのトレーニング方法を実行する、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータ命令は、コンピュータに請求項1~8のいずれかに記載の機械読解モデルのトレーニング方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムは、コンピュータに請求項1~8のいずれかに記載の機械読解モデルのトレーニング方法を実行させる、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911376949.0A CN111160568B (zh) | 2019-12-27 | 2019-12-27 | 机器阅读理解模型训练方法、装置、电子设备和存储介质 |
CN201911376949.0 | 2019-12-27 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021108115A JP2021108115A (ja) | 2021-07-29 |
JP7079311B2 true JP7079311B2 (ja) | 2022-06-01 |
Family
ID=70558589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020204323A Active JP7079311B2 (ja) | 2019-12-27 | 2020-12-09 | 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11410084B2 (ja) |
JP (1) | JP7079311B2 (ja) |
CN (1) | CN111160568B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111951805A (zh) * | 2020-07-10 | 2020-11-17 | 华为技术有限公司 | 一种文本数据处理方法及装置 |
CN112380845B (zh) * | 2021-01-15 | 2021-04-09 | 鹏城实验室 | 句子噪声设计方法、设备及计算机存储介质 |
CN113571052A (zh) * | 2021-07-22 | 2021-10-29 | 湖北亿咖通科技有限公司 | 一种噪声提取及指令识别方法和电子设备 |
CN113282738B (zh) * | 2021-07-26 | 2021-10-08 | 北京世纪好未来教育科技有限公司 | 文本选择方法及装置 |
CN113642667B (zh) * | 2021-08-30 | 2024-02-02 | 重庆紫光华山智安科技有限公司 | 一种图片增强策略确定方法、装置、电子设备及存储介质 |
CN114241268A (zh) * | 2021-12-21 | 2022-03-25 | 支付宝(杭州)信息技术有限公司 | 一种模型的训练方法、装置及设备 |
CN114490990B (zh) * | 2022-01-28 | 2023-05-23 | 北京百度网讯科技有限公司 | 待标注文本的确定方法、装置、设备和存储介质 |
CN115909354B (zh) * | 2022-11-11 | 2023-11-10 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、文本获取方法及装置 |
CN118246558A (zh) * | 2024-05-30 | 2024-06-25 | 生命奇点(北京)科技有限公司 | 一种文本处理方法、装置、电子设备和存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081298A (ja) | 2016-11-16 | 2018-05-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8439684B2 (en) * | 2005-08-31 | 2013-05-14 | School Specialty, Inc. | Method of teaching reading |
CN104966097B (zh) * | 2015-06-12 | 2019-01-18 | 成都数联铭品科技有限公司 | 一种基于深度学习的复杂文字识别方法 |
US10997221B2 (en) * | 2018-04-07 | 2021-05-04 | Microsoft Technology Licensing, Llc | Intelligent question answering using machine reading comprehension |
CN108959396B (zh) * | 2018-06-04 | 2021-08-17 | 众安信息技术服务有限公司 | 机器阅读模型训练方法及装置、问答方法及装置 |
US20200034750A1 (en) * | 2018-07-26 | 2020-01-30 | Sap Se | Generating artificial training data for machine-learning |
CN109033478B (zh) * | 2018-09-12 | 2022-08-19 | 重庆工业职业技术学院 | 一种用于搜索引擎的文本信息规律分析方法与*** |
CN109685102B (zh) * | 2018-11-13 | 2024-07-09 | 平安科技(深圳)有限公司 | 胸部病灶图像分类方法、装置、计算机设备及存储介质 |
CN109741406A (zh) * | 2019-01-03 | 2019-05-10 | 广州广电银通金融电子科技有限公司 | 一种监控场景下的车身颜色识别方法 |
CN109816111B (zh) * | 2019-01-29 | 2022-03-08 | 北京金山数字娱乐科技有限公司 | 阅读理解模型训练方法以及装置 |
CN110096698B (zh) * | 2019-03-20 | 2020-09-29 | 中国地质大学(武汉) | 一种考虑主题的机器阅读理解模型生成方法与*** |
US11151478B2 (en) * | 2019-04-05 | 2021-10-19 | Vmware, Inc. | Enhanced learning with feedback loop for machine reading comprehension models |
CN110222152B (zh) * | 2019-05-29 | 2021-05-14 | 北京邮电大学 | 一种基于机器阅读理解的问题答案获取方法及*** |
CN110516059B (zh) * | 2019-08-30 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 基于机器学习的问题答复方法、问答模型训练方法及装置 |
CN111079938B (zh) * | 2019-11-28 | 2020-11-03 | 百度在线网络技术(北京)有限公司 | 问答阅读理解模型获取方法、装置、电子设备及存储介质 |
US11983854B2 (en) * | 2020-11-10 | 2024-05-14 | Adobe Inc. | Denoising images rendered using Monte Carlo renderings |
-
2019
- 2019-12-27 CN CN201911376949.0A patent/CN111160568B/zh active Active
-
2020
- 2020-06-29 US US16/915,885 patent/US11410084B2/en active Active
- 2020-12-09 JP JP2020204323A patent/JP7079311B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081298A (ja) | 2016-11-16 | 2018-05-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 |
Non-Patent Citations (2)
Title |
---|
山本 航平,ノウハウ質問応答におけるニューラル読解モデルの評価,言語処理学会第25回年次大会 発表論文集 [online] Proceedings of the Twenty-fifth Annual Meeting of the Association for Natural Language Processing,日本,言語処理学会,2019年03月04日,第695-698頁 |
澤山 熱気 ATSUKI SAWAYAMA,半自動学習データ構築による固有表現認識の改善 Named Entity Recognition Improvement through Semi-supervised Data Construction,情報処理学会 研究報告 音声言語情報処理(SLP) 2016-SLP-111 [online] ,日本,情報処理学会,2016年05月09日,第1-6頁 |
Also Published As
Publication number | Publication date |
---|---|
US20210201196A1 (en) | 2021-07-01 |
CN111160568B (zh) | 2021-04-06 |
US11410084B2 (en) | 2022-08-09 |
CN111160568A (zh) | 2020-05-15 |
JP2021108115A (ja) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7079311B2 (ja) | 機械読解モデルのトレーニング方法、装置、電子機器及び記憶媒体 | |
CN111539514B (zh) | 用于生成神经网络的结构的方法和装置 | |
CN111598216B (zh) | 学生网络模型的生成方法、装置、设备及存储介质 | |
CN109313719B (zh) | 使用神经网络生成文本段的依存性解析 | |
KR20210040851A (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
KR102554758B1 (ko) | 기계 번역에서 모델 트레이닝 방법, 장치, 전자 기기 및 기록 매체 | |
JP7346788B2 (ja) | 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN110807331B (zh) | 一种多音字读音预测方法、装置和电子设备 | |
KR102630243B1 (ko) | 구두점 예측 방법 및 장치 | |
EP3855339A1 (en) | Method and apparatus for generating text based on semantic representation | |
CN111241838B (zh) | 文本实体的语义关系处理方法、装置及设备 | |
CN112560499B (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
KR20210158815A (ko) | 트리플 샘플 생성 방법, 장치, 전자 기기 및 기록 매체 | |
CN111738419A (zh) | 神经网络模型的量化方法和装置 | |
KR20210129605A (ko) | 텍스트 핵심정보 추출방법, 장치, 전자기기 및 기록매체 | |
KR20210139152A (ko) | 의미적 유사성 모델의 훈련 방법, 장치, 전자 기기 및 기록 매체 | |
EP3855341A1 (en) | Language generation method and apparatus, electronic device and storage medium | |
KR20210058765A (ko) | 음성 인식 방법, 장치, 전자기기 및 저장 매체 | |
CN111475614B (zh) | 知识推理对话方法、装置、电子设备和存储介质 | |
JP7352640B2 (ja) | 検索項目書き換え方法、装置、機器および記憶媒体 | |
CN111382562B (zh) | 文本相似度的确定方法、装置、电子设备及存储介质 | |
US10740555B2 (en) | Deep learning approach to grammatical correction for incomplete parses | |
CN111859981A (zh) | 语言模型获取及中文语义理解方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220520 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079311 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |