JP7166322B2 - モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム - Google Patents

モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム Download PDF

Info

Publication number
JP7166322B2
JP7166322B2 JP2020206144A JP2020206144A JP7166322B2 JP 7166322 B2 JP7166322 B2 JP 7166322B2 JP 2020206144 A JP2020206144 A JP 2020206144A JP 2020206144 A JP2020206144 A JP 2020206144A JP 7166322 B2 JP7166322 B2 JP 7166322B2
Authority
JP
Japan
Prior art keywords
annotation
loss function
function value
classification
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020206144A
Other languages
English (en)
Other versions
JP2021197137A (ja
Inventor
ホンジェン シ
ウェンビン ジャン
シンウュイ フォン
ミャオ ユウ
ファンユイ チョウ
メン ティエン
シュエチョン ウー
シュンチャオ ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021197137A publication Critical patent/JP2021197137A/ja
Application granted granted Critical
Publication of JP7166322B2 publication Critical patent/JP7166322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本出願は、コンピュータ技術分野に関し、具体的には、知識グラフ分野、自然言語処理、ディープラーニング分野に関し、特に、モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラムに関する。
意味マッチング技術は自然言語処理分野において重要な技術発展の方向であり、業務においても幅広く応用されており、応用の礎となっている。意味マッチング技術は、簡単に言うと、2つの文字列を意味理解した後、その意味に基づいて類似度マッチングを行う技術である。意味マッチング技術は自然言語処理分野において常に重要な地位を占めているだけでなく、ランキング、推薦、対話など多くの業務分野で幅広く応用されており、研究や業務に不可欠な一部である。
しかし、意味マッチングモデルの訓練データは意味マッチング技術の科学研究と業務への応用を制限している。意味マッチングモデルの訓練データでは、一部の基準が曖昧なマッチング要求に対してデータ注釈が困難であり、非常に多くの注釈ミスが出現したり、非常に多くのノイズが発生したりすることが多い。意味マッチングモデルの効果を更に推進するためには、ノイズを克服し、効率的かつ正確な意味マッチングモデルを訓練することが不可欠である。
本出願は、モデルを訓練するための方法、装置を提供する。
第1態様によれば、モデルを訓練するための方法であって、テキストデータ、画像データ、音声データもしくは映像データを含むサンプルデータとサンプルデータに対応する注釈分類結果とを含む第1の注釈データセットを取得するステップと、
前記第1の注釈データセットに基づいて予め設定された初期分類モデルを訓練して中間モデルを取得するステップと、
前記中間モデルを用いて前記第1の注釈データセットにおけるサンプルデータを予測して、前記サンプルデータに対応する予測分類結果を取得するステップと、
前記サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するステップと、
前記第2の注釈データセットに基づいて前記中間モデルを訓練して分類モデルを取得するステップと、を含む、モデルを訓練するための方法を提供する。
第2態様によれば、モデルを訓練するための装置であって、テキストデータ、画像データ、音声データもしくは映像データを含むサンプルデータとサンプルデータに対応する注釈分類結果とを含む第1の注釈データセットを取得するように構成された取得ユニットと、
前記第1の注釈データセットに基づいて予め設定された初期分類モデルを訓練して中間モデルを取得するように構成された第1の訓練ユニットと、
前記中間モデルを用いて前記第1の注釈データセットにおけるサンプルデータを予測して、前記サンプルデータに対応する予測分類結果を取得するように構成された予測ユニットと、
前記サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するように構成された生成ユニットと、
前記第2の注釈データセットに基づいて前記中間モデルを訓練して分類モデルを取得するように構成された第2の訓練ユニットと、を含む、モデルを訓練するための装置を提供する。
第3態様によれば、少なくとも1つのプロセッサおよび前記少なくとも1つのプロセッサに通信接続されたメモリを含む、モデルを訓練するための電子機器であって、
前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
前記命令が前記少なくとも1つのプロセッサによって実行されると前記少なくとも1つのプロセッサが第1態様に記載の方法を実行することを可能にする、電子機器を提供する。
第4態様によれば、コンピュータ命令が記憶されている非一時的コンピュータ可読記憶媒体であって、前記コンピュータ命令が第1態様に記載の方法を前記コンピュータに実行させるためのものである記憶媒体を提供する。
第5態様によれば、コンピュータプログラムであって、前記コンピュータプログラムがプロセッサによって実行されると、第1態様に記載の方法を実現するコンピュータプログラムを提供する。
本出願に係る技術によれば、高ノイズの注釈データを効果的に利用し、実行可能性が高いモデルを訓練し、データの利用率を向上させることができる。
ここで説明された内容は、本開示の実施形態の肝心または重要な特徴を識別することが意図されているわけではなく、本開示の範囲を限定するためのものではないことを理解されたい。本開示の他の特徴は、以下の明細書によってより理解しやすくなるであろう。
図面は本出願をよりよく理解するために使用されるものであり、本出願への限定を構成しない。
図1は、本出願の一実施形態を適用することができる例示的なシステムアーキテクチャ図である。 図2は、本出願に係るモデルを訓練するための方法の一実施形態のフローチャートである。 図3は、本出願に係るモデルを訓練するための方法の1つの適用シーンの概略図である。 図4は、本出願に係るモデルを訓練するための方法の別の実施形態のフローチャートである。 図5は、本出願に係るモデルを訓練するための装置の一実施形態の構造概略図である。 図6は、本出願の実施形態に係るモデルを訓練するための方法を実行するための電子機器のブロック図である。
以下では図面を参照して本出願に係る例示的な実施形態について説明する。理解を容易にするために、本出願の実施形態の様々な詳細が含まれるが、それらは例示的なものにすぎないとみなされるべきである。したがって、当業者であれば、本出願に係る実施形態は、本出願の範囲および趣旨から逸脱しない前提では、様々な変更および修正を行うことができることを認識できるであろう。同様に、以下の説明では、明確化かつ簡略化のために、公知の機能および構造の説明を省略する。
なお、本出願の実施形態および実施形態における特徴は、衝突しない前提で互いに組み合わせられてもよいことに留意されたい。以下、添付図面を参照し、実施形態に関連して本出願について詳細に説明する。
図1は、本出願に係るモデルを訓練するための方法またはモデルを訓練するための装置の一実施形態を適用することができる例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104、およびサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクを提供するための媒体である。ネットワーク104は、有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、メッセージなどを受送信するために、端末装置101、102、103を使用して、ネットワーク104を介してサーバ105と対話することができる。端末装置101、102、103には、ウェブページ閲覧系アプリケーション、音声認識系アプリケーションなど様々な通信クライアントアプリケーションが実装されることが可能である。
端末装置101、102、103は、ハードウェアであってもよいし、ソフトウェアであってもよい。端末装置101、102、103がハードウェアである場合、スマートフォン、タブレット、電子ブックリーダー、車載コンピュータ、ラップトップ携帯コンピュータ、デスクトップコンピュータなどを含むが、これらに限定されない様々な電子機器であり得る。端末装置101、102、103がソフトウェアである場合、上述した電子機器にインストールすることができる。これは、(例えば、分散サービスを提供するために使用される)複数のソフトウェアまたはソフトウェアモジュールとして実装されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよい。ここでは具体的な限定はしない。
サーバ105は、分類モデルを端末装置101、102、103に提供するバックグラウンドサーバのような様々なサービスを提供するサーバであり得る。バックグラウンドサーバは、訓練サンプルデータを用いて初期分類モデルを訓練し、目標分類モデルを取得して、目標分類モデルを端末装置101、102、103にフィードバックすることができる。
なお、サーバ105は、ハードウェアであってもよいし、ソフトウェアであってもよい。サーバ105がハードウェアである場合、複数のサーバからなる分散サーバクラスタとして実装されてもよく、単一のサーバとして実装されてもよい。サーバ105がソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するために使用される)として実装されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよい。ここでは具体的な限定はしない。
なお、本出願の実施形態によって提供されるモデルを訓練するための方法は、一般にサーバ105によって実行される。したがって、モデルを訓練するための装置は、一般にサーバ105内に配置される。
図1の端末装置、ネットワーク、およびサーバの数は、概略的なものにすぎないことを理解されたい。実施のニーズに応じて、任意の数の端末装置、ネットワーク、およびサーバを有することができる。
図2は、本出願に係るモデルを訓練するための方法の一実施形態の流れ200を示す。本実施形態に係るモデルを訓練するための方法は、以下のステップ(ステップ201~205)を含む。
ステップ201:第1の注釈データセットを取得する。
本実施形態では、モデルを訓練するための方法の実行主体(例えば、図1に示すサーバ105)は、まず、第1の注釈データセットを取得することができる。上述した第1の注釈データセットは、サンプルデータと、サンプルデータに対応する注釈分類結果とを含むことができる。上述したサンプルデータは、テキストデータ、画像データ、映像データ、音声データなどを含むことができる。注釈分類結果は、サンプルデータに対して手動で注釈を行ったものであることが可能であり、サンプルデータが属する分類を表すために用いられることができる。例えば、サンプルデータは自動車画像である場合、注釈分類結果は「自動車」であり得る。
ステップ202:第1の注釈データセットに基づいて、予め設定された初期分類モデルを訓練し、中間モデルを取得する。
本実施形態では、実行主体は、第1の注釈データセットを取得した後、第1の注釈データセットを用いて、予め設定された初期分類モデルを訓練し、中間モデルを取得することができる。訓練時に、第1の注釈データセットの一部のデータまたはすべてのデータを用いて、初期分類モデルを訓練することができる。実行主体は、第1の注釈データセットにおけるサンプルデータを初期分類モデルの入力とし、入力されたサンプルデータに対応する注釈分類結果を所望の出力として、中間モデルを取得することができる。上述した初期分類モデルは、ニューラルネットワークなどの任意のディープラーニングモデルを含むことができる。
ステップ203:中間モデルを用いて第1の注釈データセットにおけるサンプルデータを予測し、サンプルデータに対応する予測分類結果を取得する。
訓練により中間モデルを取得した後、実行主体は第1の注釈データセットにおけるサンプルデータを上述した中間モデルに入力することにより、第1の注釈データセットにおけるサンプルデータを予測することができる。中間モデルは、サンプルデータが予め設定された各カテゴリに属する確率を判断し、予測分類結果を取得することができる。ここで、予測分類結果には、複数の予測確率値が含まれることが可能であり、サンプルデータが属するカテゴリが含まれることも可能である。例えば、予め設定されたカテゴリはカテゴリ1、2、3、4を含むことができる。中間モデルによる予測分類結果は0.2、0.3、0.1、0.4であってもよいし、カテゴリ4であってもよい。ここでカテゴリ4は予測確率値における最大値に対応するカテゴリである。
ステップ204:サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成する。
実行主体は、予測分類結果を取得した後、サンプルデータおよび注釈分類結果を結合して、第2の注釈データセットを生成することができる。第2の注釈データセットは、サンプルデータと、サンプルデータに対応する更新注釈結果とを含むこともできることを理解されたい。ここで、第2の注釈データセットにおけるサンプルデータは第1の注釈データセットにおけるサンプルデータと同様であってもよく、更新注釈結果は注釈分類結果と予測分類結果とを含むことができる。例えば、サンプルデータAは注釈分類結果が1であり、予測分類結果が2である場合、第2の注釈データはサンプルデータAおよび更新注釈結果1、2を含むことができる。
本出願のいくつかのオプションの実施形態では、予測分類結果には、予め設定されたカテゴリの予測確率値が含まれる。実行主体は図2に示されていないステップ、すなわち注釈分類結果および各予測確率値に基づいてサンプルデータの更新注釈結果を確定するステップと、サンプルデータおよび更新注釈結果に基づいて第2の注釈データセットを生成するステップとにより、第2の注釈データセットを生成することができる。
本実施形態では、実行主体は注釈分類結果および各予測確率値に基づいて、サンプルデータの更新注釈結果を確定することができる。上述した更新注釈結果には注釈分類結果に対応するカテゴリが含まれているほか、各予測確率値や予測されたカテゴリも含まれている。そして、実行主体はサンプルデータおよび更新注釈結果に基づいて第2の注釈データセットを生成することができる。具体的には、実行主体は以下の2つの実施形態で更新注釈結果を確定することができる。
実施形態1:各予測確率値および注釈分類結果に含まれるカテゴリを予め設定された順に配列し、配列の結果を更新注釈結果とする。
本実施形態では、実行主体は各予測確率値および注釈分類結果に含まれるカテゴリを予め設定された順に配列し、配列の結果を更新注釈結果とすることができる。例えば、予め設定されたカテゴリはカテゴリ1、2、3、4を含むことができる。中間モデルにより取得された予測分類結果は0.2、0.3、0.1、0.4であり得る。注釈分類結果に含まれるカテゴリは3である。この場合、更新注釈結果は0.2、0.3、0.1、0.4、3であってもよいし、3、0.2、0.3、0.1、0.4であってもよい。
実施形態2:各予測確率値における最大値に対応するカテゴリを確定し、確定されたカテゴリと注釈分類結果に含まれるカテゴリとを組み合わせて、更新注釈結果を取得する。
本実施形態では、実行主体はまず、各予測確率値における最大値に対応するカテゴリを確定することができる。例えば、予め設定されたカテゴリはカテゴリ1、2、3、4を含むことができる。中間モデルにより取得された予測分類結果は0.2、0.3、0.1、0.4であり得る。この場合、最大値に対応するカテゴリは4となる。注釈分類結果に含まれるカテゴリは3である場合、更新注釈結果は4、3であり得る。
ステップ205:第2の注釈データセットに基づいて中間モデルを訓練し、分類モデルを取得する。
実行主体は第2の注釈データセットを取得した後、第2の注釈データセットを用いて中間モデルを訓練し、分類モデルを取得することができる。具体的には、注釈分類結果が予測分類結果と同じである場合、実行主体はそのサンプルを正サンプルとすることができる。注釈分類結果が予測分類結果と異なる場合、実行主体はそのサンプルを負サンプルとすることができる。実行主体は、それぞれ正サンプルと負サンプルを用いて中間モデルを訓練し、分類モデルを取得することができる。
図3は、本出願に係るモデルを訓練するための方法の1つの適用シーンの概略図を示す。図3の適用シーンでは、サーバ301は端末装置302から第1の注釈データセットを取得し、そして第1の注釈データセットを用いて予め設定された初期分類モデルを訓練して中間モデルを取得し、さらに第1の注釈データセットおよび予測分類結果に基づいて第2の注釈データセットを取得することができる。サーバ301は第2の注釈データセットを用いて中間モデルを訓練し続け、分類モデルを取得することができる。次いで、実行主体は、分類モデルを端末装置302にフィードバックすることができる。
本出願の上述した実施形態によって提供されるモデルを訓練するための方法は、高ノイズの注釈データを効果的に利用し、実行可能性が高いモデルを訓練して得ることができ、データの利用率が向上される。
図4は、本出願に係るモデルを訓練するための方法の別の実施形態の流れ400を示す。図4に示すように、本実施形態に係るモデルを訓練するための方法は、以下のステップ(ステップ401~407)を含むことができる。
ステップ401:第1の注釈データセットを取得する。
ステップ402:第1の注釈データセットに基づいて、予め設定された初期分類モデルを訓練し、中間モデルを取得する。
ステップ403:中間モデルを用いて第1の注釈データセットにおけるサンプルデータを予測し、サンプルデータに対応する予測分類結果を取得する。
ステップ404:サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成する。
ステップ401~404の原理は、ステップ201~204の原理と同様であるため、ここではこれ以上説明しない。
ステップ405:第2の注釈データセットにおけるサンプルデータを中間モデルに入力し、出力結果を確定する。
実行主体は、第2の注釈データセットにおけるサンプルデータを中間モデルに入力し、出力結果を取得することができる。この出力結果には各カテゴリに対応する予測確率が含まれている。
ステップ406:出力結果、注釈分類結果、および予測分類結果に基づいて、中間モデルの損失関数値を確定する。
本実施形態では、実行主体は出力結果、注釈分類結果、および予測分類結果に基づいて、中間モデルの損失関数値を確定することができる。具体的には、実行主体は出力結果と注釈分類結果および予測分類結果とをそれぞれ比較し、出力結果と注釈分類結果および予測分類結果との差を確定することができる。差の大きい比較結果に基づいて、中間モデルの損失関数値を確定する。
本出願のいくつかのオプションの実施形態では、実行主体は図4に示されていない次のステップ、すなわち出力結果および注釈分類結果に基づいて第1の損失関数値を確定するステップと、出力結果および予測分類結果に基づいて第2の損失関数値を確定するステップと、第1の損失関数値および第2の損失関数値に基づいて中間モデルの損失関数値を確定するステップとにより、中間モデルの損失関数値を確定することができる。
実行主体は、出力結果および注釈分類結果を予め設定された損失関数に代入して第1の損失関数値を取得することができる。ここで、第1の損失関数値は、1つの値であってもよいし、複数の値であってもよい。第1の損失関数が1つの値である場合、それが最大予測確率値に対応するカテゴリに対応する。第1の損失関数が複数の値である場合、それが各予測確率値に対応するカテゴリに対応する。
同様に、実行主体は、出力結果および予測分類結果を予め設定された損失関数に代入して第2の損失関数値を取得することができる。
実行主体は、第1の損失関数値および第2の損失関数値を取得した後に、両者を重み付けして1つの値を取得し、その値を中間モデルの損失関数値とすることができる。
本出願のいくつかのオプションの実施形態では、実行主体は、第1の損失関数値に対応する第1の重みおよび第2の損失関数値に対応する第2の重みを確定するステップと、第1の重み、第2の重み、第1の損失関数値、および第2の損失関数値に基づいて中間モデルの損失関数値を確定するステップとにより、中間モデルの損失関数値を確定することができる。
本実施形態では、まず、第1の損失関数値に対応する第1の重みおよび第2の損失関数値に対応する第2の重みを確定することができる。ここで、第1の重みおよび第2の重みは、手動で入力されてもよく、他のアルゴリズム(例えば、ランダムアルゴリズム、ディープラーニングアルゴリズムなど)によって取得されてもよい。その後、第1の重みに第1の損失関数値を乗算して積を取得し、第2の重みに第2の損失関数値を乗算して別の積を取得し、2つの積を加算して取得された和の値を中間モデルの損失関数値とすることができる。
本出願のいくつかのオプションの実施形態では、上述した第1の重みおよび第2の重みは、第1の注釈データセットにおけるノイズデータの割合に基づいて第1の重みおよび第2の重みを確定するステップにより、確定されることが可能である。
本実施形態では、第1の注釈データセットにおけるノイズデータの割合を確定することもできる。具体的には、実行主体は第1の注釈データセットを複数回サンプリングすることができる。サンプリングごとに取得されたデータについて、そのデータの注釈が正しいかどうかを確定する。正しい場合、そのデータがノイズデータでなく、正しくない場合、そのデータがノイズデータであると考えられる。サンプリングされたデータを統計することにより、第1の注釈データセットにおけるノイズデータの割合を確定することができる。次いで、実行主体はこの割合に基づいて、第1の重みおよび第2の重みを確定することができる。具体的には、第1の注釈データセットにおけるノイズデータの割合が大きい場合、第1の重みの値を適切に低減し、割合が小さい場合、第1の重みの値を適切に増加することができる。すなわち、第1重みの値は上述した割合に反比例する。
ステップ407:損失関数値に基づいて中間モデルのパラメータを調整し、分類モデルを取得する。
実行主体は、上述した損失関数値に基づいて中間モデルのパラメータを調整し、中間モデルのパラメータの最適化を実現し、分類モデルを取得することができる。
本出願の上述した実施形態によって提供されるモデルを訓練するための方法は、出力結果に基づいて2つの損失関数値を取得し、これら2つの損失関数値に基づいて最終的な損失関数値を計算することができるため、中間モデルの訓練の精度が向上され、取得された分類モデルがより正確になることができる。
さらに図5を参照すると、本出願は、上述した各図に示す方法の実施形態として、様々な電子機器に具体的に適用することができるモデルを訓練するための装置の一実施形態を提供する。この装置の実施形態は、図2に示す方法の実施形態に対応する。
図5に示すように、本実施形態に係るモデルを訓練するための装置500は、取得ユニット501、第1の訓練ユニット502、予測ユニット503、生成ユニット504、および第2の訓練ユニット505を備える。
取得ユニット501は、第1の注釈データセットを取得するように構成されている。ここで、第1の注釈データセットは、テキストデータ、画像データ、音声データ、または映像データを含むサンプルデータと、サンプルデータに対応する注釈分類結果とを含む。
第1の訓練ユニット502は、第1の注釈データセットに基づいて、予め設定された初期分類モデルを訓練し、中間モデルを取得するように構成されている。
予測ユニット503は、中間モデルを用いて第1の注釈データセットにおけるサンプルデータを予測し、サンプルデータに対応する予測分類結果を取得するように構成されている。
生成ユニット504は、サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するように構成されている。
第2の訓練ユニット505は、第2の注釈データセットに基づいて中間モデルを訓練し、分類モデルを取得するように構成されている。
本出願のいくつかのオプションの実施形態では、予測分類結果には、予め設定されたカテゴリの予測確率値が含まれている。生成ユニット504は、図5に示されていない確定モジュールおよび生成モジュールをさらに含むことができる。
確定モジュールは、注釈分類結果および各予測確率値に基づいて、サンプルデータの更新注釈結果を確定するように構成されている。
生成モジュールは、サンプルデータおよび更新注釈結果に基づいて、第2の注釈データセットを生成するように構成されている。
本出願のいくつかのオプションの実施形態では、確定モジュールはさらに、各予測確率値および注釈分類結果に含まれるカテゴリを予め設定された順に配列し、上述した配列の結果を更新注釈結果とするように構成されている。
本出願のいくつかのオプションの実施形態では、確定モジュールはさらに、各予測確率値における最大値に対応するカテゴリを確定し、確定されたカテゴリと注釈分類結果に含まれるカテゴリとを組み合わせて、更新注釈結果を取得するように構成されている。
本出願のいくつかのオプションの実施形態では、第2の訓練ユニットは、図5に示されていない、出力結果確定モジュール、損失関数値確定モジュール、およびモデル訓練モジュールをさらに含むことができる。
出力結果確定モジュールは、第2の注釈データセットにおけるサンプルデータを中間モデルに入力して、出力結果を確定するように構成されている。
損失関数値確定モジュールは、出力結果、注釈分類結果、および予測分類結果に基づいて、中間モデルの損失関数値を確定するように構成されている。
モデル訓練モジュールは、損失関数値に基づいて中間モデルのパラメータを調整して、分類モデルを取得するように構成されている。
本出願のいくつかのオプションの実施形態では、損失関数値確定モジュールはさらに、出力結果および注釈分類結果に基づいて第1の損失関数値を確定し、出力結果および予測分類結果に基づいて第2の損失関数値を確定し、第1の損失関数値および第2の損失関数値に基づいて中間モデルの損失関数値を確定するように構成されている。
本出願のいくつかのオプションの実施形態では、損失関数値確定モジュールはさらに、第1の損失関数値に対応する第1の重みおよび第2の損失関数値に対応する第2の重みを確定し、第1の重み、第2の重み、第1の損失関数値、および第2の損失関数値に基づいて中間モデルの損失関数値を確定するように構成されている。
本出願のいくつかのオプションの実施形態では、損失関数値確定モジュールはさらに、第1の注釈データセットにおけるノイズデータの割合に基づいて、第1の重みおよび第2の重みを確定するように構成されている。
モデルを訓練するための装置500に記載されているユニット501~505は、それぞれ、図2を参照して説明された方法の各ステップに対応することを理解されたい。したがって、モデルを訓練するための方法について説明した動作および特徴は、装置500およびその中に含まれているユニットにも同様に適用可能であり、ここではこれ以上説明しない。
本出願の実施形態によれば、本出願はまた、電子機器およびコンピュータ可読記憶媒体を提供する。
図6は、本出願の一実施形態に係るモデルを訓練するための方法を実行する電子機器のブロック図を示す。電子機器は、ラップトップ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、および他の適切なコンピュータのような様々な形態のデジタルコンピュータを表すことが意図されている。電子機器はまた、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、および他の同様のコンピューティングデバイスのような様々な形態のモバイルデバイスを表すことができる。本出願に示す構成要素、それらの接続と関係およびそれらの機能は、一例に過ぎず、本出願に係るおよび/または要求される本出願の実施形態を限定することが意図されていない。
図6に示すように、電子機器は、1つまたは複数のプロセッサ601と、メモリ602と、高速インターフェースおよび低速インターフェースを含む各構成要素を接続するためのインターフェースとを備える。各構成要素は、異なるバスで互いに接続されており、共通マザーボードに実施されていてもよく、必要に応じて他の方法で実施されていてもよい。プロセッサは、インターフェースに結合された表示装置などの外部入出力装置上にGUIのグラフィック情報を表示するために、メモリに記憶された命令を含む電子機器内で実行される命令を処理することができる。他の実施形態では、複数のプロセッサおよび/または複数のバスは、必要に応じて、複数のメモリと共に使用されることが可能である。同様に、複数の電子機器を接続することができる。各機器は一部の必要な動作(例えば、サーバアレイ、ブレードサーバ群またはマルチプロセッサシステムとして)を行うことができる。図6では、1つのプロセッサ601を例にとる。
メモリ602は、本出願によって提供される非一時的コンピュータ可読記憶媒体である。前記メモリは、本出願によって提供されるモデルを訓練するための方法を少なくとも1つのプロセッサに実行させるために、少なくとも1つのプロセッサによって実行可能な命令を記憶する。本出願の非一時的コンピュータ可読記憶媒体は、本出願によって提供されるモデルを訓練するための方法をコンピュータに実行させるためのコンピュータ命令を記憶する。
メモリ602は、非一時的コンピュータ可読記憶媒体として、本出願の実施形態におけるモデルを訓練するための方法を実行するプログラム命令/モジュール(例えば、図5に示す取得ユニット501、第1の訓練ユニット502、予測ユニット503、生成ユニット504、および第2の訓練ユニット505)のような非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能プログラム、およびモジュールを記憶するために使用されることが可能である。プロセッサ601は、メモリ602に記憶された非一時的ソフトウェアプログラム、命令、およびモジュールを実行することにより、サーバの様々な機能アプリケーションおよびデータ処理、すなわち、上述した方法の実施形態におけるモデルを訓練するための方法を実行する。
メモリ602は、システム、少なくとも1つの機能を操作することに必要なアプリケーションを記憶することができるプログラム記憶領域と、モデルを訓練するための方法を実行する電子機器の使用に基づいて作成されたデータなどを記憶することができるデータ記憶領域とを含むことができる。さらに、メモリ602は、高速ランダムアクセスメモリを含むことができるほか、少なくとも1つのディスク記憶装置、フラッシュメモリデバイス、または他の非一時的固体記憶装置のような非一時的メモリを含むこともできる。いくつかの実施形態では、メモリ602は、あるいは、プロセッサ601に対して遠隔設置されたリモートメモリを含み、これらのリモートメモリは、モデルを訓練するための方法を実行する電子機器にネットワークを介して接続されることが可能である。上述したネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、移動体通信ネットワーク、およびそれらの組み合わせを含むが、これらに限定されない。
モデルを訓練するための方法を実行する電子機器は、入力装置603および出力装置604をさらに含むことができる。プロセッサ601、メモリ602、入力装置603、および出力装置604は、バスを介して接続されることが可能である。図6は、バスを介して接続されている例である。
入力装置603は、入力された数字または文字情報を受信し、モデルを訓練するための方法を実行する電子機器のユーザ設定および機能制御に関するキー信号の入力、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングレバー、1つまたは複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置を生成することができる。出力装置604は、表示装置、補助照明デバイス(例えば、LED)、および触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、およびプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態では、表示装置はタッチスクリーンであり得る。
本出願に記載されたシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェアおよび/またはそれらの組み合わせにおいて実施されることができる。これらの様々な実施形態は、専用または汎用プログラマブルプロセッサであってもよい少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈することができる1つまたは複数のコンピュータプログラム内において実施され、記憶システム、少なくとも1つの入力装置および少なくとも1つの出力装置からデータおよび命令を受信し、かつデータおよび命令を記憶システム、少なくとも1つの入力装置および少なくとも1つの出力装置に送信することができる実施形態を含むことができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、これらのコンピュータプログラムは、高レベルの手順および/またはオブジェクト指向プログラミング言語および/またはアセンブリ言語/機械語を使用して実施されることができる。本出願で使用されるように、「機械可読媒体」および「コンピュータ可読媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器および/またはデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械可読信号である機械命令を受信する機械可読媒体を含む。「機械可読信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するための任意の信号を意味する。
ユーザとの対話を提供するために、本出願に記載されたシステムおよび技術をコンピュータ上で実施することができる。前記コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを有し、ユーザは、キーボードおよびポインティングデバイスを介して入力をコンピュータに提供することができる。他の種類のデバイスはまた、ユーザとの対話を提供するために使用されることができる。例えば、ユーザに提供されるフィードバックは、任意の形態のセンサフィードバック(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよい。ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信されることが可能である。
本出願に記載されたシステムおよび技術は、バックグラウンド構成要素を含むコンピュータシステム(例えば、データサーバとして)、またはミドルウェア構成要素を含むコンピュータシステム(例えば、アプリケーションサーバ)、またはフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースまたはウェブブラウザを有するユーザコンピュータ(ユーザは、前記グラフィカルユーザインターフェースまたは前記ウェブブラウザを介して、本出願に記載されたシステムおよび技術の実施形態と相互作用することができる))、または上記したバックグラウンド構成要素、ミドルウェア構成要素またはフロントエンド構成要素の任意の組み合わせを含むコンピューティングシステムに実装されることができる。システムの構成要素は、任意の形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることができる。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)およびインターネットを含む。
コンピュータシステムは、クライアントおよびサーバを含むことができる。クライアントおよびサーバは一般的に互いに離れており、通常に通信ネットワークを介して相互作用する。クライアントとサーバの関係は、互いにクライアント-サーバ関係を有するコンピュータプログラムを対応するコンピュータ上で動作することによって生成される。
本出願の実施形態に係る技術によれば、高ノイズの注釈データを効果的に利用し、実行可能性が高いモデルを訓練して得ることができ、データの利用率が向上される。
上述した様々な形態のプロセスを使用して、ステップを再順序付け、追加、または削除することができることを理解されたい。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよい。本出願に開示される技術が所望する技術効果を実現できるものであればよく、ここでは特に限定しない。
上記した具体的な実施形態は、本出願の保護範囲の制限を構成していない。当業者であれば、設計要求および他の要因に応じて様々な修正、組み合わせ、再組合および代替を行うことができると認識できるだろう。本出願の趣旨および原則内で行われる任意の修正、同等の置換および改善などはすべて本出願の保護範囲内に含まれるものとする。

Claims (19)

  1. モデルを訓練するための方法であって、前記方法は、サーバによって実行され、
    テキストデータ、画像データ、音声データもしくは映像データを含むサンプルデータとサンプルデータに対応する注釈分類結果とを含む第1の注釈データセットを取得するステップと、
    前記第1の注釈データセットに基づいて予め設定された初期分類モデルを訓練して中間モデルを取得するステップと、
    前記中間モデルを用いて前記第1の注釈データセットにおけるサンプルデータを予測して、前記サンプルデータに対応する予測分類結果を取得するステップと、
    前記サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するステップと、
    前記第2の注釈データセットに基づいて前記中間モデルを訓練して分類モデルを取得するステップと、を含む、モデルを訓練するための方法。
  2. 前記予測分類結果は、予め設定されたカテゴリの予測確率値を含み、
    前記サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するステップは、
    前記注釈分類結果および各予測確率値に基づいて、前記サンプルデータの更新注釈結果を確定するステップと、
    前記サンプルデータおよび前記更新注釈結果に基づいて、第2の注釈データセットを生成するステップと、を含む、請求項1に記載の方法。
  3. 前記注釈分類結果および各予測確率値に基づいて、前記サンプルデータの更新注釈結果を確定するステップは、
    各予測確率値および前記注釈分類結果に含まれるカテゴリを予め設定された順に配列するステップと、
    配列の結果を前記更新注釈結果とするステップと、を含む、請求項2に記載の方法。
  4. 前記注釈分類結果および各予測確率値に基づいて、前記サンプルデータの更新注釈結果を確定するステップは、
    各予測確率値における最大値に対応するカテゴリを確定するステップと、
    確定されたカテゴリと前記注釈分類結果に含まれるカテゴリとを組み合わせて、前記更新注釈結果を取得するステップと、を含む、請求項2に記載の方法。
  5. 前記第2の注釈データセットに基づいて前記中間モデルを訓練して、分類モデルを取得するステップは、
    前記第2の注釈データセットにおけるサンプルデータを前記中間モデルに入力して、出力結果を確定するステップと、
    前記出力結果、前記注釈分類結果および前記予測分類結果に基づいて、前記中間モデルの損失関数値を確定するステップと、
    前記損失関数値に基づいて前記中間モデルのパラメータを調整して、前記分類モデルを取得するステップと、を含む、請求項1に記載の方法。
  6. 前記出力結果、前記注釈分類結果および前記予測分類結果に基づいて、前記中間モデルの損失関数値を確定するステップは、
    前記出力結果および前記注釈分類結果に基づいて、第1の損失関数値を確定するステップと、
    前記出力結果および前記予測分類結果に基づいて、第2の損失関数値を確定するステップと、
    前記第1の損失関数値および前記第2の損失関数値に基づいて、前記中間モデルの損失関数値を確定するステップと、を含む、請求項5に記載の方法。
  7. 前記第1の損失関数値および前記第2の損失関数値に基づいて、前記中間モデルの損失関数値を確定するステップは、
    前記第1の損失関数値に対応する第1の重みおよび前記第2の損失関数値に対応する第2の重みを確定するステップと、
    前記第1の重み、前記第2の重み、前記第1の損失関数値および前記第2の損失関数値に基づいて、前記中間モデルの損失関数値を確定するステップと、を含む、請求項6に記載の方法。
  8. 前記第1の損失関数値に対応する第1の重みおよび前記第2の損失関数値に対応する第2の重みを確定するステップは、
    前記第1の注釈データセットにおけるノイズデータの割合に基づいて、前記第1の重みおよび前記第2の重みを確定するステップと、を含む、請求項7に記載の方法。
  9. テキストデータ、画像データ、音声データもしくは映像データを含むサンプルデータとサンプルデータに対応する注釈分類結果とを含む第1の注釈データセットを取得するように構成された取得ユニットと、
    前記第1の注釈データセットに基づいて予め設定された初期分類モデルを訓練して中間モデルを取得するように構成された第1の訓練ユニットと、
    前記中間モデルを用いて前記第1の注釈データセットにおけるサンプルデータを予測して、前記サンプルデータに対応する予測分類結果を取得するように構成された予測ユニットと、
    前記サンプルデータ、対応する注釈分類結果、対応する予測分類結果に基づいて、第2の注釈データセットを生成するように構成された生成ユニットと、
    前記第2の注釈データセットに基づいて前記中間モデルを訓練して分類モデルを取得するように構成された第2の訓練ユニットと、を含む、モデルを訓練するための装置。
  10. 前記予測分類結果は、予め設定されたカテゴリの予測確率値を含み、
    前記生成ユニットは、
    前記注釈分類結果および各予測確率値に基づいて、前記サンプルデータの更新注釈結果を確定するように構成された確定モジュールと、
    前記サンプルデータおよび前記更新注釈結果に基づいて、第2の注釈データセットを生成するように構成された生成モジュールと、を含む、請求項9に記載の装置。
  11. 前記確定モジュールはさらに、
    各予測確率値および前記注釈分類結果に含まれるカテゴリを予め設定された順に配列し、
    配列の結果を前記更新注釈結果とするように構成されている、請求項10に記載の装置。
  12. 前記確定モジュールはさらに、
    各予測確率値における最大値に対応するカテゴリを確定し、
    確定されたカテゴリと前記注釈分類結果に含まれるカテゴリとを組み合わせて、前記更新注釈結果を取得するように構成されている、請求項10に記載の装置。
  13. 前記第2の訓練ユニットは、
    前記第2の注釈データセットにおけるサンプルデータを前記中間モデルに入力して、出力結果を確定するように構成された出力結果確定モジュールと、
    前記出力結果、前記注釈分類結果および前記予測分類結果に基づいて、前記中間モデルの損失関数値を確定するように構成された損失関数値確定モジュールと、
    前記損失関数値に基づいて前記中間モデルのパラメータを調整して、前記分類モデルを取得するように構成されたモデル訓練モジュールと、を含む、請求項9に記載の装置。
  14. 前記損失関数値確定モジュールはさらに、
    前記出力結果および前記注釈分類結果に基づいて、第1の損失関数値を確定し、
    前記出力結果および前記予測分類結果に基づいて、第2の損失関数値を確定し、
    前記第1の損失関数値および前記第2の損失関数値に基づいて、前記中間モデルの損失関数値を確定するように構成されている、請求項13に記載の装置。
  15. 前記損失関数値確定モジュールはさらに、
    前記第1の損失関数値に対応する第1の重みおよび前記第2の損失関数値に対応する第2の重みを確定し、
    前記第1の重み、前記第2の重み、前記第1の損失関数値および前記第2の損失関数値に基づいて、前記中間モデルの損失関数値を確定するように構成されている、請求項14に記載の装置。
  16. 前記損失関数値確定モジュールはさらに、
    前記第1の注釈データセットにおけるノイズデータの割合に基づいて、前記第1の重みおよび前記第2の重みを確定するように構成されている、請求項15に記載の装置。
  17. 少なくとも1つのプロセッサおよび前記少なくとも1つのプロセッサに通信接続されたメモリを含む、モデルを訓練するための電子機器であって、
    前記メモリには前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、
    前記命令が前記少なくとも1つのプロセッサによって実行されると前記少なくとも1つのプロセッサが請求項1~8のいずれか一項に記載の方法を実行することを可能にする、電子機器。
  18. コンピュータ命令が記憶されている非一時的コンピュータ可読記憶媒体であって、
    前記コンピュータ命令が請求項1~8のいずれか一項に記載の方法を前記コンピュータに実行させるためのものである記憶媒体。
  19. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサによって実行されると、請求項1~8のいずれか1項に記載の方法を実現するコンピュータプログラム。
JP2020206144A 2020-06-11 2020-12-11 モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム Active JP7166322B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010526432.1A CN111428008B (zh) 2020-06-11 2020-06-11 用于训练模型的方法、装置、设备以及存储介质
CN202010526432.1 2020-06-11

Publications (2)

Publication Number Publication Date
JP2021197137A JP2021197137A (ja) 2021-12-27
JP7166322B2 true JP7166322B2 (ja) 2022-11-07

Family

ID=71551413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020206144A Active JP7166322B2 (ja) 2020-06-11 2020-12-11 モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210390428A1 (ja)
EP (1) EP3923160A1 (ja)
JP (1) JP7166322B2 (ja)
KR (1) KR102534721B1 (ja)
CN (1) CN111428008B (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111881908B (zh) * 2020-07-20 2024-04-05 北京百度网讯科技有限公司 目标检测模型的修正方法、检测方法、装置、设备及介质
CN112017634B (zh) * 2020-08-06 2023-05-26 Oppo(重庆)智能科技有限公司 数据的处理方法、装置、设备以及存储介质
CN112149807B (zh) * 2020-09-28 2024-06-28 北京百度网讯科技有限公司 用户特征信息的处理方法和装置
CN112149754B (zh) * 2020-09-30 2021-06-11 罗中岩 一种信息的分类方法、装置、设备及存储介质
CN112365001B (zh) * 2020-11-11 2023-12-19 中国工商银行股份有限公司 模型的生成方法、装置和服务器
CN112329427B (zh) * 2020-11-26 2023-08-08 北京百度网讯科技有限公司 短信样本的获取方法和装置
CN112328710B (zh) * 2020-11-26 2024-06-11 北京百度网讯科技有限公司 实体信息处理方法、装置、电子设备和存储介质
CN112560912B (zh) * 2020-12-03 2023-09-26 北京百度网讯科技有限公司 分类模型的训练方法、装置、电子设备和存储介质
CN112926621B (zh) * 2021-01-21 2024-05-10 百度在线网络技术(北京)有限公司 数据标注方法、装置、电子设备及存储介质
KR102308751B1 (ko) * 2021-02-19 2021-10-05 주식회사 에스아이에이 딥러닝 기반의 강수량 예측 방법
CN113204614B (zh) * 2021-04-29 2023-10-17 北京百度网讯科技有限公司 模型训练方法、优化训练数据集的方法及其装置
CN113112311B (zh) * 2021-05-12 2023-07-25 北京百度网讯科技有限公司 训练因果推断模型的方法、信息提示方法以装置
CN113205189B (zh) * 2021-05-12 2024-02-27 北京百度网讯科技有限公司 训练预测模型的方法、预测方法及装置
CN113051374B (zh) * 2021-06-02 2021-08-31 北京沃丰时代数据科技有限公司 一种文本匹配优化方法及装置
CN113380238A (zh) * 2021-06-09 2021-09-10 阿波罗智联(北京)科技有限公司 处理音频信号的方法、模型训练方法、装置、设备和介质
CN113361621B (zh) * 2021-06-18 2023-12-15 北京百度网讯科技有限公司 用于训练模型的方法和装置
CN113590877B (zh) * 2021-08-05 2024-06-14 杭州海康威视数字技术股份有限公司 获取标注数据的方法及装置
CN113688036A (zh) * 2021-08-13 2021-11-23 北京灵汐科技有限公司 一种数据处理方法、装置、设备以及存储介质
CN113689111B (zh) * 2021-08-20 2022-11-11 北京百度网讯科技有限公司 故障识别模型训练方法、故障识别方法、装置和电子设备
CN113887227B (zh) * 2021-09-15 2023-05-02 北京三快在线科技有限公司 一种模型训练与实体识别方法及装置
CN113535930B (zh) * 2021-09-16 2022-03-04 阿里巴巴达摩院(杭州)科技有限公司 模型训练方法、装置及存储介质
CN114048759A (zh) * 2021-11-16 2022-02-15 北京百度网讯科技有限公司 模型训练方法、数据处理方法、装置、设备及介质
CN114241243B (zh) * 2021-12-20 2023-04-25 百度在线网络技术(北京)有限公司 图像分类模型的训练方法、装置、电子设备和存储介质
CN114443896B (zh) * 2022-01-25 2023-09-15 百度在线网络技术(北京)有限公司 数据处理方法和用于训练预测模型的方法
CN114443849B (zh) 2022-02-09 2023-10-27 北京百度网讯科技有限公司 一种标注样本选取方法、装置、电子设备和存储介质
CN114549935B (zh) * 2022-02-25 2024-05-07 北京百度网讯科技有限公司 信息生成方法和装置
CN115130539A (zh) * 2022-04-21 2022-09-30 腾讯科技(深圳)有限公司 分类模型训练、数据分类方法、装置和计算机设备
CN116431788B (zh) * 2023-04-14 2024-03-29 中电科大数据研究院有限公司 面向跨模态数据的语义检索方法
KR102677908B1 (ko) * 2023-08-16 2024-06-25 (주)엘로이랩 데이터 셋에 대한 오라벨링의 제거 또는 재라벨링(re-labeling)을 수행 하는 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084271A (zh) 2019-03-22 2019-08-02 同盾控股有限公司 一种图片类别的识别方法和装置
CN111125365A (zh) 2019-12-24 2020-05-08 京东数字科技控股有限公司 地址数据标注方法及装置、电子设备、存储介质
CN111210024A (zh) 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447031A (zh) * 2014-08-28 2016-03-30 百度在线网络技术(北京)有限公司 训练样本的标注方法及装置
US20170132528A1 (en) * 2015-11-06 2017-05-11 Microsoft Technology Licensing, Llc Joint model training
CN108960514B (zh) * 2016-04-27 2022-09-06 第四范式(北京)技术有限公司 展示预测模型的方法、装置及调整预测模型的方法、装置
CN108875821A (zh) * 2018-06-08 2018-11-23 Oppo广东移动通信有限公司 分类模型的训练方法和装置、移动终端、可读存储介质
CN110427493B (zh) * 2019-07-11 2022-04-08 新华三大数据技术有限公司 电子病历处理方法、模型训练方法及相关装置
CN110647937A (zh) * 2019-09-23 2020-01-03 北京百度网讯科技有限公司 标注模型训练方法及装置
CN110728328B (zh) * 2019-10-22 2022-03-01 支付宝(杭州)信息技术有限公司 分类模型的训练方法和装置
CN110826344B (zh) * 2019-10-24 2022-03-01 北京小米智能科技有限公司 神经网络模型压缩方法、语料翻译方法及其装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084271A (zh) 2019-03-22 2019-08-02 同盾控股有限公司 一种图片类别的识别方法和装置
CN111125365A (zh) 2019-12-24 2020-05-08 京东数字科技控股有限公司 地址数据标注方法及装置、电子设备、存储介质
CN111210024A (zh) 2020-01-14 2020-05-29 深圳供电局有限公司 模型训练方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN111428008B (zh) 2020-09-29
CN111428008A (zh) 2020-07-17
KR20210154069A (ko) 2021-12-20
KR102534721B1 (ko) 2023-05-22
US20210390428A1 (en) 2021-12-16
EP3923160A1 (en) 2021-12-15
JP2021197137A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
JP7166322B2 (ja) モデルを訓練するための方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
CN111539514B (zh) 用于生成神经网络的结构的方法和装置
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
US20210295098A1 (en) Event argument extraction method, event argument extraction apparatus and electronic device
KR20210037619A (ko) 멀티 모달 콘텐츠 처리 방법, 장치, 기기 및 저장 매체
JP7262571B2 (ja) 知識グラフのベクトル表現生成方法、装置及び電子機器
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7264866B2 (ja) イベント関係の生成方法、装置、電子機器及び記憶媒体
KR20210040316A (ko) 사용자 상호작용 정보 처리모델 생성방법, 사용자 상호작용 정보 처리방법 및 프로그램
CN111582479B (zh) 神经网络模型的蒸馏方法和装置
JP7133002B2 (ja) 句読点予測方法および装置
KR20210132578A (ko) 지식 그래프를 구축하는 방법, 장치, 기기 및 저장 매체
CN111709252B (zh) 基于预训练的语义模型的模型改进方法及装置
US11735168B2 (en) Method and apparatus for recognizing voice
CN112417156B (zh) 多任务学习方法、装置、设备以及存储介质
JP2021128779A (ja) データ拡張の方法及び装置、機器、記憶媒体
CN111611808A (zh) 用于生成自然语言模型的方法和装置
US20240104403A1 (en) Method for training click rate prediction model
JP7220733B2 (ja) ユーザappインタレストの埋め込み方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN112329429B (zh) 文本相似度学习方法、装置、设备以及存储介质
CN112580723A (zh) 多模型融合方法、装置、电子设备和存储介质
CN112288483A (zh) 用于训练模型的方法和装置、用于生成信息的方法和装置
CN111582480A (zh) 用于对模型剪枝的方法和装置
CN114662783A (zh) 更新业务处理模型的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150