JP7242797B2 - 語句処理方法、機器及び記憶媒体 - Google Patents

語句処理方法、機器及び記憶媒体 Download PDF

Info

Publication number
JP7242797B2
JP7242797B2 JP2021159038A JP2021159038A JP7242797B2 JP 7242797 B2 JP7242797 B2 JP 7242797B2 JP 2021159038 A JP2021159038 A JP 2021159038A JP 2021159038 A JP2021159038 A JP 2021159038A JP 7242797 B2 JP7242797 B2 JP 7242797B2
Authority
JP
Japan
Prior art keywords
word
vector
task
obtaining
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021159038A
Other languages
English (en)
Other versions
JP2022000805A (ja
Inventor
シュアイ チャン,
リジー ワン,
アオ チャン,
シンヤン シャオ,
ユエ チャン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022000805A publication Critical patent/JP2022000805A/ja
Application granted granted Critical
Publication of JP7242797B2 publication Critical patent/JP7242797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/322Trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本出願は、コンピュータ技術分野に関し、具体的には、深層学習、自然言語処理などの人工知能技術分野に関し、特に、語句処理方法、機器及び記憶媒体に関する。
現在、語句に対して自然言語処理を行うプロセスにおいて、一般的に、語句における各分割後の単語の単語ベクトルに基づいて自然言語処理の下流タスクを処理し、しかしながら、このような分割後の単語の単語ベクトルに基づいて下流タスクを直接行うという方式によって得られた処理結果は、不正確である。
本出願は、語句処理方法、機器及び記憶媒体を提供する。
本出願の第1の態様によれば、処理対象語句を取得し、前記処理対象語句に対して実行される下流タスクを取得するステップと、前記処理対象語句を単語に分割し、前記処理対象語句の分割後の単語の系列を取得するステップと、前記分割後の単語の系列に対して依存構文解析を行って、前記分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得するステップと、前記分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定するステップと、前記依存構文関係の樹形図及び前記各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを取得するステップと、前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップと、を含む語句処理方法を提供する。
本出願の他の態様によれば、処理対象語句を取得し、前記処理対象語句に対して実行される下流タスクを取得するための取得モジュールと、前記処理対象語句を単語に分割し、前記処理対象語句の分割後の単語の系列を取得するための単語分割モジュールと、前記分割後の単語の系列に対して依存構文解析を行って、前記分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得するための依存構文解析モジュールと、前記分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定するための決定モジュールと、前記依存構文関係の樹形図及び前記各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを取得するためのグラフニューラルネットワーク処理モジュールと、前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するためのタスク実行モジュールと、を備える語句処理装置を提供する。
本出願の他の態様によれば、電子機器を提供し、前記電子機器は、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサに通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが本出願の語句処理方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本出願の他の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が、コンピュータに本出願の実施例に開示された語句処理方法を実行させることに用いられる。
本出願の他の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本出願の語句処理方法が実現される。
上記出願における1つの実施例は、以下の利点又は有益な効果を有する。
処理対象語句を処理するプロセスにおいて、処理対象語句の分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得し、依存構文関係の樹形図及び分割後の単語の系列に対応する各分割後の単語の単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、系列における各分割後の単語の中間語ベクトルを単語に分割し、そして、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。これにより、構文情報が含まれる中間語ベクトルが得られ、構文情報が含まれる中間語ベクトルに基づいて下流タスク処理を実行することにより、下流タスクが処理対象語句の処理結果を正確に取得するようにして、下流タスクの処理効果を向上させる。
なお、本部分に記載された内容は、本出願の実施例の肝心または重要な特徴を限定することを意図するものではなく、本出願の範囲を限定するものでもない。本出願の他の特徴は、以下の説明によって容易に理解されやすくなる。
図面は、本技術案をよりよく理解するために使用され、本出願を限定するものではない。
本出願の1つの実施例に係る語句処理方法の概略フローチャートである。 ステップ106の詳細な概略フローチャートの1つである。 ステップ106の詳細な概略フローチャートの1つである。 本出願の1つの実施例に係る語句処理装置の概略構成図である。 本出願の他の実施例に係る語句処理装置の概略構成図である。 本出願の別の実施例に係る語句処理装置の概略構成図である。 本出願の実施例の語句処理方法を実現するための電子機器のブロック図である。
以下、図面と併せて本出願の例示的な実施例を説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれ、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、図面を参照して本出願の実施例の語句処理方法、機器及び記憶媒体を説明する。
図1は、本出願の1つの実施例に係る語句処理方法の概略フローチャートである。
図1に示すように、当該語句処理方法は、以下のステップを含むことができる。
ステップ101において、処理対象語句を取得し、処理対象語句に対して実行される下流タスクを取得する。
ここで、処理対象語句は、いずれかの語句であってもよく、当該実施例は、これを具体的に限定しない。
ここで、上記語句処理方法の実行主体は、語句処理装置であって、当該語句処理装置は、ソフトウェア及び/又はハードウェアによって実現でき、当該実施例における語句処理装置は、電子機器に配置してもよく、当該電子機器は、端末装置、サーバなどを備えることができるが、これらに限定されない。
ステップ102において、処理対象語句を単語に分割し、処理対象語句の分割後の単語の系列を取得する。
本実施例において、上記分割後の単語の系列の1つの可能な実現方式は、処理対象語句を単語に分割し、複数の候補分割後の単語の系列を取得し、予め設定された統計的言語モデルに基づいて各候補分割後の単語の系列に対してルート検索を行い、各候補分割後の単語の系列に対応するパススコアを取得し、パススコアに基づいて複数の候補分割後の単語の系列からスコアが最も高い候補分割後の単語の系列を選択し、前記処理対象語句の分割後の単語の系列とする。
ここで、統計的言語モデルは、実際の業務ニーズに応じて選択することができ、例えば、統計的言語モデルは、N次元モデル(すなわち、N-Gramモデル)であってもよい。
ステップ103において、分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得する。
いくつかの実施例において、分割後の単語の系列を予め設定された依存構文解析モデルに入力し、依存構文解析モデルによって分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得することができる。
ここで、依存構文関係の樹形図におけるノードは、分割後の単語の系列における各分割後の単語に対応し、かつ、依存構文関係の樹形図には、ノードとノードとの依存関係もあり、ここで、ノードとノードとの依存関係は、対応する分割後の単語と単語との依存関係を表す。
ここで、依存関係は、主述関係、動賓関係、間接賓語関係、前置目的語、兼語、定語中心語関係、状況語中心語構造、動補構造、並列関係、前置語賓語関係、独立構造、核心関係などを含むことができるが、これらに限定されず、当該実施例は、依存関係を具体的に限定しない。
ステップ104において、分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定する。
いくつかの実施例において、従来の単語ベクトル処理モデルによって分割後の単語の系列における各分割後の単語をベクトル表示し、分割後の単語の系列における各分割後の単語の単語ベクトルを取得することができる。
ステップ105において、依存構文関係の樹形図及び各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、分割後の単語の系列における各分割後の単語の中間語ベクトルを取得する。
なお、本実施例におけるグラフニューラルネットワークは、依存構文関係の樹形図及び各分割後の単語に対応する単語ベクトルに基づいて、分割後の単語と単語との依存関係を、対応する分割後の単語の単語ベクトルに表示し、各分割後の単語の中間語ベクトルを取得することができ、ここで、中間単語ベクトルは、依存関係に基づいて得られたものである。
ここで、グラフニューラルネットワーク(Graph neural network、GNN)は、グラフ構造に直接作用するニューラルネットワークであり、ソーシャルネットワーク、ナレッジグラフ、推奨システム乃至生命科学などの各分野においてますます広く応用されている。GNNは、空間に基づくグラフニューラルネットワークであり、そのアテンションメカニズムは、特徴情報を統合する際、アテンションメカニズムをノード近傍の重みの決定に用いるものである。GNNネットワークの入力は、ノードのベクトル及びノードの隣接マトリクスである。
構文解析結果は、ツリー構造(ツリーは、グラフの1つの特殊な構造)であるため、構文結果は、自然にグラフニューラルネットワークで表すことができ、したがって、先ずユーザデータに対して依存構文解析を行って、結果を隣接マトリクスによって表す。例えば、「XX(実際の応用において、1つの具体的な会社の名称)は、1つのハイテック会社である」という処理対象語句を例とすると、構文解析モデルによって当該処理語句を構文解析し、当該処理語句に対応する依存構文関係の樹形図を取得することができ、当該依存構文関係の樹形図は、表1に示すように、隣接マトリクスの形式で表すことができる。
Figure 0007242797000001
ここで、グラフの左側の文字は、親ノードを表し、上部の文字は、子ノードを表し、値が1の場合、親ノードから子ノードへの辺が存在することを表し、0の場合、辺が存在しないことを表す。
いくつかの実施例において、構文解析結果におけるノード間の辺が有向辺であるが、隣接マトリクスのスパース性という問題を回避するために、ノード辺を無向辺とすることができるので、いくつかの実施例において、上記隣接マトリクスは、対称マトリクスを有していない。
いくつかの実施例において、関係が正確であるように対応する分割後の単語の中間語ベクトルを順次決定するために、上記グラフニューラルネットワークは、アテンションメカニズムのグラフニューラルネットワークに基づいて、グラフニューラルネットワークにおけるアテンションメカニズムによって依存関係のアテンションスコアと併せて、対応する分割後の単語の中間語ベクトルを決定することができる。
ステップ106において、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。
本出願の実施例の語句処理方法は、処理対象語句を処理するプロセスにおいて、処理対象語句の分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得し、依存構文関係の樹形図及び分割後の単語の系列に対応する各分割後の単語の単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、系列における各分割後の単語の中間語ベクトルを単語に分割し、そして、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。これにより、構文情報が含まれる中間語ベクトルが得られ、構文情報が含まれる中間語ベクトルに基づいて下流タスク処理を実行することにより、下流タスクが処理対象語句の処理結果を正確に取得するようにして、下流タスクの処理効果を向上させる。
本出願の1つの実施例において、異なるタイプの下流タスクにとっては、処理対象語句に対して行われる処理が異なり、かつ、異なるタイプの下流タスクに必要なベクトル表示が異なる可能性があることは理解される。例えば、いくつかの下流タスクは、構文情報の中間語ベクトルを含むことによって後続の処理を行うことができるが、他のいくつかのタスクは、処理対象語句の文ベクトルと併せて後続の処理を行う可能性がある。本出願の1つの実施例において、単語ベクトルを必要とする下流タスクを処理できるために、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する上記ステップ106の1つの可能な実現方式は、図2に示すように、以下のステップを含むことができる。
ステップ201において、下流タスクに対応するベクトル表示方式を取得する。
いくつかの実施例において、予め記憶された様々な下流タスクとベクトル表示方式との間の対応関係に基づいて、下流タスクに対応するベクトル表示方式を取得することができる。ベクトル表示方式、すなわち、ベクトル表示タイプであり、ベクトル表示タイプは、単語ベクトル表示タイプ及び文ベクトル表示タイプに分けられる。
いくつかの実施例において、下流タスクのベクトル表示方式を容易に取得するために、下流タスクに対応するベクトル表示方式を取得する1つの可能な実現方式は、下流タスクに対応するタスクタイプを取得し、タスクタイプに基づいて、下流タスクのベクトル表示方式を決定することである。
具体的には、予め記憶された様々なタスクタイプとベクトル表示方式との間の対応関係に基づいて、当該タスクタイプに対応するベクトル表示方式を取得し、取得されたベクトル表示方式を下流タスクのベクトル表示方式とすることができる。
ステップ202において、ベクトル表示方式が文ベクトル表示方式である場合、依存構文関係の樹形図におけるコアノードを決定し、コアノードに対応する目標の分割後の単語を取得する。
ステップ203において、各分割後の単語の中間語ベクトルから、目標の分割後の単語に対応する中間語ベクトルを決定し、目標の分割後の単語に対応する中間語ベクトルを処理対象語句に対応する文ベクトルとする。
ステップ204において、文ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。
いくつかの実施例において、上記下流タスクが文分類タスクであってもよい場合、上述した文ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する1つの可能な実現方式は、文分類タスクに基づいて、文ベクトルを分類し、分類結果を取得し、分類結果を処理対象タスクの処理結果とすることである。
ここで、本実施例では、下流タスクが文分類タスクであることのみを例として、上記下流タスクが文ベクトルを用いた処理を必要とする他のタスクであってもよく、例えば、上記下流タスクが文マッチングなどのタスクであってもよいことを理解することは理解される。
本実施例において、ベクトル表示方式が文ベクトル表示方式である場合、依存構文関係の樹形図におけるコアノードの決定と併せて、コアノードに対応する目標の分割後の単語を取得し、各分割後の単語の中間語ベクトルから、目標の分割後の単語に対応する中間語ベクトルを決定し、目標の分割後の単語に対応する中間語ベクトルを処理対象語句に対応する文ベクトルとして、当該文ベクトルに基づいて下流タスク処理を行う。文ベクトルには、処理対象語句における構文情報が含まれるため、下流タスク処理の精度を向上させ、処理対象語句の下流タスクにおける処理結果を正確に取得することができる。
本出願の1つの実施例において、処理対象語句の文ベクトルを必要とする下流タスクを正確に処理できるために、図3に示すように、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する上記ステップ106は、以下のステップを含む。
ステップ301において、下流タスクに対応するベクトル表示方式を取得する。
ここで、ステップ301の具体的な実現方式についての具体的な記載は、上記実施例の関連記載を参照してもよく、ここでは詳しく説明しない。
ステップ302において、ベクトル表示方式が単語ベクトル表示方式である場合、分割後の単語の系列における各分割後の単語の中間語ベクトルを結合し、結合された単語ベクトルを取得する。
ステップ303において、結合された単語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。
いくつかの実施例において、下流タスクがエンティティ認識タスクである場合、結合された単語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する1つの可能な実現方式は、エンティティ認識タスクに基づいて、結合された単語ベクトルに対してエンティティ認識を実行し、対応するエンティティ認識結果を取得し、エンティティ認識結果を処理対象語句の処理結果とすることである。
ここで、本実施例では、下流タスクがエンティティ認識タスクである場合のみを例として挙げられ、上記下流タスクが中間単語ベクトルを必要として処理する他のタスクであってもよいことは理解される。
本実施例において、ベクトル表示方式が単語ベクトル表示方式である場合、分割後の単語の系列における各分割後の単語の中間語ベクトルを結合し、結合された単語ベクトルを取得し、結合された単語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。中間語ベクトルには、構文情報が含まれるため、対応する結合されたベクトルにも構文情報が含まれ、結合されたベクトルに基づいて下流タスク処理を行うことによって、下流タスク処理の精度を向上させ、処理対象語句の下流タスクにおける処理結果を正確に取得することができる。
上記実施例を実現するために、本出願の実施例は、語句処理装置をさらに提供する。
図4は、本出願の1つの実施例に係る語句処理装置の概略構成図である。
図4に示すように、当該語句処理装置400は、取得モジュール401、単語分割モジュール402、依存構文解析モジュール403、決定モジュール404、グラフニューラルネットワーク処理モジュール405及びタスク実行モジュール406を備えることができる。
取得モジュール401は、処理対象語句を取得し、処理対象語句に対して実行される下流タスクを取得することに用いられる。
単語分割モジュール402は、処理対象語句を単語に分割し、処理対象語句の分割後の単語の系列を取得することに用いられる。
依存構文解析モジュール403は、分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得することに用いられる。
決定モジュール404は、分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定することに用いられる。
グラフニューラルネットワーク処理モジュール405は、依存構文関係の樹形図及び各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、分割後の単語の系列における各分割後の単語の中間語ベクトルを取得することに用いられる。
タスク実行モジュール406は、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得することに用いられる。
なお、上述した語句処理方法の実施例に対する解釈説明も本実施に適用し、本実施例は、これを詳しく説明しない。
本出願の実施例の語句処理装置は、処理対象語句を処理するプロセスにおいて、処理対象語句の分割後の単語の系列に対して依存構文解析を行って、分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得し、依存構文関係の樹形図及び分割後の単語の系列に対応する各分割後の単語の単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、系列における各分割後の単語の中間語ベクトルを単語に分割し、そして、各分割後の単語の中間語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得する。これにより、構文情報が含まれる中間語ベクトルが得られ、構文情報が含まれる中間語ベクトルに基づいて下流タスク処理を実行することにより、下流タスクが処理対象語句の処理結果を正確に取得するようにして、下流タスクの処理効果を向上させる。
本出願の1つの実施例において、図5に示すように、当該語句処理装置は、取得モジュール501、単語分割モジュール502、依存構文解析モジュール503、決定モジュール504、グラフニューラルネットワーク処理モジュール505及びタスク実行モジュール506を備えることができ、ここで、タスク実行モジュール506は、第1の取得ユニット5061、第1の決定ユニット5062、第2の決定ユニット5063及び第1の実行ユニット5064を備える。
ここで、取得モジュール501、単語分割モジュール502、依存構文解析モジュール503、決定モジュール504、グラフニューラルネットワーク処理モジュール505についての詳細な記載は、図4に示す実施例における取得モジュール401、単語分割モジュール402、依存構文解析モジュール403、決定モジュール404、グラフニューラルネットワーク処理モジュール405の説明を参照し、ここでは詳しく説明しない。
第1の取得ユニット5061は、下流タスクに対応するベクトル表示方式を取得することに用いられる。
第1の決定ユニット5062は、ベクトル表示方式が文ベクトル表示方式である場合、依存構文関係の樹形図におけるコアノードを決定し、コアノードに対応する目標の分割後の単語を取得することに用いられる。
第2の決定ユニット5063は、各分割後の単語の中間語ベクトルから、目標の分割後の単語に対応する中間語ベクトルを決定し、目標の分割後の単語に対応する中間語ベクトルを処理対象語句に対応する文ベクトルとすることに用いられる。
第1の実行ユニット5064は、文ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得することに用いられる。
本出願の1つの実施例において、下流タスクに対応するベクトル表示方式の取得は、下流タスクに対応するタスクタイプを取得し、タスクタイプに基づいて、下流タスクのベクトル表示方式を決定するという方式ことによって得られる。
本出願の1つの実施例において、下流タスクが文分類タスクであり、第1の実行ユニットは、具体的には、文分類タスクに基づいて、文ベクトルを分類し、分類結果を取得し、分類結果を前記処理対象タスクの処理結果とすることに用いられる。
本出願の1つの実施例において、図6に示すように、当該語句処理装置は、取得モジュール601、単語分割モジュール602、依存構文解析モジュール603、決定モジュール604、グラフニューラルネットワーク処理モジュール605及びタスク実行モジュール606を備えることができ、ここで、タスク実行モジュール606は、第2の取得ユニット6061、結合ユニット6062及び第2の実行ユニット6063を備える。
ここで、取得モジュール601、単語分割モジュール602、依存構文解析モジュール603、決定モジュール604、グラフニューラルネットワーク処理モジュール605についての詳細な記載は、図4に示す実施例における取得モジュール401、単語分割モジュール402、依存構文解析モジュール403、決定モジュール404、グラフニューラルネットワーク処理モジュール405の説明を参照し、ここでは詳しく説明しない。
本出願の1つの実施例において、第2の取得ユニット6061は、下流タスクに対応するベクトル表示方式を取得することに用いられる。
結合ユニット6062は、ベクトル表示方式が単語ベクトル表示方式である場合、分割後の単語の系列における各分割後の単語の中間語ベクトルを結合し、結合された単語ベクトルを取得することに用いられる。
第2の実行ユニット6063は、結合された単語ベクトルに対して下流タスクを実行し、処理対象語句の処理結果を取得することに用いられる。
本出願の1つの実施例において、下流タスクがエンティティ認識タスクであり、第2の実行ユニット6043は、具体的には、エンティティ認識タスクに基づいて、結合された単語ベクトルに対してエンティティ認識を行い、対応するエンティティ認識結果を取得し、エンティティ認識結果を処理対象タスクの処理結果とすることに用いられる。
なお、上述した語句処理方法の実施例に対する解釈と説明も本実施における語句処理装置に適用し、本実施例では詳しく説明しない。
本出願の実施例によれば、本出願は、電子機器及び読み取り可能な記憶媒体及びコンピュータプログラムをさらに提供する。
図7は、本出願の実施例を実現するための例示的な電子機器700の概略ブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限するものではない。
図7に示すように、デバイス700は、リードオンリーメモリ(ROM)702に記憶されているコンピュータプログラム、又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロッドされたコンピュータプログラムに基づいて、様々な適切な動作及び処理を実行することができる計算ユニット701を備える。RAM703には、デバイス700の動作に必要な様々なプログラム及びデータが記憶されていてもよい。計算ユニット701、ROM702及びRAM703は、バス704を介して互いに接続されている。入出力(I/O)インタフェース705もバス704に接続されている。
デバイス700における、キーボード、マウスなどの入力ユニット706と、様々なタイプのディスプレイ、スピーカなどの出力ユニット707と、磁気ディスク、光ディスクなどの記憶ユニット708と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709と、を備える複数のコンポーネントは、入出力(I/O)インタフェース705に接続されている。通信ユニット709は、デバイス700がインターネットなどのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット701は、各種の処理及び計算能力を有する汎用及び/又は専用処理コンポーネントであってもよい。計算ユニット701のいくつかの例は、セントラルプロセッシングユニット(CPU)、グラフィックスプロセッシングユニット(GPU)、各種の専用人工知能(AI)計算チップ、各種の機械学習モデルアルゴリズムを運行する計算ユニット、デジタルシグナルプロセッサ(DSP)、及びいずれかの適宜なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、上述したそれぞれの方法及び処理、例えば、語句処理方法を実行する。例えば、いくつかの実施例で、語句処理方法は、記憶ユニット708のような機械読み取り可能な媒体に具体的に備えられるコンピュータソフトウェアプログラムとして実現され得る。いくつかの実施例で、コンピュータの一部又は全部は、ROM702及び/又は通信ユニット709を介してデバイス700にロッド及び/又はインストールすることができる。コンピュータプログラムがRAM703にロッドされて計算ユニット701によって実行された場合、上述した語句処理方法の1つ又は複数のステップを実行することができる。あるいは、他の実施例で、計算ユニット701は、他の任意の適切な形態で(例えば、ファーとウェアにより)語句処理方法を実行するように構成されてもよい。
本明細書で以上のように説明されたシステム及び技術の各種の実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はそれらの組み合わせにおいて実現してもよい。これらの各種の実施形態は、少なくとも1つのプログラマブルプロセッサを備えるプログラマブルシステムにおいて実行及び/又は解釈することができる1つ又は複数のコンピュータプログラムにおいて実現されてもよく、当該プログラマブルプロセッサは、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置にデータ及び命令を伝送することができる専用及び/又は汎用プログラマブルプロセッサであってもよい。
本開示の方法を実施するためのプログラムコーディングは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコーディングは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/動作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコーディングは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンパッケージとして、部分的に機械上で実行され、かつ部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示の文脈では、機械読み取り可能な媒体は、命令実行システム、装置、又はデバイスによって使用されるために、又は命令実行システム、装置、又はデバイスと併せて使用するためのプログラムを備えるか、又は格納することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、又はこれらの任意の適切な組み合わせを備えることができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドユニットを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアユニットを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドユニットを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドユニットと、ミドルウェアユニットと、フロントエンドユニットの任意の組み合わせを備えるコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークとを含む。
コンピュータシステムは、クライアントとサーバとを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常は通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、且つ互いにクライアント-サーバ関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれるクラウドサーバであってもよく、従来の物理ホスト及びVPSサービス(「Virtual Private Server」、又は「VPS」と略称する)における、管理の難易度が高く、ビジネスの拡張性が低いという欠点を解決するクラウドコンピューティングサービスシステムのホスト製品の1つである。
なお、人工知能はコンピュータに人間のある思考過程と知能行為(例えば、学習、推理、思考、計画など)をシミュレートさせることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能ハードウェア技術には、一般的に、例えばセンサ、専用人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理等の技術が含まれる。人工知能ソフトウェア技術は、主にコンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの方向を含む。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本開示の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本開示の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (15)

  1. 処理対象語句を取得し、前記処理対象語句に対して実行される下流タスクを取得するステップと、
    前記処理対象語句を単語に分割し、前記処理対象語句の分割後の単語の系列を取得するステップと、
    前記分割後の単語の系列に対して依存構文解析を行って、前記分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得するステップと、
    前記分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定するステップと、
    前記依存構文関係の樹形図及び前記各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを取得するステップと、
    前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップと、
    を含む、コンピュータにより実行される語句処理方法。
  2. 前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップが、
    前記下流タスクに対応するベクトル表示方式を取得するステップと、
    前記ベクトル表示方式が文ベクトル表示方式である場合、前記依存構文関係の樹形図におけるコアノードを決定し、前記コアノードに対応する目標の分割後の単語を取得するステップと、
    前記各分割後の単語の中間語ベクトルから、前記目標の分割後の単語に対応する中間語ベクトルを決定し、前記目標の分割後の単語に対応する中間語ベクトルを前記処理対象語句に対応する文ベクトルとするステップと、
    前記文ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップと、
    を含む請求項1に記載の方法。
  3. 前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップが、
    前記下流タスクに対応するベクトル表示方式を取得するステップと、
    前記ベクトル表示方式が単語ベクトル表示方式である場合、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを結合し、結合された単語ベクトルを取得するステップと、
    前記結合された単語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップと、
    を含む請求項1に記載の方法。
  4. 前記下流タスクに対応するベクトル表示方式を取得するステップが、
    前記下流タスクに対応するタスクタイプを取得するステップと、
    前記タスクタイプに基づいて、前記下流タスクのベクトル表示方式を決定するステップと、
    を含む請求項2又は3に記載の方法。
  5. 前記下流タスクが文分類タスクであり、前記文ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップが、
    前記文分類タスクに基づいて、前記文ベクトルを分類し、分類結果を取得し、前記分類結果を前記処理対象語句の処理結果とするステップを含む請求項2に記載の方法。
  6. 前記下流タスクがエンティティ認識タスクであり、前記結合された単語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するステップが、
    前記エンティティ認識タスクに基づいて、前記結合された単語ベクトルに対してエンティティ認識を行い、対応するエンティティ認識結果を取得し、前記エンティティ認識結果を前記処理対象語句の処理結果とするステップを含む請求項3に記載の方法。
  7. 処理対象語句を取得し、前記処理対象語句に対して実行される下流タスクを取得するための取得モジュールと、
    前記処理対象語句を単語に分割し、前記処理対象語句の分割後の単語の系列を取得するための単語分割モジュールと、
    前記分割後の単語の系列に対して依存構文解析を行って、前記分割後の単語の系列における各分割後の単語の間の依存構文関係の樹形図を取得するための依存構文解析モジュールと、
    前記分割後の単語の系列における各分割後の単語に対応する単語ベクトルを決定するための決定モジュールと、
    前記依存構文関係の樹形図及び前記各分割後の単語に対応する単語ベクトルを予め設定されたグラフニューラルネットワークに入力し、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを取得するためのグラフニューラルネットワーク処理モジュールと、
    前記各分割後の単語の中間語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するためのタスク実行モジュールと、
    を備える語句処理装置。
  8. 前記タスク実行モジュールが、
    前記下流タスクに対応するベクトル表示方式を取得するための第1の取得ユニットと、
    前記ベクトル表示方式が文ベクトル表示方式である場合、前記依存構文関係の樹形図におけるコアノードを決定し、前記コアノードに対応する目標の分割後の単語を取得するための第1の決定ユニットと、
    前記各分割後の単語の中間語ベクトルから、前記目標の分割後の単語に対応する中間語ベクトルを決定し、前記目標の分割後の単語に対応する中間語ベクトルを前記処理対象語句に対応する文ベクトルとするための第2の決定ユニットと、
    前記文ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するための第1の実行ユニットと、
    を備える請求項7に記載の装置。
  9. 前記タスク実行モジュールが、
    前記下流タスクに対応するベクトル表示方式を取得するための第2の取得ユニットと、
    前記ベクトル表示方式が単語ベクトル表示方式である場合、前記分割後の単語の系列における各分割後の単語の中間語ベクトルを結合し、結合された単語ベクトルを取得するための結合ユニットと、
    前記結合された単語ベクトルに対して前記下流タスクを実行し、前記処理対象語句の処理結果を取得するための第2の実行ユニットと、
    を備える請求項7に記載の装置。
  10. 前記下流タスクに対応するベクトル表示方式を取得するステップが、
    前記下流タスクに対応するタスクタイプを取得し、
    前記タスクタイプに基づいて、前記下流タスクのベクトル表示方式を決定するという方式によって得られる請求項8又は9に記載の装置。
  11. 前記下流タスクが文分類タスクであり、前記第1の実行ユニットが、
    前記文分類タスクに基づいて、前記文ベクトルを分類し、分類結果を取得し、前記分類結果を前記処理対象語句の処理結果とすることに用いられる請求項8に記載の装置。
  12. 前記下流タスクがエンティティ認識タスクであり、前記第2の実行ユニットが、
    前記エンティティ認識タスクに基づいて、前記結合された単語ベクトルに対してエンティティ認識を行い、対応するエンティティ認識結果を取得し、前記エンティティ認識結果を前記処理対象語句の処理結果とすることに用いられる請求項9に記載の装置。
  13. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサに通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から6のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  14. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から6のいずれか一項に記載の方法を実行させることに用いられる非一時的なコンピュータ読み取り可能な記憶媒体。
  15. プロセッサによって実行される場合に、請求項1から6のいずれか一項に記載の方法が実現されるコンピュータプログラム。
JP2021159038A 2020-12-25 2021-09-29 語句処理方法、機器及び記憶媒体 Active JP7242797B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011563713.0 2020-12-25
CN202011563713.0A CN112560481B (zh) 2020-12-25 2020-12-25 语句处理方法、设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022000805A JP2022000805A (ja) 2022-01-04
JP7242797B2 true JP7242797B2 (ja) 2023-03-20

Family

ID=75032367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021159038A Active JP7242797B2 (ja) 2020-12-25 2021-09-29 語句処理方法、機器及び記憶媒体

Country Status (3)

Country Link
US (1) US20210342379A1 (ja)
JP (1) JP7242797B2 (ja)
CN (1) CN112560481B (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972366B (zh) * 2022-07-27 2022-11-18 山东大学 基于图网络的大脑皮层表面全自动分割方法及***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111274134A (zh) 2020-01-17 2020-06-12 扬州大学 基于图神经网络的漏洞识别与预测方法、***、计算机设备和存储介质
CN111563164A (zh) 2020-05-07 2020-08-21 成都信息工程大学 一种基于图神经网络的特定目标情感分类方法
US20200356628A1 (en) 2019-05-07 2020-11-12 International Business Machines Corporation Attention-based natural language processing
US20200356637A1 (en) 2019-05-07 2020-11-12 International Business Machines Corporation Generation of sentence representation
CN112001185A (zh) 2020-08-26 2020-11-27 重庆理工大学 一种结合中文句法和图卷积神经网络的情感分类方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106557462A (zh) * 2016-11-02 2017-04-05 数库(上海)科技有限公司 命名实体识别方法和***
US11017173B1 (en) * 2017-12-22 2021-05-25 Snap Inc. Named entity recognition visual context and caption data
CN108304468B (zh) * 2017-12-27 2021-12-07 ***股份有限公司 一种文本分类方法以及文本分类装置
CN111291570B (zh) * 2018-12-07 2022-07-05 北京国双科技有限公司 一种实现司法文书中要素识别的方法及装置
CN109670050B (zh) * 2018-12-12 2021-03-02 科大讯飞股份有限公司 一种实体关系预测方法及装置
CN110110083A (zh) * 2019-04-17 2019-08-09 华东理工大学 一种文本的情感分类方法、装置、设备及存储介质
CN110222160B (zh) * 2019-05-06 2023-09-15 平安科技(深圳)有限公司 智能语义文档推荐方法、装置及计算机可读存储介质
CN110309289B (zh) * 2019-08-23 2019-12-06 深圳市优必选科技股份有限公司 一种句子生成方法、句子生成装置及智能设备
CN110532566B (zh) * 2019-09-03 2023-05-02 浪潮通用软件有限公司 一种垂直领域问句相似度计算的实现方法
CN110704598B (zh) * 2019-09-29 2023-01-17 北京明略软件***有限公司 一种语句信息的抽取方法、抽取装置及可读存储介质
CN110826313A (zh) * 2019-10-31 2020-02-21 北京声智科技有限公司 一种信息提取方法、电子设备及计算机可读存储介质
US11481418B2 (en) * 2020-01-02 2022-10-25 International Business Machines Corporation Natural question generation via reinforcement learning based graph-to-sequence model
US11625540B2 (en) * 2020-02-28 2023-04-11 Vinal AI Application and Research Joint Stock Co Encoder, system and method for metaphor detection in natural language processing
US20210279279A1 (en) * 2020-03-05 2021-09-09 International Business Machines Corporation Automated graph embedding recommendations based on extracted graph features
CN111898364B (zh) * 2020-07-30 2023-09-26 平安科技(深圳)有限公司 神经网络关系抽取方法、计算机设备及可读存储介质
CN112069801A (zh) * 2020-09-14 2020-12-11 深圳前海微众银行股份有限公司 基于依存句法的句子主干抽取方法、设备和可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200356628A1 (en) 2019-05-07 2020-11-12 International Business Machines Corporation Attention-based natural language processing
US20200356637A1 (en) 2019-05-07 2020-11-12 International Business Machines Corporation Generation of sentence representation
CN111274134A (zh) 2020-01-17 2020-06-12 扬州大学 基于图神经网络的漏洞识别与预测方法、***、计算机设备和存储介质
CN111563164A (zh) 2020-05-07 2020-08-21 成都信息工程大学 一种基于图神经网络的特定目标情感分类方法
CN112001185A (zh) 2020-08-26 2020-11-27 重庆理工大学 一种结合中文句法和图卷积神经网络的情感分类方法

Also Published As

Publication number Publication date
CN112560481A (zh) 2021-03-26
CN112560481B (zh) 2024-05-31
JP2022000805A (ja) 2022-01-04
US20210342379A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
JP7223785B2 (ja) 時系列ナレッジグラフ生成方法、装置、デバイス及び媒体
JP7228662B2 (ja) イベント抽出方法、装置、電子機器及び記憶媒体
JP7126542B2 (ja) データセット処理方法、装置、電子機器及び記憶媒体
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP7358698B2 (ja) 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
JP7113097B2 (ja) テキストエンティティの語義記述処理方法、装置及び機器
US20220318275A1 (en) Search method, electronic device and storage medium
JP7269913B2 (ja) ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN113657100B (zh) 实体识别方法、装置、电子设备及存储介质
JP2021099890A (ja) 因果関係の判別方法、装置、電子機器及び記憶媒体
JP7369228B2 (ja) ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体
JP2023015215A (ja) テキスト情報の抽出方法、装置、電子機器及び記憶媒体
US20230103728A1 (en) Method for sample augmentation
CN112784589A (zh) 一种训练样本的生成方法、装置及电子设备
CN113836314A (zh) 知识图谱构建方法、装置、设备以及存储介质
JP7242797B2 (ja) 語句処理方法、機器及び記憶媒体
CN112989797A (zh) 模型训练、文本扩展方法,装置,设备以及存储介质
CN113641724B (zh) 知识标签挖掘方法、装置、电子设备及存储介质
CN113221566B (zh) 实体关系抽取方法、装置、电子设备和存储介质
CN116090438A (zh) 主题处理方法、装置、电子设备及存储介质
CN114328855A (zh) 文档查询方法、装置、电子设备和可读存储介质
CN113408269A (zh) 文本情感分析方法和装置
CN116069914B (zh) 训练数据的生成方法、模型训练方法以及装置
CN117407492B (zh) 基于知识图谱的关键字词序列生成方法、***及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R150 Certificate of patent or registration of utility model

Ref document number: 7242797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150