JP7043373B2 - Information processing equipment, information processing methods, and programs - Google Patents

Information processing equipment, information processing methods, and programs Download PDF

Info

Publication number
JP7043373B2
JP7043373B2 JP2018173193A JP2018173193A JP7043373B2 JP 7043373 B2 JP7043373 B2 JP 7043373B2 JP 2018173193 A JP2018173193 A JP 2018173193A JP 2018173193 A JP2018173193 A JP 2018173193A JP 7043373 B2 JP7043373 B2 JP 7043373B2
Authority
JP
Japan
Prior art keywords
character
document
classifier
character string
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018173193A
Other languages
Japanese (ja)
Other versions
JP2020046792A (en
Inventor
ニレシュ デワンガン
陸 富樫
一雄 山下
尚方 四熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018173193A priority Critical patent/JP7043373B2/en
Publication of JP2020046792A publication Critical patent/JP2020046792A/en
Application granted granted Critical
Publication of JP7043373B2 publication Critical patent/JP7043373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.

従来、文書の中から、WebページのURL(Uniform Resource Locator)がハイパーリンクとして対応付けられたアンカーテキストを抽出する技術が知られている(例えば、特許文献1参照)。 Conventionally, there is known a technique for extracting an anchor text in which a URL (Uniform Resource Locator) of a Web page is associated as a hyperlink from a document (see, for example, Patent Document 1).

特開2004-78446号公報Japanese Unexamined Patent Publication No. 2004-78446

しかしながら、従来の技術では、文書の中から、予め決められた条件を満たす文字列を、アンカーテキストのような文字列として抽出していることから、現行の条件を満たさない新語や造語、流行語などについては、それらの文字列を抽出することができない場合があった。この結果、新語や造語、流行語などの文字列に対してユーザが興味関心を寄せる場合があっても、それらの文字列に対して関連するコンテンツをハイパーリンクとして対応付けることができない場合があった。 However, in the conventional technique, a character string satisfying a predetermined condition is extracted from a document as a character string such as an anchor text, so that a new word, a coined word, or a buzzword that does not satisfy the current condition is extracted. In some cases, it was not possible to extract those character strings. As a result, even if the user may be interested in a character string such as a new word, a coined word, or a buzzword, it may not be possible to associate the content related to the character string as a hyperlink. ..

本発明は、上記の課題に鑑みてなされたものであり、関連するコンテンツに対応付けることが可能な文字列を文書から精度よく抽出することができる情報処理装置、情報処理方法、およびプログラムを提供することを目的としている。 The present invention has been made in view of the above problems, and provides an information processing device, an information processing method, and a program capable of accurately extracting a character string that can be associated with related contents from a document. The purpose is.

本発明の一態様は、複数の文字が含まれる文書を取得する取得部と、入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する抽出部と、を備える情報処理装置である。
である。
One aspect of the present invention includes an acquisition unit for acquiring a document containing a plurality of characters, and the input characters are included in the first character included in a character string satisfying a predetermined condition, or in the character string. The character string is extracted from the document based on the output result of the classifier obtained by inputting the characters included in the document to the classifier trained to classify into the second character. It is an information processing device including an extraction unit.
Is.

本発明の一態様によれば、関連するコンテンツに対応付けることが可能な文字列を文書から精度よく抽出することができる。 According to one aspect of the present invention, a character string that can be associated with related contents can be accurately extracted from a document.

第1実施形態における情報処理装置100を含む情報処理システム1の一例を示す図である。It is a figure which shows an example of the information processing system 1 including the information processing apparatus 100 in 1st Embodiment. サービス提供装置20により提供されるウェブページの一例を示す図である。It is a figure which shows an example of the web page provided by the service providing apparatus 20. 文字のタグ付け方法を説明するための図である。It is a figure for demonstrating the method of tagging a character. 第1実施形態における情報処理装置100の構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing apparatus 100 in 1st Embodiment. 第1実施形態における情報処理装置100による運用時の一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processing at the time of operation by the information processing apparatus 100 in 1st Embodiment. 第1実施形態における分類器MDLの一例を示す図である。It is a figure which shows an example of the classifier MDL in 1st Embodiment. 条件付き確率場モデルの一例を示す図である。It is a figure which shows an example of the conditional random field model. サービス提供装置20により提供されるウェブページの他の例を示す図である。It is a figure which shows the other example of the web page provided by the service providing apparatus 20. 第1実施形態における情報処理装置100による学習時の一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processing at the time of learning by the information processing apparatus 100 in 1st Embodiment. 言語モデルMDL2の一例を示す図である。It is a figure which shows an example of a language model MDL2. 第3実施形態における情報処理装置100Aの構成の一例を示す図である。It is a figure which shows an example of the structure of the information processing apparatus 100A in 3rd Embodiment. 実施形態の情報処理装置100および100Aのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the information processing apparatus 100 and 100A of embodiment.

以下、本発明を適用した情報処理装置、情報処理方法、およびプログラムを、図面を参照して説明する。 Hereinafter, an information processing apparatus, an information processing method, and a program to which the present invention is applied will be described with reference to the drawings.

[概要]
情報処理装置は、一以上のプロセッサにより実現される。情報処理装置は、複数の文字が含まれる、ある着目する文書(以下、文書と称する)を取得し、取得した文書に含まれる文字を、ある分類器に入力する。
[Overview]
The information processing device is realized by one or more processors. The information processing apparatus acquires a document of interest (hereinafter referred to as a document) containing a plurality of characters, and inputs the characters included in the acquired document into a classifier.

分類器は、入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、その文字列に含まれない第2文字かに分類するように学習された分類器である。予め決められた条件を満たす文字列とは、例えば、HTML(HyperText Markup Language)で記述されたウェブページにおいて、他のウェブページのURL(Uniform Resource Locator)などがハイパーリンクとして対応付けられたアンカーテキスト(アンカー文字列)であり、具体的には、<a>や</a>といった記号で囲われた文字列である。また、予め決められた条件を満たす文字列は、アンカーテキストに限られず、例えば、固有表現抽出と呼ばれる技術によって文書から抽出される固有表現を示す文字列であってもよい。固有表現は、例えば、組織名、人名、地名、日付表現、時間表現、金額表現、割合表現、固有物名などである。 A classifier is a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. .. A character string that satisfies a predetermined condition is, for example, an anchor text in which a URL (Uniform Resource Locator) of another web page is associated with a web page described in HTML (HyperText Markup Language) as a hyperlink. (Anchor character string), specifically, a character string surrounded by symbols such as <a> and </a>. Further, the character string satisfying the predetermined condition is not limited to the anchor text, and may be, for example, a character string indicating a unique expression extracted from the document by a technique called named entity extraction. The named entity is, for example, an organization name, a person name, a place name, a date expression, a time expression, a monetary expression, a ratio expression, a unique object name, or the like.

情報処理装置は、文書に含まれる文字を分類器に入力し、その結果、得られた分類器の出力結果に基づいて、文書から、アンカーテキストなどになり得る蓋然性が高い文字列を抽出する。このように、入力された文字を、タグ付けされた文字列に含まれる文字であるのかそうでないのかを分類するように予め学習された分類器を利用することで、関連するコンテンツに対応付けることが可能な文字列を文書から精度よく抽出することができる。 The information processing device inputs the characters contained in the document into the classifier, and as a result, extracts from the document a character string having a high probability of becoming an anchor text or the like based on the output result of the obtained classifier. In this way, by using a classifier that has been pre-learned to classify whether the input character is a character contained in the tagged character string or not, it is possible to associate the input character with the related content. Possible character strings can be extracted from the document with high accuracy.

<第1実施形態>
[全体構成]
図1は、第1実施形態における情報処理装置100を含む情報処理システム1の一例を示す図である。第1実施形態における情報処理システム1は、例えば、一以上の端末装置10と、サービス提供装置20と、情報処理装置100とを備える。これらの装置は、ネットワークNWを介して接続される。また、これらの装置のうち一部は、他の装置に仮想的な装置として包含されてもよく、例えば、サービス提供装置20の機能の一部または全部が、情報処理装置100の機能によって実現される仮想マシンであってもよい。
<First Embodiment>
[overall structure]
FIG. 1 is a diagram showing an example of an information processing system 1 including an information processing apparatus 100 according to the first embodiment. The information processing system 1 in the first embodiment includes, for example, one or more terminal devices 10, a service providing device 20, and an information processing device 100. These devices are connected via the network NW. Further, a part of these devices may be included in another device as a virtual device. For example, a part or all of the functions of the service providing device 20 are realized by the functions of the information processing device 100. It may be a virtual machine.

図1に示す各装置は、ネットワークNWを介して種々の情報を送受信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、プロバイダ端末、無線通信網、無線基地局、専用回線などを含む。なお、図1に示す各装置の全ての組み合わせが相互に通信可能である必要はなく、ネットワークNWは、一部にローカルなネットワークを含んでもよい。 Each device shown in FIG. 1 transmits and receives various information via the network NW. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a provider terminal, a wireless communication network, a wireless base station, a dedicated line, and the like. It should be noted that not all combinations of the devices shown in FIG. 1 need to be able to communicate with each other, and the network NW may include a local network in part.

端末装置10は、例えば、スマートフォンなどの携帯電話、タブレット端末、各種パーソナルコンピュータなどの、入力装置、表示装置、通信装置、記憶装置、および演算装置を備える端末装置である。通信装置は、NIC(Network Interface Card)などのネットワークカード、無線通信モジュールなどを含む。端末装置10では、ウェブブラウザやアプリケーションプログラムなどのUA(User Agent)が起動し、ユーザの入力する内容に応じたリクエストをサービス提供装置20に送信する。また、UAが起動された端末装置10は、サービス提供装置20から取得した情報に基づいて、表示装置に各種画像を表示させる。 The terminal device 10 is a terminal device including an input device, a display device, a communication device, a storage device, and an arithmetic unit, such as a mobile phone such as a smartphone, a tablet terminal, and various personal computers. The communication device includes a network card such as a NIC (Network Interface Card), a wireless communication module, and the like. In the terminal device 10, a UA (User Agent) such as a web browser or an application program is activated, and a request according to the content input by the user is transmitted to the service providing device 20. Further, the terminal device 10 in which the UA is activated causes the display device to display various images based on the information acquired from the service providing device 20.

サービス提供装置20は、例えば、UAとして起動されたウェブブラウザからのリクエスト(例えばHTTP(Hypertext Transfer Protocol)リクエスト)に応じてウェブページを端末装置10に提供するウェブサーバであってよい。ウェブページは、例えば、インターネット上において、ニュース記事のような、文書(テキスト)を含むコンテンツを配信するウェブページであってよい。また、サービス提供装置20は、UAとして起動されたアプリケーションからのリクエストに応じてコンテンツを端末装置10に提供することで、上記のウェブページと同様のサービスを提供するアプリケーションサーバであってもよい。 The service providing device 20 may be, for example, a web server that provides a web page to the terminal device 10 in response to a request from a web browser activated as a UA (for example, an HTTP (Hypertext Transfer Protocol) request). The web page may be a web page that delivers content including a document (text), such as a news article, on the Internet, for example. Further, the service providing device 20 may be an application server that provides the same service as the above-mentioned web page by providing the content to the terminal device 10 in response to a request from the application started as the UA.

図2は、サービス提供装置20により提供されるウェブページの一例を示す図である。図示の例では、ニュース記事が掲載されたウェブページを模式的に示している。例えば、ニュース記事の文書中には、しばしば、他のウェブページのURLがハイパーリンクとして対応付けられた文字が含まれる。図示の例では、「台風10号」という文字列がハイパーリンクであることを表している。ユーザは、このようなハイパーリンクが対応付けられた文字列をクリック操作などで選択することで、その文字列に関連したコンテンツを含むウェブページにアクセスすることができる。 FIG. 2 is a diagram showing an example of a web page provided by the service providing device 20. The illustrated example schematically shows a web page containing a news article. For example, news article documents often contain characters associated with URLs of other web pages as hyperlinks. In the illustrated example, the character string "Typhoon No. 10" indicates that it is a hyperlink. The user can access the web page containing the content related to the character string by selecting the character string associated with such a hyperlink by a click operation or the like.

文書中からハイパーリンクの候補となる文字列(アンカーテキスト)を抽出する方法にはいくつかの手法があり、その一つに、上述した固有表現を抽出する手法が存在する。固有表現抽出は、「BIO」方式や「BILOU」方式によって、文書中の各文字にいくつかの種類のタグをつけていくことで、予め決められた固有表現を文書中から抽出する方法である。「BIO」方式は、「Begin」の頭文字をとった「B」というタグと、「Inside」の頭文字をとった「I」というタグと、「Outside」の頭文字をとった「O」というタグのいずれかを各文字に付与する方式である。「B」タグは、固有表現の最初の文字を識別する分類子であり、「I」タグは、固有表現の内部の文字を識別する分類子であり、「O」タグは、固有表現の外側の文字(固有表現と異なる文字)を識別する分類子である。「BILOU」方式は、上述した「B」「I」「O」のタグに加えて、「Last」の頭文字をとった「L」というタグと、「Unit」の頭文字をとった「U」というタグとを含む複数のタグの中からいずれかのタグを各文字に付与する方式である。「L」タグは、固有表現の最後の文字を識別する分類子であり、「U」タグは、固有表現の単位長さと同じ文字列を識別する分類子を表しており、例えば、固有表現が一文字である場合(「B」「I」「L」のタグに該当しない場合)に、「U」のタグが付与される。「BILOU」方式は、「BIOES」方式とも称される。「BIOES」方式は、上述した「B」「I」「O」のタグに加えて、「End」の頭文字をとった「E」というタグと、「Single」の頭文字をとった「S」というタグとを含む複数のタグの中からいずれかのタグを各文字に付与する方式である。「E」タグは、「L」タグと同じ分類子であり、「S」タグは、「U」タグと同じ分類子である。 There are several methods for extracting character strings (anchor text) that are candidates for hyperlinks from a document, and one of them is a method for extracting the above-mentioned named entity. Named entity extraction is a method of extracting a predetermined named entity from a document by attaching several types of tags to each character in the document by the "BIO" method or the "BILOU" method. .. The "BIO" method is the tag "B" which is an acronym for "Begin", the tag "I" which is an acronym for "Inside", and the acronym "O" which is an acronym for "Outside". It is a method to add one of the tags to each character. The "B" tag is a classifier that identifies the first character of the named entity, the "I" tag is the classifier that identifies the character inside the named entity, and the "O" tag is the outside of the named entity. A classifier that identifies characters in (characters that differ from named entities). In the "BILOU" method, in addition to the above-mentioned "B", "I", and "O" tags, the "L" tag, which is an acronym for "Last", and the "U", which is an acronym for "Unit", are used. This is a method of assigning one of a plurality of tags including the tag "" to each character. The "L" tag is a classifier that identifies the last character of the named entity, and the "U" tag represents a classifier that identifies the same character string as the unit length of the named entity, for example, the named entity. When it is a single character (when it does not correspond to the tags of "B", "I", and "L"), the tag of "U" is added. The "BILOU" method is also referred to as a "BIOES" method. In the "BIOES" method, in addition to the above-mentioned "B", "I", and "O" tags, the "E" tag, which is an acronym for "End", and the "S", which is an acronym for "Single", are used. This is a method of assigning one of a plurality of tags including the tag "" to each character. The "E" tag is the same classifier as the "L" tag, and the "S" tag is the same classifier as the "U" tag.

図3は、文字のタグ付け方法を説明するための図である。図示の例のように、「検索太郎は○○〇株式会社の社長です」という一つの文(センテンス)が文書中に存在すると仮定する。この場合、固有表現抽出において、「検索太郎」という文字列は、人名という固有表現のクラスに分類される文字列であり、「○○〇株式会社」という文字列は、組織名という固有表現のクラスに分類される文字列であり、「社長」という文字列は、固有物名という固有表現のクラスに分類される文字列であり、これら以外の「は」、「の」、「です」、「。」といった助詞や助動詞、句読点などの文字は、固有表現のいずれのクラスにも分類されない文字である。このような場合、図示の例のように、「検索太郎」という文字列に含まれる複数の文字のうち、最初に出現する「検」という文字には、「B」タグが付与され、「検」の後に続く「索」および「太」という文字には、「I」タグが付与され、最後に出現する「郎」という文字には、「L」タグが付与される。一方、「は」や「の」といった文字には、それらの文字が固有表現でないため、「O」タグが付与される。 FIG. 3 is a diagram for explaining a method of tagging characters. As shown in the illustrated example, it is assumed that one sentence (sentence) "Search Taro is the president of XX Co., Ltd." exists in the document. In this case, in the named entity extraction, the character string "Search Taro" is a character string classified into the named entity class, and the character string "○○○ Co., Ltd." is the named entity name. It is a character string classified into a class, and the character string "President" is a character string classified into a named entity name class, and other than these, "ha", "no", "desu", Characters such as auxiliary words, auxiliary verbs, and punctuation marks such as "." Are characters that are not classified in any class of named entity recognition. In such a case, as shown in the illustrated example, the character "Kan" that appears first among the multiple characters included in the character string "Search Taro" is given a "B" tag, and "Kan" is added. The letters "search" and "thick" following "" are tagged with "I", and the letters "ro" appearing at the end are tagged with "L". On the other hand, characters such as "ha" and "no" are given an "O" tag because those characters are not named entities.

ハイパーリンクは、一般的に、固有表現として抽出された文字列に対応付けられる。すなわち、ハイパーリンクは、「B」タグが付与された文字から始まり、「L」タグが付与された文字で終わる文字列に対応付けられ得る。また、ハイパーリンクは、予め決められた固有名詞と一致する文字列に対応付けられる場合もある。 Hyperlinks are generally associated with strings extracted as named entities. That is, the hyperlink can be associated with a character string that starts with the character with the "B" tag and ends with the character with the "L" tag. In addition, the hyperlink may be associated with a character string that matches a predetermined proper noun.

ハイパーリンクが対応付けられる文字列は、「予め決められた条件を満たす文字列」の一例であり、予め決められた固有名詞と一致する文字列は、「予め決められた条件を満たす文字列」の他の例である。また、「B」タグが付与された文字は、「第1文字」の一例であり、「L」タグまたは「I」タグが付与された文字は、「第1文字」の他の例である。また、「O」タグまたは「U」が付与された文字は、「第2文字」の一例である。また、「B」タグが付与された文字は、「第3文字」の一例であり、「L」タグが付与された文字は、「第4文字」の一例であり、「I」タグが付与された文字は、「第5文字」の一例である。 A character string to which a hyperlink is associated is an example of a "character string that satisfies a predetermined condition", and a character string that matches a predetermined proper noun is a "character string that satisfies a predetermined condition". Another example. Further, the character to which the "B" tag is attached is an example of the "first character", and the character to which the "L" tag or the "I" tag is attached is another example of the "first character". .. Further, the character to which the "O" tag or "U" is added is an example of the "second character". Further, the character to which the "B" tag is attached is an example of the "third character", and the character to which the "L" tag is attached is an example of the "fourth character", and the "I" tag is attached. The character is an example of the "fifth character".

情報処理装置100は、サービス提供装置20によってウェブページなどを介してコンテンツとして提供される文書(例えばニュース記事など)を受信し、受信した文書から、ハイパーリンクが対応付けられやすく、アンカーテキストなどになり得る蓋然性が高い文字列を抽出する。情報処理装置100は、文書から文字列を抽出すると、その抽出した文字列を、サービス提供装置20に送信したり、抽出した文字列を含む文書をサービス提供装置20に送信したりする。これによって、サービス提供装置20は、情報処理装置100によって抽出された文字列にURLなどをハイパーリンクとして対応付け、その文字列を含む文書をコンテンツとして含むウェブページなどを端末装置10に提供する。なお、サービス提供装置20から受信する文書の各文字には、予め固有表現を識別するタグが付与されている必要はないが、タグが付与されていてもよい。 The information processing device 100 receives a document (for example, a news article) provided as content via a web page or the like by the service providing device 20, and a hyperlink is easily associated with the received document and becomes an anchor text or the like. Extract a character string that is highly probable. When the information processing apparatus 100 extracts a character string from a document, the information processing apparatus 100 transmits the extracted character string to the service providing apparatus 20, or transmits a document including the extracted character string to the service providing apparatus 20. As a result, the service providing device 20 associates a URL or the like with the character string extracted by the information processing device 100 as a hyperlink, and provides the terminal device 10 with a web page or the like including a document containing the character string as content. It should be noted that each character of the document received from the service providing device 20 does not need to be tagged in advance to identify the named entity, but may be tagged.

[情報処理装置の構成]
図4は、第1実施形態における情報処理装置100の構成の一例を示す図である。図示のように、情報処理装置100は、例えば、通信部102と、制御部110と、記憶部130とを備える。
[Information processing device configuration]
FIG. 4 is a diagram showing an example of the configuration of the information processing apparatus 100 according to the first embodiment. As shown in the figure, the information processing apparatus 100 includes, for example, a communication unit 102, a control unit 110, and a storage unit 130.

通信部102は、例えば、NIC等の通信インターフェースを含む。通信部102は、ネットワークNWを介して、サービス提供装置20などと通信する。例えば、通信部102は、サービス提供装置20と通信し、コンテンツとして提供される文書を受信する。 The communication unit 102 includes, for example, a communication interface such as a NIC. The communication unit 102 communicates with the service providing device 20 and the like via the network NW. For example, the communication unit 102 communicates with the service providing device 20 and receives a document provided as content.

制御部110は、例えば、取得部112と、文字列抽出部114と、通信制御部116と、学習部118とを備える。制御部110の構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサが記憶部130に格納されたプログラムを実行することにより実現される。また、制御部110の構成要素の一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)、またはFPGA(Field-Programmable Gate Array)などのハードウェア(回路部;circuitry)により実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、プロセッサにより参照されるプログラムは、予め記憶部130に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、その記憶媒体が情報処理装置100のドライブ装置に装着されることで記憶媒体から記憶部130にインストールされてもよい。 The control unit 110 includes, for example, an acquisition unit 112, a character string extraction unit 114, a communication control unit 116, and a learning unit 118. The components of the control unit 110 are realized by, for example, a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) executing a program stored in the storage unit 130. In addition, some or all of the components of the control unit 110 are driven by hardware (circuit unit) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), or FPGA (Field-Programmable Gate Array). It may be realized, or it may be realized by the cooperation of software and hardware. Further, the program referred to by the processor may be stored in the storage unit 130 in advance, or is stored in a removable storage medium such as a DVD or a CD-ROM, and the storage medium is stored in the information processing apparatus 100. It may be installed in the storage unit 130 from the storage medium by being attached to the drive device.

記憶部130は、例えば、HDD(Hard Disc Drive)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、RAM(Random Access Memory)などの記憶装置により実現される。記憶部130には、ファームウェアやアプリケーションプログラムなどの各種プログラムのほかに、分類器情報132や条件付き確率場モデル情報134、教師データ136などが格納される。これらの詳細については後述する。 The storage unit 130 is realized by, for example, a storage device such as an HDD (Hard Disc Drive), a flash memory, an EEPROM (Electrically Erasable Programmable Read Only Memory), a ROM (Read Only Memory), and a RAM (Random Access Memory). In addition to various programs such as firmware and application programs, the storage unit 130 stores classifier information 132, conditional random field model information 134, teacher data 136, and the like. Details of these will be described later.

[運用時(ランタイム)の処理フロー]
以下、第1実施形態における情報処理装置100による運用時の一連の処理の流れをフローチャートに即して説明する。運用時とは、既に学習された分類器MDLを利用する状態である。図5は、第1実施形態における情報処理装置100による運用時の一連の処理の流れを示すフローチャートである。本フローチャートの処理は、例えば、所定の周期で繰り返し行われてもよい。
[Processing flow during operation (runtime)]
Hereinafter, the flow of a series of processes during operation by the information processing apparatus 100 in the first embodiment will be described according to a flowchart. The operation time is a state in which the already learned classifier MDL is used. FIG. 5 is a flowchart showing a flow of a series of processes during operation by the information processing apparatus 100 according to the first embodiment. The processing of this flowchart may be repeated, for example, at a predetermined cycle.

まず、取得部112は、通信部102にサービス提供装置20と通信させ、サービス提供装置20から、ウェブページなどを介してコンテンツとして提供される文書を取得する(S100)。サービス提供装置20から取得される文書には、句読点や、終止符、カンマ、疑問符、感嘆符などで区切られた一つの文(センテンス)が少なくとも含まれているものとし、段落などで区切られた節(パラグラフ)や、それ以上大きい単位の文章が含まれていてもよい。また、サービス提供装置20から取得される文書は、トークナイズ(単語分割)されている必要はなく、句点、読点、終止符、カンマ、ピリオド、疑問符、感嘆符、省略符、括弧、記号、スペース、改行などが含まれていてもよい。また、サービス提供装置20から取得される文書の言語は、日本語であってもよいし、英語や中国語、ドイツ語など他の言語であってもよい。 First, the acquisition unit 112 causes the communication unit 102 to communicate with the service providing device 20, and acquires a document provided as content from the service providing device 20 via a web page or the like (S100). It is assumed that the document obtained from the service providing device 20 contains at least one sentence (sentence) separated by a punctuation mark, a full stop, a comma, a question mark, an exclamation mark, etc., and a clause separated by a paragraph or the like. It may contain sentences of (paragraph) or larger units. Further, the document acquired from the service providing device 20 does not need to be tokenized (word division), and has punctuation marks, commas, full stops, commas, periods, question marks, exclamation marks, abbreviations, parentheses, symbols, spaces, etc. It may include line breaks and the like. Further, the language of the document acquired from the service providing device 20 may be Japanese, or may be another language such as English, Chinese, or German.

次に、文字列抽出部114は、分類器情報132を参照して、分類器MDLを構築(生成)し、取得部112によって取得された文書に含まれる複数の文字Cの中から、ある決まった数の文字列を、構築した分類器MDLに入力する(S102)。例えば、抽出したい文字列が5文字である場合、分類器MDLに一度に入力する文字列の数は、5文字あるいはそれ以上であってよい。 Next, the character string extraction unit 114 constructs (generates) a classifier MDL with reference to the classifier information 132, and is determined from among a plurality of characters C included in the document acquired by the acquisition unit 112. The number of character strings is input to the constructed classifier MDL (S102). For example, when the character string to be extracted is 5 characters, the number of character strings input to the classifier MDL at one time may be 5 characters or more.

分類器情報132は、分類器MDLを定義した情報(プログラムまたはデータ構造)である。分類器MDLは、文字にタグを順次付与する系列ラベリングと呼ばれる問題を解くための学習モデルであり、例えば、リカレントニューラルネットワーク(Reccurent Neural Network:RNN)などの種々のニューラルネットワークによって実現される。 The classifier information 132 is information (program or data structure) that defines the classifier MDL. The classifier MDL is a learning model for solving a problem called sequence labeling in which characters are sequentially tagged, and is realized by various neural networks such as a recurrent neural network (RNN), for example.

分類器情報132には、例えば、各ニューラルネットワークを構成する入力層、一以上の隠れ層(中間層)、出力層の其々に含まれるニューロン(ユニット)が互いにどのように結合されるのかという結合情報や、結合されたニューロン間で入出力されるデータに付与される結合係数がいくつであるのかという重み情報などが含まれる。結合情報は、例えば、各層に含まれるニューロン数や、各ニューロンの結合先のニューロンの種類を指定する情報、各ニューロンを実現する活性化関数、隠れ層のニューロン間に設けられたゲートなどの情報を含む。ニューロンを実現する活性化関数は、例えば、入力符号に応じて動作を切り替える関数(ReLU関数やELU関数)であってもよいし、シグモイド関数や、ステップ関数、ハイパボリックタンジェント関数であってもよいし、恒等関数であってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ニューロン間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、活性化関数のパラメータであり、例えば、ニューラルネットワークの隠れ層において、ある層のニューロンから、より深い層のニューロンにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。 In the classifier information 132, for example, how the neurons (units) contained in the input layer, one or more hidden layers (intermediate layers), and the output layers constituting each neural network are connected to each other. It includes connection information and weight information such as how many connection coefficients are given to data input / output between connected neurons. The connection information includes, for example, the number of neurons contained in each layer, information that specifies the type of neuron to which each neuron is connected, the activation function that realizes each neuron, and information such as a gate provided between neurons in the hidden layer. including. The activation function that realizes the neuron may be, for example, a function that switches the operation according to the input code (ReLU function or ELU function), or may be a sigmoid function, a step function, or a hyperbolic tangent function. , May be an equal function. The gate selectively passes or weights the data transmitted between neurons, for example, depending on the value returned by the activation function (eg 1 or 0). The coupling coefficient is a parameter of the activation function, and is a weight given to the output data when data is output from a neuron in one layer to a neuron in a deeper layer, for example, in a hidden layer of a neural network. including. Further, the coupling coefficient may include a bias component peculiar to each layer.

図6は、第1実施形態における分類器MDLの一例を示す図である。第1実施形態における分類器MDLは、例えば、埋め込みレイヤ200と、特徴抽出レイヤ300と、CRF(Conditional random field)レイヤ400とによって実現される。CRFレイヤ400と文字列抽出部114とを合わせたものは、「抽出部」の一例である。 FIG. 6 is a diagram showing an example of the classifier MDL in the first embodiment. The classifier MDL in the first embodiment is realized by, for example, an embedding layer 200, a feature extraction layer 300, and a CRF (Conditional random field) layer 400. The combination of the CRF layer 400 and the character string extraction unit 114 is an example of the “extraction unit”.

埋め込みレイヤ200は、入力された各文字Cから、ある次元数のベクトル(以下、文字ベクトルxと称する)を生成する。例えば、埋め込みレイヤ200は、対象とする文字に対応した要素を1とし、それ以外の文字に対応した要素を0とするワンホット表現と呼ばれる手法によって、入力された文字Cから文字ベクトルxを生成する。また、埋め込みレイヤ200は、対象とする文字と、その文字の前後に出現する文字との共起性に基づいて文字をベクトル化する分散表現と呼ばれる手法によって、入力された文字Cから文字ベクトルxを生成してもよい。 The embedded layer 200 generates a vector having a certain number of dimensions (hereinafter referred to as a character vector x) from each input character C. For example, the embedded layer 200 has a character vector x k from the input character C k by a method called one-hot expression in which the element corresponding to the target character is 1 and the element corresponding to other characters is 0. To generate. Further, the embedded layer 200 is a character vector from the input character Ck by a method called distributed expression that vectorizes the character based on the co-occurrence between the target character and the characters appearing before and after the character. You may generate x k .

以下の説明では、一例として、Cを先頭にしてC、C、Cの順に並んだ4文字が埋め込みレイヤ200に入力される場合について説明する。4つの文字CからCが埋め込みレイヤ200に入力されると、xからxの4つの文字ベクトルが生成される。埋め込みレイヤ200によって生成された文字ベクトルxは、特徴抽出レイヤ300に出力される。 In the following description, as an example, a case where four characters arranged in the order of C 2 , C 3 , and C 4 starting with C 1 are input to the embedded layer 200 will be described. When the four characters C 1 to C 4 are input to the embedded layer 200, four character vectors x 1 to x 4 are generated. The character vector x generated by the embedding layer 200 is output to the feature extraction layer 300.

特徴抽出レイヤ300は、埋め込みレイヤ200により出力された文字ベクトルxから特徴量を抽出する。例えば、特徴抽出レイヤ300は、BiLSTM(Bidirectional Long short-term memory)レイヤ310と、アテンション機構(注意機構)330とによって実現される。 The feature extraction layer 300 extracts a feature amount from the character vector x output by the embedding layer 200. For example, the feature extraction layer 300 is realized by a BiLSTM (Bidirectional Long short-term memory) layer 310 and an attention mechanism (attention mechanism) 330.

BiLSTMレイヤ310は、入力された文字の後に出現する文字を予測するとともに、入力された文字の前に出現する文字を予測する双方向型のLSTMを含むRNNである。言い換えれば、BiLSTMレイヤ310は、現在までの入力から未来の出力を予測するとともに、未来の入力から過去の出力を予測する。BiLSTMレイヤ310には、LSTM320(1)~(8)が含まれる。なお、LSTM320(1)~(8)は、互いに異なるLSTM320ではなく、処理周期tの異なる同一のLSTM320である。括弧内の数字は、処理周期tに対応している。 The BiLSTM layer 310 is an RNN including a bidirectional LSTM that predicts the character that appears after the input character and predicts the character that appears before the input character. In other words, the BiLSTM layer 310 predicts future outputs from inputs up to the present and predicts past outputs from future inputs. The BiLSTM layer 310 includes LSTM320 (1) to (8). It should be noted that LSTM320s (1) to (8) are not LSTM320s different from each other, but the same LSTM320s having different processing cycles t. The numbers in parentheses correspond to the processing cycle t.

各LSTM320は、数式(1)に基づいて、各文字ベクトルxから抽出される特徴量を表す特徴ベクトルhを出力する。数式(1)は、各LSTM320における計算式の一例を表している。 Each LSTM320 outputs a feature vector h representing a feature amount extracted from each character vector x based on the mathematical formula (1). The mathematical formula (1) represents an example of the calculation formula in each LSTM320.

Figure 0007043373000001
Figure 0007043373000001

tは、BiLSTMレイヤ310によって繰り返し行われる再帰処理の処理周期(処理時刻)を表しており、xは、処理周期tにおいて埋め込みレイヤ200から入力される文字ベクトルを表している。例えば、最初の周期tでは、先頭の文字Cに対応した文字ベクトルxが、LSTM320(1)とLSTM320(8)とに入力され、次の周期tでは、文字Cの後に続く文字Cに対応した文字ベクトルxが、LSTM320(2)とLSTM320(7)とに入力され、次の周期tでは、文字Cの後に続く文字Cに対応した文字ベクトルxが、LSTM320(3)とLSTM320(6)とに入力され、次の周期tでは、文字Cの後に続く文字Cに対応した文字ベクトルxが、LSTM320(4)とLSTM320(5)とに入力される。 t represents the processing cycle (processing time) of the recursive processing repeatedly performed by the BiLSTM layer 310, and x t represents the character vector input from the embedded layer 200 in the processing cycle t. For example, in the first cycle t 1 , the character vector x 1 corresponding to the first character C 1 is input to the LSTM320 ( 1 ) and LSTM320 (8), and in the next cycle t2, it follows the character C1. The character vector x 2 corresponding to the character C 2 is input to the LSTM320 (2) and the LSTM320 (7), and in the next cycle t 3 , the character vector x 3 corresponding to the character C 3 following the character C 2 is generated. , LSTM320 ( 3 ) and LSTM320 (6), and in the next cycle t4, the character vector x4 corresponding to the character C4 following the character C3 is the LSTM320 ( 4 ) and LSTM320 (5). Is entered in.

は、処理周期tにおいてLSTM320により出力される特徴ベクトルを表している。再帰処理とは、過去の処理周期で求めた特徴ベクトルを、今回の処理周期での特徴ベクトルの導出に利用することである。特徴ベクトルhは、インプットゲートによって出力されるベクトルzに基づく重み(1-z)と特徴ベクトルht-1との畳み込み値と、ベクトルzと特徴ベクトルh(~)との畳み込み値との和として導出される。 h t represents a feature vector output by the LSTM 320 in the processing cycle t. Recursive processing is to use the feature vector obtained in the past processing cycle for deriving the feature vector in the current processing cycle. The feature vector h t is a convolution value of the weight (1-z t ) based on the vector z t output by the input gate and the feature vector h t-1 , and the vector z t and the feature vector h t (~). Derived as the sum of the convolution values.

LSTM320(1)の特徴ベクトルhは、LSTM320(2)に出力され、LSTM320(2)の特徴ベクトルhは、LSTM320(3)に出力され、LSTM320(3)の特徴ベクトルhは、LSTM320(4)に出力される。一方、LSTM320(5)の特徴ベクトルhは、LSTM320(6)に出力され、LSTM320(6)の特徴ベクトルhは、LSTM320(7)に出力され、LSTM320(7)の特徴ベクトルhは、LSTM320(8)に出力される。 The feature vector h 1 of the LSTM320 (1) is output to the LSTM320 (2), the feature vector h 2 of the LSTM320 (2) is output to the LSTM320 (3), and the feature vector h3 of the LSTM320 ( 3 ) is the LSTM320. It is output to (4). On the other hand, the feature vector h 5 of the LSTM320 (5) is output to the LSTM320 (6), the feature vector h6 of the LSTM320 ( 6 ) is output to the LSTM320 (7), and the feature vector h7 of the LSTM320 ( 7 ) is , Is output to LSTM320 (8).

は、LSTMに含まれるインプットゲートによって出力されるベクトルを表しており、σは、ゲートの活性化関数がシグモイド関数であることを表しており、Wは、前段のLSTM320の特徴ベクトルht-1と、文字ベクトルxとを線形変換するための重みを表している。 z t represents a vector output by the input gate included in the LSTM, σ represents that the activation function of the gate is a sigmoid function, and W z represents the feature vector h of the LSTM 320 in the previous stage. It represents the weight for linearly transforming t-1 and the character vector x t .

は、LSTMに含まれるフォーゲットゲートによって出力されるベクトルを表しており、Wは、重みWと同様に、前段のLSTM320の特徴ベクトルht-1と、文字ベクトルxとを線形変換するための重みを表している。 rt represents a vector output by the forget gate included in the LSTM , and W f represents the feature vector h t -1 of the LSTM 320 in the previous stage and the character vector x t , similarly to the weight Wi. Represents the weight for linear transformation.

(~)は、内部演算のために一時的に導出される特徴ベクトルを表している。特徴ベクトルh(~)は、フォーゲットゲートによって出力されるベクトルrと、特徴ベクトルht-1との畳み込み値と、文字ベクトルxとに対して、ある重みWを乗算した積を変数としたハイパボリックタンジェント関数tanhを解くことで導出される。 ht (~) represents a feature vector that is temporarily derived for internal operations. The feature vector h t (~) is the product of the convolution value of the vector rt output by the forget gate, the feature vector h t -1 , and the character vector x t multiplied by a certain weight W. It is derived by solving the hyperbolic tangent function tanh as a variable.

BiLSTMレイヤ310は、同じ文字ベクトルxが入力された2つのLSTM320のそれぞれによって出力された2つの特徴ベクトルhを結合して、1つの特徴ベクトルhを生成し、これを出力する。特徴ベクトルhに含まれる要素は、各文字Cに付されるタグの尤もらしさ(尤度)を数値(スコア)によって表している。以下、2つの特徴ベクトルhを結合して生成した特徴ベクトルhを、「タグスコアベクトルh」と称して説明する。タグスコアベクトルhは、「特徴量」の一例である。 The BiLSTM layer 310 combines two feature vectors h output by each of the two LSTM 320s to which the same character vector x is input to generate one feature vector h and outputs it. The element included in the feature vector h represents the likelihood (likelihood) of the tag attached to each character C by a numerical value (score). Hereinafter, the feature vector h generated by combining the two feature vectors h will be referred to as a “tag score vector h” and will be described. The tag score vector h is an example of a “feature amount”.

例えば、BiLSTMレイヤ310は、文字ベクトルxが入力された前段のLSTM320(1)および後段のLSTM320(8)のそれぞれによって出力された特徴ベクトルhを結合して、タグスコアベクトルhを出力する。 For example, the BiLSTM layer 310 outputs the tag score vector h 1 by combining the feature vectors h t output by each of the front stage LSTM 320 (1) and the rear stage LSTM 320 (8) in which the character vector x 1 is input. do.

また、BiLSTMレイヤ310は、文字ベクトルxが入力された前段のLSTM320(2)および後段のLSTM320(7)のそれぞれによって出力された特徴ベクトルhを結合して、タグスコアベクトルhを出力する。 Further, the BiLSTM layer 310 outputs the tag score vector h 2 by combining the feature vectors h t output by each of the front stage LSTM 320 (2) and the rear stage LSTM 320 (7) in which the character vector x 2 is input. do.

また、BiLSTMレイヤ310は、文字ベクトルxが入力された前段のLSTM320(3)および後段のLSTM320(6)のそれぞれによって出力された特徴ベクトルhを結合して、タグスコアベクトルhを出力する。 Further, the BiLSTM layer 310 outputs the tag score vector h 3 by combining the feature vectors h t output by each of the front stage LSTM 320 (3) and the rear stage LSTM 320 (6) in which the character vector x 3 is input. do.

また、BiLSTMレイヤ310は、文字ベクトルxが入力された前段のLSTM320(4)および後段のLSTM320(5)のそれぞれによって出力された特徴ベクトルhを結合して、タグスコアベクトルhを出力する。 Further, the BiLSTM layer 310 outputs the tag score vector h 4 by combining the feature vectors h t output by each of the front stage LSTM 320 (4) and the rear stage LSTM 320 (5) in which the character vector x 4 is input. do.

アテンション機構330は、ある文字列において、各文字が文字列内のどの位置に出現したのかということに応じて、その文字に対する注意のかけ方を変更するニューラルネットワークである。例えば、アテンション機構330は、BiLSTMレイヤ310によって出力されたタグスコアベクトルhからhのそれぞれに対して、互いに異なる重みαを乗算することで、各文字Cに対する注意の度合い(アテンション)を、文字Cごとに変更する。数式(2)は、アテンション機構330における計算式の一例を表している。 The attention mechanism 330 is a neural network that changes how to pay attention to a certain character string according to the position in the character string in which each character appears. For example, the attention mechanism 330 determines the degree of attention (attention) for each character C by multiplying each of the tag score vectors h 1 to h 4 output by the BiLSTM layer 310 by different weights α. Change for each letter C. The mathematical formula (2) represents an example of the calculation formula in the attention mechanism 330.

Figure 0007043373000002
Figure 0007043373000002

Mは、タグスコアベクトルhを変数としたハイパボリックタンジェント関数tanhを解くことで導出されるベクトルであり、タグスコアベクトルhを非線形化したベクトルである。重みαは、ソフトマックス関数によって導出される。wは、ベクトルMに乗算される重みベクトルの転置である。 M is a vector derived by solving the hyperbolic tangent function tanh with the tag score vector h t as a variable, and is a non-linear vector of the tag score vector h t . The weight α is derived by the softmax function. w T is the transpose of the weight vector multiplied by the vector M.

例えば、ある文字Cを入力したときにBiLSTMレイヤ310によって出力されるタグスコアベクトルをhとした場合、そのタグスコアベクトルhに対応した重みαは、数式(3)に示すソフトマックス関数によって導出される。 For example, when the tag score vector output by the BiLSTM layer 310 when a certain character C k is input is h k, the weight α k corresponding to the tag score vector h k is the softmax shown in the equation (3). Derived by a function.

Figure 0007043373000003
Figure 0007043373000003

BiLSTMレイヤ310によって出力されるタグスコアベクトルhの総数がnである場合、数式(3)に示すように、重みαは、対象とするタグスコアベクトルhの指数関数の出力値exp(w)を、タグスコアベクトルhの指数関数の出力値exp(w)から、タグスコアベクトルhの指数関数の出力値exp(w)までを足し合わせた合計値で除算した値(すなわち割合)となる。そのため、重みαは、0から1までの範囲の値をとる。数式(3)の分子は「文字ごとに出力された各特徴量」の一例であり、分母は「全ての文字の特徴量」の一例である。 When the total number of tag score vectors h output by the BiLSTM layer 310 is n, the weight α k is the output value exp (w) of the exponential function of the target tag score vector h k , as shown in the equation (3). The sum of TM k ) from the output value exp (w TM 1 ) of the exponential function of the tag score vector h 1 to the output value exp (w TM n ) of the exponential function of the tag score vector h n . It is the value divided by the value (that is, the ratio). Therefore, the weight α k takes a value in the range of 0 to 1. The numerator of the formula (3) is an example of "features output for each character", and the denominator is an example of "features of all characters".

アテンション機構330は、対象とする文字Cのタグスコアベクトルhを非線形化したベクトルMに対して、対象とする文字Cのタグスコアベクトルhに応じた重みαの転置を乗算することで、対象とする文字Cのタグスコアベクトルhが他の文字との相対的な注意の度合いに応じて重み付けられたタグスコアベクトルHを生成する。以下、タグスコアベクトルhに重みαが乗算されたタグスコアベクトルHを、「重み付きタグスコアベクトルH」と称して説明する。重みαはベクトルであるため、重み付きタグスコアベクトルHは、ベクトルMと重みαとのアダマール積となる。 The attention mechanism 330 multiplies the vector M k , which is a non-linearized tag score vector h k of the target character C k , by the transposition of the weight α k according to the tag score vector h k of the target character C k . By doing so, the tag score vector h k of the target character C k is weighted according to the degree of attention relative to other characters to generate the tag score vector H k . Hereinafter, the tag score vector H k obtained by multiplying the tag score vector h k by the weight α k will be referred to as a “weighted tag score vector H k ”. Since the weight α k is a vector, the weighted tag score vector H k is the Hadamard product of the vector M k and the weight α k .

上述したように、本実施形態では一例としてCからCの4文字を処理対象としているため、アテンション機構330は、文字Cのタグスコアベクトルhを非線形化したベクトルMに対して、文字Cのタグスコアベクトルhに応じた重みαを乗算して、文字Cに対応した重み付きタグスコアベクトルHを生成する。 As described above, since the four characters C 1 to C 4 are processed as an example in the present embodiment, the attention mechanism 330 has a vector M 1 in which the tag score vector h 1 of the character C 1 is made non-linear. , The weight α 1 corresponding to the tag score vector h 1 of the character C 1 is multiplied to generate the weighted tag score vector H 1 corresponding to the character C 1 .

また、アテンション機構330は、文字Cのタグスコアベクトルhを非線形化したベクトルMに対して、文字Cのタグスコアベクトルhに応じた重みαを乗算して、文字Cに対応した重み付きタグスコアベクトルHを生成する。 Further, the attention mechanism 330 multiplies the vector M 2 obtained by decomposing the tag score vector h 2 of the character C 2 by the weight α 2 corresponding to the tag score vector h 2 of the character C 2 to obtain the character C 2 . Generates a weighted tag score vector H 2 corresponding to.

また、アテンション機構330は、文字Cのタグスコアベクトルhを非線形化したベクトルMに対して、文字Cのタグスコアベクトルhに応じた重みαを乗算して、文字Cに対応した重み付きタグスコアベクトルHを生成する。 Further, the attention mechanism 330 multiplies the vector M3, which is a non-linearized tag score vector h 3 of the character C 3 , by the weight α 3 corresponding to the tag score vector h 3 of the character C 3 , and the character C 3 Generates a weighted tag score vector H3 corresponding to.

また、アテンション機構330は、文字Cのタグスコアベクトルhを非線形化したベクトルMに対して、文字Cのタグスコアベクトルhに応じた重みαを乗算して、文字Cに対応した重み付きタグスコアベクトルHを生成する。 Further, the attention mechanism 330 multiplies the vector M 4 , which is a non-linearization of the tag score vector h 4 of the character C 4 , by the weight α 2 corresponding to the tag score vector h 4 of the character C 4 , and the character C 4 Generates a weighted tag score vector H4 corresponding to.

これらの重み付きタグスコアベクトルHは、ベクトルMに対して、ソフトマックス関数によって求められる重みαを乗算することで生成されるため、重み付きタグスコアベクトルHに含まれる各要素の値は、確率のように振る舞う。重み付きタグスコアベクトルHに含まれる各要素は、各文字Cに付されるタグの尤もらしさ(尤度)を、0から1までの範囲の数値によって表している。例えば、重み付きタグスコアベクトルHがe1からe4の4つの要素を含む場合、要素e1が「B」タグの尤度を表し、要素e2が「I」タグの尤度を表し、要素e3が「L」タグの尤度を表し、要素e4が「O」タグの尤度を表していてよい。なお、重み付きタグスコアベクトルHの要素数と、各要素に対応するタグの種類は、ハイパーパラメータとして任意に決定されてよい。要素e1からe3は、「第1指標値」の一例であり、要素e4は、「第2指標値」の一例である。 Since these weighted tag score vectors H are generated by multiplying the vector M by the weight α obtained by the softmax function, the value of each element included in the weighted tag score vector H is a probability. Behave like. Each element included in the weighted tag score vector H represents the likelihood (likelihood) of the tag attached to each character C by a numerical value in the range of 0 to 1. For example, when the weighted tag score vector H includes four elements e1 to e4, the element e1 represents the likelihood of the "B" tag, the element e2 represents the likelihood of the "I" tag, and the element e3 represents the "I" tag. The likelihood of the "L" tag may be represented, and the element e4 may represent the likelihood of the "O" tag. The number of elements of the weighted tag score vector H and the type of tag corresponding to each element may be arbitrarily determined as hyperparameters. The elements e1 to e3 are examples of the "first index value", and the elements e4 are examples of the "second index value".

アテンション機構330によって生成された重み付きタグスコアベクトルHは、CRFレイヤ400に出力される。 The weighted tag score vector H generated by the attention mechanism 330 is output to the CRF layer 400.

CRFレイヤ400は、条件付き確率場モデル情報134が示す条件付き確率場モデル(マルコフ確率場)と、アテンション機構330によって出力された複数の重み付きタグスコアベクトルHとに基づいて、入力された複数の文字Cに対して付けられるタグの組み合わせとして、最も尤度が高いタグ付けの組み合わせを決定する。条件付き確率場モデル情報134が示す条件付き確率場モデルは、「B」「I」「L」「O」などの各種タグのいずれかが付与される文字同士が、文書(文字列)の中で互いに隣り合うときの確率を条件付けた条件付き確率場である。 The CRF layer 400 is a plurality of input based on the conditional random field model (Markov random field) indicated by the conditional random field model information 134 and the plurality of weighted tag score vectors H output by the attention mechanism 330. As a combination of tags attached to the character C of, the combination of tagging with the highest probability is determined. In the conditional random field model indicated by the conditional random field model information 134, characters to which any of various tags such as "B", "I", "L", and "O" are attached are contained in a document (character string). It is a conditional random field in which the probabilities when they are adjacent to each other are conditioned.

図7は、条件付き確率場モデルの一例を示す図である。例えば、ある文字列に含まれる複数の文字に対して、「B」「I」「L」「O」などの各種タグのいずれかが付与されている場合、タグ付けの順序として、ある決まったパターンが存在し得る。例えば、「B」「I」「L」という順序でタグが付される文字列は存在し得るが、「O」「L」「O」という順序でタグが付される文字列は、誤記や特殊な文体以外では存在する蓋然性が低い。このようなことを考慮して、条件付き確率場モデルでは、一つのタグを状態と見做したときに、あるタグから他のタグに移り変わる際の確率(ある二つのタグが隣り合う確率)を状態遷移確率として定義している。 FIG. 7 is a diagram showing an example of a conditional random field model. For example, when any of various tags such as "B", "I", "L", and "O" is attached to a plurality of characters included in a certain character string, the tagging order is fixed. Patterns can exist. For example, there may be character strings that are tagged in the order of "B", "I", and "L", but character strings that are tagged in the order of "O", "L", and "O" are erroneous or written. It is unlikely that it will exist except for special writing styles. With this in mind, in the conditional random field model, when one tag is regarded as a state, the probability of transition from one tag to another (the probability that two tags are next to each other) is calculated. It is defined as a state transition probability.

一般的な文書では、例えば、「B」タグが付与される文字の後に「I」タグが付与される文字が続く頻度が大きいため、「B」タグから「I」タグへの状態遷移確率は大きく設定される。また、「L」タグが付与される文字の後に「O」タグが付与される文字が続く頻度も大きいため、「L」タグから「O」タグへの状態遷移確率も大きく設定される。また、「I」タグが付与される文字の後に「L」タグが付与される文字が続く頻度も大きいため、「I」タグから「L」タグへの状態遷移確率も大きく設定される。また、「I」タグが付与される文字の後に「I」タグが付与される文字が続く頻度も大きいため、「I」タグから「I」タグへの状態遷移確率も大きく設定される。一方、一般的な文書では、「L」タグが付与される文字の後に「B」タグが付与される文字が続く頻度が小さいため、「L」タグから「B」タグへの状態遷移確率は小さく設定される。また、「O」タグが付与される文字の後に「L」タグが付与される文字が続く頻度も小さいため、「O」タグから「L」タグへの状態遷移確率も小さく設定される。また、「B」タグが付与される文字の後に「B」タグが付与される文字が続く頻度も小さいため、「B」タグから「B」タグへの状態遷移確率も小さく設定される。これらの状態遷移確率は、ハイパーパラメータとして予め決められているものとする。 In a general document, for example, since the character to which the "B" tag is attached is frequently followed by the character to which the "I" tag is attached, the state transition probability from the "B" tag to the "I" tag is high. It is set large. Further, since the character to which the "O" tag is attached is frequently followed by the character to which the "L" tag is attached, the state transition probability from the "L" tag to the "O" tag is also set to be large. Further, since the character to which the "L" tag is attached is frequently followed by the character to which the "I" tag is attached, the state transition probability from the "I" tag to the "L" tag is also set to be large. Further, since the character to which the "I" tag is attached is frequently followed by the character to which the "I" tag is attached, the state transition probability from the "I" tag to the "I" tag is also set to be large. On the other hand, in a general document, since the frequency of the character with the "B" tag being followed by the character with the "L" tag is small, the state transition probability from the "L" tag to the "B" tag is high. Set small. Further, since the frequency of the character to which the "L" tag is attached follows the character to which the "O" tag is attached is small, the state transition probability from the "O" tag to the "L" tag is also set to be small. Further, since the frequency of the character to which the "B" tag is attached is small after the character to which the "B" tag is attached, the state transition probability from the "B" tag to the "B" tag is also set small. It is assumed that these state transition probabilities are predetermined as hyperparameters.

CRFレイヤ400では、上記のような考えに基づいて全てのタグ間の状態遷移確率が定義された条件付き確率場モデルに従って、全てのタグの組み合わせの尤度を導出する。 In the CRF layer 400, the likelihood of all tag combinations is derived according to a conditional random field model in which the state transition probabilities between all tags are defined based on the above idea.

例えば、先頭の文字Cが「B」タグ、次の文字Cが「I」タグ、次の文字Cが「L」タグ、最後の文字Cが「O」タグとなる、ある一つの組み合わせを考えた場合、CRFレイヤ400は、まず、文字Cに対応した重み付きタグスコアベクトルHに含まれる複数の要素のうち、「B」タグの尤度を表す要素e1に対して、「B」タグ(=要素e1)から「I」タグ(=要素e2)へと状態遷移する状態遷移確率0.5を乗算する。次に、CRFレイヤ400は、文字Cに対応した重み付きタグスコアベクトルHに含まれる複数の要素のうち、「I」タグの尤度を表す要素e2に対して、「I」タグ(=要素e2)から「L」タグ(=要素e3)へと状態遷移する状態遷移確率0.4を乗算する。次に、CRFレイヤ400は、文字Cに対応した重み付きタグスコアベクトルHに含まれる複数の要素のうち、「L」タグの尤度を表す要素e3に対して、「L」タグ(=要素e3)から「O」タグ(=要素e4)へと状態遷移する状態遷移確率0.3を乗算する。そして、CRFレイヤ400は、これらの積を足し合わせた線形和(0.5×e1+0.4×e2+0.3×e3)を、「B」「I」「L」「O」の組み合わせの尤度として導出する。なお、各タグの組み合わせの尤度は、全組み合わせの尤度で除算され、0から1の範囲の数値をとるものとする。 For example, the first character C 1 is an "B" tag, the next character C 2 is an "I" tag, the next character C 3 is an "L" tag, and the last character C 4 is an "O" tag. When considering the combination of the two, the CRF layer 400 first refers to the element e1 representing the probability of the "B" tag among the plurality of elements included in the weighted tag score vector H1 corresponding to the character C1. , The state transition probability of state transition from the "B" tag (= element e1) to the "I" tag (= element e2) is multiplied by 0.5. Next, the CRF layer 400 has an "I" tag (with respect to the element e2 representing the probability of the " I " tag among the plurality of elements included in the weighted tag score vector H2 corresponding to the character C2 . = Multiply the state transition probability 0.4 of the state transition from the element e2) to the "L" tag (= element e3). Next, the CRF layer 400 has an "L" tag ( for an element e3 representing the probability of the "L" tag among a plurality of elements included in the weighted tag score vector H3 corresponding to the character C3. = Multiply the state transition probability 0.3 of the state transition from the element e3) to the "O" tag (= element e4). Then, in the CRF layer 400, the linear sum (0.5 × e1 + 0.4 × e2 + 0.3 × e3) obtained by adding these products is the likelihood of the combination of “B”, “I”, “L”, and “O”. Derived as. The likelihood of each combination of tags is divided by the likelihood of all combinations and takes a numerical value in the range of 0 to 1.

CRFレイヤ400は、全てのタグの組み合わせについて尤度を導出すると、その組み合わせの中から最も尤度が大きくなるタグの組み合わせを選択し、その組み合わせをベクトル(以下、最尤タグベクトルと称する)として出力する。例えば、分類すべきタグの種類が4種類である場合、CRFレイヤ400によって出力される最尤タグベクトルには、例えば、最初の文字Cに付されるタグの尤度を表す要素e1と、次の文字Cに付されるタグの尤度を表す要素e2と、次の文字Cに付されるタグの尤度を表す要素e3と、最後の文字Cに付されるタグの尤度を表す要素e4とが含まれることになる。 When the CRF layer 400 derives the likelihood for all the tag combinations, the tag combination having the highest likelihood is selected from the combinations, and the combination is used as a vector (hereinafter referred to as the maximum likelihood tag vector). Output. For example, when there are four types of tags to be classified, the maximum likelihood tag vector output by the CRF layer 400 includes, for example, an element e1 representing the likelihood of the tag attached to the first character C1. The element e2 representing the likelihood of the tag attached to the next character C 2 , the element e3 representing the likelihood of the tag attached to the next character C 3 , and the likelihood of the tag attached to the last character C 4 The element e4 representing the degree is included.

図5の説明に戻り、次に、文字列抽出部114は、分類器MDLのCRFレイヤ400から出力結果、すなわち、最尤のタグの組み合わせを示す最尤タグベクトルを取得する(S104)。 Returning to the description of FIG. 5, the character string extraction unit 114 then acquires the output result, that is, the maximum likelihood tag vector indicating the maximum likelihood tag combination from the CRF layer 400 of the classifier MDL (S104).

次に、文字列抽出部114は、S100の処理で取得された文書に含まれる全ての文字を分類器MDLに入力したか否かを判定し(S106)、未だ全ての文字について分類器MDLに入力していない場合、S102の処理に戻り、前回分類器MDLに入力された文字列と重複しない他の文字列を分類器MDLに入力する。 Next, the character string extraction unit 114 determines whether or not all the characters included in the document acquired in the process of S100 have been input to the classifier MDL (S106), and the classifier MDL still has all the characters. If not, the process returns to S102, and another character string that does not overlap with the character string input to the classifier MDL last time is input to the classifier MDL.

一方、文字列抽出部114は、全ての文字について分類器MDLに入力している場合、分類器MDLから取得した最尤タグベクトルに基づいて、文書に含まれる各文字にタグを付与し、その文書の中から、アンカーテキストのようにハイパーリンクに対応付けることが可能な文字列を抽出する(S108)。例えば、文字CからCが分類器MDLに入力され、その分類器MDLから取得された最尤タグベクトルに「B」「I」「L」「O」のタグの尤度を表す要素が含まれている場合、文字列抽出部114は、文字Cに「B」タグを付与し、文字Cに「I」タグを付与し、文字Cに「L」タグを付与し、文字Cに「O」タグを付与する。そして、文字列抽出部114は、文書の中から、「B」タグが付与された文字Cからはじまり、「L」タグが付与された文字Cで終わる文字列を、ハイパーリンクに対応付けることが可能な文字列として抽出する。この際、「B」タグが付与された文字Cと、「L」タグが付与された文字Cとの間には、「I」タグが付与された文字Cが存在してもよい。 On the other hand, when the character string extraction unit 114 inputs all the characters to the classifier MDL, the character string extraction unit 114 attaches a tag to each character included in the document based on the most likely tag vector acquired from the classifier MDL, and assigns a tag to each character. A character string that can be associated with a hyperlink, such as an anchor text, is extracted from the document (S108). For example, the characters C 1 to C 4 are input to the classifier MDL, and the maximum likelihood tag vector acquired from the classifier MDL contains elements representing the likelihood of the tags "B", "I", "L", and "O". When included, the character string extraction unit 114 assigns the character C 1 to the "B" tag, the character C 2 to the "I" tag, the character C 3 to the "L" tag, and the character C 3. An "O" tag is attached to C4 . Then, the character string extraction unit 114 can associate a character string starting with the character C with the "B" tag and ending with the character C with the "L" tag from the document with the hyperlink. Extract as a character string. At this time, the character C to which the "I" tag is attached may exist between the character C to which the "B" tag is attached and the character C to which the "L" tag is attached.

次に、通信制御部116は、通信部102を制御して、文字列抽出部114によって抽出された文字列を含む情報(以下、文字列情報と称する)を、サービス提供装置20に送信する(S110)。これによって本フローチャートの処理が終了する。 Next, the communication control unit 116 controls the communication unit 102 to transmit information including the character string extracted by the character string extraction unit 114 (hereinafter referred to as character string information) to the service providing device 20 (hereinafter referred to as character string information). S110). This ends the processing of this flowchart.

文字列情報を受信したサービス提供装置20は、図2に例示するように、文字列抽出部114によって抽出された文字列にハイパーリンクを対応付けたコンテンツを、ウェブページを媒体にしてユーザの端末装置10に提供してよい。なお、サービス提供装置20は、文字列抽出部114によって抽出された文字列をハイパーリンクに対応付けるのに代えて、あるいは加えて、文字列抽出部114によって抽出された文字列を、情報検索のためのクエリとしてサジェストしてもよい。 As illustrated in FIG. 2, the service providing device 20 that has received the character string information is a user's terminal using a web page as a medium for content in which a hyperlink is associated with a character string extracted by the character string extraction unit 114. It may be provided to the device 10. In addition, the service providing device 20 replaces or additionally associates the character string extracted by the character string extraction unit 114 with the hyperlink, and uses the character string extracted by the character string extraction unit 114 for information retrieval. You may suggest it as a query of.

図8は、サービス提供装置20により提供されるウェブページの他の例を示す図である。図示の例のように、文字列抽出部114によって抽出された文字列が「台風10号」である場合に、ユーザがその文字列にマウスオン(マウスオーバー)した場合、サービス提供装置20は、その文字列で検索することを促すための検索ボタンB1を表示させる。 FIG. 8 is a diagram showing another example of a web page provided by the service providing device 20. As shown in the illustrated example, when the character string extracted by the character string extraction unit 114 is "typhoon No. 10" and the user mouses on (mouse over) the character string, the service providing device 20 sets the same. The search button B1 for prompting the search by the character string is displayed.

[学習時(トレーニング)の処理フロー]
以下、第1実施形態における情報処理装置100の学習時の一連の処理の流れをフローチャートに即して説明する。学習時とは、運用時に利用される分類器MDLを学習させる状態である。図9は、第1実施形態における情報処理装置100による学習時の一連の処理の流れを示すフローチャートである。
[Processing flow during learning (training)]
Hereinafter, the flow of a series of processes at the time of learning of the information processing apparatus 100 in the first embodiment will be described according to a flowchart. The learning time is a state in which the classifier MDL used at the time of operation is learned. FIG. 9 is a flowchart showing a flow of a series of processes during learning by the information processing apparatus 100 according to the first embodiment.

まず、学習部118は、記憶部130に格納された教師データ136から、ある決まった数の文字列を選択する(S200)。教師データ136は、予め「B」タグや「O」タグなどの各種タグが教師ラベルとして対応付けられた文字列(タグが自明な文字列)を含む文書データである。教師データ136が示す文書は、トークナイズ(単語分割)されている必要はなく、句点、読点、終止符、カンマ、ピリオド、疑問符、感嘆符、省略符、括弧、記号、スペース、改行などが含まれているものとする。また、その文書の言語は、日本語であってもよいし、英語や中国語、ドイツ語など他の言語であってもよい。 First, the learning unit 118 selects a fixed number of character strings from the teacher data 136 stored in the storage unit 130 (S200). The teacher data 136 is document data including a character string (a character string whose tag is trivial) to which various tags such as the "B" tag and the "O" tag are associated with each other as a teacher label in advance. The document indicated by teacher data 136 does not need to be tokenized and contains punctuation marks, commas, full stops, commas, periods, question marks, exclamation marks, abbreviations, parentheses, symbols, spaces, line breaks, etc. It is assumed that it is. The language of the document may be Japanese or another language such as English, Chinese, or German.

次に、学習部118は、教師データ136から文字列を選択すると、その文字列を分類器MDLに入力する(S202)。 Next, when the learning unit 118 selects a character string from the teacher data 136, the learning unit 118 inputs the character string to the classifier MDL (S202).

次に、学習部118は、文字列を入力した分類器MDLから出力結果、すなわち最尤タグベクトルを取得する(S204)。 Next, the learning unit 118 acquires the output result, that is, the maximum likelihood tag vector from the classifier MDL in which the character string is input (S204).

次に、学習部118は、最尤タグベクトルによって示されるタグの組み合わせと、分類器MDLに入力した文字列の各文字に教師ラベルとした対応付けられたタグとを比較し、双方のタグの組み合わせが一致するか否かを判定する(S206)。 Next, the learning unit 118 compares the combination of tags indicated by the maximum likelihood tag vector with the associated tag as a teacher label for each character of the character string input to the classifier MDL, and the learning unit 118 compares the tags of both tags. It is determined whether or not the combinations match (S206).

学習部118は、タグの組み合わせが一致しないと判定した場合、誤差逆伝番などの勾配法に基づいて、分類器MDLのパラメータを学習する(S208)。例えば、学習部118は、教師ラベルとした対応付けられたタグの組み合わせの尤度を最大値とし、その最大値から、最尤タグベクトルによって示されるタグの組み合わせの尤度を減算した差分が小さくなるように、分類器MDLのパラメータを学習する。学習対象とする分類器MDLのパラメータは、少なくとも特徴抽出レイヤ300の重みやバイアス成分を含む。これによって、本フローチャートの処理が終了する。 When the learning unit 118 determines that the combinations of tags do not match, the learning unit 118 learns the parameters of the classifier MDL based on a gradient method such as an error reverse transmission number (S208). For example, in the learning unit 118, the likelihood of the combination of the associated tags used as the teacher label is set as the maximum value, and the difference obtained by subtracting the likelihood of the combination of tags indicated by the maximum likelihood tag vector from the maximum value is small. The parameters of the classifier MDL are learned so as to be. The parameters of the classifier MDL to be learned include at least the weights and bias components of the feature extraction layer 300. This ends the processing of this flowchart.

以上説明した第1実施形態によれば、複数の文字Cが含まれる文書を取得し、入力された文字を、ハイパーリンクを対応付けることが可能な文字列(固有表現)を識別する「B」「I」「L」タグや、それ以外の文字であることを識別する「O」タグなどのいずれかに分類するように学習された分類器MDLに対して、取得した文書に含まれる文字Cを入力して得られた最尤タグベクトルに基づいて、文書から、ハイパーリンクを対応付けることが可能な文字列を抽出するため、関連するコンテンツにハイパーリンクを介して対応付けることが可能な文字列を文書から精度よく抽出することができる。 According to the first embodiment described above, "B" and "B" that acquire a document containing a plurality of characters C and identify a character string (unique expression) to which a hyperlink can be associated with the input character. For the classifier MDL learned to classify into either the "I" or "L" tag or the "O" tag that identifies it as another character, the character C contained in the acquired document is assigned. Based on the most likely tag vector obtained by inputting, the character string that can be associated with the hyperlink is extracted from the document, so the character string that can be associated with the related content via the hyperlink is specified in the document. Can be extracted accurately from.

一般的に、文書に含まれる文字を「B」「I」「L」「O」「U」などのタグに分類する場合、予め設計者が定めた条件式(辞書)に従って、一文字一文字を厳密にタグ付けしている。このような場合、設計者が当初想定していなかった新しい言葉などが普及しても、その言葉が既存の条件式を満たさなければ、タグ付けが実施できないことがあった。 Generally, when classifying characters contained in a document into tags such as "B", "I", "L", "O", and "U", each character is strictly classified according to a conditional expression (dictionary) determined in advance by the designer. Is tagged with. In such a case, even if a new word or the like that was not initially envisioned by the designer becomes widespread, tagging may not be possible unless the word satisfies the existing conditional expression.

これに対して、本実施形態では、予め設計者が定めた条件式など基にしてタグ付けがなされた文字を教師データ136として、ニューラルネットワークをベースとした分類器MDLを学習させるため、予め決められた条件を汎化させることができる。この結果、予め決められた条件を満たさない文字についても、「B」「I」「L」「O」「U」などのタグに分類することができる。 On the other hand, in the present embodiment, the characters tagged based on the conditional expression determined in advance by the designer are used as the teacher data 136 to train the classifier MDL based on the neural network, so that the characters are determined in advance. The specified conditions can be generalized. As a result, even characters that do not satisfy the predetermined conditions can be classified into tags such as "B", "I", "L", "O", and "U".

また、上述した第1実施形態によれば、トークナイズされておらず、句点、読点、終止符、カンマ、疑問符、感嘆符、省略符、括弧、記号、スペース、改行などが含まれる文書を教師データ136とするため、例えば、通常、文章の終わりを表す句点が含まれる文字列(例えば、「○○アイドル。」のような文字列)や、「頑張ろう、○○。」のようなスローガンやキャッチフレーズなどの単語ではない文字列が、新語や造語として新たに流行した場合であっても、この文字列を、ハイパーリンクを対応付けることが可能な文字列として文書から抽出することができる。 Further, according to the first embodiment described above, the teacher data is a document that is not tokenized and includes punctuation marks, reading points, full stops, commas, question marks, exclamation marks, abbreviations, parentheses, symbols, spaces, line breaks, and the like. In order to set it to 136, for example, a character string that usually includes a punctuation mark indicating the end of a sentence (for example, a character string such as "○○ idol.") Or a slogan such as "Let's do our best, ○○." Even if a non-word character string such as a catch phrase is newly popular as a new word or coined word, this character string can be extracted from the document as a character string to which a hyperlink can be associated.

また、上述した第1実施形態によれば、分類器MDLにBiLSTMレイヤ310が含まれるため、入力された文字の並び順を考慮した上で、最も尤度が大きいタグの組み合わせを決定することができる。 Further, according to the first embodiment described above, since the classifier MDL includes the BiLSTM layer 310, it is possible to determine the combination of tags having the highest likelihood in consideration of the order of the input characters. can.

また、上述した第1実施形態によれば、分類器MDLにアテンション機構330が含まれるため、前段のBiLSTMレイヤ310によって出力された特徴ベクトル(タグスコアベクトル)hを、入力された文字列における各文字の位置(順番)に応じて重み付けることができ、その結果、その特徴ベクトルに含まれる各要素の値を、タグの尤度に変換することができる。 Further, according to the first embodiment described above, since the classifier MDL includes the attention mechanism 330, the feature vector (tag score vector) h output by the BiLSTM layer 310 in the previous stage is input to each of the input character strings. It can be weighted according to the position (order) of the characters, and as a result, the value of each element included in the feature vector can be converted into the likelihood of the tag.

また、上述した第1実施形態によれば、分類器MDLにCRFレイヤ400が含まれるため、尤度が大きいタグの組み合わせが存在しても、その組み合わせが「O」「L」「O」のような組み合わせで、存在し得る蓋然性が低いタグの組み合わせである場合には、その組み合わせの尤度を低下させる。この結果、関連するコンテンツに対応付けることが可能な文字列を文書から、更に精度よく抽出することができる。 Further, according to the first embodiment described above, since the classifier MDL includes the CRF layer 400, even if there is a combination of tags having a high likelihood, the combination is "O", "L", or "O". In the case of a combination of tags having a low probability of being present in such a combination, the likelihood of the combination is lowered. As a result, a character string that can be associated with the related content can be extracted from the document with higher accuracy.

<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、分類器MDLに含まれる埋め込みレイヤ200が、ある言語モデルMDL2を利用して事前学習されている点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. The second embodiment differs from the first embodiment described above in that the embedded layer 200 included in the classifier MDL is pre-learned using a certain language model MDL2. Hereinafter, the differences from the first embodiment will be mainly described, and the points common to the first embodiment will be omitted. In the description of the second embodiment, the same parts as those of the first embodiment will be described with the same reference numerals.

図10は、言語モデルMDL2の一例を示す図である。言語モデルMDL2は、例えば、エンコーダ500と、デコーダ600とを含む。エンコーダ500は、入力された文字を、文字ベクトルに変換するニューラルネットワークであり、デコーダ600は、エンコーダ500によって文字から変換された文字ベクトルを、元の文字に逆変換するニューラルネットワークである。エンコーダ500は、例えば、埋め込みレイヤ200と、第1LSTM510と、第2LSTM520とを含む。 FIG. 10 is a diagram showing an example of the language model MDL2. The language model MDL2 includes, for example, an encoder 500 and a decoder 600. The encoder 500 is a neural network that converts the input characters into a character vector, and the decoder 600 is a neural network that reversely converts the character vector converted from the characters by the encoder 500 into the original characters. The encoder 500 includes, for example, an embedded layer 200, a first LSTM510, and a second LSTM520.

言語モデルMDL2は、ある文字Cが入力されたときに、その入力された文字Cの次にくる文字Ck+1を予測するように学習される。例えば、図示のように、文字Cから文字Cまでのある文字列が言語モデルMDL2に入力された場合、学習部118は、文字Cを入力として、その文字Cに隣り合う次の文字Cを言語モデルMDL2に予測させる。学習部118は、言語モデルMDL2によって予測された文字Cが、文字Cの次にくる文字Cでない場合、少なくともエンコーダ500の重みやバイアス成分などのパラメータを再決定する。次に、学習部118は、文字Cを入力として、その文字Cに隣り合う次の文字Cを言語モデルMDL2に予測させる。学習部118は、言語モデルMDL2によって予測された文字Cが、文字Cの次にくる文字Cでない場合、少なくともエンコーダ500の重みやバイアス成分などのパラメータを再決定する。このように、学習部118は、入力データだけで言語モデルMDL2のパラメータを学習する教師なし学習を行う。 The language model MDL2 is learned to predict the character C k + 1 following the input character C k when a certain character C k is input. For example, as shown in the figure, when a certain character string from the character C 1 to the character C 6 is input to the language model MDL 2, the learning unit 118 takes the character C 1 as an input and next to the character C 1 next to it. Let the language model MDL2 predict the letter C X. If the character C X predicted by the language model MDL 2 is not the character C 2 following the character C 1 , the learning unit 118 redetermines at least parameters such as the weight and the bias component of the encoder 500. Next, the learning unit 118 takes the character C 3 as an input and causes the language model MDL 2 to predict the next character C X adjacent to the character C 3 . If the character C X predicted by the language model MDL 2 is not the character C 4 following the character C 3 , the learning unit 118 redetermines at least parameters such as the weight and bias component of the encoder 500. In this way, the learning unit 118 performs unsupervised learning in which the parameters of the language model MDL2 are learned using only the input data.

言語モデルMDL2を学習させた結果、言語モデルMDL2が入力された文字Cの次に来る文字Ck+1を一定の精度で予測できるようになった場合、言語モデルMDL2のエンコーダ500に含まれる埋め込みレイヤ200を取り出して、分類器MDLの埋め込みレイヤ200とする。 As a result of training the language model MDL2, when the language model MDL2 can predict the character C k + 1 following the input character C k with a certain accuracy, the embedded layer included in the encoder 500 of the language model MDL2. 200 is taken out and used as an embedded layer 200 of the classifier MDL.

以上説明した第2実施形態によれば、分類器MDLに含まれる埋め込みレイヤ200を、言語モデルMDL2を利用して事前学習することで、分類器MDLがより適切な文字ベクトルを生成することができる。 According to the second embodiment described above, the classifier MDL can generate a more appropriate character vector by pre-learning the embedded layer 200 included in the classifier MDL using the language model MDL2. ..

<第3実施形態>
以下、第3実施形態について説明する。第3実施形態では、文字列抽出部114によって抽出された一以上の文字列から、特定の文字列を除去する点で上述した第1または第2実施形態と相違する。以下、第1または第2実施形態との相違点を中心に説明し、第1または第2実施形態と共通する点については説明を省略する。なお、第3実施形態の説明において、第1または第2実施形態と同じ部分については同一符号を付して説明する。
<Third Embodiment>
Hereinafter, the third embodiment will be described. The third embodiment is different from the first or second embodiment described above in that a specific character string is removed from one or more character strings extracted by the character string extraction unit 114. Hereinafter, the differences from the first or second embodiment will be mainly described, and the points common to the first or second embodiment will be omitted. In the description of the third embodiment, the same parts as those of the first or second embodiment will be described with the same reference numerals.

図11は、第3実施形態における情報処理装置100Aの構成の一例を示す図である。図示のように、第3実施形態における情報処理装置100Aの制御部110Aは、上述した取得部112、文字列抽出部114、通信制御部116、および学習部118に加えて、更に、特定文字列除去部120を備える。 FIG. 11 is a diagram showing an example of the configuration of the information processing apparatus 100A according to the third embodiment. As shown in the figure, the control unit 110A of the information processing apparatus 100A according to the third embodiment further includes a specific character string in addition to the acquisition unit 112, the character string extraction unit 114, the communication control unit 116, and the learning unit 118 described above. A removal unit 120 is provided.

特定文字列除去部120は、文字列抽出部114によって抽出された一以上の文字列から、特定の文字列を除去する。特定の文字列とは、例えば、公序良俗に反するような不適切な文字列や、ネガティブな意味をもつ文字列、放送禁止用語に相当する文字列などを含む。 The specific character string removing unit 120 removes a specific character string from one or more character strings extracted by the character string extracting unit 114. The specific character string includes, for example, an inappropriate character string that is offensive to public order and morals, a character string that has a negative meaning, a character string that corresponds to a broadcast prohibited term, and the like.

通信制御部116は、文字列抽出部114によって抽出され、その後、特定文字列除去部120によって除去されずに残った文字列を含む文字列情報を、サービス提供装置20に送信する。 The communication control unit 116 transmits the character string information including the character string extracted by the character string extraction unit 114 and then not removed by the specific character string removal unit 120 to the service providing device 20.

以上説明した第3実施形態によれば、「B」タグが付与された文字Cからはじまり、「L」タグが付与された文字Cで終わる一以上の文字列の中から特定の文字列を除去するため、より適切なコンテンツへのハイパーリンクを文字列に対応付けることができる。 According to the third embodiment described above, a specific character string is removed from one or more character strings starting from the character C to which the "B" tag is attached and ending with the character C to which the "L" tag is attached. Therefore, it is possible to associate a hyperlink to a more appropriate content with a character string.

<ハードウェア構成>
上述した実施形態の情報処理装置100は、例えば、図12に示すようなハードウェア構成により実現される。図12は、実施形態の情報処理装置100および100Aのハードウェア構成の一例を示す図である。
<Hardware configuration>
The information processing apparatus 100 of the above-described embodiment is realized by, for example, a hardware configuration as shown in FIG. FIG. 12 is a diagram showing an example of the hardware configuration of the information processing devices 100 and 100A of the embodiment.

情報処理装置100および100Aは、NIC100-1、CPU100-2、RAM100-3、ROM100-4、フラッシュメモリやHDDなどの二次記憶装置100-5、およびドライブ装置100-6が、内部バスあるいは専用通信線によって相互に接続された構成となっている。ドライブ装置100-6には、光ディスクなどの可搬型記憶媒体が装着される。二次記憶装置100-5、またはドライブ装置100-6に装着された可搬型記憶媒体に格納されたプログラムがDMAコントローラ(不図示)などによってRAM100-3に展開され、CPU100-2によって実行されることで、制御部110および110Aが実現される。制御部110および110Aが参照するプログラムは、ネットワークNWを介して他の装置からダウンロードされてもよい。 The information processing devices 100 and 100A include NIC100-1, CPU100-2, RAM100-3, ROM100-4, secondary storage devices 100-5 such as flash memory and HDD, and drive devices 100-6 as internal buses or dedicated devices. It is configured to be connected to each other by a communication line. A portable storage medium such as an optical disk is mounted on the drive device 100-6. A program stored in a portable storage medium mounted on the secondary storage device 100-5 or the drive device 100-6 is expanded in the RAM 100-3 by a DMA controller (not shown) or the like, and executed by the CPU 100-2. As a result, the control units 110 and 110A are realized. The program referred to by the control units 110 and 110A may be downloaded from another device via the network NW.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何ら限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1…情報処理システム、10…端末装置、20…サービス提供装置、100、100A…情報処理装置、102…通信部、110、110A…制御部、112…取得部、114…文字列抽出部、116…通信制御部、118…学習部、120…特定文字列除去部、130…記憶部 1 ... Information processing system, 10 ... Terminal device, 20 ... Service providing device, 100, 100A ... Information processing device, 102 ... Communication unit, 110, 110A ... Control unit, 112 ... Acquisition unit, 114 ... Character string extraction unit, 116 ... communication control unit, 118 ... learning unit, 120 ... specific character string removal unit, 130 ... storage unit

Claims (12)

複数の文字が含まれる文書を取得する取得部と、
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する抽出部と、を備え、
前記分類器は、入力された文字が、前記第1文字であることの尤もらしさを表す第1指標値と、前記第2文字であることの尤もらしさを表す第2指標値とを出力し、
前記抽出部は、前記分類器により出力された前記第1指標値および前記第2指標値に基づいて、前記文書から前記文字列を抽出する、
報処理装置。
An acquisition unit that acquires a document containing multiple characters,
The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. It is provided with an extraction unit for extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in.
The classifier outputs a first index value indicating the plausibility that the input character is the first character and a second index value indicating the plausibility that the input character is the second character.
The extraction unit extracts the character string from the document based on the first index value and the second index value output by the classifier.
Information processing equipment.
複数の文字が含まれる文書を取得する取得部と、 An acquisition unit that acquires a document containing multiple characters,
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する抽出部と、を備え、 The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. It is provided with an extraction unit for extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in.
前記分類器には、入力された文字の後に出現する文字を予測するとともに、入力された文字の前に出現する文字を予測する双方向の再帰型ニューラルネットワークが含まれる、 The classifier includes a bidirectional recurrent neural network that predicts the characters that appear after the input character as well as the characters that appear before the input character.
情報処理装置。 Information processing equipment.
複数の文字が含まれる文書を取得する取得部と、 An acquisition unit that acquires a document containing multiple characters,
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する抽出部と、を備え、 The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. It is provided with an extraction unit for extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in.
前記抽出部は、前記分類器の出力結果と、文書において少なくとも前記第1文字と前記第2文字とが互いに隣り合う確率を条件付けた条件付き確率場とに基づいて、前記文書から前記文字列を抽出する、 The extraction unit obtains the character string from the document based on the output result of the classifier and a conditional random field in which at least the probability that the first character and the second character are adjacent to each other in the document is conditioned. Extract,
情報処理装置。 Information processing equipment.
前記第1文字には、前記文字列において、最初に出現する第3文字と、最後に出現する第4文字と、前記第3文字および前記第4文字の間に出現する第5文字とが含まれ、
前記分類器は、前記第3文字、前記第4文字、および第5文字のそれぞれの前記第1指標値を出力し、
前記抽出部は、前記分類器により出力された前記第3文字、前記第4文字、および第5文字のそれぞれの前記第1指標値と、前記第2文字の前記第2指標値とに基づいて、前記文書から前記文字列を抽出する、
請求項に記載の情報処理装置。
The first character includes a third character that appears first, a fourth character that appears last, and a fifth character that appears between the third character and the fourth character in the character string. Re,
The classifier outputs the first index value of each of the third character, the fourth character, and the fifth character.
The extraction unit is based on the first index value of each of the third character, the fourth character, and the fifth character output by the classifier, and the second index value of the second character. , Extract the character string from the document,
The information processing apparatus according to claim 1 .
前記再帰型ニューラルネットワークは、前記入力された各文字に対して特徴量を出力し、
前記分類器には、更に、前記再帰型ニューラルネットワークによって文字ごとに出力された各特徴量に重みを乗算するアテンション機構が含まれる、
請求項に記載の情報処理装置。
The recurrent neural network outputs a feature amount for each of the input characters.
The classifier further includes an attention mechanism that multiplies each feature output character by character by the recurrent neural network by a weight.
The information processing apparatus according to claim 2 .
前記アテンション機構は、対象とする文字の特徴量に、前記対象とする文字の特徴量を全ての文字の特徴量で除算した割合を前記重みとして乗算する、
請求項5に記載の情報処理装置。
The attention mechanism multiplies the feature amount of the target character by the ratio obtained by dividing the feature amount of the target character by the feature amount of all the characters as the weight.
The information processing apparatus according to claim 5.
コンピュータが、
複数の文字が含まれる文書を取得し、
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出
前記分類器は、入力された文字が、前記第1文字であることの尤もらしさを表す第1指標値と、前記第2文字であることの尤もらしさを表す第2指標値とを出力し、
前記コンピュータが、前記分類器により出力された前記第1指標値および前記第2指標値に基づいて、前記文書から前記文字列を抽出する、
情報処理方法。
The computer
Get a document that contains multiple characters
The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. Based on the output result of the classifier obtained by inputting the characters contained in, the character string is extracted from the document.
The classifier outputs a first index value indicating the plausibility that the input character is the first character and a second index value indicating the plausibility that the input character is the second character.
The computer extracts the character string from the document based on the first index value and the second index value output by the classifier.
Information processing method.
コンピュータが、 The computer
複数の文字が含まれる文書を取得し、 Get a document that contains multiple characters
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出し、 The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. Based on the output result of the classifier obtained by inputting the characters contained in, the character string is extracted from the document.
前記分類器には、入力された文字の後に出現する文字を予測するとともに、入力された文字の前に出現する文字を予測する双方向の再帰型ニューラルネットワークが含まれる、 The classifier includes a bidirectional recurrent neural network that predicts the characters that appear after the input character as well as the characters that appear before the input character.
情報処理方法。 Information processing method.
コンピュータが、 The computer
複数の文字が含まれる文書を取得し、 Get a document that contains multiple characters
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出し、 The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. Based on the output result of the classifier obtained by inputting the characters contained in, the character string is extracted from the document.
前記分類器の出力結果と、文書において少なくとも前記第1文字と前記第2文字とが互いに隣り合う確率を条件付けた条件付き確率場とに基づいて、前記文書から前記文字列を抽出する、 Extracting the character string from the document based on the output result of the classifier and a conditional random field conditioned on the probability that at least the first character and the second character are adjacent to each other in the document.
情報処理方法。 Information processing method.
コンピュータに、
複数の文字が含まれる文書を取得する処理と、
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する処理と、を実行させるためのプログラムであって、
前記分類器は、入力された文字が、前記第1文字であることの尤もらしさを表す第1指標値と、前記第2文字であることの尤もらしさを表す第2指標値とを出力し、
前記コンピュータに、更に、前記分類器により出力された前記第1指標値および前記第2指標値に基づいて、前記文書から前記文字列を抽出する処理、
を実行させるためのプログラム。
On the computer
The process of retrieving a document containing multiple characters and
The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. It is a program for executing the process of extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in.
The classifier outputs a first index value indicating the plausibility that the input character is the first character and a second index value indicating the plausibility that the input character is the second character.
A process of extracting the character string from the document based on the first index value and the second index value output by the classifier to the computer.
A program to execute.
コンピュータに、 On the computer
複数の文字が含まれる文書を取得する処理と、 The process of retrieving a document containing multiple characters and
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する処理と、を実行させるためのプログラムであって、 The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. It is a program for executing the process of extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in.
前記分類器には、入力された文字の後に出現する文字を予測するとともに、入力された文字の前に出現する文字を予測する双方向の再帰型ニューラルネットワークが含まれる、 The classifier includes a bidirectional recurrent neural network that predicts the characters that appear after the input character as well as the characters that appear before the input character.
プログラム。 program.
コンピュータに、
複数の文字が含まれる文書を取得する処理と、
入力された文字を、予め決められた条件を満たす文字列に含まれる第1文字か、前記文字列に含まれない第2文字かに分類するように学習された分類器に対して、前記文書に含まれる文字を入力して得られた前記分類器の出力結果に基づいて、前記文書から前記文字列を抽出する処理と、
前記分類器の出力結果と、文書において少なくとも前記第1文字と前記第2文字とが互いに隣り合う確率を条件付けた条件付き確率場とに基づいて、前記文書から前記文字列を抽出する処理と、
を実行させるためのプログラム。
On the computer
The process of retrieving a document containing multiple characters and
The document for a classifier learned to classify an input character into a first character included in a character string satisfying a predetermined condition or a second character not included in the character string. The process of extracting the character string from the document based on the output result of the classifier obtained by inputting the characters included in
A process of extracting the character string from the document based on the output result of the classifier and a conditional random field conditioned on the probability that at least the first character and the second character are adjacent to each other in the document.
A program to execute.
JP2018173193A 2018-09-18 2018-09-18 Information processing equipment, information processing methods, and programs Active JP7043373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018173193A JP7043373B2 (en) 2018-09-18 2018-09-18 Information processing equipment, information processing methods, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018173193A JP7043373B2 (en) 2018-09-18 2018-09-18 Information processing equipment, information processing methods, and programs

Publications (2)

Publication Number Publication Date
JP2020046792A JP2020046792A (en) 2020-03-26
JP7043373B2 true JP7043373B2 (en) 2022-03-29

Family

ID=69901332

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018173193A Active JP7043373B2 (en) 2018-09-18 2018-09-18 Information processing equipment, information processing methods, and programs

Country Status (1)

Country Link
JP (1) JP7043373B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7340199B2 (en) * 2020-07-17 2023-09-07 日本電信電話株式会社 Learning device, reasoning device, learning method, reasoning method and program
CN113377884B (en) * 2021-07-08 2023-06-27 中央财经大学 Event corpus purification method based on multi-agent reinforcement learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026195A (en) 2007-07-23 2009-02-05 Yokohama National Univ Article classification apparatus, article classification method and program
JP2018513399A (en) 2015-11-25 2018-05-24 バイドゥ ユーエスエー エルエルシーBaidu USA LLC Deployed end-to-end speech recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009026195A (en) 2007-07-23 2009-02-05 Yokohama National Univ Article classification apparatus, article classification method and program
JP2018513399A (en) 2015-11-25 2018-05-24 バイドゥ ユーエスエー エルエルシーBaidu USA LLC Deployed end-to-end speech recognition

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
浅原 正幸 その他,学習器の組み合わせによる中国語わかち書きシステム,言語処理学会第12回年次大会(NLP2006) 発表論文集,D3-2,日本,言語処理学会,2006年03月13日,pp.532-535

Also Published As

Publication number Publication date
JP2020046792A (en) 2020-03-26

Similar Documents

Publication Publication Date Title
Kim et al. Two-stage multi-intent detection for spoken language understanding
CN111444320B (en) Text retrieval method and device, computer equipment and storage medium
Alhumoud et al. Arabic sentiment analysis using recurrent neural networks: a review
CN109960728B (en) Method and system for identifying named entities of open domain conference information
JP2019504413A (en) System and method for proposing emoji
Thorleuchter et al. Web mining based extraction of problem solution ideas
Arumugam et al. Hands-On Natural Language Processing with Python: A practical guide to applying deep learning architectures to your NLP applications
CN109086265B (en) Semantic training method and multi-semantic word disambiguation method in short text
CN111274829B (en) Sequence labeling method utilizing cross-language information
CN113128227A (en) Entity extraction method and device
CN112667782A (en) Text classification method, device, equipment and storage medium
CN112989208B (en) Information recommendation method and device, electronic equipment and storage medium
CN111666758A (en) Chinese word segmentation method, training device and computer readable storage medium
Yıldırım et al. Mastering Transformers: Build state-of-the-art models from scratch with advanced natural language processing techniques
CN111414561A (en) Method and apparatus for presenting information
CN113704416A (en) Word sense disambiguation method and device, electronic equipment and computer-readable storage medium
JP7043373B2 (en) Information processing equipment, information processing methods, and programs
CN112395412A (en) Text classification method, device and computer readable medium
CN111563212A (en) Inner chain adding method and device
Endalie et al. Bi-directional long short term memory-gated recurrent unit model for Amharic next word prediction
Dhrisya et al. Fine-grained entity type classification using GRU with self-attention
Tehseen et al. Shahmukhi named entity recognition by using contextualized word embeddings
Ramesh et al. Abstractive text summarization using t5 architecture
Mekki et al. Tokenization of Tunisian Arabic: a comparison between three Machine Learning models
Dey et al. A deep dive into supervised extractive and abstractive summarization from text

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220316

R150 Certificate of patent or registration of utility model

Ref document number: 7043373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350