JP7483085B1 - 情報処理システム、情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理システム、情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP7483085B1
JP7483085B1 JP2023041733A JP2023041733A JP7483085B1 JP 7483085 B1 JP7483085 B1 JP 7483085B1 JP 2023041733 A JP2023041733 A JP 2023041733A JP 2023041733 A JP2023041733 A JP 2023041733A JP 7483085 B1 JP7483085 B1 JP 7483085B1
Authority
JP
Japan
Prior art keywords
pseudo
keyword
learning
unit
text data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023041733A
Other languages
English (en)
Inventor
隼人 内出
宏治 田中
浩太郎 乙村
広彬 白浜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Corp
Priority to JP2023041733A priority Critical patent/JP7483085B1/ja
Application granted granted Critical
Publication of JP7483085B1 publication Critical patent/JP7483085B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】キーワード抽出におけるユーザの利便性を向上させること。【解決手段】情報処理システムは、学習用学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部と、前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与部と、前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部と、を備える。【選択図】図2

Description

本発明は、情報処理システム、情報処理装置、情報処理方法、およびプログラムに関する。
文章からキーワードを抽出する技術がある。キーワードの抽出には、辞書が用いられる。
例えば、特許文献1には、未登録単語抽出部が認識辞書に登録されていない未登録単語を抽出し、未登録単語特徴量抽出部が共起頻度ベクトルを生成し、認識結果特徴量抽出部が単語頻度ベクトルを生成し、タスク関連度算出部がタスク関連度を算出し、暫定認識辞書を用いて暫定認識結果を生成し、認識信頼度算出部が認識信頼度を算出し、登録優先度算出部が信頼度重みを用いて登録優先度を算出し、認識辞書登録部が追加登録単語を抽出し、認識辞書に追加登録単語等生かして拡張辞書を生成することが開示されている。
特開2013-171222号公報
専門用語などのキーワードの抽出精度を向上させるためには、専門用語が登録された専門用語辞書が必要である。
しかしながら、特許文献1に記載の技術は、文中に出現する単語の係り受けや単語の出現頻度に基づいてキーワードを抽出する。そのため、専門用語の出現頻度が低いキーワードである場合には、当該キーワードが抽出されず、実際の専門用語とは異なるキーワードが抽出される場合があった。また、機械学習を用いたキーワード抽出では、抽出精度を向上させるために、テキストデータと、正しいキーワードとの対応関係を大量に学習させる必要があり、また、データ選別やデータ収集に手間やコストを要する。
そのため、キーワードの抽出精度を向上させることができないという課題があった。このように、キーワード抽出におけるユーザの利便性が十分でないという課題があった。
本発明は、上記の点に鑑みてなされたものでありキーワード抽出におけるユーザの利便性を向上させることができる情報処理システム、情報処理装置、情報処理方法、およびプログラムを提供することを課題とする。
本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、情報処理システムであって、学習用の学習テキストデータを取得する学習テキストデータ取得部と、前記学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部と、前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与部と、前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部と、を備える情報処理システムである。
また、本発明の一態様は、情報処理装置であって、学習用の学習テキストデータを取得する学習テキストデータ取得部と、前記学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部と、前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与部と、前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部と、を備える情報処理装置である。
また、本発明の一態様は、コンピュータが実行する情報処理方法であって、学習用の学習テキストデータを取得する学習テキストデータ取得過程と、前記学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出過程と、前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与過程と、前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成過程と、を有する情報処理方法である。
また、本発明の一態様は、プログラムであって、コンピュータに、学習用の学習テキストデータを取得する学習テキストデータ取得ステップと、前記学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出ステップと、前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与ステップと、前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成ステップと、を実行させるためのプログラムである。
本発明によれば、キーワード抽出におけるユーザの利便性を向上させることができる。
本発明の第1の実施形態に係る情報処理システムの構成の一例を示すシステム構成図である。 本実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 本実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。 本実施形態に係る専門用語の選定に係る表示画面の一例を示す図である。 本実施形態に係る情報処理システムにおける情報処理の一例を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。 本実施形態に係る情報処理システムにおける情報処理の一例を示すフローチャートである。 本発明の第3の実施形態に係る情報処理装置の機能構成の一例を示すブロック図である。 本実施形態に係る情報処理システムにおける情報処理の一例を示すフローチャートである。
[第1の実施形態]
以下、図面を参照しながら本発明の実施形態について説明する。
<情報処理システムの構成>
まず、情報処理システムの構成について説明する。
図1は、本発明の第1の実施形態に係る情報処理システムの構成の一例を示すシステム構成図である。
情報処理システムSYSは、専門用語などのキーワードを抽出するシステムである。具体的には、情報処理システムSYSは、キーワードを抽出するための辞書を生成し、生成した辞書を用いてキーワードを抽出するシステムである。
より具体的には、情報処理システムSYSは、学習用の学習テキストデータを取得し、学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する。情報処理システムSYSは、第一疑似キーワードを学習テキストデータに付与し、学習テキストデータにおける文脈と第一疑似キーワードとの対応関係を学習した学習モデルを生成する。情報処理システムSYSは、テキストデータを取得し、学習モデルを用いてテキストデータからキーワードを抽出する。
この構成により、情報処理システムSYSは、キーワードの抽出に用いられる辞書を効率的に生成することができる。そのため、キーワードの抽出精度を向上させることができる。また、キーワード抽出におけるユーザの利便性を向上させることができる。
なお、以下の説明では、キーワードとして専門用語を抽出する場合について説明する。
次いで、情報処理装置100のハードウェア構成について説明する。
<ハードウェア構成>
図2は、本実施形態に係る情報処理装置100のハードウェア構成の一例を示すブロック図である。
情報処理装置100は、CPU101と、記憶媒体インタフェース部102と、記憶媒体103と、入力装置104と、出力装置105と、ROM106(Read Only Memory)と、RAM107(Random Access Memory)と、補助記憶部108と、ネットワークインタフェース部109と、を備える。CPU101と、記憶媒体インタフェース部102と、入力装置104と、出力装置105と、ROM106と、RAM107と、補助記憶部108と、ネットワークインタフェース部109とは、バスを介して相互に接続される。
なお、ここで言うCPU101は、プロセッサ一般のことを示すものであって、狭義のいわゆるCPUと呼ばれるデバイスのことだけではなく、例えばGPUやDSP等も含む。また、ここで言うCPU101は、一つのプロセッサで実現されることに限られず、同じ、または異なる種類の複数のプロセッサを組み合わせることで実現されてもよい。
<CPU101>
CPU101は、補助記憶部108、ROM106およびRAM107が記憶するプログラムを読み出して実行し、また、補助記憶部108、ROM106およびRAM107が記憶する各種データを読み出し、補助記憶部108、RAM107に対して各種データを書き込むことにより、情報処理装置100を制御する。また、CPU101は、記憶媒体インタフェース部102を介して記憶媒体103が記憶する各種データを読み出し、また、記憶媒体103に各種データを書き込む。
<記憶媒体103>
記憶媒体103は、光磁気ディスク、フレキシブルディスク、フラッシュメモリなどの可搬記憶媒体であり、各種データを記憶する。
<記憶媒体インタフェース部102>
記憶媒体インタフェース部102は、記憶媒体103の読み書きを行うインタフェースである。
<入力装置104>
入力装置104は、マウス、キーボード、タッチパネル、音量調整ボタン、電源ボタン、設定ボタン、赤外線受信部などの入力装置である。
<出力装置105>
出力装置105は、表示部、スピーカなどの出力装置である。
<ROM106、RAM107>
ROM106、RAM107は、情報処理装置100の各機能部を動作させるためのプログラムや各種データを記憶する。
<補助記憶部108>
補助記憶部108は、ハードディスクドライブ、フラッシュメモリなどであり、情報処理装置100の各機能部を動作させるためのプログラム、各種データを記憶する。
<ネットワークインタフェース部109>
ネットワークインタフェース部109は、通信インタフェースを有し、無線通信によりネットワークNWに接続される。
例えば、情報処理装置100のCPU101は、図3に示す機能構成における制御部12に対応し、ROM106、RAM107、補助記憶部108、またはそれらの何れかの組み合わせは、図3に示す機能構成における記憶部13に対応する。
なお、ユーザ端末装置200のハードウェア構成については、図示および説明を省略するが、図2に示す情報処理装置100と同様のハードウェア構成を有する。
次いで、情報処理装置100の機能構成について説明する。
<情報処理装置100の機能構成>
図3は、本実施形態に係る情報処理装置100の機能構成の一例を示すブロック図である。
情報処理装置100は、通信部11と、制御部12と、記憶部13と、を含んで構成される。通信部11と、制御部12と、記憶部13とは、バスを介して相互に接続される。
<通信部11>
通信部11は、ユーザ端末装置200と通信する機能を有する。通信部11は、ユーザ端末装置200から受信した各種情報を制御部12に出力する。また、通信部11は、制御部12から入力される情報を、ユーザ端末装置200に送信する。
<制御部12>
制御部12は、情報処理装置100を制御する機能を有する。制御部12は、記憶部13に記憶された各種データ、アプリケーション、プログラムなどを読み出して情報処理装置100を制御する。
より詳細に制御部12の処理について説明する。
制御部12は、テキストデータ取得部121と、専門用語候補抽出部122と、辞書データ修正判定部123と、専門用語候補再抽出部124と、専門用語候補提示部125と、選定結果取得部126と、辞書生成部127と、を含んで構成される。
<テキストデータ取得部121>
テキストデータ取得部121は、テキストデータを取得する。具体的には、テキストデータ取得部121は、予め記憶部13に記憶されたテキストデータまたはユーザ等によって入力されたテキストデータを取得する。
<専門用語候補抽出部122>
専門用語候補抽出部122は、テキストデータ取得部121が取得したテキストデータから専門用語の候補となる文字列を抽出する。具体的には、専門用語候補抽出部122は、記憶部13に記憶された学習モデル131を用いてテキストデータから専門用語の候補を抽出する。当該学習モデルは、予め前後の文脈に基づいて専門用語であるか否かを判定可能なBERT(Bidirectional Encoder Representations from Transformers)などのTransformerモデルである。
<辞書データ修正判定部123>
辞書データ修正判定部123は、ユーザによる専門用語辞書の編集が行われたか否かを判定する。具体的には、辞書データ修正判定部123は、前回処理時にユーザによる専門用語辞書に対する編集が行われたか否かを判定する。前回処理時にユーザによる専門用語辞書に対する編集が行われたと判定される場合、辞書データ修正判定部123は、専門用語候補再抽出部124に、テキストデータから専門用語候補を再抽出させる。前回処理時にユーザによる専門用語辞書に対する編集が行われていないと判定される場合や、初回処理時である場合や、前回処理時のユーザによる専門用語辞書に対する編集を反映させない設定である場合、辞書データ修正判定部123は、専門用語候補提示部125に専門用語候補を提示させる。
ここで、辞書データ修正判定部123は、ユーザによる専門用語候補の選定処理が初回であるか否かの情報を保持しているものとする。また、辞書データ修正判定部123は、前回処理時のユーザによる専門用語辞書に対する編集を反映させるか否かの設定情報を保持しているものとする。さらに、辞書データ修正判定部123は、前回処理時のユーザによる専門用語辞書に対する編集が行われたか否かの情報と、編集が行われた場合ユーザによる専門用語辞書の編集結果とを保持しているものとする。ユーザによる専門用語辞書の編集結果とは、後述するようにユーザによる用語毎の専門用語であるか否かの選定結果を示す。
なお、辞書データ修正判定部123は、ユーザによる専門用語候補の選定処理が初回であるか否かの情報の保持に代えて、または加えて選定処理の回数を保持する構成でもよい。
<専門用語候補再抽出部124>
専門用語候補再抽出部124は、テキストデータから専門用語候補を再抽出する。具体的には、前回処理時のユーザによる専門用語辞書の編集結果に基づいて、専門用語候補を再抽出する。
より詳細に専門用語候補再抽出部124について説明する。
専門用語候補再抽出部124は、正負ラベリング部1241と、正負ラベリング学習部1242と、候補再抽出部1243と、を含んで構成される。
<正負ラベリング部1241>
正負ラベリング部1241は、前回処理時のユーザによる専門用語であるか否かを示す選定結果に基づいて、ラベリングする。具体的には、正負ラベリング部1241は、専門用語であることを示す選定が行われた専門用語に正例とラベリングし、専門用語であることを示す選定が行われなかった専門用語に負例とラベリングする。
ここで、ユーザによる専門用語候補の選定について説明する。
図4は、本実施形態に係る専門用語候補の選定に係る表示画面の一例を示す図である。
図示する例は、例えば、情報処理装置100の出力装置105において専門用語候補が表示される場合の一例である。
図示するように、表示画面例では、複数の専門用語候補が表示され、専門用語候補ごとに、選定するか否かを示す操作子と、参照元ファイルと、参照元テキストとが対応付けられて表示される。
選定するか否かを示す操作子は、例えばチェックボックスであり、複数の専門用語候補のうちユーザが専門用語として選定する専門用語候補に対応する操作子に対するチェックを受け付ける。参照元ファイルは、専門用語候補が出現するテキストデータのファイルを示す情報である。参照元テキストは、テキストデータにおいて専門用語候補が出現する前後の文章、テキストデータにおいて専門用語候補が出現する文節等などのテキストである。
なお、専門用語候補は、ユーザが任意に追加、削除、編集を可能にしてもよい。なお、図示する例において、参照元ファイルが複数であってもよいし、参照元テキストが複数であってもよい。
図3に戻って、正負ラベリング部1241は、図4において選定するか否かを示す操作子に対してチェックされた専門用語候補に対して正例とラベリングし、チェックされた専門用語候補以外の専門用語候補、すなわち、チェックされていない専門用語候補に対して負例とラベリングする。
<正負ラベリング学習部1242>
正負ラベリング学習部1242は、正負ラベリング部1241による正負ラベリングと、専門用語候補との対応関係を学習した学習モデル(ラベリング学習モデル134とも称する。)を生成する。当該学習には、例えば、Word2vecと従来の機械学習とを用いてもよいし、BERTなどのTransformerモデルを用いてもよい。
<候補再抽出部1243>
候補再抽出部1243は、正負ラベリング学習部1242が生成したラベリング学習モデル134を用いて、テキストデータから専門用語候補を再抽出する。
<専門用語候補提示部125>
専門用語候補提示部125は、専門用語候補抽出部122が抽出した専門用語候補、および専門用語候補再抽出部124が抽出した専門用語候補の一方または両方をユーザに提示する。具体的には、専門用語候補提示部125は、専門用語候補の中から専門用語をユーザが選定可能に、例えば、図4に示す表示画面例のようにユーザに提示する。
<選定結果取得部126>
選定結果取得部126は、専門用語候補提示部125が提示した専門用語候補に対するユーザの選定結果を取得する。選定結果取得部126は、取得した選定結果を編集情報として記憶部13に記憶させる。
<辞書生成部127>
辞書生成部127は、ユーザに選定された専門用語を、専門用語辞書情報として記憶部13に記憶させる。
<記憶部13>
記憶部13は、各種データ、アプリケーション、プログラムを記憶する機能を有する。
また、記憶部13は、学習モデル131と、専門用語辞書情報132と、編集情報133と、ラベリング学習モデル134と、を記憶する。
次いで、本実施形態に係る情報処理の流れについて説明する。
<フローチャート>
図5は、本実施形態に係る情報処理システムSYSにおける情報処理の一例を示すフローチャートである。
ステップS102において、情報処理装置100は、テキストデータを取得する。
ステップS104において、情報処理装置100は、学習モデル131を用いてテキストデータから専門用語候補を抽出する。
ステップS106において、情報処理装置100は、図5に係る処理が初回の処理であるか否かを判定する。初回の処理である場合、情報処理装置100は、ステップS114の処理を行う。一方、初回の処理でない場合、情報処理装置100は、ステップS108の処理を行う。
ステップS108において、情報処理装置100は、編集結果を反映させる設定であるか否かを判定する。編集結果を反映させる設定である場合、情報処理装置100は、ステップS110の処理を行う。一方、編集結果を反映させない設定である場合、情報処理装置100は、ステップS114の処理を行う。
ステップS110において、情報処理装置100は、前回処理時にユーザによる辞書の編集があるか否かを判定する。前回処理時にユーザによる辞書の編集があると判定される場合、情報処理装置100は、ステップS112の処理を行う。一方、前回処理時にユーザによる辞書の編集がないと判定される場合、情報処理装置100は、ステップS114の処理を行う。
ステップS112において、情報処理装置100は、テキストデータから専門用語候補を再抽出する。
ステップS114において、情報処理装置100は、専門用語候補をユーザに提示して、専門用語の選定を受け付ける。
ステップS116において、情報処理装置100は、選定された専門用語を専門用語辞書情報として記憶部13に記憶させる。また、情報処理装置100は、選定結果を編集情報として記憶部13に記憶させる。
[第2の実施形態]
次いで、本発明の第2の実施形態について説明する。
第2の実施形態では、専門用語候補を抽出するための学習モデル131の生成について説明する。
また、第2の実施形態では、第1の実施形態と異なる部分を中心に説明する。
<情報処理装置100>
図6は、本発明の第2の実施形態に係る情報処理装置100の機能構成の一例を示すブロック図である。
情報処理装置100は、通信部11と、制御部12と、記憶部13と、を含んで構成される。通信部11と、制御部12と、記憶部13とは、バスを介して相互に接続される。
制御部12は、テキストデータ取得部121と、専門用語候補抽出部122と、辞書データ修正判定部123と、専門用語候補再抽出部124と、専門用語候補提示部125と、選定結果取得部126と、辞書生成部127と、専門用語学習部128と、を含んで構成される。専門用語候補再抽出部124は、正負ラベリング部1241と、正負ラベリング学習部1242と、候補再抽出部1243と、を含んで構成される。専門用語学習部128は、学習テキストデータ取得部1281と、疑似専門用語付与部1282と、疑似コーパス生成部1283と、疑似専門用語再付与部1284と、学習部1285と、を含んで構成される。
<学習テキストデータ取得部1281>
学習テキストデータ取得部1281は、学習用のテキストデータを取得する。具体的には、学習テキストデータ取得部1281は、記憶部13に記憶された学習用のテキストデータ、あるいはユーザから入力された学習用のテキストデータを取得する。
<疑似専門用語付与部1282>
疑似専門用語付与部1282は、学習テキストデータ取得部1281が取得した学習用の学習テキストデータに対して専門用語抽出処理を行い、学習テキストデータから専門用語を抽出する。専門用語抽出処理は、例えば、PositionRankによるスコアリングを用いてもよい。疑似専門用語付与部1282は、抽出した専門用語が第一の疑似教師専門用語(第一疑似キーワードとも称する)を特定する情報を学習テキストデータに付与する。
なお、第一の疑似教師専門用語であることを特定する情報は、例えば、固有表現抽出などの「系列レベリング問題」に用いられるBIO形式のタグ付けであってもよい。
この場合、例えば、「長期金利操作の導入を決定」なる文章を形態素に分割すると、「長期」「金利」「操作」「の」「導入」「を」「決定」分割される。このうち「長期金利操作」が第一の疑似教師専門用語である場合には、「長期」にタグ「B」、「金利」にタグ「I」、「操作」にタグ「I」、「の」にタグ「O」、「導入」にタグ「O」、「を」にタグ「O」、「決定」にタグ「O」のようにタグが付与されればよい。
ここで、タグ「B」は、Begining、つまり、専門用語の先頭単語を表し、タグ「I」は、Inside、つまり、専門用語の先頭単語以外の単語を表し、タグ「O」は、Outside、つまり、専門用語以外の単語を表す。
<疑似コーパス生成部1283>
疑似コーパス生成部1283は、第一の疑似教師専門用語が付与された学習用テキストデータにおける各文章中の専門用語を、所定規則に従って生成された第二の疑似教師専門用語に置換して疑似コーパスを生成する。疑似コーパス生成部1283は、第2の疑似教師専門用語と、疑似コーパスとを、第一の疑似教師専門用語が付与された学習用テキストデータに付与する。
例えば、疑似コーパス生成部1283は、「○○という」や「○○によると」などの表現において「○○」が専門用語とすると、「○○」を「△△」などに所定規則、例えばランダムな単語に置き換え、「△△という」や「△△によると」などの疑似文章を生成する。
例えば、「△△」は、「〇〇」とは同じ分野の異なる他の専門用語である。あるいは、「△△」は、「〇〇」とは異なる分野の専門用語でもよい。あるいは、「△△」は、専門用語でもなく、機械的にランダムに選択された任意の単語や複合語あるいは、ユーザにより選択された任意の単語や複合語でもよい。なお、所定規則は、置換する単語の品詞を制限してもよい。
このようにすることで、対象テキストデータにおける文章中の専門用語となりやすい単語そのものではなく、対象のテキストデータにおける文章中の専門用語が出現しやすい文脈を学習させることができる。そのため、専門用語の抽出精度を向上させることができる。
なお、情報処理装置100は、疑似コーパス生成部1283の構成を備えなくても専門用語の抽出精度を向上させることができるが、疑似コーパス生成部1283を用いることで、文脈を学習させることができるため、専門用語の抽出精度をより向上させることができる。
<疑似専門用語再付与部1284>
疑似専門用語再付与部1284は、前回の処理時にユーザによる専門用語辞書の編集が行われたか否かを判定する。疑似専門用語再付与部1284は、今回の処理が初回の処理である場合や、専門用語辞書の編集結果の反映を行わない設定である場合を除いて、前回の編集結果を用いて第一の疑似教師専門用語を再付与する。
具体的には、疑似専門用語再付与部1284は、前回処理時のユーザによる専門用語であるか否かを示す選定結果に基づいて、ラベリングする。具体的には、疑似専門用語再付与部1284は、専門用語であることを示す選定が行われた専門用語に正例とラベリングし、専門用語であることを示す選定が行われなかった専門用語に負例とラベリングする。
疑似専門用語再付与部1284は、正負ラベリングと、専門用語候補との対応関係を学習した学習モデルを生成する。当該学習には、例えば、Word2vecと従来の機械学習とを用いてもよいし、BERTなどのTransformerモデルを用いてもよい。
疑似専門用語再付与部1284は、生成した学習モデルを用いて、学習用テキストデータから専門用語候補を再抽出し、再抽出した専門用語候補を第一の疑似教師専門用語として学習用テキストデータに再付与する。
<学習部1285>
学習部1285は、疑似教師専門用語を抽出する学習モデル131を生成する。具体的には、学習部1285は、文脈を学習可能なBERTなどを用いて、疑似教師専門用語と当該疑似教師専門用語が出現する文脈との対応関係を学習することで、専門用語が出現する文脈を学習する。学習部1285は、生成した学習モデルを記憶部13に記憶させる。
このようにすることで、学習部1285は、文中でのその語の周辺の文脈を考慮可能な学習モデルを生成することで、単語の頻度や係り受け関係だけでなく専門用語が出現しそうな文脈を学習することができ、未知の専門用語を高い精度で抽出することができる。
次いで、本実施形態に係る情報処理の流れについて説明する。
<フローチャート>
図7は、本実施形態に係る情報処理システムSYSにおける情報処理の一例を示すフローチャートである。
ステップS202において、情報処理装置100は、学習用テキストデータを取得する。
ステップS204において、情報処理装置100は、学習用テキストデータから専門用語候補を抽出し、抽出した専門用語候補を第一の疑似教師専門用語として学習用テキストデータに付与する。
ステップS206において、情報処理装置100は、図7に係る処理が初回の処理であるか否かを判定する。初回の処理である場合、情報処理装置100は、ステップS214の処理を行う。一方、初回の処理でない場合、情報処理装置100は、ステップS208の処理を行う。
ステップS208において、情報処理装置100は、編集結果を反映させる設定であるか否かを判定する。編集結果を反映させる設定である場合、情報処理装置100は、ステップS210の処理を行う。一方、編集結果を反映させない設定である場合、情報処理装置100は、ステップS214の処理を行う。
ステップS210において、情報処理装置100は、前回処理時にユーザによる辞書の編集があるか否かを判定する。前回処理時にユーザによる辞書の編集があると判定される場合、情報処理装置100は、ステップS212の処理を行う。一方、前回処理時にユーザによる辞書の編集がないと判定される場合、情報処理装置100は、ステップS214の処理を行う。
ステップS212において、情報処理装置100は、学習用テキストデータから専門用語候補を再抽出し、再抽出した専門用語候補を第一の疑似教師専門用語として学習用テキストデータに再付与する。
ステップS214において、情報処理装置100は、疑似教師専門用語と当該疑似教師専門用語が出現する文脈との対応関係を学習した専門用語抽出モデルを生成する。
ステップS216において、情報処理装置100は、生成した専門用語抽出モデルを学習モデルをとして記憶部13に記憶させる。
このように、第1の実施形態および第2の実施形態に係る情報処理システムSYSは、学習用の学習テキストデータを取得する学習テキストデータ取得部1281と、学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部(疑似専門用語付与部1282)と、第一疑似キーワードを特定する情報を学習テキストデータに付与する疑似キーワード付与部(疑似専門用語付与部1282)と、学習テキストデータにおける文脈と第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部(学習部1285)と、を備える。
具体的には、学習モデルは、学習テキストデータにおける文脈と、第一疑似キーワードとの対応関係を学習することによって生成される。例えば、生成された学習モデルに入力情報としてテキストデータを入力すると、出力情報としてキーワードを得る。キーワード抽出部(専門用語候補抽出部122)は、学習モデルを用いて、所定のテキストデータからキーワードを抽出する。
これにより、教師なし学習による専門用語の抽出結果を疑似教師専門用語とすることで、教師専門用語作成のコストを削減することができる。また、テキストデータにおける文章中のその語の周辺の文脈を学習した学習モデルを生成することができるため、未知の専門用語を高い精度で抽出することができる。また、抽出された専門用語のみを人手での確認・修正対象とすることで、低コストで高品質な辞書を生成することができる。また、ユーザによる専門用語辞書に対する編集内容に基づきラベリング学習モデル134を生成することで、ユーザの目的、用途、好みに合う専門用語を再抽出することができ、辞書生成の精度をさらに向上させることができる。
[第3の実施形態]
次いで、本発明の第3の実施形態について説明する。
第3の実施形態では、第1の実施形態および第2の実施形態の一方または両方に基づいて生成された専門用語辞書を用いて専門用語を抽出する場合の一例について説明する。
<ユーザ端末装置200>
図8は、本発明の第3の実施形態に係るユーザ端末装置200の構成の一例を示すブロック図である。
ユーザ端末装置200は、通信部21と、制御部22と、記憶部23と、を含んで構成される。
<通信部21>
通信部21は、情報処理装置100と通信する機能を有する。通信部21は、情報処理装置100から受信した各種情報を制御部22に出力する。また、通信部21は、制御部22から入力される情報を、情報処理装置100に送信する。
<制御部22>
制御部22は、ユーザ端末装置200を制御する機能を有する。制御部22は、記憶部23に記憶された各種データ、アプリケーション、プログラムなどを読み出して情報処理装置100を制御する。
より詳細に制御部22の処理について説明する。
制御部22は、入力データ取得部221と、辞書データ取得部222と、テキストマイニング部223と、を含んで構成される。
<入力データ取得部221>
入力データ取得部221は、ユーザから入力データを取得する。入力データは、音声データあるいはテキストデータである。入力データ取得部221は、入力データが音声データである場合には、音声認識により音声データをテキストデータに変換する。入力データ取得部221は、テキストデータをテキストマイニング部223に出力する。
<辞書データ取得部222>
辞書データ取得部222は、専門用語辞書情報を、通信部21を介して情報処理装置100から取得する。辞書データ取得部222は、取得した専門用語辞書情報を記憶部23に記憶させる。
<テキストマイニング部223>
テキストマイニング部223は、テキストデータに対してテキストマイニングを行い、記憶部23が記憶する専門用語辞書情報を参照して、テキストデータから専門用語を抽出する。
<フローチャート>
図9は、本実施形態に係る情報処理の流れの一例を示すフローチャートである。
ステップS302において、ユーザ端末装置200は、ユーザからテキストデータまたは音声データを入力データとして取得する。ユーザ端末装置200は、音声データであれば、テキストデータに変換する。
ステップS304において、ユーザ端末装置200は、情報処理装置100から専門用語辞書情報を取得する。
ステップS306において、ユーザ端末装置200は、専門用語辞書情報を参照してテキストデータから専門用語を抽出する。
第1の実施形態において、専門用語候補をユーザが任意に追加、削除、編集を可能とする点を説明したが、本実施形態によれば、ユーザ端末装置200において専門用語を抽出することができる。よってユーザの意思に基づく、専門用語の追加も可能となる。
以上、図面を参照してこの発明の各実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、上述した各実施形態では、情報処理装置100、ユーザ端末装置200のようにそれぞれの装置によって構成される一例について説明したが、これらの装置の一部またはすべてを組み合わせた装置、あるいはこれらの装置の一部を組み替えた装置によって本発明の一態様を実現してもよい。
なお、本発明の一態様における情報処理装置100、ユーザ端末装置200で動作するプログラムは、本発明の一態様に関わる上記の各実施形態や変形例で示した機能を実現するように、1つ、または複数の、CPU(Central Processing Unit)等のプロセッサを制御するプログラム(コンピュータを機能させるプログラム)であっても良い。ここでいう、コンピュータは、量子コンピュータも含まれる。そして、これらの各装置で取り扱われる情報は、その処理時に一時的にRAM(Random Access Memory)に蓄積され、その後、フラッシュメモリやHDD(Hard Disk Drive)等の各種ストレージに格納され、必要に応じてCPU等によって読み出し、修正・書き込みが行われても良い。
なお、上述した各実施形態や変形例における情報処理装置100、ユーザ端末装置200の一部又は全部を1つ、または複数のプロセッサを備えたコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータが読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。
なお、ここでいう「コンピュータシステム」とは、情報処理装置100、ユーザ端末装置200に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した各実施形態や変形例における情報処理装置100、ユーザ端末装置200の一部、又は全部を典型的には集積回路であるLSIとして実現してもよいし、チップセットとして実現してもよい。また、上述した各実施形態や変形例における情報処理装置100、ユーザ端末装置200の各機能ブロックは個別にチップ化してもよいし、一部、又は全部を集積してチップ化してもよい。また、集積回路化の手法は、LSIに限らず専用回路、および/または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
以上、この発明の一態様として各実施形態や変形例に関して図面を参照して詳述してきたが、具体的な構成は各実施形態や変形例に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等も含まれる。また、本発明の一態様は、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。また、上記各実施形態や変形例に記載された要素であり、同様の効果を奏する要素同士を置換した構成も含まれる。
SYS 情報処理システム
100 情報処理装置
11 通信部
12 制御部
121 テキストデータ取得部
122 専門用語候補抽出部
123 辞書データ修正判定部
124 専門用語候補再抽出部
1241 正負ラベリング部
1242 正負ラベリング学習部
1243 候補再抽出部
125 専門用語候補提示部
126 選定結果取得部
127 辞書生成部
128 専門用語学習部
1281 学習テキストデータ取得部
1282 疑似専門用語付与部
1283 疑似コーパス生成部
1284 疑似専門用語再付与部
1285 学習部
13 記憶部
131 学習モデル
132 専門用語辞書情報
133 編集情報
200 ユーザ端末装置
21 通信部
22 制御部
221 入力データ取得部
222 辞書データ取得部
223 テキストマイニング部
23 記憶部
231 専門用語辞書情報

Claims (7)

  1. 学習用の学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部と、
    前記第一疑似キーワードを特定する情報を前記学習テキストデータに付与する疑似キーワード付与部と、
    前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部と、
    を備える情報処理システム。
  2. 前記学習モデルを用いてテキストデータからキーワードを抽出するキーワード抽出部と、
    をさらに備える請求項1に記載の情報処理システム。
  3. 前記学習テキストデータに出現する前記第一疑似キーワードを、所定規則に従って生成された第二疑似キーワードに置換することで疑似文章を生成する疑似文書生成部、
    をさらに備え、
    前記学習モデル生成部は、前記第二疑似キーワードと前記疑似文章との対応関係をさらに学習する、
    請求項1に記載の情報処理システム。
  4. 前記キーワードを編集可能にユーザに提示する提示部、
    をさらに備え、
    前記学習モデル生成部は、前記ユーザに編集されたキーワードと前記編集されたキーワードが出現する文章の文脈との対応関係をさらに学習した学習モデルを生成する、
    請求項2に記載の情報処理システム。
  5. 学習用の学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出部と、
    前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与部と、
    前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成部と、
    を備える情報処理装置。
  6. コンピュータが実行する情報処理方法であって、
    学習用の学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出過程と、
    前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与過程と、
    前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成過程と、
    を有する情報処理方法。
  7. コンピュータに、
    学習用の学習テキストデータから疑似的なキーワードである第一疑似キーワードを抽出する疑似キーワード抽出ステップと、
    前記第一疑似キーワードを前記学習テキストデータに付与する疑似キーワード付与ステップと、
    前記学習テキストデータにおける文脈と前記第一疑似キーワードとの対応関係を学習した学習モデルを生成する学習モデル生成ステップと、
    を実行させるためのプログラム。
JP2023041733A 2023-03-16 2023-03-16 情報処理システム、情報処理装置、情報処理方法、およびプログラム Active JP7483085B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023041733A JP7483085B1 (ja) 2023-03-16 2023-03-16 情報処理システム、情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023041733A JP7483085B1 (ja) 2023-03-16 2023-03-16 情報処理システム、情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP7483085B1 true JP7483085B1 (ja) 2024-05-14

Family

ID=91030991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023041733A Active JP7483085B1 (ja) 2023-03-16 2023-03-16 情報処理システム、情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7483085B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232871A (ja) 2010-04-26 2011-11-17 Sony Corp 情報処理装置、テキスト選択方法及びプログラム
JP2013171222A (ja) 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 単語追加装置、単語追加方法、およびプログラム
WO2022044343A1 (ja) 2020-08-31 2022-03-03 日本電信電話株式会社 抽出装置、抽出方法および抽出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232871A (ja) 2010-04-26 2011-11-17 Sony Corp 情報処理装置、テキスト選択方法及びプログラム
JP2013171222A (ja) 2012-02-22 2013-09-02 Nippon Telegr & Teleph Corp <Ntt> 単語追加装置、単語追加方法、およびプログラム
WO2022044343A1 (ja) 2020-08-31 2022-03-03 日本電信電話株式会社 抽出装置、抽出方法および抽出プログラム

Similar Documents

Publication Publication Date Title
JP4058071B2 (ja) 用例翻訳装置、用例翻訳方法および用例翻訳プログラム
US7295964B2 (en) Apparatus and method for selecting a translation word of an original word by using a target language document database
US7979268B2 (en) String matching method and system and computer-readable recording medium storing the string matching method
JP2963463B2 (ja) 対話型言語解析装置
JP3695191B2 (ja) 翻訳支援装置及びその方法並びにコンピュータ可読記録媒体
US7630880B2 (en) Japanese virtual dictionary
US11531693B2 (en) Information processing apparatus, method and non-transitory computer readable medium
US8655641B2 (en) Machine translation apparatus and non-transitory computer readable medium
US10713288B2 (en) Natural language content generator
JP6705318B2 (ja) 対訳辞書作成装置、対訳辞書作成方法、及び対訳辞書作成プログラム
CN110678868B (zh) 翻译支持***、装置和方法以及计算机可读介质
KR101664258B1 (ko) 텍스트 전처리 방법 및 이를 수행하는 전처리 시스템
JP5002271B2 (ja) 入力された原言語文を目的言語に機械翻訳する装置、方法およびプログラム
JP2010134922A (ja) 類似語決定方法およびシステム
JP5342760B2 (ja) 訳語学習のためのデータを作成する装置、方法、およびプログラム
JP7483085B1 (ja) 情報処理システム、情報処理装置、情報処理方法、およびプログラム
US8977538B2 (en) Constructing and analyzing a word graph
US20230140480A1 (en) Utterance generation apparatus, utterance generation method, and program
JP2014137613A (ja) 翻訳支援プログラム、方法、および装置
JP2001101184A (ja) 構造化文書生成方法及び装置及び構造化文書生成プログラムを格納した記憶媒体
WO2009144890A1 (ja) 翻訳前換言規則生成システム
JP4035111B2 (ja) 対訳語抽出装置、及び対訳語抽出プログラム
JP4528818B2 (ja) 機械翻訳装置及び機械翻訳プログラム
JP6626029B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN118211596A (zh) 翻译方法、装置、存储介质与电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240430

R150 Certificate of patent or registration of utility model

Ref document number: 7483085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150