JP6775366B2 - Selection device and selection method - Google Patents
Selection device and selection method Download PDFInfo
- Publication number
- JP6775366B2 JP6775366B2 JP2016182362A JP2016182362A JP6775366B2 JP 6775366 B2 JP6775366 B2 JP 6775366B2 JP 2016182362 A JP2016182362 A JP 2016182362A JP 2016182362 A JP2016182362 A JP 2016182362A JP 6775366 B2 JP6775366 B2 JP 6775366B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- word
- vector
- learning device
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010187 selection method Methods 0.000 title claims description 6
- 239000013598 vector Substances 0.000 claims description 167
- 239000000284 extract Substances 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 11
- 238000000034 method Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 47
- 238000005259 measurement Methods 0.000 description 16
- 230000010365 information processing Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000014509 gene expression Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、選択装置、および選択方法に関する。 The present invention, the selection device, about your and selection method.
従来、入力された情報の解析結果に基づいて、入力された情報と関連する情報を検索もしくは生成し、検索もしくは生成した情報を応答として出力する技術が知られている。このような技術の一例として、入力されたテキストに含まれる単語、文章、文脈を多次元ベクトルに変換して解析し、解析結果に基づいて、入力されたテキストと類似するテキストや、入力されたテキストに続くテキストを類推し、類推結果を出力する自然言語処理の技術が知られている。 Conventionally, there is known a technique of searching or generating information related to the input information based on the analysis result of the input information, and outputting the searched or generated information as a response. As an example of such a technique, words, sentences, and contexts contained in the input text are converted into a multidimensional vector and analyzed, and based on the analysis result, text similar to the input text or input. A natural language processing technique that infers the text following the text and outputs the analogy result is known.
しかしながら、上記の従来技術では、所定の概念の理解を援助する情報を出力することができない場合がある。 However, in the above-mentioned prior art, it may not be possible to output information that assists in understanding a predetermined concept.
例えば、上記の従来技術では、入力されたテキストと類似するテキストや、入力されたテキストに続くテキスト等、利用者が予測しうる情報を出力しているに過ぎない。このため、例えば、たとえ話等、利用者の理解を援助する情報を出力することができない場合がある。 For example, in the above-mentioned prior art, only information that can be predicted by the user, such as a text similar to the input text and a text following the input text, is output. Therefore, for example, it may not be possible to output information that assists the user's understanding, such as a parable.
本願は、上記に鑑みてなされたものであって、所定の概念の理解を援助する情報を出力することを目的とする。 The present application has been made in view of the above, and an object of the present application is to output information that assists in understanding a predetermined concept.
本願に係る選択装置は、所定の構造を有する文章に含まれる単語群を抽出する抽出部と、前記単語群に含まれる各単語を個別にベクトル化した複数のベクトルを、前記文章において各単語が出現した順序で結合したベクトル、もしくは、前記文章において各単語が出現した順序で複数のベクトルのテンソル積となるベクトルを前記文章と対応するベクトルとして生成する生成部と、前記生成部が文章ごとに生成したベクトル同士を比較することで、所定の文章と概念が類似する他の文章を選択する選択部とを有することを特徴とする。 Selection device according to the present application, the word extraction section that extracts a group of words included in the text, a plurality of vectors individually vectorized each word included before Symbol word group, in the sentence having a predetermined structure A generator that generates a vector that is connected in the order in which It is characterized by having a selection unit for selecting another sentence having a similar concept to a predetermined sentence by comparing the vectors generated in .
実施形態の一態様によれば、所定の概念の理解を援助する情報を出力することができる。 According to one aspect of the embodiment, it is possible to output information that assists in understanding a predetermined concept.
以下に、本願に係る選択装置、および選択方法を実施するための形態(以下、「実施形態」と記載する。)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係選択装置、および選択方法が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, the selection device according to the present application, embodiments of the contact and selection method (hereinafter referred to as "embodiment".) Will be described in detail with reference to the drawings. Incidentally, engagement selector herein by this embodiment, does not contact and selection method is limited. Further, in each of the following embodiments, the same parts are designated by the same reference numerals, and duplicate description is omitted.
[実施形態]
〔1−1.学習装置の一例〕
まず、図1を用いて、学習装置が実行する処理の一例について説明する。図1は、実施形態に係る学習装置が実行する学習処理の一例を示す図である。図1では、学習装置10は、以下に説明する学習処理を実行する情報処理装置であり、例えば、サーバ装置やクラウドシステム等により実現される。
[Embodiment]
[1-1. Example of learning device]
First, an example of the process executed by the learning device will be described with reference to FIG. FIG. 1 is a diagram showing an example of learning processing executed by the learning device according to the embodiment. In FIG. 1, the
より具体的には、学習装置10は、インターネット等の所定のネットワークNを介して、入力装置100や情報処理装置200(例えば、図2を参照)といった任意の装置と通信が可能である。
More specifically, the
ここで、入力装置100は、マイクなどの音声を取得する音声取得装置を用いて、利用者の発言を取得する。そして、入力装置100は、任意の音声認識技術を用いて、発言をテキストデータに変換し、変換後のテキストデータを学習装置10へと送信する。また、情報処理装置200は、スピーカ等の音声を出力する装置を用いて、学習装置10から受信したテキストデータの読み上げを行う。なお、情報処理装置200は、学習装置10から受信したテキストデータを所定の表示装置に表示してもよい。
Here, the input device 100 acquires the user's remark by using a voice acquisition device such as a microphone that acquires the voice. Then, the input device 100 converts the remark into text data by using an arbitrary voice recognition technique, and transmits the converted text data to the
なお、入力装置100や情報処理装置200は、スマートフォンやタブレット等のスマートデバイス、デスクトップPC(Personal Computer)やノートPC等、サーバ装置等の情報処理装置により実現される。なお、入力装置100および情報処理装置200は、例えば、同一の情報処理装置によって実現されてもよく、例えば、ロボット等の装置によって実現されてもよい。
The input device 100 and the
〔1−2.学習装置の処理について〕
ここで、ある事柄についてたとえ話を生成することができるのであれば、その事柄の概念を理解しているとも考えられる。また、かかる事柄の抽象化度が高い程、事柄をより良く理解しているとも考えられる。このため、学習装置10が事柄をより高度に抽象化できるのであれば、その事柄の概念を理解している(事柄の概念を学習している)と言うことができる。また、学習装置10が、ある事柄の概念をたとえ話にすることができるのであれば、利用者にその事柄をより容易に理解させることができるとも考えられる。
[1-2. About the processing of the learning device]
Here, if a parable can be generated about a certain matter, it is considered that the person understands the concept of the matter. It is also considered that the higher the degree of abstraction of such matters, the better the understanding of the matters. Therefore, if the
そこで、学習装置10は、入力された事柄を精度良く抽出するために、以下の学習処理を実行する。まず、学習装置10は、所定の構造を有する文章に含まれる複数の単語(以下、「単語群」と記載する。)を抽出する。そして、学習装置10は、所定のベクトル空間上において単語群に含まれる所定の単語の概念を示すベクトルが示す位置に、単語群に含まれる他の単語のベクトルを含むベクトル空間を紐付けることで、文章が有する概念を示す概念空間を学習する。例えば、学習装置10は、構造が類似する文章から抽出された概念空間が類似するように、モデルの学習を行う。
Therefore, the
例えば、学習装置10は、正解データとして入力された文章から第1単語、第2単語、および第3単語を抽出したものとする。このような場合、学習装置10は、word2vec等の技術を用いて、各単語を分散表現(ベクトル)へと変換する。そして、学習装置10は、第1単語のベクトルを含むベクトル空間(分散表現空間)において、第1単語のベクトルの先端に、第2単語のベクトルを含むベクトル空間を紐付ける。すなわち、学習装置10は、所定のベクトル空間上において第1単語のベクトルが示す位置に第2ベクトルを含むベクトル空間を紐付けることで、第1単語のベクトルの先端に第2単語のベクトルを埋め込む。
For example, it is assumed that the
そして、学習装置10は、第1単語のベクトルの先端に埋め込んだ第2単語のベクトルの先端に、さらに第3単語のベクトルを埋め込む。すなわち、学習装置10は、第1単語のベクトルの先端に第2単語のベクトルを含むベクトル空間を紐付け、第2単語のベクトルの先端に第3単語のベクトルを含むベクトル空間を紐付ける。例えば、学習装置10は、第1単語、第2単語、および第3単語をn次元のベクトルに変換する。このような場合、学習装置10は、第1単語のベクトル「(a1、a2・・・・an)」、第2単語のベクトル「(b1、b2・・・・bn)」、および第3単語のベクトル「(c1、c2・・・・cn)」が得られた場合、第1単語、第2単語、および第3単語を含む文章の抽象化された概念を示すベクトルとして「(a1、a2・・・・an、b1、b2・・・・bn、c1、c2・・・・cn)」といった、各単語のベクトルの結合である3n次元のベクトルを生成する。なお、例えば、学習装置10は、上記したベクトルの結合の他に、ベクトル同士のテンソル積空間のいずれかを用いて、文章の抽象化された概念を示す空間(以下、「抽象概念空間」と記載する。)として生成する。
Then, the
ここで、抽象概念空間で、各文章の分散表現を比較した場合には、文章の構造を考慮した上で、文章の抽象化された概念同士を比較することができる。例えば、「「月曜日」は「曜日」の「1つ目」である」という第1文章と「「1月1日」は「一年」の「初日」である」という第2文章とを考える。例えば、学習装置10は、「月曜日」を第1単語とし、「曜日」を第2単語とし「1つ目」を第3単語として、第1単語のベクトルの先端に第2単語を埋め込み、第2単語のベクトルの先端に第3単語を埋め込むことで、第1文章を抽象概念空間に落とし込む。また例えば、学習装置10は、「1月1日」を第1単語とし、「一年」を第2単語とし「初日」を第3単語として、第1単語のベクトルの先端に第2単語を埋め込み、第2単語のベクトルの先端に第3単語を埋め込むことで、第2文章を抽象概念空間に落とし込む。
Here, when comparing the distributed expressions of each sentence in the abstract concept space, it is possible to compare the abstracted concepts of the sentences after considering the structure of the sentences. For example, consider the first sentence "" Monday "is the" first day "of the" day of the week "" and the second sentence "" January 1 "is the" first day "of the" year ". .. For example, the
ここで、抽象概念空間上においては、第1文章のベクトルと第2文章のベクトルとのユークリッド距離とが近くなるとは限らない。しかしながら、第1文章および第2文章においては、文章構造が類似している。例えば、第1文章および第2文章では、第1単語が日付に関連する単語であり、第2単語が日付を含む単語であり、第3単語が第2単語において第1単語が示す意味を示す単語である。このため、抽象概念空間上においては、第1文章のベクトルの構造と第2文章のベクトルの構造とが類似すると予測される。この結果、抽象概念空間上においては、第1文章のベクトルと第2文章のベクトルのコサイン距離が1に近い値や所定の範囲内に収まる値を取ると予測される。 Here, in the abstract concept space, the Euclidean distance between the vector of the first sentence and the vector of the second sentence is not always close. However, in the first sentence and the second sentence, the sentence structures are similar. For example, in the first and second sentences, the first word is a date-related word, the second word is a date-containing word, and the third word indicates the meaning of the first word in the second word. It's a word. Therefore, in the abstract concept space, it is predicted that the vector structure of the first sentence and the vector structure of the second sentence are similar. As a result, in the abstract concept space, it is predicted that the cosine distance between the vector of the first sentence and the vector of the second sentence takes a value close to 1 or a value within a predetermined range.
このため、例えば、学習装置10は、正解データとなる様々な文章を抽象概念空間上に落とし込んでおき、抽象概念空間上において、処理対象となる文章のベクトルと類似するベクトル(例えば、コサイン距離が1に近いベクトル)が示す文章を出力した場合は、処理対象となる文章と構造が類似する文章、すなわち、処理対象となる文章のたとえ話を出力することができると考えられる。
Therefore, for example, the
そこで、学習装置10は、以下の測定処理を実行する。まず、学習装置10は、上述した学習処理によって学習が行われたモデルを用いて、利用者から受け付けた文章と抽象概念空間上における構造が類似する単語群を選択し、選択された単語群を用いて、受付けられた文章と同様の構造を有する文章を生成する。すなわち、学習装置10は、利用者から受付けた文章に含まれる単語群と関係性の連鎖が類似する他の単語群を含む文章を生成する。そして、学習装置10は、生成した文章を出力する。より具体的には、学習装置10は、利用者から受付けた文章が有する概念を示すたとえとして、生成した文章を出力する。
Therefore, the
〔1−3.学習処理や測定処理の利用例について〕
ここで、学習装置10は、上述したたとえ話を出力する処理を任意の目的で実行してよい。例えば、学習装置10は、利用者に概念を教示するために、上述した学習処理や測定処理を利用してもよい。より具体的な例を挙げると、学習装置10は、利用者が知識を有する分野でのたとえ話を生成することで、効率的に人に概念を理解させてもよい。
[1-3. About usage examples of learning processing and measurement processing]
Here, the
例えば、学習装置10は、利用者から文章Aおよび分野Dの指定を受付ける。このような場合、学習装置10は、抽象概念空間上において、分野Dに属する文章のベクトルのうち、文章Aと類似するベクトルを抽出する。そして、学習装置10は、抽出したベクトルが示す文章Bを出力することで、利用者が指定した分野Dでのたとえ話を出力してもよい。より具体的には、学習装置10は、「文章Aに含まれる各単語の関係は、文章Bに含まれる各単語の関係みたいなもの」等といった応答を出力してもよい。
For example, the
このように、学習装置10は、文章Aを構成する単語のみならず、文章Aの構造(各単語の関係性)を文章Aの概念の構成要素として学習し、構成要素が類似する概念(すなわち、文章Bの概念)を抽象概念空間上で抽出し、抽出した概念の構成要素を用いて、文章Aの概念のたとえ話を生成する。
In this way, the
なお、例えば、学習装置10は、利用者からたとえ話の条件を受付けてもよい。例えば、学習装置10は、文章Aおよび分野Dの指定と共に、たとえのベースとなる単語Cの指定を受付ける。このような場合、学習装置10は、分野Dに属する文章のベクトルのうち、文章Aと類似するベクトルであって、単語Cのベクトル(すなわち、単語Cの概念)を含むベクトルを選択し、選択したベクトルが示す文章を出力する。この結果、学習装置10は、文章Aに含まれる各単語の関係性を、単語Cを用いてたとえたたとえ話を出力することができるので、利用者の理解を促進させることができる。
For example, the
一方、上述したようなたとえ話の精度は、入力された文章の理解度を図る指標となりえる。そこで、学習装置10は、上述した測定処理により利用者から受付けた文章と単語群の関係性の連鎖が類似する文章を応答として出力し、利用者との対話を通して効率的な学習を行ってもよい。
On the other hand, the accuracy of the parable as described above can be an index for measuring the comprehension of the input sentence. Therefore, even if the
例えば、学習装置10は、利用者から文章Aおよび分野Dの指定を受付ける。このような場合、学習装置10は、抽象概念空間上において、分野Dに属する文章のベクトルのうち、文章Aのベクトルと構造が類似する複数のベクトルを候補として抽出する。そして、学習装置10は、抽出したベクトルのうち、正答である最も可能性が高いベクトルを用いてたとえ話を生成し、生成したたとえ話を出力する。この結果、利用者からたとえ話が正しい旨の入力を受付けた場合は、処理を終了する。一方、学習装置10は、利用者からたとえ話が間違っている旨の入力を受付けた場合は、そのベクトルを候補から除外するように、最も正答である可能性が高いベクトルを再選択し、他のベクトルからたとえ話を再生成する。そして、学習装置10は、再生成したたとえ話を出力する。このような処理を繰り替えす際に、正答である最も可能性が高いベクトルを選択する際のアルゴリズムを段階的に補正すればよい。
For example, the
〔1−4.学習処理について〕
なお、学習装置10は、任意の数の単語を含む文章を抽象概念空間上に落とし込んでよい。例えば、学習装置10は、順次、ある単語のベクトルの先端に他の単語のベクトルを埋め込むことで、任意の数の単語を含む文章を抽象概念空間に落とし込むことができる。また、学習装置10は、各単語を任意の次元数の分散表現に変更して良い。
[1-4. About learning process]
The
なお、学習装置10は、単語群が所定の構造を有する文章、すなわち、各単語が所定の関係性を有する文章であれば、任意の文章を正解データとし、上述した学習処理を実行すればよい。この際、学習装置10は、文章の内容が属する分野(例えば、医療分野や技術分野等)等に関わらず、任意の文章を正解データとして学習してよい。
The
〔1−5.学習装置10が実行する処理の一例〕
次に、図1を用いて、学習装置10が実行する学習処理および測定処理の一例について説明する。まず、学習装置10は、正解データとなる文章を用いた学習処理を実行する。より具体的には、学習装置10は、正解データとなる文章に含まれる単語群を抽出し、抽出した単語のベクトルの先端に、他の単語のベクトルを順次埋め込むことで、文章の概念を示す抽象概念空間を形成する(ステップS1)。
[1-5. An example of processing executed by the learning device 10]
Next, an example of the learning process and the measurement process executed by the
例えば、学習装置10は、文章#1から単語#1、単語#2、単語#3を抽出した場合は、各単語を分散表現に変換し、単語#1の分散表現であるベクトルの先端に、単語#2の分散表現であるベクトルを含むベクトル空間を紐付ける。さらに学習装置10は、単語#2の分散表現であるベクトルの先端に、単語#3の分散表現であるベクトルを含むベクトル空間を紐付ける。この結果、学習装置10は、文章#1に含まれる各単語の関係性の構造を投影した抽象概念空間を生成することができる。
For example, when the
また、学習装置10は、測定処理として、学習処理により学習が行われた抽象概念空間を用いて、入力された文章の単語群と、単語間の関係性の構造が類似する他の単語群を選択し、選択した単語群からなる文章、すなわち、入力された文章のたとえ話を出力する測定処理を実行する。まず、学習装置10は、利用者の発言Aを入力として受付ける(ステップS2)。このような場合、学習装置10は、抽象概念空間に、文章#2に含まれる単語群を落とし込む(ステップS3)。例えば、学習装置10は、学習処理と同様の処理を実行することで、文章#2から単語群#2を抽出し、単語群#2に含まれる各単語をベクトル化し、ある単語のベクトルの先端に他の単語のベクトルを埋め込むことで、抽象概念空間上における文章#2のベクトル#2を生成する。
Further, the
続いて、学習装置10は、類似するベクトルを構成する単語群を抽象概念空間から選択する(ステップS4)。例えば、学習装置10は、ベクトル#2と類似するベクトル、すなわち、各単語間の関係性の構造が類似するベクトルを選択する。ここで、学習装置10は、抽象概念空間上にベクトル#1とベクトル#3とが存在するが、ベクトル#3がベクトル#2と類似する場合は、ベクトル#3を選択し、ベクトル#3を構成する単語群#3を選択する。
Subsequently, the
そして、学習装置10は、選択した単語群を用いて、入力された文章の概念のたとえ話を生成する(ステップS5)。例えば、学習装置10は、単語群#3から、文章#2のたとえ話となる文章#3を生成し、生成した文章#3をたとえ話として出力する(ステップS6)。この結果、例えば、ロボット等の情報処理装置200は、文章#3を発言Cとして音声出力することができる。
Then, the
〔2.学習装置の構成〕
以下、上記した学習処理を実現する学習装置10が有する機能構成の一例について説明する。図2は、実施形態に係る学習装置の構成例を示す図である。図2に示すように、学習装置10は、通信部20、記憶部30、および制御部40を有する。
[2. Learning device configuration]
Hereinafter, an example of the functional configuration of the
通信部20は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部20は、ネットワークNと有線または無線で接続され、入力装置100、および情報処理装置200との間で情報の送受信を行う。
The
記憶部30は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。また、記憶部30は、正解データデータベース31および抽象概念空間データベース32を記憶する。
The
正解データデータベース31には、正解データとなる文章が登録されている。例えば、図3は、実施形態に係る正解データデータベースに登録される情報の一例を示す図である。図3に示す例では、正解データデータベース31には、「文章ID(Identifier)」、「文章データ」、「第1単語」、「第2単語」等といった項目を有する情報が登録される。
In the correct
ここで、「文章ID(Identifier)」は、正解データとなる文章を識別するための情報である。また、「文章データ」とは、文章のテキストデータである。また、「第1単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に最初に出現する単語であり、「第2単語」とは、対応付けられた「文章データ」に含まれる単語群のうち、文章内に2番目に出現する単語である。なお、正解データデータベース31には、「第1単語」や「第2単語」以外にも、文章に含まれる単語が順に登録されているものとする。
Here, the "sentence ID (Identifier)" is information for identifying a sentence that is correct answer data. The "text data" is text data of a text. Further, the "first word" is a word that first appears in a sentence among the word groups included in the associated "sentence data", and the "second word" is the associated "sentence data". Among the word groups included in the "sentence data", this is the second word that appears in the sentence. In addition to the "first word" and the "second word", the words included in the sentence are registered in the correct
例えば、図3に示す例では、文章ID「ID#1」、文章データ「文章データ#1」、第1単語「単語#1−1」、および第2単語「単語#1−2」が対応付けて登録されている。このような情報は、文章ID「ID#1」が示す文章が文章データ「文章データ#1」であり、かかる文章中に第1単語「単語#1−1」および第2単語「単語#1−2」が順に含まれている旨を示す。
For example, in the example shown in FIG. 3, the sentence ID "
なお、図3に示す例では、「文章データ#1」、「単語#1−1」、「単語#1−2」等といった概念的な値について記載したが、実際には文章のテキストデータや単語のテキストデータが登録されることとなる。
In the example shown in FIG. 3, conceptual values such as "
抽象概念空間データベース32には、抽象概念空間に投影された文章のベクトル、すなわち、正解データである文章のベクトルが登録されている。例えば、図4は、実施形態に係る抽象概念空間データベースに登録される情報の一例を示す図である。図4に示す例では、抽象概念空間データベース32には、「文章ID」、「文章データ」、「文章ベクトル」等といった項目を有する情報が登録される。
In the abstract
ここで、「文章ベクトル」とは、対応付けられた文章IDが示す文章を抽象概念空間上に投影した際のベクトルであり、対応付けられた文章IDが示す文章に含まれる単語群のうち、所定の単語のベクトルの先端に他の単語のベクトルを埋め込むことで生成されるベクトルである。例えば、「文章ベクトル」は、各単語のベクトルを順次連結することで生成されるベクトルである。 Here, the "sentence vector" is a vector when the sentence indicated by the associated sentence ID is projected onto the abstract concept space, and among the word groups included in the sentence indicated by the associated sentence ID. It is a vector generated by embedding a vector of another word at the tip of a vector of a predetermined word. For example, a "sentence vector" is a vector generated by sequentially concatenating the vectors of each word.
例えば、図4に示す例では、文章ID「ID#1」、文章データ「文章データ#1」、文章ベクトル「ベクトル#1」が対応付けて登録されている。このような情報は、文章ID「ID#1」が示す文章が文章データ「文章データ#1」であり、かかる文章を抽象概念空間上に落とし込んだ場合、文章ベクトル「ベクトル#1」となる旨を示す。なお、図4に示す例では、「ベクトル#1」等といった概念的な値について記載したが、実際にはベクトルを示す数値が登録されることとなる。
For example, in the example shown in FIG. 4, the sentence ID “
図2に戻り、説明を続ける。制御部40は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、学習装置10内部の記憶装置に記憶されている各種プログラムがRAM等を作業領域として実行されることにより実現される。また、制御部40は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。
Returning to FIG. 2, the explanation will be continued. The
図2に示すように、制御部40は、抽出部41、学習部42、選択部43、生成部44、および出力部45を有する。なお、抽出部41および学習部42は、上述した学習処理を実行し、選択部43〜出力部45は、上述した測定処理を実行する。
As shown in FIG. 2, the
抽出部41は、所定の構造を有する文章に含まれる単語群を抽出する。例えば、抽出部41は、図示を省略した任意の装置から正解データとして文章を受信すると、形態素解析等により、文章に含まれる単語群を抽出する。そして、抽出部41は、受信した文章と、文章に含まれる単語群とを正解データデータベース31に登録する。例えば、抽出部41は、単語群に含まれる各単語を、文章中に出現する順に、正解データデータベース31に登録する。
The extraction unit 41 extracts a group of words included in a sentence having a predetermined structure. For example, when the extraction unit 41 receives a sentence as correct answer data from an arbitrary device (not shown), the extraction unit 41 extracts a word group included in the sentence by morphological analysis or the like. Then, the extraction unit 41 registers the received sentence and the word group included in the sentence in the correct
学習部42は、所定のベクトル空間上において単語群に含まれる所定の単語の概念を示すベクトルが示す位置に、単語群に含まれる他の単語のベクトルを含むベクトル空間を紐付けることで、文章が有する概念を示す概念空間を学習する。すなわち、学習部42は、抽象概念空間データベース32を生成する。
The learning unit 42 associates a vector space including a vector of another word included in the word group with a position indicated by a vector indicating the concept of a predetermined word included in the word group on a predetermined vector space, and thereby causes a sentence. Learn the concept space that shows the concept of. That is, the learning unit 42 generates the abstract
例えば、学習部42は、正解データデータベース31に登録された各文章の各単語群を、w2v等の技術を用いて、それぞれ分散表現に変換する。そして、学習部42は、同一の文章に含まる各単語の分散表現、すなわちベクトルを連続させたベクトルを文章ベクトルとして生成する。すなわち、学習部42は、文章に含まれるある単語のベクトルの先端に、他の単語のベクトルを埋め込み、かかる他の単語のベクトルの先端に、さらに別の単語のベクトルを埋め込む。換言すると、学習部42は、文章に含まれる各単語のベクトルを多重化することで、文章ベクトルを生成する。そして、学習部42は、生成した文章ベクトルを抽象概念空間データベース32に登録する。
For example, the learning unit 42 converts each word group of each sentence registered in the correct
このような学習部42の学習処理により生成された抽象概念空間では、ベクトル同士の比較を行うことで、文章が有する単語間の関係性の構造を比較することができる。例えば、図5は、実施形態に係る学習装置が比較する構造の一例を示す図である。例えば、図5に示す例では、文章#1には、単語#1−1〜#1−3が含まれており、文章#2には、単語#2−1〜#2−3が含まれている。
In the abstract concept space generated by the learning process of the learning unit 42, the structure of the relationship between words in the sentence can be compared by comparing the vectors. For example, FIG. 5 is a diagram showing an example of a structure in which the learning devices according to the embodiment are compared. For example, in the example shown in FIG. 5,
ここで、文章#1では、単語#1−1が文章#1のベースとなる概念を示し、単語#1−2がベースのバリエーションを示すという構成#1−1を有する。また、文章#1では、単語#1−3が、単語#1−1および単語#1−2からなる概念を修飾するという構成#1−2を有するものとする。このような文章#1を学習部42が生成する抽象概念空間上に落とし込んだ場合、各単語を多重化した際に、各単語の概念のみならず、各単語間の関係性の構造、すなわち構成#1−1および構成#1−2も抽象概念空間上に落とし込むことができると考えられる。例えば、学習装置10は、単語#1−1のベクトルの先端に単語#1−2のベクトルを埋め込み、単語#1−2のベクトルの先端に単語#1−3のベクトルを埋め込んだ場合は、埋め込みの順序により構成#1−1および構成#1−2を再現することができる。
Here, the
ここで、文章#2においても同様に、単語#2−1が文章#2のベースとなる概念を示し、単語#2−2がベースのバリエーションを示すという構成#2−1を有する。また、文章#2では、単語#2−3が、単語#2−1および単語#2−2からなる概念を修飾するという構成#2−2を有するものとする。このような文章#2を抽象概念空間上に落とし込んだ場合、個々の単語#2−1〜#2−3が単語#1−1〜#1−3と類似せずとも、構成#2−1および構成#2−2が構成#1−1および構成#1−2と類似する場合は、文章#2全体のベクトルが文章#1全体のベクトルと類似すると考えられる。
Here, similarly, the
そこで、学習装置10は、文章#1のベクトルと文章#2のベクトルとが類似する場合には、文章#1と文章#2とが同一構造を有すると推定し、文章#1の構造が示す概念のたとえ話に文章#2が利用可能であると判定する。例えば、学習装置10は、以下に説明する測定処理を実行することで、文章#1のたとえ話を生成する。
Therefore, when the vector of the
図2に戻り、説明を続ける。選択部43は、入力装置100から受けつけた文章から単語群を抽出し、学習部42と同様の処理により、各単語のベクトルを連続させたベクトル、すなわち、入力された文章の文章ベクトルを生成する。そして、選択部43は、抽象概念空間データベース32を参照し、入力された文章の文章ベクトルと類似する文章ベクトルを検索する。例えば、選択部43は、入力された文章の文章ベクトルとのコサイン距離の値が最も小さくなる文章ベクトルを検索する。そして、選択部43は、検索した文章ベクトルと対応付けられた文章IDを特定し、特定した文章IDと対応付けられた単語群を正解データデータベース31から選択する。
Returning to FIG. 2, the explanation will be continued. The
生成部44は、選択された単語群を用いて、利用者から受付けた文章と同様の構造を有する文章を生成する。例えば、生成部44は、入力装置100から受付けた文章が有する構造と同様の構造を有する文章を選択部43が選択した単語群から生成する。
The generation unit 44 uses the selected word group to generate a sentence having the same structure as the sentence received from the user. For example, the generation unit 44 generates a sentence having a structure similar to that of the sentence received from the input device 100 from the word group selected by the
出力部45は、生成部44が生成した文章を、利用者から受付けた文章が有する概念を示すたとえとして出力する。例えば、出力部45は、生成部44が生成した文章を情報処理装置200へと出力し、入力装置100から受付けた文章のたとえとして、出力した文章を出力するように指示する。この結果、情報処理装置200は、たとえ話を出力することができる。
The
〔3.学習装置が実行する処理の流れの一例〕
次に、図6を用いて、学習装置10が実行する学習処理の流れの一例について説明する。図6は、実施形態に係る学習処理の流れの一例を説明するフローチャートである。まず、学習装置10は、正解データとなる文章を取得すると(ステップS101)、取得した文章から単語群を抽出する(ステップS102)。そして、学習装置10は、単語群の各単語をベクトル化し(ステップS103)、あるベクトルの先端に他のベクトルのベクトル空間を紐付ける処理を順次行うことで、文章を抽象概念空間に落とし込み(ステップS104)、処理を終了する。
[3. An example of the flow of processing executed by the learning device]
Next, an example of the flow of the learning process executed by the
次に、図7を用いて、学習装置10が実行する測定処理の流れの一例について説明する。図7は、実施形態に係る測定処理の流れの一例を説明するフローチャートである。まず、学習装置10は、利用者の発言等、利用者が入力した文章を取得すると(ステップS201)、文章に含まれる各単語群のベクトルを多重化することで、文章を抽象概念空間に落とし込む(ステップS202)。そして、学習装置10は、抽象概念空間上で、入力された文章のベクトルと類似するベクトルと対応する単語群を選択する(ステップS203)。すなわち、学習装置10は、入力された文章と単語間の関係性の構成が類似する文章のベクトルを抽象概念空間上で検索し、検索したベクトルを構成する単語群を選択する。そして、学習装置10は、選択した単語群を用いて、取得した文章のたとえ話を生成し(ステップS204)、生成したたとえ話を出力して(ステップS205)、処理を終了する。
Next, an example of the flow of the measurement process executed by the
〔4.変形例〕
上記では、学習装置10による学習処理および測定処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、学習装置10が実行する学習処理のバリエーションについて説明する。
[4. Modification example]
In the above, an example of the learning process and the measurement process by the
〔4−1.学習処理について〕
上述した例では、学習装置10は、正解データとして受付けた文章の各単語をベクトル化し、ベクトルを順に多重化することで、抽象概念空間を学習した。ここで、学習装置10は、所定の構造を有する文章であれば、任意の文章を正解データとして採用してよい。
[4-1. About learning process]
In the above example, the
また、例えば、学習装置10は、文章に含まれる単語間の関係性の構造に応じて、ベクトルを多重化する順番を変化させてもよい。例えば、学習装置10は、第1の構造を有する文章を抽象概念空間に落とし込む場合は、各単語が文書中に出現する順序で、各単語のベクトルを多重化する。一方、学習装置10は、第1の構造とは逆の概念を形成する第2の構造を有する文章を抽象概念空間に落とし込む場合は、各単語が文書中に出現する順序とは逆の順序で、各単語のベクトルを多重化してもよい。
Further, for example, the
〔4−2.装置構成〕
上述した例では、学習装置10は、学習装置10内で学習処理および測定処理を実行した。しかしながら、実施形態は、これに限定されるものではない。例えば、学習装置10は、学習処理のみを実行し、測定処理については、他の装置が実行してもよい。例えば、学習装置10が上述した学習処理によって生成した抽象概念空間をプログラムパラメータとして用いるプログラムを実行することで、学習装置10以外の情報処理装置が、上述した測定処理を実現してもよい。また、学習装置10は、正解データデータベース31や抽象概念空間データベース32を外部のストレージサーバに記憶させてもよい。
[4-2. Device configuration〕
In the above example, the
〔4−3.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文章中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[4-3. Others]
Further, among the processes described in the above-described embodiment, all or a part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above text and drawings may be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically distributed / physically in arbitrary units according to various loads and usage conditions. It can be integrated and configured.
また、上記してきた各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the above-described embodiments can be appropriately combined as long as the processing contents do not contradict each other.
〔5.プログラム〕
また、上述してきた実施形態に係る学習装置10は、例えば図8に示すような構成のコンピュータ1000によって実現される。図8は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[5. program〕
Further, the
演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD、フラッシュメモリ等により実現される。
The
出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。
The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It is realized by a standard connector such as HDMI (registered trademark) (High Definition Multimedia Interface). Further, the input IF 1070 is an interface for receiving information from
なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。
The
ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。
The network IF1080 receives data from another device via the network N and sends it to the
演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。
The
例えば、コンピュータ1000が学習装置10として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部40の機能を実現する。
For example, when the computer 1000 functions as the
〔6.効果〕
上述したように、学習装置10は、所定の構造を有する文章に含まれる単語群を抽出する。そして、学習装置10は、所定のベクトル空間上において単語群に含まれる所定の単語の概念を示すベクトルが示す位置に、単語群に含まれる他の単語のベクトルを含むベクトル空間を紐付けることで、文章が有する概念を示す抽象概念空間を学習する。このため、学習装置10は、文章に含まれる各単語の関係性の構造同士を比較可能な抽象概念空間を生成することができるので、例えば、たとえ話等、利用者の理解を援助する情報を出力することができる。
[6. effect〕
As described above, the
また、学習装置10は、学習された抽象概念空間を用いて、利用者から受け付けた文章と単語間の関係性の構造が類似する単語群を選択する。そして、学習装置10は、選択された単語群を用いて、利用者から受け付けた文章と同様の構造を有する文章を生成し、生成した文章を出力する。例えば、学習装置10は、利用者から受付けた文章が有する概念を示すたとえとして、生成した文章を出力する。このため、学習装置10は、利用者の理解を援助する情報を出力することができる。
Further, the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications are made based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. It is possible to practice the present invention in other improved forms.
また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、生成部は、生成手段や生成回路に読み替えることができる。 In addition, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the generation unit can be read as a generation means or a generation circuit.
20 通信部
30 記憶部
31 正解データデータベース
32 抽象概念空間データベース
40 制御部
41 抽出部
42 学習部
43 選択部
44 生成部
45 出力部
100 入力装置
200 情報処理装置
20
Claims (4)
前記単語群に含まれる各単語を個別にベクトル化した複数のベクトルを、前記文章において各単語が出現した順序で結合したベクトル、もしくは、前記文章において各単語が出現した順序で複数のベクトルのテンソル積となるベクトルを前記文章と対応するベクトルとして生成する生成部と、
前記生成部が文章ごとに生成したベクトル同士を比較することで、所定の文章と概念が類似する他の文章を選択する選択部と
を有することを特徴とする選択装置。 An extraction unit that extracts a group of words included in a sentence having a predetermined structure,
A plurality of vectors individually vectorized each word included before Symbol word group, vector each word in the sentence is bound in the order they appear, or a plurality of vectors in the order in which each word has appeared in the text A generator that generates a vector that is a tensor product as a vector corresponding to the sentence,
A selection device characterized in that the generation unit has a selection unit for selecting another sentence having a similar concept to a predetermined sentence by comparing the vectors generated for each sentence .
前記選択部は、前記比較対象となる複数の文章のうち、対応するベクトルが、前記利用者から受け付けた文章と対応するベクトルに類似する文章を選択する
ことを特徴とする請求項1に記載の選択装置。 The generation unit generates a vector corresponding to each sentence and having the same order for each of the sentence received from the user and the plurality of sentences to be compared.
The selection unit selects a sentence in which the corresponding vector is similar to the sentence received from the user and the corresponding vector from the plurality of sentences to be compared.
The selection device according to claim 1.
ことを特徴とする請求項2に記載の選択装置。 Selection according though showing a concept included in the sentence received from the previous SL user in claim 2, characterized in that for outputting a sentence generated using word group contained in the sentence in which the selected portion is selected apparatus.
所定の構造を有する文章に含まれる単語群を抽出する抽出工程と、
前記単語群に含まれる各単語を個別にベクトル化した複数のベクトルを、前記文章において各単語が出現した順序で結合したベクトル、もしくは、前記文章において各単語が出現した順序で複数のベクトルのテンソル積となるベクトルを前記文章と対応するベクトルとして生成する生成工程と、
前記生成工程で文章ごとに生成したベクトル同士を比較することで、所定の文章と概念が類似する他の文章を選択する選択工程と
を含むことを特徴とする選択方法。 A selection method selection device executes,
An extraction process that extracts a group of words contained in a sentence having a predetermined structure,
A plurality of vectors individually vectorized each word included before Symbol word group, vector each word in the sentence is bound in the order they appear, or a plurality of vectors in the order in which each word has appeared in the text A generation step of generating a vector to be a tensor product as a vector corresponding to the above sentence,
A selection method comprising a selection step of selecting another sentence having a similar concept to a predetermined sentence by comparing the vectors generated for each sentence in the generation step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182362A JP6775366B2 (en) | 2016-09-16 | 2016-09-16 | Selection device and selection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016182362A JP6775366B2 (en) | 2016-09-16 | 2016-09-16 | Selection device and selection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018045657A JP2018045657A (en) | 2018-03-22 |
JP6775366B2 true JP6775366B2 (en) | 2020-10-28 |
Family
ID=61695147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016182362A Active JP6775366B2 (en) | 2016-09-16 | 2016-09-16 | Selection device and selection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6775366B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7058574B2 (en) * | 2018-09-10 | 2022-04-22 | ヤフー株式会社 | Information processing equipment, information processing methods, and programs |
JP6971270B2 (en) * | 2019-02-14 | 2021-11-24 | ヤフー株式会社 | Information processing equipment, information processing methods and information processing programs |
WO2022003956A1 (en) * | 2020-07-03 | 2022-01-06 | 富士通株式会社 | Information processing program, information processing method, and information processing device |
-
2016
- 2016-09-16 JP JP2016182362A patent/JP6775366B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018045657A (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20190005399A1 (en) | Learning device, generation device, learning method, generation method, and non-transitory computer readable storage medium | |
EP3825895A1 (en) | Method and apparatus with natural language processing | |
JP6151404B1 (en) | Learning device, learning method, and learning program | |
JP6775366B2 (en) | Selection device and selection method | |
US20190354533A1 (en) | Information processing device, information processing method, and non-transitory computer-readable recording medium | |
US20230177089A1 (en) | Identifying similar content in a multi-item embedding space | |
WO2019082362A1 (en) | Word semantic relation deduction device and word semantic relation deduction method | |
CN111488742A (en) | Method and device for translation | |
JP2017199383A (en) | model | |
CN109597982A (en) | Summary texts recognition methods and device | |
CN112307738B (en) | Method and device for processing text | |
JP2019079088A (en) | Learning device, program parameter and learning method | |
JP6963988B2 (en) | Providing equipment, providing method and providing program | |
CN111126053B (en) | Information processing method and related equipment | |
JP6979899B2 (en) | Generator, learning device, generation method, learning method, generation program, and learning program | |
US20120117068A1 (en) | Text mining device | |
JP7265837B2 (en) | Learning device and learning method | |
JP2018045656A (en) | Learning device, program parameter, and learning method | |
JP2019079087A (en) | Learning device, program parameter and learning method | |
JP2019021218A (en) | Learning device, program parameter, learning method and model | |
JP7001559B2 (en) | Publishing device, publishing method and publishing program | |
CN110019096A (en) | The generation method and device of index file | |
KR102330190B1 (en) | Apparatus and method for embedding multi-vector document using semantic decomposition of complex documents | |
JP2022185799A (en) | Information processing program, information processing method and information processing device | |
Dennler et al. | The rosid tool: empowering users to design multimodal signals for human-robot collaboration |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190325 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200915 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6775366 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |