JP2019159988A - ニューラルネットワーク装置及びプログラム - Google Patents

ニューラルネットワーク装置及びプログラム Download PDF

Info

Publication number
JP2019159988A
JP2019159988A JP2018047495A JP2018047495A JP2019159988A JP 2019159988 A JP2019159988 A JP 2019159988A JP 2018047495 A JP2018047495 A JP 2018047495A JP 2018047495 A JP2018047495 A JP 2018047495A JP 2019159988 A JP2019159988 A JP 2019159988A
Authority
JP
Japan
Prior art keywords
data
similarity
input data
filter
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018047495A
Other languages
English (en)
Other versions
JP6844565B2 (ja
Inventor
智士 小出
Tomoji Koide
智士 小出
圭祐 河野
Keisuke Kono
圭祐 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2018047495A priority Critical patent/JP6844565B2/ja
Publication of JP2019159988A publication Critical patent/JP2019159988A/ja
Application granted granted Critical
Publication of JP6844565B2 publication Critical patent/JP6844565B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】複数のデータ要素が並ぶ系列データ間において、本来類似する2つの系列データの少なくとも一方においてデータ要素が挿入又は削除された場合であっても、当該2つの系列データの類似性をより的確に検出可能なニューラルネットワーク装置を提供する。【解決手段】ニューラルネットワーク14には、タンパク質を表す文字列が入力データとして入力される。類似度算出部20は、入力データの一部分である部分入力データXと、ニューラルネットワーク14のパラメータの1つであり、同じく文字列であるフィルタWとの間の類似度を算出する。具体的には、類似度算出部20は、部分入力データXとフィルタWの少なくとも一方において、少なくとも1つの文字を削除した場合の部分入力データXとフィルタWとの間の類似度も考慮して、部分入力データXとフィルタWとの間の類似度を算出する。【選択図】図1

Description

本発明は、ニューラルネットワーク装置及びプログラムに関する。
従来、データ要素が1次元に並ぶ系列データを入力データとし、入力データの中にパターンを見つけることで入力データの特徴を抽出する1次元畳み込みニューラルネットワークが提案されている。例えば、非特許文献1及び2には、系列データとしてのタンパク質を表す文字列を入力データとし、当該文字列からタンパク質の二次構造を予測する1次元畳み込みニューラルネットワークが開示されている。
また、非特許文献3には、動的時間伸縮法(Dynamic Time Warping)と呼ばれる手法により2つの系列データの間の誤差関数を算出し、当該誤差関数の偏微分を行うことで当該誤差関数の評価を行うことが開示されている。
Z. Li and Y. Yu. "Protein Secondary Structure Prediction Using Cascaded Convolutional and Recurrent Neural Networks" In Proc. IJCAI’16, pp. 2560-2567. S. Wang, J. Peng, J. Ma, and J. Xu. "Protein Secondary Structure Prediction Using Deep Convolutional Neural Fields" Scientific reports, Vol. 6, No. 18962, 2016. M. Cuturi, M. Blondel, "Soft-DTW: a Differentiable Loss Function for Time-Series" In Proc. ICML’17
1次元畳み込みニューラルネットワークにおいては、2つの系列データ間の比較を図7(a)に示すようなPosition-wise Comparionにより行っていた。Position-wise Comparionは、系列データ1及び系列データ2のi番目のデータ要素同士を順次比較するという方法である。
しかしながら、Position-wise Comparionによると、2つの系列データの少なくとも一方においてデータ要素が挿入又は削除された場合、本来類似している2つの系列データの類似度が低く判定される場合があった。例えば、図7(b)に示す通り、系列データ1及び系列データ2は本来類似する系列データであるが、系列データ1の2番目に外乱要素である文字「L」が挿入されたものである。この場合、図7(a)に示すようなPosition-wise Comparionによると、系列データ1と系列データ2との間で、2〜4番目の文字がいずれも異なるため、系列データ1と系列データ2との間の類似度が低く誤判定されてしまう。
本発明の目的は、複数のデータ要素が並ぶ系列データ間において、本来類似する2つの系列データの少なくとも一方においてデータ要素が挿入又は削除された場合であっても、当該2つの系列データの類似性をより的確に検出可能なニューラルネットワーク装置を提供することにある。
本発明は、複数のデータ要素が並ぶ系列データである入力データが入力されるニューラルネットワーク装置であって、前記入力データの少なくとも一部分である部分入力データと、複数のデータ要素が並ぶ系列データであるフィルタとの間の系列データ類似度を算出する類似度算出部であって、前記部分入力データ及び前記フィルタの少なくとも一方において、少なくとも1つの前記データ要素を削除した場合の、前記部分入力データと前記フィルタとの間の類似度に基づいて、前記系列データ類似度を算出する類似度算出部と、前記部分入力データと前記フィルタとの間の前記系列データ類似度に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する学習部と、を備えることを特徴とするニューラルネットワーク装置である。
望ましくは、前記類似度算出部は、前記部分入力データに含まれる各データ要素を比較入力データ要素列に加える処理、及び、前記フィルタに含まれる各データ要素を比較フィルタ要素列に加える処理の少なくとも一方を実行して前記比較入力データ要素列と前記比較フィルタ要素列との間の類似度である中間類似度を算出する処理を、順次、前記部分入力データ及び前記フィルタの並びにおける最初から最後まで繰り返すことで前記系列データ類似度を算出し、各中間類似度の算出処理において、前記データ要素を前記比較入力データ要素列及び前記比較フィルタ要素列の双方に追加する場合と、前記データ要素を前記比較入力データ要素列に追加せず前記比較フィルタ要素列に追加する場合と、前記データ要素を前記比較入力データ要素列に追加し前記比較フィルタ要素列に追加しない場合それぞれの前記比較入力データ要素列と前記比較フィルタ要素列との間の類似度のうち、最も大きい類似度を前記中間類似度として算出する、ことを特徴とする。
望ましくは、前記類似度算出部は、前記比較入力データ要素列及び前記比較フィルタ要素列のいずれかに前記データ要素を追加しない場合に、データ要素の削除に要するコストである削除コストを考慮して、前記中間類似度を算出する、ことを特徴とする。
望ましくは、前記学習部は、前記部分入力データ、前記フィルタ、及び前記削除コストに関する前記系列データ類似度に関する偏微分に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する、ことを特徴とする。
また、本発明は、コンピュータを、複数の入力データ要素が並ぶ系列データである入力データが入力されるニューラルネットワーク装置であって、前記入力データの少なくとも一部分である部分入力データと、複数のデータ要素が並ぶ系列データであるフィルタとの間の系列データ類似度を算出する類似度算出部であって、前記部分入力データ及び前記フィルタの少なくとも一方において、少なくとも1つの前記データ要素を削除した場合の、前記部分入力データと前記フィルタとの間の類似度に基づいて、前記系列データ類似度を算出する類似度算出部と、前記部分入力データと前記フィルタとの間の前記系列データ類似度に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する学習部と、を備えるニューラルネットワーク装置として機能させることを特徴とするプログラムである。
本発明によれば、複数のデータ要素が並ぶ系列データ間において、本来類似する2つの系列データの少なくとも一方においてデータ要素が挿入又は削除された場合であっても、当該2つの系列データの類似性をより的確に検出可能なニューラルネットワーク装置を提供することができる。
本実施形態に係るニューラルネットワーク装置の構成概略図である。 入力データ及びフィルタの例を示す図である。 系列データ類似度の計算アルゴリズムである。 系列データ類似度の計算アルゴリズムで用いられる行列Sの内容を示す図である。 系列データ類似度に関する偏微分計算に必要な行列Rの計算アルゴリズムである。 系列データ類似度に関する偏微分計算に必要な行列Pの計算アルゴリズムである。 Position-wise Comparisonを説明するための図である。
以下、本発明の実施形態について説明する。
図1には、本実施形態に係るニューラルネットワーク装置10の構成概略図が示されている。本実施形態におけるニューラルネットワーク装置10はサーバコンピュータであるが、ニューラルネットワーク装置10としては、以下に説明する機能を発揮する限りにおいてどのような装置であってもよい。
ニューラルネットワーク装置10は、後述するニューラルネットワーク14を用いて、複数のデータ要素が並ぶ系列データである入力データと、同じく複数のデータ要素が並ぶ系列データであるフィルタ(後述のようにこれはニューラルネットワーク14のパラメータの1つである)との間の類似度である系列データ類似度を算出しながら、ニューラルネットワーク14に関するパラメータの学習、あるいは、入力データの特徴の抽出を行うものである。
本実施形態においては、ニューラルネットワーク装置10は、タンパク質を表す文字列を入力データとし、当該文字列をニューラルネットワーク14に入力することで、タンパク質を表す文字列に含まれる特徴的な部分(文字配列)に基づいて、当該タンパク質の二次構造を予測する。ここで、タンパク質は、20種類のアミノ酸の1次元の列で表現されており、各アミノ酸は「A」、「R」、あるいは「N」などの文字で表される。タンパク質の二次構造とは、数個から20個程度のアミノ酸によって構成される立体構造であり、α-helixやβ-sheetなどの8種類に分類することができる。
具体的には、ニューラルネットワーク装置10の入力データは、
x=x,x,・・・x
と表すことができる。なお、Tは入力データの長さ(文字数)である。各xは20種類のアミノ酸を表す文字のいずれかである。ニューラルネットワーク14は、入力データの各位置のラベル(タンパク質の二次構造を示すラベル)の予測値を出力する。ここで、入力データの各位置のラベルの予測値は、
y=y,y,・・・y
で表される。
記憶部12は、例えばハードディスク、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成される。図1に示す通り、記憶部12には、ニューラルネットワーク14が記憶される。なお、ニューラルネットワーク14の実体は、ニューラルネットワーク14に関する各種パラメータ(上述のフィルタあるいは後述の削除コストGを含む)、及び、入力データに対して処理を行うための処理実行プログラムである。したがって、記憶部12にニューラルネットワーク14が記憶されるとは、上記各種パラメータ及び処理実行プログラムが記憶部12に記憶されることを意味する。
通信部16は、例えばネットワークアダプタなどを含んで構成される。通信部16は、LAN(Local Area Network)やインターネットなどの通信回線を介して他の装置と通信する機能を発揮する。例えば、通信部16は、ニューラルネットワーク装置10における処理結果を示す結果情報を他の装置に送信する。
制御部18は、例えばCPU(Central Processing Unit)などを含んで構成され、ニューラルネットワーク装置10の各部を制御する。特に、制御部18は、記憶部12に記憶されたニューラルネットワーク14の処理プログラムを実行することにより、図1に示すように、類似度算出部20、予測部22、及び学習部24としても機能する。
類似度算出部20は、入力データの少なくとも一部分である部分入力データと、上述のフィルタとの間の類似度である系列データ類似度を算出する。本実施形態では、入力データはタンパク質を表す文字列(アミノ酸列)であるから、部分入力データは当該文字列の一部分(なお全部であってもよい)ということになる。フィルタも文字列(アミノ酸列)である。フィルタとしては、入力データから抽出したい文字列が設定される。なお、フィルタは複数設けられてもよい。
予測部22は、類似度算出部20が算出した部分入力データとフィルタとの間の系列データ類似度に基づいて、入力データの各データ要素のラベルを予測する。本実施形態では、予測部22は、タンパク質を表す文字列に含まれる各文字(アミノ酸)に対する、タンパク質の二次構造を予測する。
学習部24は、類似度算出部20が算出した部分入力データとフィルタとの間の系列データ類似度に基づいて、ニューラルネットワーク14に関する各パラメータを学習する。
類似度算出部20、予測部22、及び学習部24の処理の詳細については後述する。
ニューラルネットワーク装置10の構成概要は以上の通りである。なお、ニューラルネットワーク装置10がサーバ以外のコンピュータ(例えばパーソナルコンピュータ)などである場合には、上述の構成要件に加え、例えばキーボードあるいはマウスなどを含んで構成されユーザの指示をニューラルネットワーク装置10に入力するための入力部、あるいは、液晶パネルなどを含んで構成され制御部18の処理結果を表示する表示部などが含まれていてもよい。
以下、類似度算出部20及び予測部22の処理の詳細について説明する。
本実施形態においては、入力データとしてのタンパク質の文字列は、20種類の文字から構成される文字列である。類似度算出部20は、20種類の文字をそれぞれd次元のベクトル(特徴ベクトル)で表現する。これにより、文字列である入力データは、d次元ベクトル列に変換される。なお、d次元への変換は所定の方法により実行するようにしてよい。
例えば、図2(a)に示される通り、入力データである「A,L,C,K,M,V,・・・」が、d次元ベクトル列「e,e,e,e,e,e,・・・,e」に変換される。
同様に、本実施形態においては、ニューラルネットワーク14のフィルタも、20種類の文字から構成される文字列である。類似度算出部20は、入力データ同様に、20種類の文字がそれぞれd次元のベクトル(特徴ベクトル)で表現されたフィルタを用いる。
例えば、図2(b)に示される通り、「A,C,K,G,・・・」が、d次元のベクトル列「W(1),W(2),W(3),W(4),・・・,W(M)」で表現されたフィルタを用いる。なお、Mはフィルタの長さ(文字数)である。
本実施形態では、複数のフィルタが用意される。各フィルタをW,W,・・・Wで表す。Jはフィルタの個数である。
本実施形態では、入力データの位置iを中心とした幅Nの窓を考え、当該窓に含まれる文字列が部分入力データとなる。したがって、部分入力データは、
Figure 2019159988
で表される。
類似度算出部20は、部分入力データXと、フィルタWとの間の系列データ類似度Sim(X,W)を算出する。上述の通り、フィルタは複数用意されることから、類似度算出部20は、部分入力データXと各フィルタW(jは1〜J)との間で複数の系列データ類似度Z(j)=Sim(X,W)(1≦j≦J)が算出される。なお、系列データ類似度は実数値である。Sim(X,W)については後述する。
算出した複数の系列データ類似度Z(j)=Sim(X,W)(1≦j≦J)は、J次元のベクトルとみなすことができる。また、部分入力データXは入力データにおける位置iを中心としていたので、各i(iは1〜N)でJ次元のベクトルZが算出され、J次元ベクトル列Z (j)が形成されることになる。なお、J次元ベクトル列は
(j)=Z (j),Z (j),・・・Z (j)
である。ここで、各フィルタWは各位置iで共通したものが用いられる。
上述の処理によって、入力データx,x,・・・xがJ次元ベクトル列Z,Z,・・・Zに変換される。
予測部22は、入力データの各位置iについてそれぞれ算出された複数の系列データ類似度(J次元ベクトル列)Z (j)に基づいて入力データ各位置(各文字)iのラベルyを予測する。ラベルyを予測する方法は種々の方法が用いられてよいが、本実施形態では、複数の系列データ類似度Z (j)を入力とする多層の全結合ニューラルネットワークを用いて予測する。あるいは、リカレントニューラルネットワークを用いて、複数の系列データ類似度Z (j)を新しい系列データZ’に変換した後に、上記の全結合ニューラルネットワークを用いて予測するようにしてもよい。
上記の全結合ニューラルネットワークあるいはリカレントニューラルネットワークは、記憶部12に記憶されて(ニューラルネットワーク14に含まれて)いてもよいし、それとは別に用意されてもよい。また、予測部22及び上記の全結合ニューラルネットワークあるいはリカレントニューラルネットワークをニューラルネットワーク装置10以外の装置に設ける実施形態も採用し得る。
以下、類似度算出部20によるSim(X,W)の詳細な算出方法について説明する。上述の通り、部分入力データXは長さNのd次元ベクトル列であり、フィルタW(ここでは1つのフィルタWに着目する)は長さMのd次元ベクトル列であり、Sim(X,W)は部分入力データXとフィルタWとの間の系列データ類似度である。以後、X(t)を部分入力データXのt番目のベクトルとし、W(s)をフィルタWのs番目のベクトルとする。
図3に、系列データ類似度の計算アルゴリズム30が示されている。図3に示す計算アルゴリズム30は、(N+1)行(M+1)列の行列Sに対して再帰的な計算を行うアルゴリズムである。具体的には、行列Sの各成分の値を左上(1行1列)から右下(N行M列)に対して算出していくような手続きになっている。
行列Sが図4に示されている。行列Sの各成分の値であるS(t,s)は、部分入力データX(1:t)と、フィルタW(1:s)との間の類似度を表している。なお、X(1:t)は、部分入力データの1番目からt番目までのベクトル列(データ要素列)であり、W(1:s)は、フィルタWの1番目からs番目までのベクトル列である。
計算アルゴリズム30の概要を説明すると、類似度算出部20は、部分入力データXに含まれる各ベクトル(各データ要素)を比較入力ベクトル列(比較入力データ要素列)に加える処理、及び、フィルタWに含まれる各ベクトルを比較フィルタベクトル列(比較フィルタ要素列)に加える処理の少なくとも一方を実行して比較入力ベクトル列と前記比較フィルタベクトル列との間の類似度である中間類似度を算出する処理を、順次、部分入力データX及びフィルタWにおけるデータ要素の並びの最初から最後まで繰り返すことによって、最終的に得られた中間類似度をSim(X,W)とする。
以下、図4を参照しながら、図3に示す計算アルゴリズム30の詳細を説明する。
計算アルゴリズム30のブロック32においては、行列Sの第0行目の各成分を初期化する処理を行っている。具体的には、行列Sの第0行目のs(sは0からM)列に対して値−sGを入力する。ここで、Gは、部分入力データXあるいはフィルタWの1つのベクトル(データ要素)を削除するために必要なコストを表す値である。Gは学習部24による学習対象となるニューラルネットワーク14のパラメータである。
計算アルゴリズム30のブロック34においては、行列Sの第0列目の各成分を初期化する処理を行っている。具体的には、行列Sの第0列目のt(tは1からN)列に対して値−tGを入力する。
計算アルゴリズム30のブロック36においては、行列Sのその余の成分の値であるS(t,s)を算出する処理を行っている。具体的には、ブロック36に示される通り、max関数によって、3つの要素のうち最大の値を取る要素がS(t,s)として算出される。3つの要素は、第1要素として
S(t−1,s−1)+VecSim(X(t),W(s))、
第2要素として
S(t−1,s)−G、
第3要素として
S(t,s−1)−G
である。
ここで、行列Sの3行3列目の成分40を算出する場合を例に、上記の第1〜第3要素について説明する。なお、上述の通り、部分入力データXは
X(1),X(2),X(3),・・・,X(N)
であり、
フィルタWは
W(1),W(2),W(3),・・・,W(M)
である。
第1要素のうち、第1項は、部分入力データX(1:t−1)とフィルタW(1:s−1)の類似度を表している。本例では、X(1),X(2)のベクトル列と、W(1),W(2)のベクトル列との類似度である。
第1要素の第2項であるVecSim(X(t),W(s))は、X(t)とW(s)との類似度を算出するための関数である。例えば、VecSimは、ベクトルX(t)とベクトルW(s)の内積を算出する関数であってよい。本例では、VecSim(X(t),W(s))は、ベクトルX(3)とベクトルW(3)との類似度を表すものである。
つまり、第1要素は、X(1),X(2)のベクトル列と、W(1),W(2)のベクトル列との類似度に、ベクトルX(3)とベクトルW(3)との類似度を加算したものである。これは、X(1),X(2)のベクトル列に新たなベクトルX(3)が追加された比較入力ベクトル列と、W(1),W(2)のベクトル列に新たなベクトルW(3)が追加された比較フィルタベクトル列との間の類似度に相当する。第1要素は、部分入力データXとフィルタWの双方においてベクトルを削除しないケースに対応する。
第2要素の第1項は、部分入力データX(1:t−1)とフィルタW(1:s)の類似度を表している。本例では、X(1),X(2)のベクトル列と、W(1),W(2),W(3)のベクトル列との類似度である。これは、X(1),X(2)のベクトル列に新たなベクトルX(3)が追加されなかった比較入力ベクトル列と、W(1),W(2)のベクトル列に新たなベクトルW(3)が追加された比較フィルタベクトル列との間の類似度である。第2要素は、フィルタWの1つのベクトルを削除(スキップ)、すなわち系列データ類似度の算出のために考慮しないケースに対応する。
第2要素の第2項である−Gは、上述の通り、フィルタWの1つのベクトルを削除するために必要なコストである。上述のように、第2要素においては、フィルタWの1つのベクトルが削除されるため、削除コストを差し引いた値を算出している。
第3要素の第1項は、部分入力データX(1:t)とフィルタW(1:s−1)の類似度を表している。本例では、X(1),X(2),X(3)のベクトル列と、W(1),W(2)のベクトル列との類似度である。これは、X(1),X(2)のベクトル列に新たなベクトルX(3)が追加された比較入力ベクトル列と、W(1),W(2)のベクトル列に新たなベクトルW(3)が追加されなかった比較フィルタベクトル列との間の類似度である。第3要素は、部分入力データXの1つのベクトルを削除(スキップ)、すなわち系列データ類似度の算出のために考慮しないケースに対応する。
第3要素の第2項である−Gは、上述の通り、部分入力データXの1つのベクトルを削除するために必要なコストである。上述のように、第3要素においては、部分入力データXの1つのベクトルが削除されるため、削除コストを差し引いた値を算出している。
max関数によって、第1〜第3要素のうち最大の値を取る要素が中間類似度S(t,s)として算出される。換言すれば、類似度算出部20は、中間類似度S(t,s)の算出処理において、ベクトルX(t)を比較入力ベクトル列に追加し、且つ、ベクトルW(s)を比較フィルタベクトル列に追加した場合と、ベクトルX(t)を比較入力ベクトル列に追加せずベクトルW(s)を比較フィルタベクトル列に追加した場合と、ベクトルX(t)を比較入力ベクトル列に追加しベクトルW(s)を比較フィルタベクトル列に追加しない場合それぞれの比較入力ベクトル列と比較フィルタベクトル列との間の類似度のうち、最も大きい類似度を中間類似度S(t,s)として算出する。
なお、計算アルゴリズム30ではmax関数が用いられているが、第1〜第3要素のうち最大の値を取る限りにおいて他の関数が用いられてもよい。例えば、max関数に代えて、微分可能なソフトマックス関数を用いてもよい。ソフトマックス関数は、以下の式で表される。
Figure 2019159988
本実施形態では、ソフトマックス関数が用いられる。
ブロック36の処理によって、行列S(図4参照)の各成分の値が算出されていき、最終的にN行M列の成分42の値であるS(N,M)が算出される。計算アルゴリズム30のブロック38においては、当該S(N,M)が、部分入力データXとフィルタWとの間の系列データ類似度Sim(X,W)として出力される。
なお、本実施形態におけるSim(X,W)の算出方法は、部分入力データXとフィルタWの長さが同じ(N=M)であり、且つ、削除コストGが十分に大きい(G→∞)である場合、標準的なベクトルの類似度関数である内積に一致する。すなわち、本実施形態におけるSim(X,W)の算出方法は、内積を類似度関数とする畳み込みニューラルネットワークを一般化したものとなっている。
上述のように、本実施形態においては、類似度算出部20は、部分入力データXとフィルタWの少なくとも一方において、少なくとも1つのベクトル(X(t)又はW(s))を削除した場合の部分入力データXとフィルタWとの間の類似度に基づいて、部分入力データXとフィルタWとの間の系列データ類似度を算出する。
本実施形態によれば、部分入力データXとフィルタWの少なくとも一方においてデータ要素が挿入又は削除された場合であっても、当該挿入又は削除されたデータ要素を考慮した上で、的確に部分入力データXとフィルタWとの間の類似度を算出することができる。これにより、ニューラルネットワーク14としては、従来よりも好適にラベルの予測あるいは学習を行うことができる。
特に、タンパク質を表す文字列は、進化の過程において文字列中のある文字が欠損したり、新たに挿入されたりする場合がある。したがって、本実施形態に係るニューラルネットワーク14は、特に、タンパク質の二次構造の予測に適しているといえる。すなわち、ニューラルネットワーク14によれば、欠損あるいは挿入された文字(アミノ酸)を考慮した上で、フィルタとのより自然な類似度が算出され、ひいては、タンパク質の二次構造の予測精度が向上する。
タンパク質の二次構造の予測結果に関して、十分に学習した従来の1次元畳み込みニューラルネットワークにおいては、学習データに対する予測精度が44.19%であり、未知データに対する予測精度が42.05%であったところ、十分に学習した本実施形態に係るニューラルネットワーク14においては、学習データに対する予測精度が44.93%であり、未知データに対する予測精度が42.97%となった。
以下、学習部24の処理の詳細について説明する。
ニューラルネットワーク14に関するパラメータの学習は、入力データと、入力データの特徴が既知である学習データに基づいて行う。本実施形態では、入力データがタンパク質を表す文字列であるので、当該文字列と、各文字に対するラベル(タンパク質の二次構造)が既知のデータを学習データとして用いる。
学習部24は、学習データにフィッティングするようにニューラルネットワーク14に関する各パラメータを学習(更新)する。具体的には、損失関数をパラメータに関して微分し、損失が小さくなる方向にパラメータを更新していく。学習の具体的な方法としては、例えば確率勾配法などがあるが、その他の方法であってもよい。
本実施形態では、学習部24は、Sim(X,W)を、部分入力データX、フィルタW、及び削除コストGに関する偏微分に基づいて、ニューラルネットワーク14に関する各パラメータ(すなわち部分入力データX、フィルタW、及び削除コストG)を学習する。これによれば、偏微分の連鎖律によって損失関数をニューラルネットワーク14の各パラメータに関して偏微分することが可能になり、損失が小さくなる方向に各パラメータを更新することが可能になる。
Sim(X,W)の部分入力データX、フィルタW、及び削除コストGに関する偏微分を計算するためには、Sim(X,W)を計算するために用いられた行列S(図4参照)、及び、新たな行列R及び行列Pが必要となる。
行列Rの計算アルゴリズム50が図5に示されている。計算アルゴリズム50のブロック52においては、sがMから1まで1つずつ減っていき、tがNから1まで1つずつ減っていく。すなわち、行列Sの計算とは逆に、行列Rの各成分の値の計算は、行列Rの右下から左上に向かって行われることになる。ブロック52で算出される行列Rの各成分の値R(t,s)は、
Figure 2019159988
を意味する。
また、行列Pの計算アルゴリズム60が図6に示されている。計算アルゴリズム60のブロック62においては、sが1からMまで1つずつ増加していき、tが1からNまで1つずつ増加していく。すなわち、行列Pの計算においては、行列Pの各成分の値の計算は、行列Pの左上から右下に向かって行われることになる。計算アルゴリズム60の戻り値P(N,M)は、
Figure 2019159988
を意味する。
計算アルゴリズム50の計算結果から、Sim(X,W)の部分入力データX、フィルタW、及び削除コストGに関する偏微分は以下のように計算できる。
Figure 2019159988
Figure 2019159988
Figure 2019159988
ただし、
Figure 2019159988
である。
ここで、類似度が内積で表現できる場合、すなわち
Figure 2019159988
のケースを考えると
Figure 2019159988
Figure 2019159988
となる。
以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
例えば、上記実施形態においては、入力データとしてタンパク質を表す文字列を用いたが、入力データとしてはその他の系列データを用いるようにしてもよい。
例えば、塩基配列を入力データとして用い、ニューラルネットワーク装置10を用いて遺伝子の機能予測をしてもよい。また、音声波形を入力データとして用い、ニューラルネットワーク装置10を用いて音声認識を行ってもよい。あるいは、文字列を入力データとして用い、ニューラルネットワーク装置10を用いて当該文字列に対する自然言語処理を行うようにしてもよい。
10 ニューラルネットワーク装置、12 記憶部、14 ニューラルネットワーク、16 通信部、18 制御部、20 類似度算出部、22 予測部、24 学習部。

Claims (5)

  1. 複数のデータ要素が並ぶ系列データである入力データが入力されるニューラルネットワーク装置であって、
    前記入力データの少なくとも一部分である部分入力データと、複数のデータ要素が並ぶ系列データであるフィルタとの間の系列データ類似度を算出する類似度算出部であって、前記部分入力データ及び前記フィルタの少なくとも一方において、少なくとも1つの前記データ要素を削除した場合の、前記部分入力データと前記フィルタとの間の類似度に基づいて、前記系列データ類似度を算出する類似度算出部と、
    前記部分入力データと前記フィルタとの間の前記系列データ類似度に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する学習部と、
    を備えることを特徴とするニューラルネットワーク装置。
  2. 前記類似度算出部は、前記部分入力データに含まれる各データ要素を比較入力データ要素列に加える処理、及び、前記フィルタに含まれる各データ要素を比較フィルタ要素列に加える処理の少なくとも一方を実行して前記比較入力データ要素列と前記比較フィルタ要素列との間の類似度である中間類似度を算出する処理を、順次、前記部分入力データ及び前記フィルタの並びにおける最初から最後まで繰り返すことで前記系列データ類似度を算出し、各中間類似度の算出処理において、前記データ要素を前記比較入力データ要素列及び前記比較フィルタ要素列の双方に追加する場合と、前記データ要素を前記比較入力データ要素列に追加せず前記比較フィルタ要素列に追加する場合と、前記データ要素を前記比較入力データ要素列に追加し前記比較フィルタ要素列に追加しない場合それぞれの前記比較入力データ要素列と前記比較フィルタ要素列との間の類似度のうち、最も大きい類似度を前記中間類似度として算出する、
    ことを特徴とする請求項1に記載のニューラルネットワーク装置。
  3. 前記類似度算出部は、前記比較入力データ要素列及び前記比較フィルタ要素列のいずれかに前記データ要素を追加しない場合に、データ要素の削除に要するコストである削除コストを考慮して、前記中間類似度を算出する、
    ことを特徴とする請求項1又は2に記載のニューラルネットワーク装置。
  4. 前記学習部は、前記部分入力データ、前記フィルタ、及び前記削除コストに関する前記系列データ類似度に関する偏微分に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する、
    ことを特徴とする請求項1から3のいずれか1項に記載のニューラルネットワーク装置。
  5. コンピュータを、
    複数の入力データ要素が並ぶ系列データである入力データが入力されるニューラルネットワーク装置であって、
    前記入力データの少なくとも一部分である部分入力データと、複数のデータ要素が並ぶ系列データであるフィルタとの間の系列データ類似度を算出する類似度算出部であって、前記部分入力データ及び前記フィルタの少なくとも一方において、少なくとも1つの前記データ要素を削除した場合の、前記部分入力データと前記フィルタとの間の類似度に基づいて、前記系列データ類似度を算出する類似度算出部と、
    前記部分入力データと前記フィルタとの間の前記系列データ類似度に基づいて、前記ニューラルネットワーク装置に関するパラメータを学習する学習部と、
    を備えるニューラルネットワーク装置として機能させることを特徴とするプログラム。
JP2018047495A 2018-03-15 2018-03-15 ニューラルネットワーク装置及びプログラム Active JP6844565B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018047495A JP6844565B2 (ja) 2018-03-15 2018-03-15 ニューラルネットワーク装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018047495A JP6844565B2 (ja) 2018-03-15 2018-03-15 ニューラルネットワーク装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019159988A true JP2019159988A (ja) 2019-09-19
JP6844565B2 JP6844565B2 (ja) 2021-03-17

Family

ID=67993633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018047495A Active JP6844565B2 (ja) 2018-03-15 2018-03-15 ニューラルネットワーク装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6844565B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111027681A (zh) * 2019-12-09 2020-04-17 腾讯科技(深圳)有限公司 时序数据处理模型训练方法、数据处理方法、装置及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093490A (ja) * 2007-10-10 2009-04-30 Mitsubishi Electric Corp 年齢推定装置及びプログラム
JP2013077194A (ja) * 2011-09-30 2013-04-25 Hiroshi Sugimura 知識を活用する情報システム装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009093490A (ja) * 2007-10-10 2009-04-30 Mitsubishi Electric Corp 年齢推定装置及びプログラム
JP2013077194A (ja) * 2011-09-30 2013-04-25 Hiroshi Sugimura 知識を活用する情報システム装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111027681A (zh) * 2019-12-09 2020-04-17 腾讯科技(深圳)有限公司 时序数据处理模型训练方法、数据处理方法、装置及存储介质
CN111027681B (zh) * 2019-12-09 2023-06-27 腾讯科技(深圳)有限公司 时序数据处理模型训练方法、数据处理方法、装置及存储介质

Also Published As

Publication number Publication date
JP6844565B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
US11232141B2 (en) Method and device for processing an electronic document
CN107506414A (zh) 一种基于长短期记忆网络的代码推荐方法
CN113010683B (zh) 基于改进图注意力网络的实体关系识别方法及***
CN109977394B (zh) 文本模型训练方法、文本分析方法、装置、设备及介质
CN113705092B (zh) 基于机器学习的疾病预测方法及装置
CN107977456A (zh) 一种基于多任务深度网络的多源大数据分析方法
Karrar The effect of using data pre-processing by imputations in handling missing values
CN115409111A (zh) 命名实体识别模型的训练方法和命名实体识别方法
CN109063418A (zh) 疾病预测分类器的确定方法、装置、设备及可读存储介质
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
EP4097630B1 (en) Math detection in handwriting
CN111259176B (zh) 融合有监督信息的基于矩阵分解的跨模态哈希检索方法
JP6844565B2 (ja) ニューラルネットワーク装置及びプログラム
JP4268500B2 (ja) プロセスの状態類似事例検索方法および状態予測方法並びに記憶媒体
CN115472257A (zh) 一种招募用户的方法、装置、电子设备及存储介质
Shubh et al. Handwriting recognition using deep learning
Xavier et al. Genome assembly using reinforcement learning
Karpukhin et al. HoTPP Benchmark: Are We Good at the Long Horizon Events Forecasting?
US20230368920A1 (en) Learning apparatus, mental state sequence prediction apparatus, learning method, mental state sequence prediction method and program
US20230146635A1 (en) Method and Systems for Conditioning Data Sets for Efficient Computational Processing
RU2823914C2 (ru) Способ и система извлечения именованных сущностей
US12072957B2 (en) Data classification system, data classification method, and recording medium
JP6980616B2 (ja) 計算機システム及び学習方法
JP4440828B2 (ja) 類似事例に基づく予測を行う予測装置および方法
JPH07191967A (ja) 関数近似装置及び電力需要予測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210208

R150 Certificate of patent or registration of utility model

Ref document number: 6844565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150