JP2006259775A - Encrypting system and decrypting system using chaos neural network - Google Patents

Encrypting system and decrypting system using chaos neural network Download PDF

Info

Publication number
JP2006259775A
JP2006259775A JP2006170667A JP2006170667A JP2006259775A JP 2006259775 A JP2006259775 A JP 2006259775A JP 2006170667 A JP2006170667 A JP 2006170667A JP 2006170667 A JP2006170667 A JP 2006170667A JP 2006259775 A JP2006259775 A JP 2006259775A
Authority
JP
Japan
Prior art keywords
neural network
storage unit
plaintext
neurons
chaos
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006170667A
Other languages
Japanese (ja)
Inventor
Tomoaki Yoshida
等明 吉田
Akira Kawamura
暁 川村
Mamoru Miura
守 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2006170667A priority Critical patent/JP2006259775A/en
Publication of JP2006259775A publication Critical patent/JP2006259775A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an encrypting system and a decrypting system using a chaos neural network. <P>SOLUTION: A plaintext to be encrypted which is stored in a plaintext storing part 10 is fetched. A ciphertext is obtained by operating the plaintext and an output from the chaos neural network 120 in a computing element 110 and can be stored in a ciphertext storing section 20. At this time, an external input value to the chaos neural network 120 can be used as a secret key. In the case of decrypting the ciphertext obtained in this way and stored in the ciphertext storing section 20, a chaos neural network 220 having the same configuration and the same condition (the same external input value as the secret key) as those of the network 120 used for creating the ciphertext is used, and a computing element 210 performs decryption by performing an operation inverse to that of the computing element 110 to the output from the neural network 220 and the ciphertext fetched from the ciphertext storing section 20. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、暗号化およびその復号の技術に関し、特に暗号化および復号をカオス・ニューラルネットワークを用いて行う技術に関する。   The present invention relates to an encryption and decryption technique, and more particularly to an encryption and decryption technique using a chaotic neural network.

技術背景Technical background

インターネットに代表されるオープンなネットワークの利用が、情報社会の一つの象徴になりつつある。このような動きは1960年代終わりからの、コンピュータを通信回線(ネットワーク)と結合して利用しようとした流れの発展形態として捉えられる。
オープンなネットワークを用いる場合、もっとも配慮しなければならないのはディジタル化された情報をいかに保護するかという技術・方法である。このような技術・方法は情報セキュリティ技術といわれるが、この中でもデータ秘匿の手段としての暗号とその応用が重要な要素技術である。
現代の暗号理論は,1970年のDESに代表される共通鍵暗号方式や、1976年のDiffe-Hellmanによる公開鍵暗号による共通鍵の配送法の発明以来、急速に進展している。
The use of open networks such as the Internet is becoming a symbol of the information society. Such a movement can be seen as a development of the flow of attempts to connect computers with communication lines (networks) since the late 1960s.
When using an open network, the most important thing to consider is how to protect the digitized information. Such techniques and methods are called information security techniques. Among them, encryption as a data concealment means and its application are important elemental techniques.
Modern cryptography has been advancing rapidly since the invention of the common key cryptosystem represented by DES in 1970 and the common key distribution method by public key cryptography by Diffe-Hellman in 1976.

本発明の目的は、従来暗号の基礎理論として用いられてきた組み合わせ論や整数論の問題に基づいた方式(素因数分解や離散対数問題)とは異なる、特異なカオス力学系であるカオス・ニューラルネットワークを用いた暗号化および復号のシステムを提供することである。また、このシステムは、カオス・ニューラルネットワークへの外部入力を秘密鍵とする共通鍵暗号のシステムである。   The object of the present invention is a chaotic neural network which is a peculiar chaotic dynamical system, which is different from methods (primary factorization and discrete logarithm problems) based on combinatorial theory and number theory problems that have been used as basic theory of cryptography. It is an object to provide an encryption and decryption system using the. This system is a common key cryptosystem that uses an external input to a chaos neural network as a secret key.

上記目的を達成するために、本発明は、暗号化システムであって、暗号化対象のテキストを記憶した平文記憶部と、複数のニューロンで構成され、2つのニューロンを相互に接続した基本構成を少なくとも1つ含むカオス・ニューラルネットワークと、前記カオス・ニューラルネットワークからの出力と、前記平文記憶部から順次読み出した少なくとも1字以上の文字とを演算する演算部と、前記演算した結果の暗文を記憶する暗文記憶部とを備え、前記カオス・ニューラルネットワークを構成する前記複数のニューロンに対する外部入力を暗号化の鍵とすることを特徴とする暗号化システムである。
そして、このカオス・ニューラルネットワークは、2つのニューロンを相互に接続した1つの基本構成と、前記基本構成と接続された少なくとも1つのニューロンとで構成することもできる。
前記演算部は、前記平文記憶部から1文字ずつ取り出し、前記カオス・ニューラルネットワークを構成するニューロンの1つからの遷移ごとの出力を整数化して、前記平文記憶部から取り出した1文字と演算することにより、暗号化することができる。
In order to achieve the above object, the present invention provides an encryption system having a basic configuration in which a plaintext storage unit storing a text to be encrypted and a plurality of neurons are connected to each other. A chaotic neural network including at least one; an output from the chaotic neural network; an arithmetic unit that calculates at least one character sequentially read from the plaintext storage unit; An encryption system comprising: an encrypted text storage unit for storing, wherein an external input to the plurality of neurons constituting the chaotic neural network is used as an encryption key.
The chaotic neural network can be composed of one basic configuration in which two neurons are connected to each other and at least one neuron connected to the basic configuration.
The computing unit extracts characters one by one from the plaintext storage unit, converts an output for each transition from one of the neurons constituting the chaotic neural network into an integer, and calculates the single character extracted from the plaintext storage unit Thus, encryption can be performed.

上述の暗号化システムにより暗号化された暗文を復号する復号システムも本発明であって、復号対象のテキストを記憶した暗文記憶部と、暗文を作成したカオス・ニューラルネットワークと同じ、複数のニューロンで構成され、2つのニューロンを相互に接続した基本構成を少なくとも1つ含むカオス・ニューラルネットワークと、前記カオス・ニューラルネットワークからの出力と、前記暗文記憶部から順次読み出した少なくとも1字以上の文字とを演算する演算部と、前記演算した結果の平文を記憶する平文記憶部とを備え、前記カオス・ニューラルネットワークを構成する各ニューロンへの外部入力を複号化の鍵としたことを特徴とする復号システムである。
前記演算部は、前記暗文記憶部から1文字ずつ取り出し、前記カオス・ニューラルネットワークを構成するニューロンの1つからの遷移ごとの出力を整数化して、前記暗文記憶部から取り出した1文字と演算することができる。
上述の暗号化システム又は復号システムをコンピュータ・システムに構築させることができるプログラムを格納した記録媒体も本発明である。
The decryption system for decrypting the ciphertext encrypted by the above-described encryption system is also the present invention, and is the same as the ciphertext storage unit storing the text to be decrypted and the chaotic neural network that created the ciphertext. A chaotic neural network including at least one basic configuration in which two neurons are connected to each other, an output from the chaotic neural network, and at least one character read sequentially from the memorized text storage unit And a plaintext storage unit for storing the plaintext of the calculation result, and the external input to each neuron constituting the chaos neural network is a key for decoding. This is a featured decoding system.
The arithmetic unit extracts one character at a time from the text storage unit, converts an output for each transition from one of the neurons constituting the chaotic neural network into an integer, and extracts one character from the text storage unit. It can be calculated.
A recording medium storing a program that allows a computer system to construct the above-described encryption system or decryption system is also the present invention.

上述のように、本発明のカオス・ニューラルネットワークを用いた暗号化システムを使用することにより、復号される可能性が少ない暗文を作成することができる。   As described above, by using the encryption system using the chaotic neural network of the present invention, it is possible to create a secret sentence that is less likely to be decrypted.

本発明の実施形態を、図面を参照して詳細に説明する。
まず、本発明に用いているカオス・ニューラルネットワークを説明する。カオス・ニューラルネットワークとは、ホップフィールド・ネットワークや誤差逆伝搬学習則で用いられている通常のニューロン・モデルを用いたネットワークで、カオス応答があるもののことである。
Embodiments of the present invention will be described in detail with reference to the drawings.
First, the chaos neural network used in the present invention will be described. A chaos neural network is a network using a normal neuron model used in a Hopfield network or a back propagation learning rule, and has a chaotic response.

図1は、ニューロン・モデルを示す図である。図1に示すニューロン・モデルでは、自己再帰結合は用いていない。図1に示されているニューロンのある時刻t+1における出力は、以下の式で表される。   FIG. 1 is a diagram showing a neuron model. The neuron model shown in FIG. 1 does not use self-recursive coupling. The output of the neuron shown in FIG. 1 at a certain time t + 1 is expressed by the following equation.

Figure 2006259775
このニューロン・モデルにおける非線形関数fは、バック・プロパケーション・モデルやホップフィールド・モデルなどで広く用いられている、sigmoid関数を用いている。λは、関数の傾きを表す。
Figure 2006259775
The nonlinear function f in this neuron model uses a sigmoid function widely used in back-propagation models, hopfield models, and the like. λ represents the slope of the function.

自然界では単一で振動する出力を発生するニューロンもあるが、カオス・ネットワークに用いた上述のニューロンの場合には、1個のニューロンのみでは振動しない。図2に、最も基本的な振動するネットワークを示す。
この系は、重み係数の正負によってその振る舞いが変化すると考えられるが、いずれの場合においても、その出力は収束するか振動するかであり、その振動周期も最大で4周期であることが明らかになっている(川村暁,吉田等明,恒川佳隆,三浦守 ”カオス・ニューラルネットワークの最小構成” 信学技報 NC98−107 1999年3月)。
In the natural world, there is a neuron that generates a single oscillating output, but in the case of the above-described neuron used in the chaos network, only one neuron does not oscillate. FIG. 2 shows the most basic vibrating network.
The behavior of this system is thought to change depending on whether the weighting factor is positive or negative. In either case, the output converges or oscillates, and it is clear that the oscillation period is a maximum of 4 periods. (Kaoru Kawamura, Toshiaki Yoshida, Yoshitaka Tsunekawa, Mamoru Miura "Minimum Configuration of Chaotic Neural Networks" IEICE Tech. Bulletin NC98-107 March 1999).

次に、この基本ネットワークを含む、ニューロン数がn個のネットワークへの拡張を考える。図3に、基本ネットワークを含むnニューロン・ネットワークの構成を示す。図3に示すように、このネットワークは、図2に示したような基本ネットワークを構成しているNおよびNのニューロンと、その他のN〜Nのニューロンとで構成されている。このネットワークは、以下の各要素により特徴づけられる。
・基本ネットワークの種類
・ニューロン数
・ニューロン間の重み係数の符号
この構成のネットワークにおいて、ニューロン数が3個以上のネットワークにおいて、カオス応答するネットワークが存在し、そのようなネットワークをカオス・ニューラルネットワークと呼ぶ。
Next, consider an extension to a network with n neurons, including this basic network. FIG. 3 shows a configuration of an n neuron network including a basic network. As shown in FIG. 3, this network is composed of N 1 and N 2 neurons constituting the basic network as shown in FIG. 2, and other N 3 to N n neurons. This network is characterized by the following elements:
-Types of basic networks-Number of neurons-Sign of weighting factor between neurons In the network of this configuration, there is a network that responds to chaos in a network with three or more neurons, and such a network is called a chaos neural network. Call.

上述のカオス・ニューラルネットワークの一例としてニューロン数が3個の場合を図4に示す。図4に示したカオス・ニューラルネットワークは、図2に示したような基本ネットワークを構成しているNおよびNのニューロンと、この2つのニューロンに接続されているニューロンNとで構成されている。この図において、Nはニューロンxを示し、θxは、ニューロンxのしきい値、Ixはニューロンxの外部入力値、wijは結合加重を示している。図4におけるニューラルネットワークにおいて、カオス応答するカオス・ニューラルネットワークの重み係数W(結合加重で構成)およびしきい値θの一例は、次のようになる。 FIG. 4 shows a case where the number of neurons is three as an example of the chaos neural network described above. The chaotic neural network shown in FIG. 4 is composed of N 1 and N 2 neurons constituting the basic network as shown in FIG. 2, and a neuron N 3 connected to these two neurons. ing. In this figure, N x represents the neuron x, θx represents the threshold value of the neuron x, Ix represents the external input value of the neuron x, and w ij represents the connection weight. In the neural network in FIG. 4, an example of the weighting factor W (composed of coupling weights) and threshold value θ of a chaotic neural network that responds to chaos is as follows.

Figure 2006259775
Figure 2006259775

ネットワーク応答がカオスである場合の必要条件は、各ニューロンに属する値(系列と呼ぶ)の「混じり合い」による。また、カオス・ニューラルネットワークは、単一のニューロンでカオスを出力しているのではなく、系全体でカオスとなっている。そのため、単一ニューロンの出力値は、同一になる場合があると考えられる。   The necessary condition when the network response is chaos depends on the “mixing” of values (called series) belonging to each neuron. In addition, a chaos neural network does not output chaos with a single neuron, but is chaos in the entire system. For this reason, the output value of a single neuron may be the same.

<一方向性関数>
カオス・ニューラルネットワークは、ネットワーク構成と外部入力値が定まれば、時系列信号を容易に取り出すことができる。この外部入力値と、ある一つのニューロンの出力値(信号)の関係について考える。
さて、初期値鋭敏性とは、初期値の僅かなずれを、それがどんなに小さなずれであっても、時間とともに指数関数的に拡大する性質を有していることをいう。カオス・ニューラルネットワークは初期値鋭敏性を有している。また、ある関数y=f(x)が一方向性関数であるとは、xよりy=f(x)を計算するのは容易であるが、逆にyよりxを求めるのが困難な関数のことをいう。
<One-way function>
A chaotic neural network can easily extract a time-series signal if a network configuration and an external input value are determined. Consider the relationship between this external input value and the output value (signal) of one neuron.
Now, initial value sensitivity means that a slight deviation of the initial value has a property of expanding exponentially with time, no matter how small. Chaotic neural networks have initial value sensitivity. A function y = f (x) is a one-way function. It is easy to calculate y = f (x) from x, but conversely, it is difficult to obtain x from y. I mean.

カオス・ニューラルネットワークの外部入力値xと、あるニューロンの出力値y(ニューロン1など)との関係は、カオス・ニューラルネットワークが有している初期値鋭敏性により、初期値(外部入力値)が微少に異なる場合、その振る舞いの時間発展が全く異なったものとなる。また、系がカオスである場合、その軌道にはエルゴード性があるため、非常に近い軌道を通る状態の間には相関がなく、出力値から外部入力値を推定するのは困難であるといえる。よって、出力値yから外部入力値xを求めるのは困難である。
さらに、あるニューロンの出力値に注目すると、その出力値は同一の値をとることがあると考えられる。よって、外部入力値xと出力値yは一対一写像ではなく、一対多写像であるといえる。よって、カオス・ニューラルネットワークの外部入力値xと、あるニューロンの出力値yの関数y=f(x)は、一方向性関数fであるといえる。
The relationship between the external input value x of a chaotic neural network and the output value y (neuron 1 etc.) of a neuron is the initial value (external input value) due to the initial sensitivity of the chaotic neural network. If it is slightly different, the time evolution of the behavior is quite different. Also, when the system is chaotic, its trajectory has ergodic properties, so there is no correlation between the states passing through very close trajectories, and it can be said that it is difficult to estimate the external input value from the output value. . Therefore, it is difficult to obtain the external input value x from the output value y.
Further, when attention is paid to the output value of a certain neuron, it is considered that the output value may take the same value. Therefore, it can be said that the external input value x and the output value y are not a one-to-one mapping but a one-to-many mapping. Therefore, it can be said that the function y = f (x) of the external input value x of the chaotic neural network and the output value y of a certain neuron is a one-way function f.

<ハッシュ関数>
ハッシュ関数は、パスワード認証、ディジタル署名、メッセージ認証などの目的で幅広く用いられ、現代暗号の重要な分野を構成している。カオス・ニューラルネットワークの出力値がこの性質を満足するかを考察する。
一般的にハッシュ関数とは、ある大きな領域Dから小さな領域Rへの多対一のマッピングを行う関数hであり、
[数3]
h:D→Rかつ|D|>|R|
となる場合を考える。このとき、関数hとその定義域のある値xが与えられて、h(x)=h(y)となるようなyを求めることが難しいような関数hのことである。
カオス・ニューラルネットワークの遷移回数xと,出力値yの関数y=f(x)について考えると、以下のことが成立する。
(i)xを入力してy=f(x)を出力する多項式時間アルゴリズムが存在する(遷移回数だけ繰り返せばよい)。
(ii)出力yから、y=f(x)を満たすxを求めるのは困難である(f−1の困難性)。
(i),(ii)より、y=f(x)(遷移回数xとニューロンの出力y)は、一方向性ハッシュ関数である。
<Hash function>
Hash functions are widely used for purposes such as password authentication, digital signatures, and message authentication, and constitute an important field of modern cryptography. We consider whether the output value of the chaotic neural network satisfies this property.
In general, a hash function is a function h that performs a many-to-one mapping from a large area D to a small area R.
[Equation 3]
h: D → R and | D |> | R |
Consider the case. At this time, the function h and a value x in its domain are given, and the function h is such that it is difficult to obtain y such that h (x) = h (y).
Considering the number of transitions x in the chaotic neural network and the function y = f (x) of the output value y, the following holds.
(I) There is a polynomial time algorithm that inputs x and outputs y = f (x) (it only needs to be repeated for the number of transitions).
(Ii) It is difficult to obtain x satisfying y = f (x) from the output y (difficulty of f− 1 ).
From (i) and (ii), y = f (x) (transition count x and neuron output y) is a one-way hash function.

<暗号化および復号>
上述では、カオス・ニューラルネットワークの特性について考察を加えた。このような性質を有するカオス・ニューラルネットワークの出力信号を暗号に用いることについて説明する。
カオス・ニューラルネットワークを用いて、暗号化及び復号を行うための構成を図5に示す。ここで用いている暗号系は、従来から用いられてきた暗号形式の慣用暗号系である。慣用暗号系の特徴は暗文生成に用いる鍵と復号に用いる鍵が同一であることである。この暗号系では、その安全性は鍵の秘匿性に依存している。これに対してカオス・ニューラルネットワークを用いた本発明の構成では、その安全性は、鍵の秘匿性に依存しているばかりではなく、実行環境(例えば、コーディング方法、CPUの種類等)にも依存している。
<Encryption and decryption>
In the above, we considered the characteristics of chaotic neural networks. The use of the output signal of the chaotic neural network having such properties for encryption will be described.
FIG. 5 shows a configuration for performing encryption and decryption using a chaos neural network. The encryption system used here is a conventional encryption system of an encryption format that has been used conventionally. A feature of the conventional cryptosystem is that the key used for generating the secret text and the key used for decryption are the same. In this encryption system, the security depends on the confidentiality of the key. On the other hand, in the configuration of the present invention using the chaos neural network, the security is not only dependent on the confidentiality of the key, but also on the execution environment (for example, coding method, CPU type, etc.). It depends.

この図5において、平文記憶部10に格納してある暗号化対象の平文を取り出し、カオス・ニューラルネットワーク120からの出力と演算器110で演算することで暗文を得て、暗文記憶部20に格納することができる。このとき、秘密鍵としては、カオス・ニューラルネットワーク120への外部入力値を用いることができる。
このようにして得られた、暗文記憶部20に格納してある暗文を復号する場合には、暗文作成に使用したカオス・ニューラルネットワーク120と同一構成及び同一条件(秘密鍵である同一外部入力値)のカオス・ニューラルネットワーク220を用いて、その出力と暗文記憶部20から取り出したものに対して、演算器210で元に戻るような演算を行うことにより復号を行っている。なお、演算器110や演算器210で行われている演算とは、AND,OR,XOR,加算,減算,乗算,除算等を行うことを意味する。
In FIG. 5, the plaintext to be encrypted stored in the plaintext storage unit 10 is taken out, and the ciphertext is obtained by calculating with the output from the chaos neural network 120 and the arithmetic unit 110. Can be stored. At this time, an external input value to the chaos neural network 120 can be used as the secret key.
When decrypting the memorized text stored in the memorized text storage unit 20 thus obtained, the same configuration and the same conditions as the chaos neural network 120 used for creating the memorized text (the same secret key is the same) Using the chaos / neural network 220 of the external input value), the output and the one extracted from the encrypted text storage unit 20 are subjected to decoding by performing a calculation that returns to the original by the calculator 210. In addition, the calculation performed by the calculator 110 or the calculator 210 means performing AND, OR, XOR, addition, subtraction, multiplication, division, and the like.

この図5に示した構成を用いて暗号化および復号を行う手順については、図6に示す。まず、暗号化、復号手順では、暗号化等を開始する前に、カオス・ニューラルネットワーク120および220を初期設定する(ステップE1およびD1)。
暗号化においては、例えば、平文10からメッセージ・ユニットM(例えば1文字)を取り出す(ステップE2.1)。取り出したメッセージ・ユニットMとカオス・ニューラルネットワーク120からの出力y(i)との演算を行って暗号化する(ステップE2.2)。カオス・ニューラルネットワーク120の値の再計算を行い、ネットワーク遷移を行う(ステップE2.3)。そしてまた、平文10からメッセージ・ユニットMを取り出して暗号化を行うことを繰り返し(ステップE2)、平文がなくなるまで処理手順(ステップE2.1〜2.3)を続けることで、暗文20を得る。
The procedure for performing encryption and decryption using the configuration shown in FIG. 5 is shown in FIG. First, in the encryption and decryption procedures, the chaos neural networks 120 and 220 are initialized before starting encryption or the like (steps E1 and D1).
In the encryption, for example, the message unit M i (for example, one character) is extracted from the plaintext 10 (step E2.1). The extracted message unit M i and the output y m (i) from the chaotic neural network 120 are operated and encrypted (step E2.2). The value of the chaotic / neural network 120 is recalculated to perform network transition (step E2.3). And also repeated to perform the encryption from plaintext 10 retrieves the message unit M i (step E2), by continuing the processing procedure (step E2.1~2.3) until the plaintext is eliminated, Kurabun 20 Get.

復号においても、暗文20からメッセージ・ユニットC(例えば1文字)を取り出す(ステップD2.1)。取り出したメッセージ・ユニットCとカオス・ニューラルネットワーク220からの出力y(i)との間で元に戻る演算を行って復号する(ステップD2.2)。この生成された文字を平文に付加することによって復号する。カオス・ニューラルネットワーク220の値の再計算を行い、ネットワーク遷移を行う(ステップD2.3)。そしてまた、暗文20からメッセージ・ユニットCを取り出して復号を行うことを繰り返し(ステップD2)、暗文がなくなるまで処理手順(ステップD2.1〜2.3)を続ける。
平文や暗文から1文字づつ取り出しているときは、カオス時系列発生源として用いるカオス・ニューラルネットワーク120や220の出力値から正整数を生成して、1文字に対して演算してもよい。
Also in the decryption, the message unit C i (for example, one character) is extracted from the secret text 20 (step D2.1). A decoding operation is performed between the extracted message unit C i and the output y m (i) from the chaotic neural network 220 (step D2.2). The generated character is decrypted by adding it to the plaintext. The value of the chaos neural network 220 is recalculated and the network transition is performed (step D2.3). And also repeatedly performing the decoding retrieve the message unit C i from Kurabun 20 (step D2), continued processing procedure (step D2.1~2.3) until Kurabun disappears.
When one character is extracted from the plaintext or the plaintext, a positive integer may be generated from the output value of the chaotic neural network 120 or 220 used as the chaos time series generation source and may be calculated for each character.

<実施例>
図7〜図10に、図4に示した構成の3つのニューロンを用いているカオス・ニューラルネットワークを使用した暗号化システムおよび復号システムで、具体的に暗号化および復号した例を示す。図4のカオス・ニューラルネットワークにおいて、外部入力は、ニューロンNおよびNに対するIおよびIのみであり(即ち、ニューロンNに対する外部入力Iは0)、ネットワークからの出力は、例えばニューロンNから取り出している。暗号化のための演算は加算を、復号のための演算は減算を用いている。また、ニューラルネットワークを用いた暗号化システムおよび復号システムのプログラムはC言語で作成し、コンパイルして実装している。
<Example>
FIGS. 7 to 10 show specific examples of encryption and decryption using an encryption system and a decryption system using a chaos neural network using three neurons having the configuration shown in FIG. In chaos neural network of Figure 4, the external input is only I 1 and I 2 on neuronal N 1 and N 2 (i.e., 0 external input I 3 is on neurons N 3), the output from the network, for example, It is taken out from the neurons N 1. The calculation for encryption uses addition, and the calculation for decryption uses subtraction. The encryption system and decryption system programs using the neural network are created in C language, compiled and implemented.

<実施例1>
カオス・ニューラルネットワーク120における全ての計算に用いる変数をダブル型(double-type)として行った場合、3つの外部入力値(秘密鍵){I,I,I}として、{1.24, 1.24,0.0}を用いた例を図7および図8に示す。カオス・ニューラルネットワーク120からの出力は整数化して、平文の1文字に加算している。
図7は、実施例に対して用いた平文の一部を示す。図8は上述の条件で、カオス・ニューラルネットワークにより作成した暗文を示す。この暗文に対して、同じ条件のカオス・ニューラルネットワーク220の遷移出力を整数化して、暗文の1文字から減算することにより、図7の平文に戻ることも確認している。
<Example 1>
When variables used for all calculations in the chaotic neural network 120 are performed as a double-type, three external input values (secret keys) {I 1 , I 2 , I 3 } are {1.24 , 1.24, 0.0} are shown in FIG. 7 and FIG. The output from the chaos neural network 120 is converted into an integer and added to one plaintext character.
FIG. 7 shows part of the plaintext used for the example. FIG. 8 shows a secret sentence created by a chaotic neural network under the above-described conditions. It is confirmed that the transition output of the chaotic neural network 220 under the same conditions is converted into an integer for this secret and subtracted from one character of the secret to return to the plaintext of FIG.

<実施例2>
図7に示した平文に対して、カオス・ニューラルネットワーク120への3つの外部入力値(秘密鍵){I,I,I}として、上述の実施例1の{1.24, 1.24,0.0}とは僅かに異なる{1.24+10−15, 1.24+10−15,0.0}を用いた例を図9に示す。カオス・ニューラルネットワーク120からの遷移出力は整数化して、平文の1文字に加算していることは、実施例1と変わらない。
図8と比較すると、図9の暗文は、図8とは全く異なっている。このように、カオス・ニューラルネットワークにより作成した暗文は、外部入力値(秘密鍵)が僅かに異なると、全く異なる暗文を生成する。これは、暗号化の秘密鍵を推測することが大変難しいことを示している。
なお、同じ条件のカオス・ニューラルネットワーク220を用いて、その出力を整数化して、暗文の1文字から減算することにより、図7の平文に戻ることも確認している。
<Example 2>
For the plaintext shown in FIG. 7, three external input values (secret keys) {I 1 , I 2 , I 3 } to the chaos neural network 120 are {1.24, 1 of the first embodiment described above. FIG. 9 shows an example using {1.24 + 10 −15 , 1.24 + 10 −15 , 0.0} slightly different from .24,0.0}. The transition output from the chaos neural network 120 is converted to an integer and added to one character of plain text as in the first embodiment.
Compared to FIG. 8, the secret text of FIG. 9 is completely different from FIG. As described above, if the external input value (secret key) is slightly different, the secret sentence created by the chaotic neural network generates a completely different secret sentence. This indicates that it is very difficult to guess the encryption secret key.
It has also been confirmed that using the chaotic neural network 220 under the same conditions, the output is converted to an integer and subtracted from one character of the plaintext to return to the plaintext of FIG.

<実施例3>
図7に示した平文に対して、カオス・ニューラルネットワーク120における全ての計算に用いる変数をフロート型(float-type)として実装した例を図10に示す。3つの外部入力値(秘密鍵){I,I,I}は、実施例1とは同じ値であるが、型が異なる(フロート型:float-type)ものを与えることになる。カオス・ニューラルネットワーク120からの遷移出力は整数化して、平文の1文字に加算していることは、実施例1と変わらない。
図10と図8又は図9とを比較すると、図10の暗文は、図8や図9に示した両方の暗文とは、全く異なっている。
なお、この実施例3においても、復号システムで同じ条件(実装する型や秘密鍵の値)におけるカオス・ニューラルネットワーク220の出力を整数化して、暗文の1文字から減算することにより、図7の平文に戻ることも確認している。
このように、作成したソース・プログラムが僅かに異なる、即ち型が異なる実装(異なる型の秘密鍵)だけで、異なる結果が生じることでも分かるように、他の実装での復号システムで復号できないばかりでなく、暗号化の秘密鍵を推測することも大変難しいことを示している。
<Example 3>
FIG. 10 shows an example in which variables used for all calculations in the chaos neural network 120 are implemented as a float-type for the plain text shown in FIG. The three external input values (secret keys) {I 1 , I 2 , I 3 } are the same values as in the first embodiment, but give different types (float type). The transition output from the chaos neural network 120 is converted to an integer and added to one character of plain text as in the first embodiment.
Comparing FIG. 10 with FIG. 8 or FIG. 9, the secret sentence of FIG. 10 is completely different from both of the secret sentences shown in FIG. 8 and FIG.
In the third embodiment as well, the output of the chaos neural network 220 under the same conditions (the type to be mounted and the value of the secret key) is converted into an integer and subtracted from one character of the cipher text in the decryption system, thereby FIG. It has also confirmed that it will return to plaintext.
In this way, the created source program is slightly different, that is, it can not be decrypted by decryption systems in other implementations, as it can be seen that only different implementations (different types of private keys) produce different results. It also shows that it is very difficult to guess the encryption secret key.

<他の実施例>
図示していないが、カオス・ニューラルネットワークを用いた暗号化システムを実行する計算機やOSが異なる場合では、秘密鍵が同じでも生成される暗文が全く異なることを確認している。この暗文は、同じ型の同じ値ではあるが、異なる実行環境における復号システムでは、復号できない。同じ条件、同じ実行環境で実装された復号システムでは、復号は問題なく行われている。
<Other embodiments>
Although not shown, it has been confirmed that when the computer or OS that executes the encryption system using the chaotic neural network is different, the generated secret text is completely different even if the secret key is the same. This secret is the same value of the same type, but cannot be decrypted by decryption systems in different execution environments. In a decoding system implemented under the same conditions and the same execution environment, decoding is performed without any problem.

<まとめ>
上述の実施例でも分かるように、カオス・ニューラルネットワークを用いた暗号化システムでは、僅かな相違でも全く異なる暗文を作成する。このため、暗号化システムと全く同一の実装および実行環境で復号を行わないと復号は成功しない。この性質のため、カオス・ニューラルネットワークによる暗号化した暗文の解読を大変難しくしている。
本発明は、スタンドアロンのコンピュータ・システムばかりではなく、複数のシステムから構成される、例えばクライアント・サーバ・システム等に適用してもよい。
本発明に関するプログラムを格納した記憶媒体から、プログラムをシステムで読み出して実行することにより、本発明の構成を実現することができる。この記録媒体には、フロッピーディスク(登録商標:フレキシブルディスク)、CD−ROM、磁気テープ、ROMカセット等がある。
<Summary>
As can be seen from the above-described embodiments, an encryption system using a chaotic neural network creates a completely different secret sentence even with a slight difference. For this reason, decryption is not successful unless decryption is performed in exactly the same implementation and execution environment as the encryption system. This property makes it very difficult to decipher the encrypted text using a chaotic neural network.
The present invention may be applied not only to a stand-alone computer system but also to, for example, a client / server system configured by a plurality of systems.
The configuration of the present invention can be realized by reading and executing the program from the storage medium storing the program related to the present invention. Examples of the recording medium include a floppy disk (registered trademark: flexible disk), a CD-ROM, a magnetic tape, and a ROM cassette.

ニューロンを示す図である。It is a figure which shows a neuron. 2つのニューロンで構成した、基本的な振動するネットワークを示す図である。It is a figure which shows the basic vibrating network comprised with two neurons. カオス・ニューラルネットワークの構成を示す図である。It is a figure which shows the structure of a chaos neural network. 3つのニューロンで構成した、カオス・ニューラルネットワークを示す図である。It is a figure which shows the chaos neural network comprised by three neurons. カオス・ニューラルネットワークを用いた暗号化システムおよび復号システムの構成を示す図である。It is a figure which shows the structure of the encryption system and decoding system using a chaos neural network. 暗号化および復号の処理手順を示す図である。It is a figure which shows the process sequence of encryption and a decoding. 具体的な例に用いた平文の抜粋である。This is an excerpt of plain text used in a specific example. 図7の平文のダブル型で暗号化した例である。It is the example encrypted with the plain text double type of FIG. 図7の平文を図8と同じ型で僅か異なる暗号鍵で暗号化した例である。FIG. 9 is an example in which the plain text in FIG. 7 is encrypted with the same type and slightly different encryption key as in FIG. 8. 図7の平文を図8と異なる型で図8と同じ暗号鍵で暗号化した例である。FIG. 9 is an example in which the plain text in FIG. 7 is encrypted with the same encryption key as in FIG.

符号の説明Explanation of symbols

10 平文記憶部
20 暗文記憶部
110 演算器
120 カオス・ニューラルネットワーク
210 演算器
220 カオス・ニューラルネットワーク
DESCRIPTION OF SYMBOLS 10 Plain text memory | storage part 20 Secret text memory | storage part 110 Operation unit 120 Chaos neural network 210 Operation unit 220 Chaos neural network

Claims (6)

暗号化システムであって、
暗号化対象のテキストを記憶した平文記憶部と、
複数のニューロンで構成され、2つのニューロンを相互に接続した基本構成を少なくとも1つ含むカオス・ニューラルネットワークと、
前記カオス・ニューラルネットワークからの出力と、前記平文記憶部から順次読み出した少なくとも1字以上の文字とを演算する演算部と、
前記演算した結果の暗文を記憶する暗文記憶部とを備え、
前記カオス・ニューラルネットワークを構成する前記複数のニューロンに対する外部入力を暗号化の鍵とすることを特徴とする暗号化システム。
An encryption system,
A plaintext storage unit storing the text to be encrypted;
A chaotic neural network composed of a plurality of neurons and including at least one basic configuration in which two neurons are connected to each other;
A calculation unit that calculates an output from the chaos neural network and at least one character sequentially read from the plaintext storage unit;
A memorized text storage unit that memorizes the calculated result.
An encryption system characterized in that an external input to the plurality of neurons constituting the chaotic neural network is used as a key for encryption.
請求項1に記載の暗号化システムにおいて、
前記カオス・ニューラルネットワークは、前記基本構成と接続された少なくとも1つのニューロンを含むことを特徴とする暗号化システム。
The encryption system according to claim 1,
The encryption system according to claim 1, wherein the chaotic neural network includes at least one neuron connected to the basic configuration.
請求項1又は2に記載の暗号化システムにおいて、
前記演算部は、前記平文記憶部から1文字ずつ取り出し、前記カオス・ニューラルネットワークを構成するニューロンの1つからの遷移ごとの出力を整数化して、前記平文記憶部から取り出した1文字と演算することを特徴とする暗号化システム。
The encryption system according to claim 1 or 2,
The computing unit extracts characters one by one from the plaintext storage unit, converts an output for each transition from one of the neurons constituting the chaotic neural network into an integer, and calculates the single character extracted from the plaintext storage unit An encryption system characterized by that.
復号システムであって、
復号対象のテキストを記憶した暗文記憶部と、
暗文を作成したカオス・ニューラルネットワークと同じ、複数のニューロンで構成され、2つのニューロンを相互に接続した基本構成を少なくとも1つ含むカオス・ニューラルネットワークと、
前記カオス・ニューラルネットワークからの出力と、前記暗文記憶部から順次読み出した少なくとも1字以上の文字とを演算する演算部と、
前記演算した結果の平文を記憶する平文記憶部とを備え、
前記カオス・ニューラルネットワークを構成する各ニューロンへの外部入力を復号化の鍵とすることを特徴とする復号システム。
A decryption system,
A memorized text storage unit storing text to be decrypted;
A chaotic neural network that is composed of a plurality of neurons and includes at least one basic configuration in which two neurons are connected to each other, the same as the chaotic neural network that created the secret sentence;
An arithmetic unit that calculates an output from the chaos neural network and at least one character sequentially read from the memorized text storage unit;
A plaintext storage unit for storing the plaintext of the calculated result,
A decoding system, wherein an external input to each neuron constituting the chaotic neural network is a key for decoding.
請求項3に記載の復号システムにおいて、
前記演算部は、前記暗文記憶部から1文字ずつ取り出し、前記カオス・ニューラルネットワークを構成するニューロンの1つからの遷移ごとの出力を整数化して、前記暗文記憶部から取り出した1文字と演算することを特徴とする復号システム。
The decoding system according to claim 3,
The arithmetic unit extracts one character at a time from the text storage unit, converts an output for each transition from one of the neurons constituting the chaotic neural network into an integer, and extracts one character from the text storage unit. A decoding system characterized by computing.
請求項1〜3のいずれかに記載の暗号化システム又は請求項4又は5に記載の復号システムをコンピュータ・システムに構築させるプログラムを格納した記録媒体。
A recording medium storing a program that causes a computer system to build the encryption system according to claim 1 or the decryption system according to claim 4 or 5.
JP2006170667A 2006-06-20 2006-06-20 Encrypting system and decrypting system using chaos neural network Pending JP2006259775A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006170667A JP2006259775A (en) 2006-06-20 2006-06-20 Encrypting system and decrypting system using chaos neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006170667A JP2006259775A (en) 2006-06-20 2006-06-20 Encrypting system and decrypting system using chaos neural network

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP32144499A Division JP2001144746A (en) 1999-11-11 1999-11-11 Enchiper system and decoding system using chaos neural network

Publications (1)

Publication Number Publication Date
JP2006259775A true JP2006259775A (en) 2006-09-28

Family

ID=37099014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006170667A Pending JP2006259775A (en) 2006-06-20 2006-06-20 Encrypting system and decrypting system using chaos neural network

Country Status (1)

Country Link
JP (1) JP2006259775A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102263636A (en) * 2011-05-24 2011-11-30 浙江工业大学 Stream cipher key control method for fusing neural network with chaotic mappings
CN110659452A (en) * 2018-06-29 2020-01-07 国际商业机器公司 Artificial intelligence supported cyber data hiding and directed task execution
CN113468562A (en) * 2021-06-22 2021-10-01 西安理工大学 Image block encryption and decryption algorithm with hyperchaotic system and neural network mechanism fused

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102263636A (en) * 2011-05-24 2011-11-30 浙江工业大学 Stream cipher key control method for fusing neural network with chaotic mappings
CN102263636B (en) * 2011-05-24 2014-05-14 浙江工业大学 Stream cipher key control method for fusing neural network with chaotic mappings
CN110659452A (en) * 2018-06-29 2020-01-07 国际商业机器公司 Artificial intelligence supported cyber data hiding and directed task execution
CN110659452B (en) * 2018-06-29 2023-04-21 国际商业机器公司 Method for hiding and orienting task execution of cyber data supported by artificial intelligence
CN113468562A (en) * 2021-06-22 2021-10-01 西安理工大学 Image block encryption and decryption algorithm with hyperchaotic system and neural network mechanism fused

Similar Documents

Publication Publication Date Title
US11301571B2 (en) Neural-network training using secure data processing
Liu et al. Privacy-preserving outsourced calculation toolkit in the cloud
JP4575283B2 (en) ENCRYPTION DEVICE, DECRYPTION DEVICE, PROGRAM, AND METHOD
Niu et al. Toward verifiable and privacy preserving machine learning prediction
Zolfaghari et al. The odyssey of entropy: cryptography
Pattanayak et al. Encryption based on neural cryptography
Chen et al. Efficient revocable attribute-based encryption with verifiable data integrity
Xi et al. A provably secure strong puf based on lwe: Construction and implementation
Nitaj et al. Applications of neural network-based AI in cryptography
JP2006259775A (en) Encrypting system and decrypting system using chaos neural network
Nita et al. Homomorphic Encryption
US8325913B2 (en) System and method of authentication
Leemaqz et al. Corruption-resistant privacy preserving distributed em algorithm for model-based clustering
KR20240004830A (en) Blind rotation for use in fully homomorphic encryption
CN108093680B (en) Communication method based on pure random encryption
JP2001144746A (en) Enchiper system and decoding system using chaos neural network
Garge et al. Neural networks for encrypted data using homomorphic encryption
Al-Janabi et al. Secure Data Computation Using Deep Learning and Homomorphic Encryption: A Survey.
Petrenko Applied Quantum Cryptanalysis
Sarkar Neural synchronization of optimal structure-based group of neural networks
Mezher et al. A Comparative Study of a Hybrid Approach Combining Caesar Cipher with Triple Pass Protocol and Krill Herd Optimization Algorithm (KHO)-Based Hybridization.
Rama Exploring the Effectiveness of Privacy Preserving Classification in Convolutional Neural Networks
Al-Hamadin A New Approach for Data Symmetric Key Cryptography Using Fast Neural Networks with Single Step of Backpropagation and Finite Fields
Hou et al. Fine-Grained Access Control Proxy Re-encryption with HRA Security from Lattice
van de Graaf et al. Delphi: sharing assessments of cryptographic assumptions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071102