JPH01275381A - Device for controlling elevator group - Google Patents

Device for controlling elevator group

Info

Publication number
JPH01275381A
JPH01275381A JP63105633A JP10563388A JPH01275381A JP H01275381 A JPH01275381 A JP H01275381A JP 63105633 A JP63105633 A JP 63105633A JP 10563388 A JP10563388 A JP 10563388A JP H01275381 A JPH01275381 A JP H01275381A
Authority
JP
Japan
Prior art keywords
layer
unit
learning
elevator
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63105633A
Other languages
Japanese (ja)
Other versions
JPH075235B2 (en
Inventor
Shiyandoru Marukon
マルコン・シャンドル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitec Co Ltd
Original Assignee
Fujitec Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitec Co Ltd filed Critical Fujitec Co Ltd
Priority to JP63105633A priority Critical patent/JPH075235B2/en
Publication of JPH01275381A publication Critical patent/JPH01275381A/en
Publication of JPH075235B2 publication Critical patent/JPH075235B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Elevator Control (AREA)

Abstract

PURPOSE:To enable high grade assignment control by judging assignment through operation of the input pattern to neural net and the neural net with the input pattern based on the conditions at riding spots and elevator boxes. CONSTITUTION:The neuron of human brain is used to a neural net operation means 8 comprising an input layer, first and second intermediater layers, and output layer as a model for enabling the assignment control of a microcomputer 5. An input pattern operation means 7 converts the traffic conditions at the generation of new call from a riding spot as an input pattern, based on elevator box condition information 4 from elevator operation controllers 3A-3C as well as the call 2 at a riding spot through a call button 1. An operation means 8 operates the outputs in the layers of the neural net while superposing them sequentially to assign an optimum elevator by means of an assignment judging means 9 according to the outputs of the units of the output layers. In this way high grade assignment control is enabled.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、複数台のエレベータが並設されている場合
において、乗場呼びを最適なエレベータに割当てるのに
有効なエレベータの群管理制御装置に関するものである
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an elevator group management control device that is effective in allocating a hall call to an optimal elevator when a plurality of elevators are installed in parallel. It is something.

〔従来の技術及び発明が解決しようとする課題〕現在の
エレベータにおいて、群管理制御の主流をなすのは評価
関数を使用した割当て制御である。
[Prior Art and Problems to be Solved by the Invention] In current elevators, the mainstream of group management control is assignment control using an evaluation function.

これは、例えば乗場呼びが発生するごとにその呼びをど
のかごに割当てるのが最適であるかを、予測待時間等の
種々の評価指標に対する所定の評価関数を用いて各かご
毎に数値計算し、その値の最も大きいかごまたは最も小
さいかごに割当てるもので、評価指標を適切に選び評価
関数を工夫することで高度な制御を行うことができる。
For example, each time a hall call occurs, which car should be optimally assigned to that call is calculated numerically for each car using a predetermined evaluation function for various evaluation indicators such as predicted waiting time. , which is assigned to the car with the largest value or the car with the smallest value.Advanced control can be performed by appropriately selecting the evaluation index and devising the evaluation function.

一方、最近ではより高度な制御を行うため、ファジー理
論を用いたエキスパートシステムによる呼び割当て制御
が提案されている。
On the other hand, recently, in order to perform more advanced control, call assignment control using an expert system using fuzzy theory has been proposed.

これは種々の評価指標をファジー量としてとらえ、適切
な割当方法をIF−THEN形式で記述したルール群を
用いて、そのルール群に対する適合度から最適なかごを
選択し割当てる方法で、これによるとエキスパートの知
識を制御に組み込むことが容易となり、ビルの特徴に合
わせたきめこまかな制御を実現することができる。
This is a method that considers various evaluation indicators as fuzzy quantities, uses a set of rules that describe an appropriate allocation method in IF-THEN format, and selects and assigns the optimal basket based on the degree of suitability for the set of rules. This makes it easy to incorporate expert knowledge into control, making it possible to achieve fine-grained control tailored to the characteristics of the building.

ところで、上記の何れの方法においても当然のことなが
ら、割当てアルゴリズム(評価式または評価ルール)は
人間が考えて作成していた。すなわちこれらの方法は、
評価指標として予測待時間や長持ち発生確率、予報はず
れ率など、どのような指標を用いればよいかを検討し、
さらに各指標の優先度(重要度)を考慮して評価式や評
価ルールを決定している。このため、複雑な交通パター
ンや変動する交通需要にも対応できるようにしようとす
ると、評価式や評価ルールは複雑となる一方であり、よ
り一層の精度の向上を自損してより複雑な評価式や評価
ルールを開発しようとしても、人間の能力にはどうして
も限界があり、また可能であったとしても非常に困難で
ある。
By the way, in any of the above methods, the allocation algorithm (evaluation formula or evaluation rule) is naturally created by humans. In other words, these methods are
We consider what kind of indicators should be used as evaluation indicators, such as predicted waiting time, probability of long-lasting occurrence, and forecast failure rate.
Furthermore, evaluation formulas and evaluation rules are determined by considering the priority (importance) of each indicator. For this reason, when attempting to respond to complex traffic patterns and fluctuating traffic demand, evaluation formulas and evaluation rules become increasingly complex, and even more complex evaluation formulas are required at the expense of further improving accuracy. Even if we try to develop evaluation rules, there are limits to human ability, and even if it were possible, it would be extremely difficult.

本願はこうした点に鑑みてなされたもので、割当てアル
ゴリズムを人間が一切考える必要はなく、しかも各種の
交通状況に対応して結果的には最適な割当てかごを決定
する判断システムを自動的に生成することのできる、従
来とは全く異なる新しいエレベータの群管理装置を提供
することを目的とする。
This application was developed in view of these points, and there is no need for humans to consider the allocation algorithm at all, and moreover, it automatically generates a judgment system that ultimately determines the optimal car allocation in response to various traffic conditions. The purpose of the present invention is to provide a new elevator group management device that is completely different from conventional elevators.

〔課題を解決するための手段〕[Means to solve the problem]

本発明の特徴は、割当て制御にニューラル・ネット(詳
細後述)を応用したことである。
A feature of the present invention is that a neural network (details will be described later) is applied to allocation control.

すなわち本発明は、乗場呼び及び各かごの状態等からニ
ューラル・ネットへの入力パターンを演算する手段と、
該入力パターンによりニューラル・ネットの演算を行う
手段と、ニューラル・ネットの演算結果により割当ての
判定を行う手段とを備えたことを特徴とする。
That is, the present invention provides means for calculating an input pattern to a neural network from the hall call and the state of each car,
The present invention is characterized by comprising means for performing neural network calculations based on the input pattern, and means for determining allocation based on the neural network calculation results.

更に、ニューラル・ネットを入力層と中間第1層、中間
第2層、出力層で構成し、入力層と中間第1層の各ユニ
ットの接続は、各号機毎に自号機に関するユニット同志
のみを相互に接続し、中間第1層と中間第2層の各ユニ
ットの接続は、自号機に関するユニットと他号機に関す
るユニットをも相互に接続する構成として、また、各号
機の接続構成と重みの設定を対称的として、演算処理の
効率化と精度の向上を図っている。
Furthermore, the neural net is composed of an input layer, an intermediate 1st layer, an intermediate 2nd layer, and an output layer, and the connections between each unit of the input layer and the intermediate 1st layer are limited to the units related to the own unit for each machine. The units in the first intermediate layer and the second intermediate layer are connected to each other, and the units related to the own machine and the units related to other machines are also connected to each other, and the connection configuration and weight settings of each machine are The aim is to improve the efficiency and accuracy of arithmetic processing by making it symmetrical.

〔実施例〕 以下、本発明の一実施例について説明するが、まずニュ
ーラル・ネットについて簡単に説明する。
[Embodiment] An embodiment of the present invention will be described below, but first, a neural net will be briefly explained.

ニューラル・ネットとは、人間の脳を真似たネットワー
クで、脳のニエーロン(神経細胞)に対応したユニット
が複数個、複雑に接続し合ったもので、各ユニットの動
作およびユニット間の接続形態をうまく決めることで、
パターン認識機能や知識処理機能を埋め込むことができ
、例えば[日経エレクトロニクスJ 1987年8月1
0日号(−427)のP115〜P124などに紹介さ
れている。
A neural net is a network that imitates the human brain, consisting of multiple units that correspond to the brain's neurons (nerve cells) and are connected in a complex manner. By deciding well,
Pattern recognition functions and knowledge processing functions can be embedded, for example [Nikkei Electronics J August 1987]
It is introduced in pages 115 to 124 of the 0th issue (-427).

まずニューロンをモデル化したユニットの構造を第7図
に示す。ユニットU!は他のユニットからの入力QJの
総和を一定の規則で変換し、Qlとするが、他のユニッ
トとの結合部にはそれぞれ可変の重みW、4が付いてい
る。この重みは各ユニット間の結合の強さを表わすため
のもので、この値を変えると接続を変えなくても実質的
にネットワークの構造が変わることになる。後述のネッ
トワークの学習とはこの値を変えることであって、ff
iミWijは正、ゼロ、負の値をとる。ゼロは結合のな
いことを表わす。
First, Figure 7 shows the structure of a unit that models a neuron. Unit U! converts the sum of inputs QJ from other units according to a certain rule and sets it as Ql, but a variable weight W, 4 is attached to each connection part with other units. This weight is used to express the strength of the connection between each unit, and changing this value will essentially change the structure of the network without changing the connections. Network learning, which will be described later, involves changing this value, and ff
i and Wij take positive, zero, and negative values. Zero represents no bond.

あるユニットが複数ユニットから人力を受けた場合、そ
の入力の総和をNETで表わすとすると、ユニットUi
の入力の総和は、 NET! =  ΣW、jQ。
When a unit receives human power from multiple units, if the sum of the inputs is expressed as NET, then the unit Ui
The sum of the inputs of NET! = ΣW, jQ.

である。It is.

各ユニットはこの入力の総和NETを関数fに適用し、
次式に示すように出力Q、に変換する。
Each unit applies this sum of inputs NET to the function f,
It is converted into an output Q as shown in the following equation.

Qi =  f  (NET、) =  f(写Wi、QJ) この関数fは各ユニットごとに違ってよいが、−aには
第8図(alに示したしきい値開数又は第8図へ)に示
したsigmoidiVA数を使う。
Qi = f (NET,) = f (sha Wi, QJ) This function f may be different for each unit, but for -a, the threshold numerical value shown in Figure 8 (al) or the ) is used.

このsigmoid関数は、微分可能な疑似線形関数で
、 f儂= □ L + e−NET( で表せる。値域はθ〜1で、入力値が大きくなるにつれ
1に、小さくなるにつれOに近づく。入力がOのときは
0.5となる。しきい値θ (バイアス)を加えて、 とする場合もある。
This sigmoid function is a differentiable pseudo-linear function and can be expressed as f 儂 = □ L + e-NET ( The range is θ ~ 1, and as the input value increases, it approaches 1, and as it decreases, it approaches O. Input When is O, it becomes 0.5. In some cases, a threshold value θ (bias) is added to obtain the following.

第9図は、ネットワークの構造の一例を示す図で、ユニ
ット間の結合部の重みは図示を省略している。
FIG. 9 is a diagram showing an example of the structure of a network, and weights of coupling parts between units are omitted from illustration.

ニューラル・ネットは、ネットワークの構造からパター
ン連想型と自動連想型に分類されるが、本発明にはパタ
ーン連想型を用いる。パターン連想型とは、入力パター
ンをある出カバターンに変換するネットワークで、第9
図のように各ユニットを入力層、中間層、出力層に階層
化している。
Neural nets are classified into pattern associative type and automatic associative type based on the network structure, and the pattern associative type is used in the present invention. A pattern associative type is a network that converts an input pattern into a certain output pattern.
As shown in the figure, each unit is hierarchically divided into an input layer, a middle layer, and an output layer.

各ユニットは人力層から出力層に向けて11?rhされ
るが、各層内のユニノF−同士は接続しない。また、入
カニニットと出カニニットは独立している。
Each unit is 11 from the human power layer to the output layer? rh, but the unino F-s in each layer are not connected to each other. In addition, the in-kani knit and the out-kani knit are independent.

このようなニューラル・ネットにおいて、入力層の各ユ
ニットに入力データを与えるとこの信号は各ユニットで
変換され、中間層に伝わり、最後に出力層から出てくる
が、望ましい出力を得るためには各ユニット間の結合の
強弱すなわち重みを適切な値に設定する必要がある。こ
の重みの設定は、ネットワークを次のように学習させる
ことによって行う。
In such a neural net, when input data is given to each unit in the input layer, this signal is converted in each unit, transmitted to the intermediate layer, and finally comes out from the output layer, but in order to obtain the desired output, It is necessary to set the strength of the connection between each unit, that is, the weight, to an appropriate value. This weight setting is performed by training the network as follows.

まず最初は、すべての重みをランダムに設定しておき、
人力層の各ユニットに学習用の入力データ(予め望まし
い出力の分っているデータ)を与える。そしてこのとき
出力層の各ユニットから出てきた出力値と望ましい出力
値を比べ、その差(誤差)を減らすように各重みの値を
修正する。そしてこれを多数の学習データを用いて誤差
が収束するまで繰り返す。この誤差の値から各重みの値
を修正する学習アルゴリズムについては後述する。
First, set all the weights randomly,
Input data for learning (data whose desired output is known in advance) is given to each unit in the human-powered layer. At this time, the output value from each unit of the output layer is compared with the desired output value, and the value of each weight is corrected to reduce the difference (error). This is then repeated using a large amount of learning data until the error converges. A learning algorithm for correcting each weight value based on this error value will be described later.

こうして学習を終了すると、ニューラル・ネット内に知
識処理機能が自動的に埋め込まれたことになり、学習用
のデータだけでなく未知の入力データに対しても常に望
ましい出力が得られるようになる。
When learning is completed in this way, the knowledge processing function is automatically embedded within the neural net, and the desired output can always be obtained not only from training data but also from unknown input data.

本発明はこのニューラル・ネットをエレベータの割当て
制御に利用する。なお、ニューラル・ネットは各ユニッ
トを増幅器や抵抗を用いて構成しLSI化することも可
能であるが、ソフトウェアで仮想的なニューラル・ネッ
トを構成してすべて演算で処理することもでき、以下の
実施例ではソフトウェアで実現する場合について説明す
る。
The present invention utilizes this neural network for elevator assignment control. Although it is possible to configure each unit of a neural net using amplifiers and resistors and implement it as an LSI, it is also possible to configure a virtual neural net using software and process everything by calculation, as shown below. In the embodiment, a case will be explained in which the system is realized by software.

第1図は本発明の全体の構成の一実施例を示す図で、こ
こでは説明の便宜上、制御対象エレベータが1号機〜3
号機の3台とするが、勿論何台の場合でも本発明を同様
に適用することができる。
FIG. 1 is a diagram showing an embodiment of the overall configuration of the present invention, and here, for convenience of explanation, the elevators to be controlled are Nos. 1 to 3.
Although the number of machines is three, it goes without saying that the present invention can be similarly applied to any number of machines.

第1図において、1は各階に設けられた乗場呼び釦(1
つの階床のみを図示し、他は省略している)、2は乗場
呼び信号、3Aは1号機の運行を管理する運行制御装置
、同様に3Bと30はそれぞれ2号機と3号機の運行を
管理する運行制御装置、4は各かごの状B(かご位置、
方向、停止。
In Figure 1, 1 is the hall call button (1
(Only one floor is shown, the others are omitted), 2 is a hall call signal, 3A is an operation control device that manages the operation of No. 1 car, and 3B and 30 are respectively responsible for the operation of No. 2 and No. 3 cars. The operation control device to manage, 4, the shape B of each car (car position,
Direction, stop.

走行1戸開閉状態、かご呼び、荷重等)を表わすかご情
報信号、5は群管理装置として割当ての機能を果たすた
めのマイクロコンピュータで、入出力インターフェイス
6を介して読み込んだ乗場呼び信号2及びかご情報信号
4のデータを基に、新たな乗場呼びが発生した時点にお
ける交通状況をニューラル・ネットへの入力パターンと
して変換する入力パターン演算手段7としての機能と、
この入力パターンから各層における各ユニットの出力を
順次演算するニューラル・ネット演算手段8としての機
能、出力層の各ユニットの出力の値からどの号機が最適
であるかを判定し割当てる割当て判定手段9としての機
能を備え、その割当て結果を入出力インターフェイス6
を介し、割当て信号10として出力する。各運行制御装
置3A〜3Cは、この割当て信号10によって割当てら
れた乗場呼びと、自号機に登録されたかご呼びに順次応
答するようにかごの運行を制御する。
5 is a microcomputer for fulfilling the assignment function as a group management device, and 5 is a microcomputer that performs the assignment function as a group management device, and the car information signal 5 indicates the car door opening/closing status, car call, load, etc. A function as an input pattern calculation means 7 that converts the traffic situation at the time when a new hall call occurs based on the data of the information signal 4 as an input pattern to the neural network;
It functions as a neural net calculation means 8 that sequentially calculates the output of each unit in each layer from this input pattern, and as an allocation judgment means 9 that determines which machine is optimal from the output value of each unit in the output layer and allocates it. The allocation result is input/output interface 6.
It is output as an allocation signal 10 via. Each of the operation control devices 3A to 3C controls the operation of the car so as to respond sequentially to the hall call assigned by this assignment signal 10 and the car call registered in the own car.

第2図は、本発明による割当ての処理手順を示したフロ
ーチャートである。
FIG. 2 is a flowchart showing the allocation processing procedure according to the present invention.

第2図において、プログラムがスタートするとまず手順
Mllで新たに発生した乗場呼びがあるか否かを判断し
、あれば手順M12へと進む。
In FIG. 2, when the program starts, it is first determined in step Mll whether or not there is a newly generated hall call, and if so, the process advances to step M12.

手順M12では、各かごの状B(位置、方向他)や乗場
呼びの階、方向等の情報を読み込む。そして手順M13
でこれらの情報を基に、ニューラル・ネットへの入力パ
ターンの各データについて演算する。
In step M12, information such as the shape B (position, direction, etc.) of each car, the floor of the hall call, direction, etc. is read. And step M13
Based on this information, each piece of data in the input pattern to the neural network is calculated.

入力パターンの各データについての一例を第3図に示す
。入力パターンの各データは、第3図に示すように乗場
呼び信号から新たに発生した乗場呼びの階と方向を、ま
た各号機のかご情報信号からかご位置や運転方向、荷重
等をそれぞれ入力パターン演算手段7に入力し、次のよ
うにして求める。例えば1号機に関する人カバターンの
各データPI〜P、は、 Pill 、新規乗場呼びの階、方向と1号機のかご位
置、運転方向とからその階床差(階床数)を求め、それ
をO〜1の範囲に正規化する。
An example of each data of the input pattern is shown in FIG. As shown in Figure 3, each data in the input pattern includes the floor and direction of a newly generated hall call from the hall call signal, and the car position, driving direction, load, etc. from the car information signal of each car. It is input to the calculation means 7 and calculated as follows. For example, each of the passenger cover data PI to P regarding the No. 1 car is determined by calculating the floor difference (number of floors) from the floor and direction of the new landing call and the car position and driving direction of the No. 1 car, and then Normalize to a range of ~1.

p(’:、 を号機に割当済みの乗場呼びと1号機のか
ご呼びのうち、1号機のかご位置から新規乗場呼びの階
の間に存在する呼びの数をカウントし、それをO〜1の
範囲に正規化する。
p(':, among the hall calls already assigned to the car and the car calls of the first car, count the number of calls existing between the car position of the first car and the floor of the new hall call, and calculate the number from O to 1. Normalize to the range of .

p LM 、 を号機に割当済みの乗場呼びのうち、新
規乗場呼びの階より遠方の呼びの数をカウントし、それ
を0〜1の範囲に正規化する。
Among the hall calls already assigned to the car, the number of calls located far from the floor of the new hall call is counted, and the number is normalized to a range of 0 to 1.

P4 :1号機のかご内の荷重をO−1の範囲に正規化
する。
P4: Normalize the load inside the car of No. 1 to the range of O-1.

のようにして求める。Find it like this.

ここで、0〜1の範囲への正規化は、例えばP電′であ
れば、 P、であれば、 というように、取りうる最大値で割ることによって求め
ることができる。
Here, normalization to the range of 0 to 1 can be obtained by dividing by the maximum possible value, such as, for example, if P is P, then if P, then the following.

2号機の入力パターンP I” P aと3号機の入力
パター7P1〜P4も同様にして求められる。
The input pattern P I''P a of the second machine and the input patterns 7P1 to P4 of the third machine are obtained in the same manner.

こうして得られた入力パターンから、次にニューラル・
ネットの演算を行う。
From the input pattern obtained in this way, the neural
Perform net calculations.

本発明に適用するニューラル・ネットの構造の一例を第
4図に示す。ここでUl′1′−田II 、  Ute
l〜U′−ゝl  U’:”−w U’4’は入力層の
各ユニットでそれぞれ入力パターンの各データP1〜P
4.PI〜P’:’ 、  p’+’ 〜p01′ニ対
応L/でイル。マタ、U”IU−“〜U′り、U−ゝは
中間の第1層のユニット、UT。
FIG. 4 shows an example of the structure of a neural network applied to the present invention. Here, Ul'1'-Ta II, Ute
l~U'-ゝl U':"-w U'4' represents each data P1-P of the input pattern in each unit of the input layer, respectively.
4. PI~P':', p'+'~p01' corresponds to L/. Mata, U"IU-"~U'ri, U-ゝ is the intermediate first layer unit, UT.

u%l、UT、U1′は中間の第2層のユニット、Uツ
〜U1νは出力層のユニットで、ユニットU1′:の出
力Qツは1号機に、ユニ7 トU’:の出力qL:lは
2号機に、ユニットU′Slチ出力Q冑は3号機にそれ
ぞれ対応している。この例では入力パターンの各データ
は、前述のようにO〜1の範囲に正規化されているので
入力層の各ユニットは処理を何も行わず、入力データを
そのまま出力するが、入力データとして階床数や呼び数
をそのまま使用し、入力層の各ユニットの入出力特性で
正規化することもできる。中間の各層と出力層の各ユニ
ットは、ここでは前述の第8図(blに示した入出力特
性を持つものとする。勿論、前述のようにこれにしきい
値(バイアス)を加えた特性としてもよい。各ユニット
間の結合の度合いを表わす重みの値は、後述のように予
め学習によって求められている。従って入力データの各
層が決まれば第4図に示したニューラル・ネットの出力
は演算によって求めることができる。
u%l, UT, U1' are the units of the intermediate second layer, Utsu~U1ν are the units of the output layer, the output Qtsu of unit U1': is sent to unit 1, the output qL of unit U': :l corresponds to the second machine, and unit U'Slchi output Q corresponds to the third machine. In this example, each data of the input pattern is normalized to the range of O to 1 as described above, so each unit of the input layer does not perform any processing and outputs the input data as it is, but as the input data It is also possible to use the number of floors and number of calls as they are, and normalize them using the input/output characteristics of each unit in the input layer. It is assumed here that each intermediate layer and each unit of the output layer has the input/output characteristics shown in FIG. The weight value representing the degree of connection between each unit is determined in advance by learning as described later.Therefore, once each layer of input data is determined, the output of the neural network shown in Figure 4 can be calculated. It can be found by

まず、入力層の各ユニットはこの例では前述のように入
力データはそのまま出力され、中間第1層の各ユニット
にそれぞれ入力されるので、この入力から中間第1層の
各ユニットの出力を順次演算して求める(第2図の手順
M14)。例えばユニットUTの入力の総和をNET′
;とし、出力をQ、とすると、 ;W1.・p、+w□・P2 + w”;s e p“讐+Wと′、・P′ソとして計
算することができる。ただし、W’:’、は入力層のユ
ニッ) U(’:と中間第1層のユニット0111間の
重みを表わす。
First, in this example, each unit in the input layer outputs the input data as is, as described above, and inputs it to each unit in the intermediate first layer, so from this input, the output of each unit in the intermediate first layer is sequentially output. Calculate and find (step M14 in FIG. 2). For example, the sum of the inputs of unit UT is NET'
; and the output is Q, ;W1.・p, +w□・P2 + w”; can be calculated as s e p“enemy+W and ′,・P′so. However, W':' represents the weight between the input layer unit U(': and the intermediate first layer unit 0111).

こうして中間第1層の各ユニットについて演算を終了す
ると、その各出力が中間筒2Nの各ユニ7トへの入力と
なるので、続いて中間筒2Nの各ユニットについて出力
の演算を行う(手順M15) 。
When the computation is completed for each unit in the first intermediate layer, each output becomes an input to each unit in the intermediate cylinder 2N, so the output is subsequently computed for each unit in the intermediate cylinder 2N (step M15). ).

同様にして、出力層の各ユニットについて出力をそれぞ
れ演算する(手順M16)。そして各出カニニットの出
力から最適な号機を選択するのであるが、ここで各重み
の値は、予めそれを設定する学習の過程において、学習
用の入力パターンに対して割当号機に対応する出カニニ
ットの望ましい出力(出力目標)を1に、他の出カニニ
ットの望ましい出力を0として、例えばある学習用の入
力パターンに対して1号機に割当てるのが最適と考えら
れる場合には、ユニットU′;”出力目標を1とし、ユ
ニットU3二′とUTの出力目標を0として学習を行い
、更に多数の学習用パターンについて誤差が十分小さ(
なるまで学習を繰り返した後の重みが設定されているの
で、手順M16の演算の結果、割当ての最適な号機に対
応する出カニニットの出力が1に最も近くなる。従って
出力Q、〜Q、のうち、最も出力の大きい値の号機に割
当てを決定してもよいが、どの出カニニットの出力も所
定値(例えば0.5)以下、すなわちどの号機も割当て
に適切でないという結果になる場合も考えられるので、
ここではまず手順M17で各出カニニットのうち所定値
以上のものがあるか否かを判断し、もしあれば手順M1
9でその値の最も大きい号機に割当てを決定し、もし所
定値を超えるものがなければ手順M18でバンクアップ
割当てアルゴリズム(例えば従来の評価関数による割当
て)により再計算を行い、手順M19でその評価値の最
も大きいかまたは最も小さい号機に割当てを決定するよ
うにしている。
Similarly, the output is calculated for each unit of the output layer (step M16). Then, the optimal number machine is selected from the output of each output machine, and the value of each weight is set in advance in the learning process to set the value of the output machine corresponding to the assigned machine for the input pattern for learning. For example, if the desired output (output target) of the output unit is set to 1, and the desired output of the other output units is set to 0, and it is considered optimal to allocate to unit No. 1 for a certain input pattern for learning, then unit U'; ``Learning is performed with the output target set to 1 and the output targets of units U32' and UT set to 0, and the error is sufficiently small for a large number of learning patterns (
Since the weight is set after repeating learning until the weight is set, as a result of the calculation in step M16, the output of the output kaninit corresponding to the optimal machine for allocation becomes closest to 1. Therefore, allocation may be determined to the machine with the largest output among the outputs Q, ~Q, but if the output of any output unit is less than a predetermined value (for example, 0.5), that is, any machine is suitable for assignment. There may be cases where the result is not, so
Here, first, in step M17, it is determined whether or not there are more than a predetermined value among each output crab unit, and if there is, step M1
In step 9, the allocation is determined to the machine with the largest value, and if there is no item exceeding a predetermined value, recalculation is performed using the bank-up allocation algorithm (for example, allocation using a conventional evaluation function) in step M18, and the evaluation is performed in step M19. The allocation is determined to the machine with the largest or smallest value.

なお、上記の実施例では入力パターンの各データとして
静的要素のみを用いたが、動的(時間的)な要素、例え
ば各乗場呼びの予測待時間、乗場呼びが発生してからの
経過時間などを取り入れるようにしてもよい。また上記
実施例では入力パターンの各データは各号機側のデータ
であるが、例えば各階の乗場待客数や乗場呼びの発生頻
度等、群全体に共通のデータを入力パターンの1つとし
て加え、それを入力層のユニットから中間層の各ユニッ
トへ接続するようにしてもよい。
In addition, in the above example, only static elements were used as each data of the input pattern, but dynamic (temporal) elements, such as the predicted waiting time for each hall call and the elapsed time since the hall call occurred. You may also incorporate something like this. Furthermore, in the above embodiment, each data in the input pattern is data for each car, but data common to the entire group, such as the number of passengers waiting in the hall on each floor and the frequency of hall calls, is added as one of the input patterns. It may also be connected from the input layer unit to each intermediate layer unit.

また、ニューラル・ネットのネットワーク構造は第4図
に示したものに限らない(接続、ユニット数とも)が、
第9図に示した一般的なネットワーク構造のように各層
間のユニットをすべて相互に接続するのではなく、第4
図のようにまず人力層と中間の第1層との間では、自号
機の入力データに対応するユニットだけを相互に接続し
、次に中間の第1層と第2層の間で初めて他号機に対応
するユニットととも相互に接続するようにし、また各号
機の接続が対称的になるようにすると、演算回数の節減
と精度の向上とを図ることができる。
Also, the network structure of the neural net is not limited to that shown in Figure 4 (both connections and number of units), but
Rather than interconnecting all the units between each layer as in the general network structure shown in Figure 9,
As shown in the figure, first, only the units corresponding to the input data of the own machine are interconnected between the human power layer and the intermediate first layer, and then the other units are connected between the intermediate first layer and the second layer. By mutually connecting the units corresponding to the machine numbers and symmetrically connecting the machines, it is possible to reduce the number of calculations and improve accuracy.

すなわちエレベータの場合、人カバターンの各データと
して性質の全く異なるものを用いるため、例えば新規呼
びと1号機との階床差に関するデータP′1゛と、2号
機の萄重に関するデータPTのように、特に他号機の全
く性質の異なるデータを接続してもあまり意味がないと
考えられるだけでなく、演算回数が増えるだけで却って
ノイズとなる恐れがあるからである。また第4図のよう
な接続とすることによって、例えば1号機に関する入力
データのうち何が割当てに重要で何が重要でないかを考
えなくても、学習の過程で設定された重みによって各人
力データの重要度が加味された状態で1号機に関するデ
ータとしてユニットulllとu(Qlとから出力され
てくることになるので、これを中間の第2層で他号機の
対応する信号と比較することにより、各号機間の相対評
価が、最小限の接続構成で、従って最短の時間でより正
確に行えることになる。また、各号機の状態と割当てと
の関係には対称性がある(例えばある状態において1号
機への割当てが最適であるとすると、同様の状態が2号
機や3号機にも存在するため、各ユニットの接続を各号
機に対して対称的となるようにすることで、各号機に対
する処理を同様に行うことができ、重みの設定を対称的
として学習の効率化を図ることもできる。
In other words, in the case of an elevator, data with completely different characteristics are used for each data point, so for example, data P'1' regarding the floor difference between the new call and the first car, and data PT regarding the weight of the second car. In particular, it is not only considered that there is little point in connecting data with completely different properties from other machines, but also because the number of calculations increases and there is a risk that the result will be noise. In addition, by making the connection as shown in Figure 4, for example, each human input data can be assigned using the weights set during the learning process, without having to think about what is important and what is not important for allocation among the input data related to Unit 1. Since the data related to the first machine will be output from units ull and u(Ql) with the importance of , the relative evaluation between each machine can be performed more accurately with the minimum connection configuration and therefore in the shortest time.Also, there is symmetry in the relationship between the state of each machine and the assignment (for example, if a certain state Assuming that the allocation to Unit 1 is optimal in , a similar situation also exists in Units 2 and 3, so by making the connections of each unit symmetrical with respect to each unit, Similarly, the weights can be set symmetrically to improve learning efficiency.

次にネットワークの学習について説明する。ニューラル
・ネットの特性は各ユニット間の接続の構成と重みによ
って決定されるが、ここでは接続の構成は固定化されて
いるので、重みの設定を行うことが必要となる。この重
みの設定は、−i的な設定方法として知られているバッ
クプロパゲーションによる学習を利用する。以下、第4
図の構成のニューラル・ネットについて説明する。
Next, network learning will be explained. The characteristics of a neural net are determined by the configuration and weights of connections between each unit, but since the configuration of connections here is fixed, it is necessary to set the weights. This weight setting uses learning by backpropagation, which is known as a -i-like setting method. Below, the fourth
The neural net with the configuration shown in the figure will be explained.

まず最初に、各ユニット間の重みの値を適当な値に無作
為に設定しておく。そして学習用のサンプル(入力パタ
ーンと出力目標との組み合わせ)を多数作成し、これを
学習用のコンピューターに読み込ませておく。この学習
用のサンプルは、例えば1号機〜3号機のかご状態と新
規乗場呼びの組み合わせを一つ想定し、この状態では何
号機に割当てるのが最適かを専門家の判断により或いは
シミュレーション等を用いて判断し、1号機が最適であ
ればそのときの入力パターンに対して1号機の出力層の
ユニフI”Uqの出力目標を1に、その他の出力層のユ
ニットの出力目標を0として作成したものである。そし
てこの多数の学習用サンプルを用いて学習を行うのであ
るが、その処理手順の一例を第5図のフローチャートに
示す。
First, the weight values between each unit are randomly set to appropriate values. A large number of learning samples (combinations of input patterns and output targets) are created and loaded into a learning computer. For example, this learning sample assumes one combination of the car status of cars 1 to 3 and a new landing call, and determines which car is best to allocate to in this situation based on the judgment of an expert or using simulation etc. If Unit 1 is optimal, the output target of unit I"Uq in the output layer of Unit 1 is set to 1, and the output targets of the units in the other output layers are set to 0 for the input pattern at that time. Learning is performed using this large number of learning samples, and an example of the processing procedure is shown in the flowchart of FIG.

まずサンプル番号を示すインデックスNを0としく手順
5ll) 、次にN=N+1として(手順512)サン
プル番号1から順次手順313以下の処理を行う。手順
513では最初に1番目のサンプルの入力パターンと出
力目標とをセットし、手順S14でこの人カバターンに
対するニューラル・ネットの出力を演算する。最初は重
みが無作為に設定されているため、このときの出力層の
各ユニットの出力の値は出力目標とは違った値となるの
で、この出力目標と実際の出力との差を誤差として計算
する(手順S 15)。出力層の各ユニットにおける誤
差E(:+は、各ユニットの出力目標をT(vとすると
E9=T、−Q、  (αは号機番号)となる。
First, the index N indicating the sample number is set to 0 (step 511), and then N=N+1 (step 512), and the processes from step 313 onwards are performed sequentially from sample number 1. In step 513, the input pattern and output target of the first sample are first set, and in step S14, the output of the neural network for this human cover turn is calculated. Initially, the weights are set randomly, so the output value of each unit in the output layer at this time will be a value different from the output target, so the difference between this output target and the actual output is treated as an error. Calculate (Step S15). The error E(:+) in each unit of the output layer is E9=T, -Q, (α is the machine number), where the output target of each unit is T(v).

ニューラル・ネットの演算では、人力データを入力層か
ら出力層へ向けて順次処理するが、重みの修正はこの誤
差を用いて逆に出力層から人力層に向けて行っていく。
In neural net calculations, human data is processed sequentially from the input layer to the output layer, but weights are corrected using this error from the output layer to the human layer.

出力の誤差が求まるとこれを用いて、次に中間筒2Nと
出力層の各ユニット間の重みを修正する(手順516)
、中間第2層のユニットUt′と出力層のユニットU(
2)間の重みをWlちとすると、その修正は次のように
して計算する。
Once the output error is determined, this is used to correct the weight between each unit of the intermediate cylinder 2N and the output layer (step 516).
, the unit Ut′ of the intermediate second layer and the unit U(
If the weight between 2) is Wl, the correction is calculated as follows.

W、、=Wk、+ΔWk。W, ,=Wk, +ΔWk.

ΔW−シ=λ・E?・Qフ′+(1−λ)・A’WF4
ただし W六′:W誤の修正後の値 ΔWF4:WANの今回の修正量 M W @”q : W F*の前回の修正量(最初は
0)λ:学習率(定数2例えば0.5) Q”’ :ユニットU(:′の出力 である。
ΔW−shi=λ・E?・QF'+(1-λ)・A'WF4
However, W6′: Value after correction of W error ΔWF4: Current correction amount of WAN M W @”q: Previous correction amount of W F* (initially 0) λ: Learning rate (constant 2, e.g. 0.5 ) Q”': Unit U (:' output.

例えばユニットUTとユニットU14′との間の重みW
4“シの修正後の値W?9は、 Wl、±W1.+ΔW:Iシ ΔW’r’:= A −E’9’−Q’:’+ (1−
A)  ・Δ′wニアで計算される。
For example, the weight W between unit UT and unit U14'
The corrected value W?9 of 4" is Wl, ±W1.+ΔW:I ΔW'r':= A -E'9'-Q':'+ (1-
A) ・Calculated by Δ′w near.

同様にして、中間筒2Nと出力層の各ユニット間の重み
の修正を終了すると、次に中間第2層の各ユニットの誤
差を計算しく手順517)、その誤差を用いて中間−第
1層と中間第2層の間の重みを修正する(手順318)
、この修正は次のようにして計算される。
In the same way, when the correction of the weight between each unit of the intermediate cylinder 2N and the output layer is completed, the error of each unit of the intermediate second layer is calculated (step 517), and the error is used to calculate the weight between the intermediate cylinder 2N and the output layer. and the intermediate second layer (step 318).
, this correction is calculated as follows.

中間第2層のユニットUelの誤差ETは、出力層の誤
差E9等を用いて、 E’s’ −Q’:’・ (1−Q’:’)  ・E、
・W、。
The error ET of the unit Uel in the intermediate second layer is expressed as E's' - Q':' (1 - Q':') E, using the output layer error E9, etc.
・W.

となる。becomes.

このときの中間筒1MのユニットU?と中間第2層のユ
ニットU′:との間に重みW1′!の修正後の値WSで
は W、、=W、菖+ΔWjk 6w 5: wmλ・E雫′・Qフ+ (1−λ)・Δ
’wj’:となり、また中間第1層のユニットUjと中
間第2層のユニットU?との間の重みWjkの修正後の
値W豐1よ W号2′−Wイ″1+ΔW七′ Δw?コζλ・式′・Q?’+(1−λ) ・KWlり
!となる。ただしβはαと同様に号機番号を表わし、α
≠βである。その他の記号は前述と同様である。
Unit U of intermediate cylinder 1M at this time? There is a weight W1'! between and unit U' of the intermediate second layer. In the corrected value WS of
'wj': Also, the unit Uj of the first intermediate layer and the unit U of the second intermediate layer? The corrected value of the weight Wjk between 1 and 2 is W2' - W2'1 + ΔW7'Δw?Kζλ·Equation'·Q?'+(1−λ)·KW1! However, β represents the machine number like α, and α
≠β. Other symbols are the same as above.

例えばユニットUマの誤差E′4′は、EC4) = 
Qψ・ (1−Qψ)・El、’)・W5°二′となり
、これよりユニットU(′とU′lとの間の重みWS?
の修正後の値Wlジ4′は W5.=W、、+ΔWSt hw:’:=λ−E’;’ ・Q曾+ (1−g  ・
Δ′w二’7また、ユニットUマとUツとの間の重みw
’:’4も修正後の値Wυiよ W(譚’= w’、”4’+ΔW33′ΔWt′ν=λ
・E′″l)・Qマ+(1−λ) ・Δ′W贅′4′と
して、それぞれ計算できる。
For example, the error E'4' of unit U is EC4) =
Qψ・(1−Qψ)・El,′)・W5°2′ From this, the weight WS between unit U(′ and U′l) is obtained.
The corrected value Wlji4' is W5. =W,, +ΔWSt hw:':=λ-E';' ・Q 曾+ (1-g ・
Δ'w2'7 Also, the weight between units U and U
':' 4 is also the corrected value Wυi W (tan' = w', "4' + ΔW33'ΔWt'ν = λ
・E′″l)・Qma+(1−λ)・Δ′W×′4′, respectively.

同様にして中間第1層と中間筒2Nの間の重みをすべて
修正すると、次に中間第1層の各ユニ7トの誤差を計算
しく手順519)、その値を用いて入力層と中間第1層
の間の重みを修正する(手順320) 、この修正の計
算はつぎのように行う。
After all the weights between the first intermediate layer and the intermediate cylinder 2N are corrected in the same way, the error of each unit 7 of the intermediate first layer is calculated (step 519), and the value is used to calculate the error between the input layer and the intermediate cylinder 2N. Modify the weight between one layer (step 320). This modification is calculated as follows.

中間第1層のユニットu4)の誤差E(17は、E〒=
Qイ(1−Q’ツ)・(E1′・W究′・ΣB?・w’
;’:”)! となり、入力層のユニットUで′と中間第1層のユニッ
トU−′との間の重みW胃の修正後の値W i”7’は
、W1イーW(4+ A W j”J ΔW11=λ・E〒・Q’?’+(1−λ)・にWll
となる。
The error E (17 of the intermediate first layer unit u4) is E〒=
Qi (1-Q'tsu)・(E1'・Wkyu'・ΣB?・w'
;':”)! Then, the corrected value W i"7' of the weight W between '' in the unit U of the input layer and the unit U-' of the intermediate first layer is W1EW(4+A W j"J ΔW11=λ・E〒・Q'?'+(1-λ)・Wll
becomes.

例えばユニットUマの誤差E ’s’は、E’Q’ =
 Q’5 (I  Q’s’) ・(E’V’W ’s
’t + 晒’lA/M” E’V’N”:”)となり
、これよりユニットU甲とUマとの間の重みW)°2の
修正後の値wr“シtよ、WIS=Wls+ΔW1S A Wll4−J 、 ETQ)、 Q(:J+(1−
λ>  ・にw:’、’として計算できる。
For example, the error E's' for unit U is E'Q' =
Q'5 (I Q's') ・(E'V'W's
't + Exposure'lA/M"E'V'N":"), and from this the weight between units UA and Uma is the corrected value of W)°2 wr"Shit, WIS= Wls+ΔW1S A Wll4-J, ETQ), Q(:J+(1-
It can be calculated as w:',' for λ> .

同様にして入力層と中間第1層の間の重みをすべて修正
すると、1番目の学習サンプルによる重みの修正が完了
したことになり、手順S21から手順S12へと戻り、
次に2番目の学習用サンプルについて修正後の重みを用
いて上記手順を繰り返す。
When all the weights between the input layer and the intermediate first layer are corrected in the same way, the correction of the weights using the first learning sample is completed, and the process returns from step S21 to step S12.
Next, the above procedure is repeated using the corrected weights for the second learning sample.

こうして予め用意したN個の学習用サンプルをすべて終
了すると、手順S22で出力層の誤差が十分小さくなっ
たか否かを確認する。誤差が収束していなければ手順3
11へと戻って再びN個の学習用サンプルによって学習
を繰り返し、誤差が収束すると学習を完了する。
When all the N learning samples prepared in advance are completed in this way, it is checked in step S22 whether the error in the output layer has become sufficiently small. If the error has not converged, proceed to step 3.
11, learning is repeated again using N learning samples, and when the error converges, learning is completed.

そして学習の完了により設定された重みを用いると、前
述のように学習用サンプル以外の入力パターンに対して
も学習用サンプルと同じ判断基準で割当てが行われるこ
とになる。
When the weights set upon completion of learning are used, input patterns other than the learning samples are assigned using the same criteria as the learning samples, as described above.

次に、この学習による重みの設定を、エレベータに特有
の性質を利用して筒略化する方法について述べる。
Next, we will describe a method for simplifying the setting of weights through learning by utilizing characteristics specific to elevators.

エレベータにおいては、各号機が一般的には対称性を有
するため、例えばエレベータが3台の場合、1号機に割
当てるのが最適なある入力パターンを考えると、この入
力パターンの2号機用の入力データと3号機用の入力デ
ータを入れ替えても、同じく1号機への割当てが最適で
ある。また、この人カバターンの1号機用の入力データ
を2号機用の入力データと入れ替えると2号機に割当て
るのが最適な入力パターンとなり、3号機の入力データ
と入れ替えると3号機に割当てるのが最適な入力パター
ンとなる。すなわちエレベータが3台の場合は1つの入
力パターンに対して6通りの学習用サンプルが考えられ
るので、本来ならばこの6通りの学習用サンプルを1組
とした多数組の学習用サンプルを用いて学習を行う必要
があるが、そのようにして誤差が収束するまで学習を繰
り返すと、最終的に各重みの設定値のうち、各号機のそ
れぞれ同じ接続位置に対応する重みは同じ値になること
が予想される。例えば第4図の例では、ws’4とWt
゛ル′とは異なる値となるが、Wt′ルとWシフ。
In elevators, each machine generally has symmetry, so for example, if there are three elevators, if we consider a certain input pattern that is optimally assigned to machine No. 1, the input data for machine No. 2 of this input pattern Even if the input data for machine No. 3 and machine 3 are swapped, the assignment to machine No. 1 is still optimal. Also, if the input data for this human Kabataan's No. 1 machine is replaced with the input data for the No. 2 machine, the optimal input pattern will be assigned to the No. 2 machine, and if it is replaced with the input data for the No. 3 machine, the optimal input pattern will be assigned to the No. 3 machine. This becomes the input pattern. In other words, when there are three elevators, six types of learning samples can be considered for one input pattern, so originally, many sets of training samples with these six types of training samples as one set should be used. It is necessary to perform learning, but if you repeat learning in this way until the error converges, the weights corresponding to the same connection position of each machine will eventually become the same value among the setting values of each weight. is expected. For example, in the example shown in Figure 4, ws'4 and Wt
Wt' and W shift, although the values are different from ''.

w pJの3つは同じ値となり、また、UlolとUS
’シとは異なる値となるが、U1°シとu’+”s、 
 UiJsの3つは同じ値となることが予想される。ま
た、舒シ′:2とU3ζ゛ν、或いはU(,4:)とU
 IF゛:lなどもそれぞれ同じ値となると予想される
。従ってこのように最終的に同じ値になると予想される
重みについては、最初から同じ値に設定しておき、さら
に学習の過程においても同じ値として取り扱うことによ
って学習の回数を減らすことができる。
The three values of w pJ are the same, and Ulol and US
Although the value is different from 'shi, U1°shi and u'+"s,
It is expected that the three UiJs will have the same value. Also, 舒si′:2 and U3ζ゛ν, or U(,4:) and U
It is expected that IF゛:l etc. will also have the same value. Therefore, the number of times of learning can be reduced by setting the weights that are expected to have the same value in the end to the same value from the beginning and treating them as the same value during the learning process.

例えばユニットUCvとU甲の間の重みW汎については
、ある1つの学習用サンプルに対してまず前述の手順で
計算した修正量Δws’:、ΔW苦、ΔW朽を仮の値と
し、次にこの3つの値の平均値を求めてそれを実際の修
正量として計算すると修正後のW、7は各号機常に同じ
値に修正される。また同様に、W蓄電とW品′の修正の
場合も、それぞれの修正量Δw’:”t’とΔW−′ν
の平均値を実際の修正量とすると、w’;’:’とW胃
′は常に同じ値に修正されることになる。このようにエ
レベータの対称性を利用した学習を行うと、1つの学習
用サンプルでこの場合には6i1rlりの学習用ンプル
について学習したのと同じ効果が得られることになり、
用意すべき学習サンプル集すなわち学習回数を大幅に減
らすことができる。
For example, for the weight W between units UCv and UA, for one learning sample, first set the correction amounts Δws':, ΔW, and ΔW, calculated in the above procedure as temporary values, and then If the average value of these three values is found and calculated as the actual correction amount, the corrected W, 7 will always be corrected to the same value for each car. Similarly, in the case of correction of W power storage and W product', the respective correction amounts Δw':"t' and ΔW-'ν
If the average value of is the actual correction amount, then w';':' and W stomach' will always be corrected to the same value. If you perform learning using the symmetry of the elevator in this way, you will be able to obtain the same effect with one learning sample as if you were learning with 6i1rl training samples in this case.
The collection of learning samples that must be prepared, that is, the number of times of learning, can be significantly reduced.

次に、学習をオフラインではなくオンラインで、すなわ
ちエレベータシステムの稼動中に行う場合について説明
する。
Next, a case will be described in which learning is performed online rather than offline, that is, while the elevator system is in operation.

各ビルの交通状況は建物の性質や用途によって異なるた
め、学習をオフラインで行う場合は、各ビルに固有の学
習用サンプルを用意してビル毎に学習を繰り返さねばな
らず、非常に煩雑な作業を強いられることになる。また
、オフラインで行った学習の結果により重みの設定を固
定化してしまった場合、テナントの変更などによりビル
の交通状況が途中から太き(変わるようなことがあると
、適切な割当てが行われなくなる恐れがある。
The traffic conditions of each building differ depending on the nature and purpose of the building, so if learning is done offline, it is necessary to prepare a learning sample specific to each building and repeat the learning for each building, which is a very complicated task. will be forced to do so. In addition, if the weight settings are fixed based on the results of offline learning, if the traffic situation of the building becomes thicker (changes) due to changes in tenants, appropriate assignments may not be made. There is a risk that it will disappear.

こうしたオフラインの学習による問題点を解決するため
には、最初に重みの設定を各建物に共通の標準的な学習
用サンプルを用いてオフラインで学習しておき、その後
(エレベータの据付後)、エレベータの稼動中にそのビ
ルに固有の学習用サンプルを作成し、自動的に学習を行
って重みを随時修正していく必要がある。このオンライ
ンによる学習の手順を第6図のフローチャートにより説
明する。
In order to solve these problems caused by offline learning, first learn the weight settings offline using standard learning samples common to each building, and then (after the elevators are installed) It is necessary to create a learning sample specific to that building while the system is in operation, and to automatically perform learning and modify the weights as needed. The online learning procedure will be explained with reference to the flowchart shown in FIG.

まず最初は、オフラインによる学習で設定された重みに
よってニューラル・ネットが演算され、新規乗場呼びの
割当てが行われる。割当てが行われると、その時の入力
パターンと割当号機番号の対を1つのサンプルとして仮
サンプルu (RAM等で構成)に登録する(手順R1
1,R12) 、そして割当号機がその呼びに応答した
り、その呼びを満貫通過することによりその割当てが消
去されるまで、その呼びと割当て号機に関する情報を検
出し記憶する(手順R13〜R15) 、その呼びと割
当て号機に関する情報とは、例えばその呼びの発生から
の経過時間、その呼びの階に他の号機が先着或いは停止
したこと、その階を割当号機が満貫通過したことなどで
ある。
First, a neural network is calculated based on the weights set through off-line learning, and a new hall call is assigned. When the assignment is made, the pair of input pattern and assigned machine number at that time is registered as one sample in the temporary sample u (consisting of RAM etc.) (Step R1
1, R12), and detects and stores information regarding the call and the assigned machine until the assigned machine responds to the call or passes through the call completely, thereby erasing the assignment (steps R13 to R15). The information regarding the call and the assigned car includes, for example, the elapsed time from the generation of the call, the fact that another car arrived first or stopped at the called floor, and the assigned car completely passed through that floor.

その呼びに割当号機が応答することなどによりその割当
てが消去されると、手順RI6でその割当てが適切であ
ったか否かを判断する。これは予め所定の条件、例えば
待時間が所定時間以上であったこと、或いは他の号機が
先着したこと、その階に積み残しが生じたことなどの条
件を定めておき、その条件の1つにでも該当した場合は
その割当ては不適切すなわち手順R12で登録したその
サンプルは学習用として不適切であるとして消去しく手
順R17) 、そうでなければそのサンプルをそのまま
として手順R1Bへと進む、そして一定時間経過するま
で手順R11〜R18を繰り返し、その間に上記と同様
の手順で多数のサンプルを登録する。−定時間経過する
と、予め登録しである所定の標準的なサンプル集に上記
の手順で作成したサンプル集を加えてこれを学習用サン
プルとし、再学習を行う(手順R19)、この学習の手
順は第5図に示したオフラインによる学習の手順と全く
同じである。学習を終えると仮すンプル集をクリアーし
く手順R20) 、修正後の重みによって割当てを行い
ながら再びサンプルを作成し、上記手順を繰り返して重
みを自動的に修正する。
When the assignment is erased due to the assigned car responding to the call, it is determined in step RI6 whether the assignment was appropriate. This is done by setting predetermined conditions in advance, such as waiting time being longer than a predetermined time, another car arriving first, or unloading on that floor. However, if the assignment is inappropriate, that is, the sample registered in step R12 is inappropriate for learning, and it is deleted (step R17), otherwise, the sample is left as is and the process proceeds to step R1B, and then the sample registered in step R12 is deleted. Steps R11 to R18 are repeated until the time elapses, and during that time a large number of samples are registered using the same steps as above. - After a certain period of time has elapsed, the sample collection created in the above procedure is added to a predetermined standard sample collection that has been registered in advance, and this is used as a learning sample, and re-learning is performed (step R19). This learning procedure is exactly the same as the off-line learning procedure shown in FIG. When the learning is completed, the temporary sample collection is cleared (step R20), samples are created again while being assigned according to the corrected weights, and the above steps are repeated to automatically correct the weights.

このようにオンラインによる学習を取り入れると、オフ
ラインによる学習は各ビルに共通なので1回だけで済み
、しかもその後は各ビルに固有のサンプルにより、常に
そのビルに最適の重みに自動的に修正されていくことに
なり、テナント等の変更により交通状況に変化が生じて
も自動的に対応することができる。
By incorporating online learning in this way, offline learning is common to each building, so it only needs to be done once, and after that, the weights are automatically adjusted to the optimal weight for that building using samples unique to each building. As a result, even if changes in traffic conditions occur due to changes in tenants, etc., it will be possible to automatically respond.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、学習用のサンプルを多数作成するだけ
で、各種の交通状況に対応して最適な割当てかごを決定
する判断システムを自動的に作成することができ、きわ
めて高度な割当て制御を行うことが可能となる。
According to the present invention, by simply creating a large number of samples for learning, it is possible to automatically create a judgment system that determines the optimal car allocation in response to various traffic conditions, allowing extremely advanced allocation control. It becomes possible to do so.

さらにニューラル・ネットの接続構成と、重みの値を工
夫することによって、演算に要する時間や学習回数を減
らすことができる。
Furthermore, by devising the connection configuration of the neural net and the weight values, it is possible to reduce the time required for calculations and the number of times of learning.

また、オンラインによる学習を用いると、ビルの性質、
用途に拘わらず標準化が図れ、またビルの性質等が途中
で変化しても自動的に対応することができる。
In addition, when using online learning, the characteristics of buildings,
Standardization can be achieved regardless of the purpose, and even if the characteristics of the building change during the course, it can be automatically accommodated.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の全体の構成の一実施例を示す図、第2
図は本発明による割当ての処理手順を示すフローチャー
ト、第3図は本発明に係る入力パターンの一例を示す図
、第4図は本発明に係るニューラル・ネットの構造の一
例を示す図、第5図は本発明に係る重みの学習の処理手
順を示すフローチャート、第6図は本発明に係る重みの
学習をオンラインで行う場合の処理手順を示すフローチ
ャート、第7図は本発明を説明するためのユニットの構
造を示す図、第8図(al (b)はユニットの入出力
特性の一例を示す図、第9図は一般的なニューラル・ネ
ットの構造を示す図である。 1・・・乗場呼び釦 2・・・乗場呼び信号 3A−3C・・・各号機の運行制御装置4・・・かご情
報信号 5・・・マイクロコンピュータ 6・・・入出力インターフェイス 7・・・入力パターン演算手段 8・・・ニューラル・ネット演算手段 9・・・割当て判定手段 10・・・割当て信号 特許出願人 フジチック株式会社 第7図 第8図 (α)(b) 出カバターン 廿 合 入力八〇ターン
FIG. 1 is a diagram showing an embodiment of the overall configuration of the present invention, and FIG.
3 is a flowchart showing an allocation processing procedure according to the present invention, FIG. 3 is a diagram showing an example of an input pattern according to the present invention, FIG. 4 is a diagram showing an example of the structure of a neural network according to the present invention, and FIG. FIG. 6 is a flowchart showing the processing procedure for weight learning according to the present invention, FIG. 6 is a flowchart showing the processing procedure when weight learning according to the present invention is performed online, and FIG. FIG. 8(b) is a diagram showing an example of the input/output characteristics of the unit. FIG. 9 is a diagram showing the structure of a general neural net. 1... Hall Call button 2... Hall call signal 3A-3C... Operation control device for each car 4... Car information signal 5... Microcomputer 6... Input/output interface 7... Input pattern calculation means 8 ... Neural net calculation means 9 ... Assignment judgment means 10 ... Assignment signal Patent applicant Fujichik Co., Ltd. Figure 7 Figure 8 (α) (b) Output cover turn combination input 80 turns

Claims (4)

【特許請求の範囲】[Claims] (1)複数の階床に対し複数台のエレベータを就役させ
、これら複数台のエレベータに共通の乗場呼びに対して
、最適なエレベータを選択して割当て応答させるように
したエレベータの群管理制御装置において、乗場呼び及
び各かごの状態等からニューラル・ネットへの入力パタ
ーンを演算する手段と、該入力パターンによりニューラ
ル・ネットの演算を行う手段と、ニューラル・ネットの
演算結果により割当ての判定を行う手段とを備えたこと
を特徴とするエレベータの群管理制御装置。
(1) Elevator group management control system that operates multiple elevators for multiple floors and selects and assigns the most suitable elevator to respond to common hall calls for these multiple elevators. , a means for calculating an input pattern to the neural network from the hall call and the state of each car, a means for calculating the neural network based on the input pattern, and a means for determining the allocation based on the calculation result of the neural network. 1. A group management control device for an elevator, comprising: means.
(2)複数の階床に対し複数台のエレベータを就役させ
、これら複数台のエレベータに共通の乗場呼びに対して
、最適なエレベータを選択して割当て応答させるように
したエレベータの群管理制御装置において、乗場呼び及
び各かごの状態等からニューラル・ネットへの入力パタ
ーンを演算する手段と、該入力パターンによりニューラ
ル・ネットの演算を行う手段と、ニューラル・ネットの
演算結果により割当ての判定を行う手段と、エレベータ
の稼働中に学習用のサンプルを作成する手段と、該学習
用サンプルを用いて学習を行い、前記ニューラル・ネッ
トの重みを修正する手段とを備えたことを特徴とするエ
レベータの群管理制御装置。
(2) Elevator group management control system that operates multiple elevators for multiple floors and selects and assigns the most suitable elevator to respond to common hall calls for these multiple elevators. , a means for calculating an input pattern to the neural network from the hall call and the state of each car, a means for calculating the neural network based on the input pattern, and a means for determining the allocation based on the calculation result of the neural network. An elevator characterized by comprising: means for creating a learning sample while the elevator is in operation; and means for performing learning using the learning sample and correcting the weights of the neural network. Group management control device.
(3)ニューラル・ネットは少なくとも入力層と中間第
1層、中間第2層、出力層からなり、入力層の各ユニッ
トと中間第1層の各ユニットは、各号機毎に自号機に関
するユニット同志のみを相互に接続し、中間第1層の各
ユニットと中間第2層の各ユニットは、自号機に関する
ユニットと他号機に関するユニットをも相互に接続する
構成としたことを特徴とする請求項1又は請求項2記載
のエレベータの群管理制御装置。
(3) A neural net consists of at least an input layer, an intermediate first layer, an intermediate second layer, and an output layer, and each unit in the input layer and each unit in the intermediate first layer is connected to the units related to its own machine for each machine. Claim 1 characterized in that each unit of the intermediate first layer and each unit of the intermediate second layer is configured such that the units related to the own machine and the units related to other machines are also interconnected. Or an elevator group management control device according to claim 2.
(4)乗場呼び及び各かごの状態等からニューラル・ネ
ットへの入力パターンを演算する手段と、該入力パター
ンによりニューラル・ネットの演算を行う手段と、ニュ
ーラル・ネットの演算結果により割当ての判定を行う手
段とを備えたエレベータの、前記ニューラル・ネットの
学習を行う過程において、各号機のそれぞれ同じ接続位
置に対応する各重みを同じ値に設定し、その修正は1つ
の学習用サンプルに対する前記各重みの修正量の平均値
を実際の修正量として行うことを特徴とするエレベータ
のニューラル・ネットの学習方法。
(4) Means for calculating an input pattern to the neural network from the hall call and the state of each car, means for performing calculations on the neural network based on the input pattern, and means for determining allocation based on the calculation results of the neural network. In the process of learning the neural network of the elevator, which has a means for performing A learning method for an elevator neural network, characterized in that the average value of weight correction amounts is used as the actual correction amount.
JP63105633A 1988-04-28 1988-04-28 Elevator group management control device Expired - Fee Related JPH075235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63105633A JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63105633A JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Publications (2)

Publication Number Publication Date
JPH01275381A true JPH01275381A (en) 1989-11-06
JPH075235B2 JPH075235B2 (en) 1995-01-25

Family

ID=14412869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63105633A Expired - Fee Related JPH075235B2 (en) 1988-04-28 1988-04-28 Elevator group management control device

Country Status (1)

Country Link
JP (1) JPH075235B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0315902A (en) * 1989-03-13 1991-01-24 Hitachi Ltd Method and system for supporting process operation
JPH03133885A (en) * 1989-10-17 1991-06-07 Mitsubishi Electric Corp Elevator group management learning control device
JPH03279178A (en) * 1990-03-28 1991-12-10 Mitsubishi Electric Corp Control device for elevator
JPH0432472A (en) * 1990-05-29 1992-02-04 Mitsubishi Electric Corp Elevator control device
JPH0439277A (en) * 1990-05-31 1992-02-10 Mitsubishi Electric Corp Elevator control device
JPH0449183A (en) * 1990-06-19 1992-02-18 Mitsubishi Electric Corp Elevator control device
JPH0487263A (en) * 1990-07-27 1992-03-19 Hitachi Ltd Fuel cell power generation plant
JPH0491424A (en) * 1990-08-03 1992-03-24 Hitachi Ltd Electron beam lithography apparatus equipped with optimization judgment device
US5182429A (en) * 1991-05-23 1993-01-26 Westinghouse Electric Corp. System and method for laser welding the inner surface of a tube
US5412163A (en) * 1990-05-29 1995-05-02 Mitsubishi Denki Kabushiki Kaisha Elevator control apparatus
JPH07309546A (en) * 1993-06-22 1995-11-28 Mitsubishi Electric Corp Traffic means controller
US5544059A (en) * 1993-07-27 1996-08-06 Mitsubishi Denki Kabushiki Kaisha Traffic means controlling apparatus
US5767461A (en) * 1995-02-16 1998-06-16 Fujitec Co., Ltd. Elevator group supervisory control system
CN112530001A (en) * 2020-12-08 2021-03-19 四川蓉信开工程设计有限公司 Rapid drawing method of traffic core three-dimensional model

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5943662A (en) * 1989-03-13 1999-08-24 Hitachi, Ltd. Supporting method and system for process operation
US5774633A (en) * 1989-03-13 1998-06-30 Hitachi, Ltd. Supporting neural network method for process operation
JPH0315902A (en) * 1989-03-13 1991-01-24 Hitachi Ltd Method and system for supporting process operation
JPH03133885A (en) * 1989-10-17 1991-06-07 Mitsubishi Electric Corp Elevator group management learning control device
JPH03279178A (en) * 1990-03-28 1991-12-10 Mitsubishi Electric Corp Control device for elevator
JP2573715B2 (en) * 1990-03-28 1997-01-22 三菱電機株式会社 Elevator control device
JP2573722B2 (en) * 1990-05-29 1997-01-22 三菱電機株式会社 Elevator control device
JPH0432472A (en) * 1990-05-29 1992-02-04 Mitsubishi Electric Corp Elevator control device
US5412163A (en) * 1990-05-29 1995-05-02 Mitsubishi Denki Kabushiki Kaisha Elevator control apparatus
JPH0439277A (en) * 1990-05-31 1992-02-10 Mitsubishi Electric Corp Elevator control device
JP2573723B2 (en) * 1990-05-31 1997-01-22 三菱電機株式会社 Elevator control device
JP2573726B2 (en) * 1990-06-19 1997-01-22 三菱電機株式会社 Elevator control device
JPH0449183A (en) * 1990-06-19 1992-02-18 Mitsubishi Electric Corp Elevator control device
JPH0487263A (en) * 1990-07-27 1992-03-19 Hitachi Ltd Fuel cell power generation plant
JPH0491424A (en) * 1990-08-03 1992-03-24 Hitachi Ltd Electron beam lithography apparatus equipped with optimization judgment device
US5182429A (en) * 1991-05-23 1993-01-26 Westinghouse Electric Corp. System and method for laser welding the inner surface of a tube
JPH07309546A (en) * 1993-06-22 1995-11-28 Mitsubishi Electric Corp Traffic means controller
US5544059A (en) * 1993-07-27 1996-08-06 Mitsubishi Denki Kabushiki Kaisha Traffic means controlling apparatus
US5767461A (en) * 1995-02-16 1998-06-16 Fujitec Co., Ltd. Elevator group supervisory control system
CN112530001A (en) * 2020-12-08 2021-03-19 四川蓉信开工程设计有限公司 Rapid drawing method of traffic core three-dimensional model

Also Published As

Publication number Publication date
JPH075235B2 (en) 1995-01-25

Similar Documents

Publication Publication Date Title
JP2664782B2 (en) Elevator group control device
JPH01275381A (en) Device for controlling elevator group
US20180089589A1 (en) Machine learning device and machine learning method for learning optimal object grasp route
GB2195792A (en) Elevator group control
US5767461A (en) Elevator group supervisory control system
Mishra et al. Neuro-fuzzy models and applications
Anderson et al. Reinforcement learning with modular neural networks for control
JPH0331173A (en) Group management control device for elevator
JPH0742055B2 (en) Elevator group management control method
JP4552464B2 (en) Elevator system and group management control device thereof
JP2959425B2 (en) Elevator group control device
JP2664766B2 (en) Group control elevator system
JP2956516B2 (en) Elevator group control device
JP2979993B2 (en) Learning method of neural network for elevator call assignment
JP2988312B2 (en) Elevator group control device
JP3106908B2 (en) Learning method of neural network for waiting time prediction
JP2964902B2 (en) Learning method of neural network for elevator call assignment
JP2938316B2 (en) Elevator group control device
JP2964907B2 (en) Elevator group control device
Imrak Artificial neural networks application in duplex/triplex elevator group control system
JP2962174B2 (en) Elevator group control device
JP2500407B2 (en) Elevator group management control device construction method
JP2991077B2 (en) Elevator group control device
JP2664783B2 (en) Elevator group control device
KR950001901B1 (en) Method and apparatus for elevator group control

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees