JP2022100925A - Display control device for elevator - Google Patents

Display control device for elevator Download PDF

Info

Publication number
JP2022100925A
JP2022100925A JP2020215212A JP2020215212A JP2022100925A JP 2022100925 A JP2022100925 A JP 2022100925A JP 2020215212 A JP2020215212 A JP 2020215212A JP 2020215212 A JP2020215212 A JP 2020215212A JP 2022100925 A JP2022100925 A JP 2022100925A
Authority
JP
Japan
Prior art keywords
area
landing
detection unit
attention level
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020215212A
Other languages
Japanese (ja)
Other versions
JP6962439B1 (en
Inventor
美穂 加藤
Yoshio Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2020215212A priority Critical patent/JP6962439B1/en
Priority to CN202110625983.8A priority patent/CN114671311B/en
Application granted granted Critical
Publication of JP6962439B1 publication Critical patent/JP6962439B1/en
Publication of JP2022100925A publication Critical patent/JP2022100925A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B3/00Applications of devices for indicating or signalling operating conditions of elevators
    • B66B3/02Position or depth indicators
    • B66B3/023Position or depth indicators characterised by their mounting position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0018Devices monitoring the operating condition of the elevator system

Landscapes

  • Indicating And Signalling Devices For Elevators (AREA)

Abstract

To provide an elevator display control device that can display images clearly to users even in crowded boarding areas.SOLUTION: A display control device 11 includes a position detection unit 14, an attention level detection unit 16, and an area determination unit 17. The position detection unit 14 detects a standby position of a user waiting at a landing 3 based on the image of the landing 3 taken by a photographing device 9. The attention level detection unit 16 detects the attention level of the user waiting at the landing 3 in the area of the landing 3 where a projection device 10 can project an image, based on the image captured by the photographing device 9. The area determination unit 17 determines a projection area on which the projection device 10 projects the image based on information including the standby position detected by the position detection unit 14 and the attention level detected by the attention level detection unit 16. The area determination unit 17 determines an area having a higher level of attention and an area having a lower possibility that the projection is obstructed by the user as a projection area with higher priority.SELECTED DRAWING: Figure 1

Description

本開示は、エレベーターの表示制御装置に関する。 The present disclosure relates to an elevator display control device.

特許文献1は、エレベーターの例を開示する。エレベーターの乗場において、かごに設けられた投影装置によって反射装置を介して画像が投影される。 Patent Document 1 discloses an example of an elevator. At the elevator landing, an image is projected via a reflector by a projection device provided in the car.

特開2016-199390号公報Japanese Unexamined Patent Publication No. 2016-199390

しかしながら、特許文献1のエレベーターにおいて、画像は予め設定された単一の領域に投影される。このため、乗場が混雑している場合などに、投影された画像が見えにくくなる可能性がある。 However, in the elevator of Patent Document 1, the image is projected onto a single preset area. For this reason, the projected image may be difficult to see when the landing is crowded.

本開示は、このような課題の解決に係るものである。本開示は、混雑している乗場においても利用者に見やすく画像を表示できるエレベーターの表示制御装置を提供する。 The present disclosure relates to the solution of such a problem. The present disclosure provides an elevator display control device capable of displaying an image in an easy-to-see manner for a user even in a crowded landing.

本開示に係るエレベーターの表示制御装置は、エレベーターの乗場に設けられた撮影装置が撮影する画像に基づいて、前記乗場において待機する利用者の待機位置を検出する位置検出部と、前記乗場に設けられた投影装置が画像を投影可能な前記乗場の領域について、前記乗場において待機する利用者の注目度を、前記撮影装置が撮影する画像に基づいて検出する注目度検出部と、前記投影装置が画像を投影する投影領域を、前記位置検出部が検出する待機位置、および前記注目度検出部が検出する注目度を含む情報に基づいて、より注目度の高い領域、および前記乗場において待機する利用者に投影が遮られる可能性のより低い領域をより優先して決定する領域決定部と、を備える。 The display control device for an elevator according to the present disclosure is provided with a position detection unit that detects a standby position of a user waiting at the landing based on an image taken by an image pickup device provided at the landing of the elevator, and a position detection unit at the landing. With respect to the area of the landing where the projection device can project an image, the attention level detection unit that detects the attention level of the user waiting at the landing based on the image captured by the photographing device, and the projection device. Utilization of the projection area for projecting an image in a region having a higher degree of attention and waiting in the landing based on information including a standby position detected by the position detection unit and a degree of attention detected by the attention level detection unit. It is provided with a region determination unit that preferentially determines an region that is less likely to be obstructed by a person.

本開示に係る表示制御装置であれば、混雑している乗場においても利用者に見やすく画像を表示できる。 The display control device according to the present disclosure can display an image in an easy-to-see manner for the user even in a crowded landing.

実施の形態1に係るエレベーターの構成図である。It is a block diagram of the elevator which concerns on Embodiment 1. FIG. 実施の形態1に係る表示システムの動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the display system which concerns on Embodiment 1. 実施の形態1に係る表示システムの主要部のハードウェア構成図である。It is a hardware block diagram of the main part of the display system which concerns on Embodiment 1. FIG. 実施の形態2に係るエレベーターの乗場の例を示す図である。It is a figure which shows the example of the landing of the elevator which concerns on Embodiment 2. 実施の形態2に係る表示システムの動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the display system which concerns on Embodiment 2. 実施の形態3に係る注目度検出部による注目度の検出の例を説明する図である。It is a figure explaining the example of the detection of attention degree by the attention degree detection part which concerns on Embodiment 3. FIG. 実施の形態3に係る表示システムの動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the display system which concerns on Embodiment 3. 実施の形態4に係る表示システムの動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the display system which concerns on Embodiment 4. 実施の形態5に係る表示システムの動作の例を示すフローチャートである。It is a flowchart which shows the example of the operation of the display system which concerns on Embodiment 5.

本開示を実施するための形態について添付の図面を参照しながら説明する。各図において、同一または相当する部分には同一の符号を付して、重複する説明は適宜に簡略化または省略する。 The embodiment for carrying out the present disclosure will be described with reference to the accompanying drawings. In each figure, the same or corresponding parts are designated by the same reference numerals, and duplicate description will be appropriately simplified or omitted.

実施の形態1.
図1は、実施の形態1に係るエレベーター1の構成図である。
Embodiment 1.
FIG. 1 is a configuration diagram of an elevator 1 according to the first embodiment.

エレベーター1は、複数の階床を有する建物に適用される。建物において、エレベーター1の昇降路2が設けられる。昇降路2は、複数の階床にわたる上下方向に長い空間である。建物の各々の階床において、エレベーター1の乗場3が設けられる。各々の階床の乗場3において、乗場ドア4が設けられる。乗場ドア4は、乗場3および昇降路2を区画するドアである。エレベーター1は、かご5と、制御盤6と、を備える。かご5は、昇降路2を上下方向に走行することによって、内部の空間に乗車している利用者を複数の階床の間で輸送する装置である。かご5は、かごドア7を備える。かごドア7は、いずれかの階床にかご5が停止しているときに、利用者がかご5を乗降しうるように当該階床の乗場ドア4を連動させて開閉する装置である。制御盤6は、かご5の走行、およびかごドア7の開閉などのエレベーター1の運行を制御する装置である。 Elevator 1 is applied to a building having a plurality of floors. In the building, the hoistway 2 of the elevator 1 is provided. The hoistway 2 is a space that is long in the vertical direction over a plurality of floors. On each floor of the building, a landing 3 for the elevator 1 is provided. A landing door 4 is provided at the landing 3 on each floor. The landing door 4 is a door that separates the landing 3 and the hoistway 2. The elevator 1 includes a car 5 and a control panel 6. The car 5 is a device for transporting a user who is in the internal space between a plurality of floors by traveling in the hoistway 2 in the vertical direction. The car 5 includes a car door 7. The car door 7 is a device that opens and closes the landing door 4 on the floor in conjunction with the car 5 so that the user can get on and off the car 5 when the car 5 is stopped on any floor. The control panel 6 is a device that controls the operation of the elevator 1 such as the traveling of the car 5 and the opening / closing of the car door 7.

エレベーター1は、表示システム8を備える。表示システム8は、乗場3においてかご5の到着を待機する利用者などに情報を表示するシステムである。表示システム8は、撮影装置9と、投影装置10と、表示制御装置11と、を備える。 The elevator 1 includes a display system 8. The display system 8 is a system that displays information to a user or the like who is waiting for the arrival of the car 5 at the landing 3. The display system 8 includes a photographing device 9, a projection device 10, and a display control device 11.

撮影装置9は、乗場3に設けられる。この例において、撮影装置9は、乗場3の画像を撮影するカメラである。撮影装置9が撮影する画像は、動画または静止画などである。撮影装置9は、例えば乗場3の天井に配置される。撮影装置9は、1つの乗場3に複数設けられていてもよい。 The photographing device 9 is provided at the landing 3. In this example, the photographing device 9 is a camera that captures an image of the landing 3. The image captured by the photographing device 9 is a moving image, a still image, or the like. The photographing device 9 is arranged, for example, on the ceiling of the landing 3. A plurality of photographing devices 9 may be provided in one landing 3.

投影装置10は、乗場3に設けられる。この例において、投影装置10は、乗場3に画像を投影するプロジェクターである。投影装置10が投影する画像は、利用者に表示する情報を含む。利用者に表示する情報は、例えばエレベーター1の混雑状況、および発着状況などの運行情報を含む。利用者に表示する情報は、例えばエレベーター1の乗降を案内する案内情報を含んでもよい。投影装置10は、例えば乗場3の天井に配置される。この例において、投影装置10は、画像を投影する領域を調整可能な首振り機構を搭載している。ここで、投影装置10が画像を投影可能な領域は、例えば乗場3の壁面、床面、または天井などの一部を含む。投影装置10が画像を投影可能な領域は、乗場ドア4の表面の一部または全部を含んでもよい。 The projection device 10 is provided at the landing 3. In this example, the projection device 10 is a projector that projects an image onto the landing 3. The image projected by the projection device 10 includes information to be displayed to the user. The information displayed to the user includes, for example, operation information such as the congestion status of the elevator 1 and the departure / arrival status. The information to be displayed to the user may include, for example, guidance information for guiding the getting on and off of the elevator 1. The projection device 10 is arranged, for example, on the ceiling of the landing 3. In this example, the projection device 10 is equipped with a swing mechanism that can adjust the area on which the image is projected. Here, the area on which the projection device 10 can project an image includes, for example, a part of the wall surface, floor surface, ceiling, or the like of the landing 3. The area on which the projection device 10 can project an image may include a part or all of the surface of the landing door 4.

表示制御装置11は、投影装置10の画像の投影による表示を制御する機能を搭載する。表示制御装置11は、情報取得部12と、画像処理部13と、位置検出部14と、特性検出部15と、注目度検出部16と、領域決定部17と、画像変換部18と、を備える。 The display control device 11 is equipped with a function of controlling the display of the image of the projection device 10 by projection. The display control device 11 includes an information acquisition unit 12, an image processing unit 13, a position detection unit 14, a characteristic detection unit 15, an attention level detection unit 16, a region determination unit 17, and an image conversion unit 18. Be prepared.

情報取得部12は、利用者に表示する情報を取得する部分である。この例において、情報取得部12は、制御盤6からエレベーター1の運行情報を取得する。 The information acquisition unit 12 is a portion for acquiring information to be displayed to the user. In this example, the information acquisition unit 12 acquires the operation information of the elevator 1 from the control panel 6.

画像処理部13は、撮影装置9が撮影する画像を処理する部分である。画像処理部13は、撮影装置9から撮影された画像を取得する。画像処理部13における画像処理は、例えば、撮影された画像が動画である場合の動画から静止画への変換などを含む。 The image processing unit 13 is a portion that processes an image captured by the photographing device 9. The image processing unit 13 acquires an image taken from the photographing device 9. The image processing in the image processing unit 13 includes, for example, conversion from a moving image to a still image when the captured image is a moving image.

位置検出部14は、乗場3において待機する利用者の待機位置を検出する部分である。利用者の待機位置は、乗場3においてかご5の到着を待機する利用者のいる位置である。乗場3において複数の利用者が待機している場合に、位置検出部14は、各々の利用者について待機位置を検出する。位置検出部14は、撮影装置9に撮影された乗場3の画像に基づいて待機位置を検出する。位置検出部14は、画像処理部13が処理した乗場3の画像を取得する。この例において、画像処理部13が処理した画像は、画像処理部13によって動画から変換された静止画である。位置検出部14は、例えば乗場3に利用者がいないときに予め取得された基準画像と、画像処理部13から取得した画像との差分に基づいて利用者の位置を検出する。 The position detection unit 14 is a part that detects the standby position of the user waiting at the landing 3. The waiting position of the user is the position where the user who waits for the arrival of the car 5 at the landing 3 is present. When a plurality of users are waiting at the landing 3, the position detection unit 14 detects the standby position for each user. The position detection unit 14 detects the standby position based on the image of the landing 3 captured by the imaging device 9. The position detection unit 14 acquires the image of the landing 3 processed by the image processing unit 13. In this example, the image processed by the image processing unit 13 is a still image converted from a moving image by the image processing unit 13. The position detection unit 14 detects the position of the user based on the difference between the reference image acquired in advance when there is no user in the landing 3 and the image acquired from the image processing unit 13, for example.

特性検出部15は、乗場3において待機する利用者の特性を検出する部分である。ここで、利用者の特性は、当該利用者の目線の高さに関する情報を含む。利用者の特性は、例えば車椅子使用者であるか否かの情報を含んでもよい。また、利用者の特性は、例えば予め設定された身長より低い低身長者であるか否かの情報を含んでもよい。低身長者は、例えば子供であってもよい。利用者の特性は、立っている利用者の身長であってもよい。位置検出部14は、撮影装置9に撮影された乗場3の画像に基づいて乗場3の利用者の特性を検出する。 The characteristic detection unit 15 is a portion that detects the characteristics of the user waiting at the landing 3. Here, the characteristics of the user include information regarding the height of the line of sight of the user. The user's characteristics may include, for example, information on whether or not the user is a wheelchair user. In addition, the user's characteristics may include, for example, information on whether or not the user is a short stature shorter than a preset height. The short stature may be, for example, a child. The characteristic of the user may be the height of the standing user. The position detection unit 14 detects the characteristics of the user of the landing 3 based on the image of the landing 3 captured by the photographing device 9.

注目度検出部16は、投影装置10が画像を投影可能な乗場3の領域について、乗場3において待機する利用者の注目度を検出する部分である。注目度検出部16は、撮影装置9に撮影された乗場3の画像に基づいて注目度を検出する。注目度検出部16は、画像処理部13が処理した乗場3の画像を取得する。注目度検出部16は、例えば、位置検出部14が待機位置を検出した利用者の各々について、顔または体の向きなどを用いて乗場3において視線が向けられる箇所を検出する。注目度検出部16は、例えば、利用者が視線を向けている箇所を多く含む領域を注目度の高い領域とする。注目度検出部16は、例えば、乗場3の壁面などにおいて複数の利用者が視線を向けている箇所の重心から予め設定された範囲の領域を注目度の高い領域としてもよい。このとき、注目度検出部16は、例えば当該領域に視線を向けている利用者の数を当該領域の注目度として検出する。注目度検出部16は、乗場3において利用者の視線の集中する箇所が複数ある場合に、注目度の高い領域を複数検出してもよい。このとき、注目度検出部16は、例えば各々の領域に視線を向けている利用者の数を当該領域の注目度として検出してもよい。 The attention level detection unit 16 is a portion that detects the attention level of the user waiting at the landing 3 in the area of the landing 3 where the projection device 10 can project an image. The attention level detection unit 16 detects the attention level based on the image of the landing 3 captured by the photographing device 9. The attention level detection unit 16 acquires the image of the landing 3 processed by the image processing unit 13. The attention level detection unit 16 detects, for example, a place where the line of sight is directed at the landing 3 by using the direction of the face or the body of each of the users whose position detection unit 14 has detected the standby position. The attention level detection unit 16 sets, for example, a region including many locations where the user is looking at a region having a high degree of attention. The attention level detection unit 16 may set a region within a preset range from the center of gravity of a portion where a plurality of users are looking at, for example, a region having a high degree of attention on the wall surface of the landing 3. At this time, the attention level detection unit 16 detects, for example, the number of users who are looking at the area as the attention level of the area. The attention level detection unit 16 may detect a plurality of areas with high attention level when there are a plurality of places where the user's line of sight is concentrated in the landing 3. At this time, the attention level detection unit 16 may detect, for example, the number of users who are looking at each area as the attention level of the area.

領域決定部17は、投影装置10が画像を投影する投影領域を決定する部分である。領域決定部17は、位置検出部14が検出する待機位置に基づいて、利用者に投影が遮られる可能性のより低い領域をより優先して投影領域とする。領域決定部17は、例えば投影装置10が画像を投影する光路上に利用者がいない場合に、当該領域は利用者に投影が遮られる可能性が低いとする。領域決定部17は、例えば投影装置10が画像を投影する光路上に利用者がいる場合に、当該領域は利用者に投影が遮られる可能性があるとする。このとき、領域決定部17は、例えば光路上の利用者が投影装置10の光軸に近い領域ほど、利用者に投影が遮られる可能性が高いとしてもよい。また、領域決定部17は、例えば光路上の利用者の数が多い領域ほど、利用者に投影が遮られる可能性が高いとしてもよい。領域決定部17は、特性検出部15が検出した特性に基づく利用者の高さの情報を用いて、利用者に投影が遮られる可能性を判定してもよい。あるいは、領域決定部17は、利用者の高さを平均身長などの予め設定された値として、利用者に投影が遮られる可能性を判定してもよい。また、領域決定部17は、注目度検出部16が検出する注目度に基づいて、より注目度の高い領域をより優先して投影領域とする。領域決定部17は、例えば、利用者に投影が遮られる可能性および注目度の重み付け和などの単調関数によって優先度を算出し、優先度の高い領域を投影領域として決定する。あるいは、領域決定部17は、予め設定された閾値より利用者に投影が遮られる可能性が低い領域の内で、最も注目度の高い領域を投影領域として決定してもよい。領域決定部17は、利用者に投影が遮られる可能性および注目度に基づく他の方法によって投影領域を決定してもよい。 The area determination unit 17 is a portion that determines a projection area on which the projection device 10 projects an image. Based on the standby position detected by the position detection unit 14, the area determination unit 17 preferentially sets a region having a lower possibility of being blocked by the user as a projection region. The area determination unit 17 assumes that, for example, when there is no user on the optical path on which the projection device 10 projects an image, it is unlikely that the user will block the projection of the area. The area determination unit 17 assumes that, for example, when a user is on an optical path on which the projection device 10 projects an image, the projection of the area may be blocked by the user. At this time, the area determination unit 17 may be more likely to block the projection by the user, for example, the closer the user on the optical path is to the optical axis of the projection device 10. Further, the area determination unit 17 may be said to have a higher possibility that the projection is blocked by the user, for example, as the area on the optical path has a larger number of users. The area determination unit 17 may determine the possibility that the projection is blocked by the user by using the information on the height of the user based on the characteristics detected by the characteristic detection unit 15. Alternatively, the area determination unit 17 may determine the possibility that the projection is blocked by the user by setting the height of the user as a preset value such as the average height. Further, the region determination unit 17 preferentially sets a region having a higher degree of attention as a projection region based on the degree of attention detected by the attention level detection unit 16. The area determination unit 17 calculates the priority by a monotonic function such as the possibility that the projection is blocked by the user and the weighted sum of the degree of attention, and determines the area having a high priority as the projection area. Alternatively, the region determination unit 17 may determine the region having the highest degree of attention as the projection region among the regions in which the projection is less likely to be blocked by the user than the preset threshold value. The area determination unit 17 may determine the projection area by other methods based on the possibility that the projection is blocked by the user and the degree of attention.

画像変換部18は、領域決定部17が決定した投影領域に応じて投影装置10が投影する画像を変換する部分である。画像変換部18における変換は、例えば、投影装置10が投影する画像のアフィン変換、またはホモグラフィ変換などである。画像変換部18における変換は、例えば、投影領域の色に応じた画像の色の変換などを含んでもよい。例えば投影装置10の投影する画像が乗場ドア4までの方向を示す矢印などの情報を含む場合に、画像変換部18における変換は、当該矢印の向きの変換などを含んでもよい。 The image conversion unit 18 is a unit that converts an image projected by the projection device 10 according to the projection area determined by the area determination unit 17. The transformation in the image conversion unit 18 is, for example, an affine transformation or a homography transformation of the image projected by the projection device 10. The conversion in the image conversion unit 18 may include, for example, conversion of the color of the image according to the color of the projection area. For example, when the image projected by the projection device 10 includes information such as an arrow indicating the direction to the landing door 4, the conversion in the image conversion unit 18 may include a conversion of the direction of the arrow.

続いて、図2を用いて、実施の形態1に係る表示システム8の動作の例を説明する。
図2は、実施の形態1に係る表示システム8の動作の例を示すフローチャートである。
Subsequently, an example of the operation of the display system 8 according to the first embodiment will be described with reference to FIG.
FIG. 2 is a flowchart showing an example of the operation of the display system 8 according to the first embodiment.

ステップS101において、撮影装置9は、乗場3の画像を撮影する。その後、ステップS102において、画像処理部13は、撮影された画像の変換処理を行う。その後、ステップS103において、位置検出部14は、画像処理部13において変換処理が行われた画像から、利用者の待機位置を検出する。その後、ステップS104において、特性検出部15は、画像処理部13において変換処理が行われた画像から、利用者の特性を検出する。その後、ステップS105において、注目度検出部16は、画像処理部13において変換処理が行われた画像から、乗場3の領域について利用者の注目度を検出する。その後、ステップS106において、情報取得部12は、利用者に表示する情報を取得する。情報取得部12は、例えば制御盤6からエレベーター1の運行についての情報を取得する。その後、ステップS107において、領域決定部17は、利用者に投影が遮られる可能性および注目度に基づいて投影領域を決定する。その後、ステップS108において、画像変換部18は、利用者に表示する画像の投影領域に応じた変換処理を行う。その後、ステップS109において、投影装置10は、画像変換部18において変換処理が行われた画像を、領域決定部17が決定した投影領域に投影する。その後、表示システム8の動作は、ステップS101に進む。このように処理が繰り返されることで、利用者に表示する情報は、利用者の注目度の高い領域に常時投影されるようになる。 In step S101, the photographing device 9 captures an image of the landing 3. After that, in step S102, the image processing unit 13 performs conversion processing of the captured image. After that, in step S103, the position detection unit 14 detects the standby position of the user from the image that has been converted by the image processing unit 13. After that, in step S104, the characteristic detection unit 15 detects the characteristics of the user from the image that has been converted by the image processing unit 13. After that, in step S105, the attention level detection unit 16 detects the user's attention level with respect to the area of the landing 3 from the image converted by the image processing unit 13. After that, in step S106, the information acquisition unit 12 acquires the information to be displayed to the user. The information acquisition unit 12 acquires information about the operation of the elevator 1 from, for example, the control panel 6. Then, in step S107, the area determination unit 17 determines the projection area based on the possibility that the projection is blocked by the user and the degree of attention. After that, in step S108, the image conversion unit 18 performs conversion processing according to the projection area of the image to be displayed to the user. After that, in step S109, the projection device 10 projects the image converted by the image conversion unit 18 onto the projection area determined by the area determination unit 17. After that, the operation of the display system 8 proceeds to step S101. By repeating the process in this way, the information to be displayed to the user is always projected on the area of high attention of the user.

以上に説明したように、実施の形態1に係る表示システム8の表示制御装置11は、位置検出部14と、注目度検出部16と、領域決定部17と、を備える。撮影装置9および投影装置10は、乗場3に設けられる。位置検出部14は、撮影装置9が撮影する画像に基づいて、乗場3において待機する利用者の待機位置を検出する。注目度検出部16は、投影装置10が画像を投影可能な乗場3の領域について、乗場3において待機する利用者の注目度を、撮影装置9が撮影する画像に基づいて検出する。領域決定部17は、位置検出部14が検出する待機位置、および注目度検出部16が検出する注目度を含む情報に基づいて、投影装置10が画像を投影する投影領域を決定する。領域決定部17は、より注目度の高い領域、および利用者に投影が遮られる可能性のより低い領域をより優先して投影領域に決定する。 As described above, the display control device 11 of the display system 8 according to the first embodiment includes a position detection unit 14, an attention level detection unit 16, and a region determination unit 17. The photographing device 9 and the projection device 10 are provided at the landing 3. The position detection unit 14 detects the standby position of the user waiting at the landing 3 based on the image captured by the photographing device 9. The attention level detection unit 16 detects the attention level of the user waiting at the landing 3 in the area of the landing 3 where the projection device 10 can project an image, based on the image captured by the photographing device 9. The area determination unit 17 determines a projection area on which the projection device 10 projects an image based on information including a standby position detected by the position detection unit 14 and a degree of attention detected by the attention level detection unit 16. The area determination unit 17 determines a region having a higher degree of attention and a region having a lower possibility that the projection is obstructed by the user as a projection region with higher priority.

このような構成により、投影装置10が利用者に向けて画像を投影してしまう、すなわち利用者に投影が遮られることが少なくなる。また、利用者の注目度の高い領域に情報が表示されるようになる。このため、混雑している乗場3においても利用者に見やすく画像が表示される。利用者が表示される情報に気づきやすくなるので、利用者の利便性が高くなる。 With such a configuration, the projection device 10 projects an image toward the user, that is, the projection is less likely to be obstructed by the user. In addition, the information will be displayed in the area where the user's attention is high. Therefore, the image is displayed so that the user can easily see it even in the crowded landing 3. Since it becomes easier for the user to notice the displayed information, the convenience of the user is improved.

また、表示制御装置11は、画像変換部18を備える。画像変換部18は、領域決定部17が決定した投影領域に応じて投影装置10が投影する画像を変換する。 Further, the display control device 11 includes an image conversion unit 18. The image conversion unit 18 converts the image projected by the projection device 10 according to the projection area determined by the area determination unit 17.

このような構成により、投影領域に応じて好適な画像が表示される。このため、利用者が情報をより見やすくなる。 With such a configuration, a suitable image is displayed according to the projection area. Therefore, it becomes easier for the user to see the information.

なお、撮影装置9および投影装置10が配置される場所は、乗場3の天井に限定されない。撮影装置9は、利用者の他の障害物によって乗場3の画像の撮影が遮られない位置に配置される。撮影装置9は、利用者の待機位置および特性などを検出する画像を撮影できる位置であれば、乗場3の任意の位置に配置されてもよい。また、投影装置10は、利用者の他の障害物によって乗場3の領域への投影が遮られない位置に配置される。投影装置10は、画像を投影して利用者に表示できる位置であれば、乗場3の任意の位置に配置されてもよい。 The place where the photographing device 9 and the projection device 10 are arranged is not limited to the ceiling of the landing 3. The photographing device 9 is arranged at a position where the image of the landing 3 is not obstructed by other obstacles of the user. The photographing device 9 may be arranged at an arbitrary position of the landing 3 as long as it can capture an image for detecting the standby position and characteristics of the user. Further, the projection device 10 is arranged at a position where the projection onto the area of the landing 3 is not obstructed by other obstacles of the user. The projection device 10 may be arranged at any position of the landing 3 as long as it can project an image and display it to the user.

続いて、図3を用いて、表示システム8のハードウェア構成の例について説明する。
図3は、実施の形態1に係る表示システム8の主要部のハードウェア構成図である。
Subsequently, an example of the hardware configuration of the display system 8 will be described with reference to FIG.
FIG. 3 is a hardware configuration diagram of a main part of the display system 8 according to the first embodiment.

表示制御装置11を含む表示システム8の各機能は、処理回路により実現し得る。処理回路は、少なくとも1つのプロセッサ100aと少なくとも1つのメモリ100bとを備える。処理回路は、プロセッサ100aおよびメモリ100bと共に、あるいはそれらの代用として、少なくとも1つの専用ハードウェア200を備えてもよい。 Each function of the display system 8 including the display control device 11 can be realized by a processing circuit. The processing circuit includes at least one processor 100a and at least one memory 100b. The processing circuit may include at least one dedicated hardware 200 with or as a substitute for the processor 100a and the memory 100b.

処理回路がプロセッサ100aとメモリ100bとを備える場合、表示システム8の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせで実現される。ソフトウェアおよびファームウェアの少なくとも一方は、プログラムとして記述される。そのプログラムはメモリ100bに格納される。プロセッサ100aは、メモリ100bに記憶されたプログラムを読み出して実行することにより、表示システム8の各機能を実現する。 When the processing circuit includes the processor 100a and the memory 100b, each function of the display system 8 is realized by software, firmware, or a combination of software and firmware. At least one of the software and firmware is written as a program. The program is stored in the memory 100b. The processor 100a realizes each function of the display system 8 by reading and executing the program stored in the memory 100b.

プロセッサ100aは、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、DSPともいう。メモリ100bは、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROMなどの、不揮発性または揮発性の半導体メモリなどにより構成される。 The processor 100a is also referred to as a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, and a DSP. The memory 100b is composed of, for example, a non-volatile or volatile semiconductor memory such as a RAM, a ROM, a flash memory, an EPROM, or an EEPROM.

処理回路が専用ハードウェア200を備える場合、処理回路は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC、FPGA、またはこれらの組み合わせで実現される。 When the processing circuit includes dedicated hardware 200, the processing circuit is realized by, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC, an FPGA, or a combination thereof.

表示システム8の各機能は、それぞれ処理回路で実現することができる。あるいは、表示システム8の各機能は、まとめて処理回路で実現することもできる。表示システム8の各機能について、一部を専用ハードウェア200で実現し、他部をソフトウェアまたはファームウェアで実現してもよい。このように、処理回路は、専用ハードウェア200、ソフトウェア、ファームウェア、またはこれらの組み合わせで表示システム8の各機能を実現する。 Each function of the display system 8 can be realized by a processing circuit. Alternatively, each function of the display system 8 can be collectively realized by a processing circuit. For each function of the display system 8, a part may be realized by the dedicated hardware 200, and the other part may be realized by software or firmware. As described above, the processing circuit realizes each function of the display system 8 by the dedicated hardware 200, software, firmware, or a combination thereof.

以下で説明する実施の形態の各々において、他の実施の形態で開示される例と相違する点について特に詳しく説明する。以下の実施の形態の各々で説明されない特徴については、他の実施の形態で開示される例のいずれの特徴が採用されてもよい。 Each of the embodiments described below will be described in particular detail as being different from the examples disclosed in the other embodiments. For features not described in each of the following embodiments, any of the features disclosed in the other embodiments may be adopted.

実施の形態2.
図4は、実施の形態2に係るエレベーター1の乗場3の例を示す図である。
Embodiment 2.
FIG. 4 is a diagram showing an example of the landing 3 of the elevator 1 according to the second embodiment.

投影装置10は、予め設定された複数の領域のいずれかを投影領域として画像を投影する。この例の表示システム8において、9つの領域が予め設定されている。予め設定された複数の領域は、上段左側の領域A1、上段中央の領域A2、上段右側の領域A3、中段左側の領域B1、中段中央の領域B2、中段右側の領域B3、下段左側の領域C1、下段中央の領域C2、および下段右側の領域C3を含む。ここで、領域A2および領域B2は、乗場ドア4の表面の領域である。領域A1、領域A3、領域B1、および領域B3は、乗場3の壁面の領域である。領域C1、領域C2、および領域C3は、乗場3の床面の領域である。領域A2、領域B2、領域C2は、乗場ドア4の前方の領域である。 The projection device 10 projects an image using any of a plurality of preset areas as a projection area. In the display system 8 of this example, nine areas are preset. The plurality of preset areas are the upper left area A1, the upper center area A2, the upper right area A3, the middle left area B1, the middle center area B2, the middle right area B3, and the lower left area C1. , The lower central region C2, and the lower right region C3. Here, the area A2 and the area B2 are areas on the surface of the landing door 4. The area A1, the area A3, the area B1, and the area B3 are the areas of the wall surface of the landing 3. Area C1, area C2, and area C3 are areas of the floor surface of the landing 3. Area A2, area B2, and area C2 are areas in front of the landing door 4.

注目度検出部16は、予め設定された各々の領域について、利用者の注目度を検出する。この例において、注目度検出部16は、各々の領域に視線を向けている利用者の数を集計する。注目度検出部16は、各々の領域について集計した利用者の数を当該領域の注目度とする。 The attention level detection unit 16 detects the user's attention level for each preset area. In this example, the attention level detection unit 16 totals the number of users who are looking at each area. The attention level detection unit 16 uses the number of users aggregated for each area as the attention level of the area.

続いて、図5を用いて、実施の形態2に係る表示システム8の動作の例を説明する。
図5は、実施の形態2に係る表示システム8の動作の例を示すフローチャートである。
図5において、注目度検出部16による注目度の検出に係る動作の例が示される。
Subsequently, an example of the operation of the display system 8 according to the second embodiment will be described with reference to FIG.
FIG. 5 is a flowchart showing an example of the operation of the display system 8 according to the second embodiment.
FIG. 5 shows an example of an operation related to the detection of the attention level by the attention level detection unit 16.

ステップS201において、注目度検出部16は、画像処理部13において変換処理が行われた乗場3の画像を取得する。その後、注目度検出部16の動作は、ステップS202に進む。 In step S201, the attention level detection unit 16 acquires an image of the landing 3 where the conversion process has been performed by the image processing unit 13. After that, the operation of the attention level detection unit 16 proceeds to step S202.

ステップS202において、注目度検出部16は、乗場3に待機している利用者のうち、視線の向きを判定していない利用者を選択する。注目度検出部16は、選択した利用者の視線の向きを、取得した画像に基づいて判定する。その後、ステップS203において、注目度検出部16は、選択した利用者の視線が向けられる箇所を含む領域について、当該領域に向けられる視線の数に1を加算する。ここで、選択した利用者の視線が向けられる箇所がいずれの領域にも含まれない場合に、注目度検出部16は、選択した利用者の視線が向けられる箇所に最も近い領域の視線の数に1を加算してもよい。その後、注目度検出部16の動作は、ステップS204に進む。 In step S202, the attention level detection unit 16 selects a user who has not determined the direction of the line of sight from the users waiting at the landing 3. The attention level detection unit 16 determines the direction of the line of sight of the selected user based on the acquired image. After that, in step S203, the attention level detection unit 16 adds 1 to the number of lines of sight directed to the area for the area including the part to which the line of sight of the selected user is directed. Here, when the part to which the line of sight of the selected user is directed is not included in any of the areas, the attention level detection unit 16 is the number of lines of sight in the area closest to the part to which the line of sight of the selected user is directed. 1 may be added to. After that, the operation of the attention level detection unit 16 proceeds to step S204.

ステップS204において、注目度検出部16は、乗場3に待機している利用者のうち、視線の向きを判定していない利用者がいるかを判定する。判定結果がYesの場合に、注目度検出部16の動作は、ステップS202に進む。一方、判定結果がNoの場合に、注目度検出部16の動作は、ステップS205に進む。 In step S204, the attention level detection unit 16 determines whether or not there is a user who has not determined the direction of the line of sight among the users waiting at the landing 3. When the determination result is Yes, the operation of the attention level detection unit 16 proceeds to step S202. On the other hand, when the determination result is No, the operation of the attention level detection unit 16 proceeds to step S205.

ステップS205において、注目度検出部16は、各々の領域に向けられる視線の数を当該領域の注目度とする。注目度検出部16は、各々の領域について検出した注目度を領域決定部17に出力する。その後、ステップS206において、注目度検出部16は、リセット処理を行う。ここで、リセット処理は、例えば各々の領域に向けられる視線の数および注目度を0にする処理を含む。その後、注目度の検出に係る注目度検出部16の動作は、終了する。 In step S205, the attention level detection unit 16 sets the number of lines of sight directed to each region as the attention level of the region. The attention level detection unit 16 outputs the attention level detected for each region to the region determination unit 17. After that, in step S206, the attention level detection unit 16 performs a reset process. Here, the reset process includes, for example, a process of setting the number of lines of sight directed to each region and the degree of attention to zero. After that, the operation of the attention level detection unit 16 related to the attention level detection ends.

注目度検出部16から注目度の出力を受けた領域決定部17は、予め設定された領域のうちから、注目度のより高い領域をより優先して選択することで投影領域を決定する。投影装置10は、領域決定部17が決定した投影領域に画像を投影する。 The area determination unit 17 that receives the output of the degree of attention from the degree of attention detection unit 16 determines the projection area by preferentially selecting a region having a higher degree of attention from the preset regions. The projection device 10 projects an image on a projection area determined by the area determination unit 17.

以上に説明したように、実施の形態2に係る表示制御装置11の注目度検出部16は、乗場3において予め設定された複数の領域の各々について、乗場3において待機する利用者の注目度を検出する。 As described above, the attention level detection unit 16 of the display control device 11 according to the second embodiment determines the attention level of the user waiting at the landing 3 for each of the plurality of preset areas in the landing 3. To detect.

このような構成により、投影領域は予め設定された複数の領域のいずれかに制限される。このため、利用者の視線のわずかな変動による投影領域のぶれが生じにくくなるので、表示される画像がより見やすくなる。 With such a configuration, the projection area is limited to any of a plurality of preset areas. Therefore, the projected image is less likely to be blurred due to a slight change in the line of sight of the user, so that the displayed image becomes easier to see.

また、注目度検出部16は、各々の領域に視線を向けている利用者の数を用いて、各々の領域の注目度を検出する。 Further, the attention level detection unit 16 detects the attention level of each area by using the number of users who are looking at each area.

このような構成により、表示制御装置11は、注目度の高い領域をより簡易な方法で検出できるようになる。 With such a configuration, the display control device 11 can detect a region having a high degree of attention by a simpler method.

なお、注目度検出部16は、各々の領域に視線を向けている利用者の数の他の情報を用いて各々の領域の注目度を検出してもよい。注目度検出部16は、各々の領域について、例えば利用者が視線を向けている延べ時間を用いて注目度を検出してもよい。 The attention level detection unit 16 may detect the attention level of each area by using other information on the number of users who are looking at each area. The attention level detection unit 16 may detect the attention level for each region by using, for example, the total time that the user is looking at.

実施の形態3.
図6は、実施の形態3に係る注目度検出部16による注目度の検出の例を説明する図である。
Embodiment 3.
FIG. 6 is a diagram illustrating an example of detection of attention by the attention detection unit 16 according to the third embodiment.

この例において、表示制御装置11の特性検出部15は、利用者の特性として、車椅子使用者、低身長者、およびその他の利用者を検出する。低身長者は、例えば、車椅子使用者でない利用者のうち予め設定された身長より低い利用者である。その他の利用者は、例えば、車椅子使用者および低身長者のいずれでもない利用者である。 In this example, the characteristic detection unit 15 of the display control device 11 detects a wheelchair user, a short stature person, and other users as the characteristics of the user. A short stature is, for example, a user who is not a wheelchair user and is shorter than a preset height. Other users are, for example, users who are neither wheelchair users nor short stature users.

注目度検出部16は、特性検出部15が検出する利用者の特性の情報を用いて、予め設定された各々の領域についての注目度を検出する。注目度検出部16は、図6に示される予め設定されたポイント表を記憶している。ポイント表は、利用者の特性にポイント値を対応づける表である。注目度検出部16は、ポイント表において、車椅子使用者に10ポイントを対応づけている。注目度検出部16は、ポイント表において、低身長者に3ポイントを対応づけている。注目度検出部16は、ポイント表において、その他の利用者に1ポイントを対応づけている。ポイント表におけるポイントは、パラメータとして設定可能な値であってもよい。 The attention level detection unit 16 detects the attention level for each preset region by using the information of the user's characteristics detected by the characteristic detection unit 15. The attention level detection unit 16 stores a preset point table shown in FIG. The point table is a table that associates point values with the characteristics of users. The attention level detection unit 16 associates 10 points with the wheelchair user in the point table. The attention level detection unit 16 associates 3 points with a short stature in the point table. The attention level detection unit 16 associates 1 point with other users in the point table. The points in the point table may be values that can be set as parameters.

続いて、図7を用いて、実施の形態3に係る表示システム8の動作の例を説明する。
図7は、実施の形態3に係る表示システム8の動作の例を示すフローチャートである。
図7において、注目度検出部16による注目度の検出に係る動作の例が示される。
Subsequently, an example of the operation of the display system 8 according to the third embodiment will be described with reference to FIG. 7.
FIG. 7 is a flowchart showing an example of the operation of the display system 8 according to the third embodiment.
FIG. 7 shows an example of an operation related to the detection of the attention level by the attention level detection unit 16.

ステップS301において、注目度検出部16は、画像処理部13において変換処理が行われた乗場3の画像を取得する。その後、注目度検出部16の動作は、ステップS302に進む。 In step S301, the attention level detection unit 16 acquires an image of the landing 3 where the conversion process has been performed by the image processing unit 13. After that, the operation of the attention level detection unit 16 proceeds to step S302.

ステップS302において、注目度検出部16は、乗場3に待機している利用者のうち、視線の向きを判定していない利用者を選択する。その後、注目度検出部16の動作は、ステップS303に進む。 In step S302, the attention level detection unit 16 selects a user who has not determined the direction of the line of sight from the users waiting at the landing 3. After that, the operation of the attention level detection unit 16 proceeds to step S303.

ステップS303において、注目度検出部16は、選択した利用者の特性が車椅子使用者であるかを判定する。判定結果がYesの場合に、注目度検出部16の動作は、ステップS304に進む。一方、判定結果がNoの場合に、注目度検出部16の動作は、ステップS305に進む。 In step S303, the attention level detection unit 16 determines whether the characteristic of the selected user is a wheelchair user. When the determination result is Yes, the operation of the attention level detection unit 16 proceeds to step S304. On the other hand, when the determination result is No, the operation of the attention level detection unit 16 proceeds to step S305.

ステップS304において、注目度検出部16は、予め記憶しているポイント表から車椅子使用者に対応づけているポイントを読み出す。その後、注目度検出部16の動作は、ステップS308に進む。 In step S304, the attention level detection unit 16 reads out the points associated with the wheelchair user from the point table stored in advance. After that, the operation of the attention level detection unit 16 proceeds to step S308.

ステップS305において、注目度検出部16は、選択した利用者の特性が低身長者であるかを判定する。判定結果がYesの場合に、注目度検出部16の動作は、ステップS306に進む。一方、判定結果がNoの場合に、注目度検出部16の動作は、ステップS307に進む。 In step S305, the attention level detection unit 16 determines whether the characteristic of the selected user is a short stature. When the determination result is Yes, the operation of the attention level detection unit 16 proceeds to step S306. On the other hand, when the determination result is No, the operation of the attention level detection unit 16 proceeds to step S307.

ステップS306において、注目度検出部16は、予め記憶しているポイント表から低身長者に対応づけているポイントを読み出す。その後、注目度検出部16の動作は、ステップS308に進む。 In step S306, the attention level detection unit 16 reads out the points associated with the short stature from the point table stored in advance. After that, the operation of the attention level detection unit 16 proceeds to step S308.

ステップS307において、注目度検出部16は、予め記憶しているポイント表からその他の利用者に対応づけているポイントを読み出す。その後、注目度検出部16の動作は、ステップS308に進む。 In step S307, the attention level detection unit 16 reads out the points associated with other users from the point table stored in advance. After that, the operation of the attention level detection unit 16 proceeds to step S308.

ステップS308において、注目度検出部16は、選択した利用者の視線の向きを、取得した画像に基づいて判定する。その後、ステップS309において、注目度検出部16は、選択した利用者の視線が向けられる箇所を含む領域について、利用者の特性に応じて読み出したポイントを当該領域のポイント数に加算する。その後、注目度検出部16の動作は、ステップS310に進む。 In step S308, the attention level detection unit 16 determines the direction of the line of sight of the selected user based on the acquired image. After that, in step S309, the attention level detection unit 16 adds the points read out according to the characteristics of the user to the number of points in the area including the portion to which the line of sight of the selected user is directed. After that, the operation of the attention level detection unit 16 proceeds to step S310.

ステップS310において、注目度検出部16は、乗場3に待機している利用者のうち、視線の向きを判定していない利用者がいるかを判定する。判定結果がYesの場合に、注目度検出部16の動作は、ステップS302に進む。一方、判定結果がNoの場合に、注目度検出部16の動作は、ステップS311に進む。 In step S310, the attention level detection unit 16 determines whether or not there is a user who has not determined the direction of the line of sight among the users waiting at the landing 3. When the determination result is Yes, the operation of the attention level detection unit 16 proceeds to step S302. On the other hand, when the determination result is No, the operation of the attention level detection unit 16 proceeds to step S311.

ステップS311において、注目度検出部16は、各々の領域のポイント数を当該領域の注目度とする。注目度検出部16は、各々の領域について検出した注目度を領域決定部17に出力する。その後、ステップS312において、注目度検出部16は、リセット処理を行う。ここで、リセット処理は、例えば各々の領域のポイント数および注目度を0にする処理を含む。その後、注目度の検出に係る注目度検出部16の動作は、終了する。 In step S311, the attention level detection unit 16 sets the number of points in each region as the attention level of the region. The attention level detection unit 16 outputs the attention level detected for each region to the region determination unit 17. After that, in step S312, the attention level detection unit 16 performs a reset process. Here, the reset process includes, for example, a process of setting the number of points and the degree of attention of each region to 0. After that, the operation of the attention level detection unit 16 related to the attention level detection ends.

注目度検出部16による注目度の検出をより具体的な例を用いて説明する。この例において、5人の利用者が乗場3で待機している。待機している利用者のうち、1人の車椅子使用者、および1人のその他の利用者が、領域A1に視線を向けている。待機している利用者のうち、1人の低身長者、および2人のその他の利用者が、領域B2に視線を向けている。このとき、注目度検出部16は、領域A1のポイント数、すなわち注目度を、10+1=11として検出する。また、注目度検出部16は、領域B2のポイント数、すなわち注目度を、3+1+1=5として検出する。注目度検出部16は、この他の領域の注目度を0として検出する。 The detection of the attention level by the attention level detection unit 16 will be described with reference to a more specific example. In this example, five users are waiting at platform 3. Of the waiting users, one wheelchair user and one other user are looking at area A1. Of the waiting users, one short stature and two other users are looking at area B2. At this time, the attention level detection unit 16 detects the number of points in the region A1, that is, the attention level as 10 + 1 = 11. Further, the attention level detection unit 16 detects the number of points in the region B2, that is, the attention level as 3 + 1 + 1 = 5. The attention level detection unit 16 detects the attention level of the other regions as 0.

注目度検出部16から注目度の出力を受けた領域決定部17は、予め設定された領域のうちから、注目度のより高い領域をより優先して選択することで投影領域を決定する。投影装置10は、領域決定部17が決定した投影領域に画像を投影する。 The area determination unit 17 that receives the output of the degree of attention from the degree of attention detection unit 16 determines the projection area by preferentially selecting a region having a higher degree of attention from the preset regions. The projection device 10 projects an image on a projection area determined by the area determination unit 17.

以上に説明したように、実施の形態3に係る表示制御装置11は、特性検出部15を備える。特性検出部15は、撮影装置9が撮影する画像に基づいて、乗場3において待機する利用者についての特性を検出する。利用者の特性は、利用者の目線の高さに関する情報を含む。注目度検出部16は、各々の領域に視線を向けている利用者の特性検出部15が検出する特性に応じて重み付けされた数を用いて、各々の領域の注目度を検出する。 As described above, the display control device 11 according to the third embodiment includes a characteristic detection unit 15. The characteristic detection unit 15 detects the characteristics of the user waiting at the landing 3 based on the image captured by the photographing device 9. User characteristics include information about the height of the user's line of sight. The attention level detection unit 16 detects the attention level of each region by using a number weighted according to the characteristics detected by the characteristic detection unit 15 of the user who is looking at each region.

このような構成により、表示制御装置11は、身体的なハンディキャップのある利用者であっても気づきやすい表示を行うことができる。また、利用者の体格などによって表示が見えにくくなることが抑えられる。 With such a configuration, the display control device 11 can perform a display that is easy to notice even for a user with a physical handicap. In addition, it is possible to prevent the display from becoming difficult to see due to the physical constitution of the user.

実施の形態4.
図8は、実施の形態4に係る表示システム8の動作の例を示すフローチャートである。
図8において、領域決定部17による投影領域の決定に係る動作の例が示される。
Embodiment 4.
FIG. 8 is a flowchart showing an example of the operation of the display system 8 according to the fourth embodiment.
FIG. 8 shows an example of the operation related to the determination of the projection area by the area determination unit 17.

表示制御装置11の領域決定部17は、乗場ドア4の状況に応じて投影領域を決定する。この例において、図4に示される9つの領域が予め設定されている。領域決定部17は、予め設定された領域のうちからいずれかの領域を選択することで投影領域を決定する。 The area determination unit 17 of the display control device 11 determines the projection area according to the situation of the landing door 4. In this example, the nine regions shown in FIG. 4 are preset. The area determination unit 17 determines the projection area by selecting one of the preset areas.

ステップS401において、領域決定部17は、情報取得部12を通じて制御盤6から乗場ドア4の開閉の情報を取得する。その後、ステップS402において、領域決定部17は、位置検出部14から利用者の待機位置を、注目度検出部16から予め設定された領域ごとの注目度を取得する。その後、領域決定部17の動作は、ステップS403に進む。 In step S401, the area determination unit 17 acquires information on opening and closing of the landing door 4 from the control panel 6 through the information acquisition unit 12. After that, in step S402, the area determination unit 17 acquires the user's standby position from the position detection unit 14, and the attention level for each preset area from the attention level detection unit 16. After that, the operation of the area determination unit 17 proceeds to step S403.

ステップS403において、領域決定部17は、いずれかの領域から投影領域の第1候補を選択する。ここで、投影領域の第1候補の選択は、投影領域の選択と同様の方法によって行われる。この例において、投影領域の第1候補は、最も優先度の高い領域である。ここで、より注目度が高く、利用者に投影が遮られる可能性のより低い領域が、優先度のより高い領域である。領域決定部17は、投影領域の第1候補が乗場ドア4の表面を含むかを判定する。この例において、領域A2および領域B2が乗場ドア4の表面を含む領域である。投影領域の第1候補が乗場ドア4の表面を含む場合に、領域決定部17の動作は、ステップS404に進む。一方、投影領域の第1候補が乗場ドア4の表面を含まない場合に、領域決定部17の動作は、ステップS405に進む。 In step S403, the region determination unit 17 selects the first candidate of the projection region from any of the regions. Here, the selection of the first candidate of the projection area is performed by the same method as the selection of the projection area. In this example, the first candidate for the projection region is the region with the highest priority. Here, the area of higher attention and less likely to be blocked by the user is the area of higher priority. The area determination unit 17 determines whether the first candidate of the projection area includes the surface of the landing door 4. In this example, the area A2 and the area B2 are the areas including the surface of the landing door 4. When the first candidate of the projection area includes the surface of the landing door 4, the operation of the area determination unit 17 proceeds to step S404. On the other hand, when the first candidate of the projection area does not include the surface of the landing door 4, the operation of the area determination unit 17 proceeds to step S405.

ステップS404において、領域決定部17は、制御盤6から取得した乗場ドア4の開閉の情報を用いて、乗場ドア4が閉じているかを判定する。この例において、領域決定部17は、乗場ドア4が開いた状態であるときに、乗場ドア4が閉じていないと判定する。また、領域決定部17は、乗場ドア4が開閉動作をしている状態であるときに、乗場ドア4が閉じていないと判定する。乗場ドア4が閉じていると判定するときに、領域決定部17の動作は、ステップS405に進む。一方、乗場ドア4が閉じていないと判定するときに、領域決定部17の動作は、ステップS406に進む。 In step S404, the area determination unit 17 determines whether or not the landing door 4 is closed by using the information on opening and closing of the landing door 4 acquired from the control panel 6. In this example, the area determination unit 17 determines that the landing door 4 is not closed when the landing door 4 is in the open state. Further, the area determination unit 17 determines that the landing door 4 is not closed when the landing door 4 is in the opening / closing operation. When it is determined that the landing door 4 is closed, the operation of the area determination unit 17 proceeds to step S405. On the other hand, when it is determined that the landing door 4 is not closed, the operation of the area determination unit 17 proceeds to step S406.

ステップS405において、領域決定部17は、選択した第1候補を投影領域として決定する。その後、投影領域の決定に係る領域決定部17の動作は、終了する。 In step S405, the area determination unit 17 determines the selected first candidate as the projection area. After that, the operation of the area determination unit 17 related to the determination of the projection area ends.

ステップS406において、領域決定部17は、いずれかの領域から投影領域の第2候補を選択する。この例において、投影領域の第2候補は、第1候補に次いで優先度の高い領域である。領域決定部17は、投影領域の第2候補が乗場ドア4の表面を含むかを判定する。投影領域の第2候補が乗場ドア4の表面を含まない場合に、領域決定部17の動作は、ステップS407に進む。一方、投影領域の第2候補が乗場ドア4の表面を含む場合に、領域決定部17の動作は、ステップS408に進む。 In step S406, the region determination unit 17 selects a second candidate for the projection region from any of the regions. In this example, the second candidate of the projection area is the area having the highest priority next to the first candidate. The area determination unit 17 determines whether the second candidate of the projection area includes the surface of the landing door 4. When the second candidate of the projection area does not include the surface of the landing door 4, the operation of the area determination unit 17 proceeds to step S407. On the other hand, when the second candidate of the projection area includes the surface of the landing door 4, the operation of the area determination unit 17 proceeds to step S408.

ステップS407において、領域決定部17は、選択した第2候補を投影領域として決定する。その後、投影領域の決定に係る領域決定部17の動作は、終了する。 In step S407, the area determination unit 17 determines the selected second candidate as the projection area. After that, the operation of the area determination unit 17 related to the determination of the projection area ends.

ステップS408において、領域決定部17は、乗場ドア4の表面を含む領域を除く領域のうちで、最も優先度の高い領域を投影領域として決定する。その後、投影領域の決定に係る領域決定部17の動作は、終了する。 In step S408, the area determination unit 17 determines the area having the highest priority among the areas excluding the area including the surface of the landing door 4 as the projection area. After that, the operation of the area determination unit 17 related to the determination of the projection area ends.

投影装置10は、領域決定部17が決定した投影領域に画像を投影する。 The projection device 10 projects an image on a projection area determined by the area determination unit 17.

以上に説明したように、実施の形態4に係る表示制御装置11の領域決定部17は、エレベーター1の乗場ドア4が閉じていないときに、複数の領域から乗場ドア4の表面を含む領域を除いて投影領域を決定する。 As described above, the area determination unit 17 of the display control device 11 according to the fourth embodiment obtains a region including the surface of the landing door 4 from a plurality of regions when the landing door 4 of the elevator 1 is not closed. Except to determine the projection area.

このような構成により、かごドア7とともに開いている乗場ドア4の開口を通じて、かご5の内部に乗車している利用者に画像が投影されることが防がれる。このため、乗場3の表示システム8における表示は、乗場3における利用者から見やすくなる。利用者が表示される情報に気づきやすくなるので、利用者の利便性が高くなる。 With such a configuration, it is possible to prevent the image from being projected to the user who is in the car 5 through the opening of the landing door 4 which is open together with the car door 7. Therefore, the display in the display system 8 of the landing 3 is easy for the user in the landing 3 to see. Since it becomes easier for the user to notice the displayed information, the convenience of the user is improved.

なお、一部が乗場ドア4の表面に掛かり、他の一部が乗場ドア4の表面に掛からない領域がある場合に、領域決定部17は、乗場ドア4が閉じていないときに当該領域を除いて投影領域を決定してもよい。 When there is an area where a part of the landing door 4 hangs on the surface and the other part does not hang on the surface of the landing door 4, the area determination unit 17 determines the area when the landing door 4 is not closed. Except for this, the projection area may be determined.

実施の形態5.
図9は、実施の形態5に係る表示システム8の動作の例を示すフローチャートである。
図9において、領域決定部17による投影領域の決定に係る動作の例が示される。
Embodiment 5.
FIG. 9 is a flowchart showing an example of the operation of the display system 8 according to the fifth embodiment.
FIG. 9 shows an example of the operation related to the determination of the projection area by the area determination unit 17.

表示制御装置11の領域決定部17は、乗場ドア4の状況に応じて投影領域を決定する。この例において、図4に示される9つの領域が予め設定されている。領域決定部17は、予め設定された領域のうちからいずれかの領域を選択することで投影領域を決定する。ここで、最も注目度の高い領域が1つに定まらない場合などに、領域決定部17は、予め設定された基準領域を投影領域として決定する。基準領域は、複数の領域のうちから予め選択された領域である。基準領域は、パラメータとして設定可能であってもよい。 The area determination unit 17 of the display control device 11 determines the projection area according to the situation of the landing door 4. In this example, the nine regions shown in FIG. 4 are preset. The area determination unit 17 determines the projection area by selecting one of the preset areas. Here, when the region with the highest degree of attention is not determined to be one, the region determination unit 17 determines a preset reference region as a projection region. The reference area is an area selected in advance from a plurality of areas. The reference area may be configurable as a parameter.

実施の形態5に係る領域決定部17は、ステップS401からステップS402まで、およびステップS403からステップS408までにおいて、実施の形態4に係る領域決定部17と同様に動作する。ステップS402において待機位置および注目度を取得した後、実施の形態5に係る領域決定部17の動作は、ステップS451に進む。 The area determination unit 17 according to the fifth embodiment operates in the same manner as the area determination unit 17 according to the fourth embodiment in steps S401 to S402 and from step S403 to step S408. After acquiring the standby position and the degree of attention in step S402, the operation of the area determination unit 17 according to the fifth embodiment proceeds to step S451.

ステップS451において、領域決定部17は、乗場3に利用者がいるかを判定する。領域決定部17は、例えば各々の領域の注目度が全て0である場合などに、乗場3に利用者がいないと判定する。乗場3に利用者がいない場合に、各々の領域の注目度は全て0となり差がないので、最も注目度の高い領域が1つに定まらなくなる。乗場3に利用者がいると判定される場合に、領域決定部17の動作は、ステップS452に進む。一方、乗場3に利用者がいないと判定される場合に、領域決定部17の動作は、ステップS453に進む。 In step S451, the area determination unit 17 determines whether or not there is a user at the landing 3. The area determination unit 17 determines that there is no user in the landing 3, for example, when the attention levels of each area are all 0. When there are no users at the landing 3, the attention levels of each area are all 0 and there is no difference, so that the area with the highest attention level cannot be determined as one. When it is determined that there is a user in the landing 3, the operation of the area determination unit 17 proceeds to step S452. On the other hand, when it is determined that there is no user in the landing 3, the operation of the area determination unit 17 proceeds to step S453.

ステップS452において、領域決定部17は、複数の領域のうち注目度の高い上位2つの領域の間の注目度の差を算出する。上位2つの領域は、例えば最も注目度の高い領域および当該領域に次いで注目度の高い領域などである。あるいは、最も注目度の高い領域が複数ある場合に、上位2つの領域は、最も注目度の高い複数の領域のうちのいずれか2つであってもよい。領域決定部17は、算出した注目度の差が予め設定された閾値より小さいかを判定する。上位2つの領域の注目度の差が閾値より小さい場合に、最も注目度の高い領域が1つに定まらなくなる。上位2つの領域の注目度の差が閾値より小さいと判定される場合に、領域決定部17の動作は、ステップS453に進む。一方、上位2つの領域の注目度の差が閾値より小さくないと判定される場合に、領域決定部17の動作は、ステップS403に進む。 In step S452, the area determination unit 17 calculates the difference in the degree of attention between the top two areas having the highest degree of attention among the plurality of areas. The top two regions are, for example, the region with the highest degree of attention and the region with the second highest degree of attention next to the region. Alternatively, when there are a plurality of regions having the highest degree of attention, the top two regions may be any two of the plurality of regions having the highest degree of attention. The area determination unit 17 determines whether the calculated difference in attention is smaller than a preset threshold value. When the difference in the degree of attention of the upper two regions is smaller than the threshold value, the region with the highest degree of attention cannot be determined as one. When it is determined that the difference in the degree of attention of the upper two regions is smaller than the threshold value, the operation of the region determination unit 17 proceeds to step S453. On the other hand, when it is determined that the difference in the degree of attention of the upper two regions is not smaller than the threshold value, the operation of the region determination unit 17 proceeds to step S403.

ステップS453において、領域決定部17は、予め設定された基準領域を投影領域として決定する。その後、投影領域の決定に係る領域決定部17の動作は、終了する。 In step S453, the area determination unit 17 determines a preset reference area as a projection area. After that, the operation of the area determination unit 17 related to the determination of the projection area ends.

以上に説明したように、実施の形態5に係る表示制御装置11の領域決定部17は、複数の領域のうち注目度の高い上位2つの領域の間で注目度の差が予め設定された閾値より小さいかを判定する。注目度の差が閾値より小さいときに、領域決定部17は、複数の領域のうちの予め設定された基準領域を投影領域として決定する。 As described above, the area determination unit 17 of the display control device 11 according to the fifth embodiment has a threshold value in which the difference in attention is set in advance between the upper two regions having high attention among the plurality of regions. Determine if it is smaller. When the difference in attention is smaller than the threshold value, the region determination unit 17 determines a preset reference region among the plurality of regions as the projection region.

このような構成により、最も注目度の高い領域が1つに定まらない場合においても、投影領域が定まらなくなることが防がれる。これにより、乗場3の表示システム8における表示は、乗場3における利用者から見やすくなる。利用者が表示される情報に気づきやすくなるので、利用者の利便性が高くなる。 With such a configuration, it is possible to prevent the projection region from being undetermined even when the region with the highest degree of attention is not determined to be one. As a result, the display in the display system 8 of the landing 3 becomes easy to see from the user in the landing 3. Since it becomes easier for the user to notice the displayed information, the convenience of the user is improved.

1 エレベーター、 2 昇降路、 3 乗場、 4 乗場ドア、 5 かご、 6 制御盤、 7 かごドア、 8 表示システム、 9 撮影装置、 10 投影装置、 11 表示制御装置、 12 情報取得部、 13 画像処理部、 14 位置検出部、 15 特性検出部、 16 注目度検出部、 17 領域決定部、 18 画像変換部、 100a プロセッサ、 100b メモリ、 200 専用ハードウェア 1 Elevator, 2 Hoistway, 3 Landing, 4 Landing door, 5 Car, 6 Control panel, 7 Car door, 8 Display system, 9 Imaging device, 10 Projection device, 11 Display control device, 12 Information acquisition unit, 13 Image processing Unit, 14 position detection unit, 15 characteristic detection unit, 16 attention level detection unit, 17 area determination unit, 18 image conversion unit, 100a processor, 100b memory, 200 dedicated hardware

Claims (7)

エレベーターの乗場に設けられた撮影装置が撮影する画像に基づいて、前記乗場において待機する利用者の待機位置を検出する位置検出部と、
前記乗場に設けられた投影装置が画像を投影可能な前記乗場の領域について、前記乗場において待機する利用者の注目度を、前記撮影装置が撮影する画像に基づいて検出する注目度検出部と、
前記投影装置が画像を投影する投影領域を、前記位置検出部が検出する待機位置、および前記注目度検出部が検出する注目度を含む情報に基づいて、より注目度の高い領域、および前記乗場において待機する利用者に投影が遮られる可能性のより低い領域をより優先して決定する領域決定部と、
を備えるエレベーターの表示制御装置。
A position detection unit that detects the standby position of the user waiting at the landing based on the image taken by the photographing device provided at the landing of the elevator.
With respect to the area of the landing where the projection device provided in the landing can project an image, the attention level detecting unit for detecting the attention level of the user waiting at the landing based on the image taken by the photographing device.
The projection area on which the projection device projects an image is a region having a higher degree of attention based on information including a standby position detected by the position detection unit and a degree of attention detected by the attention level detection unit, and the landing. In the area determination unit, which preferentially determines the area where the projection is less likely to be obstructed by the waiting user,
Elevator display control device equipped with.
前記領域決定部が決定した投影領域に応じて前記投影装置が投影する画像を変換する画像変換部
を備える請求項1に記載のエレベーターの表示制御装置。
The display control device for an elevator according to claim 1, further comprising an image conversion unit that converts an image projected by the projection device according to a projection area determined by the region determination unit.
前記注目度検出部は、前記乗場において予め設定された複数の領域の各々について、前記乗場において待機する利用者の注目度を検出する
請求項1または請求項2に記載のエレベーターの表示制御装置。
The elevator display control device according to claim 1 or 2, wherein the attention level detection unit detects the attention level of a user waiting at the landing for each of a plurality of preset areas at the landing.
前記注目度検出部は、前記複数の領域の各々に視線を向けている利用者の数を用いて、前記複数の領域の各々の注目度を検出する
請求項3に記載のエレベーターの表示制御装置。
The elevator display control device according to claim 3, wherein the attention level detecting unit detects the attention level of each of the plurality of areas by using the number of users who are looking at each of the plurality of areas. ..
前記乗場において待機する利用者について目線の高さに関する情報を含む利用者の特性を、前記撮影装置が撮影する画像に基づいて検出する特性検出部
を備え、
前記注目度検出部は、前記複数の領域の各々に視線を向けている利用者の前記特性検出部が検出する特性に応じて重み付けされた数を用いて、前記複数の領域の各々の注目度を検出する
請求項4に記載のエレベーターの表示制御装置。
It is provided with a characteristic detection unit that detects the characteristics of the user including information on the height of the line of sight of the user waiting at the landing based on the image captured by the imaging device.
The attention level detection unit uses a number weighted according to the characteristics detected by the characteristic detection unit of the user who is looking at each of the plurality of regions, and the attention level of each of the plurality of regions. The elevator display control device according to claim 4.
前記領域決定部は、エレベーターの乗場ドアが閉じていないときに、前記複数の領域から前記乗場ドアの表面を含む領域を除いて前記投影装置が投影する画像の投影領域を決定する
請求項3から請求項5のいずれか一項に記載のエレベーターの表示制御装置。
From claim 3, the area determination unit determines a projection area of an image projected by the projection device, excluding an area including a surface of the landing door from the plurality of areas when the landing door of the elevator is not closed. The elevator display control device according to any one of claims 5.
前記領域決定部は、前記複数の領域のうち注目度の高い上位2つの領域の間で注目度の差が予め設定された閾値より小さいときに、前記複数の領域のうちの予め設定された基準領域を前記投影装置が投影する画像の投影領域として決定する
請求項3から請求項6のいずれか一項に記載のエレベーターの表示制御装置。
When the difference in attention between the upper two regions having high attention among the plurality of regions is smaller than the preset threshold value, the region determination unit determines the preset reference among the plurality of regions. The display control device for an elevator according to any one of claims 3 to 6, wherein the area is determined as a projection area of an image projected by the projection device.
JP2020215212A 2020-12-24 2020-12-24 Elevator display control device Active JP6962439B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020215212A JP6962439B1 (en) 2020-12-24 2020-12-24 Elevator display control device
CN202110625983.8A CN114671311B (en) 2020-12-24 2021-06-04 Display control device for elevator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020215212A JP6962439B1 (en) 2020-12-24 2020-12-24 Elevator display control device

Publications (2)

Publication Number Publication Date
JP6962439B1 JP6962439B1 (en) 2021-11-05
JP2022100925A true JP2022100925A (en) 2022-07-06

Family

ID=78409828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215212A Active JP6962439B1 (en) 2020-12-24 2020-12-24 Elevator display control device

Country Status (2)

Country Link
JP (1) JP6962439B1 (en)
CN (1) CN114671311B (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013173594A (en) * 2012-02-24 2013-09-05 Toshiba Elevator Co Ltd Elevator system
JP2016199390A (en) * 2015-04-14 2016-12-01 三菱電機株式会社 Elevator guide device
JP2017030891A (en) * 2015-07-30 2017-02-09 株式会社日立製作所 Group management elevator apparatus
WO2019171530A1 (en) * 2018-03-08 2019-09-12 三菱電機株式会社 Elevator device and elevator control method

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116510A (en) * 2007-11-05 2009-05-28 Fujitsu Ltd Attention degree calculation device, attention degree calculation method, attention degree calculation program, information providing system and information providing device
JP5771127B2 (en) * 2011-11-15 2015-08-26 日本放送協会 Attention level estimation device and program thereof
CN103927670B (en) * 2013-01-10 2017-11-28 上海通用汽车有限公司 Quantify the method for the region attention rate of object
JP6239376B2 (en) * 2013-12-25 2017-11-29 株式会社日立製作所 Image monitoring device and elevator monitoring device
JP5764852B1 (en) * 2014-06-10 2015-08-19 東芝エレベータ株式会社 Elevator hall call registration system
CN107113391B (en) * 2014-12-17 2021-01-12 索尼公司 Information processing apparatus and method
CN105293235B (en) * 2015-10-09 2017-05-17 中国矿业大学 Non-contact detection device and method for pitch circle diameter of steel wire rope for mining
JP6131312B2 (en) * 2015-12-08 2017-05-17 株式会社Pfu Information processing apparatus, method, and program
CN105868782A (en) * 2016-03-30 2016-08-17 苏州大学 Attention rate statistical system, information delivery device, and electronic advertisement display screen
US10091482B1 (en) * 2017-08-04 2018-10-02 International Business Machines Corporation Context aware midair projection display
EP3444214A1 (en) * 2017-08-14 2019-02-20 Otis Elevator Company Elevator safety and control systems
JP7078461B2 (en) * 2018-06-08 2022-05-31 株式会社日立ビルシステム Elevator system and elevator group management control method
CN110316630B (en) * 2019-06-03 2020-12-29 浙江新再灵科技股份有限公司 Deviation early warning method and system for installation angle of elevator camera
CN111353461B (en) * 2020-03-11 2024-01-16 京东科技控股股份有限公司 Attention detection method, device and system of advertising screen and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013173594A (en) * 2012-02-24 2013-09-05 Toshiba Elevator Co Ltd Elevator system
JP2016199390A (en) * 2015-04-14 2016-12-01 三菱電機株式会社 Elevator guide device
JP2017030891A (en) * 2015-07-30 2017-02-09 株式会社日立製作所 Group management elevator apparatus
WO2019171530A1 (en) * 2018-03-08 2019-09-12 三菱電機株式会社 Elevator device and elevator control method

Also Published As

Publication number Publication date
CN114671311B (en) 2023-12-26
CN114671311A (en) 2022-06-28
JP6962439B1 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
JP6377797B1 (en) Elevator boarding detection system
JP5483702B2 (en) Elevator stagnant detector
JP5969148B1 (en) Elevator system
JP6377795B1 (en) Elevator boarding detection system
JP6367411B1 (en) Elevator system
CN111107276B (en) Information processing apparatus, control method thereof, storage medium, and imaging system
JP2001302121A (en) Elevator device
JP6242966B1 (en) Elevator control system
JP6317004B1 (en) Elevator system
JP2016171526A (en) Image sensor, person detection method, control system, control method, and computer program
JP7059412B1 (en) Elevator system
US20190248623A1 (en) Guiding device, guiding method, and elevator
JP6693627B1 (en) Image processing device
JP2008195468A (en) Elevator system and elevator control method
JP2018090351A (en) Elevator system
JP2018158842A (en) Image analyzer and elevator system
JP6524294B1 (en) User detection system
CN107087103A (en) Camera device, image capture method and computer-readable recording medium
TW201504130A (en) Control system and method for elevator
JP6058742B2 (en) Elevator system
JP2002293484A (en) Elevator control device
JP5631648B2 (en) Toilet use display device
JP6962439B1 (en) Elevator display control device
JP2019167186A (en) User detection system
JP6270925B2 (en) Elevator system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210625

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6962439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150