JP6693627B1 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP6693627B1
JP6693627B1 JP2019093079A JP2019093079A JP6693627B1 JP 6693627 B1 JP6693627 B1 JP 6693627B1 JP 2019093079 A JP2019093079 A JP 2019093079A JP 2019093079 A JP2019093079 A JP 2019093079A JP 6693627 B1 JP6693627 B1 JP 6693627B1
Authority
JP
Japan
Prior art keywords
camera
car
image
marker
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019093079A
Other languages
Japanese (ja)
Other versions
JP2020186114A (en
Inventor
紗由美 木村
紗由美 木村
田村 聡
聡 田村
周平 野田
周平 野田
横井 謙太朗
謙太朗 横井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Elevator and Building Systems Corp
Original Assignee
Toshiba Elevator Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Elevator Co Ltd filed Critical Toshiba Elevator Co Ltd
Priority to JP2019093079A priority Critical patent/JP6693627B1/en
Application granted granted Critical
Publication of JP6693627B1 publication Critical patent/JP6693627B1/en
Priority to CN202010410378.4A priority patent/CN111942981A/en
Publication of JP2020186114A publication Critical patent/JP2020186114A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0012Devices monitoring the users of the elevator system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66BELEVATORS; ESCALATORS OR MOVING WALKWAYS
    • B66B5/00Applications of checking, fault-correcting, or safety devices in elevators
    • B66B5/0006Monitoring devices or performance analysers
    • B66B5/0037Performance analysers
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M13/00Other supports for positioning apparatus or articles; Means for steadying hand-held apparatus or articles
    • F16M13/02Other supports for positioning apparatus or articles; Means for steadying hand-held apparatus or articles for supporting on, or attaching to, an object, e.g. tree, gate, window-frame, cycle

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Indicating And Signalling Devices For Elevators (AREA)
  • Image Analysis (AREA)
  • Cage And Drive Apparatuses For Elevators (AREA)

Abstract

【課題】カメラの取り付け位置のずれの検知精度を向上させること。【解決手段】一実施形態によれば、画像処理装置は、乗りかごのドア近辺に設置され、乗りかご内および乗場を含む画像を撮影するカメラの取り付け位置のずれを検知可能である。画像処理装置は、取得手段、設定手段、調整手段および検知手段を備える。取得手段は、記乗りかごの床面および乗場の床面と区別可能なマーカが設置された状態で撮影された画像をカメラから取得する。設定手段は、カメラの取り付けに関する仕様値に基づいて、取得された画像上でマーカが映ると推測される関心領域を設定する。調整手段は、関心領域に含まれる画素群に関する統計量に基づいて、カメラのパラメータを調整する。検知手段は、パラメータの調整後に撮影された画像をカメラから取得し、当該画像からマーカを認識し、認識されたマーカに基づいて、カメラの取り付け位置のずれを検知する。【選択図】図10PROBLEM TO BE SOLVED: To improve the detection accuracy of displacement of a mounting position of a camera. According to one embodiment, an image processing device is installed near a door of a car, and can detect a shift in a mounting position of a camera that captures an image of the inside of the car and the hall. The image processing device includes an acquisition unit, a setting unit, an adjustment unit, and a detection unit. The acquisition unit acquires, from the camera, an image taken in a state where a marker that can be distinguished from the floor surface of the storage car and the floor surface of the hall is installed. The setting means sets a region of interest in which it is estimated that the marker appears on the acquired image based on the specification value regarding the mounting of the camera. The adjusting unit adjusts the parameters of the camera based on the statistics regarding the pixel group included in the region of interest. The detection unit acquires an image captured after adjusting the parameters from the camera, recognizes a marker from the image, and detects a shift in the mounting position of the camera based on the recognized marker. [Selection diagram] Fig. 10

Description

本発明の実施形態は、画像処理装置に関する。   Embodiments of the present invention relate to an image processing apparatus.

近年、エレベータのかごドアに人や物が挟まれるのを防ぐために、様々な技術が考案されている。例えば、カメラを用いてエレベータに向かって移動している利用者を検知し、当該エレベータのドアの戸開時間を延長する技術が考案されている。   In recent years, various techniques have been devised in order to prevent people or objects from being caught in the elevator car door. For example, a technique has been devised that uses a camera to detect a user moving toward an elevator and extends the door opening time of the elevator.

このような技術においては、カメラによって撮影される画像から、エレベータに向かって移動している利用者を精度良く検知する必要がある。しかしながら、カメラの取り付け位置にずれが生じてしまった場合、カメラによって撮影される画像が回転したり、左右方向にずれたりするため、上記した利用者の検知精度を低下させてしまう可能性がある。   In such a technique, it is necessary to accurately detect the user moving toward the elevator from the image captured by the camera. However, if the mounting position of the camera is deviated, the image captured by the camera may be rotated or may be deviated in the left-right direction, which may reduce the detection accuracy of the user. ..

このため、カメラの取り付け位置にずれが生じた場合に、当該ずれを検知可能な技術が開発され、当該技術の精度向上が望まれている。   For this reason, a technology has been developed that can detect the displacement when the mounting position of the camera is displaced, and it is desired to improve the accuracy of the technology.

特開2009−143722号公報JP, 2009-143722, A

本発明の実施形態が解決しようとする課題は、カメラの取り付け位置のずれの検知精度を向上させ得る画像処理装置を提供することである。   The problem to be solved by the embodiments of the present invention is to provide an image processing apparatus capable of improving the detection accuracy of the deviation of the mounting position of the camera.

一実施形態によれば、画像処理装置は、乗りかごのドア近辺に設置され、乗りかご内および乗場を含む画像を撮影するカメラの取り付け位置のずれを検知可能である。前記画像処理装置は、取得手段、設定手段、調整手段および検知手段を具備する。前記取得手段は、前記乗りかごの床面および前記乗場の床面と区別可能なマーカが設置された状態で撮影された画像を前記カメラから取得する。前記設定手段は、前記カメラの取り付けに関する仕様値に基づいて、前記取得された画像上で前記マーカが映ると推測される関心領域を設定する。前記調整手段は、前記設定された関心領域に含まれる画素群に関する統計量に基づいて、前記カメラのパラメータを調整する。前記検知手段は、前記パラメータの調整後に撮影された画像を前記カメラから取得し、当該取得された画像から前記マーカを認識し、当該認識されたマーカに基づいて、前記カメラの取り付け位置のずれを検知する。   According to one embodiment, the image processing device is installed near the door of the car, and can detect a shift in the mounting position of the camera that captures an image of the inside of the car and the hall. The image processing apparatus includes an acquisition unit, a setting unit, an adjustment unit, and a detection unit. The acquisition unit acquires, from the camera, an image captured in a state where a marker that can be distinguished from the floor surface of the car and the floor surface of the hall is installed. The setting unit sets a region of interest that is presumed to include the marker on the acquired image, based on a specification value regarding mounting of the camera. The adjusting unit adjusts the parameters of the camera based on a statistic regarding a pixel group included in the set region of interest. The detection unit acquires an image captured after the adjustment of the parameter from the camera, recognizes the marker from the acquired image, and based on the recognized marker, shifts the mounting position of the camera. Detect.

図1は、実施形態に係るエレベータシステムの概略構成例を示す図である。FIG. 1 is a diagram illustrating a schematic configuration example of an elevator system according to an embodiment. 図2は、エレベータシステムに含まれる画像処理装置のハードウェア構成例を示す図である。FIG. 2 is a diagram illustrating a hardware configuration example of an image processing device included in the elevator system. 図3は、カメラの取り付け位置にずれがない場合に撮影された画像を示す図である。FIG. 3 is a diagram showing an image taken when the mounting position of the camera is not displaced. 図4は、カメラの取り付け位置にずれがある場合に撮影された画像を示す図である。FIG. 4 is a diagram showing an image taken when the mounting position of the camera is deviated. 図5は、カメラの撮影範囲内に設置されるマーカの一例を示す図である。FIG. 5 is a diagram showing an example of markers placed within the shooting range of the camera. 図6は、画像処理装置の機能構成例を示すブロック図である。FIG. 6 is a block diagram showing a functional configuration example of the image processing apparatus. 図7は、キャリブレーション機能における画像処理装置の処理手順の一例を示すフローチャートである。FIG. 7 is a flowchart showing an example of the processing procedure of the image processing apparatus in the calibration function. 図8は、図7に示すフローチャートを補足的に説明するための図であって、カメラにより撮影された画像を示す図である。FIG. 8 is a diagram for supplementarily explaining the flowchart shown in FIG. 7, and is a diagram showing an image taken by a camera. 図9は、カメラの露光調整前に撮影された画像の一例を示す図である。FIG. 9 is a diagram showing an example of an image taken before the exposure adjustment of the camera. 図10は、露光調整機能における画像処理装置の処理手順の一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the processing procedure of the image processing apparatus in the exposure adjustment function. 図11は、カメラの露光調整後に撮影された画像の一例を示す図である。FIG. 11 is a diagram showing an example of an image captured after the exposure adjustment of the camera.

以下、実施の形態について図面を参照して説明する。開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。   Hereinafter, embodiments will be described with reference to the drawings. The disclosure is merely an example, and the invention is not limited to the contents described in the embodiments below. Modifications that can be easily conceived by those skilled in the art are naturally included in the scope of the disclosure. In order to make the description clearer, the size, shape, etc. of each part may be schematically represented in the drawings by being changed from the actual embodiment. Corresponding elements may be given the same reference numerals in a plurality of drawings, and detailed description may be omitted.

図1は、実施形態に係るエレベータシステムの概略構成例を示す図である。
乗りかご11の出入口上部にカメラ12が設置されている。具体的には、乗りかご11の出入口上部を覆う幕板11aの中にカメラ12のレンズ部分を、乗りかご11内および乗場15が共に映る方向に向けて設置されている。カメラ12は、例えば車載カメラ等の小型の監視用カメラであり、広角レンズを有し、1秒間に数コマ(例えば、30コマ/秒)の画像を連続的に撮影する。
FIG. 1 is a diagram illustrating a schematic configuration example of an elevator system according to an embodiment.
A camera 12 is installed above the entrance of the car 11. Specifically, the lens portion of the camera 12 is installed in the curtain plate 11a that covers the upper portion of the entrance and exit of the car 11 so that the inside of the car 11 and the hall 15 are both reflected. The camera 12 is, for example, a small surveillance camera such as a vehicle-mounted camera, has a wide-angle lens, and continuously captures images of several frames (for example, 30 frames / second) per second.

カメラ12は、常時オンであり、常に撮影を行うとしても良いし、所定のタイミングでオンになり撮影を開始し、所定のタイミングでオフになり撮影を終了するとしても良い。例えば、カメラ12は、乗りかご11の移動速度が所定値未満の時にオンになり、乗りかご11の移動速度が所定値以上の時にオフになるとしても良い。この場合、カメラ12は、乗りかご11が所定階に停止するために減速を開始し、移動速度が所定値未満になるとオンになり撮影を開始し、乗りかご11が当該所定階とは別の階に向かうために加速を開始し、移動速度が所定値以上になるとオフになり撮影を終了する。つまり、カメラ12による撮影は、乗りかご11が所定階に停止するために減速を開始し、移動速度が所定値未満になってから、乗りかご11が当該所定階に停止している間中も含めて、乗りかご11が当該所定階から別の階に向かうために加速を開始し、移動速度が所定値以上になるまで継続して行われる。   The camera 12 may be always on, and may always shoot, or may be turned on at a predetermined timing to start shooting and turned off at a predetermined timing to end shooting. For example, the camera 12 may be turned on when the moving speed of the car 11 is less than a predetermined value and turned off when the moving speed of the car 11 is equal to or more than the predetermined value. In this case, the camera 12 starts deceleration because the car 11 stops at a predetermined floor, and when the moving speed becomes less than the predetermined value, the camera 12 is turned on and starts photographing, and the car 11 is different from the predetermined floor. Acceleration is started to move to the floor, and when the moving speed becomes equal to or higher than a predetermined value, the speed is turned off and the photographing is ended. In other words, in the image capturing by the camera 12, the car 11 starts decelerating because it stops at the predetermined floor, and even while the car 11 is stopped at the predetermined floor after the moving speed becomes less than the predetermined value. Including, the car 11 starts acceleration to move from the predetermined floor to another floor, and is continuously performed until the moving speed becomes equal to or higher than the predetermined value.

カメラ12の撮影範囲はL1+L2に設定されている(L1≧L2)。L1は乗場15側の撮影範囲であり、かごドア13から乗場15に向けて設定される。L1は乗りかご11側の撮影範囲であり、かごドア13からかご背面に向けて設定される。なお、L1,L2は奥行方向の範囲であり、幅方向(奥行方向と直交する方向)の範囲については、少なくとも乗りかご11の横幅よりも大きいものとする。   The shooting range of the camera 12 is set to L1 + L2 (L1 ≧ L2). L1 is an imaging range on the hall 15 side, and is set from the car door 13 toward the hall 15. L1 is an imaging range on the side of the car 11 and is set from the car door 13 toward the back of the car. It should be noted that L1 and L2 are ranges in the depth direction, and the range in the width direction (direction orthogonal to the depth direction) is at least larger than the lateral width of the car 11.

各階の乗場15において、乗りかご11の到着口には乗場ドア14が開閉自在に設置されている。乗場ドア14は、乗りかご11の到着時にかごドア13に係合して開閉動作する。なお、動力源(ドアモータ)は乗りかご11側にあり、乗場ドア14はかごドア13に追従して開閉するだけである。以下の説明においては、かごドア13が戸開している時には乗場ドア14も戸開しており、かごドア13を戸閉している時には乗場ドア14も戸閉しているものとする。   In the hall 15 on each floor, a hall door 14 is installed at the arrival entrance of the car 11 so as to be openable and closable. When the car 11 arrives, the hall door 14 engages with the car door 13 to open and close. The power source (door motor) is on the side of the car 11, and the hall door 14 only opens and closes following the car door 13. In the following description, it is assumed that when the car door 13 is open, the hall door 14 is also open, and when the car door 13 is closed, the hall door 14 is also closed.

カメラ12によって連続的に撮影された各画像(映像)は、画像処理装置20によってリアルタイムに画像処理される。具体的には、画像処理装置20は、予め設定されたエリア(以下、検知エリアと表記する)における画像の輝度値の変化に基づいてかごドア13に最も近い利用者(の動き)を検知し、検知された利用者が乗りかご11に乗車する意思を有しているか否かの判定や、検知された利用者の手や腕が戸袋に引き込まれる可能性があるか否かの判定等を行う。画像処理装置20による画像処理の結果は、必要に応じて、エレベータ制御装置30による制御処理(主に、戸開閉制御処理)に反映される。   Each image (video) continuously captured by the camera 12 is image-processed in real time by the image processing device 20. Specifically, the image processing device 20 detects (the movement of) the user closest to the car door 13 based on a change in the brightness value of the image in a preset area (hereinafter, referred to as a detection area). , Whether or not the detected user has the intention to get into the car 11, and whether or not the detected user's hand or arm may be pulled into the door pocket. To do. The result of the image processing by the image processing apparatus 20 is reflected in the control processing (mainly the door opening / closing control processing) by the elevator control apparatus 30 as needed.

エレベータ制御装置30は、乗りかご11が乗場15に到着した時のかごドア13の戸開閉を制御する。詳しくは、エレベータ制御装置30は、乗りかご11が乗場15に到着した時にかごドア13を戸開し、所定時間経過後に戸閉する。   The elevator control device 30 controls opening and closing of the car door 13 when the car 11 arrives at the hall 15. Specifically, the elevator control device 30 opens the car door 13 when the car 11 arrives at the hall 15, and closes the car door 13 after a predetermined time has elapsed.

但し、画像処理装置20により乗りかご11に乗車する意思のある利用者が検知された場合には、エレベータ制御装置30は、かごドア13の戸閉動作を禁止して戸開状態を維持する(かごドア13の戸開時間を延長する)。また、画像処理装置20により手や腕が戸袋に引き込まれる可能性のある利用者が検知された場合には、エレベータ制御装置30は、かごドア13の戸開動作を禁止するまたはかごドア13の戸開速度を通常時よりも遅くする、あるいはかごドア13から離れることを促す旨のメッセージを乗りかご11内に流す等して、手や腕が戸袋に引き込まれる可能性があることを当該利用者に対して通知する。   However, when the image processing device 20 detects a user who intends to get into the car 11, the elevator control device 30 prohibits the door closing operation of the car door 13 and maintains the door open state ( Extend the car door 13 opening time). Further, when the image processing device 20 detects a user whose hands or arms may be pulled into the door pocket, the elevator control device 30 prohibits the door opening operation of the car door 13 or the car door 13. The use of the possibility that hands and arms may be pulled into the door pocket by, for example, sending a message in the car 11 that the door opening speed is slower than usual or that the car door 13 is urged to leave the car door 13 Notify the person.

なお、図1では便宜的に、画像処理装置20を乗りかご11から取り出して示しているが、実際には画像処理装置20はカメラ12と共に幕板11aの中に収納されている。また、図1では、カメラ12と画像処理装置20とが別々に設けられている場合を例示しているが、カメラ12と画像処理装置20とは1つの装置として一体化されて設けられても良い。さらに、図1では、画像処理装置20とエレベータ制御装置30とが別々に設けられている場合を例示しているが、画像処理装置20の機能はエレベータ制御装置30に搭載されるとしても良い。   In FIG. 1, the image processing device 20 is illustrated as being taken out of the car 11 for convenience, but in reality, the image processing device 20 is housed together with the camera 12 in the curtain 11a. Further, although FIG. 1 illustrates the case where the camera 12 and the image processing device 20 are separately provided, the camera 12 and the image processing device 20 may be provided integrally as one device. good. Further, although FIG. 1 illustrates the case where the image processing device 20 and the elevator control device 30 are separately provided, the function of the image processing device 20 may be installed in the elevator control device 30.

図2は、画像処理装置20のハードウェア構成の一例を示す図である。
図2に示すように、画像処理装置20においては、バス21に、不揮発性メモリ22、CPU23、メインメモリ24および通信デバイス25等が接続されている。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing device 20.
As shown in FIG. 2, in the image processing apparatus 20, a non-volatile memory 22, a CPU 23, a main memory 24, a communication device 25, etc. are connected to a bus 21.

不揮発性メモリ22は、例えばオペレーティングシステム(OS)等を含む各種プログラムを格納する。なお、不揮発性メモリ22に格納されているプログラムには、上記した画像処理(より詳しくは、後述する利用者検知処理)を実行するためのプログラムや、後述するキャリブレーション機能を実現するためのプログラム(以下、キャリブレーションプログラムと表記する)が含まれる。   The non-volatile memory 22 stores various programs including, for example, an operating system (OS) and the like. The programs stored in the non-volatile memory 22 include a program for executing the above-mentioned image processing (more specifically, a user detection processing described later) and a program for realizing a calibration function described later. (Hereinafter referred to as a calibration program) is included.

CPU23は、例えば不揮発性メモリ22に格納されている各種プログラムを実行するプロセッサである。なお、CPU23は、画像処理装置20全体の制御を実行する。   The CPU 23 is, for example, a processor that executes various programs stored in the nonvolatile memory 22. The CPU 23 controls the entire image processing apparatus 20.

メインメモリ24は、例えばCPU23が各種プログラムを実行する際に必要とされるワークエリア等として使用される。   The main memory 24 is used as, for example, a work area required when the CPU 23 executes various programs.

通信デバイス25は、有線または無線により、例えばカメラ12やエレベータ制御装置30等の外部装置と実行される通信(信号の送受信)を制御する機能を有する。   The communication device 25 has a function of controlling communication (transmission and reception of signals) executed with an external device such as the camera 12 and the elevator control device 30 by wire or wirelessly.

ここで、上記したように、画像処理装置20は、予め設定された検知エリアにおける画像の輝度値の変化に基づいてかごドア13に最も近い利用者を検知する利用者検知処理を実行する。この利用者検知処理では、予め設定された検知エリアにおける画像の輝度値の変化に注目するため、当該検知エリアは、画像上の決まった位置に常に設定される必要がある。   Here, as described above, the image processing device 20 executes the user detection process for detecting the user closest to the car door 13 based on the change in the brightness value of the image in the preset detection area. In this user detection process, attention is paid to the change in the brightness value of the image in the preset detection area, so that the detection area must be always set at a fixed position on the image.

しかしながら、エレベータシステムの運用中に例えば乗りかご11やカメラ12に対する衝撃等によって、カメラ12の取り付け位置(取り付け角度)にずれが生じてしまうと、上記した検知エリアにもずれが生じてしまうため、画像処理装置20は、実際に注目したいエリアとは異なるエリアの画像の輝度値の変化に注目してしまい、その結果、本来であれば検知する必要のある利用者(や物体)を検知できない、あるいは、本来であれば検知する必要のない利用者(や物体)を誤検知してしまう、等の可能性がある。   However, if the mounting position (mounting angle) of the camera 12 is displaced due to, for example, an impact on the car 11 or the camera 12 during operation of the elevator system, the above-described detection area is also displaced. The image processing apparatus 20 pays attention to the change in the brightness value of the image in the area different from the area actually desired to be focused, and as a result, cannot detect the user (or the object) that should be detected, Alternatively, there is a possibility that a user (or an object) that should not be detected should be erroneously detected.

図3は、カメラ12の取り付け位置にずれがない場合に撮影された画像の一例を示す。なお、図1においては示されていないが、乗りかご11側には、かごドア13の開閉をガイドするためのシル(敷居)(以下、かごシルと表記する)13aが設けられている。同様に、乗場15側には、乗場ドア14の開閉をガイドするためのシル(以下、乗場シルと表記する)14aが設けられている。また、図3中の斜線部分は、画像上に設定された検知エリアe1を示している。ここでは一例として、乗場15にいる利用者を検知するために、検知エリアe1が、長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺から、乗場15側に向けて所定の範囲を有して設定される場合を想定する。なお、検知エリアは、手や腕の戸袋への引き込まれを抑止するために乗りかご11側に設定されても良いし、乗場15側および乗りかご11側の双方に複数設定されても良い。   FIG. 3 shows an example of an image taken when the mounting position of the camera 12 is not displaced. Although not shown in FIG. 1, a sill (sill) 13a for guiding the opening and closing of the car door 13 (hereinafter referred to as a car sill) 13a is provided on the side of the car 11. Similarly, on the hall 15 side, a sill (hereinafter referred to as a hall sill) 14a for guiding opening and closing of the hall door 14 is provided. The shaded area in FIG. 3 indicates the detection area e1 set on the image. Here, as an example, in order to detect the user at the hall 15, the detection area e1 is a predetermined distance from the long side on the car 11 side of the long sides of the rectangular car sill 13a toward the hall 15 side. It is assumed that it is set with a range of. The detection areas may be set on the side of the car 11 in order to prevent the hands or arms from being drawn into the door pocket, or may be set in plural on both the hall 15 side and the car 11 side.

一方、図4は、カメラ12の取り付け位置にずれがある場合に撮影された画像の一例を示す。なお、図4中の斜線部分は、図3同様に、画像上に設定された検知エリアe1を示す。   On the other hand, FIG. 4 shows an example of an image taken when the mounting position of the camera 12 is displaced. The shaded area in FIG. 4 indicates the detection area e1 set on the image, as in FIG.

図4に示すように、カメラ12の取り付け位置にずれがあると、カメラ12によって撮影された画像は、図3に示す場合に比べて、例えば回転した画像(傾いた画像)となる。しかしながら、検知エリアe1は、図3同様、画像上の決まった位置に設定されるため、本来であれば図3に示すように、長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺から、乗場15側に所定の範囲を有して設定されるにも関わらず、図4に示すように、長方形状のかごシル13aの長辺とは全く関係のない位置から所定の範囲を有して設定されてしまうことになる。これによれば、上記したように、本来であれば検知する必要のある利用者を検知できなかったり、検知する必要のない利用者を誤検知してしまったりする可能性がある。なお、図4では、カメラ12の取り付け位置のずれに起因して、画像が回転してしまった場合を例示したが、カメラ12の取り付け位置のずれに起因して、画像が左右方向にずれてしまった場合も同様の可能性がある。   As shown in FIG. 4, when the mounting position of the camera 12 is deviated, the image captured by the camera 12 becomes, for example, a rotated image (tilted image) as compared with the case shown in FIG. However, since the detection area e1 is set at a fixed position on the image as in FIG. 3, it should originally be the side of the car 11 of the long sides of the rectangular car sill 13a as shown in FIG. Although it is set to have a predetermined range on the hall 15 side from the long side of the rectangular car sill 13a, as shown in FIG. It will be set with a range. According to this, as described above, there is a possibility that a user who should normally be detected cannot be detected or a user who does not need to be detected may be erroneously detected. 4 illustrates the case where the image is rotated due to the displacement of the mounting position of the camera 12, but the image is displaced laterally due to the displacement of the mounting position of the camera 12. If it happens, there is a similar possibility.

そこで、本実施形態に係る画像処理装置20は、カメラ12の取り付け位置にずれが生じているか否かを検知し、ずれが生じている場合には、当該ずれにあわせて適切な位置に検知エリアを設定可能なキャリブレーション機能を有している。以下では、このキャリブレーション機能について詳しく説明する。   Therefore, the image processing apparatus 20 according to the present embodiment detects whether or not the mounting position of the camera 12 is displaced, and when the displacement is generated, the detection area is located at an appropriate position according to the displacement. It has a calibration function that can be set. The calibration function will be described in detail below.

なお、キャリブレーション機能を実現するにあたっては、例えば図5に示すようなマーカmがカメラ12の撮影範囲内に設置される必要がある。マーカmは、例えばエレベータシステムの保守点検を行う保守員により設置される。ここでは、マーカmが正方形状であり、4つの黒い丸印を模様として含むものとしたが、マーカmは4つの角が全て直角である四角形であって、カメラ12の撮影範囲内に含まれる他の物体(例えば、乗りかご11や乗場15の床面)と区別可能な模様を含むものであれば、どのようなものであっても構わない。   In order to realize the calibration function, it is necessary to install a marker m as shown in FIG. 5 within the shooting range of the camera 12. The marker m is installed, for example, by a maintenance person who performs maintenance and inspection of the elevator system. Here, the marker m has a square shape and includes four black circles as a pattern, but the marker m is a quadrangle with all four corners being right angles, and is included in the shooting range of the camera 12. Any object may be used as long as it includes a pattern distinguishable from other objects (for example, the floor of the car 11 or the hall 15).

図6は、本実施形態に係る画像処理装置20の機能構成の一例を示すブロック図である。ここでは、上記したキャリブレーション機能に関する機能構成について主に説明する。   FIG. 6 is a block diagram showing an example of the functional configuration of the image processing apparatus 20 according to this embodiment. Here, the functional configuration related to the above-described calibration function will be mainly described.

画像処理装置20は、図6に示すように、格納部201、画像取得部202、ずれ検知部203、設定処理部204および通知処理部205、等を含む。ずれ検知部203は、図6に示すように、認識処理部231、算出処理部232および検知処理部233、等をさらに含む。   As shown in FIG. 6, the image processing device 20 includes a storage unit 201, an image acquisition unit 202, a deviation detection unit 203, a setting processing unit 204, a notification processing unit 205, and the like. As shown in FIG. 6, the shift detection unit 203 further includes a recognition processing unit 231, a calculation processing unit 232, a detection processing unit 233, and the like.

本実施形態においては、これら各部202〜205が、例えば図2に示すCPU23(つまり、画像処理装置20のコンピュータ)が不揮発性メモリ22に格納されているキャリブレーションプログラムを実行すること(つまり、ソフトウェア)により実現されるものとして説明するが、上記した各部202〜205は、ハードウェアにより実現されても良いし、ソフトウェアおよびハードウェアの組み合わせにより実現されても良い。また、本実施形態において、格納部201は、例えば図2に示す不揮発性メモリ22または他の記憶装置等によって構成される。   In the present embodiment, each of these units 202 to 205, for example, the CPU 23 (that is, the computer of the image processing apparatus 20) shown in FIG. 2 executes the calibration program stored in the nonvolatile memory 22 (that is, software). However, each of the above-mentioned units 202 to 205 may be realized by hardware, or may be realized by a combination of software and hardware. In addition, in the present embodiment, the storage unit 201 is configured by, for example, the non-volatile memory 22 shown in FIG. 2 or another storage device.

格納部201には、キャリブレーション機能に関する設定値が格納されている。キャリブレーション機能に関する設定値は、基準点に対するマーカの相対位置を示す値(以下、第1設定値と表記する)を含む。基準点とは、カメラ12の取り付け位置にずれが生じているか否かを検知するための指標となる位置であり、例えば、長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺の中央がこれに相当する。なお、基準点は、上記した長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺の中央ではなく、カメラ12の取り付け位置にずれが生じていない場合に当該カメラ12の撮影範囲内に含まれる位置であれば任意の位置が基準点に設定されて構わない。   The storage unit 201 stores setting values related to the calibration function. The setting value related to the calibration function includes a value indicating the relative position of the marker with respect to the reference point (hereinafter referred to as the first setting value). The reference point is a position serving as an index for detecting whether or not the mounting position of the camera 12 is displaced, and for example, the length on the side of the car 11 of the long sides of the rectangular car sill 13a. The center of the side corresponds to this. The reference point is not the center of the long side on the side of the car 11 among the long sides of the rectangular car sill 13a described above, and the camera 12 takes an image when the mounting position of the camera 12 is not displaced. Any position may be set as the reference point as long as it is within the range.

また、キャリブレーションに関する設定値には、カメラ12の取り付け位置にずれが生じていない場合の画像(基準画像)に含まれる基準点に対するカメラ12の相対位置を示す値(以下、第2設定値と表記する)が含まれる。   Further, the setting value related to the calibration is a value indicating the relative position of the camera 12 with respect to the reference point included in the image (reference image) when the mounting position of the camera 12 is not displaced (hereinafter, referred to as the second setting value). Notation) is included.

さらに、キャリブレーションに関する設定値には、基準点に対するかごシル13aの各頂点(四隅)の相対位置を示す値(以下、第3設定値と表記する)が含まれる。なお、本実施形態においては、検知エリアが長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺から乗場15側に所定の範囲を有して設定される場合を想定しているため、上記した第3設定値として、基準点に対するかごシル13aの各頂点の相対位置を示す値が含まれるとしているが、これに限定されず、第3設定値には、検知エリアを設定すべき領域に応じた値が設定される。例えば、検知エリアが手や腕の戸袋への引き込まれを抑止することを目的として、戸袋近辺に設定される場合、第3設定値として、基準点に対する戸袋の各特徴点の相対位置を示す値が含まれるとしても良い。   Further, the setting values related to the calibration include a value (hereinafter, referred to as a third setting value) indicating a relative position of each vertex (four corners) of the car sill 13a with respect to the reference point. In the present embodiment, it is assumed that the detection area is set to have a predetermined range from the long side on the car 11 side of the long sides of the rectangular car sill 13a to the hall 15 side. Therefore, the above-mentioned third set value includes a value indicating the relative position of each vertex of the car sill 13a with respect to the reference point, but is not limited to this, and the detection area is set in the third set value. A value corresponding to the area to be set is set. For example, when the detection area is set in the vicinity of the door pocket in order to prevent the hand or arm from being pulled into the door pocket, the third set value is a value indicating the relative position of each feature point of the door pocket with respect to the reference point. May be included.

また、キャリブレーションに関する設定値には、乗りかご11の床面からカメラ12までの高さと、当該カメラ12の画角(焦点距離)とを示す値(以下、カメラ設定値と表記する)が含まれる。   Further, the setting values related to the calibration include a value (hereinafter, referred to as a camera setting value) indicating a height from the floor surface of the car 11 to the camera 12 and an angle of view (focal length) of the camera 12. Be done.

なお、格納部201には、カメラ12の取り付け位置にずれがない場合に撮影された画像(基準画像)が格納されていても良い。   The storage unit 201 may store an image (reference image) taken when the mounting position of the camera 12 is not displaced.

画像取得部202は、乗りかご11内の床面に複数のマーカmが設置された状態でカメラ12により撮影された画像(以下、撮影画像と表記する)を取得する。なお、本実施形態においては、複数のマーカmが、長方形状のかごシル13aの長辺のうちの乗りかご11側の長辺の両端部にそれぞれ沿うようにして、乗りかご11内の床面に設置される(以下では、単にかごシル13aの両端部に設置すると表記する)場合を想定するが、複数のマーカmは基準点(本実施形態の場合、かごシル13aの中央)との相対位置を特定可能な位置であれば、乗場15側の床面に設置されても良いし、かごシル13aや乗場シル14a上に設置されても良い。また、画像取得部202は、複数のマーカmが設置された状態でカメラ12により撮影された画像を取得すれば良く、かごドア13の状態はどのような状態であっても構わない。例えば、画像取得部202は、複数のマーカmが設置され、かつ、かごドア13が全開の状態で撮影された画像を撮影画像として取得しても良いし、複数のマーカmが設置され、かつ、かごドア13が全閉の状態で撮影された画像を撮影画像として取得しても良いし、複数のマーカmが設置され、かつ、かごドア13が半開き(あるいは半閉り)の状態で撮影された画像を撮影画像として取得するとしても良い。   The image acquisition unit 202 acquires an image (hereinafter, referred to as a captured image) captured by the camera 12 in a state where a plurality of markers m are installed on the floor surface of the car 11. In the present embodiment, the plurality of markers m are arranged along both ends of the long side on the side of the car 11 of the long sides of the rectangular car sill 13a, so that the floor surface inside the car 11 can be reduced. It is assumed that the markers m are installed in the following (hereinafter, simply described as being installed at both ends of the car sill 13a), but the plurality of markers m are relative to a reference point (in the case of the present embodiment, the center of the car sill 13a). As long as the position can be specified, it may be installed on the floor surface on the side of the hall 15 or may be installed on the car sill 13a or the hall sill 14a. Further, the image acquisition unit 202 only needs to acquire the image captured by the camera 12 in the state where the plurality of markers m are installed, and the state of the car door 13 may be any state. For example, the image acquisition unit 202 may acquire, as a captured image, an image taken with the plurality of markers m installed and the car door 13 fully open, or the plurality of markers m are installed, and Alternatively, an image taken with the car door 13 fully closed may be acquired as a taken image, or a plurality of markers m may be installed and the car door 13 may be half opened (or half closed). The captured image may be acquired as a captured image.

ずれ検知部203は、画像取得部202により取得された撮影画像に対して認識処理を実行し、当該撮影画像に含まれる複数のマーカmを認識(抽出)する。撮影画像に含まれるマーカmの認識は、例えばマーカmに含まれる模様、本実施形態の場合、正方形の中に含まれる4つの黒い丸印を模様として含む物体を、マーカmとして認識することを予め設定しておくことで実現するとしても良いし、その他の公知の画像認識技術を用いて実現するとしても良い。   The deviation detection unit 203 performs recognition processing on the captured image acquired by the image acquisition unit 202, and recognizes (extracts) a plurality of markers m included in the captured image. To recognize the marker m included in the captured image, for example, a pattern included in the marker m, in the present embodiment, an object including four black circles included in a square as a pattern is recognized as the marker m. It may be realized by setting in advance, or may be realized by using other known image recognition technology.

なお、本実施形態において、複数のマーカmを認識するとは、複数のマーカmの撮影画像上での座標値を算出することを含む。本実施形態においては、マーカmとして認識された物体に含まれる4つの黒い丸印の中心点を結ぶことで形成される四角形の中心点(重心)をマーカmとみなして、複数のマーカmの撮影画像上での座標値が算出される場合を想定する。なお、ここでは、マーカmとして認識された物体に含まれる4つの黒い丸印の中心点を結ぶことで形成される四角形の重心をマーカmとみなすとするが、マーカmとして認識された物体のどの部分をマーカmとみなすかは任意に設定されて構わない。   In the present embodiment, recognizing the plurality of markers m includes calculating coordinate values of the plurality of markers m on the captured image. In the present embodiment, the center point (center of gravity) of a quadrangle formed by connecting the center points of the four black circles included in the object recognized as the marker m is regarded as the marker m, and the plurality of markers m are separated. It is assumed that the coordinate value on the captured image is calculated. Note that, here, the center of gravity of a quadrangle formed by connecting the center points of the four black circles included in the object recognized as the marker m is regarded as the marker m. Which part is regarded as the marker m may be set arbitrarily.

ずれ検知部203は、上記した認識処理の結果に基づいて、カメラ12の取り付け位置のずれを検知する。なお、ずれ検知部203に含まれる認識処理部231、算出処理部232および検知処理部233の機能については、フローチャートの説明と共に後述するため、ここではこれらの詳しい説明を省略する。   The shift detection unit 203 detects a shift in the mounting position of the camera 12 based on the result of the above-described recognition process. The functions of the recognition processing unit 231, the calculation processing unit 232, and the detection processing unit 233 included in the deviation detection unit 203 will be described later along with the description of the flowchart, and thus detailed description thereof will be omitted here.

設定処理部204は、ずれ検知部203によりカメラ12の取り付け位置にずれが生じていることが検知された場合、画像取得部202により取得された撮影画像のうちの当該ずれにあわせた適切な位置に検知エリアを設定する。これによれば、カメラ12の取り付け位置のずれを考慮した検知エリアが撮影画像上に設定される。なお、ずれにあわせて適切な位置に設定された検知エリアの座標値は、格納部201に格納されても良い。   When the displacement detection unit 203 detects that the mounting position of the camera 12 is displaced, the setting processing unit 204 selects an appropriate position in the captured image acquired by the image acquisition unit 202 in accordance with the displacement. Set the detection area to. According to this, the detection area in consideration of the displacement of the mounting position of the camera 12 is set on the captured image. The coordinate value of the detection area set at an appropriate position according to the shift may be stored in the storage unit 201.

通知処理部205は、ずれ検知部203によりカメラ12の取り付け位置にずれが生じていることが検知された場合、エレベータシステムの運用状態等を監視する監視センタ(の管理者)や、マーカmを設置してエレベータシステムの保守点検を行う保守員(が所持する端末)に対して、カメラ12の取り付け位置にずれが生じていること(異常が生じていること)を通知する。なお、この通知は、例えば通信デバイス25を介して行われる。   When the deviation detection unit 203 detects that the mounting position of the camera 12 is deviated, the notification processing unit 205 notifies the monitoring center (administrator) that monitors the operating state of the elevator system and the marker m. The maintenance person (the terminal owned by the maintenance person) who installs and performs the maintenance and inspection of the elevator system is notified that the mounting position of the camera 12 is displaced (abnormality is generated). It should be noted that this notification is given, for example, via the communication device 25.

次に、図7のフローチャートを参照して、本実施形態におけるキャリブレーション機能における画像処理装置20の処理手順について説明する。なお、図7に示す一連の処理は、例えば定期メンテナンス時に実行される他、エレベータシステムの運用前等に実行されても良い。   Next, the processing procedure of the image processing apparatus 20 in the calibration function of this embodiment will be described with reference to the flowchart of FIG. 7. The series of processes shown in FIG. 7 may be executed, for example, during regular maintenance, or before operation of the elevator system.

まず、画像取得部202は、乗りかご11内の床面に複数のマーカmが設置された状態で撮影された画像(撮影画像)をカメラ12から取得する(ステップS1)。ここでは一例として、図8に示す撮影画像i1が画像取得部202により取得された場合を想定する。撮影画像i1には、図8に示すように、かごシル13aの両端部に設置された2つのマーカm1,m2が含まれている。   First, the image acquisition unit 202 acquires from the camera 12 an image (captured image) captured with a plurality of markers m provided on the floor surface of the car 11 (step S1). Here, as an example, it is assumed that the captured image i1 shown in FIG. 8 is acquired by the image acquisition unit 202. As shown in FIG. 8, the captured image i1 includes two markers m1 and m2 installed at both ends of the car sill 13a.

続いて、ずれ検知部203に含まれる認識処理部231は、画像取得部202により取得された撮影画像に対して認識処理を実行し、当該撮影画像に含まれる複数のマーカmを認識(抽出)する(ステップS2)。上記したように、ステップS1において撮影画像i1が取得されている場合、認識処理部231は、図8に示す撮影画像i1に対して認識処理を実行し、当該撮影画像i1に含まれるマーカm1,m2を認識(抽出)する。   Subsequently, the recognition processing unit 231 included in the deviation detection unit 203 executes the recognition process on the captured image acquired by the image acquisition unit 202, and recognizes (extracts) the plurality of markers m included in the captured image. Yes (step S2). As described above, when the captured image i1 has been acquired in step S1, the recognition processing unit 231 executes the recognition process on the captured image i1 shown in FIG. 8 and the marker m1 included in the captured image i1. Recognize (extract) m2.

次に、認識処理部231は、格納部201に設定値として格納されているカメラ設定値(カメラ12の高さおよびカメラ12の画角)に基づいて、ステップS2の認識処理の結果として得られる複数のマーカmに対するカメラ12の各相対位置と、カメラ12の3軸の角度(カメラ12の取り付け角度)とを算出する(ステップS3)。上記したように、ステップS2において撮影画像i1からマーカm1,m2が認識されている場合、認識処理部231は、複数のマーカmに対するカメラ12の相対位置として、マーカm1に対するカメラ12の相対位置と、マーカm2に対するカメラ12の相対位置とをそれぞれ算出する。なお、図8では、点p1がマーカm1とみなされる部分に相当し、点p2がマーカm2とみなされる部分に相当する。   Next, the recognition processing unit 231 is obtained as a result of the recognition processing in step S2, based on the camera setting values (height of the camera 12 and angle of view of the camera 12) stored as setting values in the storage unit 201. The relative positions of the camera 12 with respect to the plurality of markers m and the angles of the three axes of the camera 12 (attachment angle of the camera 12) are calculated (step S3). As described above, when the markers m1 and m2 are recognized from the captured image i1 in step S2, the recognition processing unit 231 determines the relative position of the camera 12 with respect to the marker m1 as the relative position of the camera 12 with respect to the plurality of markers m1. , And the relative position of the camera 12 with respect to the marker m2, respectively. In addition, in FIG. 8, the point p1 corresponds to a portion regarded as the marker m1, and the point p2 corresponds to a portion regarded as the marker m2.

ずれ検知部203に含まれる算出処理部232は、認識処理部231により算出された複数のマーカmに対するカメラ12の各相対位置と、格納部201に設定値として格納されている第1設定値とに基づいて、基準点に対するカメラ12の相対位置を算出する(ステップS4)。   The calculation processing unit 232 included in the deviation detection unit 203 includes the relative positions of the camera 12 with respect to the plurality of markers m calculated by the recognition processing unit 231, and the first set value stored as the set value in the storage unit 201. Based on, the relative position of the camera 12 with respect to the reference point is calculated (step S4).

上記したように、ステップS3においてマーカm1,m2に対するカメラ12の相対位置が算出されている場合、算出処理部232は、マーカm1に対するカメラ12の相対位置と、第1設定値である基準点に対するマーカm1の相対位置とを合成することにより、基準点に対するカメラ12の相対位置を算出する。同様に、算出処理部232は、マーカm2に対するカメラ12の相対位置と、第1設定値である基準点に対するマーカm2の相対位置とを合成することにより、基準点に対するカメラ12の相対位置を算出する。なお、図8では、点p3が基準点に相当する。   As described above, when the relative position of the camera 12 with respect to the markers m1 and m2 is calculated in step S3, the calculation processing unit 232 determines the relative position of the camera 12 with respect to the marker m1 and the reference point that is the first set value. The relative position of the camera 12 with respect to the reference point is calculated by combining the relative position of the marker m1. Similarly, the calculation processing unit 232 calculates the relative position of the camera 12 with respect to the reference point by synthesizing the relative position of the camera 12 with respect to the marker m2 and the relative position of the marker m2 with respect to the reference point that is the first setting value. To do. In FIG. 8, the point p3 corresponds to the reference point.

続いて、ずれ検知部203に含まれる検知処理部233は、算出処理部232により算出された基準点に対するカメラ12の相対位置と、格納部201に設定値として格納されている第2設定値とに基づいて、カメラ12の取り付け位置にずれが生じているか否かを判定する(ステップS5)。具体的には、検知処理部233は、算出処理部232により算出された基準点に対するカメラ12の相対位置と、第2設定値である基準点に対するカメラ12の相対位置とが一致しているか否かを判定して、カメラ12の取り付け位置にずれが生じているか否かを検知する。   Subsequently, the detection processing unit 233 included in the deviation detection unit 203 detects the relative position of the camera 12 with respect to the reference point calculated by the calculation processing unit 232 and the second set value stored as the set value in the storage unit 201. Based on, it is determined whether or not the mounting position of the camera 12 is displaced (step S5). Specifically, the detection processing unit 233 determines whether the relative position of the camera 12 with respect to the reference point calculated by the calculation processing unit 232 and the relative position of the camera 12 with respect to the reference point that is the second set value match. It is determined whether or not the mounting position of the camera 12 is displaced.

基準点に対するカメラ12の相対位置が一致し、カメラ12の取り付け位置にずれが生じていないと判定された場合(ステップS5のYES)、検知処理部233は、カメラ12の取り付け位置にずれはなく、検知エリアの再設定は必要ないと判定し、ここでの一連の処理を終了させる。   When it is determined that the relative position of the camera 12 with respect to the reference point is the same and the mounting position of the camera 12 is not displaced (YES in step S5), the detection processing unit 233 determines that the mounting position of the camera 12 is not displaced. , It is determined that resetting of the detection area is not necessary, and the series of processes here is ended.

一方で、基準点に対するカメラ12の相対位置が一致せず、カメラ12の取り付け位置にずれが生じていると判定された場合(ステップS5のNO)、設定処理部204は、算出処理部232により算出された基準点に対するカメラ12の相対位置と、格納部201に設定値として格納されている第3設定値およびカメラ設定値とに基づいて、画像取得部202により取得された撮影画像のうちのカメラ12の取り付け位置のずれにあわせた適切な位置に検知エリアを設定する(ステップS6)。   On the other hand, when the relative position of the camera 12 with respect to the reference point does not match and it is determined that the mounting position of the camera 12 is displaced (NO in step S5), the setting processing unit 204 causes the calculation processing unit 232 to perform the calculation. Based on the calculated relative position of the camera 12 with respect to the reference point and the third set value and the camera set value stored as the set values in the storage unit 201, among the captured images acquired by the image acquisition unit 202. The detection area is set at an appropriate position according to the displacement of the mounting position of the camera 12 (step S6).

本実施形態においては、かごシル13aから乗場15側に所定の範囲を有する検知エリアを設定する場合を想定しているので、まず、設定処理部204は、算出処理部232により算出された基準点に対するカメラ12の相対位置と、第3設定値である基準点に対するかごシル13aの各頂点の相対位置とを合成することにより、カメラ12に対するかごシル13aの各頂点の相対位置を算出する。なお、図8では、点p4〜点p7がかごシル13aの各頂点に相当する。   In the present embodiment, since it is assumed that a detection area having a predetermined range is set from the car sill 13a to the hall 15 side, the setting processing unit 204 first sets the reference point calculated by the calculation processing unit 232. The relative position of each vertex of the car sill 13a with respect to the camera 12 is calculated by synthesizing the relative position of the camera 12 with respect to the relative position of each vertex of the car sill 13a with respect to the reference point that is the third set value. In FIG. 8, points p4 to p7 correspond to the vertices of the car sill 13a.

その後、設定処理部204は、算出されたカメラ12に対するかごシル13aの各頂点の相対位置と、認識処理部231により算出されたカメラ12の3軸の角度と、格納部201にカメラ設定値として格納されているカメラ12の画角とに基づいて、検知エリアを設定する。   Then, the setting processing unit 204 calculates the relative position of each vertex of the car sill 13a with respect to the camera 12, the angles of the three axes of the camera 12 calculated by the recognition processing unit 231, and the camera setting value in the storage unit 201. The detection area is set based on the stored angle of view of the camera 12.

これによれば、画像取得部202により取得された撮影画像i1には、図8の斜線部分に示されるように、カメラ12の取り付け位置のずれにあわせた検知エリアe1、つまり、かごシル13aの長辺のうちの乗りかご11側の長辺から乗場15側に所定の範囲を有する検知エリアe1が設定される。   According to this, in the captured image i1 acquired by the image acquisition unit 202, as indicated by the hatched portion in FIG. 8, the detection area e1 that corresponds to the displacement of the mounting position of the camera 12, that is, the cage sill 13a A detection area e1 having a predetermined range is set from the long side on the car 11 side of the long sides to the hall 15 side.

しかる後、通知処理部205は、カメラ12の取り付け位置にずれが生じていることを、通信デバイス25を介して、監視センタ(の管理者)や保守員(の端末)に通知し(ステップS7)、ここでの一連の処理を終了させる。   Then, the notification processing unit 205 notifies the monitoring center (the administrator thereof) and the maintenance staff (the terminal thereof) of the displacement of the mounting position of the camera 12 via the communication device 25 (step S7). ), A series of processing here is ended.

なお、図7に示すステップS5においては、撮影画像に含まれる基準点に対するカメラ12の相対位置と、基準画像に含まれる基準点に対するカメラ12の相対位置とが一致するか否かに応じて、カメラ12の取り付け位置にずれが生じているか否かが判定(検知)されるものとしたが、カメラ12の取り付け位置にずれが生じている場合であっても、当該ずれが上記した利用者検知処理の精度に影響を与えない程度であれば、検知エリアの再設定を行わない構成であっても良い。すなわち、撮影画像に含まれる基準点に対するカメラ12の相対位置と、基準画像に含まれる基準点に対するカメラ12の相対位置との差(乖離度)が予め設定された範囲内であるか否かに基づいてステップS5の処理が実行され、当該乖離度が予め設定された範囲内にない場合に、カメラ12の取り付け位置にずれが生じていると判定されても良い。   Note that in step S5 shown in FIG. 7, it is determined whether the relative position of the camera 12 with respect to the reference point included in the captured image matches the relative position of the camera 12 with respect to the reference point included in the reference image. Although it is assumed that it is determined (detected) whether the mounting position of the camera 12 is displaced, even when the mounting position of the camera 12 is displaced, the displacement is detected by the user. The detection area may not be reset as long as it does not affect the processing accuracy. That is, whether the difference (deviation degree) between the relative position of the camera 12 with respect to the reference point included in the captured image and the relative position of the camera 12 with respect to the reference point included in the reference image is within a preset range. The process of step S5 is executed based on this, and when the deviation degree is not within the preset range, it may be determined that the mounting position of the camera 12 is displaced.

また、本実施形態における検知エリアの設定が、既に設定された検知エリアの再設定を指す場合、検知エリアの設定は、検知エリアの補正と表現されても構わない。この場合、基準点に対するカメラ12の相対位置は、上記したカメラ12の3軸の角度と共に、検知エリアの補正を実現するために必要な値であるため、補正値と表現されても構わない。   Further, when the setting of the detection area in the present embodiment refers to the resetting of the detection area that has already been set, the setting of the detection area may be expressed as correction of the detection area. In this case, the relative position of the camera 12 with respect to the reference point is a value necessary for realizing the correction of the detection area together with the angles of the three axes of the camera 12 described above, and thus may be expressed as a correction value.

以上説明したキャリブレーション機能によれば、カメラ12の取り付け位置のずれにあわせた検知エリアe1を撮影画像i1に対して設定することが可能となる一方で、当該キャリブレーション機能を実行するにあたっては、以下に示す問題を解消する必要がある。   According to the calibration function described above, it is possible to set the detection area e1 corresponding to the displacement of the mounting position of the camera 12 with respect to the captured image i1, while executing the calibration function, It is necessary to solve the following problems.

上記したキャリブレーション機能においては、図7のステップS1,S2に示したように、乗りかご11内の床面にマーカmが設置された状態の撮影画像をカメラ12から取得し、当該撮影画像からマーカmを認識する必要がある。しかしながら、撮影時の周囲の環境によっては、図9に示すように、撮影画像に白とびや黒つぶれが発生し、この白とびや黒つぶれの発生に起因して、かごシル13aの両端部に設置されたマーカmを認識することができない可能性がある。これによれば、上記したキャリブレーション機能が正常に機能しない可能性がある。なお、撮影画像に影響を及ぼす(つまり、白とびや黒つぶれを発生させる)周囲の環境の一例としては、乗場15側から入射する外光や、乗りかご11内に設置された照明意匠による光等が一例として挙げられる。   In the calibration function described above, as shown in steps S1 and S2 of FIG. 7, a captured image in which the marker m is installed on the floor surface of the car 11 is acquired from the camera 12, and the captured image is acquired from the captured image. It is necessary to recognize the marker m. However, depending on the surrounding environment at the time of shooting, as shown in FIG. 9, overexposure and underexposure may occur in the captured image, and due to the occurrence of overexposure and underexposure, both ends of the car sill 13a may appear. There is a possibility that the installed marker m cannot be recognized. According to this, the above-mentioned calibration function may not function normally. In addition, as an example of the surrounding environment that affects the captured image (that is, causes overexposure or underexposure), external light incident from the hall 15 side or light generated by the lighting design installed in the car 11 is used. Etc. are mentioned as an example.

このため、本実施形態に係る画像処理装置20は、キャリブレーション機能の1つとして、マーカmの設置位置近辺における撮影画像上での白とびや黒つぶれの発生を抑制可能な露光調整機能をさらに有している。以下では、この露光調整機能について詳しく説明する。   Therefore, the image processing apparatus 20 according to the present embodiment further has, as one of the calibration functions, an exposure adjustment function capable of suppressing the occurrence of overexposure and underexposure on the captured image near the installation position of the marker m. Have The exposure adjustment function will be described in detail below.

露光調整機能を実現するにあたって、格納部201には、上記した第1〜第3設定値およびカメラ設定値に加えて、カメラ12の取り付け位置にずれが生じていないと仮定した場合におけるカメラ12の3軸の角度(カメラ12の取り付け角度)と、マーカmに対するカメラ12の相対位置(カメラ12とマーカmとの位置関係)とを示す値(換言すると、カメラ12の取り付けに関する仕様値、以下、単に仕様値と表記する)が、キャリブレーションに関する設定値(詳しくは、露光調整に関する設定値)としてさらに含まれている。なお、本実施形態においては、マーカmがかごシル13aの両端部に設置される場合を想定するため、マーカmに対するカメラ12の相対位置は、かごシル13aの両端部に対するカメラ12の相対位置と同義である。   In realizing the exposure adjustment function, the storage unit 201 stores the camera 12 in the case where it is assumed that the mounting position of the camera 12 is not displaced in addition to the above-described first to third setting values and the camera setting value. A value indicating the angle of the three axes (the mounting angle of the camera 12) and the relative position of the camera 12 with respect to the marker m (the positional relationship between the camera 12 and the marker m) (in other words, the specification value regarding the mounting of the camera 12, hereinafter, A specification value) is further included as a setting value for calibration (specifically, a setting value for exposure adjustment). Note that, in the present embodiment, since it is assumed that the markers m are installed at both ends of the car sill 13a, the relative position of the camera 12 with respect to the markers m is the relative position of the camera 12 with respect to both ends of the car sill 13a. Are synonymous.

画像取得部202は、図7に示した一連の処理が実行されるより前に、露光調整機能に関する処理を実行する。詳細についてはフローチャートの説明と共に後述するが、撮影画像上でマーカmが映ると推測される領域を関心領域(ROI: Region Of Interest)として設定し、当該関心領域に含まれる画素群の統計量に基づいて、カメラ12固有のカメラパラメータを調整する。   The image acquisition unit 202 executes processing relating to the exposure adjustment function before the series of processing shown in FIG. 7 is executed. Although details will be described later with the explanation of the flowchart, a region in which the marker m is estimated to appear on the captured image is set as a region of interest (ROI), and the statistical amount of the pixel group included in the region of interest is set. Based on this, the camera parameters specific to the camera 12 are adjusted.

ここで、図10のフローチャートを参照して、本実施形態における露光調整機能における画像処理装置20の処理手順について説明する。なお、図10に示す一連の処理は、例えば、図7に示した一連の処理が実行されるより前に実行される。つまり、図10に示す一連の処理は、例えば、図7に示した一連の処理の前処理として実行される。   Here, the processing procedure of the image processing apparatus 20 in the exposure adjustment function in this embodiment will be described with reference to the flowchart in FIG. The series of processing shown in FIG. 10 is executed before the series of processing shown in FIG. 7, for example. That is, the series of processing illustrated in FIG. 10 is executed as preprocessing of the series of processing illustrated in FIG. 7, for example.

まず、画像取得部202は、乗りかご11内の床面に複数のマーカmが設置された状態で撮影された画像(撮影画像)をカメラ12から取得する(ステップS11)。上記したように、本実施形態においては、マーカm1,m2がかごシル13aの両端部にそれぞれ設置されている場合を想定する。また、ここでは、ステップS11を実行した結果、図9に示す撮影画像i2が画像取得部202により取得された場合を想定する。つまり、この時点においては、図9に示すように、撮影画像i2には白とびや黒つぶれが発生し、ずれ検知部203(認識処理部231)が、かごシル13aの両端部にそれぞれ設置されたマーカm1,m2を認識できない状態にある。   First, the image acquisition unit 202 acquires, from the camera 12, an image (captured image) captured with a plurality of markers m installed on the floor surface of the car 11 (step S11). As described above, in the present embodiment, it is assumed that the markers m1 and m2 are installed at both ends of the car sill 13a. In addition, here, it is assumed that the captured image i2 shown in FIG. 9 is acquired by the image acquisition unit 202 as a result of executing step S11. That is, at this point in time, as shown in FIG. 9, overexposure or underexposure occurs in the captured image i2, and the deviation detection units 203 (recognition processing units 231) are installed at both ends of the car sill 13a. The markers m1 and m2 cannot be recognized.

続いて、画像取得部202は、格納部201に設定値として格納されている仕様値およびカメラ設定値に基づいて、複数のマーカmが映ると推測される関心領域rを設定する(ステップS12)。上記したように、マーカm1,m2がかごシル13aの両端部に設置されている場合、画像取得部202は、マーカm1,m2に対するカメラ12の相対位置(換言すると、かごシル13aの両端部に対するカメラ12の相対位置)と、カメラ12の3軸の角度と、カメラ12の画角とに基づいて、撮影画像i2上に関心領域rを設定する。   Next, the image acquisition unit 202 sets a region of interest r in which a plurality of markers m are estimated to appear based on the specification value and the camera setting value stored as setting values in the storage unit 201 (step S12). .. As described above, when the markers m1 and m2 are installed at both ends of the car sill 13a, the image acquisition unit 202 determines the relative position of the camera 12 with respect to the markers m1 and m2 (in other words, with respect to both ends of the car sill 13a. Based on the relative position of the camera 12), the angles of the three axes of the camera 12, and the angle of view of the camera 12, the region of interest r is set on the captured image i2.

これによれば、画像取得部202により取得された撮影画像i2には、図9の一点鎖線で示されるように、マーカm1が映ると推測される関心領域r1と、マーカm2が映ると推測される関心領域r2とが設定される。なお、ここでは、マーカm1が映ると推測される関心領域r1と、マーカm2が映ると推測される関心領域r2とを別々に設定するとしたが、これに限定されず、例えば、マーカm1,m2の両方が映ると推測される1つの関心領域rが設定されるとしても良い。   According to this, in the captured image i2 acquired by the image acquisition unit 202, as shown by the alternate long and short dash line in FIG. 9, the region of interest r1 in which the marker m1 is estimated to appear and the marker m2 is estimated to appear. Region of interest r2 is set. Although the region of interest r1 estimated to show the marker m1 and the region of interest r2 estimated to show the marker m2 are set separately here, the present invention is not limited to this. For example, the markers m1 and m2 may be set. It is also possible to set one region of interest r presumed to reflect both of the above.

次に、画像取得部202は、関心領域rに含まれる画素群に関する統計量を算出する(ステップS13)。上記したように、ステップS12において2つの関心領域r1,r2が設定されている場合、画像取得部202は、関心領域r1に含まれる画素群に関する統計量と、関心領域r2に含まれる画素群に関する統計量とをそれぞれ算出する。なお、ここでは、関心領域rに含まれる画素群に関する統計量として、関心領域rに含まれる画素群の平均輝度値(画素値の平均値)が算出される場合を想定する。但し、関心領域rに含まれる画素群に関する統計量は、画素値の平均値に限定されず、例えば、画素値の中央値や最頻値、最大値、最小値、等が関心領域rに含まれる画素群に関する統計量として算出されても構わない。   Next, the image acquisition unit 202 calculates a statistic regarding a pixel group included in the region of interest r (step S13). As described above, when the two regions of interest r1 and r2 are set in step S12, the image acquisition unit 202 relates to the statistic regarding the pixel group included in the region of interest r1 and the pixel group included in the region of interest r2. And statistics are calculated respectively. It is assumed here that the average luminance value (average pixel value) of the pixel groups included in the region of interest r is calculated as the statistic regarding the pixel group included in the region of interest r. However, the statistic regarding the pixel group included in the region of interest r is not limited to the average value of the pixel values, and, for example, the median value of the pixel values, the mode, the maximum value, the minimum value, etc. are included in the region of interest r. It may be calculated as a statistic regarding a pixel group to be displayed.

しかる後、画像取得部202は、算出された関心領域rに含まれる画素群に関する統計量が予め設定された基準値(目標値)になるように、カメラ12固有のカメラパラメータを調整(設定)し(ステップS14)、ここでの一連の処理を終了させる。この調整は、例えば、カメラパラメータを設定するための指示信号が通信デバイス25を介して画像取得部202からカメラ12に送信されることにより行われる。   Thereafter, the image acquisition unit 202 adjusts (sets) the camera parameters unique to the camera 12 so that the calculated statistic regarding the pixel group included in the region of interest r becomes a preset reference value (target value). Then, (step S14), a series of processes here is ended. This adjustment is performed, for example, by transmitting an instruction signal for setting camera parameters from the image acquisition unit 202 to the camera 12 via the communication device 25.

上記したように、ステップS13において2つの関心領域r1,r2について画素群に関する統計量が算出されている場合、画像取得部202は、どちらの統計量も基準値になるように、カメラ12固有のカメラパラメータを調整する。なお、調整対象となるカメラパラメータには、カメラ12のシャッタースピード(露光時間)およびカメラ12のゲイン(感度)のうちの少なくとも一方が含まれる。   As described above, when the statistics regarding the pixel groups for the two regions of interest r1 and r2 are calculated in step S13, the image acquisition unit 202 determines the statistics specific to the camera 12 so that both statistics become reference values. Adjust camera parameters. Note that the camera parameter to be adjusted includes at least one of the shutter speed (exposure time) of the camera 12 and the gain (sensitivity) of the camera 12.

なお、関心領域rに含まれる画素群に関する統計量に対して予め設定される基準値は、上記した露光調整に関する設定値の1つとして、格納部201に予め格納される。上記したように、関心領域rに含まれる画素群に関する統計量が、関心領域rに含まれる画素群の平均輝度値であって、カメラ12による撮影画像i2が、色の濃淡をグレースケールで表現する画像である場合、上記した基準値は、グレースケールの0(黒:最小輝度値)とグレースケールの255(白:最大輝度値)との平均値である127に設定されるとしても良い。この場合、画像取得部202は、関心領域rに含まれる画素群の平均輝度値が127になるように、カメラ12固有のカメラパラメータを調整する。   The reference value set in advance for the statistic regarding the pixel group included in the region of interest r is stored in advance in the storage unit 201 as one of the set values regarding the exposure adjustment described above. As described above, the statistic regarding the pixel group included in the region of interest r is the average luminance value of the pixel group included in the region of interest r, and the image i2 captured by the camera 12 expresses the shade of color in gray scale. In the case of an image to be displayed, the above reference value may be set to 127 which is an average value of gray scale 0 (black: minimum brightness value) and gray scale 255 (white: maximum brightness value). In this case, the image acquisition unit 202 adjusts the camera parameter specific to the camera 12 so that the average luminance value of the pixel group included in the region of interest r becomes 127.

以上説明した露光調整機能によれば、マーカmが映ると推測される関心領域rを撮影画像上に設定し、当該関心領域rにおける白とびや黒つぶれの発生を抑制するように、カメラ12の露光調整を行うことが可能となる。   According to the exposure adjustment function described above, the region of interest r presumed to include the marker m is set on the photographed image, and the camera 12 is configured to suppress the occurrence of overexposure and underexposure in the region of interest r. It is possible to adjust the exposure.

図11は、図10に示す一連の処理が実行された後に撮影された画像、つまり、露光調整が行われた後に撮影された画像の一例を示す。図11に示す露光調整後の撮影画像i3には、図9に示す露光調整前の撮影画像i2とは異なり、マーカm1,m2の設置位置近辺に白とびや黒つぶれが発生していないため、認識処理部231が、かごシル13aの両端部にそれぞれ設置されたマーカm1,m2を認識できる状態にある。これによれば、図7のステップS2が正常に実行され、上記したキャリブレーション機能を正常に機能させることが可能となる。   FIG. 11 shows an example of an image taken after the series of processing shown in FIG. 10 is executed, that is, an image taken after the exposure adjustment is performed. Unlike the pre-exposure-adjusted shot image i2 shown in FIG. 9, the post-exposure-adjusted shot image i3 shown in FIG. 11 has no blown-out highlights or underexposure near the positions where the markers m1 and m2 are installed. The recognition processing unit 231 is in a state of being able to recognize the markers m1 and m2 installed at both ends of the car sill 13a. According to this, step S2 of FIG. 7 is normally executed, and the calibration function described above can be normally operated.

なお、マーカm1,m2の設置位置近辺における白とびや黒つぶれの発生を抑制するようにカメラパラメータを調整した影響で、図11に示す撮影画像i3には、マーカm1,m2の設置位置近辺以外の部分(図11中の斜線部分)に白とびや黒つぶれが発生してしまっている。しかしながら、上記したキャリブレーション機能においては、マーカm1,m2を認識することが重要であり、その他の部分を認識できないことはさしたる問題ではないため、マーカm1,m2の設置位置近辺以外の部分に白とびや黒つぶれが発生したとしても、上記したキャリブレーション機能を正常に機能させることが可能である。   It should be noted that, due to the effect of adjusting the camera parameters so as to suppress the occurrence of overexposure and underexposure near the installation positions of the markers m1 and m2, the captured image i3 shown in FIG. Whiteout and underexposure have occurred in the portion (hatched portion in FIG. 11). However, in the above-described calibration function, it is important to recognize the markers m1 and m2, and it is not a problem that the other parts cannot be recognized. Therefore, the parts other than the installation positions of the markers m1 and m2 are white. Even if skips or blackouts occur, the calibration function described above can function normally.

なお、本実施形態においては、図10に示す一連の処理が、図7に示す一連の処理の前処理として実行される場合について説明したが、図10に示す一連の処理を実行するタイミングはこれに限定されず、例えば、図7に示すステップS2において、認識処理部231がマーカmを正常に認識することができなかった場合に、マーカmを正常に認識することができなかった撮影画像を用いて、図10に示す一連の処理が実行されるとしても良い。   In addition, in the present embodiment, the case where the series of processing illustrated in FIG. 10 is executed as the preprocessing of the series of processing illustrated in FIG. 7 has been described, but the timing of executing the series of processing illustrated in FIG. However, for example, in step S2 shown in FIG. 7, when the recognition processing unit 231 cannot normally recognize the marker m, a captured image that cannot normally recognize the marker m is displayed. The series of processes shown in FIG. 10 may be executed by using this.

図10に示す一連の処理は、マーカmを利用したキャリブレーション機能を正常に機能させるために実行される。このため、図10のステップS11において取得される撮影画像には、マーカmが含まれていることが望ましい。つまり、キャリブレーション時にマーカmを設置する位置にマーカmが設置された状態の撮影画像が取得されることが望ましい。これによれば、マーカmを構成する画素の輝度値を考慮した露光調整を実行することができるので、マーカmを利用したキャリブレーション機能に則した露光調整を実現することが可能となる。   The series of processes shown in FIG. 10 is executed in order for the calibration function using the marker m to function normally. Therefore, it is desirable that the captured image acquired in step S11 of FIG. 10 includes the marker m. That is, it is desirable that a captured image in which the marker m is installed at the position where the marker m is installed at the time of calibration is acquired. According to this, it is possible to execute the exposure adjustment in consideration of the brightness values of the pixels forming the marker m, and thus it is possible to realize the exposure adjustment based on the calibration function using the marker m.

本実施形態においては、カメラ12から撮影画像を取得し、取得された撮影画像上に関心領域rを設定し、当該関心領域rに含まれる画素群に関する統計量に基づいてカメラパラメータを調整するとしたが、カメラパラメータの調整は、以下に示す方法により実行されても良い。   In the present embodiment, it is assumed that a captured image is acquired from the camera 12, a region of interest r is set on the acquired captured image, and the camera parameters are adjusted based on the statistics regarding the pixel groups included in the region of interest r. However, the adjustment of the camera parameters may be performed by the method described below.

上記したように、撮影画像に白とびや黒つぶれを発生させる主な要因は、乗場15側から入射する外光や、乗りかご11内に設置された照明意匠による光であり、乗りかご11内の明るさ(マーカmが設置される位置近辺の明るさ)と、白とびや黒つぶれの発生とには関係性がある。このため、乗りかご11内の明るさと、乗りかご11内の明るさが対応づけられた明るさの場合にマーカmの設置位置近辺における白とびや黒つぶれの発生を抑制可能なカメラ12固有のカメラパラメータとを含む調整テーブルを予め用意しておくことで、画像取得部202は、カメラパラメータの調整を実現するとしても良い。   As described above, the main factors that cause overexposure and underexposure in a captured image are external light entering from the hall 15 side and light due to the lighting design installed in the car 11, and Brightness (brightness in the vicinity of the position where the marker m is installed) and the occurrence of overexposure and underexposure. Therefore, in the case where the brightness inside the car 11 and the brightness inside the car 11 are associated with each other, it is possible to suppress the occurrence of overexposure and underexposure near the installation position of the marker m, which is unique to the camera 12. The image acquisition unit 202 may realize the adjustment of the camera parameters by preparing an adjustment table including the camera parameters in advance.

この方法の場合、乗りかご11内の明るさを精度良く推測する必要があるので、かごドア13は全閉状態であることが望ましい。これによれば、乗場15側からの外光の入射を防ぐことができ、白とびや黒つぶれの発生を精度良く抑制することが可能となる。
このため、まず画像処理装置20は、エレベータ制御装置30を介してかごドア13の状態を確認し、かごドア13が開いている状態(例えば、全開状態または半開き状態)にある場合、かごドア13を全閉状態にするようエレベータ制御装置30に指示する。
In the case of this method, since it is necessary to accurately estimate the brightness inside the car 11, it is desirable that the car door 13 be in a fully closed state. According to this, it is possible to prevent the incidence of external light from the hall 15 side, and it is possible to accurately suppress the occurrence of overexposure and underexposure.
Therefore, first, the image processing device 20 confirms the state of the car door 13 via the elevator control device 30, and when the car door 13 is in an open state (for example, a fully open state or a half open state), the car door 13 The elevator controller 30 is instructed to fully close the vehicle.

続いて、かごドア13が全閉状態になったことを確認すると、画像処理装置20はカメラ12の設定を自動露光(AE: Automatic Exposure)モードに変更した上で、カメラ12に撮影を実行させる。自動露光モードとは、カメラ12が撮影環境に応じて当該カメラ12固有のカメラパラメータ(シャッタースピードおよびゲイン)を自動的に調整して、撮影を行うことが可能なモードである。なお、撮影を実行しなくても、自動露光モード時のカメラパラメータを取得可能な場合、ここでは撮影を実行せずに、カメラ12の設定を自動露光モードに変更するだけで良い。   Subsequently, when it is confirmed that the car door 13 is in the fully closed state, the image processing device 20 changes the setting of the camera 12 to the automatic exposure (AE: Automatic Exposure) mode, and then causes the camera 12 to execute the photographing. .. The automatic exposure mode is a mode in which the camera 12 can automatically shoot camera parameters (shutter speed and gain) specific to the camera 12 according to the shooting environment. If the camera parameters in the automatic exposure mode can be acquired without executing the shooting, it is only necessary to change the setting of the camera 12 to the automatic exposure mode without executing the shooting here.

次に、画像処理装置20は、自動露光モードにより調整されたカメラパラメータの値(撮影時のカメラパラメータの値)を取得し、取得されたカメラパラメータの値に基づいて、乗りかご11内の現在の明るさを推測する。その後、画像処理装置20は、推測された乗りかご11内の現在の明るさと、格納部201に予め用意された調整テーブルとに基づいて、乗りかご11内の現在の明るさに好適なカメラパラメータを決定する。より詳しくは、画像処理装置20は、予め用意された調整テーブルにおいて、推測された乗りかご11内の現在の明るさに対応づけられているカメラパラメータを、乗りかご11内の現在の明るさに好適なカメラパラメータに決定する。   Next, the image processing device 20 acquires the value of the camera parameter adjusted by the automatic exposure mode (the value of the camera parameter at the time of shooting), and based on the acquired value of the camera parameter, the current value in the car 11 Guess the brightness of. After that, the image processing apparatus 20 uses a camera parameter suitable for the current brightness in the car 11 based on the estimated current brightness in the car 11 and the adjustment table prepared in advance in the storage unit 201. To decide. More specifically, the image processing apparatus 20 sets the camera parameter associated with the estimated current brightness of the car 11 in the adjustment table prepared in advance to the current brightness of the car 11. Determine suitable camera parameters.

続いて、画像処理装置20は、カメラ12固有のカメラパラメータを、決定されたカメラパラメータに調整する。その後、画像処理装置20は、調整後のカメラパラメータを利用して撮影された画像であって、設置されたマーカmを適切に認識可能な状態の画像をカメラ12から取得し、上記したキャリブレーション機能における一連の処理を実行する。この方法によれば、関心領域rの設定、関心領域rに含まれる画素群に関する統計量の算出、等を実行しなくても、格納部201に予め格納された調整テーブルと、乗りかご11内の現在の明るさとに基づいて、マーカmの設置位置近辺における白とびや黒つぶれの発生を抑制するように、カメラ12固有のカメラパラメータを調整することが可能であり、図10に示した一連の処理が実行された場合と同様の効果を得ることが可能である。また、この方法によれば、自動露光モード時のシャッタースピードおよびゲインに基づいて乗りかご11内の現在の明るさを推測可能であるので、乗りかご11内の現在の明るさを測定するための照度センサ等を取り付ける必要がなく、照度センサの取り付けにかかる手間やコストを削減することも可能である。   Then, the image processing device 20 adjusts the camera parameter specific to the camera 12 to the determined camera parameter. After that, the image processing apparatus 20 acquires from the camera 12 an image that is captured by using the adjusted camera parameters and is in a state in which the installed marker m can be appropriately recognized, and performs the above-described calibration. Performs a series of processing in the function. According to this method, the adjustment table prestored in the storage unit 201 and the inside of the car 11 can be set without executing setting of the region of interest r, calculation of the statistic of the pixel group included in the region of interest r, and the like. It is possible to adjust the camera parameters specific to the camera 12 so as to suppress the occurrence of overexposure and underexposure in the vicinity of the installation position of the marker m based on the current brightness of the marker m. It is possible to obtain the same effect as when the processing of (1) is executed. Further, according to this method, the current brightness in the car 11 can be estimated based on the shutter speed and the gain in the automatic exposure mode, so that the current brightness in the car 11 can be measured. It is not necessary to attach an illuminance sensor or the like, and it is possible to reduce the labor and cost for attaching the illuminance sensor.

以上説明した本実施形態において、画像処理装置20は、乗りかご11の床面および乗場15の床面と区別可能なマーカmが設置された状態で撮影された画像をカメラ12から取得し、取得された画像からマーカmを認識し、認識されたマーカmに基づいて、カメラ12の取り付け位置のずれを検知し、カメラ12の取り付け位置のずれが検知された場合には、画像処理(利用者検知処理)に関する設定値を設定する。この画像処理に関する設定値は、撮影画像に対して設定されたかごドア13に最も近い利用者を検知するための検知エリア(の座標値)を含む。   In the present embodiment described above, the image processing apparatus 20 acquires from the camera 12 an image captured with the marker m that is distinguishable from the floor surface of the car 11 and the floor surface of the hall 15, and acquires the image. The marker m is recognized from the recognized image, the displacement of the mounting position of the camera 12 is detected based on the recognized marker m, and when the displacement of the mounting position of the camera 12 is detected, image processing (user Set the setting values for detection processing). The setting value related to the image processing includes (the coordinate value of) the detection area for detecting the user who is closest to the car door 13 set for the captured image.

このような構成によれば、カメラ12の取り付け位置にずれが生じた場合であっても、当該カメラ12によって撮影された画像(例えば、回転した画像、左右方向にずれた画像)に対して、適切な検知エリアを設定することが可能となるため、利用者の検知精度の低下を抑止することが可能となる。   According to such a configuration, even when the mounting position of the camera 12 is displaced, with respect to the image captured by the camera 12 (for example, the rotated image, the image displaced in the left-right direction), Since it is possible to set an appropriate detection area, it is possible to prevent the detection accuracy of the user from decreasing.

さらに本実施形態において、画像処理装置20は、乗りかご11の床面および乗場15の床面と区別可能なマーカmが設置された状態で撮影された画像をカメラ12から取得し、カメラ12の取り付けに関する仕様値に基づいて、取得された画像上に関心領域rを設定し、関心領域rに含まれる画素群に関する統計量に基づいて、カメラ12固有のカメラパラメータを調整し、この調整後の画像に基づいて、カメラ12の取り付け位置のずれを検知する。   Further, in the present embodiment, the image processing apparatus 20 acquires from the camera 12 an image captured with the marker m that is distinguishable from the floor surface of the car 11 and the floor surface of the hall 15, and acquires the image of the camera 12. A region of interest r is set on the acquired image based on the specification value related to mounting, and camera parameters specific to the camera 12 are adjusted based on the statistics regarding the pixel group included in the region of interest r. The displacement of the mounting position of the camera 12 is detected based on the image.

このような構成によれば、マーカmの設置位置近辺における白とびや黒つぶれの発生を抑制することが可能となり、ひいては、カメラ12の取り付け位置のずれを検知するにあたって、マーカmを認識することができずに、キャリブレーション機能を正常に機能させることができないという事態の発生を抑制することが可能となる。   According to such a configuration, it is possible to suppress the occurrence of overexposure and underexposure in the vicinity of the installation position of the marker m, and thus to recognize the marker m when detecting the displacement of the mounting position of the camera 12. It is possible to suppress the occurrence of a situation in which the calibration function cannot function normally due to the failure of the calibration.

以上説明した一実施形態によれば、カメラ12の取り付け位置のずれの検知精度を向上させ得る画像処理装置20を提供することが可能となる。   According to the embodiment described above, it is possible to provide the image processing device 20 that can improve the detection accuracy of the displacement of the mounting position of the camera 12.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and modifications thereof are included in the scope and the gist of the invention, and are also included in the invention described in the claims and the scope equivalent thereto.

11…乗りかご、11a…幕板、12…カメラ、13…かごドア、13a…かごシル、14…乗場ドア、14a…乗場シル、15…乗場、20…画像処理装置、30…エレベータ制御装置、201…格納部、202…画像取得部、203…ずれ検知部、204…設定処理部、205…通知処理部、231…認識処理部、232…算出処理部、233…検知処理部、e1…検知エリア、i1,i2,i3…撮影画像、m,m1,m2…マーカ、r,r1,r2…関心領域。   11 ... Car, 11a ... Curtain board, 12 ... Camera, 13 ... Car door, 13a ... Car sill, 14 ... Hall door, 14a ... Hall sill, 15 ... Hall, 20 ... Image processing device, 30 ... Elevator control device, 201 ... Storage unit, 202 ... Image acquisition unit, 203 ... Deviation detection unit, 204 ... Setting processing unit, 205 ... Notification processing unit, 231 ... Recognition processing unit, 232 ... Calculation processing unit, 233 ... Detection processing unit, e1 ... Detection Area, i1, i2, i3 ... Captured image, m, m1, m2 ... Marker, r, r1, r2 ... Region of interest.

Claims (7)

乗りかごのドア近辺に設置され、乗りかご内および乗場を含む画像を撮影するカメラの取り付け位置のずれを検知可能な画像処理装置であって、
前記乗りかごの床面および前記乗場の床面と区別可能なマーカが設置された状態で撮影された画像を前記カメラから取得する取得手段と、
前記カメラの取り付けに関する仕様値に基づいて、前記取得された画像上で前記マーカが映ると推測される関心領域を設定する設定手段と、
前記設定された関心領域に含まれる画素群に関する統計量に基づいて、前記カメラのパラメータを調整する調整手段と、
前記パラメータの調整後に撮影された画像を前記カメラから取得し、当該取得された画像から前記マーカを認識し、当該認識されたマーカに基づいて、前記カメラの取り付け位置のずれを検知する検知手段と、
を具備する、画像処理装置。
An image processing device installed near a door of a car, capable of detecting a shift in a mounting position of a camera that captures an image of an inside of a car and a hall,
Acquisition means for acquiring from the camera an image taken in a state in which a marker distinguishable from the floor surface of the car and the floor surface of the hall is installed,
Setting means for setting a region of interest estimated to show the marker on the acquired image, based on a specification value relating to the mounting of the camera;
Adjusting means for adjusting the parameters of the camera based on a statistic regarding a pixel group included in the set region of interest;
A detection unit that acquires an image captured after the adjustment of the parameter from the camera, recognizes the marker from the acquired image, and detects a shift in the mounting position of the camera based on the recognized marker. ,
An image processing apparatus comprising:
前記仕様値は、
前記カメラの取り付け角度と、前記カメラと前記マーカとの位置関係と、を含む、請求項1に記載の画像処理装置。
The specification value is
The image processing apparatus according to claim 1, including an attachment angle of the camera and a positional relationship between the camera and the marker.
前記マーカは、
前記乗りかごのドアの開閉をガイドするためのシルの両端部に沿うようにして、前記乗りかご内の床面に設置される、請求項1または請求項2に記載の画像処理装置。
The marker is
The image processing apparatus according to claim 1, wherein the image processing apparatus is installed on a floor surface inside the car along the both ends of a sill for guiding opening and closing of the door of the car.
前記調整手段は、
前記統計量が予め設定された基準値になるように、前記カメラのパラメータを調整する、請求項1〜請求項3のいずれか1項に記載の画像処理装置。
The adjusting means is
The image processing device according to claim 1, wherein the parameters of the camera are adjusted so that the statistic becomes a preset reference value.
前記画素群に関する統計量は、
前記画素群の平均輝度値である、請求項1〜請求項4のいずれか1項に記載の画像処理装置。
The statistic regarding the pixel group is
The image processing device according to claim 1, wherein the image processing device has an average luminance value of the pixel group.
前記カメラのパラメータは、
前記カメラのシャッタースピードおよびゲインの少なくとも一方を含む、請求項1〜請求項5のいずれか1項に記載の画像処理装置。
The parameters of the camera are
The image processing device according to claim 1, further comprising at least one of a shutter speed and a gain of the camera.
乗りかごのドア近辺に設置され、乗りかご内および乗場を含む画像を撮影するカメラの取り付け位置のずれを検知可能な画像処理装置であって、
前記乗りかごの床面および前記乗場の床面と区別可能なマーカが設置される前記乗りかご内の明るさと、前記カメラのパラメータとが対応づけられた調整テーブルを格納する格納手段と、
前記乗りかごのドアが全閉状態の時に自動露光モードに設定された前記カメラのパラメータを取得する取得手段と、
前記取得されたパラメータに基づいて、前記乗りかご内の現在の明るさを推測する推測手段と、
前記推測された乗りかご内の現在の明るさと、前記調整テーブルとに基づいて、前記カメラのパラメータを調整する調整手段と、
前記パラメータの調整後に、前記マーカが設置された状態で撮影された画像を前記カメラから取得し、当該取得された画像から前記マーカを認識し、当該認識されたマーカに基づいて、前記カメラの取り付け位置のずれを検知する検知手段と、
を具備する、画像処理装置。
An image processing device installed near a door of a car, capable of detecting a shift in a mounting position of a camera that captures an image of an inside of a car and a hall,
A storage unit that stores an adjustment table in which the brightness of the car in which a marker that can be distinguished from the floor surface of the car and the floor surface of the hall is installed, and the parameters of the camera,
Acquisition means for acquiring the parameters of the camera set to the automatic exposure mode when the door of the car is in the fully closed state,
Estimating means for estimating the current brightness in the car based on the acquired parameters;
Adjusting means for adjusting the parameters of the camera based on the estimated current brightness in the car and the adjustment table;
After adjusting the parameters, an image taken with the marker installed is acquired from the camera, the marker is recognized from the acquired image, and the camera is attached based on the recognized marker. A detection means for detecting the positional deviation,
An image processing apparatus comprising:
JP2019093079A 2019-05-16 2019-05-16 Image processing device Active JP6693627B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019093079A JP6693627B1 (en) 2019-05-16 2019-05-16 Image processing device
CN202010410378.4A CN111942981A (en) 2019-05-16 2020-05-15 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019093079A JP6693627B1 (en) 2019-05-16 2019-05-16 Image processing device

Publications (2)

Publication Number Publication Date
JP6693627B1 true JP6693627B1 (en) 2020-05-13
JP2020186114A JP2020186114A (en) 2020-11-19

Family

ID=70549779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019093079A Active JP6693627B1 (en) 2019-05-16 2019-05-16 Image processing device

Country Status (2)

Country Link
JP (1) JP6693627B1 (en)
CN (1) CN111942981A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113942905A (en) * 2020-07-15 2022-01-18 东芝电梯株式会社 User detection system of elevator
JP7009583B1 (en) * 2020-09-15 2022-01-25 東芝エレベータ株式会社 Elevator remote monitoring system
CN115477211A (en) * 2021-06-15 2022-12-16 中移(成都)信息通信科技有限公司 Elevator stopping method, device, equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117355473A (en) * 2021-06-02 2024-01-05 三菱电机株式会社 Adjustment assistance system for elevator imaging device

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5309499B2 (en) * 2007-08-20 2013-10-09 三菱電機株式会社 Security camera device in elevator
JP4664394B2 (en) * 2008-05-23 2011-04-06 株式会社日立製作所 Elevator door safety device and safety control method
JP2012019292A (en) * 2010-07-06 2012-01-26 Sharp Corp Imaging inspection device of 3d camera module and imaging inspection method thereof, imaging inspection control program of 3d camera module, imaging correction method of 3d camera module, imaging correction control program of 3d camera module, readable recording medium, 3d camera module and electronic information apparatus
JP5637786B2 (en) * 2010-09-06 2014-12-10 日本信号株式会社 Camera calibration device
JP5325251B2 (en) * 2011-03-28 2013-10-23 株式会社日立製作所 Camera installation support method, image recognition method
JP5968068B2 (en) * 2011-05-24 2016-08-10 キヤノン株式会社 Imaging apparatus for controlling exposure, control method for imaging apparatus, program, and recording medium
TWI493478B (en) * 2012-03-21 2015-07-21 Altek Corp License plate image-pickup device and image exposure adjustment method thereof
JP6025365B2 (en) * 2012-04-04 2016-11-16 京セラ株式会社 Calibration processing apparatus, camera calibration apparatus, camera system, and camera calibration method
JP5969149B1 (en) * 2016-01-13 2016-08-17 東芝エレベータ株式会社 Elevator system
JP6046286B1 (en) * 2016-01-13 2016-12-14 東芝エレベータ株式会社 Image processing device
CN106506953A (en) * 2016-10-28 2017-03-15 山东鲁能智能技术有限公司 The substation equipment image acquisition method of servo is focused on and is exposed based on designated area
JP6377797B1 (en) * 2017-03-24 2018-08-22 東芝エレベータ株式会社 Elevator boarding detection system
JP6367411B1 (en) * 2017-03-24 2018-08-01 東芝エレベータ株式会社 Elevator system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113942905A (en) * 2020-07-15 2022-01-18 东芝电梯株式会社 User detection system of elevator
CN113942905B (en) * 2020-07-15 2023-06-09 东芝电梯株式会社 Elevator user detection system
JP7009583B1 (en) * 2020-09-15 2022-01-25 東芝エレベータ株式会社 Elevator remote monitoring system
CN115477211A (en) * 2021-06-15 2022-12-16 中移(成都)信息通信科技有限公司 Elevator stopping method, device, equipment and storage medium
CN115477211B (en) * 2021-06-15 2023-10-27 中移(成都)信息通信科技有限公司 Elevator stopping method, device, equipment and storage medium

Also Published As

Publication number Publication date
CN111942981A (en) 2020-11-17
JP2020186114A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6693627B1 (en) Image processing device
JP6377797B1 (en) Elevator boarding detection system
JP6367411B1 (en) Elevator system
JP6657167B2 (en) User detection system
US11159711B2 (en) Image-capturing apparatus
KR20080027443A (en) Imaging apparatus, control method of imaging apparatus, and computer program
JP6377795B1 (en) Elevator boarding detection system
JP2002208073A (en) Intrusion monitor
JP6139729B1 (en) Image processing device
CN102016710B (en) Camera and method for controlling a camera
JP2018158842A (en) Image analyzer and elevator system
JP6265602B2 (en) Surveillance camera system, imaging apparatus, and imaging method
JP6772324B2 (en) Image processing device
CN108289170B (en) Photographing apparatus, method and computer readable medium capable of detecting measurement area
JP2018055013A (en) Focusing position adjusting device, focusing position adjusting system, program, and focusing position adjusting method
WO2021079865A1 (en) Train position determination device and train position determination method
JP6806414B2 (en) Image processing device and image processing method
JP6696102B1 (en) Image processing device and marker
US20120188437A1 (en) Electronic camera
JP2001357396A (en) Image processor and image recognizing device
US20210271868A1 (en) Information processing apparatus, imaging apparatus, method, and storage medium
JP2010093623A (en) Image processor
JP6781291B2 (en) Image processing device
JP2014039165A (en) Photographing device with tracking function
CN111717738B (en) Elevator system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200402

R150 Certificate of patent or registration of utility model

Ref document number: 6693627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150