JP2013004235A - Illumination system - Google Patents

Illumination system Download PDF

Info

Publication number
JP2013004235A
JP2013004235A JP2011132433A JP2011132433A JP2013004235A JP 2013004235 A JP2013004235 A JP 2013004235A JP 2011132433 A JP2011132433 A JP 2011132433A JP 2011132433 A JP2011132433 A JP 2011132433A JP 2013004235 A JP2013004235 A JP 2013004235A
Authority
JP
Japan
Prior art keywords
person
region
unit
human detection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011132433A
Other languages
Japanese (ja)
Inventor
Junro Nanahara
淳郎 七原
Shinji Matsuda
真二 松田
Koji Matsumoto
康志 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011132433A priority Critical patent/JP2013004235A/en
Publication of JP2013004235A publication Critical patent/JP2013004235A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an illumination system which reduces wasteful power consumption due to erroneous human detection.SOLUTION: An arithmetic processing unit 23 includes a human detection part 23a which detects the presence of a person on the basis of image data derived by photographing the illumination range of a lighting apparatus 1 by an image sensor 21 and a region determination part 23b which determines whether the region in a range detected by the human detection part 23a is a human active or a human inactive region and changes, according to the determination result, the method of controlling the human detection part 23a and the method of controlling the lighting apparatus 1 by an illumination control unit 3. If, in an interval after the illumination control unit 3 had turned the lighting apparatus 1 on according to human detection by the human detection part 23a till a prescribed time elapses from when the illumination control unit 3 reduced optical output of the lighting apparatus 1 because the human detection part 23a determined that the detected object is not a person, the human detection part 23a detects a person again near a position at which the detected object was detected, then the region determination part 23b determines the region where the person has been detected again by the human detection part 23a to be an active region.

Description

本発明は、照明システムに関するものである。   The present invention relates to a lighting system.

従来、照明器具の照射領域をTVカメラで撮影し、TVカメラの撮影画像を複数に分割したエリア毎に、画像データから明るさと動体の有無とを検出し、その検出結果に基づいて照明器具の光出力を調光する照明制御システムがあった(例えば特許文献1参照)。   Conventionally, an illumination area of a lighting fixture is shot with a TV camera, and for each area obtained by dividing the TV camera shot image into a plurality of areas, the brightness and presence / absence of moving objects are detected from the image data. There was an illumination control system that dimmed the light output (see, for example, Patent Document 1).

特開2002−289377号公報JP 2002-289377 A

上記特許文献に開示された照明制御システムでは、TVカメラの画像データから動体の有無を検出し、動体が存在すると判断されたエリアに対応する照明器具を点灯させていた。   In the illumination control system disclosed in the above-mentioned patent document, the presence or absence of a moving object is detected from the image data of a TV camera, and the lighting fixture corresponding to the area determined to have a moving object is turned on.

ところで、TVカメラなどの画像センサを人検知センサに利用する場合、画像データをもとに人の動きや明るさなどを高密度に取得できるという利点はあるが、机上に置かれた物の移動や光の変化など人の動きではないものを人の動きとして誤検知する可能性がある。そして、画像センサにより人以外のものが人の動きとして誤検知されると、人がいないにも拘わらず、人がいると誤検出されたエリアの照明器具が点灯されてしまい、無駄な電力消費が発生するという問題があった。   By the way, when an image sensor such as a TV camera is used as a human detection sensor, there is an advantage that a person's movement and brightness can be acquired with high density based on image data, but the movement of an object placed on a desk is possible. There is a possibility that things that are not human movements, such as light and light changes, will be misdetected as human movements. And if something other than a person is mistakenly detected as a person's movement by the image sensor, the luminaire in the area where the person is mistakenly detected will be lit even though there is no person. There was a problem that occurred.

本発明は上記課題に鑑みて為されたものであり、その目的とするところは、人の誤検出による無駄な電力消費を低減した照明システムを提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an illumination system that reduces wasteful power consumption due to erroneous human detection.

上記課題を解決するために、本願の照明システムは、照明器具と、人検知部と、照明制御部と、領域判定部とを備える。人検知部は、照明器具による照明範囲において人の存否を検知する。照明制御部は、人検知部が人を検知すると、照明器具の光出力を非検出時よりも明るく制御する。領域判定部は、人検知部による検知範囲内の領域が人の活動領域であるか非活動領域であるかを判定し、判定結果に応じて人検知部及び照明制御部による照明器具の制御方法を変更する。そして、人検知部による人の検知に応じて照明制御部が照明器具を点灯させた後、人検知部が検知物体を人ではないと判断したことによって照明制御部が照明器具の光出力を低下させた時点より所定時間が経過するまでの間に、検知物体の検知位置付近で人検知部が再び人を検知すると、領域判定部は、人検知部によって再び人が検知された領域を活動領域と判定する。   In order to solve the above problems, the lighting system of the present application includes a lighting fixture, a human detection unit, a lighting control unit, and a region determination unit. A person detection part detects the presence or absence of a person in the illumination range by a lighting fixture. When the human detection unit detects a person, the lighting control unit controls the light output of the lighting fixture to be brighter than when it is not detected. The region determination unit determines whether the region within the detection range by the human detection unit is a human active region or a non-active region, and the lighting device control method by the human detection unit and the lighting control unit according to the determination result To change. Then, after the lighting control unit turns on the lighting fixture in response to the detection of the person by the human detection unit, the lighting control unit reduces the light output of the lighting fixture by determining that the human detection unit is not a person. If the human detection unit detects a person again in the vicinity of the detection position of the detection object before the predetermined time elapses from the time when the detection is performed, the area determination unit sets the area in which the person is detected again by the human detection unit as the active area. Is determined.

この照明システムにおいて、領域判定部による判定対象の領域が複数の小領域に分割され、領域判定部が各々の小領域毎に活動領域であるか非活動領域であるかを判定することも好ましい。   In this lighting system, it is also preferable that the region to be determined by the region determining unit is divided into a plurality of small regions, and the region determining unit determines whether each small region is an active region or an inactive region.

この照明システムにおいて、領域判定部によって判定された活動領域及び非活動領域を記憶する記憶部を備えることも好ましい。   In this lighting system, it is also preferable to include a storage unit that stores the active region and the inactive region determined by the region determination unit.

この照明システムにおいて、人検知部は、照明範囲を撮像する画像センサの画像データから人の存否を検知することも好ましい。   In this illumination system, it is also preferable that the human detection unit detects the presence or absence of a person from image data of an image sensor that captures an illumination range.

この照明システムにおいて、領域判定部は、活動領域と非活動領域とで人検知部による人の検知感度を異ならせることも好ましい。   In this lighting system, it is also preferable that the area determination unit varies the human detection sensitivity of the human detection unit between the active area and the inactive area.

この照明システムにおいて、領域判定部は、人検出部が活動領域で人を検知した場合と、非活動領域で人を検知した場合とで、照明制御部による照明器具の制御内容を変更することも好ましい。   In this lighting system, the area determination unit may change the control content of the lighting fixture by the lighting control unit when the human detection unit detects a person in the active region and when the person is detected in the non-active region. preferable.

本発明によれば、検知物体が人ではないと判定されて照明器具の光出力が低下させられた際に再び人が検知されると、再び人が検知された領域を活動領域と設定しているので、活動領域の判定を正確に行うことができ、且つ、活動領域であるか非活動領域であるかを判定した結果に応じて人検知部及び照明制御部による照明器具の制御方法が変更されるので、人の誤検出による無駄な電力消費を低減した照明システムを提供することができる。   According to the present invention, when a person is detected again when it is determined that the detected object is not a person and the light output of the luminaire is reduced, the area where the person is detected is set as the active area again. Therefore, the active area can be determined accurately, and the control method of the lighting fixture by the human detection unit and the lighting control unit is changed according to the result of determining whether it is an active region or an inactive region. Therefore, it is possible to provide a lighting system that reduces wasteful power consumption due to erroneous human detection.

(a)は本実施形態の照明システムの全体構成を示すブロック図、(b)は人検知部のブロック図である。(A) is a block diagram which shows the whole structure of the illumination system of this embodiment, (b) is a block diagram of a person detection part. (a)は同上が適用される照明空間の説明図、(b)は画像センサによる撮像画像の例図である。(A) is explanatory drawing of the illumination space to which the same applies, (b) is an example figure of the picked-up image by an image sensor. 同上の動作を説明するフローチャートである。It is a flowchart explaining operation | movement same as the above. (a)〜(c)は同上により差分画像を生成する方法を説明する説明図である。(A)-(c) is explanatory drawing explaining the method to produce | generate a difference image by the same as the above. 同上による人検知枠の設定処理の説明図である。It is explanatory drawing of the setting process of the person detection frame by the same as the above. 同上による静止判定処理の説明図である。It is explanatory drawing of the stillness determination process by the same as the above. 同上による静止判定処理の説明図である。It is explanatory drawing of the stillness determination process by the same as the above. (a)〜(c)は同上による静止人物枠内の画像の変化を検出する方法の説明図である。(A)-(c) is explanatory drawing of the method of detecting the change of the image in a still person frame by the same as the above. (a)〜(d)は同上による非活動領域の判定処理の説明図である。(A)-(d) is explanatory drawing of the determination process of the inactive area | region by the same as the above. 同上による非活動領域の設定方法を説明する説明図である。It is explanatory drawing explaining the setting method of an inactive area | region by the same as the above. (a)〜(d)は同上による活動領域の判定処理の説明図である。(A)-(d) is explanatory drawing of the determination process of the active region by the same as the above. (a)(b)は同上による非活動領域の設定方法を説明する説明図である。(A) (b) is explanatory drawing explaining the setting method of the inactive area | region by the same as the above.

以下に、本発明の照明システムの実施形態を図面に基づいて説明する。   Embodiments of the illumination system of the present invention will be described below with reference to the drawings.

図1(a)は照明システムの概略的なブロック図、図2(a)は照明システムが適用される照明空間の説明図であり、この照明システムは照明器具1とセンサ部2と照明制御部3とを主要な構成として備えている。   FIG. 1A is a schematic block diagram of a lighting system, and FIG. 2A is an explanatory diagram of a lighting space to which the lighting system is applied. The lighting system includes a lighting fixture 1, a sensor unit 2, and a lighting control unit. 3 as a main configuration.

この照明システムでは、センサ部2が照明範囲において人を検知していない状態では、照明制御部3が、照明器具1を消灯させるか、又は、人検知時よりも暗い所定の調光レベルで照明器具1を点灯させている。   In this illumination system, in a state where the sensor unit 2 does not detect a person in the illumination range, the illumination control unit 3 turns off the luminaire 1 or illuminates at a predetermined dimming level that is darker than when detecting a person. The appliance 1 is turned on.

照明器具1は、部屋100の天井101に設置されており、下方の照明範囲を照明する。照明器具1は、商用電源(図示せず)から電力供給を受けて動作し、照明制御部3によって点灯状態が制御されている。尚、照明器具1が備える光源は特定の種類に限定されるものではなく、蛍光ランプでもよいし、発光ダイオードでもよい。   The luminaire 1 is installed on the ceiling 101 of the room 100 and illuminates the lower illumination range. The lighting fixture 1 operates by receiving power supply from a commercial power supply (not shown), and the lighting control unit 3 controls the lighting state. In addition, the light source with which the lighting fixture 1 is provided is not limited to a specific kind, A fluorescent lamp may be sufficient and a light emitting diode may be sufficient.

照明制御部3は、センサ部2による人の検知情報に基づいて照明器具1の点灯状態を制御する。例えばセンサ部2から人検知信号が入力されていない非検知状態では、照明制御部3は照明器具1を消灯させるか、又は、人検知時よりも暗い調光レベルで点灯させており、この状態を待機状態という。一方、センサ部2から人検知信号が入力される検知状態では、照明制御部3は照明器具1を全点灯させるか、又は、待機状態よりも明るい調光レベルで点灯させており、この状態を通常点灯状態という。したがって、照明範囲に人がいない待機状態では、照明器具1は消灯するか、又は、通常点灯時よりも暗い調光レベルで点灯し、照明範囲に人がいる場合は、照明器具1は全点灯するか、又は、待機状態よりも明るい調光レベルで点灯することになる。尚、照明制御部3は照明器具1と別体に設けられていてもよいし、照明器具1の器具本体1a内に収納されていてもよい。   The lighting control unit 3 controls the lighting state of the lighting fixture 1 based on human detection information by the sensor unit 2. For example, in a non-detection state in which no human detection signal is input from the sensor unit 2, the lighting control unit 3 turns off the lighting fixture 1 or turns it on at a dimming level darker than that at the time of human detection. Is called a standby state. On the other hand, in the detection state in which the human detection signal is input from the sensor unit 2, the lighting control unit 3 turns on the lighting fixture 1 or turns it on at a dimming level brighter than the standby state. It is called a normal lighting state. Therefore, in a standby state where there is no person in the illumination range, the luminaire 1 is turned off or lit at a dimming level that is darker than that during normal lighting. When there is a person in the illumination range, the luminaire 1 is fully lit. Or, it will be lit at a dimming level brighter than in the standby state. The lighting control unit 3 may be provided separately from the lighting fixture 1 or may be stored in the fixture main body 1 a of the lighting fixture 1.

センサ部2は、照明器具1の器具本体1aに取り付けられ、照明器具1の照明範囲内に設けられた検知範囲A1において人の存否を検出し、人の存在を検知すると、人検知信号を照明制御部3に出力する。本実施形態ではセンサ部2が、検知範囲A1を上方から撮影した画像データをもとに人の存否を検出しており、図1(a)に示すように画像センサ21と記憶部22と演算処理部23とを主要な構成として備えている。   The sensor unit 2 is attached to the fixture body 1a of the lighting fixture 1, detects the presence or absence of a person in the detection range A1 provided in the lighting range of the lighting fixture 1, and illuminates a human detection signal when detecting the presence of a person. Output to the control unit 3. In the present embodiment, the sensor unit 2 detects the presence / absence of a person based on image data obtained by photographing the detection range A1 from above, and as shown in FIG. The processing unit 23 is provided as a main configuration.

画像センサ21は、例えばCCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)センサなどの半導体撮像素子を備える。画像センサ21は、天井101に設置された照明器具1に取り付けられ、照明器具1の下方の照明範囲に設けられた検知範囲A1の画像を撮像する。画像センサ21は、半導体撮像素子から出力されるアナログ信号をデジタル信号に変換し、画像データ(撮像画像)に成形した後、演算処理部23に出力する。画像センサ21は、演算処理部23からの要求に応じて検知範囲A1を撮像しており、本実施形態では例えば約30分の1秒ごとに検知範囲A1を撮像し、その画像データを演算処理部23に出力する。図2(b)は画像センサ21によって撮像された画像I1の一例であり、照明器具1の下方には2台ずつ横並びに配置された計4台の作業机50が対向して配置されており、作業机50及びその近くにいる人60を上方から見下ろしたような画像になっている。   The image sensor 21 includes a semiconductor image sensor such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor. The image sensor 21 is attached to the lighting fixture 1 installed on the ceiling 101, and takes an image of the detection range A <b> 1 provided in the lighting range below the lighting fixture 1. The image sensor 21 converts an analog signal output from the semiconductor image sensor into a digital signal, forms the image data (captured image), and outputs the image data to the arithmetic processing unit 23. The image sensor 21 images the detection range A1 in response to a request from the arithmetic processing unit 23. In the present embodiment, for example, the detection range A1 is imaged about every 1/30 second, and the image data is arithmetically processed. To the unit 23. FIG. 2B is an example of an image I1 picked up by the image sensor 21, and a total of four work desks 50 arranged side by side are arranged below the lighting fixture 1 so as to face each other. The image is such that the work desk 50 and the person 60 nearby are viewed from above.

記憶部22は、例えばDDRAM(Double Data Rate Synchronous Dynamic Random Access Memory)などの揮発性メモリからなり、演算処理部23により読み書きが行われる種々のデータを記憶する。記憶部22には、画像センサ21から入力される画像データを複数枚記憶可能な容量のメモリが使用されている。   The storage unit 22 includes a volatile memory such as a DDRAM (Double Data Rate Synchronous Dynamic Random Access Memory), and stores various data read and written by the arithmetic processing unit 23. The storage unit 22 uses a memory having a capacity capable of storing a plurality of image data input from the image sensor 21.

演算処理部23は、例えばDSP(Digital Signal Processor)や高度イメージプロセッサのような、演算処理を高速且つ大量に処理することが可能なプロセッサにより構成される。演算処理部23には、その演算機能によって人検知部23aと領域判定部23bが設けられている。   The arithmetic processing unit 23 is configured by a processor capable of processing arithmetic processing at high speed and in large quantities, such as a DSP (Digital Signal Processor) or an advanced image processor. The calculation processing unit 23 is provided with a human detection unit 23a and a region determination unit 23b depending on the calculation function.

領域判定部23bは、人検知部23aによる検知範囲内の領域を、人が活動する活動領域と、人が活動しないと想定される非活動領域とに判定する。また領域判定部23bは、活動領域であるか非活動領域であるかの判定結果に基づいて、人検知部23a及び照明制御部3による照明器具1の制御方法を変更する。本実施形態では、領域判定部23bは、活動領域と非活動領域とで人検知部23aによる検知感度を異なる値に設定しており、例えば活動領域における人の検知感度を、非活動領域における人の検知感度よりも高感度に設定する。   The region determination unit 23b determines the regions within the detection range by the human detection unit 23a as an active region where a person is active and a non-active region where a person is assumed not to be active. Moreover, the area | region determination part 23b changes the control method of the lighting fixture 1 by the person detection part 23a and the illumination control part 3 based on the determination result whether it is an active area | region or an inactive area | region. In the present embodiment, the region determination unit 23b sets the detection sensitivity of the human detection unit 23a to different values for the active region and the non-active region. For example, the detection sensitivity of the person in the active region Set a higher sensitivity than the detection sensitivity.

人検知部23aは、照明器具1による照明範囲において人の存否を検知する。人検知部23aは、図1(b)のブロック図に示すように、差分画像生成部24とラベリング部25と領域解析部26と存否判定部27とで構成され、これら差分画像生成部24、ラベリング部25、領域解析部26及び存否判定部27も演算処理部23の演算機能によってそれぞれ実現されている。   The person detection unit 23 a detects the presence or absence of a person in the illumination range of the lighting fixture 1. As shown in the block diagram of FIG. 1B, the human detection unit 23a includes a difference image generation unit 24, a labeling unit 25, a region analysis unit 26, and a presence / absence determination unit 27. The difference image generation unit 24, The labeling unit 25, the region analysis unit 26, and the existence determination unit 27 are also realized by the calculation function of the calculation processing unit 23.

差分画像生成部24は、画像センサ21から入力される現在画像と、予め記憶部22に記憶された背景画像との差分演算を行うことによって、差分画像を生成する。ラベリング部25は、差分画像にラベリング処理を施し、同一のラベルを有する画素の集合を1つの領域として抽出する。領域解析部26は、ラベリング部25によって抽出された領域毎に、その面積や重心位置を求めたり、領域を構成する複数の画素について輝度信号値の平均や分散などの統計量を演算により求める。存否判定部27は、領域解析部26による領域毎の解析結果をもとに、ラベリング部25の抽出した領域が人か否かを判定する。存否判定部27によって人が存在すると判定された場合、演算処理部23から照明制御部3に人検知信号が出力され、照明制御部3では、非検知時よりも明るい点灯状態で照明器具1を点灯させる。また照明制御部3は、演算処理部23から人検知信号が入力された時点より所定の点灯保持時間が経過するまでの間、照明器具1を通常点灯状態で点灯させており、点灯保持時間が経過するまでの間に再び人検知信号が入力されなければ、照明器具1を待機状態に切り替える。   The difference image generation unit 24 generates a difference image by performing a difference calculation between the current image input from the image sensor 21 and the background image stored in advance in the storage unit 22. The labeling unit 25 performs a labeling process on the difference image and extracts a set of pixels having the same label as one region. The area analysis unit 26 obtains the area and the barycentric position of each area extracted by the labeling unit 25, and obtains statistics such as the average and variance of luminance signal values for a plurality of pixels constituting the area. The existence determination unit 27 determines whether the region extracted by the labeling unit 25 is a person based on the analysis result for each region by the region analysis unit 26. When it is determined by the presence / absence determination unit 27 that a person is present, a human detection signal is output from the arithmetic processing unit 23 to the illumination control unit 3, and the illumination control unit 3 causes the lighting fixture 1 to be turned on in a brighter lighting state than in the non-detection state. Light up. Further, the lighting control unit 3 keeps the lighting fixture 1 lit in the normal lighting state from when the human detection signal is input from the arithmetic processing unit 23 until the predetermined lighting holding time elapses, and the lighting holding time is If the human detection signal is not input again until the time elapses, the luminaire 1 is switched to the standby state.

本実施形態の照明システムは上記のような構成を有しており、この照明システムの動作を図3のフローチャートに基づいて説明する。   The illumination system of the present embodiment has the above-described configuration, and the operation of this illumination system will be described based on the flowchart of FIG.

先ず画像センサ21から所定のサンプリング間隔で制御部22の差分画像生成部24に画像データが入力される(図3のステップS1)。差分画像生成部24は、画像センサ21から入力される現在画像の各画素と、予め記憶部22に記憶された背景画像の対応する画素との差分演算を行う。さらに差分画像生成部24は、画素毎に差分演算の結果を所定のしきい値で二値化して差分画像を生成し、ラベリング部25に出力する(図3のステップS2)。図4(a)は現在画像の例図、同図(b)は背景画像の例図、同図(c)は差分画像の例図であり、図4中の画素群P1,P2は机など人以外の静止物に対応した画素群であり、図4中の画素群P3は人に対応した画素群である。現在画像と背景画像の両方に存在する画素群P1,P2は背景差分によって除去され、現在画像のみに存在する画素群P3が差分画像に現れる。すなわち、差分画像生成部24は、現在画像と背景画像の差分をとっているので、現在画像と背景画像とで輝度値が変化していない画素は差分をとることで輝度信号値が「0」になる。一方、人などの移動によって現在画像と背景画像とで輝度値が変化した画素は、現在画像と背景画像の差分を求めた後に二値化することで、一定の輝度信号値を有することになる。ここで、背景画像の取得方法としては、検知範囲A1に人が確実にいない状態での画像をあるタイミングで撮像し、この画像を背景画像として常時使用する方法や、1フレーム前に撮像された画像を背景画像として逐次更新する方法がある。なお本実施形態では、画像センサ21により、検知範囲A1に人が確実にいない状態での画像をあるタイミングで撮像させ、この画像を背景画像として記憶部22に記憶させている。あるタイミングで撮影された背景画像を常時使用する場合、背景画像の撮影時には存在しなかった静止物(人以外の机や椅子などの物体)が検知範囲A1に置かれると、この静止物が人と誤検出される可能性もある。そのため、画像センサ21が1フレーム前或いは所定フレーム前のタイミングで撮影された画像を背景画像として逐次更新することも好ましく、検知範囲A1内で静止している物体を背景化することができる。   First, image data is input from the image sensor 21 to the difference image generation unit 24 of the control unit 22 at a predetermined sampling interval (step S1 in FIG. 3). The difference image generation unit 24 performs a difference calculation between each pixel of the current image input from the image sensor 21 and a corresponding pixel of the background image stored in the storage unit 22 in advance. Further, the difference image generation unit 24 binarizes the result of the difference calculation for each pixel with a predetermined threshold value, generates a difference image, and outputs the difference image to the labeling unit 25 (step S2 in FIG. 3). 4A is an example of a current image, FIG. 4B is an example of a background image, FIG. 4C is an example of a difference image, and pixel groups P1 and P2 in FIG. It is a pixel group corresponding to a stationary object other than a person, and a pixel group P3 in FIG. 4 is a pixel group corresponding to a person. The pixel groups P1 and P2 existing in both the current image and the background image are removed by the background difference, and the pixel group P3 existing only in the current image appears in the difference image. That is, since the difference image generation unit 24 takes the difference between the current image and the background image, the luminance signal value of the pixel whose luminance value has not changed between the current image and the background image is “0” by taking the difference. become. On the other hand, a pixel whose luminance value has changed between the current image and the background image due to movement of a person or the like has a certain luminance signal value by binarizing after obtaining the difference between the current image and the background image. . Here, as a background image acquisition method, an image in a state where a person is not surely in the detection range A1 is captured at a certain timing, and this image is always used as a background image, or the image is captured one frame before. There is a method of sequentially updating an image as a background image. In the present embodiment, the image sensor 21 captures an image in a state where no person is reliably in the detection range A1 at a certain timing, and the image is stored in the storage unit 22 as a background image. When a background image captured at a certain timing is always used, when a stationary object (an object such as a desk or chair other than a person) that did not exist at the time of capturing the background image is placed in the detection range A1, the stationary object May be erroneously detected. For this reason, it is also preferable that the image sensor 21 sequentially updates an image captured at a timing before one frame or a predetermined frame as a background image, and an object that is stationary within the detection range A1 can be used as a background.

ラベリング部25では、差分画像生成部24から差分画像が入力されると、差分画像にラベリング処理を施し、同一のラベルを有する画素の集合を1つの領域として抽出する(図3のステップS3)。   When the difference image is input from the difference image generation unit 24, the labeling unit 25 performs a labeling process on the difference image and extracts a set of pixels having the same label as one region (step S3 in FIG. 3).

次に領域解析部26は、ラベリング部25によって抽出された領域毎に、その面積や重心位置を求めたり、領域を構成する複数の画素について輝度信号値の平均や分散などの統計量を演算により求める(図3のステップS4)。   Next, the area analysis unit 26 obtains the area and the position of the center of gravity of each region extracted by the labeling unit 25, or calculates the statistic such as the average or variance of the luminance signal values for a plurality of pixels constituting the region. Obtained (step S4 in FIG. 3).

領域解析部26によって領域毎に解析処理が行われると、存否判定部27が、領域解析部26による領域毎の解析結果をもとに、ラベリング部25が抽出した領域が人か否かを判定する(図3のステップS5)。例えば存否判定部27は、ラベリング部25によって抽出された領域が、予め定義された人物モデルの形状や面積と合致するか否かを判定し、人物モデルに合致した領域があれば人が存在すると判断する。なお、人の存否を判定する条件としては、差分演算により抽出された領域の特徴(面積や重心位置など)を用いてもよいし、差分演算により抽出された領域に対応する画素の輝度値やエッジなどの画像の特徴を用いてもよい。   When the analysis processing is performed for each region by the region analysis unit 26, the existence determination unit 27 determines whether the region extracted by the labeling unit 25 is a person based on the analysis result for each region by the region analysis unit 26. (Step S5 in FIG. 3). For example, the presence / absence determination unit 27 determines whether the region extracted by the labeling unit 25 matches the shape and area of a predefined person model, and if there is a region that matches the person model, there is a person. to decide. In addition, as conditions for determining the presence or absence of a person, the characteristics (area, barycentric position, etc.) of the region extracted by the difference calculation may be used, the luminance value of the pixel corresponding to the region extracted by the difference calculation, Image features such as edges may be used.

上述のように、存否判定部27は、ラベリング部25によって抽出された領域毎に人か否かを判定しており、人ではないと判定した場合はステップS1に戻り、人であると判定した場合、この領域を包含する人検知枠を設定する(図3のステップS6)。図5は差分画像生成部24によって生成された差分画像I2の一例であり、この差分画像I2には、人に対応した領域P4と、ノイズを検出した領域P5が存在している。存否判定部27は、各々の領域P4,P5について人か否かを判定し、人と判定した領域P4には、この領域P4を包含する矩形の人検知枠F1を設定する。ここで、人検知枠F1は、差分画像I2の水平方向(図5の左右方向)及び垂直方向(図5の上下方向)において領域P4の外周部にそれぞれ外接している。   As described above, the presence / absence determination unit 27 determines whether or not each region extracted by the labeling unit 25 is a person. If it is determined that the person is not a person, the process returns to step S1 and determines that the person is a person. In this case, a human detection frame including this area is set (step S6 in FIG. 3). FIG. 5 shows an example of the difference image I2 generated by the difference image generation unit 24. The difference image I2 includes a region P4 corresponding to a person and a region P5 where noise is detected. The presence / absence determination unit 27 determines whether or not each of the areas P4 and P5 is a person, and sets a rectangular person detection frame F1 including the area P4 in the area P4 determined to be a person. Here, the human detection frame F1 circumscribes the outer periphery of the region P4 in the horizontal direction (left-right direction in FIG. 5) and the vertical direction (up-down direction in FIG. 5) of the difference image I2.

存否判定部27が検知範囲内に人がいると判定して人検知枠を設定すると、人検知部23aから照明制御部3へ人検知信号が出力され、照明制御部3によって照明器具1が非検知時に比べてより明るい点灯状態に制御される(図3のステップS7)。例えば、照明制御部3によって照明器具1が消灯状態から点灯状態に切り替えられるか、又は、非検知時に比べてより明るい調光状態に制御される。   When the presence / absence determination unit 27 determines that there is a person within the detection range and sets a human detection frame, a human detection signal is output from the human detection unit 23 a to the illumination control unit 3, and the illumination control unit 3 causes the lighting fixture 1 to be turned off. The lighting state is controlled to be brighter than that at the time of detection (step S7 in FIG. 3). For example, the lighting control unit 3 switches the lighting fixture 1 from a light-off state to a light-on state, or is controlled to a light control state that is brighter than that at the time of non-detection.

ところで、背景画像にはない静止物体が検知範囲A1内に置かれた場合に、人検知部23aによって、この静止物体(例えば作業机50に置かれたノートパソコンなど)が人と誤検知され、照明器具1が待機状態から通常点灯状態に切り替えられる場合がある。そこで、演算処理部23では、存否判定部27によって人検知枠が設定された場合、人検知枠内の検知対象が静止しているか否かの静止判定を行い、人以外の静止物体を誤検知しているか否かを判断する。ここで、演算処理部23による静止判定処理について図面を参照しながら以下に説明する。   By the way, when a stationary object that is not in the background image is placed in the detection range A1, the human detection unit 23a erroneously detects the stationary object (for example, a notebook computer placed on the work desk 50) as a person, The lighting fixture 1 may be switched from a standby state to a normal lighting state. Therefore, when the human detection frame is set by the presence / absence determination unit 27, the arithmetic processing unit 23 determines whether or not the detection target in the human detection frame is stationary, and erroneously detects a stationary object other than a person. Judge whether or not. Here, the stillness determination processing by the arithmetic processing unit 23 will be described below with reference to the drawings.

図6は差分画像I3内に設定された人検知枠を示し、破線の枠F11〜F14は1フレーム前に作成された人検知枠であり、実線の枠F21〜F24は今回のフレームで作成された人検知枠である。演算処理部23は、最新の人検知枠F21〜F24と1フレーム前の人検知枠F11〜F14との重なり度合いを計算し、連続する2フレームで重なり度合いが所定のしきい値を越える人検知枠は、その対応付け回数を1増やす。本実施形態では例えば30分の1秒毎に画像データが入力されるので、対応付け回数が30回になれば、その人検知枠に対応する物体が略同じ場所に約1秒間いることになる。したがって、演算処理部23では、人検知枠毎にカウントした対応付け回数を所定の静止判定閾値と比較することで、対応する物体が静止しているか否かを判定する(図3のステップS8)。   FIG. 6 shows the human detection frames set in the difference image I3, the dashed frames F11 to F14 are human detection frames created one frame before, and the solid frames F21 to F24 are created in this frame. This is a human detection frame. The arithmetic processing unit 23 calculates the degree of overlap between the latest person detection frames F21 to F24 and the person detection frames F11 to F14 one frame before, and detects the person whose degree of overlap exceeds a predetermined threshold value in two consecutive frames. The frame increases the number of associations by one. In this embodiment, for example, image data is input every 1 / 30th of a second. Therefore, if the number of times of association is 30, the object corresponding to the person detection frame is at the same location for about 1 second. . Therefore, the arithmetic processing unit 23 determines whether or not the corresponding object is stationary by comparing the number of associations counted for each human detection frame with a predetermined stationary determination threshold value (step S8 in FIG. 3). .

尚、人検知枠内の検知物体が静止しているか否かを判定する方法は、人検知枠の重なり度合いから判定する方法に限定されるものではなく、以下に述べるようにテンプレートマッチングによって静止しているか否かを判定することもできる。図7に示すように、演算処理部23は、存否判定部27によって差分画像内に人検知枠が設定されると、この人検知枠の画像をテンプレートTP1として記憶し、それ以降に生成される差分画像I4内をテンプレートTP1で走査する。演算処理部23は、テンプレートTP1と差分画像I4との類似度指標を計算し、類似度指標が所定のしきい値を超えると、この人検知枠に対応する検知物体が静止していると判断し、この人検知枠の対応付け回数を1増やす。ここにおいて、テンプレートマッチングの探索範囲を差分画像I4の全画面領域にすると、探索に長時間を必要とするので、探索にかかる処理量を軽減するために、テンプレートTP1を保存した領域付近に探索範囲を絞ってもよいし、人検知枠の対応付けを行う領域のみに探索範囲を絞ってもよい。また、類似度指標を求める方法にはテンプレート内で求めた輝度平均値を用いる方法や正規化相関値を用いる方法があるが、明るさ変化の影響を考慮すると、正規化相関値を用いるほうが望ましい。   Note that the method for determining whether or not the detection object in the human detection frame is stationary is not limited to the method for determining based on the degree of overlap of the human detection frames, but is stationary by template matching as described below. It can also be determined whether or not. As shown in FIG. 7, when a human detection frame is set in the difference image by the presence / absence determination unit 27, the arithmetic processing unit 23 stores the image of the human detection frame as a template TP1 and is generated thereafter. The difference image I4 is scanned with the template TP1. The arithmetic processing unit 23 calculates a similarity index between the template TP1 and the difference image I4, and determines that the detected object corresponding to the human detection frame is stationary when the similarity index exceeds a predetermined threshold value. Then, the number of times this person detection frame is associated is increased by one. Here, if the search range for template matching is set to the entire screen area of the difference image I4, a long time is required for the search. Therefore, in order to reduce the processing amount required for the search, the search range is near the area where the template TP1 is stored. May be narrowed down, or the search range may be narrowed down only to the area where the human detection frames are associated. In addition, there are two methods for calculating the similarity index: a method using a luminance average value obtained in a template and a method using a normalized correlation value. However, it is preferable to use a normalized correlation value in consideration of the influence of brightness change. .

演算処理部23は、上述のように人検知枠毎に対応付け回数を求めており、ある人検知枠の対応付け回数が静止判定閾値を超えていなければ、この人検知枠に対応する人物が動いていると判断し(ステップS8のNo)、ステップS1に戻って上記の処理を繰り返す。一方、ある人検知枠の対応付け回数が所定の静止判定閾値を超えた場合、演算処理部23は、この人検知枠に対応する人物が静止していると判断し(ステップS8のYes)、この人検知枠を静止人物枠に設定する(図3のステップS9)。   As described above, the arithmetic processing unit 23 obtains the number of associations for each person detection frame. If the number of associations of a certain person detection frame does not exceed the stillness determination threshold, the person corresponding to this person detection frame is determined. It judges that it is moving (No of step S8), returns to step S1, and repeats said process. On the other hand, when the number of associations of a certain person detection frame exceeds a predetermined stillness determination threshold, the arithmetic processing unit 23 determines that the person corresponding to this person detection frame is still (Yes in step S8), This person detection frame is set as a still person frame (step S9 in FIG. 3).

その後、演算処理部23は、静止人物枠内の画像が1フレーム前と変化しているか否か、すなわち静止人物枠内の検知対象に動きがあるか否かを判断する(図3のステップS10)。静止人物枠内の画像に変化があれば(ステップS10のYes)、演算処理部23は静止人物枠内の人物が動いていると判断して、静止人物枠を解除し(図3のステップS11)、ステップS1に戻る。この時、照明器具1は通常点灯状態を継続する。また、静止人物枠内の画像に変化がない状態が一定時間継続すると(ステップS10,S12のYes)、演算処理部23は人以外の静止物を誤検出したと判断し、検知枠を解除する(図3のステップS13)。ここで、図8(a)は第(N−1)フレームの差分画像を、図8(b)は第Nフレームの差分画像をそれぞれ示し、両画像において検知枠F31,F32が静止人物枠として設定されているものとする。検知枠F31内の画像は第Nフレームと第(N−1)フレームとで殆ど変化が無く、類似度が高いため、演算処理部23は、検知枠F31内の人P1が静止していると判断し、検知枠F31を継続して静止人物枠に設定する。一方、検知枠F32内の画像は、第Nフレームと第(N−1)フレームとで変化しており、1フレーム前の画像と類似度が低いため、演算処理部23は、検知枠F32内の人P2が動いたと判断し、静止人物枠の設定を解除する。また図8(c)は第(N−1)フレームの差分画像の一例であり、静止人物枠F31内の人P1が定期的に動いていれば、静止人物枠の設定は解除される。一方、静止人物枠F33は人以外の静止物P3を検出した検知枠であり、静止人物枠F33内の画像には変化がないため、その状態が一定時間継続すると、演算処理部23は静止物を誤検出したと判断して静止人物枠F33の設定を解除する。   Thereafter, the arithmetic processing unit 23 determines whether or not the image in the still person frame has changed from the previous frame, that is, whether or not the detection target in the still person frame has a motion (step S10 in FIG. 3). ). If there is a change in the image in the still person frame (Yes in step S10), the arithmetic processing unit 23 determines that the person in the still person frame is moving and releases the still person frame (step S11 in FIG. 3). ), The process returns to step S1. At this time, the lighting fixture 1 continues a normal lighting state. If the state in which the image in the still person frame remains unchanged for a certain period of time (Yes in steps S10 and S12), the arithmetic processing unit 23 determines that a stationary object other than a person has been erroneously detected, and releases the detection frame. (Step S13 in FIG. 3). Here, FIG. 8A shows the difference image of the (N−1) th frame, and FIG. 8B shows the difference image of the Nth frame. In both images, the detection frames F31 and F32 are still person frames. It is assumed that it is set. Since the image in the detection frame F31 has almost no change between the Nth frame and the (N−1) th frame and the similarity is high, the arithmetic processing unit 23 determines that the person P1 in the detection frame F31 is stationary. Judgment is made, and the detection frame F31 is continuously set as a still person frame. On the other hand, the image in the detection frame F32 changes between the Nth frame and the (N-1) th frame, and since the degree of similarity is low with the image one frame before, the arithmetic processing unit 23 is in the detection frame F32. It is determined that the person P2 has moved, and the setting of the still person frame is cancelled. FIG. 8C shows an example of the difference image of the (N−1) th frame. If the person P1 in the still person frame F31 moves regularly, the setting of the still person frame is canceled. On the other hand, the stationary person frame F33 is a detection frame that detects a stationary object P3 other than a person, and the image in the stationary person frame F33 is not changed. And the setting of the still person frame F33 is cancelled.

上述のように、静止人物枠内の画像に一定時間変化がなければ、演算処理部23は検知枠を解除して照明制御部3への人検知信号の出力を停止する。照明制御部3は、人検知信号が入力されなくなっても所定の動作保持時間が経過するまで照明器具1を通常点灯状態で点灯させており、動作保持時間が経過した時点で照明器具1を通常点灯状態から待機状態に切り替える。   As described above, if there is no change in the image in the still person frame for a certain period of time, the arithmetic processing unit 23 releases the detection frame and stops outputting the human detection signal to the illumination control unit 3. The lighting control unit 3 keeps the lighting fixture 1 lit in a normal lighting state until a predetermined operation holding time elapses even when the human detection signal is not input. Switch from the lighting state to the standby state.

ところで、静止人物枠内の人物が正しく検出されている場合でも、その人物が一定時間静止していれば、演算処理部23は、静止人物枠内の画像に一定時間変化がないことから、静止人物枠の設定を解除し、人検知信号の出力を停止する。これにより、照明制御部3には制御部2から人検知信号が入力されなくなり、動作保持時間が経過した時点で、照明制御部3が照明器具1を通常点灯状態から待機状態に切り替える。この場合、照明範囲に人がいるにもかかわらず、照明器具1が消灯或いは減光点灯するため、照明範囲にいる人物はセンサ部2によって検出されるように何らかの動作を行うものと予想される。   By the way, even when a person in the still person frame is detected correctly, if the person is still for a certain period of time, the arithmetic processing unit 23 does not change the image in the still person frame for a certain period of time. Cancels the person frame setting and stops the output of the human detection signal. As a result, no human detection signal is input from the control unit 2 to the illumination control unit 3, and when the operation holding time has elapsed, the illumination control unit 3 switches the lighting fixture 1 from the normal lighting state to the standby state. In this case, since the lighting fixture 1 is turned off or dimmed even though there is a person in the illumination range, it is expected that the person in the illumination range will perform some operation so as to be detected by the sensor unit 2. .

そこで、演算処理部23の領域判定部23bは、照明器具1が待機状態に切り替えられてから所定時間が経過するまでの間に、静止人物枠が解除された領域付近で動きが発生するか否かを判定することによって活動領域か否かの判定を行う(図3のステップS15)。所定時間内に動きがなければ(ステップS15のNo)、領域判定部23bは、静止人物枠が解除された領域を人の活動領域ではないと判断し(図3のステップS17)、ステップS1に戻る。一方、所定時間内に動きがあれば(ステップS15のYes)、領域判定部23bは、静止人物枠が解除された領域を人の活動領域であると判断し(図3のステップS17)、ステップS1に戻る。   Therefore, the region determination unit 23b of the arithmetic processing unit 23 determines whether or not a movement occurs in the vicinity of the region where the stationary person frame is released before the predetermined time elapses after the lighting fixture 1 is switched to the standby state. By determining whether or not it is an active area (step S15 in FIG. 3). If there is no movement within the predetermined time (No in step S15), the area determination unit 23b determines that the area in which the still person frame is released is not a human activity area (step S17 in FIG. 3), and the process proceeds to step S1. Return. On the other hand, if there is a movement within a predetermined time (Yes in Step S15), the area determination unit 23b determines that the area from which the still person frame has been released is a human activity area (Step S17 in FIG. 3). Return to S1.

尚、領域判定部23bはステップS15において動きを検出できれば活動領域、検出できなければ非活動領域と判定しているが、検知範囲を複数に分割した小領域毎に誤検知の回数を計数し、その回数がしきい値を越えた場合は非検知領域であると判定してもよい。ここで、領域判定部23bによる活動領域及び非活動領域の判定方法を図9〜図11を参照しながら詳細に説明する。   Note that the area determination unit 23b determines that the movement area is detected in step S15 and is an active area, and if it cannot be detected, the area determination unit 23b counts the number of false detections for each of the small areas divided into a plurality of detection ranges. If the number of times exceeds a threshold value, it may be determined that the region is a non-detection region. Here, the determination method of the active region and the non-active region by the region determination unit 23b will be described in detail with reference to FIGS.

先ず、人以外の静止物を誤検知したために照明器具1が通常点灯状態で点灯した後、所定時間動きがないために検知状態が解除されて、照明器具1が待機状態に切り替えられる場合の処理を図9に基づいて説明する。   First, after the lighting fixture 1 is lit in a normal lighting state because a stationary object other than a person is erroneously detected, the detection state is canceled because there is no movement for a predetermined time, and the lighting fixture 1 is switched to a standby state. Will be described with reference to FIG.

図9(a)の画像I6に示されるように作業机50に静止物60(例えばノートパソコンなど)が置かれた場合、演算処理部23の人検知部23aは、新たに置かれた静止物61を人と誤検知し、静止物61を含む領域を人検知枠F30として設定する。また、人検知部23aが静止物61を人と誤検知したために、照明制御部3によって照明器具1が待機状態よりも明るい通常点灯状態に切り替えられる。静止物61には動きがないため、演算処理部23は、上述の静止判定処理を行って人検知枠F30を静止人物枠に設定し、その後の一定時間、静止人物枠内の画像に変化がないと判定すると、図9(b)に示すように静止人物枠F30を解除し、解除した静止人物枠F30(図9(b)に破線で示す)の位置を記憶する。演算処理部23は静止人物枠F30を解除すると人検知信号の出力を停止し、照明制御部3は所定の点灯保持時間が経過した時点で照明器具1を通常点灯状態から待機状態に切り替える(図9(c)参照)。照明器具1が待機状態に切り替わっても、静止物60が動くことはなく、演算処理部23は、待機状態に切り替わった時点から所定時間が経過するまでの間に、人検知枠F30を解除した付近で何ら動きを検出できないため、人以外の物を誤検知していたと判断する。ここで、図10に示すように判定対象の撮像範囲(画像I10の全体)は、水平方向及び垂直方向にそれぞれ等分割(例えば水平方向に5等分、垂直方向に4等分)されることによって、複数の小領域B11〜B45に分割されている。記憶部22は、各々の小領域B11〜B45毎に人以外の静止物を誤検出した回数(以下、カウント値と言う。)を記憶しており、演算処理部23は、人検知後に上述の静止判定処理を行って解除した人検知枠が存在する小領域のカウント値を1つ増分させる。例えば図9(b)に示すように作業机50に置かれた静止物60を人と誤検知した後に、静止判定処理によって静止物60を包含する人検知枠F30が解除された場合、演算処理部23の領域判定部23bは、この人検知枠F30を含む小領域B32,B33(図10参照)のカウント値を1つ増分する。そして、領域判定部23bは、各小領域B11〜B45のカウント値と所定のしきい値との高低を比較し、カウント値がしきい値を越えている小領域を非活動領域と判定する。尚、領域判定部23bが、検知範囲内の領域を非活動領域に設定する際に、より広い領域を一括して非活動領域と設定するために、画像センサ21の撮像画像を特徴が類似した複数の領域に分割(クラスタリング)しておき、非活動領域と判定されたエリアが属するクラスタリング領域を全て非活動領域に設定してもよい。ここで、画像内で特徴が類似した領域は、同じ物体を撮像した領域であると考えられるので、非活動領域と判定されたエリアが属するクラスタリング領域を一括して非活動領域と設定することで、一度の処理でより広い領域を非活動領域に設定できる。例えば図12(a)に示すように画像I11内の領域B1が非活動領域と判定された場合、領域B1の近傍で特徴が類似している領域B2(図12(b)参照)の全体が非活動領域として一括で設定されるので、非活動領域の設定を容易に行うことができる。   As shown in the image I6 in FIG. 9A, when a stationary object 60 (for example, a notebook computer) is placed on the work desk 50, the human detection unit 23a of the arithmetic processing unit 23 causes the newly placed stationary object. 61 is erroneously detected as a person, and an area including the stationary object 61 is set as a person detection frame F30. Further, since the human detection unit 23a erroneously detects the stationary object 61 as a person, the lighting control unit 3 switches the lighting fixture 1 to a normal lighting state that is brighter than the standby state. Since the stationary object 61 does not move, the arithmetic processing unit 23 performs the above-described stillness determination process to set the human detection frame F30 as a stationary human frame, and then changes in the image in the stationary human frame for a certain period of time. If it is determined that there is not, the still person frame F30 is released as shown in FIG. 9B, and the position of the released still person frame F30 (indicated by a broken line in FIG. 9B) is stored. The arithmetic processing unit 23 stops the output of the human detection signal when the stationary person frame F30 is released, and the lighting control unit 3 switches the lighting fixture 1 from the normal lighting state to the standby state when a predetermined lighting holding time has elapsed (see FIG. 9 (c)). Even if the lighting fixture 1 is switched to the standby state, the stationary object 60 does not move, and the arithmetic processing unit 23 releases the human detection frame F30 until a predetermined time elapses after the switching to the standby state. Since no movement can be detected in the vicinity, it is determined that an object other than a person has been erroneously detected. Here, as shown in FIG. 10, the imaging range to be determined (the entire image I10) is equally divided in the horizontal direction and the vertical direction (for example, equally divided into 5 parts in the horizontal direction and 4 parts in the vertical direction). Is divided into a plurality of small regions B11 to B45. The storage unit 22 stores the number of times a stationary object other than a person is erroneously detected for each of the small areas B11 to B45 (hereinafter referred to as a count value), and the arithmetic processing unit 23 performs the above-described operation after detecting the person. The count value of the small area having the human detection frame released by performing the stillness determination process is incremented by one. For example, as shown in FIG. 9B, after the stationary object 60 placed on the work desk 50 is erroneously detected as a person and the person detection frame F30 including the stationary object 60 is released by the stationary determination process, the arithmetic process The area determination unit 23b of the unit 23 increments the count value of the small areas B32 and B33 (see FIG. 10) including the human detection frame F30 by one. Then, the area determination unit 23b compares the count value of each of the small areas B11 to B45 with a predetermined threshold value, and determines a small area whose count value exceeds the threshold value as an inactive area. Note that when the region determination unit 23b sets the region within the detection range as the inactive region, the captured image of the image sensor 21 has similar characteristics in order to collectively set a wider region as the inactive region. It may be divided (clustered) into a plurality of areas, and all clustering areas to which the areas determined to be inactive areas belong may be set as inactive areas. Here, since regions with similar features in the image are considered to be regions where the same object is imaged, clustering regions to which areas determined to be inactive regions belong can be collectively set as inactive regions. A larger area can be set as an inactive area in a single process. For example, as shown in FIG. 12A, when the area B1 in the image I11 is determined to be an inactive area, the entire area B2 (see FIG. 12B) whose features are similar in the vicinity of the area B1. Since the inactive area is set in a lump, the inactive area can be easily set.

領域判定部23bは、活動領域であるか非活動領域であるかを判定した結果に基づいて、人検知部23a及び照明制御部3による照明気具1の制御方法を変更する。例えば領域判定部23bは、非活動領域と判定した領域を人検知部23aのマスク領域に設定したり、非活動領域と判定した領域において静止状態を判定するためのタイムアウト時間(ステップS12の一定時間)を短く設定しており、これにより人以外のものを誤検出することによって照明器具1が通常点灯状態で長時間点灯する事態を回避できる。   The area determination unit 23b changes the control method of the lighting device 1 by the person detection unit 23a and the illumination control unit 3 based on the result of determining whether the area is an active area or an inactive area. For example, the region determination unit 23b sets a region determined to be an inactive region as a mask region of the human detection unit 23a, or a time-out time for determining a stationary state in the region determined to be an inactive region (a certain time in step S12) ) Is set to be short, so that it is possible to avoid a situation in which the luminaire 1 is lit for a long time in a normal lighting state by erroneously detecting something other than a person.

次に、人の検知によって照明器具1が通常点灯状態で点灯した後、検知された人が所定時間静止し続けたために、検知状態が解除されて照明器具が待機状態に切り替えられた場合の動作を図11に基づいて説明する。図11(a)に示すように、演算処理部23が、画像センサ21によって撮像された画像I7をもとに人60を検出すると、画像I7内で人60を包含する人検知枠F31を設定する。その後、人60が静止し続けていると、演算処理部23は、上述の静止判定処理を行って静止人物枠を設定し、その後の一定時間、静止人物枠内の画像に変化がないと判定すると、図11(b)に示すように静止人物枠F31を解除し、解除した静止人物枠F31(図11(b)に破線で示す)の位置を記憶する。演算処理部23は静止人物枠F31を解除すると人検知信号の出力を停止し、照明制御部3は所定の点灯保持時間が経過した時点で照明器具1を通常点灯状態から待機状態に切り替える(図11(c)参照)。照明範囲にいる人60は、照明器具1が待機状態に切り替えられると、センサ部2に自身を検知させることによって通常点灯状態に戻すために、何らかの動作を意図的に行う。人60が動くことによって、演算処理部23は、人60の存在を検知でき、照明制御部3に人検知信号を出力して、照明器具1を点灯させる。また照明器具1が待機状態に切り替えられた時点から所定時間が経過するまでの間に、人検知枠F31を解除した領域付近で演算処理部23が人の動きを検知した場合、領域判定部23bは、解除した人検知枠F31内で正しく人を検知していたと判断する。尚、静止判定処理によって静止物と判定された人検知枠F31において正しく人が検知されていた場合、領域判定部23bは、この人検知枠F31に対応する小領域のカウント値を1つ減らしたり、カウント値をリセットしてもよい。   Next, after the luminaire 1 is lit in the normal lighting state by human detection, the detected person is kept stationary for a predetermined time, so that the detection state is released and the luminaire is switched to the standby state. Will be described with reference to FIG. As shown in FIG. 11A, when the arithmetic processing unit 23 detects a person 60 based on an image I7 captured by the image sensor 21, a human detection frame F31 that includes the person 60 is set in the image I7. To do. Thereafter, if the person 60 continues to be stationary, the arithmetic processing unit 23 performs the above-described stillness determination process to set a still person frame, and determines that there is no change in the image in the still person frame for a certain period thereafter. Then, the still person frame F31 is released as shown in FIG. 11B, and the position of the released still person frame F31 (indicated by a broken line in FIG. 11B) is stored. The arithmetic processing unit 23 stops outputting the human detection signal when the still person frame F31 is released, and the lighting control unit 3 switches the lighting fixture 1 from the normal lighting state to the standby state when a predetermined lighting holding time has elapsed (FIG. 11 (c)). When the lighting device 1 is switched to the standby state, the person 60 in the illumination range intentionally performs some operation in order to return to the normal lighting state by causing the sensor unit 2 to detect itself. When the person 60 moves, the arithmetic processing unit 23 can detect the presence of the person 60, outputs a person detection signal to the lighting control unit 3, and turns on the lighting fixture 1. In addition, when the arithmetic processing unit 23 detects a person's movement in the vicinity of the area where the human detection frame F31 is released between the time when the lighting fixture 1 is switched to the standby state and the elapse of a predetermined time, the area determination unit 23b Determines that the person has been correctly detected within the released human detection frame F31. When a person is correctly detected in the person detection frame F31 determined as a stationary object by the stillness determination process, the area determination unit 23b decreases the count value of the small area corresponding to the person detection frame F31 by one. The count value may be reset.

上述のように、演算処理部23は、現在画像と背景画像との差分画像を求めることによって現在画像のみに存在する物体を検出しており、現在画像のみに存在する物体が検出されると、照明器具1を待機状態から通常点灯状態に切り替える。また演算処理部23は、現在画像のみに存在する物体を検出すると、この物体が静止しているか否かを判定し、静止状態が一定時間継続すると、この検知対象は静止物体であると判定して照明器具1を通常点灯状態から待機状態に切り替える。この時、検知対象が静止物体ではなく本物の人物であれば、検知範囲にいる人物は、自身が検知範囲にいるにもかかわらず照明器具1が待機状態に切り替わったことから、センサ部2に自分自身を検出させるために、何らかの動きをすると予想される。したがって、照明器具1が待機状態に切り替わってから所定時間が経過するまでの間に、人検知枠が解除された領域付近でセンサ部2が人を検知できなければ、演算処理部23は、人検知枠が解除された領域に対応する小領域のカウント値を1つ増やす。一方、照明器具1が待機状態に切り替わってから所定時間が経過するまでの間に、人検知枠が解除された領域付近でセンサ部2が人を再び検出すると、演算処理部23は、人検知枠が解除された領域に対応する小領域のカウント値を1増やすか、リセットする。そして、演算処理部23の領域判定部23bは、各小領域B11〜B45のカウント値と所定のしきい値との高低を比較し、カウント値がしきい値を越えると、該当する小領域を非活動領域と判定する。領域判定部23bは、例えば非活動領域と判定された領域を人検知のマスク領域に設定したり、非活動領域と判定された領域において静止状態を判定するためのタイムアウト時間(ステップS12の一定時間)を短く設定しており、これにより人以外のものを誤検出したことによって照明器具1が通常点灯状態で長時間点灯してしまう事態を回避できる。   As described above, the arithmetic processing unit 23 detects an object that exists only in the current image by obtaining a difference image between the current image and the background image, and when an object that exists only in the current image is detected, The lighting fixture 1 is switched from the standby state to the normal lighting state. In addition, when detecting an object that exists only in the current image, the arithmetic processing unit 23 determines whether or not the object is stationary. If the stationary state continues for a certain period of time, the arithmetic processing unit 23 determines that the detection target is a stationary object. The lighting fixture 1 is switched from the normal lighting state to the standby state. At this time, if the detection target is not a stationary object but a real person, the person in the detection range is in contact with the sensor unit 2 because the luminaire 1 is switched to the standby state even though the person is in the detection range. It is expected to make some movements to detect itself. Therefore, if the sensor unit 2 cannot detect a person in the vicinity of the area where the human detection frame is released before the predetermined time elapses after the lighting device 1 switches to the standby state, the arithmetic processing unit 23 The count value of the small area corresponding to the area for which the detection frame is released is increased by one. On the other hand, if the sensor unit 2 detects a person again in the vicinity of the area where the human detection frame is released after the lighting apparatus 1 switches to the standby state until a predetermined time elapses, the arithmetic processing unit 23 detects the human detection. The count value of the small area corresponding to the area where the frame is released is increased by 1 or reset. Then, the area determination unit 23b of the arithmetic processing unit 23 compares the count value of each of the small areas B11 to B45 with a predetermined threshold value, and if the count value exceeds the threshold value, the corresponding small area is determined. Judge as inactive area. The area determination unit 23b sets, for example, an area determined to be an inactive area as a mask area for human detection, or a time-out period for determining a still state in an area determined to be an inactive area (a fixed time in step S12). ) Is set short, so that it is possible to avoid a situation in which the luminaire 1 is lit for a long time in a normal lighting state due to erroneous detection of something other than a person.

以上説明したように、本実施形態の照明システムは、照明器具1と人検知部23aと照明制御部3と領域判定部23bとを備える。人検知部23aは、照明器具1による照明範囲において人の存否を検知する。照明制御部3は、人検知部23aが人を検知すると、照明器具1の光出力を非検出時よりも明るく制御する。領域判定部23bは、人検知部23aによる検知範囲内の領域が人の活動領域であるか非活動領域であるかを判定し、判定結果に応じて人検知部23a及び照明制御部3による照明器具1の制御方法を変更する。そして、人検知部23aによる人の検知に応じて照明制御部3が照明器具1を点灯させた後、人検知部23aが検知物体を人ではないと判断したことによって照明制御部3が照明器具1の光出力を低下させた時点より所定時間が経過するまでの間に、上記検知物体の検知位置付近で人検知部23aが再び人を検知すると、領域判定部23bは、人検知部23aによって再び人が検知された領域を活動領域と判定する。   As described above, the illumination system of the present embodiment includes the luminaire 1, the person detection unit 23a, the illumination control unit 3, and the area determination unit 23b. The person detection unit 23 a detects the presence or absence of a person in the illumination range of the lighting fixture 1. When the human detection unit 23a detects a person, the lighting control unit 3 controls the light output of the lighting fixture 1 to be brighter than when it is not detected. The region determination unit 23b determines whether the region within the detection range by the human detection unit 23a is a human activity region or a non-activity region, and illumination by the human detection unit 23a and the illumination control unit 3 according to the determination result. The control method of the instrument 1 is changed. Then, after the lighting control unit 3 turns on the lighting device 1 in response to detection of a person by the human detection unit 23a, the lighting control unit 3 determines that the detected object is not a person. If the human detection unit 23a detects a person again in the vicinity of the detection position of the detection object before the predetermined time has elapsed from the time when the light output of 1 is reduced, the region determination unit 23b is detected by the human detection unit 23a. The area where the person is detected again is determined as the active area.

これにより、検知範囲内の人物が静止し続けていたために、人ではないと誤検出された場合でも、その人物がいた領域が非活動領域と誤判定されることはなく、活動領域として正しく判定することができる。そして、領域判定部23bは、活動領域であるか非活動領域であるかの判定結果に基づいて、人検知部23a及び照明制御部3による照明器具1の制御方法を変更しているので、活動領域における検知感度を下げることなく、非活動領域において人以外の物体を誤検出したために無駄な電力消費が発生しないように、照明器具1の制御方法を変更することができる。   As a result, even if a person in the detection range continues to be stationary and it is mistakenly detected that it is not a person, the area where the person was is not erroneously determined as an inactive area, and is correctly determined as an active area. can do. And since the area determination part 23b has changed the control method of the lighting fixture 1 by the person detection part 23a and the illumination control part 3 based on the determination result whether it is an active area or an inactive area, activity Without lowering the detection sensitivity in the area, the control method of the luminaire 1 can be changed so that wasteful power consumption does not occur because an object other than a person is erroneously detected in the inactive area.

また本実施形態において、領域判定部23bによる判定対象の領域が複数の小領域に分割され、領域判定部23bが各々の小領域毎に活動領域であるか非活動領域であるかを判定することも好ましい。   In the present embodiment, the region to be determined by the region determining unit 23b is divided into a plurality of small regions, and the region determining unit 23b determines whether each small region is an active region or an inactive region. Is also preferable.

これにより、判定対象の領域を分割した小領域毎に、活動領域であるか非活動領域であるかの判定を行うことができる。   Accordingly, it is possible to determine whether each of the small areas obtained by dividing the determination target area is an active area or an inactive area.

また本実施形態において、領域判定部23bによって判定された活動領域及び非活動領域を記憶する記憶部22を備えることも好ましい。   Moreover, in this embodiment, it is also preferable to provide the memory | storage part 22 which memorize | stores the active area and inactive area which were determined by the area | region determination part 23b.

これにより、領域判定部23bでは、記憶部22に記憶された判定結果をもとに、人検知部23a及び照明制御部3による制御方法を変更することができる。   Thereby, in the area | region determination part 23b, based on the determination result memorize | stored in the memory | storage part 22, the control method by the person detection part 23a and the illumination control part 3 can be changed.

また本実施形態において、人検知部23aは、照明範囲を撮像する画像センサ21の画像データから人の存否を検知することも好ましい。   Moreover, in this embodiment, it is also preferable that the person detection part 23a detects the presence or absence of a person from the image data of the image sensor 21 which images the illumination range.

これにより、人検知部23aは、画像センサ21を用いて撮像された照明範囲の画像から人の存否を検知することができ、また画像センサ21によって撮像された照明範囲の画像を別の用途にも利用することができる。   Thereby, the human detection unit 23a can detect the presence / absence of a person from the image of the illumination range captured using the image sensor 21, and the image of the illumination range captured by the image sensor 21 for another use. Can also be used.

また本実施形態において、領域判定部23bは、活動領域と非活動領域とで人検知部23aによる人の検知感度を異ならせることも好ましい。   Moreover, in this embodiment, it is also preferable that the area | region determination part 23b differs in the human detection sensitivity by the person detection part 23a with an active area | region and an inactive area | region.

これにより、活動領域及び非活動領域でそれぞれ最適な検知感度を設定することができる。例えば非活動領域における検知感度を活動領域における検知感度よりも低めに設定することで、非活動領域において人以外の物体を誤検出することによって、無駄な電力消費が発生するのを抑制できる。また活動領域における検知感度は、非活動領域の検知感度よりも高めに設定されるので、検知漏れを低減できる。   Thereby, optimal detection sensitivity can be set in each of the active region and the non-active region. For example, by setting the detection sensitivity in the inactive area to be lower than the detection sensitivity in the active area, it is possible to suppress wasteful power consumption by erroneously detecting an object other than a person in the inactive area. Moreover, since the detection sensitivity in the active region is set higher than the detection sensitivity in the non-active region, detection omission can be reduced.

また本実施形態において、領域判定部23aは、人検出部21aが活動領域で人を検知した場合と、非活動領域で人を検知した場合とで、照明制御部3による照明器具1の制御内容を変更することも好ましい。   Moreover, in this embodiment, the area determination part 23a is the content of control of the lighting fixture 1 by the illumination control part 3 when the person detection part 21a detects a person in the active area and when the person is detected in the inactive area. It is also preferable to change.

これにより、活動領域で人が検知された場合と、非活動領域で人が検知された場合とでそれぞれ最適な制御内容を設定することができる。例えば領域判定部23bは、非活動領域で人が検知された場合のタイムアウト時間を、活動領域で人が検知された場合のタイムアウト時間よりも短めに設定している。したがって、非活動領域で人以外の静止物体が検出された場合には、より短い時間で人以外の静止物体と判定でき、人以外の静止物体を誤検出したことによる無駄な電力消費を低減することができる。   Thereby, optimal control content can be set for each of a case where a person is detected in the active area and a case where a person is detected in the non-active area. For example, the area determination unit 23b sets the timeout time when a person is detected in the inactive area to be shorter than the timeout time when a person is detected in the active area. Therefore, when a stationary object other than a person is detected in a non-active area, it can be determined as a stationary object other than a person in a shorter time, and wasteful power consumption due to erroneous detection of a stationary object other than a person is reduced. be able to.

1 照明器具
2 センサ部
3 照明制御部
21 画像センサ
23 制御部
23a 人検知部
23b 領域判定部
DESCRIPTION OF SYMBOLS 1 Lighting fixture 2 Sensor part 3 Illumination control part 21 Image sensor 23 Control part 23a Human detection part 23b Area | region determination part

Claims (6)

照明器具と、
前記照明器具による照明範囲において人の存否を検知する人検知部と、
前記人検知部が人を検知すると、前記照明器具の光出力を非検出時よりも明るく制御する照明制御部と、
前記人検知部による検知範囲内の領域が人の活動領域であるか非活動領域であるかを判定し、判定結果に応じて前記人検知部及び前記照明制御部による前記照明器具の制御方法を変更する領域判定部とを備え、
前記人検知部による人の検知に応じて前記照明制御部が前記照明器具を点灯させた後、前記人検知部が検知物体を人ではないと判断したことによって前記照明制御部が前記照明器具の光出力を低下させた時点より所定時間が経過するまでの間に、前記検知物体の検知位置付近で前記人検知部が再び人を検知すると、前記領域判定部は、前記人検知部によって再び人が検知された領域を活動領域と判定することを特徴とする照明システム。
Lighting equipment,
A human detection unit for detecting the presence or absence of a person in the illumination range by the lighting apparatus;
When the person detection unit detects a person, an illumination control unit that controls the light output of the lighting fixture brighter than when it is not detected, and
It is determined whether a region within a detection range by the human detection unit is a human active region or a non-active region, and a control method of the lighting apparatus by the human detection unit and the lighting control unit according to a determination result An area determination unit to be changed,
After the lighting control unit turns on the lighting fixture in response to detection of a person by the human detection unit, the lighting control unit determines that the detection object is not a person by the lighting control unit. If the human detection unit detects a person again in the vicinity of the detection position of the detection object from the time when the light output is reduced until the predetermined time elapses, the region determination unit is again detected by the human detection unit. An illumination system characterized in that an area in which an object is detected is determined as an active area.
前記領域判定部による判定対象の領域が複数の小領域に分割され、前記領域判定部が各々の前記小領域毎に活動領域であるか非活動領域であるかを判定することを特徴とする請求項1記載の照明システム。   The region to be determined by the region determination unit is divided into a plurality of small regions, and the region determination unit determines whether each of the small regions is an active region or an inactive region. Item 2. The lighting system according to Item 1. 前記領域判定部によって判定された活動領域及び非活動領域を記憶する記憶部を備えることを特徴とする請求項1又は2の何れかに記載の照明システム。   The lighting system according to claim 1, further comprising a storage unit that stores an active region and an inactive region determined by the region determination unit. 前記人検知部は、前記照明範囲を撮像する画像センサの画像データから人の存否を検知することを特徴とする請求項1乃至3の何れか1項に記載の照明システム。   The lighting system according to any one of claims 1 to 3, wherein the human detection unit detects the presence or absence of a person from image data of an image sensor that captures the illumination range. 前記領域判定部は、前記活動領域と前記非活動領域とで前記人検知部による人の検知感度を異ならせたことを特徴とする請求項1乃至4の何れか1項に記載の照明システム。   5. The illumination system according to claim 1, wherein the area determination unit changes the human detection sensitivity of the human detection unit between the active area and the inactive area. 6. 前記領域判定部は、前記人検出部が前記活動領域で人を検知した場合と、前記非活動領域で人を検知した場合とで、前記照明制御部による前記照明器具の制御内容を変更することを特徴とする請求項1乃至4の何れか1項に記載の照明システム。   The area determination unit changes the control content of the lighting fixture by the lighting control unit between when the person detection unit detects a person in the active area and when a person is detected in the inactive area. The illumination system according to any one of claims 1 to 4, wherein
JP2011132433A 2011-06-14 2011-06-14 Illumination system Withdrawn JP2013004235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011132433A JP2013004235A (en) 2011-06-14 2011-06-14 Illumination system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011132433A JP2013004235A (en) 2011-06-14 2011-06-14 Illumination system

Publications (1)

Publication Number Publication Date
JP2013004235A true JP2013004235A (en) 2013-01-07

Family

ID=47672629

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011132433A Withdrawn JP2013004235A (en) 2011-06-14 2011-06-14 Illumination system

Country Status (1)

Country Link
JP (1) JP2013004235A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530669A (en) * 2013-08-15 2016-09-29 フィリップス ライティング ホールディング ビー ヴィ Detection in the area
JP2017111008A (en) * 2015-12-16 2017-06-22 パナソニックIpマネジメント株式会社 Human detection system
WO2019098070A1 (en) * 2017-11-16 2019-05-23 パナソニックIpマネジメント株式会社 Sensor system, illumination control system, and program
CN111935882A (en) * 2020-08-18 2020-11-13 创新奇智(重庆)科技有限公司 Data processing method, intelligent lamp, data management platform and intelligent lighting system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016530669A (en) * 2013-08-15 2016-09-29 フィリップス ライティング ホールディング ビー ヴィ Detection in the area
JP2017111008A (en) * 2015-12-16 2017-06-22 パナソニックIpマネジメント株式会社 Human detection system
WO2019098070A1 (en) * 2017-11-16 2019-05-23 パナソニックIpマネジメント株式会社 Sensor system, illumination control system, and program
JP2019091663A (en) * 2017-11-16 2019-06-13 パナソニックIpマネジメント株式会社 Sensor system, lighting control system, program
TWI700964B (en) * 2017-11-16 2020-08-01 日商松下知識產權經營股份有限公司 Sensor system, lighting control system, program
JP7122620B2 (en) 2017-11-16 2022-08-22 パナソニックIpマネジメント株式会社 sensor system, lighting control system, program
CN111935882A (en) * 2020-08-18 2020-11-13 创新奇智(重庆)科技有限公司 Data processing method, intelligent lamp, data management platform and intelligent lighting system

Similar Documents

Publication Publication Date Title
JP5726792B2 (en) Information processing apparatus, image sensor apparatus, and program
KR102523510B1 (en) Generation of static images using event cameras
US20090195505A1 (en) Motion estimation device and power saving method thereof
US9435646B2 (en) Displacement detection device and operating method thereof
US9727160B2 (en) Displacement detection device and operating method thereof
US11336869B2 (en) Motion detection methods and motion sensors capable of more accurately detecting true motion event
JP2014017114A (en) Illumination system
JP5277805B2 (en) Object extraction device, object extraction method, and object extraction program
JP5470187B2 (en) Image processing apparatus and object detection apparatus
JP2013004235A (en) Illumination system
JP2013004490A (en) Lighting system
JP5480600B2 (en) Lighting control system
US7412076B2 (en) Image processing apparatus, image processing method, recording medium, and program
JP2016050972A (en) Control device, control method, and program
CN109844825B (en) Presence detection system and method
JP2012174421A (en) Luminaire
TWI518639B (en) Object tracking device and operating method thereof
JP2005134120A (en) Composite-type human body sensing switch
JP2012155876A (en) Lighting apparatus
JP2012155971A (en) Sensor device, lighting equipment using the same and lighting system
US10842414B2 (en) Information processing device, information processing method, program, and watching system
KR20140121206A (en) Apparatus and method for controling lamp using image processing
JP2011118465A (en) Position detecting device, imaging apparatus, method and program for detecting position, and recording medium
JP2015001836A (en) Image sensor
JP2006135838A (en) Motion detecting device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902