WO2020235897A1 - 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체 - Google Patents

레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체 Download PDF

Info

Publication number
WO2020235897A1
WO2020235897A1 PCT/KR2020/006474 KR2020006474W WO2020235897A1 WO 2020235897 A1 WO2020235897 A1 WO 2020235897A1 KR 2020006474 W KR2020006474 W KR 2020006474W WO 2020235897 A1 WO2020235897 A1 WO 2020235897A1
Authority
WO
WIPO (PCT)
Prior art keywords
lighting
unit
radar
distance
sensor
Prior art date
Application number
PCT/KR2020/006474
Other languages
English (en)
French (fr)
Inventor
이종훈
김상동
송승언
진영석
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Publication of WO2020235897A1 publication Critical patent/WO2020235897A1/ko

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V23/00Arrangement of electric circuit elements in or on lighting devices
    • F21V23/04Arrangement of electric circuit elements in or on lighting devices the elements being switches
    • F21V23/0442Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors
    • F21V23/0471Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person
    • F21V23/0478Arrangement of electric circuit elements in or on lighting devices the elements being switches activated by means of a sensor, e.g. motion or photodetectors the sensor detecting the proximity, the presence or the movement of an object or a person by means of an image recording device, e.g. a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B47/00Circuit arrangements for operating light sources in general, i.e. where the type of light source is not relevant
    • H05B47/10Controlling the light source
    • H05B47/105Controlling the light source in response to determined parameters
    • H05B47/115Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings
    • H05B47/13Controlling the light source in response to determined parameters by determining the presence or movement of objects or living beings by using passive infrared detectors
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Definitions

  • the present invention relates to a lighting system, a lighting method, and a recording medium in which a computer program therefor is stored, and more particularly, to a radar lighting system, a lighting method, and a recording medium in which a computer program therefor is stored.
  • the video surveillance system has a variety of products with different performance and shape depending on various application areas, such as roads, traffic and outer boundaries of major facilities, surveillance of offender areas, and monitoring inside of control buildings in ubiquitous cities (u-City) It is also being developed.
  • a dimming system has been developed to control the illuminance of a street light by detecting the passage of a vehicle or the approach of a person.
  • the detection sensor used in such a dimming system is mainly a PIR (Pyroelectric Infrared Sensor) sensor or an ultrasonic sensor.
  • the PIR sensor is a sensor that responds to the motion of an object that radiates infrared rays, and has a disadvantage in that the recognition rate varies rapidly depending on environmental factors such as external disturbance light, temperature change, or humidity change due to fog or rain.
  • the PIR sensor is a sensor that mainly detects people, and is not effective for vehicle detection and has a short sensing distance.
  • the ultrasonic sensor also has a narrow operating range and a slow sensor operation time, so it is not effective for detecting high-speed objects such as automobiles, and like a PIR sensor, it is vulnerable to temperature or dust.
  • the LiDAR sensor which is widely used in vehicles, has the disadvantage of having a limited operating range and, above all, expensive.
  • the problem to be solved by the present invention is to provide a lighting system using a radar, a lighting method, and a recording medium storing a computer program therefor.
  • a lighting system includes a lighting unit; A sensor unit including a radar configured to detect whether an object exists in the set detection area and a distance to the object; And a lighting control module configured to turn on the lighting unit when the object in the sensing area is detected, and to control brightness of the lighting unit according to a distance between the object and the sensor unit.
  • the lighting control module may increase the brightness of the lighting unit as the distance between the object and the sensor unit increases, and may decrease the brightness of the lighting unit as the distance between the object and the sensor unit increases.
  • the radar may further detect a moving speed of the object, and the lighting control module may adjust a rate of change in brightness of the lighting unit according to the moving speed.
  • the radar may further detect a moving direction of the object, and the lighting control module may adjust a direction of light through which the lighting unit illuminates the object according to the moving direction.
  • the sensor unit further includes a camera that photographs the detected object and an image analysis module that analyzes an image photographed by the camera, wherein the radar further detects a moving speed of the object, and the object and the sensor unit
  • the shutter speed of the camera is increased to more than a preset value
  • the lighting control module turns on the lighting unit during the exposure time of the imaging device of the camera. I can make it.
  • the sensor unit further includes a PIR sensor or an ultrasonic sensor, and when the PRI sensor or the ultrasonic sensor determines whether the object exists, and the PRI sensor or the ultrasonic sensor determines whether the object exists, the radar is The movement of the object can be detected.
  • a lighting method using a radar and a lighting unit includes a sensing step of sensing whether an object exists in a predetermined sensing area and a distance between the object and the radar using the radar; A lighting turn-on step of turning on the lighting unit when the object in the sensing area is detected; It may include a lighting control step of controlling the brightness of the lighting unit or the lighting time of the lighting unit according to the distance between the object and the radar.
  • An embodiment of the present invention provides a lighting system using a radar, a lighting method, and a recording medium storing a computer program therefor.
  • an embodiment of the present invention provides a lighting system capable of controlling the brightness of lighting according to a moving distance and speed of an object, a lighting method, and a recording medium storing a computer program therefor.
  • an embodiment of the present invention provides a lighting system capable of offsetting light from a vehicle headlight, a lighting method, and a recording medium storing a computer program therefor when an object is a vehicle.
  • FIG. 1 is a block diagram showing the configuration of a lighting system according to an embodiment of the present invention.
  • FIG. 2 is a conceptual diagram illustrating an embodiment in which the lighting system of FIG. 1 is applied to a street light.
  • FIG. 3 is a block diagram showing a detailed configuration of a radar in the illumination system of FIG. 1.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a lighting control module in the lighting system of FIG. 1.
  • FIG. 5 is a flowchart illustrating a lighting method according to an embodiment of the present invention.
  • FIG. 6 is a block diagram of a lighting system according to another embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a lighting method according to another embodiment of the present invention.
  • FIG. 8 is a block diagram showing a detailed configuration of an image analysis module according to another embodiment of the present invention.
  • FIG. 9 is a block diagram of a lighting system according to another embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a lighting method according to another embodiment of the present invention.
  • MODULE refers to a unit that processes a specific function or operation, and may mean hardware or software, or a combination of hardware and software.
  • object refers to all objects that can be detected by a sensor, and specific examples may be humans, animals, or vehicles. However, it is not limited to these three examples, and any object that is detected by a sensor and can be moved may correspond to an “object”.
  • FIG. 1 is a block diagram showing the configuration of a lighting system according to an embodiment of the present invention
  • FIG. 2 is a conceptual diagram showing an embodiment in which the system of FIG. 1 is applied to a street light.
  • the lighting system includes a sensor unit 100, a lighting unit 200, and a lighting control module 300 for controlling them.
  • the lighting unit 200 is implemented as a street lamp as in the embodiment of FIG. 2, the sensor unit 100 may be installed adjacent to the street lamp.
  • the radar 110 included in the sensor unit 100 detects the presence or absence of an object in a preset detection area and a distance between the object and the sensor unit 100.
  • the radar 110 may use at least one or one of laser, ultrasonic, and electromagnetic waves.
  • an appropriate modulation method may be used depending on the characteristics of the signal used. For example, a continuous wave method that measures the difference in frequency between transmission and reception by sweeping a frequency, and a pulse Doppler method that measures time delay by sending and receiving pulses.
  • a (Pulse Doppler) method or an amplitude modulation method in which a carrier wave is amplitude modulated to measure a phase difference between transmission and reception signals may be used.
  • continuous wave modulation methods such as CW (Continuous Wave) and FMCW (Frequency Modulation Continuous Wave), Pulse Amplitude Modulation, Pulse Position Modulation, and Pulse Width Modulation , Pulse Number Modulation, Pulse Code Modulation, a pulse modulation method such as delta modulation, and an amplitude modulation method may be used.
  • CW Continuous Wave
  • FMCW Frequency Modulation Continuous Wave
  • Pulse Amplitude Modulation Pulse Position Modulation
  • Pulse Width Modulation Pulse Number Modulation
  • Pulse Code Modulation Pulse Code Modulation
  • a pulse modulation method such as delta modulation
  • an amplitude modulation method may be used.
  • the modulation methods listed are only examples and need not be limited to a specific modulation method.
  • CW continuous wave
  • the sensing area may be set as an area where illumination is illuminated when the illumination unit 200 is turned on, and may be set to be larger than an area where illumination is illuminated depending on circumstances.
  • the object mainly monitored by the sensor unit 100 may be a person, an animal, or a vehicle, as described above, and the detection area is set to approximately 4-10m around the sensor unit 100 in consideration of the size and movement speed of the object.
  • the detection area may be overlapped according to the arrangement interval of a plurality of street lights.
  • the radar 110 generates a continuous wave (CW) and transmits it to the detection area, and when an object appears in the detection area, it senses the movement of the object using a reflected wave reflected from the object. Motion of an object may be detected using the Doppler effect of the radar 110 according to the present embodiment.
  • the radar 110 receives the reflected wave reflected from the object and returned with respect to the electromagnetic wave transmitted by itself, and converts the analog bit receiving signal into a digital signal for easy analysis.
  • the radar 110 detects the existence of an object, the distance between the object and the illumination unit 200, and a change in the relative distance between the illumination unit 200 according to the movement of the object, the movement angle of the object, the movement direction, etc. ).
  • FIG. 3 is a block diagram showing a detailed configuration of a radar in the illumination system of FIG. 1.
  • the radar 110 transmits an electromagnetic wave, a transmitter 111 that transmits an electromagnetic wave, a receiver 113 that receives a reflected wave that is reflected by an object and returns, and a bit based on the frequency difference between the transmitted wave and the reflected wave. It may include a signal generator 115 for generating a received signal and a digital converter (ADC) 117 for converting an analog bit received signal into a digital signal.
  • ADC digital converter
  • the signal generator 115 may generate a bit signal by multiplying the electromagnetic wave transmitted through the transmitter 111 and the reflected wave input through the receiver 113.
  • the generated bit reception signal may include information on a distance between the radar 110 and an object, a relative speed of the object, and information on a relative angle of the object.
  • the digital conversion unit 117 may generate a digital signal by sampling the bit reception signal generated by the signal generation unit 115 using a specific sampling frequency.
  • the lighting control module 300 controls the lighting unit 200 in various ways based on the detection result of the radar 110. For example, the lighting control module 300 turns on the lighting unit 200 when an object in the sensing area is detected, and determines the brightness of the lighting unit 200 or the lighting time of the lighting unit 200 according to the distance between the object and the sensor unit 100. Can be controlled.
  • FIG. 4 is a block diagram illustrating a detailed configuration of a lighting control module in the lighting system of FIG. 1.
  • the lighting control module 300 includes a filtering unit 310 that selects a signal higher than a predetermined threshold value from the digital converted signal transmitted from the radar 110, and divides the selected signal into a predetermined unit time.
  • a high-speed Fourier transform unit 330 that converts the unit time signal divided by the windowing unit 320 into a signal in a predetermined frequency domain, and the fast Fourier transform unit 330
  • a clutter processing unit 340 that processes the clutter corresponding to noise from the signal, and the frequency signal estimated by estimating the spectrum of the effective frequency from the signal from which the clutter is removed and the magnitude of the frequency for each effective frequency
  • a CFAR application unit 350 for selecting a frequency for an object, an object determination unit 360 for determining an object by calculating a Doppler frequency band and a peak frequency at the selected frequency, and an object based on the size of the object frequency and the object frequency.
  • a speed calculation unit 370 that calculates the speed of and a lighting control unit 380 that controls the brightness of the lighting unit 200 based on the distance
  • the filtering unit 310 may select a signal greater than or equal to a threshold value from the digital conversion signal and, if necessary for the selected signal, perform a certain DC offset compensation. That is, the filtering unit 310 filters a signal that is primarily valid from the received signal.
  • the windowing unit 320 divides the selected digital signal into a unit time short enough to be used as an index.
  • the fast Fourier transform unit 330 may perform frequency conversion within a predetermined region on the digital signal received from the receiver 113 in order to measure the distance between the radar 110 and the object.
  • the clutter processing unit 340 removes clutter, a type of noise included in the frequency-converted signal, so that the target object can be more effectively detected.
  • the clutter processing unit 340 may obtain a threshold level, that is, a predetermined threshold value using the Doppler signal, and apply the threshold value to update and initialize a background clutter map estimated as a background other than an object.
  • the clutter processing unit 340 may output a target beat frequency from which the clutter signal is excluded by calculating a difference between the received signal and the background clutter map.
  • the CFAR (Constant False Alarm Rate) application unit 350 may apply CFAR detection to the signal output from the clutter processing unit 340 to obtain a range bin corresponding to the distance from the radar 110 to the object.
  • the CFAR application unit 350 may detect a peak in which the magnitude of the frequency changes abruptly from the converted signal in the frequency domain, and compare it with a predetermined frequency pattern already stored to determine the beat frequency of the object.
  • the CFAR application unit 350 may extract a distance bin, that is, a range bin, having a peak value of a predetermined power or higher from the data signal subjected to frequency conversion.
  • a distance bin that is, a range bin, having a peak value of a predetermined power or higher from the data signal subjected to frequency conversion.
  • an index of a range bin having a specific peak value can be extracted.
  • the range bin refers to a single data cell that is the basis for processing radar signals received from an arbitrary azimuth by unit distance, and is also called a range gate. Using the radar 110 as a starting point, there may be one range bin for each predetermined distance.
  • the object determination unit 360 may calculate the number of Doppler frequency bands and peak frequencies based on the target according to the result of the CFAR application unit 350, that is, the range bin of the object, and finally determine the object to be sensed. have. That is, the object determination unit 360 determines a detection frequency band for detecting an object among the effective frequency bands of the frequency spectrum, and determines a threshold value for determining an object detection peak value for detecting an object among peak values of the frequency spectrum. And outputs a signal for an object to be sensed based on the frequency band and peak value.
  • the windowing unit 320, the fast Fourier transform unit 330, the clutter processing unit 340, and the CFAR application unit 350 are repeatedly performed until an object bit frequency is selected from the received signal selected by the filtering unit 310. Can be.
  • the speed calculation unit 370 identifies a frequency-magnitude value for the object, and sets a conversion value in a specific time domain as the speed of the object. I can.
  • the lighting control unit 380 basically increases the brightness of the lighting unit 200 as the distance between the object and the sensor unit 100 becomes closer, and the illumination unit 380 increases as the distance between the object and the sensor unit 100 increases. 200) can be controlled to lower the brightness.
  • the brightness is gradually increased as a person approaches the lighting unit 200 to provide bright lighting to the user, and the brightness increases as the person moves away from the lighting unit 200. Dimming can be done gradually lowering.
  • the lighting control unit 380 may adjust a rate of change in brightness of the lighting unit 200 according to the moving speed of the object measured by the speed calculation unit 370.
  • the speed change of the object is large, such as a pedestrian or an animal jumping toward the lighting unit 200, a pedestrian riding a bicycle, or when the object is a car, the speed change is large.
  • the lighting controller 380 may control the dimming change rate of the lighting in consideration of such a moving speed.
  • the lighting control unit 380 may adjust the direction of light that the lighting unit 200 illuminates the object according to the moving direction of the object.
  • the radar 110 can detect not only the moving speed and distance of the object, but also a relative moving direction between the radar 110 and the object.
  • a change in direction between the illumination unit 200 and the object according to the movement of the object based on the relative angle between the radar 110 and the illumination unit 200 may also be detected, and it is possible to change the steering of the lighting by reflecting this.
  • the lighting unit 200 may move together according to the movement of the object to be detected. Through this, lighting can be more effectively provided to the object, and the CCTV can obtain a clearer captured image.
  • FIG. 5 is a flowchart illustrating a lighting method according to an embodiment of the present invention.
  • the lighting method according to the present embodiment is summarized as follows with reference to FIG. 5.
  • an object within a certain detection area is detected using the radar 110 (S510).
  • the radar 110 when the radar 110 is used for object detection, accurate measurement of the moving distance, speed, direction and altitude of the object is possible, and since it is not affected by the surrounding environment such as bad weather or day and night, the radar ( 110) is an optimal sensor to detect an object in an outdoor environment. Since optical means such as conventional ultrasonic sensors or PIR (Pyroelectric Infrared Sensor) sensors are sensitive to humidity due to fog or rain, the object recognition rate for detecting objects was not high. The radar 110 is a sensor that can compensate for this disadvantage.
  • the lighting control module 300 turns on the lighting unit 200 to illuminate the object (S520).
  • the radar 110 may sense whether the detected object moves, that is, a moving distance and a speed between the radar 110 and the object (S530).
  • the lighting control module 300 may increase the brightness of the lighting unit 200 (S560).
  • the lighting control module 300 maintains or decreases the brightness of the lighting unit 200 and when a certain time elapses, the lighting unit 200 ) Can be turned off (S550).
  • the lighting control module 300 is The brightness of 200 may be reduced (S580).
  • the lighting control module 300 may turn off the lighting unit 200 (S590).
  • control of the lighting may be changed in various ways, and the dimming method is not limited as long as the dimming of the lighting is controlled according to the movement, speed, or direction of the object detected by the radar 110.
  • FIG. 6 is a block diagram of a lighting system according to another embodiment of the present invention.
  • the sensor unit 100 of the lighting system may further include a camera 120 in addition to the radar 110.
  • the lighting system identifies the type of object and stores, plays and analyzes the captured image and the camera 120 for photographing an object in order to perform more precise lighting control in response to the identified object. It may further include an image analysis module 400 capable of.
  • the camera 120 may be implemented as a camcorder, CCTV, digital camera, etc., and according to the present invention, the camera 120 may be installed adjacent to the lighting unit 200 or radar 110 installed outdoors or in the street. I can.
  • the radar 110 for detecting the object is installed to be spaced apart from the ground on which the object moves, and the camera 120 for photographing the object and the lighting unit 200 for providing light may be installed close to the object.
  • a plurality of the camera 120 and the lighting unit 200 may be installed in different places, and the lighting unit 200 may be controlled differently according to an object detected in each place.
  • the image analysis module 400 analyzes an image captured by the camera 120 to determine an object, and analyzes a region of interest among a specific color or all image frames.
  • FIG. 7 is a flowchart illustrating a lighting method according to another embodiment of the present invention.
  • the radar 110 detects the existence of an object and detects the movement of the object (S710)
  • the illumination unit 200 is turned on, and the detection area is photographed and recorded by the camera 120 (S720).
  • the image captured by the camera can be played back and downloaded at any time according to the user's selection.
  • the speed of the object detected by the radar 110 exceeds a preset reference value (S730), and if the speed of the object is less than the reference value, the image analysis result of the image analysis module 400 is included. Finally, it may be determined whether the object is a human or an animal (S740).
  • the lighting control module 300 may perform a first dimming control on the lighting unit 200 (S750 ).
  • the first dimming control increases the brightness of the lighting unit 200 as the distance between the person or animal and the sensor unit 100 increases, and the distance between the person or animal and the sensor unit 100 increases. As the distance increases, the brightness of the lighting unit 200 may be lowered.
  • the image analysis module 300 may compare the captured object image with a previously stored object image to determine whether the captured object and the previously stored object are identical. For example, if the camera 120 is a CCTV installed adjacent to the entrance door in front of a house, an image of a person who is permitted to enter may be stored in advance, and it may be determined whether the person who is photographed is a person permitted to enter. I can. Through this, unauthorized access or intrusion of a dwelling from outsiders can be detected, and such situations can be prepared. If an outsider's access or intrusion is detected, a control notifying the user or an external security organization may be additionally performed.
  • the lighting control module 300 may perform a first dimming control on the lighting unit 200 similarly to when the object is a human.
  • the brightness of the lighting unit 200 may be increased at a slow speed after turning on to a low brightness of the lighting unit, or when the animal moves away from the lighting unit 200, the brightness of the lighting unit 200 may be gradually decreased. That is, when an object is detected as an animal and continuous photographing of the animal is required, the brightness and dimming speed of the lighting unit 200 may be controlled in consideration of the movement of the animal.
  • the lighting control module 300 may perform second dimming control (S770).
  • the second dimming control is a basic control that increases the brightness of the lighting unit 200 as the distance between the vehicle and the sensor unit 100 increases, and decreases the brightness of the lighting unit 200 as the distance between the vehicle and the sensor unit 100 increases.
  • a control for adjusting the rate of change in brightness of the lighting unit 200 according to the speed of the vehicle may be added. When the speed of the vehicle changes rapidly beyond a predetermined value, control such as increasing the brightness of the lighting unit 200 to the maximum or decreasing the rate of change of the brightness of the lighting unit 200 may be performed if the speed is reduced.
  • the shutter speed of the camera 120 is increased to a preset value or more, and the lighting control module 300 is
  • the illumination unit 200 may be turned on only during the exposure time of the imaging device of 120 (S780).
  • the camera 120 for photographing an object is a CCTV camera
  • the camera imaging element is exposed to too much light by the car headlight, causing the image of the camera 120 to be temporarily white. If you change or turn off your headlights at night, your car will become invisible.
  • the camera shutter speed is increased to increase the exposure time of the camera imaging device.
  • power required by the illumination unit 200 may be reduced by turning on the illumination unit 200 only during the exposure time of the imaging device of the camera 120.
  • FIG. 8 is a block diagram showing a detailed configuration of an image analysis module according to another embodiment of the present invention.
  • the image analysis module 400 includes a window setting unit 410, an outer angle detection unit 420, a search area reset unit 430, a color space conversion unit 440, and a color of interest setting unit. (450), a histogram analysis unit 460, an RGB similarity calculation unit 470, an HSV similarity calculation unit 471, and an interest color detection unit 480 may be included.
  • the image analysis module 400 sets the front part of the vehicle as a region of interest, and sets white, green, or black constituting the vehicle license plate as a color of interest to the vehicle license plate. Can be read.
  • the window setting unit 410 windows a specific area of the image of the entire frame, for example, an area corresponding to a vehicle, and the outer angle detection unit 420 applies an edge detection algorithm such as a Canny edge detection algorithm. Detect the outermost part of the object.
  • the front part of the vehicle may be reset to the search area by the search area reset unit 430.
  • the color space conversion unit 440 converts an image captured in an RGB color space into an HSV (Hue, Saturation, and Value) color space.
  • the histogram analyzer 460 may analyze a histogram for a search area in the RGB color space and the HSV color space.
  • the histogram is a graph showing the distribution of the brightness values of an image, and through this, information on the brightness composition of the image, contrast of contrast, etc. can be obtained.
  • the histogram analysis it is possible to recognize the shape of the object or control the lighting of the environment in which the object is photographed.
  • the image can be binarized. Through the binarization of the image, it becomes possible to recognize the license plate.
  • the color of interest setting unit 450 When analyzing such a histogram, information on a region of interest to which a specific color is applied may be provided from the color of interest setting unit 450.
  • the color of interest may be set to white and black, or green and black, and a portion of the image corresponding to the color may be set as the region of interest.
  • the license plate portion of the vehicle may be set as the region of interest.
  • the RGB similarity calculation unit 470 compares the configuration of the reference RGB color space map and the photographed RGB color space to calculate the image similarity for the two color spaces, and the HSV similarity calculation unit 471 performs a photographing with the reference HSV color space map.
  • the image similarity for the two color spaces is calculated by comparing the composition of the HSV color space.
  • the color distance that is, the similarity, of the captured image based on the map for a specific color may be measured.
  • the color of the ROI may be determined by calculating the similarity of one color space map, according to the present embodiment, the effect of image analysis may be enhanced by calculating the similarity of two color spaces.
  • the color-interest detection unit 480 may detect a specific color by comparing the color space similarity with a specific target threshold value.
  • the image captured by comparing the similarity and the threshold value of the color space may be recognized as only white and black, or only green and black. That is, by applying a threshold value to the image similarity, the image can be dualized, and in this case, the vehicle license plate composed of two colors can be effectively recognized.
  • FIG. 9 is a block diagram of a lighting system according to another embodiment of the present invention.
  • the illumination system includes a PIR or ultrasonic sensor 130 in the sensor unit 100 to detect an object.
  • the PIR sensor is a human body detection sensor and is a kind of infrared sensor.
  • the PIR sensor can detect the presence or absence of an object, mainly a person, by detecting the amount of change in infrared rays emitted from the object.
  • the ultrasonic sensor can detect an object in a non-contact method or measure the distance between the object and the ultrasonic sensor, and can detect an object from a few centimeters to a maximum of 10 meters depending on the type of sensor.
  • the PIR or ultrasonic sensor 130 detects whether an object exists in the sensing area, that is, whether the object exists, and when it is determined that the object exists, the radar 110 will subsequently detect the object. It serves to trigger to enable.
  • FIG. 10 is a flowchart illustrating a lighting method according to another embodiment of the present invention.
  • the PIR sensor or the ultrasonic sensor 130 is used to detect an object, and the radar 110 is triggered (S1010).
  • the radar 110 is not operated until an object in the sensing area is detected, and when the existence of the object is detected, the motion of the object may be subsequently detected by the radar 110.
  • the lighting is turned on by the lighting control module 300 (S1020).
  • an image by the camera 120 may be photographed and recorded from that time, and the image analysis method described with reference to FIGS. 6 to 8 may be applied.
  • the sensing operation by the PIR or ultrasonic sensor 130 may be stopped.
  • the radar 110 can detect the distance, speed, and direction of the object according to the movement of the object (S1030), and based on the detection result of the radar 110 and the image analyzed from the camera 120, the illumination control module 300 ) May adjust the brightness of the lighting unit 200 (S1040).
  • the above-described sensor unit 100, lighting unit 200, lighting control module 300, and image analysis module 400 may be implemented as separate devices, each of the components are Bluetooth (blutooth), Zigbee (zigbee) , It is possible to transmit and receive signals through a short-range wireless communication network such as Wi-Fi, or through a wired communication network such as Ethernet or LAN.
  • the sensor unit 100 and the illumination unit 200 may be located adjacent to each other, and the illumination control module 300 and the image analysis module 400 for receiving a detection signal from a radar or object detection sensor and analyzing a photographed image are Each can be implemented as a separate server or PC device. Alternatively, the lighting control module 300 and the image analysis module 400 may be implemented by transmitting and receiving signals through communication within one server.
  • the lighting control module 300 and the image analysis module 400 may be implemented with a user terminal, for example, a portable electronic device such as a portable telephone or a tablet PC.
  • a user terminal for example, a portable electronic device such as a portable telephone or a tablet PC.
  • the image captured by the camera may be stored in the user terminal, and the image captured through the display unit provided in the user terminal may be displayed.
  • the user may adjust the dimming control method of lighting or change various conditions for image analysis through manipulation of the terminal.
  • the lighting system of the present invention it is effective not only to detect objects but also to measure movement and speed, and to control dimming of lighting because the object's sensing power is excellent even in bad weather such as fog and rain.
  • a camera sensor such as CCTV together, there is an advantage in that a target object can be photographed and applied control accordingly.
  • the partial functions of the lighting system and the lighting method described above may be included in a recording medium that can be read through a computer by tangibly implementing a program of instructions for implementing the same.
  • the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the computer-readable recording medium may be specially designed and constructed for the present invention, or may be known and usable to those skilled in computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks.
  • Magneto-optical media and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, USB memory, and the like.
  • the computer-readable recording medium may be a transmission medium such as an optical or metal wire or a waveguide including a carrier wave for transmitting a signal specifying a program command or a data structure.
  • Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter or the like, in addition to machine language codes such as those produced by a compiler.
  • the hardware device may be configured to operate as one or more software modules to perform the operation of the present invention and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체에 관한 것이다. 레이더와 조명부를 이용한 조명 방법은 상기 레이더를 이용하여 기 설정된 감지 영역 내 객체의 존재 여부 및 상기 객체와의 거리를 감지하는 감지 단계와; 상기 감지 영역 내 상기 객체가 감지되면, 상기 조명부를 턴온시키는 조명 턴온 단계와; 상기 객체와 상기 레이더와의 거리에 따라 상기 조명부의 밝기 또는 상기 조명부의 점등 시간을 제어하는 조명 제어 단계를 포함할 수 있다.

Description

레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체
본 발명은 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체에 관한 것으로 더욱 상세하게는, 레이더를 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체에 관한 것이다.
일반적으로, 영상감시 시스템은 현대 사회에서 범죄 예방, 교통 안전, 또는 시설 보안 등을 위한 목적으로 널리 사용되고 있다. 특히 보안등은 골목길 등 범죄취약지역에 치안을 위해 설치하는 경우가 많다.
이처럼 영상감시 시스템은 도로, 교통 및 주요 시설물의 외곽 경계, 우범지역 감시, 유비쿼터스 도시(ubiquitous city, u-City)의 관제 빌딩 내부 감시 등 다양한 응용 영역에 따라 성능, 형태 등이 다른 제품이 다양하게 개발되고 있기도 하다.
최근에는 차량의 통행이나 사람의 접근을 감지하여 가로등의 조도를 제어하는 디밍 시스템이 개발되고 있다.
이러한 디밍 시스템에 사용되고 있는 감지 센서는 주로 PIR(Pyroelectric Infrared Sensor) 센서이거나 초음파 센서이다.
PIR 센서는 적외선을 복사하는 물체의 움직임에 반응하는 센서로서 외부의 외란광이나 온도 변화, 또는 안개나 우천 등에 의한 습도의 변화 등 환경적 요인에 따라 인식율에 급격한 차이가 발생하는 단점이 있다. 또한, PIR 센서는 주로 사람을 감지하는 센서로써 차량 감지에 효과적이지 못하고 센싱 가능한 동작 거리가 짧다.
초음파 센서 역시 동작 범위가 좁고 센서 동작 시간이 느려 자동차와 같이 속도가 높은 객체 감지에 효과적이지 못하고, PIR 센서와 마찬가지로 온도 또는 먼지에 취약한 단점이 있다.
최근 차량에 많이 사용되고 있는 라이다 센서는 동작 범위가 제한적이고 무엇보다 고가라는 단점이 존재한다.
따라서, 사람과 차량에 대한 정확한 감지, 객체의 이동 거리 및 속도에 감지 및 옥외의 다른 환경에 영향을 받지 않는 감지 수단을 이용하는 조명 시스템 또는 이러한 디밍 방법이 필요하다.
본 발명이 해결하고자 하는 과제는, 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체를 제공하는 것이다.
본 발명의 일 실시예에 따른 조명 시스템은 조명부; 상기 설정된 감지 영역 내 객체의 존재 여부 및 상기 객체와의 거리를 감지하는 레이더를 포함하는 센서부; 및 상기 감지 영역 내 상기 객체가 감지되면 상기 조명부를 턴온 시키고, 상기 객체와 상기 센서부와의 거리에 따라 상기 조명부의 밝기를 제어하는 조명 제어 모듈을 포함할 수 있다.
상기 조명 제어 모듈은 상기 객체와 상기 센서부와의 거리가 가까워 질수록 상기 조명부의 밝기를 높이고, 상기 객체와 상기 센서부와의 거리가 멀어질수록 상기 조명부의 밝기를 낮출 수 있다.
상기 레이더는 상기 객체의 이동 속도를 더 감지하고, 상기 조명 제어 모듈은 상기 이동 속도에 따라 상기 조명부의 밝기 변화률을 조절하할 수 있다.
한편, 상기 레이더는 상기 객체의 이동 방향을 더 감지하고, 상기 조명 제어 모듈은 상기 이동 방향에 따라 상기 조명부가 상기 객체를 비추는 빛의 방향을 조절할 수 있다.
상기 센서부는, 상기 감지된 객체를 촬영하는 카메라와, 상기 카메라에서 촬영된 영상을 분석하는 영상 분석 모듈을 더 포함하고,상기 레이더는 상기 객체의 이동 속도를 더 감지하고, 상기 객체와 상기 센서부와의 거리가 가까워지고, 상기 객체의 이동 속도가 기 설정된 기준값 이상이면, 상기 카메라의 셔터 스피드는 기 설정된 값 이상으로 증가되고, 상기 조명 제어 모듈은 상기 카메라의 촬상 소자 노출 시간 동안 상기 조명부를 턴온 시킬 수 있다.
상기 센서부는 PIR 센서 또는 초음파 센서를 더 포함하고, 상기 PRI 센서 또는 상기 초음파 센서가 상기 객체의 존재 여부를 판단하고, 상기 PRI 센서 또는 상기 초음파 센서가 상기 객체의 존재 여부를 판단하면, 상기 레이더가 상기 객체의 움직임을 감지할 수 있다.
본 발명의 다른 실시예에 따른 레이더와 조명부를 이용한 조명 방법은 상기 레이더를 이용하여 기 설정된 감지 영역 내 객체의 존재 여부 및 상기 객체와 상기 레이더와의 거리를 감지하는 감지 단계와; 상기 감지 영역 내 상기 객체가 감지되면, 상기 조명부를 턴온시키는 조명 턴온 단계와; 상기 객체와 상기 레이더와의 거리에 따라 상기 조명부의 밝기 또는 상기 조명부의 점등 시간을 제어하는 조명 제어 단계를 포함할 수 있다.
본 발명의 일 실시예는 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체를 제공한다.
또한, 본 발명의 일 실시예는 객체의 이동 거리 및 속도에 따라 조명의 밝기를 제어할 수 있는 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체를 제공한다.
또한, 본 발명의 일 실시예는 객체가 차량인 경우 차량 전조등의 불빛을 상쇄할 수 있는 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체를 제공한다.
도 1은 본 발명의 일 실시예에 따른 조명 시스템의 구성을 도시하는 블록도이다.
도 2는 도 1의 조명 시스템이 가로등에 적용된 실시예를 도시한 개념도이다.
도 3은 도 1의 조명 시스템 중 레이더의 세부 구성을 도시한 블록도이다.
도 4는 도 1의 조명 시스템 중 조명 제어 모듈의 세부 구성을 도시한 블록도이다.
도 5는 본 발명의 일 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다.
도 6은 본 발명의 다른 실시예에 따른 조명 시스템의 블록도이다.
도 7은 본 발명의 다른 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다.
도 8은 본 발명의 다른 실시예에 따른 영상 분석 모듈의 세부 구성을 도시한 블록도이다.
도 9는 본 발명의 또 다른 실시예에 따른 조명 시스템의 블록도이다.
도 10은 본 발명의 또 다른 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수 있다고 이해되어야 한다.
반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 한다.
본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 공정, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미가 있는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 명세서에서 기재한 모듈(MODULE)이란 용어는 특정한 기능이나 동작을 처리하는 하나의 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합을 의미할 수 있다.
본 명세서 및 청구범위에 사용되는 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다. 또한, 사용되는 기술 용어 및 과학 용어에 있어서 다른 정의가 없다면, 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 통상적으로 이해하고 있는 의미를 가지며, 하기의 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 설명은 생략한다. 다음에 소개되는 도면들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 따라서, 본 발명은 이하 제시되는 도면들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전반에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다. 도면들 중 동일한 구성요소들은 가능한 한 어디든 동일한 부호들로 나타내고 있음에 유의해야 한다.
본 명세서에서 “객체”라 함은 센서에 의하여 감지될 수 있는 모든 대상을 의미하며 구체적인 예로 사람 또는 동물, 또는 차량을 들 수 있다. 다만 이들 3가지 예에 한정하는 것은 아니며 센서에 의해 감지되며 이동이 가능한 대상이라면 어떤 것이라도 “객체”에 해당할 수 있다.
도 1은 본 발명의 일 실시예에 따른 조명 시스템의 구성을 도시한 블록도이고, 도 2는 도 1의 시스템이 가로등에 적용된 실시예를 도시한 개념도이다.
도 1에 도시된 바와 같이, 본 실시예에 따른 조명 시스템은 센서부(100), 조명부(200) 및 이들을 제어하는 조명 제어 모듈(300)을 포함하여 이루어진다. 도 2의 실시예와 같이 조명부(200)가 거리의 가로등으로 구현되는 경우, 센서부(100)는 가로등과 인접하게 설치될 수 있다.
센서부(100)에 포함되어 있는 레이더(110)는 기 설정된 감지 영역 내 객체의 존재 여부 및 객체와 센서부(100)와의 거리를 감지한다.
레이더(110)는 레이저, 초음파, 전자파 중 적어도 하나 또는 그 중 하나를 이용할 수 있다. 또한, 이용되는 신호의 특성에 따라 적절한 변조 방식이 사용될 수 있는데, 예를 들어 주파수를 스윕하여 송수신 간의 주파수의 차를 측정하는 연속파(Continuous Wave) 방식, 펄스를 주고받아 시간 지연을 측정하는 펄스 도플러(Pulse Doppler) 방식, 반송파를 진폭 변조시켜 송수신 신호 간의 위상차를 측정하는 진폭 변조(Amplitude Modulation) 방식이 사용될 수 있다. 보다 구체적인 예로, CW(Continuous Wave), FMCW(Frequency Modulation Continuous Wave)와 같은 연속파 변조 방식과, 펄스 진폭 변조(Pulse Amplitude Modulation), 펄스 위치 변조(Pulse Position Modulation), 펄스 폭 변조(Pulse Width Modulation), 펄스 수 변조(Pulse Number Modulation), 펄스 부호 변조(Pulse Code Modulation), 델타 변조(delta Modulation)과 같은 펄스 변조 방식, 진폭 변조(Amplitude Modulation) 방식 중 어느 하나를 사용할 수 있다. 다만 열거한 변조 방식들은 예시에 불과하며 특정 변조 방식에 한정될 필요는 없다. 이하에서는 설명의 편의를 위해 CW(Continuous Wave) 변조 방식을 예로 들어 상세히 설명한다.
도 2에 도시된 바와 같이, 감지 영역은 조명부(200)가 턴온 되었을 때 조명이 비춰지는 영역으로 설정될 수 있고, 상황에 따라 조명이 비춰지는 영역보다 더 크게 설정될 수도 있다.
센서부(100)에 의하여 주로 감시되는 객체는 상술된 바와 같이 사람, 동물 또는 차량일 수 있으며 객체의 크기 및 이동 속도를 고려하여 감지 영역은 센서부(100)를 중심으로 대략 4~10m로 설정될 수 있고, 복 수개의 가로등 배치 간격에 따라 감지 영역은 중첩될 수 있다.
레이더(110)는 연속파(CW)를 생성하여 감지 영역에 송출하면서 감지 영역에 객체가 나타나면 객체로부터 반사되는 반사파를 이용하여 객체의 움직임을 감지한다. 본 실시예에 따른 레이더(110)의 도플러 효과를 이용하여 객체의 움직임을 감지할 수 있다. 레이더(110)는 자신이 송신한 전자파에 대하여 객체에 반사되어 돌아온 반사파를 수신하고, 아날로그의 비트수신신호를 분석이 용이하도록 디지털 신호로 변환한다. 레이더(110)는 객체의 존재 여부, 객체와 조명부(200)와 거리 및 객체의 움직임에 따른 조명부(200)와의 상대적인 거리 변화, 객체의 이동 각도, 이동 방향 등을 감지하여 이를 조명 제어 모듈(300)로 제공한다.
도 3은 도 1의 조명 시스템 중 레이더의 세부 구성을 도시한 블록도이다.
도시된 바와 같이, 레이더(110)는 전자파를 송신하는 송신부(111)와, 송신파가 객체에 의해 반사되어 돌아오는 반사파를 수신하는 수신부(113)와, 송신파와 반사파의 주파수 차이를 기초로 비트수신신호를 생성하는 신호생성부(115)와, 아날로그의 비트수신신호를 디지털 신호로 변환하는 디지털변환부(ADC)(117)를 포함하여 이루어질 수 있다.
신호 생성부(115)는 송신부(111)를 통하여 송신된 전자파와 수신부(113)를 통하여 입력된 반사파를 곱하여 비트 신호를 생성할 수 있다. 이때, 생성된 비트수신신호는 레이더(110)와 객체 사이의 거리에 대한 정보와 객체의 상대 속도, 객체의 상대 각도에 대한 정보를 포함할 수 있다.
디지털 변환부(117)는 신호생성부(115)에서 생성된 비트수신신호를 특정 샘플링 주파수를 이용하여 샘플링함으로써 디지털 신호를 생성할 수 있다.
조명 제어 모듈(300)은 레이더(110)의 감지 결과에 기초하여 다양한 방식으로 조명부(200)를 제어한다. 예컨대, 조명 제어 모듈(300)은 감지 영역 내 객체가 감지되면 조명부(200)를 턴온 시키고, 객체와 센서부(100)와의 거리에 따라 조명부(200)의 밝기 또는 조명부(200)의 점등 시간을 제어할 수 있다.
도 4는 도 1의 조명 시스템 중 조명 제어 모듈의 세부 구성을 도시한 블록도이다.
도 4를 참조하면, 조명 제어 모듈(300)은 레이더(110)로부터 전송된 디지털 변환 신호에서 미리 정해진 임계값 이상의 신호를 선별하는 필터링부(310)와, 선별된 신호를 미리 정해진 단위 시간으로 구획하는 윈도잉부(320)와, 윈도잉부(320)에 의해 구획된 단위 시간의 신호를 소정의 주파수 영역의 신호로 변환하는 고속푸리에변환부(330)와, 고속푸리에변환부(330)에 의해 변환된 신호로부터 잡음에 대응하는 클러터를 처리하는 클러더 처리부(340), 클러터가 제거된 신호부터 유효 주파수의 대역(spectrum)과 유효 주파수 별로 주파수의 크기(magnitude)를 추정하고 추정된 주파수 신호 중 객체에 대한 주파수를 선택하는 CFAR 적용부(350), 선택된 주파수에서 도플러 주파수 대역 및 피크 주파수를 연산하여 객체를 판단하는 객체 판단부(360)와, 객체 주파수 및 객체 주파수의 크기를 기초로 객체의 속도를 계산하는 속도 산출부(370) 및 객체의 거리 또는 속도에 기초하여 조명부(200)의 밝기를 제어하는 조명 제어부(380)를 포함할 수 있다.
필터링부(310)는 디지털 변환 신호에서 임계값 이상의 신호를 선택하고, 선택된 신호에 필요한 경우, 일정한 DC 오프셋 보상을 수행할 수 있다. 즉, 필터링부(310)는 수신되는 신호에서 1차적으로 유효한 신호를 필터링한다.
윈도잉부(320)는 선별된 디지털 신호를 인덱스로 활용할 수 있을 만큼의 짧은 단위 시간으로 구획하는 것이 바람직하다.
고속푸리에변환부(330)는 레이더(110)와 객체 간의 거리를 측정하기 위하여 수신부(113)으로부터 수신된 디지털 신호에 대하여 소정 영역 내의 주파수 변환을 수행할 수 있다.
클러터 처리부(340)는 주파수 변환된 신호에 포함되어 있는 잡음의 일종인 클러터를 제거하여 타겟 객체를 보다 효과적으로 검출할 수 있도록 한다. 클러터 처리부(340)는 도플러 신호를 이용하여 한계 레벨, 즉 소정의 임계값을 구하고, 이러한 임계값을 적용하여 객체가 아닌 배경으로 추정되는 배경 클러터 맵을 업데이트 하고 초기화 할 수 있다. 클러터 처리부(340)는 수신된 신호와 배경 클러터 맵과의 차를 계산하는 연산을 통하여 클러터 신호가 배제된 타겟 비트 주파수를 출력할 수 있다.
CFAR(Constant False Alarm Rate) 적용부(350)는 클러터 처리부(340)에서 출력된 신호에 CFAR 탐지를 적용하여 레이더(110)로부터 객체까지의 거리에 대응하는 레인지 빈을 구할 수 있다.
CFAR 적용부(350)는 주파수 영역의 변환 신호로부터 주파수의 크기가 급작스럽게 변화하는 피크를 검출하고, 이미 저장되어 있는 일정한 주파수 패턴과 비교하여 객체에 대한 비트 주파수를 파악할 수 있다.
이를 위하여 CFAR 적용부(350)는 주파수 변환이 이루어진 데이터 신호에서 일정 파워 이상의 피크 값을 갖는 거리 빈, 즉 레인지 빈(Range bin)을 추출할 수 있다. 또는 특정한 피크 값을 갖는 레인지 빈의 인덱스를 추출할 수 있다. 레인지 빈이란 임의 방위각으로부터 수신한 레이더 신호를 단위 거리 별로 처리할 때 기본이 되는 하나의 자료 세포를 일컫는 것으로, 레인지 게이트라고도 한다. 레이더(110)를 시작점으로 하여 일정 거리 별로 하나씩의 레인지 빈이 존재할 수 있다.
객체 판단부(360)는 CFAR 적용부(350)의 결과에 따른 타겟, 즉 객체의 레인지 빈에 기초하여 도플러 주파수 대역 및 피크 주파수의 개수를 연산하여 최종적으로 센싱의 대상이 되는 객체를 판단할 수 있다. 즉, 객체 판단부(360)는 주파수 스펙트럼의 유효 주파수 대역 중 객체를 탐지하기 위한 탐지 주파수 대역을 결정하고, 주파수 스펙트럼의 피크값 중 객체를 탐지하기 위한 객체 탐지 피크값을 결정하기 위한 임계값을 결정하고, 이러한 주파수 대역 및 피크값에 기초하여 센싱할 객체에 대한 신호를 출력한다.
윈도잉부(320), 고속푸리에변환부(330), 클러터 처리부(340) 및 CFAR 적용부(350)는 필터링부(310)에 의해 선택된 수신 신호로부터 객체 비트 주파수가 선택될 때까지 반복적으로 수행될 수 있다.
속도산출부(370)는 CFAR 적용부(350)에서 객체에 대한 주파수가 선택되면 객체에 대한 주파수(frequency)-크기(magnitude)값을 식별하고, 특정한 시간 영역의 변환값을 객체의 속도로 설정할 수 있다.
본 실시예에 따른 조명 제어부(380)는 기본적으로 객체와 센서부(100)와의 거리가 가까워질수록 조명부(200)의 밝기를 높이고, 객체와 센서부(100)와의 거리가 멀어질수록 조명부(200)의 밝기를 낮추는 제어를 수행할 수 있다.
도 2와 같이, 가로등을 밑을 지나가는 보행자가 객체인 경우, 사람이 조명부(200)에 접근할수록 밝기를 점진적으로 높여 사용자에게 밝은 조명을 제공하고, 사람이 조명부(200)로부터 멀어질수록 밝기를 점진적으로 낮추는 디밍을 할 수 있다.
또한, 조명 제어부(380)는 속도산출부(370)에서 측정된 객체의 이동 속도에 따라 조명부(200)의 밝기 변화률을 조절할 수 있다. 보행자 또는 동물이 조명부(200)를 향하여 뛰어 온다든가, 보행자가 자건거를 타고 있는 것과 같이 객체의 속도 변화가 큰 경우, 또는 객체가 자동차인 경우 속도 변화가 크다. 조명 제어부(380)는 이러한 이동 속도를 고려하여 조명의 디밍 변화률을 제어할 수 있다.
또는 본 발명의 다른 실시예에 따른 조명 제어부(380)는 객체의 이동 방향에 따라 조명부(200)가 객체를 비추는 빛의 방향을 조절할 수도 있다.
본 발명에 따른 레이더(110)는 객체의 이동 속도 및 거리뿐만 아니라 레이더(110)와 객체 간의 상대적인 이동 방향도 감지할 수 있다. 레이더(110)와 조명부(200) 간의 상대적인 각도를 기준으로 객체의 움직임에 따른 조명부(200)와 객체 간의 방향 변경 역시 감지될 수 있고, 이를 반영하여 조명의 조향을 변경하는 것이 가능하다.
예를 들어, 조명부(200)가 CCTV와 함께 설치되어 있다면, 감지하고자 하는 객체의 이동에 따라 조명부(200)와 CCTV가 함께 움직일 수 있다. 이를 통해 객체에는 보다 효과적으로 조명을 제공할 수 있고, CCTV는 보다 선명한 촬영 영상을 획득할 수 있다.
도 5는 본 발명의 일 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다. 도 5를 참조하여 본 실시예에 따른 조명 방법을 정리하면 다음과 같다.
우선, 레이더(110)를 이용하여 일정한 감지 영역 내의 객체를 감지한다(S510).
본 발명과 같이, 객체 감지를 위하여 레이더(110)를 이용하는 경우, 객체의 이동 거리, 속도, 방향 및 고도에 대한 정확한 측정이 가능하고, 기상 악화 같은 주변 환경 또는 주야에 영향을 받지 않으므로, 레이더(110)는 옥외의 환경에서 객체를 감지하기에는 최적의 센서이다. 기존의 초음파 센서 또는 PIR(Pyroelectric Infrared Sensor) 센서와 같은 광학 수단은 안개 또는 비로 인한 습도에 민감하기 때문에 객체를 감지하는 객체 인식율이 높지 않았다. 레이더(110)는 이러한 단점을 보완할 수 있는 센서이다.
감지 영역에 객체가 진입한 것으로 감지되면, 조명 제어 모듈(300)은 객체에 빛을 비추기 위하여 조명부(200)를 턴온한다(S520).
레이더(110)는 감지된 객체가 이동하는지 여부, 즉 레이더(110)와 객체 간의 이동 거리 및 속도를 센싱할 수 있다(S530).
만약, 객체와 센서부(100)와의 거리가 가까워지면(S540), 조명 제어 모듈(300)은 조명부(200)의 밝기를 증가시킬 수 있다(S560).
한편, 객체와 센서부(100)와의 거리가 가까워지지 않고, 일정한 거리를 유지한다면 조명 제어 모듈(300)은 조명부(200)의 밝기를 유지하거나 혹은 감소시키다가 일정 시간이 경과하면, 조명부(200)를 턴오프 할 수 있다(S550).
또는 객체와 센서부(100)와의 거리가 가까워지지 않고 반대로 객체와 센서부(100)와의 거리가 멀어지면(S570), 객체에게 조명이 필요 없을 가능성이 크므로, 조명 제어 모듈(300)은 조명부(200)의 밝기를 감소시킬 수 있다(S580).
이 경우에도, 일정한 시간이 지나면 조명 제어 모듈(300)은 조명부(200)를 턴오프 시킬 수 있다(S590).
상술된 조명의 제어는 다양한 방식으로 변경될 수 있고, 레이더(110)가 감지한 객체의 이동이나 속도 또는 방향에 따라 조명의 디밍이 제어되는 것이라면 상술된 디밍 방법에 한정되지 않는다.
도 6은 본 발명의 다른 실시예에 따른 조명 시스템의 블록도이다.
도시된 바와 같이, 본 실시예에 따른 조명 시스템의 센서부(100)는 레이더(110) 외에 카메라(120)를 더 포함할 수 있다.
레이더(110)는 객체를 인식하고 움직임을 감지할 수 있지만, 객체의 종류를 판독하는데 어려움이 있다. 따라서, 본 실시예에 따른 조명 시스템은 객체의 종류를 식별하고 식별된 객체에 대응하여 보다 정밀한 조명 제어를 수행하기 위하여 객체를 촬영하기 위한 카메라(120)와, 촬영된 영상을 저장하고 재생 및 분석할 수 있는 영상 분석 모듈(400)을 추가적으로 포함할 수 있다.
카메라(120)는 캠코더, CCTV, 디지털 카메라 등으로 구현될 수 있으며, 본 발명에 따를 경우, 카메라(120)는 옥외 또는 거리에 설치되어 있는 조명부(200) 또는 레이더(110)와 인접하게 설치될 수 있다.
또는 객체를 감지하기 위한 레이더(110)는 객체가 이동하는 지면으로부터 일정한 높이로 이격되어 설치되고, 객체를 촬영하는 카메라(120) 및 빛을 제공하는 조명부(200)는 객체 가까이에 설치될 수도 있다. 또한, 카메라(120)와 조명부(200)는 복 수개가 서로 다른 장소에 설치될 수 있고, 각 장소에서 감지된 객체에 따라 조명부(200)가 서로 다르게 제어될 수 있다.
영상 분석 모듈(400)은 카메라(120)로부터 촬영된 영상을 분석하여 객체를 판단하고, 특정 컬러 또는 전체 영상 프레임 중 관심 영역에 대한 분석을 수행한다.
도 7은 본 발명의 다른 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다.
레이더(110)가 객체의 존재 여부를 감지하고, 객체의 움직임을 감지하면(S710), 조명부(200)가 턴온되고, 카메라(120)에 의하여 감지 영역이 촬영 및 녹화된다(S720).
카메라에 의하여 촬영된 영상은 사용자의 선택에 따라 언제든 재생될 수 있고 다운로드 될 수 있다.
레이더(110)에 의하여 감지된 객체의 속도가 기설정된 기준값을 초과하는지 여부가 판단될 수 있고(S730), 객체의 속도가 기준값보다 작으면, 영상 분석 모듈(400)의 영상 분석 결과를 포함하여 최종적으로 객체가 사람 또는 동물인지 여부가 판단될 수 있다(S740).
감지 영역 내 객체가 사람 또는 동물과 같은 보행체로 판단되면 조명 제어 모듈(300)은 조명부(200)에 대하여 제1 디밍 제어를 수행할 수 있다(S750).
제1 디밍 제어란, 도 2에 설명된 바와 같이, 사람 또는 동물과 센서부(100)와의 거리가 가까워 질수록 조명부(200)의 밝기를 높이고, 사람 또는 동물과 센서부(100)와의 거리가 멀어질수록 조명부(200)의 밝기를 낮추는 것일 수 있다.
추가적으로, 영상 분석 모듈(300)은 촬영된 객체 영상과 기 저장되어 있는 객체 영상을 비교하여 촬영된 객체와 기저장되어 있는 객체의 동일성 여부를 판단할 수 있다. 예를 들어, 카메라(120)가 집 앞 출입문에 인접하게 설치되어 있는 CCTV 라면, 출입이 허용되는 사람에 대한 영상이 미리 저장될 수 있고, 촬영된 사람이 출입이 허용된 사람인지 여부가 판단될 수 있다. 이를 통해, 외부인의 무단 접근 또는 주거 침입이 감지될 수 있고, 이러한 상황에 대비할 수 있다. 만약, 외부인의 접근 또는 침입이 감지된다면, 이를 사용자에게 알리거나 외부의 보안 기관에 알리는 제어가 추가적으로 수행될 수도 있다.
감지 영역 내 객체가 동물로 판단되면, 조명 제어 모듈(300)은 객체가 사람일 때와 유사하게 조명부(200)에 대하여 제1 디밍 제어를 수행할 수 있다.
예컨대, 카메라(120)로 동물을 관찰하기 위하여 조명이 필요한 경우, 동물이 감지 영역을 벗어나지 않도록 조명을 제어하는 것이 필요하다. 조명부(200)의 밝기가 너무 높거나 갑자기 조명이 턴온되면 동물이 놀라서 감지 영역을 이탈할 수도 있다. 이런 경우, 조명부의 낮은 밝기로 턴온 후 느린 속도로 조명부(200)의 밝기를 높일 수도 있고, 동물이 조명부(200)와 멀어지면 조명부(200)의 밝기를 서서히 낮출 수 있다. 즉, 객체가 동물로 감지되고 동물의 연속적인 촬영이 필요한 경우, 이러한 동물의 움직임을 고려하여 조명부(200)의 밝기 및 디밍 속도가 제어될 수 있다.
한편, 객체의 속도가 기준값 보다 크고, 영상 분석 모듈(400)에 의하여 감지된 객체가 자동차인 것으로 판단되면(S760). 조명 제어 모듈(300)은 제2 디밍 제어를 수행할 수 있다(S770).
제2 디밍 제어는 자동차와 센서부(100)와의 거리가 가까워 질수록 조명부(200)의 밝기를 높이고, 자동차와 센서부(100)와의 거리가 멀어질수록 조명부(200)의 밝기를 낮추는 기본 제어에, 자동차의 속도에 따라 조명부(200)의 밝기 변화률을 조절하는 제어가 추가될 수 있다. 자동차의 속도가 일정값 이상으로 급격하게 변화되면 조명부(200)의 밝기를 최대로 높인 다든지, 속도가 감소된다면 조명부(200)의 밝기 변화률을 낮춘 다든지 하는 제어가 수행될 수 있다.
또는 조명부(200)로 다가오는 자동차의 헤드램프(전조등)에서 송출되는 빛으로 인하여 카메라 촬영이 어려워지는 경우, 카메라(120) 셔터 스피드는 기 설정된 값 이상으로 증가되고, 조명 제어 모듈(300)은 카메라(120)의 촬상 소자 노출 시간 동안에만 조명부(200)를 턴온 시킬 수 있다(S780).
객체를 촬영하는 카메라(120)가 CCTV 카메라인 경우, 전조등보다 조명부(200)의 밝기가 약하면, 자동차 전조등 불빛에 의하여 카메라 촬상 소자가 빛에 너무 많이 노출되어 카메라(120)의 영상이 일시적으로 하얗게 변하거나 야간에 전조등을 껐을 경우 자동차가 보이지 않게 된다.
이러한 문제를 개선하기 위하여, 객체의 속도 및 영상 분석으로 인하여 감지된 객체가 자동차이고, 자동차와 센서부(100)와의 거리가 일정 범위 내인 것으로 판단되면 카메라 셔터 스피드를 증가시켜 카메라 촬상 소자의 노출 시간을 제어한다. 또한, 카메라(120)의 촬상 소자의 노출 시간 동안에만 조명부(200)를 턴온 시킴으로써 조명부(200)에서 소요되는 전력을 감소시킬 수 있다.
이는 카메라 노출 시간을 조절하여 자동차 전조등 불빛을 상쇄하는 제어이며, 자동차 전조등 불빛을 상쇄하기 위하여 조명부(200)의 밝기를 제어하는 제어가 수행될 수도 있다.
도 8은 본 발명의 다른 실시예에 따른 영상 분석 모듈의 세부 구성을 도시한 블록도이다.
도 8과 같이, 본 실시예에 따른 영상 분석 모듈(400)은 윈도우 설정부(410), 외각 검출부(420), 검색 영역 재설정부(430), 색공간 변환부(440), 관심 컬러 설정부(450), 히스토그램 분석부(460), RGB 유사도 계산부(470), HSV 유사도 계산부(471) 및 관심 컬러 검출부(480)를 포함할 수 있다.
영상 분석 모듈(400)은 카메라(120)에 의하여 객체가 차량으로 감지되면, 차량의 전면부를 관심 영역으로 설정하고, 차량 번호판을 구성하는 흰색, 녹색 또는 검은 색을 관심 컬러로 설정하여 차량의 번호판을 판독할 수 있다.
윈도우 설정부(410)는 전체 프레임의 영상 중 특정 영역 예를 들면, 차량에 해당하는 부분의 영역을 윈도잉하고, 외각 검출부(420)는 Canny edge 검출 알고리즘과 같이 에지를 검출하는 알고리즘을 적용하여 객체의 최외각을 검출한다.
이렇게 분석할 객체의 최외각이 검출되면, 검색 영역 재설정부(430)에 의하여 차량의 전면부가 검색 영역으로 재 설정될 수 있다.
색공간 변환부(440)는 RGB 색공간으로 촬영된 영상을 HSV(색상(Hue), 채도(Saturation), 명도(Value)) 색공간으로 변환한다.
히스토그램 분석부(460)는 RGB 색공간 및 HSV 색공간에서 검색 영역에 대한 히스토그램을 분석할 수 있다. 히스토그램이란 영상의 밝기 값에 대한 분포를 보여주는 그래프이며, 이를 통해 영상의 밝기 구성, 명암의 대비 등에 대한 정보를 획득할 수 있다. 또한, 이러한 히스토그램 분석을 통하여 객체의 형상을 인식하거나 객체가 촬영되는 환경의 조명을 제어할 수 있다. 또한, 히스토그램의 형태를 분석하여 영상의 이치화를 수행할 수 있다. 영상의 이치화를 통하여 자동차 번호판의 인식이 가능해진다.
이러한 히스토그램 분석 시 관심 컬러 설정부(450)로부터 특정 컬러가 적용된 관심 대상 영역에 대한 정보가 제공될 수 있다. 예를 들면, 관심 컬러는 흰색 및 검은색, 또는 초록색 및 검은 색으로 설정될 수 있고, 영상 중에 이러한 컬러에 해당하는 부분이 관심 대상 영역으로 설정될 수 있다. 차량의 번호판 부분이 관심 영역으로 설정될 수 있다.
히스토그램 분석이 완성되면 각 색공간에서 유사도가 계산된다. RGB 유사도 계산부(470)는 기준 RGB 색공간 맵과 촬영된 RGB 색공간의 구성을 대비하여 두 색공간에 대한 이미지 유사도를 계산하고, HSV 유사도 계산부(471)는 기준 HSV 색공간 맵과 촬영된 HSV 색공간의 구성을 대비하여 두 색공간에 대한 이미지 유사도를 계산한다.
기준 색공간 맵과 촬영된 영상의 색공간 유사도를 계산함으로써 특정 색상에 대한 맵을 기준으로 촬영된 영상의 색상 거리, 즉 유사도가 측정될 수 있다.
하나의 색공간 맵 유사도 계산을 통하여 관심 영역에 대한 컬러를 판단할 수도 있지만, 본 실시예에 따르면 두 개의 색공간 유사도를 계산하여 영상 분석의 효과를 높일 수 있다.
이렇게 각 색공간에 대한 유사도가 판단되면, 관심 컬러 검출부(480)는 색공간 유사도와 특정 대상 임계값과 비교를 통하여 특정 컬러를 검출할 수 있다. 상술된 바와 같이, 색공간의 유사도와 임계값을 비교하여 촬영된 영상을 흰색과 검은색으로만 인식할 수도 있고, 초록색과 검은 색으로만 인식할 수 있다. 즉, 영상 유사도에 임계값을 적용하여 영상을 이원화 할 수 있고, 이런 경우, 두 가지 색상으로 이루어진 차량 번호판의 인식이 효과적으로 이루어질 수 있다.
도 9는 본 발명의 또 다른 실시예에 따른 조명 시스템의 블록도이다.
도시된 바와 같이, 조명 시스템은 센서부(100)에 객체 감지를 위하여 PIR 또는 초음파 센서(130)를 포함한다.
PIR 센서는 인체 감지 센서로 적외선 센서의 일종이다. PIR 센서는 객체에서 방사되는 적외선의 변화량을 감지하여 객체, 주로 사람의 존재 유무를 감지할 수 있다.
초음파 센서는 비접촉 방식으로 물체를 감지하거나 객체와 초음파 센서로부터의 거리를 측정할 수 있으며, 센서의 타입에 따라 몇 센티미터로부터 최대 10미터까지 객체 감지가 가능하다.
본 실시예에 따른 PIR 또는 초음파 센서(130)는 감지 영역에 객체가 존재하는지 여부, 즉 객체의 존재 여부를 감지하고, 객체가 존재하는 것으로 판단되면 레이더(110)가 후속적으로 객체를 감지할 수 있도록 트리거하는 역할을 한다.
도 10은 본 발명의 또 다른 실시예에 따른 조명 방법을 설명하기 위한 흐름도이다.
우선, PIR 센서 또는 초음파 센서(130)를 이용하여 객체를 감지하고, 레이더(110)를 트리거 한다(S1010).
즉, 감지 영역 내 객체가 감지될 때까지 레이더(110)는 작동되지 않고 있다가 객체의 존재가 감지되면 레이더(110)에 의하여 후속적으로 객체의 움직임이 감지될 수 있다.
객체가 감지되면, 조명 제어 모듈(300)에 의하여 조명이 턴온된다(S1020).
조명이 턴온되면, 그 때부터 카메라(120)에 의한 영상이 촬영 및 녹화될 수 있고, 도 6 내지 도 8을 이용하여 설명된 영상 분석 방법이 적용될 수 있다.
PIR 또는 초음파 센서(130)에 의하여 레이더(110)가 동작하게 되면, PIR 또는 초음파 센서(130)에 의한 센싱 동작은 멈출 수 있다.
레이더(110)는 객체의 움직임에 따른 객체의 거리, 속도, 방향 등을 감지할 수 있고(S1030), 레이더(110) 감지 결과와 카메라(120)로부터 분석된 영상에 기초하여 조명 제어 모듈(300)은 조명부(200)의 밝기를 조절할 수 있다(S1040).
한편, 상술된 센서부(100), 조명부(200), 조명 제어 모듈(300) 및 영상 분석 모듈(400)은 서로 개별적인 장치로 구현될 수 있고, 각 구성들은 블루투스(blutooth), 지그비(zigbee), 와이파이(wifi) 등의 근거리 무선통신망으로 연결되거나 이더넷(ethernet 또는 LAN) 등의 유선통신망을 통하여 신호들을 송수신할 수 있다.
센서부(100)와 조명부(200)는 서로 인접하게 위치할 수 있으며, 레이더 또는 객체 감지센서로부터 감지 신호를 수신하고 촬영된 영상을 분석하는 조명 제어 모듈(300) 및 영상 분석 모듈(400)은 각각 개별적인 서버 또는 PC 장치로 구현될 수 있다. 또는 조명 제어 모듈(300) 및 영상 분석 모듈(400)은 하나의 서버 내에서 통신을 통하여 신호를 송수신하는 것으로 구현될 수 있다.
또는 조명 제어 모듈(300) 및 영상 분석 모듈(400)은 사용자 단말, 예컨대 휴대용 전화기, 태블릿 PC와 같은 휴대용 전자기기로 구현될 수도 있다. 이 경우, 카메라에서 촬영된 영상이 사용자 단말에 저장될 수 있고 사용자 단말에 구비되어 있는 디스플레이부를 통하여 촬영된 영상이 표시될 수 있다. 또한, 사용자는 단말의 조작을 통하여 조명의 디밍 제어 방법을 조절하거나 영상 분석을 위한 다양한 조건을 변경할 수도 있다.
이와 같이, 본 발명의 조명 시스템에 따르면, 객체의 감지뿐만 아니라 이동 및 속도 측정에 효과적이고, 안개, 비 등과 같은 기상 악화에도 객체의 감지력이 뛰어 나기 때문에 조명의 디밍 제어에 효과적이다. 또한, CCTV와 같은 카메라 센서를 함께 이용함으로써 타겟 객체에 대한 촬영 및 그에 따른 응용적인 제어가 가능한 장점이 있다.
이상에서 설명한 조명 시스템 및 조명 방법의 부분적 기능들은 이를 구현하기 위한 명령어들의 프로그램이 유형적으로 구현됨으로써 컴퓨터를 통해 판독될 수 있는 기록매체에 포함되어 제공될 수도 있음을 당업자들이 쉽게 이해할 수 있을 것이다. 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 상기 컴퓨터 판독 가능한 기록매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, USB 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 상기 컴퓨터 판독 가능한 기록매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수도 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 외에도, 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며 그 반대도 마찬가지이다.
또한 본 발명은 위에서 설명한 실시예들에 한정되지 아니하며, 적용범위가 다양함은 물론이고 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 다양한 변형 실시가 가능한 것은 물론이다.

Claims (12)

  1. 조명부;
    기 설정된 감지 영역 내 객체의 존재 여부 및 상기 객체와의 거리를 감지하는 레이더를 포함하는 센서부; 및
    상기 감지 영역 내 상기 객체가 감지되면 상기 조명부를 턴온 시키고, 상기 객체와 상기 센서부와의 거리에 따라 상기 조명부의 밝기를 제어하는 조명 제어 모듈
    을 포함하는 것을 특징으로 하는 조명 시스템.
  2. 제1항에 있어서,
    상기 조명 제어 모듈은 상기 객체와 상기 센서부와의 거리가 가까워 질수록 상기 조명부의 밝기를 높이고, 상기 객체와 상기 센서부와의 거리가 멀어질수록 상기 조명부의 밝기를 낮추는 것을 특징으로 하는 조명 시스템.
  3. 제1항에 있어서,
    상기 레이더는 상기 객체의 이동 속도를 더 감지하고,
    상기 조명 제어 모듈은 상기 이동 속도에 따라 상기 조명부의 밝기 변화률을 조절하는 것을 특징으로 하는 조명 시스템.
  4. 제1항에 있어서,
    상기 레이더는 상기 객체의 이동 방향을 더 감지하고,
    상기 조명 제어 모듈은 상기 이동 방향에 따라 상기 조명부가 상기 객체를 비추는 빛의 방향을 조절하는 것을 특징으로 하는 조명 시스템.
  5. 제1항에 있어서,
    상기 센서부는,
    상기 감지된 객체를 촬영하는 카메라와, 상기 카메라에서 촬영된 영상을 분석하는 영상 분석 모듈을 더 포함하고,상기 레이더는 상기 객체의 이동 속도를 더 감지하고,
    상기 객체와 상기 센서부와의 거리가 가까워지고, 상기 객체의 이동 속도가 기 설정된 기준값 이상이면,
    상기 카메라의 셔터 스피드는 기 설정된 값 이상으로 증가되고,
    상기 조명 제어 모듈은 상기 카메라의 촬상 소자 노출 시간 동안 상기 조명부를 턴온 시키는 것을 특징으로 하는 조명 시스템.
  6. 제1항에 있어서,
    상기 센서부는 PIR 센서 또는 초음파 센서를 더 포함하고,
    상기 PRI 센서 또는 상기 초음파 센서가 상기 객체의 존재 여부를 판단하고,
    상기 PRI 센서 또는 상기 초음파 센서가 상기 객체의 존재 여부를 판단하면, 상기 레이더가 상기 객체의 움직임을 감지하는 것을
    특징으로 하는 조명 시스템.
  7. 레이더와 조명부를 이용한 조명 방법에 있어서,
    상기 레이더를 이용하여 기 설정된 감지 영역 내 객체의 존재 여부 및 상기 객체와 상기 레이더와의 거리를 감지하는 감지 단계와;
    상기 감지 영역 내 상기 객체가 감지되면, 상기 조명부를 턴온시키는 조명 턴온 단계와;
    상기 객체와 상기 레이더와의 거리에 따라 상기 조명부의 밝기 또는 상기 조명부의 점등 시간을 제어하는 조명 제어 단계를 포함하는 것을 특징으로 하는 조명 방법.
  8. 제7항에 있어서,
    상기 조명 제어 단계는 상기 객체와 상기 센서부와의 거리가 가까워 질수록 상기 조명부의 밝기를 높이고, 상기 객체와 상기 센서부와의 거리가 멀어질수록 상기 조명부의 밝기를 낮추는 것을 특징으로 하는 조명 방법.
  9. 제7항에 있어서
    상기 감지 단계는 상기 객체의 이동 속도를 더 감지하고,
    상기 조명 제어 단계는 상기 이동 속도에 따라 상기 조명부의 밝기 변화률을 조절하는 것을 특징으로 하는 조명 방법.
  10. 제7항에 있어서,
    상기 감지 단계는 상기 객체의 이동 방향을 더 감지하고,
    상기 조명 제어 단계는 상기 이동 방향에 따라 상기 조명부가 상기 객체를 비추는 빛의 방향을 조절하는 것을 특징으로 하는 조명 방법.
  11. 제7항에 있어서,
    상기 감지 단계는 상기 객체의 이동 속도를 더 감지하고,
    상기 객체를 촬영하는 단계와;
    상기 객체와 상기 레이더와의 거리가 가까워지고, 상기 객체의 이동 속도 기 설정된 기준값 이상인지 여부를 판단하는 단계와;
    상기 이동 속도가 상기 기준값 이상이면, 영상을 촬영하는 카메라의 셔터 스피드를 기 설정된 값 이상으로 증가시키는 단계를 더 포함하고,
    상기 조명 제어 단계는 상기 카메라의 촬상 소자 노출 시간 동안 상기 조명부를 턴온 시키는 것을 특징으로 하는 조명 방법.
  12. 제7항 내지 제11항의 조명 방법의 각 단계를 알고리즘으로 구현한 컴퓨터 프로그램을 저장하는 기록매체.
PCT/KR2020/006474 2019-05-23 2020-05-18 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체 WO2020235897A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190060443A KR20200134669A (ko) 2019-05-23 2019-05-23 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체
KR10-2019-0060443 2019-05-23

Publications (1)

Publication Number Publication Date
WO2020235897A1 true WO2020235897A1 (ko) 2020-11-26

Family

ID=73458735

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/006474 WO2020235897A1 (ko) 2019-05-23 2020-05-18 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체

Country Status (2)

Country Link
KR (1) KR20200134669A (ko)
WO (1) WO2020235897A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220258864A1 (en) * 2021-02-17 2022-08-18 Gulfstream Aerospace Corporation Occupant tracking lighting system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102271510B1 (ko) * 2020-12-09 2021-07-01 한국건설기술연구원 Tvws 통신을 이용한 가로등 연계형 영상 제어 장치 및 이의 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551374B1 (ko) * 2014-03-19 2015-09-09 홍익대학교 산학협력단 Pir센서 및 ip네트워크 카메라 기반 융합 보안 시스템 및 방법
KR101625538B1 (ko) * 2015-07-16 2016-06-13 비원이미지 주식회사 도시방범이 가능한 다차선 자동차 번호판 인식시스템
KR20160086506A (ko) * 2015-01-09 2016-07-20 주식회사 에스원 다리 난간의 추락 탐지 시스템 및 이를 이용한 추락 탐지 방법
KR20160129347A (ko) * 2015-04-30 2016-11-09 주식회사 코프 지능형 가로등 제어 시스템 및 그 방법
KR20180087736A (ko) * 2017-01-25 2018-08-02 세광전기(주) 가로등 조명장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180103596A (ko) 2017-03-10 2018-09-19 디엠테크 주식회사 영상 감시가 가능한 지능형 보안등 제어시스템
KR101871119B1 (ko) 2017-11-02 2018-06-26 주식회사 가보테크 이종의 감지수단을 이용한 가로등의 디밍제어 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551374B1 (ko) * 2014-03-19 2015-09-09 홍익대학교 산학협력단 Pir센서 및 ip네트워크 카메라 기반 융합 보안 시스템 및 방법
KR20160086506A (ko) * 2015-01-09 2016-07-20 주식회사 에스원 다리 난간의 추락 탐지 시스템 및 이를 이용한 추락 탐지 방법
KR20160129347A (ko) * 2015-04-30 2016-11-09 주식회사 코프 지능형 가로등 제어 시스템 및 그 방법
KR101625538B1 (ko) * 2015-07-16 2016-06-13 비원이미지 주식회사 도시방범이 가능한 다차선 자동차 번호판 인식시스템
KR20180087736A (ko) * 2017-01-25 2018-08-02 세광전기(주) 가로등 조명장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220258864A1 (en) * 2021-02-17 2022-08-18 Gulfstream Aerospace Corporation Occupant tracking lighting system
CN114940265A (zh) * 2021-02-17 2022-08-26 湾流航空航天公司 乘员跟踪照明***
US11866174B2 (en) * 2021-02-17 2024-01-09 Gulfstream Aerospace Corporation Occupant tracking lighting system
CN114940265B (zh) * 2021-02-17 2024-05-31 湾流航空航天公司 乘员跟踪照明***

Also Published As

Publication number Publication date
KR20200134669A (ko) 2020-12-02

Similar Documents

Publication Publication Date Title
WO2020235897A1 (ko) 레이더를 이용한 조명 시스템, 조명 방법 및 이를 위한 컴퓨터 프로그램이 저장된 기록매체
US6246321B1 (en) Movement detector
KR101387628B1 (ko) 출입 통제 통합 영상 저장 장치
KR102281918B1 (ko) 다중센서 기반 객체 감지를 통한 스마트 조명 시스템
CN1725266A (zh) 基于视频触发和测速的车辆智能监测记录***和方法
US20170076588A1 (en) Intrusion detection with motion sensing
KR101625538B1 (ko) 도시방범이 가능한 다차선 자동차 번호판 인식시스템
WO2019182355A1 (ko) 열화상센서를 갖는 스마트폰, 차량, 카메라 및 이를 이용한 디스플레이 및 감지 방법
WO2013073783A1 (ko) 가변식 보조광원이 설치된 cctv 카메라
KR20180103596A (ko) 영상 감시가 가능한 지능형 보안등 제어시스템
WO2021251562A1 (ko) 보행신호등 주변의 위반차량 무인단속시스템
KR102434154B1 (ko) 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법
CN112837462B (zh) 一种人脸识别门禁***及门禁***控制方法
CN205318623U (zh) 智能红绿灯交通控制***
CA2250927A1 (en) An aircraft detection system
JP7077282B2 (ja) インテリジェント路側ユニットおよびその情報処理方法
CN2718699Y (zh) 基于视频触发和测速的车辆智能监测记录***
CN208506918U (zh) 一种智能安防***
KR20100081500A (ko) 자동문의 구동을 제어하기 위한 적외선 센서 시스템 및 이를 이용한 적외선 센싱 방법
KR101653264B1 (ko) 차량 감시 시스템 및 감시방법
KR20150085338A (ko) 임펄스 레이더를 이용한 주차장 자동 제어 시스템
US20200134873A1 (en) Image processing device, computer program, and image processing system
KR20140078088A (ko) Cctv 카메라를 이용한 차량번호 자동인식 시스템
WO2010097211A1 (en) Method and device for monitoring the state of a traffic light
CN105072738A (zh) 基于视觉的集散式智能照明与安防控制***及控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20809836

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20809836

Country of ref document: EP

Kind code of ref document: A1