KR102423414B1 - System and method for controlling security robot - Google Patents

System and method for controlling security robot Download PDF

Info

Publication number
KR102423414B1
KR102423414B1 KR1020200105551A KR20200105551A KR102423414B1 KR 102423414 B1 KR102423414 B1 KR 102423414B1 KR 1020200105551 A KR1020200105551 A KR 1020200105551A KR 20200105551 A KR20200105551 A KR 20200105551A KR 102423414 B1 KR102423414 B1 KR 102423414B1
Authority
KR
South Korea
Prior art keywords
security
control
event
area
robots
Prior art date
Application number
KR1020200105551A
Other languages
Korean (ko)
Other versions
KR20220023610A (en
Inventor
박주영
Original Assignee
박주영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박주영 filed Critical 박주영
Priority to KR1020200105551A priority Critical patent/KR102423414B1/en
Publication of KR20220023610A publication Critical patent/KR20220023610A/en
Application granted granted Critical
Publication of KR102423414B1 publication Critical patent/KR102423414B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1682Dual arm manipulator; Coordination of several manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Primary Health Care (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Mechanical Engineering (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Alarm Systems (AREA)

Abstract

경비 로봇 관제 시스템 및 방법을 개시한다. 본 발명은 다수의 영상 촬영 단말로부터 수집한 정보를 기반으로 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어할 수 있다.Disclosed are a security robot control system and method. The present invention analyzes the occurrence of an event based on information collected from a plurality of image capturing terminals, and as the event occurs, the control area of the security robot is dynamically re-established through the creation of an operation mode and scenario linking a plurality of security robots. You can control the guard robot by assigning it.

Description

경비 로봇 관제 시스템 및 방법{System and method for controlling security robot}TECHNICAL FIELD [0002] System and method for controlling security robot

본 발명은 경비로봇 관데 시스템 및 방법에 관한 발명으로서, 더욱 상세하게는 다수의 영상 촬영 단말로부터 수집한 정보를 기반으로 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어하는 경비 로봇 관제 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for guarding robot guards, and more particularly, an operation mode in which the occurrence of an event is analyzed based on information collected from a plurality of video recording terminals, and a plurality of guard robots are linked as the event occurs. and a security robot control system and method for dynamically reallocating the control area of the security robot through the creation of a scenario and controlling the security robot.

일반적으로 특정 공간이나 특정 지역 등 지속적인 감시나 감청 등이 필요한 곳에 사람의 역할을 대신하여 흔히 CCTV(Closed-Circuit TeleVision)라고 불리는 폐쇄회로 TV가 이용되고 있다.In general, a closed circuit TV called CCTV (Closed-Circuit Television) is being used in place of a person's role where continuous monitoring or interception is required, such as a specific space or a specific area.

최근에는 범죄나 각종 사고, 재난 등과 같은 상황에서 CCTV에 의한 영상을 활용하는 빈도가 크게 증가하고 있다.Recently, the frequency of using CCTV images in situations such as crimes, accidents, and disasters has increased significantly.

또한, 범죄나 각종 사고 및 재난 발생시 이를 사전에 파악하여 예방하는 용도로도 활용되고 있어서, CCTV에 대한 관심과 이용이 매우 증가하여 최근에는 일상 생활 곳곳에서 흔히 접할 수 있게 되었다.In addition, since it is used for preventing and detecting crimes or various accidents and disasters in advance, interest in and use of CCTV has increased significantly, and in recent years, it has become common in daily life.

이러한 CCTV를 통해 획득되는 영상은 모니터를 통해 수신되어 다수의 관제사들이 모니터링을 수행하게 된다.The image acquired through such CCTV is received through a monitor, and a plurality of controllers perform monitoring.

그러나, 관제사들이 모니터에 표시되는 영상을 통해 집중해서 관찰해야만 하므로 관제사의 피로도를 증가시키고 주의력을 감소시켜 관제 효율을 저하시키는 문제점이 있다.However, there is a problem in that the controller's fatigue is increased and the attention is reduced, thereby lowering the control efficiency because the controller has to concentrate and observe through the image displayed on the monitor.

한편, 기차역, 터미널, 공항, 관공서, 멀티플렉스 등과 같이 이용객이 많은 장소에는 인공 지능 로봇을 통해 안내 서비스를 제공하는 방안이 논의되고 있다.On the other hand, a method of providing a guide service through an artificial intelligence robot in places with many users, such as train stations, terminals, airports, government offices, and multiplexes, is being discussed.

이러한 기차역, 터미널, 공항, 관공서, 멀티플렉스에서 인공 지능 로봇을 도입하는 경우, 기존의 컴퓨터 시스템이 대체할 수 없었던 사람의 고유 역할을 로봇이 대신 수행할 수 있어, 제공되는 서비스의 양적 및 질적 향상에 기여할 수 있을 것으로 기대된다.When artificial intelligence robots are introduced in train stations, terminals, airports, government offices, and multiplexes, robots can take on the unique roles of humans that cannot be replaced by conventional computer systems, improving the quantity and quality of the services provided. is expected to contribute to

인공 지능 로봇은 사람들이 많이 모이는 다양한 장소에서 사용자에게 길을 알려주는 등의 다양한 동작을 수행할 수 있다.Artificial intelligence robots can perform various actions, such as giving directions to users in various places where people gather.

그러나, 일반적으로, 인공 지능 로봇은 자신에게 할당된 구역에만 위치하고 있어, 사람들의 밀집도가 증가하여 보다 많은 로봇들의 안내 서비스가 필요한 상황에 능동적으로 대처하지 못하는 문제점이 있다.However, in general, since the artificial intelligence robot is located only in the area assigned to it, there is a problem in that the density of people increases, so that it cannot actively cope with a situation in which a guide service of more robots is required.

문헌 1. 한국 공개특허공보 공개번호 제10-2019-0096871호(발명의 명칭: 복수의 로봇들을 관제하는 인공 지능 서버 및 그 방법)Document 1. Korean Patent Laid-Open Publication No. 10-2019-0096871 (Title of the invention: artificial intelligence server and method for controlling a plurality of robots)

이러한 문제점을 해결하기 위하여, 본 발명은 다수의 영상 촬영 단말로부터 수집한 정보를 기반으로 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어하는 경비 로봇 관제 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve this problem, the present invention analyzes the occurrence of an event based on information collected from a plurality of image capturing terminals, and as the event occurs, a security robot through the creation of an operation mode and scenario linking a plurality of security robots An object of the present invention is to provide a security robot control system and method for dynamically reallocating a control area of a security robot to control the security robot.

상기한 목적을 달성하기 위하여 본 발명의 일 실시 예는 경비 로봇 관제 시스템으로서, 하나 이상의 영상 촬영 단말로부터 수신한 영상 정보에서 이벤트가 감지됨에 따라, 감지된 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하고, 상기 이벤트가 감지된 이벤트 발생 구역으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색한다.In order to achieve the above object, an embodiment of the present invention is a security robot control system, as an event is detected in image information received from one or more image capturing terminals, a predictable situation in the detected event based on a probability value It is analyzed and ranked, and two or more security robots that can arrive in the shortest time to the event occurrence area where the event is detected are searched for.

또한, 본 발명의 실시 예에 따른 경비 로봇 관제 시스템은 검색된 경비 로봇으로 상위 순서의 예측 상황을 각각 전송하여 상기 경비 로봇이 이벤트 발생 구역으로 이동하도록 제어하는 관제 서버를 포함한다.In addition, the security robot control system according to an embodiment of the present invention includes a control server that controls the security robot to move to the event occurrence area by transmitting the predicted situations of the upper order to the searched security robot, respectively.

또한, 본 발명의 실시 예에 따른 관제 서버는 예측 상황을 수신한 경비 로봇이 이벤트 발생 구역으로 이동하면, 상기 경비 로봇의 관제 구역을 인근에 배치된 다른 경비 로봇의 관제 구역과 연계하여 재할당되도록 관리하는 것을 특징으로 한다.In addition, the control server according to an embodiment of the present invention is such that when the security robot receiving the predicted situation moves to the event occurrence area, the control area of the security robot is reassigned in connection with the control area of another security robot disposed nearby. characterized by management.

또한, 본 발명의 실시 예에 따른 경비 로봇은 이벤트 발생 구역에서 현장 정보를 수집하여 상기 관제 서버의 예측 상황이 맞는지 판단하고, 상기 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버로 전송하는 것을 특징으로 한다.In addition, the security robot according to an embodiment of the present invention collects field information in the event occurrence area to determine whether the prediction situation of the control server is correct, and if the prediction situation is correct, collect additional information for determining the next operation. It is characterized in that it is transmitted to the control server.

또한, 본 발명의 실시 예에 따른 관제 서버는 개별 경비 로봇으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신함에 따라, 해당 상황에 대응하는 시나리오를 생성하고, 상기 경비 로봇이 생성된 대응 시나리오에 따라 작동되도록 제어하는 것을 특징으로 한다.In addition, the control server according to an embodiment of the present invention generates a scenario corresponding to the situation by receiving the determination result and additional information on the predicted situation from the individual security robot, and according to the corresponding scenario generated by the security robot It is characterized in that it is controlled to operate.

또한, 본 발명의 실시 예에 따른 관제 서버는 생성된 대응 시나리오에 추가 경비 로봇이 요구되면, 이벤트 발생 구역의 인근에서 추가 경비 로봇을 검색하여 상기 이벤트 발생 구역으로 이동하도록 제어하한다.In addition, when an additional security robot is required for the generated corresponding scenario, the control server according to an embodiment of the present invention searches for an additional security robot in the vicinity of the event generating area and controls it to move to the event generating area.

또한, 본 발명의 실시 예는 추가 경비 로봇이 이동하면, 상기 추가 경비 로봇의 관제 구역을 다른 경비 로봇의 관제 구역과 연계하여 재할당되도록 관리하는 것을 특징으로 한다.In addition, an embodiment of the present invention is characterized in that when the additional security robot moves, the control area of the additional security robot is managed to be reassigned in connection with the control area of the other security robot.

또한, 본 발명의 실시 예에 따른 관제 서버는 이벤트 발생 구역으로 이동하는 경비 로봇의 이동 경로에 기반하여 현재의 테스크를 넘겨 받을 다른 관제 구역의 다른 경비 로봇과의 타이밍을 산출한다.In addition, the control server according to an embodiment of the present invention calculates a timing with another security robot in another control area to take over the current task based on the movement path of the security robot moving to the event generating area.

또한, 본 발명의 실시 예에 따른 다른 관제 구역의 경비 로봇은 설정된 관제 구역을 벗어나지 않으면서, 이벤트 발생 구역으로 이동하는 경비 로봇으로 이동하여 테스크가 수신되도록 제어하는 것을 특징으로 한다.In addition, the security robot of another control area according to an embodiment of the present invention is characterized in that it moves to the security robot moving to the event occurrence area without departing from the set control area and controls so that the task is received.

또한, 본 발명의 실시 예에 따른 관제 서버는 하나 이상의 영상 촬영 단말과 접속하여 영상 정보를 수신하고, 복수의 경비 로봇과 데이터 신호를 송수신하는 데이터 통신부; 상기 영상 촬영 단말로부터 수신한 영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하며, 상기 이벤트가 감지된 이벤트 발생 구역으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하여 검색된 경비 로봇으로 상위 순서의 예측 상황을 각각 전송하고, 예측 상황을 수신한 상기 경비 로봇이 이벤트 발생 구역으로 이동하면, 상기 경비 로봇의 관제 구역을 인근에 배치된 다른 경비 로봇의 관제 구역과 연계하여 재할당되도록 관리하는 서버 관리부; 및 상기 수신된 영상 정보, 개별 경비 로봇에 설정된 관제 구역, 발생 이벤트에 대응하는 경비 로봇의 작동 모드와 대응 시나리오 정보를 저장하는 데이터베이스;로 이루어진 것을 특징으로 한다.In addition, the control server according to an embodiment of the present invention is connected to one or more image photographing terminals to receive image information, and a data communication unit for transmitting and receiving a plurality of security robots and data signals; Detects the occurrence of an event by analyzing the image information received from the image capturing terminal, analyzes and ranks predictable situations in the detected event based on a probability value, and returns to the event occurrence area where the event is detected in the shortest time Searches for two or more security robots that can arrive and transmits the predicted situation in the upper order to the searched security robot. a server management unit that manages to be reassigned in connection with the control area of other security robots; and a database for storing the received image information, the control area set in the individual security robot, the operation mode of the security robot corresponding to the occurrence event, and the corresponding scenario information.

또한, 본 발명의 실시 예에 따른 서버 관리부는 경비 로봇이 설정된 관제 구역에서 작동되도록 관리하고, 예측 상황을 수신한 상기 경비 로봇이 이벤트 발생 구역으로 이동함에 따라, 상기 경비 로봇의 관제 구역을 인근에 배치된 다른 경비 로봇의 관제 구역과 연계하여 재할당되도록 관리하고, 이벤트 발생 구역의 경비 로봇으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신하면, 해당 상황에 대응하는 시나리오를 생성하여 상기 경비 로봇이 생성된 시나리오에 따라 작동되도록 제어하는 관제 관리부; 및 영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하며, 이벤트 발생 구역으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하여 검색된 경비 로봇으로 상위 순서의 예측 상황을 각각 전송하는 인공지능 관리부;로 이루어진 것을 특징으로 한다.In addition, the server management unit according to an embodiment of the present invention manages the security robot to operate in a set control area, and as the security robot receiving the predicted situation moves to the event occurrence area, the control area of the security robot is located nearby. It manages to be reassigned in connection with the control area of other deployed security robots, and upon receiving the result of determination and additional information on the predicted situation from the security robot in the event generating area, a scenario corresponding to the situation is generated and the security robot is a control management unit that controls to operate according to the generated scenario; and detecting the occurrence of an event by analyzing the image information, analyzing and ranking predictable situations based on the probability value in the detected event, searching for two or more security robots that can arrive in the shortest time to the event occurrence area It is characterized in that it consists of; an artificial intelligence management unit that transmits the prediction situation of the upper order to the security robot, respectively.

또한, 본 발명의 일 실시 예는 경비 로봇 관제 방법으로서, a) 관제 서버가 하나 이상의 영상 촬영 단말로부터 복수의 단위 구역별로 영상 정보를 수신하여 비정상 상황의 이벤트 발생을 판단하는 단계; b) 이벤트 발생이 감지됨에 따라, 상기 관제 서버가 감지된 이벤트에서 예측 가능한 비정상 상황을 확률 값을 기반으로 분석하여 순위화 하는 단계; 및 c) 상기 관제 서버가 이벤트가 감지된 이벤트 발생 구역으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하고, 검색된 경비 로봇으로 상위 순서의 예측 상황을 각각 전송하여 상기 경비 로봇이 이벤트 발생 구역으로 이동하도록 제어하는 단계;를 포함한다.In addition, an embodiment of the present invention is a security robot control method, a) the control server receives the image information for each of a plurality of unit areas from one or more image capturing terminals to determine the occurrence of an event in an abnormal situation; b) when the occurrence of an event is detected, the control server analyzing and ranking an abnormal situation predictable from the detected event based on a probability value; and c) the control server searches for two or more security robots that can arrive in the shortest time to the event occurrence area where the event is detected, and transmits the predicted situations in the upper order to the searched security robots, respectively, so that the security robot moves to the event occurrence area Including; controlling to move.

또한, 본 발명의 실시 예에 따른 상기 c) 단계는 관제 서버가 예측 상황을 수신한 경비 로봇이 이벤트 발생 구역으로 이동하면, 상기 경비 로봇의 관제 구역을 인근에 배치된 다른 경비 로봇의 관제 구역과 연계하여 재할당되도록 관리하는 단계;를 더 포함하여 이루어진 것을 특징으로 한다.In addition, in step c) according to an embodiment of the present invention, when the security robot that has received the predicted situation by the control server moves to the event occurrence area, the control area of the security robot is separated from the control area of another security robot disposed nearby It is characterized in that it further comprises; managing to be reassigned in association.

또한, 본 발명에 따른 실시 예는 d) 상기 경비 로봇이 이벤트 발생 구역에서 현장 정보를 수집하여 상기 관제 서버의 예측 상황이 맞는지 판단하고, 상기 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버로 전송하는 단계;를 더 포함하여 이루어진 것을 특징으로 한다.In addition, in the embodiment according to the present invention, d) the security robot collects field information in the event occurrence area to determine whether the prediction situation of the control server is correct, and if the prediction situation is correct, additional information is collected for determining the next operation and transmitting to the control server by performing .

또한, 본 발명에 따른 실시 예는 e) 상기 관제 서버가 d)단계의 개별 경비 로봇으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신하면, 해당 상황에 대응하는 시나리오를 생성하고, 상기 경비 로봇이 생성된 대응 시나리오에 따라 작동되도록 제어하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.In addition, in the embodiment according to the present invention, e) when the control server receives the determination result and additional information on the predicted situation from the individual security robot in step d), it generates a scenario corresponding to the situation, and the security robot It characterized in that it further comprises the step of controlling to operate according to the generated corresponding scenario.

또한, 본 발명에 따른 실시 예는 상기 관제 서버가 생성된 대응 시나리오에 추가 경비 로봇이 요구되면, 이벤트 발생 구역의 인근에서 추가 경비 로봇을 검색하여 상기 이벤트 발생 구역으로 이동하도록 제어하고, 상기 추가 경비 로봇이 이동함에 따라 상기 추가 경비 로봇의 관제 구역을 다른 경비 로봇의 관제 구역과 연계하여 재할당하는 단계를 더 포함하여 이루어진 것을 특징으로 한다.In addition, in the embodiment according to the present invention, when an additional security robot is required for the corresponding scenario in which the control server is created, an additional security robot is searched for in the vicinity of the event generating area and controlled to move to the event generating area, and the additional security robot is searched for and moved to the event generating area As the robot moves, it characterized in that it further comprises the step of reassigning the control area of the additional security robot in connection with the control area of the other security robot.

본 발명은 다수의 영상 촬영 단말로부터 수집한 정보를 기반으로 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어할 수 있는 장점이 있다.The present invention analyzes the occurrence of an event based on information collected from a plurality of image capturing terminals, and as the event occurs, the control area of the security robot is dynamically re-established through the creation of an operation mode and scenario linking a plurality of security robots. It has the advantage of being able to control the security robot by assigning it.

또한, 본 발명은 이벤트의 발생으로 인해 미리 설정된 관제 구역을 벗어나는 복수의 경비 로봇의 관제 구역을 나머지 경비 로봇의 관제 구역에 재할당하여 보안 공백의 발생을 방지할 수 있는 장점이 있다.In addition, the present invention has an advantage in that it is possible to prevent the occurrence of a security gap by reassigning the control areas of a plurality of security robots out of the preset control area due to the occurrence of an event to the control areas of the remaining security robots.

또한, 본 발명은 영상 촬영 단말로부터 수집한 이벤트 정보에서 확률 값을 기반으로 예측 가능한 상황을 분석하여 순위하여 제공함으로써, 발생 이벤트에 대한 경비 로봇의 작동 모드와 시나리오를 쉽게 결정할 수 있는 장점이 있다.In addition, the present invention has an advantage in that it is possible to easily determine the operation mode and scenario of the security robot for the occurrence event by analyzing and ranking predictable situations based on the probability value in the event information collected from the image capturing terminal.

또한, 본 발명은 경비 로봇이 이벤트 발생 구역에서 수집한 정보를 기반으로 실제 상황에 대한 분석을 통해 대응 시나리오를 생성함으로써, 경비 로봇의 효과적이고 효율적인 제어를 수행할 수 있는 장점이 있다.In addition, the present invention has an advantage in that the security robot can effectively and efficiently control the security robot by generating a response scenario through analysis of the actual situation based on the information collected in the event occurrence area.

도 1은 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 구성을 나타낸 블록도.
도 2는 도 1의 실시 예에 따른 경비 로봇 관제 시스템의 관제 서버 구성을 나타낸 블록도.
도 3은 도 1의 실시 예에 따른 경비 로봇 관제 시스템의 경비 로봇 구성을 나타낸 블록도.
도 4는 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 작동 상태를 설명하기 위해 나타낸 예시도.
도 5는 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 작동 상태를 설명하기 위해 나타낸 다른 예시도.
도 6은 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템을 이용하여 관제하는 과정을 나타낸 흐름도.
도 7은 도 6의 실시 예에 따른 경비 로봇 관제 과정에서 경비 로봇이 이동하는 과정을 나타낸 흐름도.
도 8은 도 6의 실시 예에 따른 경비 로봇 관제 과정에서 이벤트 현장의 경비 로봇이 작동하는 과정을 나타낸 흐름도.
1 is a block diagram showing the configuration of a security robot control system according to an embodiment of the present invention.
Figure 2 is a block diagram showing the configuration of the control server of the security robot control system according to the embodiment of Figure 1;
Figure 3 is a block diagram showing a security robot configuration of the security robot control system according to the embodiment of Figure 1;
Figure 4 is an exemplary view to explain the operating state of the security robot control system according to an embodiment of the present invention.
5 is another exemplary view to explain the operating state of the security robot control system according to an embodiment of the present invention.
6 is a flowchart illustrating a process of controlling using a security robot control system according to an embodiment of the present invention.
7 is a flowchart illustrating a process in which the security robot moves in the security robot control process according to the embodiment of FIG. 6 .
8 is a flowchart illustrating a process in which the security robot at the event site operates in the security robot control process according to the embodiment of FIG. 6 .

이하에서는 본 발명의 바람직한 실시 예 및 첨부하는 도면을 참조하여 본 발명을 상세히 설명하되, 도면의 동일한 참조부호는 동일한 구성요소를 지칭함을 전제하여 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to preferred embodiments of the present invention and the accompanying drawings.

발명의 상세한 설명 또는 특허청구범위에서 어느 하나의 구성요소가 다른 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 당해 구성요소만으로 이루어지는 것으로 한정되어 해석되지 아니하며, 다른 구성요소들을 더 포함할 수 있는 것으로 이해되어야 한다.When it is said that any one component "includes" another component in the detailed description or claims of the invention, it is not construed as being limited to only the component, unless otherwise stated, other components It should be understood that more may be included.

이하에서는 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템 및 방법이 구현된 일 예를 특정한 실시예를 통해 설명하기로 한다. Hereinafter, an example in which the security robot control system and method according to an embodiment of the present invention are implemented will be described with reference to a specific embodiment.

도 1은 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 구성을 나타낸 블록도이고, 도 2는 도 1의 실시 예에 따른 경비 로봇 관제 시스템의 관제 서버 구성을 나타낸 블록도이며, 도 3은 도 1의 실시 예에 따른 경비 로봇 관제 시스템의 경비 로봇 구성을 나타낸 블록도이고, 도 4는 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 작동 상태를 설명하기 위해 나타낸 예시도이며, 도 5는 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템의 작동 상태를 설명하기 위해 나타낸 다른 예시도이다.Figure 1 is a block diagram showing the configuration of a security robot control system according to an embodiment of the present invention, Figure 2 is a block diagram showing the configuration of a control server of the security robot control system according to the embodiment of Figure 1, Figure 3 is 1 is a block diagram showing the configuration of a security robot of the security robot control system according to the embodiment of the present invention, FIG. 4 is an exemplary view to explain the operating state of the security robot control system according to an embodiment of the present invention, FIG. is another exemplary diagram shown to explain the operating state of the security robot control system according to an embodiment of the present invention.

도 1 내지 도 5를 참조하면, 본 발명의 일 실시 예에 따른 경비 로봇 관제 시스템은 다수의 영상 촬영 단말(100 내지 100n)로부터 수집한 정보를 기반으로 비정상 상황인 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇(300 내지 300n)을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어함으로써, 보안 공백의 발생을 방지하도록 하나 이상의 영상 촬영 단말(100 내지 100n)과, 관제 서버(200)와, 다수의 경비 로봇(300 내지 300n)으로 구성된다.1 to 5 , the security robot control system according to an embodiment of the present invention analyzes the occurrence of an event that is an abnormal situation based on information collected from a plurality of image capturing terminals 100 to 100n, and the event As is generated, by dynamically reallocating the control area of the security robot through the creation of an operation mode and scenario linking a plurality of security robots 300 to 300n to control the security robot, one or more images to prevent the occurrence of a security gap It consists of a photographing terminal (100 to 100n), a control server 200, and a plurality of security robots (300 to 300n).

상기 영상 촬영 단말(100 내지 100n)은 일정 위치에 설치되어 미리 설정된 단위 구역을 촬영하고, 촬영된 영상 정보를 관제 서버(200)로 출력한다.The image photographing terminals 100 to 100n are installed at a predetermined location to photograph a preset unit area, and output photographed image information to the control server 200 .

또한, 상기 영상 촬영 단말(100 내지 100n)은 CCTV로 구성될 수 있지만 이에 한정되는 것은 아니고, 광학신호를 전기신호로 변환하여 출력하는 광전변환 센서를 포함하는 카메라 등으로 구성될 수도 있다.In addition, the video photographing terminals 100 to 100n may be configured as CCTV, but is not limited thereto, and may be configured as a camera including a photoelectric conversion sensor that converts an optical signal into an electrical signal and outputs it.

상기 관제 서버(200)는 영상 촬영 단말(100 내지 100n)로부터 수신한 영상 정보를 분석하여 비정상 상황으로 인해 발생되는 이벤트가 감지되는지 판단하고, 이벤트 발생이 감지되면 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 한다.The control server 200 analyzes the image information received from the image capturing terminals 100 to 100n to determine whether an event occurring due to an abnormal situation is detected, and when the occurrence of the event is detected, a probability value of a predictable situation in the event based on the analysis and ranking.

또한, 상기 관제 서버(200)는 하나 이상의 영상 촬영 단말(100 내지 100n)과 유선 또는 무선 네트워크를 통해 접속하여 상기 영상 촬영 단말(100 내지 100n)로부터 출력되는 영상 정보를 수신하고, 복수의 경비 로봇(300 내지 300n)과 데이터 신호를 송수신하는 데이터 통신부(210)를 포함하여 구성될 수 있다.In addition, the control server 200 is connected to one or more video recording terminals 100 to 100n through a wired or wireless network to receive image information output from the video photographing terminals 100 to 100n, and a plurality of security robots (300 to 300n) and may be configured to include a data communication unit 210 for transmitting and receiving a data signal.

상기 데이터 통신부(210)는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 등을 이용하여 외부 장치들과 다양한 데이터 신호를 송수신할 수 있다.The data communication unit 210 is GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Bluetooth ( Bluetooth), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, Near Field Communication (NFC), etc. may be used to transmit/receive various data signals to and from external devices.

또한, 상기 관제 서버(200)는 영상 촬영 단말(100 내지 100n)로부터 수신한 영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 한다.In addition, the control server 200 detects the occurrence of an event by analyzing the image information received from the image capturing terminals 100 to 100n, and ranks by analyzing the predictable situation in the detected event based on a probability value. .

또한, 상기 관제 서버(200)는 이벤트가 감지된 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하여 검색된 경비 로봇(300, 300a)으로 상위 순서의 예측 상황을 각각 전송한다.In addition, the control server 200 searches for two or more security robots that can arrive in the shortest time to the event occurrence area 500 in which the event is detected, and transmits the predicted situation in the upper order to the searched security robots 300 and 300a, respectively. do.

또한, 상기 관제 서버(200)는 예측 상황을 수신한 상기 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동하면, 상기 경비 로봇(300, 300a)의 관제 구역(400, 400a)을 인근에 배치된 다른 경비 로봇(300b 내지, 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리하는 서버 관리부(220)를 포함하여 구성될 수 있다.In addition, when the control server 200 moves to the event generating area 500 of the security robots 300 and 300a receiving the predicted situation, the control areas 400 and 400a of the security robots 300 and 300a It may be configured to include a server management unit 220 that manages to be reassigned in connection with the control area (400b to 400e) of the other security robots (300b to, 300e) disposed nearby.

상기 서버 관리부(220)는 경비 로봇(300 내지 300n)이 설정된 관제 구역(400 내지 400e)에서 작동되도록 관리하는 관제 관리부(221)와, 영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하는 인공지능 관리부(222)를 포함하여 구성될 수 있다.The server management unit 220 includes a control management unit 221 that manages the security robots 300 to 300n to operate in the set control areas 400 to 400e, and analyzes image information to detect the occurrence of an event, and the detected event It may be configured to include an artificial intelligence management unit 222 that ranks by analyzing predictable situations based on probability values.

상기 관제 관리부(221)는 임의의 단위 구역별 관제 구역(400 내지 400e)을 설정하고, 상기 설정된 관제 구역(400 내지 400e)에 대응하여 경비 로봇(300 내지 300n)을 배치시켜 작동되도록 관리한다.The control management unit 221 sets the control zones 400 to 400e for each unit area, and manages to deploy and operate the security robots 300 to 300n in response to the set control zones 400 to 400e.

또한, 상기 관제 관리부(221)는 이벤트가 감지된 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색한다.In addition, the control management unit 221 searches for two or more security robots that can arrive in the shortest time to the event generating area 500 in which the event is detected.

상기 이벤트 발생 구역(500)은 임의의 경비 로봇이 이동하며 감시하는 관제 구역일 수 있고, 상기 경비 로봇이 관제하지 않는 외부 지역일 수 있다.The event generating area 500 may be a control area in which an arbitrary security robot moves and monitors, or may be an external area not controlled by the security robot.

또한, 상기 관제 관리부(221)가 적어도 두 대 이상인 복수의 경비 로봇을 검색하여 이동시키는 것은 발생된 이벤트가 복합적 상황일 수 있기 경우 때문이다.In addition, the reason why the control management unit 221 searches for and moves a plurality of at least two or more security robots is because the generated event may be a complex situation.

예를 들어, 기물이 파손된 경우, 폭력이 발생된 경우, 화재가 발생된 경우 등과 같은 상황이 발생하면 파손, 폭력 화재와 같은 직접적인 상황과, 주변 사람들 간의 다양한 행동 또는 행위와 같은 간접적인 상황도 함께 발생되어 정확한 상황의 분석을 위해 적어도 두 대 이상의 경비 로봇이 이동될 수 있도록 한다.For example, when a situation occurs such as when property is destroyed, when violence occurs, when there is a fire, etc., direct situations such as destruction, violent fire, and indirect situations such as various actions or actions between people around It occurs together so that at least two or more security robots can be moved for accurate situation analysis.

또한, 상기 관제 관리부(221)는 인공지능 관리부(222)에서 분석된 예측 상황을 수신한 경비 로봇(300, 300a)이 배정된 관제 구역(400, 400a)에서 이벤트 발생 구역(500)으로 이동함에 따라, 상기 경비 로봇(300, 300a)의 관제 구역(400, 400a)을 인근에 배치된 다른 경비 로봇(300b 내지, 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리한다.In addition, the control management unit 221 moves from the control areas 400 and 400a assigned to the security robots 300 and 300a receiving the predicted situation analyzed by the artificial intelligence management unit 222 to the event occurrence area 500. Accordingly, the control areas (400, 400a) of the security robots (300, 300a) are managed to be reassigned in connection with the control areas (400b to 400e) of the other security robots (300b to, 300e) disposed nearby.

즉, 상기 관제 관리부(221)는 이벤트의 발생으로 인해 경비 로봇(300, 300a)이 미리 설정된 관제 구역을 벗어나는 경우, 상기 경비 로봇(300, 300a)에 배정된 관제 구역(400, 400a)을 인근의 나머지 경비 로봇(300b, 300e)이 관리할 수 있도록 의 관제 구역(400b, 400e)을 재할당하여 경비 로봇(300, 300a)의 이동으로 인한 보안 공백의 발생을 방지할 수 있도록 한다.That is, when the control management unit 221 deviates from the preset control area due to the occurrence of an event, the control area 400 and 400a assigned to the security robot 300 and 300a is adjacent to the control area. By reassigning the control areas 400b and 400e of , so that the remaining guard robots 300b and 300e can manage it, it is possible to prevent the occurrence of a security gap due to the movement of the guard robots 300 and 300a.

또한, 상기 관제 관리부(221)는 이벤트 발생 구역(500)으로 이동한 경비 로봇(300, 300a)으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신하면, 해당 상황에 대응하는 대응 시나리오를 생성하고, 상기 생성된 대응 시나리오에 따라 상기 경비 로봇(300, 300a)이 작동되도록 제어한다.In addition, when the control management unit 221 receives the determination result and additional information on the predicted situation from the security robots 300 and 300a that have moved to the event occurrence area 500, it generates a corresponding scenario corresponding to the situation, Control to operate the security robot (300, 300a) according to the generated corresponding scenario.

상기 대응 시나리오는 특정 이벤트 즉, 비정상 상황에 대하여 미리 설정된 대응 신호가 출력되도록 설정된 프로그램으로서, 예를 들어, 화재인 경우, 하나의 경비 로봇은 불길 속에서 인명구조 등의 작동이 이루어지도록 제어하고, 다른 하나의 경비 로봇은 불길을 벗어난 인명들을 인솔하여 화잰 현장에서 벗어날 수 있게 작동하도록 역할(또는 기능)을 수행할 수 있도록 한다.The response scenario is a program set to output a predetermined response signal for a specific event, that is, an abnormal situation. For example, in case of a fire, one security robot controls the operation of lifesaving, etc. in the flame, The other security robot can lead the people who escaped the flames and perform a role (or function) to operate so that they can escape from the scene of the fire.

또한, 상기 대응 시나리오는 비정상 상황에 따라 인근에 배치된 경비 로봇의 추가적인 이동을 지시하는 역할이 포함될 수 있다.In addition, the response scenario may include a role of instructing an additional movement of a security robot disposed nearby according to an abnormal situation.

즉, 상기 관제 관리부(221)는 생성된 대응 시나리오에 추가 경비 로봇이 요구되면, 이벤트 발생 구역(500)의 인근에서 추가 경비 로봇을 검색하고, 추가 검색된 경비 로봇이 상기 이벤트 발생 구역(500)으로 이동하도록 제어한다.That is, when an additional security robot is required for the generated corresponding scenario, the control management unit 221 searches for an additional security robot in the vicinity of the event generating area 500 , and the additionally searched security robot moves to the event generating area 500 . control to move.

또한, 상기 관제 관리부(221)는 추가 경비 로봇이 이벤트 발생 구역(500)으로 이동하면, 상기 추가 경비 로봇의 관제 구역을 다른 경비 로봇(300b 내지, 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리한다.In addition, the control management unit 221, when the additional security robot moves to the event generating area 500, link the control area of the additional security robot with the control area (400b to 400e) of the other security robots (300b to, 300e) manage to be reassigned.

상기 인공지능 관리부(222)는 영상 촬영 단말(100 내지 100n)로부터 수신된 영상 정보를 이미지 분석 모델을 이용하여 비정상 상황을 포함한 이벤트가 발생되었는지 판단한다.The artificial intelligence management unit 222 determines whether an event including an abnormal situation has occurred using the image information received from the image capturing terminals 100 to 100n using an image analysis model.

또한, 상기 인공지능 관리부(222)는 분석된 영상 정보만으로 정확한 판단이 어려우므로 여러가지 설정된 비정상 상황들 가운데 예측 가능한 상황들에 대하여 확률 값을 계산하고, 가장 높은 확률 값이 나온 상황을 순위화 한 다음, 상위 2가지의 예측 상황을 선정한다.In addition, the artificial intelligence management unit 222 calculates a probability value for predictable situations among various set abnormal situations because it is difficult to make an accurate determination only with the analyzed image information, and ranks the situations in which the highest probability value is obtained. , select the top two prediction situations.

예를 들면, 화재가 발생하여 사람들이 움직이는 모습이 감지되면, 여러가지 예측 가능한 상황들의 확률 값을 계산하고, 그 중에서 화재로 인해 발생되는 연기와 색상을 기반으로 화재일 가능성의 확률 값과 폭력 상황에 대한 확률 값이 높게 계산되면 상기 2가지의 예측 상황을 선정한다.For example, if a fire occurs and people are moving, it calculates the probability value of various predictable situations, and among them, based on the smoke and color generated by the fire, the probability value of the possibility of a fire and the violence situation When the probability value is calculated to be high, the above two prediction situations are selected.

본 실시 예에서는 설명의 편의를 위해 상위 2개의 예측 상황을 실시 예로 설명하지만, 이에 한정되는 것은 아니고 필요에 따라 3개, 4개, 5개 등 다수의 예측 상황을 선정할 수도 있다.In the present embodiment, the top two prediction situations are described as an embodiment for convenience of explanation, but the present embodiment is not limited thereto, and a plurality of prediction situations such as 3, 4, or 5 may be selected as needed.

또한, 상기 인공지능 관리부(222)는 비정상 상황을 학습하는 이미지 분석 모델을 이용하여 모델 학습을 수행할 수 있다.In addition, the artificial intelligence management unit 222 may perform model learning using an image analysis model that learns an abnormal situation.

또한, 상기 인공지능 관리부(222)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있고, 이를 학습 데이터로 이용하여 인공 신경망으로 구성된 모델을 학습시킬 수 있다. In addition, the artificial intelligence management unit 222 may extract an input feature as a preprocessing for the input data, and may use this as the learning data to learn a model composed of an artificial neural network.

여기서, 학습된 인공 신경망을 학습 모델이라 칭할 수 있고, 학습 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있으며, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.Here, the trained artificial neural network may be referred to as a learning model, and the learning model may be used to infer a result value with respect to new input data, not the learning data, and the inferred value is used as a basis for a decision to perform a certain operation. can be used

또한, 상기 인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로써, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. In addition, the artificial neural network (ANN) is a model used in machine learning, and may mean an overall model having problem-solving ability, which is composed of artificial neurons (nodes) that form a network by combining synapses. have.

또한, 상기 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.In addition, the artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process for updating model parameters, and an activation function for generating an output value.

또한, 상기 인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)를 포함할 수 있으며, 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. In addition, the artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers, each layer includes one or more neurons, and the artificial neural network includes neurons and It may include synapses that connect neurons.

또한, 상기 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.In addition, in the artificial neural network, each neuron may output a function value of an activation function with respect to input signals input through a synapse, a weight, and a bias.

또한, 상기 인공지능 관리부(222)는 이벤트가 감지되면, 미리 설정된 단위 구역별 관제 구역에 기반하여 이벤트가 발생된 이벤트 발생 구역(500)을 추출하고, 상기 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색한다.In addition, when an event is detected, the artificial intelligence management unit 222 extracts an event occurrence zone 500 in which an event is generated based on a preset control zone for each unit zone, and returns to the event occurrence zone 500 in the shortest time. Search for two or more patrol robots that can arrive.

이때, 검색 대상 경비 로봇은 상기 이벤트 발생으로 인한 테스크보다 더 높은 우선 순위의 테스크를 수행하고 있지 않은 경비 로봇 중에서 최단 시간에 도착 가능한 경비 로봇을 검색한다.In this case, the search target security robot searches for a security robot that can arrive in the shortest time among the security robots that are not performing a task of higher priority than the task caused by the occurrence of the event.

또한, 상기 인공지능 관리부(222)는 검색된 경비 로봇(300, 300a)으로 상위 순서의 예측 상황을 각각 전송하고, 상기 예측 상황을 수신한 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동되도록 한다.In addition, the artificial intelligence management unit 222 transmits the predicted situation of the upper order to the searched guard robots 300 and 300a, respectively, and the guard robots 300 and 300a that have received the predicted situation move to the event occurrence area 500. make it move

또한, 상기 인공지능 관리부(222)는 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)의 이동 경로(600)에 기반하여 상기 경비 로봇(300, 300a)이 수행중인 현재의 테스크, 예를 들면 물품 배달과 같은 테스크를 넘겨 받을 다른 관제 구역의 다른 경비 로봇(300b 내지 300e)과의 타이밍을 산출한다.In addition, the artificial intelligence management unit 222 is based on the movement path 600 of the security robots 300 and 300a moving to the event generating area 500, the current task being performed by the security robots 300 and 300a, For example, the timing with other security robots 300b to 300e in different control areas to take over tasks such as delivery of goods is calculated.

또한, 다른 관제 구역의 경비 로봇(300b 내지 300e)은 설정된 관제 구역을 벗어나지 않으면서, 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)의 관제 구역과 중복되는 관제 구역으로 이동하여 상기 경비 로봇(300, 300a)의 테스크가 수신되도록 제어한다.In addition, the security robots 300b to 300e of other control areas move to the control area overlapping the control area of the security robots 300 and 300a moving to the event generation area 500 without departing from the set control area. Control so that the task of the security robot (300, 300a) is received.

또한, 상기 서버 관리부(220)는 수신된 영상 정보, 개별 경비 로봇(300 내지 300e)에 설정된 관제 구역(400 내지 400e), 발생 이벤트에 대응하는 경비 로봇의 작동 모드와 대응 시나리오 정보를 저장하는 데이터베이스(223)를 포함하여 구성될 수 있다.In addition, the server management unit 220 is a database for storing the received image information, the control area (400 to 400e) set in the individual security robots (300 to 300e), the operation mode and corresponding scenario information of the security robot corresponding to the occurrence event 223 may be included.

상기 경비 로봇(300 내지 300n)은 미리 설정된 단위 구역별 관제 구역에 배치되어 미리 설정된 테스크에 따라 작동하는 구성으로서, 데이터 통신부(310)와, 입력부(320)와, 센서부(330)와, 주행부(340)와, 출력부(350)와, 제어부(360)를 포함하여 구성될 수 있다.The security robots 300 to 300n are arranged in a preset control area for each unit area and operate according to a preset task, and a data communication unit 310, an input unit 320, a sensor unit 330, and a driving It may be configured to include a unit 340 , an output unit 350 , and a control unit 360 .

또한, 상기 경비 로봇(300 내지 300n)은 이벤트 발생 구역(500)에서 현장 정보를 수집하여 상기 관제 서버(200)의 예측 상황이 맞는지 판단하고, 상기 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버(200)로 전송한다.In addition, the security robots 300 to 300n collect on-site information from the event occurrence area 500 to determine whether the prediction situation of the control server 200 is correct, and if the prediction situation is correct, additional information for determining the next operation is collected and transmitted to the control server 200 .

상기 데이터 통신부(310)는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 등을 이용하여 관제 서버(200)와 데이터 통신을 수행한다.The data communication unit 310 is GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), LTE (Long Term Evolution), 5G, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Bluetooth ( Bluetooth), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association; IrDA), ZigBee, performs data communication with the control server 200 using NFC (Near Field Communication) and the like.

상기 입력부(320)는 현장 모습을 촬영하는 카메라(321)와, 주변의 음향 신호를 수신하는 마이크(322)를 포함하여 구성될 수 있다.The input unit 320 may be configured to include a camera 321 for photographing a scene, and a microphone 322 for receiving a surrounding sound signal.

또한, 상기 입력부(320)는 스위치, 키패드 등의 입력수단이 추가 구성될 수 있다.In addition, the input unit 320 may be additionally configured with input means such as a switch or a keypad.

상기 센서부(330)는 다양한 센서들을 이용하여 경비 로봇과 상기 경비 로봇의 주변 환경 정보 등을 획득하는 구성으로서, 근접 센서, 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 라이다, 레이더 등으로 구성될 수 있다.The sensor unit 330 is a configuration for acquiring information about the surrounding environment of the security robot and the security robot using various sensors, and includes a proximity sensor, an illuminance sensor, an acceleration sensor, a magnetic sensor, a gyro sensor, an inertial sensor, an RGB sensor, It may be composed of an IR sensor, a fingerprint recognition sensor, an ultrasonic sensor, an optical sensor, a lidar, a radar, and the like.

상기 주행부(340)는 액츄에이터 또는 모터를 포함하는 구동부를 구비하고, 제어신에 따라 지상에서 주행하거나 또는 공중에서 비행을 통해 경비 로봇이 이동할 수 있도록 한다.The driving unit 340 is provided with a driving unit including an actuator or a motor, and allows the security robot to move on the ground or by flying in the air according to a control scene.

상기 출력부(350)는 시각, 청각 및 촉각 등과 관련된 출력을 발생하는 구성으로서, 시각 정보를 출력하는 디스플레이부(351) 및 광출력부(353)와, 청각 정보를 출력하는 스피커(352)와, 촉각 정보를 출력하는 햅틱 모듈부(354)로 구성될 수 있다.The output unit 350 is a component that generates outputs related to sight, hearing, and touch, and includes a display 351 and an optical output unit 353 for outputting visual information, and a speaker 352 for outputting auditory information; , a haptic module unit 354 for outputting tactile information.

상기 제어부(360)는 데이터 분석 알고리즘 또는 머신 러닝 알고리즘을 사용하여 결정되거나 생성된 정보에 기초하여, 경비 로봇(300 내지 300n)의 실행 가능한 작동을 결정 및 제어한다.The control unit 360 determines and controls executable operations of the security robots 300 to 300n based on information determined or generated using a data analysis algorithm or a machine learning algorithm.

또한, 상기 제어부(360)는 관제 서버(200)의 제어를 통해 이벤트 발생 구역(500)으로 이동하면, 상기 이벤트 발생 구역(500)에서 현장 정보를 수집하여 상기 관제 서버(200)의 예측 상황이 맞는지 판단한다.In addition, when the control unit 360 moves to the event generation area 500 under the control of the control server 200 , it collects field information in the event generation area 500 to determine the predicted situation of the control server 200 . Determine if it is correct

또한, 상기 제어부(360)는 상기 관제 서버(200)의 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버(200)로 전송한다.In addition, if the prediction of the control server 200 is correct, the control unit 360 collects additional information for determining the next operation and transmits it to the control server 200 .

즉, 상기 제어부(360)는 전송된 예측 상황 중에서 예를 들어, 수신된 예측 상황이 화재 상황이면, 상기 화재 상황에 대한 정보, 영상 촬영, 온도, 이산화탄소 농도 등을 수집하여 화재 상황이 맞는지 판단하고, 화재 상황이 맞으면, 불길의 방향과 구조가 필요한 인명의 존재 여부를 확인하기 위한 추가 정보를 수집한다.That is, the control unit 360 determines whether the fire situation is correct by collecting information about the fire situation, image shooting, temperature, carbon dioxide concentration, etc. , if the fire situation is correct, collect additional information to ascertain the direction of the fire and the presence of any human beings in need of rescue.

또한, 상기 제어부(360)는 전송된 예측 상황 중에서 예를 들어, 수신된 예측 상황이 폭력 상황이면, 사람들 간의 행위를 다양한 각도에서 촬영하고, 음성 분석을 통해 폭력 상황인지를 판단하며, 폭력 상황이 아니면 사람들의 대피할 수 있도도록 경로 확인과 시계 확보를 위한 추가 정보를 수집한다.In addition, the control unit 360, for example, among the transmitted prediction situations, if the received prediction situation is a violent situation, the action between people is photographed from various angles, and it is determined whether it is a violent situation through voice analysis, and the violence situation is Or collect additional information to check routes and secure visibility so that people can evacuate.

또한, 상기 제어부(360)는 경비 로봇(300 내지 300e)과 관제 서버(200) 사이에 무선 네트워크 감도를 주기적으로 측정하고, 상기 관제 서버(200)와 경비 로봇(300 내지 300e) 사이의 무선 네트워크 유지가 어려우면, 예를 들어 제1 내지 제6 관제 구역(400 내지 400e) 내에서 이동중인 경비 로봇(300 내지 300e)들 간에 릴레이 통신이 가능하도록 다른 경비 로봇과 일정 간격이 유지되도록 하여 관제 서버(200)와 통신이 유지되도록 제어할 수 있다.In addition, the control unit 360 periodically measures the sensitivity of the wireless network between the security robots 300 to 300e and the control server 200, and the wireless network between the control server 200 and the security robots 300 to 300e. If it is difficult to maintain, for example, the first to sixth control zones (400 to 400e) to enable relay communication between the guard robots (300 to 300e) moving within the control server so that a certain interval is maintained with other guard robots It can be controlled so that communication with the 200 is maintained.

다음은 본 발명의 일 실시 예에 따른 경비 로봇 관제 방법을 설명한다.The following describes a security robot control method according to an embodiment of the present invention.

도 7은 도 6의 실시 예에 따른 경비 로봇 관제 과정에서 경비 로봇이 이동하는 과정을 나타낸 흐름도이고, 도 8은 도 6의 실시 예에 따른 경비 로봇 관제 과정에서 이벤트 현장의 경비 로봇이 작동하는 과정을 나타낸 흐름도이다.7 is a flowchart illustrating a process in which the security robot moves in the security robot control process according to the embodiment of FIG. 6 , and FIG. 8 is a process in which the security robot at the event site operates in the security robot control process according to the embodiment of FIG. is a flowchart showing

도 1 내지 도 8을 참조하면, 본 발명의 일 실시 예에 따른 경비 로봇 관제 과정은 관제 서버(200)가 하나 이상의 영상 촬영 단말(100 내지 100n)로부터 복수의 단위 구역별로 영상 정보를 수신(S100)하고, 영상 정보에 기반한 동작 제어정보를 생성하여 경비 로봇(300 내지 300e)로 전송(S200)한다.1 to 8, in the security robot control process according to an embodiment of the present invention, the control server 200 receives image information for each of a plurality of unit areas from one or more image capturing terminals 100 to 100n (S100). ) and generates motion control information based on image information and transmits it to the security robots 300 to 300e (S200).

이때, 상기 관제 서버(200)는 S100 단계에서 수신된 영상 정보로부터 비정상 상황의 이벤트가 발생되었는지 확인(S300)한다.At this time, the control server 200 checks whether an abnormal event has occurred from the image information received in step S100 (S300).

상기 S300 단계의 확인 결과, 이벤트 발생이 감지되면, 상기 관제 서버(200)는 감지된 이벤트에서 예측 가능한 비정상 상황을 확률 값을 기반으로 분석 및 계산하여 순위화(S400)한다.As a result of the check in step S300, when the occurrence of an event is detected, the control server 200 analyzes and calculates an abnormal situation predictable in the detected event based on the probability value and ranks (S400).

계속해서, 상기 관제 서버(200)는 미리 설정된 단위 구역별 관제 구역에 기반하여 이벤트가 발생된 이벤트 발생 구역(500)을 추출하고, 상기 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색(S500)한다.Subsequently, the control server 200 extracts an event occurrence zone 500 in which an event has occurred based on a preset control zone for each unit zone, and two or more units capable of arriving at the event occurrence zone 500 in the shortest time. Search for a security robot (S500).

또한, 상기 관제 서버(200)는 검색된 경비 로봇(300, 300a)으로 상위 순서의 예측 상황을 경비 로봇(300)과 경비 로봇 1(300a)에 각각 전송하고, 상기 예측 상황을 수신한 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동되도록 제어(S600)한다.In addition, the control server 200 transmits the predicted situation of the upper order to the searched security robot 300 and 300a to the security robot 300 and the security robot 1 (300a), respectively, and the security robot receiving the predicted situation ( 300, 300a) is controlled (S600) to move to the event generating area (500).

또한, 상기 S600 단계에서 관제 서버(200)는 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)의 이동 경로에 기반하여 상기 경비 로봇(300, 300a)이 수행중인 현재의 테스크, 예를 들면 물품 배달 또는 사람의 안내와 같은 테스크를 넘겨 받을 다른 관제 구역의 경비 로봇 2(300b), 경비 로봇 3(300c), 경비로봇 4(300d) 경비 로봇 5(300e) 중 어느 하나와의 타이밍을 산출한다.In addition, in the step S600, the control server 200 is based on the movement path of the security robots 300 and 300a moving to the event generating area 500, the current task being performed by the security robots 300 and 300a, e.g. Timing with any one of security robot 2 (300b), security robot 3 (300c), security robot 4 (300d), and security robot 5 (300e) in another control area to take over tasks such as delivering goods or guiding people to calculate

또한, 상기 관제 서버(200)는 경비 로봇 2(300b), 경비 로봇 3(300c), 경비로봇 4(300d) 및 경비 로봇 5(300e) 중 적어도 하나가 설정된 관제 구역을 벗어나지 않으면서, 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)의 관제 구역과 중복되는 관제 구역으로 이동되도록 하여 상기 경비 로봇(300, 300a)의 테스크를 수신하도록 한다.In addition, the control server 200 does not deviate from the control area in which at least one of the security robot 2 (300b), the security robot 3 (300c), the security robot 4 (300d), and the security robot 5 (300e) is set, an event occurs To receive the task of the guard robot (300, 300a) to move to the control area overlapping the control area of the guard robot (300, 300a) moving to the area 500 (300, 300a).

또한, 상기 S600 단계는 관제 서버(200)가 예측 상황을 수신한 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동하면, 상기 경비 로봇(300, 300a)의 관제 구역, 예를 들면 제1 관제 구역(400) 및 제2 관제 구역(400a)을 인근에 배치된 다른 경비 로봇(300b 내지, 300e)의 관제 구역, 예를 들면, 제3 관제 구역(400b), 제4 관제 구역(400c), 제5 관제 구역(400d) 및 제6 관제 구역(400e) 중 어느 하나와 연계하여 제1 관제 구역(400) 및 제2 관제 구역(400a)이 재할당되도록 관리한다.In addition, in step S600, when the security robots 300 and 300a that the control server 200 receives the predicted situation move to the event generating area 500, the control area of the security robots 300 and 300a, for example The first control area 400 and the second control area 400a are the control areas of other security robots 300b to and 300e disposed nearby, for example, the third control area 400b, the fourth control area ( 400c), in connection with any one of the fifth control area 400d and the sixth control area 400e, the first control area 400 and the second control area 400a are managed to be reallocated.

계속해서, 상기 S600 단계를 수행한 다음, 경비 로봇(300, 300a)이 이벤트 발생 구역(500)에 도착하여 현장 정보를 수집(S700)하고, 상기 경비 로봇(300, 300a)이 S700 단계에서 수집된 현장 정보에 기반하여 상기 관제 서버(200)의 예측 상황이 맞는지 판단하고, 상기 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버(200)로 전송(S800)한다.Subsequently, after performing the step S600, the security robots 300 and 300a arrive at the event generating area 500 to collect on-site information (S700), and the security robots 300 and 300a are collected in step S700 Based on the field information, it is determined whether the predicted situation of the control server 200 is correct, and if the predicted situation is correct, additional information for determining the next operation is collected and transmitted to the control server 200 (S800) .

또한, 상기 S800 단계에서 상기 관제 서버(200)는 개별 경비 로봇(300, 300a)으로부터 수신된 예측 상황에 대한 판단 결과와 추가 정보를 기반으로 해당 상황에 대응하는 대응 시나리오를 생성한다.In addition, in the step S800, the control server 200 generates a corresponding scenario corresponding to the situation based on the determination result and the additional information about the predicted situation received from the individual security robots (300, 300a).

또한, 상기 관제 서버(200)는 생성된 대응 시나리오에 따라 경비 로봇(300, 300a)이 작동되도록 제어(S900)한다.In addition, the control server 200 controls the security robots 300 and 300a to operate according to the generated corresponding scenario (S900).

또한, 상기 S900 단계에서 상기 관제 서버(200)는 생성된 대응 시나리오에서 추가 경비 로봇의 이동이 요구되면, 이벤트 발생 구역(500)의 인근에서 추가 경비 로봇을 검색하고, 검색된 추가 경비 로봇이 상기 이벤트 발생 구역(500)으로 이동하도록 제어한다.In addition, in the step S900, when the movement of the additional security robot is requested in the generated corresponding scenario, the control server 200 searches for an additional security robot in the vicinity of the event generating area 500, and the searched additional security robot is the event Control to move to the generation zone (500).

또한, 상기 관제 서버(200)는 상기 추가 경비 로봇이 이동함에 따라 상기 추가 경비 로봇의 관제 구역을 다른 경비 로봇(300b 내지, 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 한다.In addition, as the control server 200 moves, the control area of the additional security robot is reassigned in connection with the control areas 400b to 400e of the other security robots 300b to 300e.

따라서, 다수의 영상 촬영 단말로부터 수집한 정보를 기반으로 이벤트의 발생을 분석하고, 이벤트가 발생됨에 따라 복수의 경비 로봇을 연계한 작동 모드와 시나리오의 생성을 통해 경비 로봇의 관제 구역을 동적으로 재할당하여 경비 로봇을 제어할 수 있게 된다.Therefore, the occurrence of an event is analyzed based on the information collected from a plurality of image capturing terminals, and as the event occurs, the control area of the security robot is dynamically reallocated through the creation of an operation mode and scenario linking a plurality of security robots. This allows the security robot to be controlled.

이상 몇 가지의 실시예를 통해 본 발명의 기술적 사상을 살펴보았다.The technical idea of the present invention has been reviewed through the above several embodiments.

본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 상기 살펴본 실시예를 다양하게 변형하거나 변경할 수 있음은 자명하다. 또한, 비록 명시적으로 도시되거나 설명되지 아니하였다 하여도 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기재사항으로부터 본 발명에 의한 기술적 사상을 포함하는 다양한 형태의 변형을 할 수 있음은 자명하며, 이는 여전히 본 발명의 권리범위에 속한다. 첨부하는 도면을 참조하여 설명된 상기의 실시예들은 본 발명을 설명하기 위한 목적으로 기술된 것이며 본 발명의 권리범위는 이러한 실시예에 국한되지 아니한다.It is apparent that those of ordinary skill in the art to which the present invention pertains can variously modify or change the above-described embodiments from the description of the present invention. In addition, even if not explicitly shown or described, a person of ordinary skill in the art to which the present invention pertains may make various modifications including the technical idea according to the present invention from the description of the present invention. is self-evident, which still falls within the scope of the present invention. The above embodiments described with reference to the accompanying drawings have been described for the purpose of explaining the present invention, and the scope of the present invention is not limited to these embodiments.

100 : 영상 촬영 단말 100a : 영상 촬영 단말 1
100b : 영상 촬영 단말 2 100c : 영상 촬영 단말 3
100d : 영상 촬영 단말 4 100e : 영상 촬영 단말 5
100n : 영상 촬영 단말 n 200 : 관제 서버
210 : 데이터 통신부 220 : 서버 관리부
221 : 관제 관리부 222 : 인공지능 관리부
230 : 데이터베이스 300 : 경비 로봇
300a : 경비 로봇 1 300b : 경비 로봇 2
300c : 경비 로봇 3 300d : 경비 로봇 4
300e : 경비 로봇 5 300n : 경비 로봇 n
310 : 데이터통신부 320 : 입력부
321 : 카메라 322 : 마이크
330 : 센서부 340 : 주행부
350 : 출력부 351 : 디스플레이부
352 : 스피커 353 : 광출력부
354 : 햅틱 모듈부 360 : 제어부
400 : 제1 관제 구역 400a : 제2 관제 구역
400b : 제3 관제 구역 400c : 제4 관제 구역
400d : 제5 관제 구역 400e : 제6 관제 구역
500 : 이벤트 발생 구역 600 : 이동 경로
100: video recording terminal 100a: video recording terminal 1
100b: video recording terminal 2 100c: video recording terminal 3
100d: video recording terminal 4 100e: video recording terminal 5
100n: video recording terminal n 200: control server
210: data communication unit 220: server management unit
221: control management unit 222: artificial intelligence management unit
230: database 300: security robot
300a: security robot 1 300b: security robot 2
300c : Guard Robot 3 300d : Guard Robot 4
300e: security robot 5 300n: security robot n
310: data communication unit 320: input unit
321: camera 322: microphone
330: sensor unit 340: driving unit
350: output unit 351: display unit
352: speaker 353: optical output unit
354: haptic module unit 360: control unit
400: first control area 400a: second control area
400b: 3rd control area 400c: 4th control area
400d: 5th control area 400e: 6th control area
500: event occurrence area 600: movement path

Claims (7)

관제 서버(200)는 하나 이상의 영상 촬영 단말(100 내지 100n)과 접속하여 영상 정보를 수신하고, 복수의 경비 로봇(300 내지 300e)과 데이터 신호를 송수신하는 데이터 통신부(210);
상기 영상 촬영 단말(100 내지 100n)로부터 수신한 영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하며, 상기 이벤트가 감지된 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하여 검색된 경비 로봇(300, 300a)으로 상위 순서의 예측 상황을 각각 전송하고, 예측 상황을 수신한 상기 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동하면, 상기 경비 로봇(300, 300a)의 관제 구역(400, 400a)을 인근에 배치된 다른 경비 로봇(300b 내지 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리하는 서버 관리부(220); 및
상기 수신된 영상 정보, 개별 경비 로봇(300 내지 300e)에 설정된 관제 구역(400 내지 400e), 발생 이벤트에 대응하는 경비 로봇의 작동 모드와 대응 시나리오 정보를 저장하는 데이터베이스(230);로 이루어지며,

서버 관리부(220)는 경비 로봇(300, 300a)이 설정된 관제 구역에서 작동되도록 관리하고, 예측 상황을 수신한 상기 경비 로봇(300, 300a)이 이벤트 발생 구역으로 이동함에 따라, 상기 경비 로봇(300, 300a)의 관제 구역을 인근에 배치된 다른 경비 로봇(300b 내지 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리하고, 이벤트 발생 구역의 경비 로봇(300, 300a)으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신하면, 해당 상황에 대응하는 시나리오를 생성하여 상기 경비 로봇(300, 300a)이 생성된 시나리오에 따라 작동되도록 제어하는 관제 관리부(221); 및
영상 정보를 분석하여 이벤트 발생을 감지하고, 감지된 상기 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하며, 이벤트 발생 구역으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하여 검색된 경비 로봇으로 상위 순서의 예측 상황을 각각 전송하는 인공지능 관리부(222);로 이루어지며,

경비 로봇(300 내지 300e)은 상기 관제 서버(200)와 데이터 통신을 수행하는 데이터 통신부(310);
현장 모습을 촬영하는 카메라(321)와, 주변의 음향 신호를 수신하는 마이크(322)를 포함하는 입력부(320);
상기 경비 로봇(300 내지 300e)의 주변 환경 정보를 획득하는 센서부(330);
액츄에이터 또는 모터를 포함하는 구동부를 구비하고, 제어신호에 따라 지상에서 주행하거나 또는 공중에서 비행하여 이동하는 주행부(340);
시각, 청각 및 촉각과 관련된 출력을 발생하는 출력부(350); 및
상기 관제 서버(200)의 제어를 통해 이벤트 발생 구역(500)으로 이동시, 상기 이벤트 발생 구역(500)에서 현장 정보를 수집하여 상기 관제 서버(200)의 예측 상황이 맞는지 판단하고, 예측 상황이 맞으면, 다음 작동을 결정 위한 추가 정보의 수집을 수행하여 상기 관제 서버(200)로 전송하는 제어부(360);로 이루어지며,

관제 서버(200)는 하나 이상의 영상 촬영 단말(100 내지 100n)로부터 수신한 영상 정보에서 이벤트가 감지됨에 따라,
감지된 이벤트에서 예측 가능한 상황을 확률 값을 기반으로 분석하여 순위화 하고,
상기 이벤트가 감지된 이벤트 발생 구역(500)으로 최단 시간에 도착 가능한 두 대 이상의 경비 로봇을 검색하되,
검색된 경비 로봇(300, 300a)으로 상위 순서의 예측 상황을 각각 전송하여 상기 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동하도록 제어하고,
예측 상황을 수신한 경비 로봇(300, 300a)이 이벤트 발생 구역(500)으로 이동하면, 상기 경비 로봇(300, 300a)의 관제 구역(400, 400a)을 인근에 배치된 다른 경비 로봇(300b 내지, 300e)의 관제 구역(400b 내지 400e)과 연계하여 재할당되도록 관리하며,

상기 관제 관리부(221)는 상기 이벤트 발생 구역(500)으로 이동한 경비 로봇(300, 300a)으로부터 예측 상황에 대한 판단 결과와 추가 정보를 수신하면, 상기 판단 결과와 추가 정보에 대응하는 시나리오를 생성하고, 생성된 대응 시나리오에 따라 상기 경비 로봇(300, 300a)이 작동되도록 제어하되, 상기 경비 로봇(300, 300a) 각각에게 서로 다른 역할을 부여하며,
상기 예측 상황에 대한 판단은 현장 정보의 분석으로부터 이루어지며, 상기 현장 정보는 상기 경비 로봇(300, 300a)의 카메라(321) 및 마이크(322)를 통해 수집되며,

상기 대응 시나리오에는 인근에 배치된 경비 로봇의 추가적인 이동 지시가 포함되며,
상기 관제 서버(200)는 상기 대응 시나리오의 생성시 추가 경비 로봇이 요구된다고 판단되면,
상기 이벤트 발생 구역(500)의 인근에서 추가 경비 로봇을 검색하여 상기 이벤트 발생 구역(500)으로 이동하도록 제어하며,

상기 관제 서버(200)는 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)의 이동 경로에 기반하여 현재의 테스크를 넘겨 받을 다른 관제 구역의 다른 경비 로봇(300b 내지 300e)과의 타이밍을 산출하되,
상기 다른 관제 구역의 경비 로봇(300b 내지 300e)은 설정된 관제 구역을 벗어나지 않으면서, 이벤트 발생 구역(500)으로 이동하는 경비 로봇(300, 300a)으로 이동하여 테스크가 수신되도록 제어하는 것을 특징으로 하는 경비 로봇 관제 시스템.
The control server 200 is connected to one or more image capturing terminals (100 to 100n) to receive image information, and a data communication unit 210 for transmitting and receiving data signals with a plurality of security robots (300 to 300e);
The event occurrence is detected by analyzing the video information received from the video recording terminals 100 to 100n, and predictable situations in the detected event are analyzed and ranked based on the probability value, and the event occurrence area in which the event is detected Searching for two or more security robots that can arrive in the shortest time to 500, and transmitting the predicted situation in the upper order to the searched security robots 300 and 300a, respectively, and the security robots 300 and 300a receiving the predicted situation When moving to the event generating area 500, the control areas 400 and 400a of the security robots 300 and 300a are linked with the control areas 400b to 400e of other security robots 300b to 300e disposed nearby. a server management unit 220 that manages to be reallocated; and
The received image information, the control area 400 to 400e set in the individual security robots 300 to 300e, and a database 230 for storing the operation mode and corresponding scenario information of the security robot corresponding to the occurrence event; consists of;

The server management unit 220 manages the security robots 300 and 300a to operate in the set control area, and as the security robots 300 and 300a receiving the predicted situation move to the event occurrence area, the security robot 300 , 300a) manages to be reassigned in connection with the control areas 400b to 400e of other security robots 300b to 300e disposed nearby, and predicts the situation from the security robots 300 and 300a in the event occurrence area a control management unit 221 for generating a scenario corresponding to the corresponding situation and controlling the security robots 300 and 300a to operate according to the generated scenario when receiving the determination result and additional information; and
Detects the occurrence of an event by analyzing the video information, analyzes and ranks the predictable situations from the detected event based on the probability value, and searches for two or more security robots that can arrive at the event occurrence area in the shortest time. The artificial intelligence management unit 222 that transmits the prediction situation of the higher order to the robot; consists of,

The security robot (300 to 300e) is a data communication unit 310 for performing data communication with the control server 200;
an input unit 320 including a camera 321 for photographing the scene, and a microphone 322 for receiving a surrounding acoustic signal;
A sensor unit 330 for obtaining information about the surrounding environment of the security robot (300 to 300e);
a driving unit 340 having a driving unit including an actuator or a motor, and moving on the ground or flying in the air according to a control signal;
an output unit 350 for generating outputs related to visual, auditory and tactile senses; and
When moving to the event occurrence area 500 through the control of the control server 200, the site information is collected in the event generation zone 500 to determine whether the prediction situation of the control server 200 is correct, and if the prediction situation is correct , a control unit 360 that collects additional information for determining the next operation and transmits it to the control server 200; consists of,

As the control server 200 detects an event in the image information received from one or more image capturing terminals 100 to 100n,
Analyze and rank predictable situations based on probability values in the detected events,
Search for two or more security robots that can arrive in the shortest time to the event occurrence area 500 in which the event is detected,
Controls the security robots 300 and 300a to move to the event occurrence area 500 by transmitting the predicted situations of the upper order to the searched security robots 300 and 300a, respectively,
When the security robot 300, 300a that has received the predicted situation moves to the event generation area 500, the control area 400, 400a of the security robot 300, 300a is placed nearby other security robots 300b to , 300e) manages to be reassigned in connection with the control area (400b to 400e),

When the control management unit 221 receives the determination result and additional information on the predicted situation from the security robots 300 and 300a that have moved to the event generating area 500, a scenario corresponding to the determination result and the additional information is generated. And, the security robot (300, 300a) is controlled to operate according to the generated corresponding scenario, and gives different roles to each of the security robots (300, 300a),
Determination of the predicted situation is made from the analysis of field information, and the field information is collected through the camera 321 and the microphone 322 of the security robots 300 and 300a,

The response scenario includes an additional movement instruction from a nearby security robot,
When the control server 200 determines that an additional security robot is required when generating the corresponding scenario,
Searching for an additional security robot in the vicinity of the event generating area 500 and controlling it to move to the event generating area 500,

The control server 200 is based on the movement path of the security robots 300 and 300a moving to the event generating area 500, timing with other security robots 300b to 300e in the other control area to take over the current task. to calculate,
The security robots 300b to 300e of the other control area move to the security robots 300 and 300a that move to the event generation area 500 without leaving the set control area, and control so that the task is received. Guard robot control system.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020200105551A 2020-08-21 2020-08-21 System and method for controlling security robot KR102423414B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200105551A KR102423414B1 (en) 2020-08-21 2020-08-21 System and method for controlling security robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200105551A KR102423414B1 (en) 2020-08-21 2020-08-21 System and method for controlling security robot

Publications (2)

Publication Number Publication Date
KR20220023610A KR20220023610A (en) 2022-03-02
KR102423414B1 true KR102423414B1 (en) 2022-07-20

Family

ID=80815799

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200105551A KR102423414B1 (en) 2020-08-21 2020-08-21 System and method for controlling security robot

Country Status (1)

Country Link
KR (1) KR102423414B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515478B1 (en) 2022-08-30 2023-03-29 주식회사 파이엇 a distributed processing robot management system
KR102623034B1 (en) * 2023-02-07 2024-01-09 주식회사 유투에스알 AI convergence mobile-type integrated boundary system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102654951B1 (en) * 2022-04-05 2024-04-04 인하대학교 산학협력단 Method and System for Fire Response based on Smart Unmanned Self-Driving Platform

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101187906B1 (en) * 2007-07-27 2012-10-05 삼성테크윈 주식회사 System for intelligent surveillance and method for controlling thereof
KR101735037B1 (en) * 2010-04-22 2017-05-15 경북대학교 산학협력단 Robot Controlling Apparatus and method thereof
US11977384B2 (en) * 2019-06-25 2024-05-07 Lg Electronics Inc. Control system for controlling a plurality of robots using artificial intelligence
KR102258381B1 (en) 2019-07-31 2021-05-31 엘지전자 주식회사 Artificial intelligence server for controlling plurality of robots and method for the same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102515478B1 (en) 2022-08-30 2023-03-29 주식회사 파이엇 a distributed processing robot management system
KR102623034B1 (en) * 2023-02-07 2024-01-09 주식회사 유투에스알 AI convergence mobile-type integrated boundary system

Also Published As

Publication number Publication date
KR20220023610A (en) 2022-03-02

Similar Documents

Publication Publication Date Title
KR102423414B1 (en) System and method for controlling security robot
US10896599B1 (en) Immersive virtual reality detection and alerting technology
US11143521B2 (en) System and method for aiding responses to an event detected by a monitoring system
US10504348B2 (en) Virtual enhancement of security monitoring
US9921068B2 (en) Devices and methods to facilitate escape from a venue with a sudden hazard
US20210279603A1 (en) Security systems and methods
KR102174784B1 (en) Method for Recognizing and Tracking Large-scale Object using Deep learning and Multi-Agent
US20200019779A1 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
KR102096175B1 (en) Ceiling rail type IoT based surveillance robot device
JP4919648B2 (en) Wireless terminal management system
EP3989136B1 (en) Venue evacuation system
KR102509570B1 (en) Control device using artificial intelligence learning images and electrical signals and intrusion alert systme including the same
JP2013131153A (en) Autonomous crime prevention warning system and autonomous crime prevention warning method
KR102263159B1 (en) Artificial intelligence server for determining route for robot and method for the same
KR102470131B1 (en) Deep learning based building management system with rail robot device
KR102423415B1 (en) System and method for managing network of control robot
Chang et al. Video surveillance for hazardous conditions using sensor networks
US20210278845A1 (en) Optimizing A Navigation Path of a Robotic Device
KR20220059210A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
KR102299704B1 (en) System for smart deep learning video surveillance by linking disaster environment metadata
KR102502922B1 (en) Method, device and system for alarming and monitoring of emergency situation
KR102476777B1 (en) AI-based path prediction system
KR20220063865A (en) System and method for vision managing of workplace and computer-readable recording medium thereof
WO2022242827A1 (en) Information aggregation in a multi-modal entity-feature graph for intervention prediction
KR101961800B1 (en) Emergency accident rescue system using drones

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant