KR102366332B1 - Robot with artificial intelligence algorithm - Google Patents

Robot with artificial intelligence algorithm Download PDF

Info

Publication number
KR102366332B1
KR102366332B1 KR1020210089503A KR20210089503A KR102366332B1 KR 102366332 B1 KR102366332 B1 KR 102366332B1 KR 1020210089503 A KR1020210089503 A KR 1020210089503A KR 20210089503 A KR20210089503 A KR 20210089503A KR 102366332 B1 KR102366332 B1 KR 102366332B1
Authority
KR
South Korea
Prior art keywords
robot
unit
artificial intelligence
quarantine
schedule
Prior art date
Application number
KR1020210089503A
Other languages
Korean (ko)
Inventor
최동완
Original Assignee
주식회사 제타뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제타뱅크 filed Critical 주식회사 제타뱅크
Priority to KR1020210089503A priority Critical patent/KR102366332B1/en
Application granted granted Critical
Publication of KR102366332B1 publication Critical patent/KR102366332B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Fuzzy Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)

Abstract

The present invention relates to a disinfection reception robot using an artificial intelligence algorithm, which comprises: a reception unit performing interaction with a person positioned in a target space; a disinfection unit performing disinfection on the target space; a sensing unit detecting the person in the target space and measuring a contamination level of the target space; an artificial intelligence module generating predictive information related to floating population divided by time zones for each area and a contamination level divided by the time zones for each area by learning data received from the sensing unit and generating an operating schedule based on the prediction information; an artificial intelligence module generating the operating schedule based on the prediction information; and a control unit controlling the disinfection unit and the reception unit based on the schedule.

Description

인공 지능 알고리즘이 적용된 방역 로봇, 멸균 로봇, 방역 접객 로봇, 방역 협동 로봇{Robot with artificial intelligence algorithm}A quarantine robot to which an artificial intelligence algorithm is applied, a sterilization robot, a quarantine hospitality robot, and a quarantine cooperative robot {Robot with artificial intelligence algorithm}

본 발명은 인공 지능 알고리즘이 적용된 방역용 접객 로봇에 관한 것이다.The present invention relates to a hospitality robot for quarantine to which an artificial intelligence algorithm is applied.

최근에는 산업체에서 이용되는 산업용 로봇뿐만 아니라 일반 가정이나 사무실, 관공서 등 건물내에서 가사일이나 사무 보조로서 로봇이 실용화되고 있다. 이에 해당하는 대표적인 예로서 청소 로봇, 안내 로봇, 방범 로봇 등을 들 수 있다. Recently, not only industrial robots used in industries, but also robots are being put to practical use as housework or office assistants in buildings such as general homes, offices, and government offices. Representative examples corresponding to this include a cleaning robot, a guide robot, a crime prevention robot, and the like.

최근에는 여러가지 역할을 수행하는 로봇들도 등장하고 있다. 다기능 로봇의 경우, 상황에 따라 적절한 기능들을 수행해야 하는 문제가 있다.Recently, robots that perform various roles have also appeared. In the case of a multi-function robot, there is a problem in that it needs to perform appropriate functions depending on the situation.

등록번호 10-1987133Registration number 10-1987133

본 발명은 상기한 문제점을 해결하기 위하여, 상황에 맞춰 적절한 기능을 수행하는 다기능 로봇을 제공하는데 목적이 있다.An object of the present invention is to provide a multifunctional robot that performs an appropriate function according to the situation in order to solve the above problems.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 인공 지능 알고리즘이 적용된 방역용 접객 로봇은, 인공 지능에 따라 생성된 예측 정보에 기초하여 동작된다.In order to achieve the above object, the hospitality robot for quarantine to which an artificial intelligence algorithm is applied according to an embodiment of the present invention is operated based on prediction information generated according to artificial intelligence.

본 발명의 실시예에 따른 인공 지능 알고리즘이 적용된 방역용 접객 로봇은, 대상 공간에 위치한 사람과 인터렉션을 수행하는 접객부; 대상 공간에 대한 방역을 수행하는 방역부; 대상 공간에서 사람을 검출하고, 대상 공간의 오염도를 측정하는 센싱부; 상기 센싱부에서 제공받은 데이터를 학습하여 영역별 시간대로 구분된 유동인구 및 영역별 시간대로 구분된 오염도에 관한 예측 정보를 생성하고, 상기 예측 정보에 기초하여 동작 스케줄을 생성하는 인공 지능 모듈; 및 상기 스케줄에 기초하여, 상기 방역부 및 상기 접객부를 제어하는 제어부;를 포함한다.A hospitality robot for quarantine to which an artificial intelligence algorithm is applied according to an embodiment of the present invention includes: a hospitality unit that interacts with a person located in a target space; a quarantine department that performs quarantine on the target space; a sensing unit for detecting a person in the target space and measuring a degree of contamination of the target space; an artificial intelligence module for learning the data provided by the sensing unit, generating prediction information about the floating population divided by time zone for each area and pollution degree divided by time zone for each area, and generating an operation schedule based on the prediction information; and a control unit controlling the quarantine unit and the hospitality unit based on the schedule.

상기 인공 지능 모듈은, 상기 데이터를 학습하여, 예측 모델을 생성하고, 상기 예측 모델에 영역별 센싱 데이터 및 시간별 센싱 데이터를 입력하여 상기 예측 정보를 생성한다.The artificial intelligence module generates a prediction model by learning the data, and generates the prediction information by inputting sensing data for each area and sensing data for each time into the prediction model.

상기 인공 지능 모듈은, 상기 예측 정보에 기초하여, 제1 기간 동안 접객 스케줄을 생성하고, 상기 제어부는, 상기 접객 스케줄에 따라 상기 접객부를 제어한다.The artificial intelligence module generates a customer service schedule for a first period based on the prediction information, and the controller controls the hospitality unit according to the customer service schedule.

상기 인공 지능 모듈은, 상기 예측 정보에 기초하여, 제2 기간 동안 방역 스케줄을 생성하고, 상기 제어부는, 상기 방역 스케줄에 따라 상기 방역부를 제어한다.The artificial intelligence module generates a quarantine schedule for a second period based on the prediction information, and the controller controls the quarantine unit according to the quarantine schedule.

본 발명의 실시예에 따른 인공 지능 알고리즘이 적용된 방역용 접객 로봇은, 충전 스테이션으로부터 전기 에너지를 공급받는 충전부;를 더 포함하고, 상기 인공 지능 모듈은, 상기 예측 정보에 기초하여, 제3 기간 동안 충전 스케줄을 생성하고, 상기 제어부는, 상기 충전 스케줄에 따라 상기 충전부를 제어한다. The hospitality robot for quarantine to which an artificial intelligence algorithm is applied according to an embodiment of the present invention further includes a charging unit receiving electric energy from a charging station, wherein the artificial intelligence module is configured to include, based on the prediction information, for a third period A charging schedule is generated, and the controller controls the charging unit according to the charging schedule.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.The details of other embodiments are included in the detailed description and drawings.

본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.

첫째, 로봇이 상황에 맞춘 스케줄을 생성하고, 스케줄에 따라 효율적인 동작을 수행하는 효과가 있다.First, there is an effect that the robot creates a schedule tailored to the situation and performs an efficient operation according to the schedule.

둘째, 인공지능 적용에 의해, 효율적 관리가 이루어지므로 사용자의 편의성이 증대되는 효과가 있다.Second, there is an effect of increasing user convenience because efficient management is performed by applying artificial intelligence.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 로봇의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 로봇의 제어 블럭도이다.
도 3은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.
도 4는 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.
도 5는 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.
도 6은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.
1 is a view showing an external appearance of a robot according to an embodiment of the present invention.
2 is a control block diagram of a robot according to an embodiment of the present invention.
3 is a diagram referenced for explaining the operation of the robot according to the embodiment of the present invention.
4 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.
5 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.
6 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.
7 is a diagram referenced for explaining the operation of the robot according to the embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numbers regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "part" for components used in the following description are given or mixed in consideration of only the ease of writing the specification, and do not have distinct meanings or roles by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed herein is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including an ordinal number such as 1st, 2nd, etc. may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is referred to as being “connected” or “connected” to another element, it is understood that it may be directly connected or connected to the other element, but other elements may exist in between. it should be On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expression includes the plural expression unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as “comprises” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

도 1은 본 발명의 실시예에 따른 로봇의 외관을 도시한 도면이다.1 is a view showing an external appearance of a robot according to an embodiment of the present invention.

도면을 참조하면, 본 발명의 실시예에 따른 인공 지능 알고리즘이 적용된 방역용 접객 로봇(100)(이하, 로봇)은, 멀티 동작을 수행하는 로봇이다. 구체적으로, 로봇(100)은, 대상 공간에서 자율 주행하며, 대상 공간에 위치한 사람에 대한 접객을 수행하고, 방역을 수행할 수 있다. 한편, 대상 공간은, 로봇(100)이 자율 주행하면서 각종 동작을 수행하는 공간으로 정의될 수 있다.Referring to the drawings, the hospitality robot 100 for quarantine to which an artificial intelligence algorithm is applied according to an embodiment of the present invention (hereinafter referred to as a robot) is a robot that performs multi-operations. Specifically, the robot 100 may autonomously drive in a target space, serve a person located in the target space, and perform quarantine. Meanwhile, the target space may be defined as a space in which the robot 100 performs various operations while autonomously driving.

로봇(100)은, 특정 시간대에 유동 인구가 많은 공간에 배치될 수 있다. 예를 들면, 로봇(100)은, 관공서, 도서관, 학교, 기업체, 공항, 터미널 등의 공간에 배치되어, 접객 동작과 방역 동작을 수행할 수 있다. The robot 100 may be disposed in a space with a large floating population at a specific time. For example, the robot 100 may be disposed in spaces such as government offices, libraries, schools, corporations, airports, and terminals to perform hospitality and quarantine operations.

특정 시간대 유동 인구가 많은 공간에서 로봇(100)은, 접객 동작과 방역 동작을 동시에 수행하게 되면 문제가 발생될 수 있다. 접객 동작을 수행하는 동안, 방역 동작을 수행하게 되면, 접객 대상이 되는 사람에게 소독액 분사등에 따른 피해를 줄 수 있다. 반면, 유동 인구가 많아지게 되면 공간에 대한 오염도가 높아지게 되어 방역이 필요하게 된다. 따라서, 로봇(100)은, 유동인구 및 오염도에 대해 예측을 하고 상황에 맞는 동작을 수행해야 한다.In a space with a large floating population during a specific time period, when the robot 100 performs a hospitality operation and a quarantine operation at the same time, a problem may occur. If the quarantine operation is performed while the hospitality operation is being performed, damage may be caused by spraying the disinfectant solution to a person who is a customer service target. On the other hand, if the floating population increases, the degree of contamination of the space increases, and quarantine is necessary. Therefore, the robot 100 should predict the floating population and pollution level and perform an operation appropriate to the situation.

한편, 로봇(100)은, 내부에 포함된 배터리로부터 전기 에너지를 공급받는다. 멀티 동작을 수행하는 동안에 전기 에너지를 공급받기 위해서는, 상황에 맞춰 충전이 이루어져야 한다.Meanwhile, the robot 100 receives electrical energy from a battery included therein. In order to receive electrical energy while performing multi-operation, charging must be performed according to the situation.

로봇(100)은, 대상 공간의 상황에 맞춰, 접객 동작, 방역 동작, 충전 동작을 수행할 수 있다.The robot 100 may perform a hospitality operation, a quarantine operation, and a charging operation according to the situation of the target space.

한편, 실시예에 따라 로봇(100)은, 의료용 배송 로봇, 방역 로봇, 방역 접객 로봇, 이동형 협동 로봇, 청소 로봇, 출입 관리 로봇 또는 건물 정보 제공 로봇(예를 들면, 키오스크)으로 활용할 수 있다.Meanwhile, according to an embodiment, the robot 100 may be used as a medical delivery robot, a quarantine robot, a quarantine hospitality robot, a mobile cooperative robot, a cleaning robot, an access management robot, or a building information providing robot (eg, a kiosk).

도 2는 본 발명의 실시예에 따른 로봇의 제어 블럭도이다.2 is a control block diagram of a robot according to an embodiment of the present invention.

도면을 참조하면, 로봇(100)은, 특정 공간에서 스스로 이동하면서 동작을 수행한다. 로봇(100)은, 자율 주행 이동 로봇으로 명명될 수 있다. 로봇(100)은, 자율 주행할 수 있다. 로봇(100)은, 센싱부(110) 및 인공지능 모듈(200)에서 생성된 데이터에 기초하여 주행 경로를 생성하고, 생성된 경로를 따라 자율 주행할 수 있다. Referring to the drawings, the robot 100 performs an operation while moving by itself in a specific space. The robot 100 may be called an autonomous driving mobile robot. The robot 100 can autonomously travel. The robot 100 may generate a driving path based on data generated by the sensing unit 110 and the artificial intelligence module 200 and autonomously travel along the generated path.

로봇(100)은, 센싱부(110), 인공지능 모듈(200), 통신부(125), 입력부(130), 메모리(140), 제어부(170), 구동부(150), 방역부(160), 접객부(180) 및 충전부(190)를 포함할 수 있다.The robot 100 includes a sensing unit 110 , an artificial intelligence module 200 , a communication unit 125 , an input unit 130 , a memory 140 , a control unit 170 , a driving unit 150 , a quarantine unit 160 , It may include a customer service unit 180 and a charging unit 190 .

센싱부(110)는, 로봇(100) 내부 또는 외부의 상황을 감지할 수 있다. 센싱부(110)는, 적어도 하나의 센서에서 생성된 데이터를 제어부(170)에 제공할 수 있다. 제어부(170)는, 센싱부(110)로부터 수신된 데이터에 기초하여 동작을 수행할 수 있다.The sensing unit 110 may sense a situation inside or outside the robot 100 . The sensing unit 110 may provide data generated by at least one sensor to the control unit 170 . The control unit 170 may perform an operation based on data received from the sensing unit 110 .

센싱부(110)는, 대상 공간에서 사람을 검출할 수 있다. 예를 들면, 센싱부(110)는, 카메라로 촬영된 영상 분석을 통해, 대상 공간에서 사람을 검출할 수 있다.The sensing unit 110 may detect a person in the target space. For example, the sensing unit 110 may detect a person in the target space through image analysis captured by a camera.

센싱부(110)는, 대상 공간의 오염도를 측정할 수 있다. 예를 들면, 센싱부(110)는, 환경 센서에서 생성된 데이터를 통해, 대상 공간의 오염도를 측정할 수 있다.The sensing unit 110 may measure the degree of contamination of the target space. For example, the sensing unit 110 may measure the pollution degree of the target space through data generated by the environmental sensor.

한편, 센싱부(110)는, 로봇(100)이 자율 주행하는 도중에 내부 또는 외부의 상황을 감지할 수 있다.Meanwhile, the sensing unit 110 may sense an internal or external situation while the robot 100 autonomously travels.

센싱부(110)는, 복수의 센서를 포함한다. 센싱부(110)는, 초음파 센서, 라이다, 레이다, 적외선 센서, 카메라, 환경 센서, IMU(Inertial Measurement Unit)를 포함할 수 있다.The sensing unit 110 includes a plurality of sensors. The sensing unit 110 may include an ultrasonic sensor, a lidar, a radar, an infrared sensor, a camera, an environmental sensor, and an Inertial Measurement Unit (IMU).

초음파 센서는, 초음파를 이용하여, 로봇(100) 외부의 오브젝트를 감지할 수 있다. The ultrasonic sensor may detect an object outside the robot 100 using ultrasonic waves.

초음파 센서는, 초음파 송신부, 수신부를 포함할 수 있다. 실시예에 따라, 초음파 센서는, 초음파 송신부, 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 제어부를 더 포함할 수 있다. 초음파 센서의 제어부 기능은 제어부(170)에서 구현될 수도 있다.The ultrasonic sensor may include an ultrasonic transmitter and a receiver. According to an embodiment, the ultrasonic sensor may further include at least one controller electrically connected to the ultrasonic transmitter and the receiver to process a received signal, and to generate data about an object based on the processed signal. The control function of the ultrasonic sensor may be implemented in the control unit 170 .

초음파 센서는, 초음파를 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. The ultrasonic sensor may detect an object based on ultrasonic waves, and detect a position of the detected object, a distance from the detected object, and a relative speed.

초음파 센서는, 로봇(100)의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 로봇(100) 외부의 적절한 위치에 배치될 수 있다.The ultrasonic sensor may be disposed at an appropriate position outside the robot 100 in order to detect an object located in front, rear, or side of the robot 100 .

라이다는, 레이저 광을 이용하여, 로봇(100) 외부의 오브젝트를 감지할 수 있다. The lidar may detect an object outside the robot 100 by using laser light.

라이다는, 광 송신부 및 광 수신부를 포함할 수 있다. 실시예에 따라, 라이다는, 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 제어부를 더 포함할 수 있다. 라이다의 제어부 기능은 제어부(170)에서 구현될 수도 있다.The lidar may include a light transmitter and a light receiver. According to an embodiment, the lidar may further include at least one controller that is electrically connected to the light transmitter and the light receiver, processes a received signal, and generates data for an object based on the processed signal. . The control function of the lidar may be implemented in the control unit 170 .

라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. The lidar may be implemented in a time of flight (TOF) method or a phase-shift method.

라이다는, 구동식 또는 비구동식으로 구현될 수 있다. Lidar can be implemented as driven or non-driven.

구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 로봇(100) 주변의 오브젝트를 검출할 수 있다. When implemented as a driving type, the lidar is rotated by a motor and may detect an object around the robot 100 .

비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 로봇(100)을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. When implemented as a non-driven type, the lidar may detect an object located within a predetermined range with respect to the robot 100 by light steering.

로봇(100)은 복수의 비구동식 라이다를 포함할 수 있다. The robot 100 may include a plurality of non-driven lidar.

라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. LiDAR detects an object based on a time of flight (TOF) method or a phase-shift method with a laser light medium, and calculates the position of the detected object, the distance to the detected object, and the relative speed. can be detected.

라이다는, 로봇(100)의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 로봇(100) 외부의 적절한 위치에 배치될 수 있다.The lidar may be disposed at an appropriate position outside the robot 100 in order to detect an object located in front, rear or side of the robot 100 .

레이다는, 전자파 송신부, 수신부를 포함할 수 있다. 레이더는 전파 발사 원리상 펄스 레이더(Pulse Radar) 방식 또는 연속파 레이더(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이더는 연속파 레이더 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keying) 방식으로 구현될 수 있다.The radar may include an electromagnetic wave transmitter and a receiver. The radar may be implemented in a pulse radar method or a continuous wave radar method in accordance with the principle of radio wave emission. The radar may be implemented as a frequency modulated continuous wave (FMCW) method or a frequency shift keying (FSK) method according to a signal waveform among continuous wave radar methods.

레이더는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. The radar detects an object based on a time of flight (TOF) method or a phase-shift method using electromagnetic waves, and detects the position of the detected object, the distance to the detected object, and the relative speed. can

레이더는, 로봇(100)의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 로봇(100)의 외부의 적절한 위치에 배치될 수 있다. The radar may be disposed at an appropriate location outside of the robot 100 to detect an object located in front, rear or side of the robot 100 .

적외선 센서는, 적외선 송신부, 수신부를 포함할 수 있다. 적외선 센서는, 적외선 광을 기초로 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다.The infrared sensor may include an infrared transmitter and a receiver. The infrared sensor may detect an object based on infrared light, and detect a position of the detected object, a distance from the detected object, and a relative speed.

적외선 센서는, 로봇(100)의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 로봇(100)의 외부의 적절한 위치에 배치될 수 있다.The infrared sensor may be disposed at an appropriate position outside of the robot 100 to detect an object located in front, rear or side of the robot 100 .

카메라는, 로봇(100) 외부 영상을 촬영할 수 있다.The camera may take an external image of the robot 100 .

카메라는, 영상을 이용하여 로봇(100) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 제어부를 포함할 수 있다.The camera may generate information about an object outside the robot 100 by using the image. The camera may include at least one lens, at least one image sensor, and at least one controller electrically connected to the image sensor to process a received signal, and to generate data about the object based on the processed signal.

카메라는, 모노 카메라, 스테레오 카메라 중 적어도 어느 하나일 수 있다. The camera may be at least one of a mono camera and a stereo camera.

카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. The camera may obtain position information of an object, information about a distance from an object, or information about a relative speed with respect to an object by using various image processing algorithms.

예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. For example, the camera may acquire distance information and relative velocity information from an object based on a change in the size of the object over time from the acquired image.

예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. For example, the camera may acquire distance information and relative speed information with respect to an object through a pinhole model, road surface profiling, or the like.

예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. For example, the camera may acquire distance information and relative velocity information from an object based on disparity information in a stereo image obtained from the stereo camera.

카메라는, 로봇(100) 외부를 촬영하기 위해 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. The camera may be mounted at a position where it is possible to secure a field of view (FOV) in order to photograph the outside of the robot 100 .

로봇(100)은, 복수의 카메라를 포함할 수 있다. 예를 들면, 로봇(100)은, 전방 카메라, 후방 카메라, 좌측방 카메라, 우측방 카메라를 구성된 4채널 카메라를 포함할 수 있다.The robot 100 may include a plurality of cameras. For example, the robot 100 may include a four-channel camera including a front camera, a rear camera, a left camera, and a right camera.

환경 센서는, 대상 공간에 대한 오염도를 센싱할 수 있다. 예를 들면, 환경 센서는, 대상 공간에서의 방역 대상이 되는 생화학적 오염 물질의 유무, 농도 등을 센싱할 수 있다.The environmental sensor may sense a degree of pollution in the target space. For example, the environmental sensor may sense the presence, concentration, and the like of biochemical pollutants to be quarantined in the target space.

IMU(Inertial Measurement Unit)는, 로봇(100)의 관성을 측정할 수 있다. IMU는, 가속도계와 회전 속도계, 때로는 자력계의 조합을 사용하여 로봇(100)의 특정한 힘, 각도 비율 및 때로는 로봇(100)을 둘러싼 자기장을 측정하는 전자 장치로 설명될 수 있다. 제어부(170)는, IMU로부터 수신되는 데이터에 기초하여 로봇(100)의 자세에 대한 정보를 생성할 수 있다.An Inertial Measurement Unit (IMU) may measure the inertia of the robot 100 . An IMU can be described as an electronic device that uses a combination of an accelerometer and a tachometer, sometimes a magnetometer, to measure a specific force, angular ratio of the robot 100 , and sometimes a magnetic field surrounding the robot 100 . The controller 170 may generate information about the posture of the robot 100 based on data received from the IMU.

IMU는, 가속도 센서, 자이로 센서, 자기 센서 중 적어도 어느 하나를 포함할 수 있다.The IMU may include at least one of an acceleration sensor, a gyro sensor, and a magnetic sensor.

인공지능 모듈(200)은, 머신 러닝으로 사물, 공간, 로봇(100)의 속성을 학습할 수 있다. 머신 러닝은 컴퓨터에게 사람이 직접 로직(Logic)을 지시하지 않아도 데이터를 통해 컴퓨터가 학습을 하고 이를 통해 컴퓨터가 알아서 문제를 해결하게 하는 것을 의미한다.The artificial intelligence module 200 may learn properties of objects, spaces, and the robot 100 through machine learning. Machine learning means that a computer learns from data without a human instructing the computer to directly instruct logic, and allows the computer to solve problems on its own.

딥러닝(Deep Learning)은. 인공지능(artificial intelligence)을 구성하기 위한 인공신경망(Artificial Neural Networks: ANN)에 기반으로 해 컴퓨터에게 사람의 사고방식을 가르치는 방법으로 사람이 가르치지 않아도 컴퓨터가 스스로 사람처럼 학습할 수 있는 인공지능 기술이다.Deep Learning is. Based on Artificial Neural Networks (ANN) for constructing artificial intelligence, it is a method of teaching a computer how to think of a person. .

상기 인공신경망(ANN)은 소프트웨어 형태로 구현되거나 칩(chip) 등 하드웨어 형태로 구현될 수 있다.The artificial neural network (ANN) may be implemented in the form of software or hardware such as a chip.

인공지능 모듈(200)은 공간의 속성, 장애물 등 사물의 속성이 학습된 소프트웨어 또는 하드웨어 형태의 인공신경망(ANN)을 포함할 수 있다.The artificial intelligence module 200 may include an artificial neural network (ANN) in the form of software or hardware in which properties of objects, such as properties of space and obstacles, are learned.

예를 들어, 인공지능 모듈(200)은 딥러닝(Deep Learning)으로 학습된 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), DBN(Deep Belief Network) 등 심층신경망(Deep Neural Network: DNN)을 포함할 수 있다.For example, the artificial intelligence module 200 is a deep neural network (DNN) such as a Convolutional Neural Network (CNN), a Recurrent Neural Network (RNN), and a Deep Belief Network (DBN) trained by deep learning. may include

인공지능 모듈(200)은 상기 심층신경망(DNN)에 포함된 노드들 사이의 가중치(weight)들에 기초하여 입력되는 영상 데이터에 포함되는 공간, 사물의 속성을 판별할 수 있다.The artificial intelligence module 200 may determine the properties of a space and an object included in the input image data based on weights between nodes included in the deep neural network (DNN).

인공지능 모듈(200)은, 머신 러닝(machine learning)으로 기학습된 데이터에 기초하여 상기 선택된 특정 시점 영상에 포함되는 공간, 장애물의 속성을 인식할 수 있다.The artificial intelligence module 200 may recognize properties of a space and an obstacle included in the selected specific viewpoint image based on data previously learned through machine learning.

한편, 메모리(140)에는 공간, 사물 속성 판별을 위한 입력 데이터, 상기 심층신경망(DNN)을 학습하기 위한 데이터가 저장될 수 있다.Meanwhile, the memory 140 may store input data for determining space and object properties, and data for learning the deep neural network (DNN).

메모리(140)에는 카메라가 획득한 원본 영상과 소정 영역이 추출된 추출 영상들이 저장될 수 있다.The memory 140 may store the original image acquired by the camera and the extracted images from which a predetermined region is extracted.

또한, 실시예에 따라서는, 메모리(140)에는 상기 심층신경망(DNN) 구조를 이루는 웨이트(weight), 바이어스(bias)들이 저장될 수 있다.In addition, according to an embodiment, weights and biases constituting the structure of the deep neural network (DNN) may be stored in the memory 140 .

또는, 실시예에 따라서는, 상기 심층신경망 구조를 이루는 웨이트(weight), 바이어스(bias)들은 인공지능 모듈(200)의 임베디드 메모리(embedded memory)에 저장될 수 있다.Alternatively, according to an embodiment, weights and biases constituting the deep neural network structure may be stored in an embedded memory of the artificial intelligence module 200 .

한편, 인공지능 모듈(200)은 센싱부(110)를 통해 수신한 데이터를 트레이닝(training) 데이터로 사용하여 학습 과정을 수행할 수 있다.Meanwhile, the artificial intelligence module 200 may perform a learning process by using the data received through the sensing unit 110 as training data.

로봇(100)은 통신부(125)를 통하여 상기 소정 서버로부터 머신 러닝과 관련된 데이터를 수신할 수 있다. 이 경우에, 로봇(100)은, 상기 소정 서버로부터 수신된 머신 러닝과 관련된 데이터에 기초하여 인공지능 모듈(200)을 업데이트(update)할 수 있다.The robot 100 may receive data related to machine learning from the predetermined server through the communication unit 125 . In this case, the robot 100 may update the artificial intelligence module 200 based on the machine learning-related data received from the predetermined server.

로봇(100)의 동작으로 획득되는 데이터가 서버로 전송될 수 있다. 로봇(100)은, 서버로 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)를 서버로 전송할 수 있다. 여기서, 공간(space), 사물(Object) 관련 데이터는 로봇(100)이 인식한 공간(space)과 사물(Object)의 인식 관련 데이터이거나, 카메라가 획득한 공간(space)과 사물(Object)에 대한 이미지 데이터일 수 있다. 또한, 사용(Usage) 관련 데이터(Data)는 소정 제품, 예를 들어, 로봇(100)의 사용에 따라 획득되는 데이터로, 사용 이력 데이터, 센싱부(110)에서 획득된 센싱 데이터 등이 해당될 수 있다.Data obtained by the operation of the robot 100 may be transmitted to the server. The robot 100 may transmit space, object, and usage related data to the server to the server. Here, the space and object related data are data related to the recognition of the space and the object recognized by the robot 100, or the data related to the space and the object acquired by the camera. It may be image data for In addition, usage-related data (Data) is data obtained according to the use of a predetermined product, for example, the robot 100, and may correspond to usage history data, sensing data obtained from the sensing unit 110, etc. can

한편, 로봇(100)의 인공지능 모듈(200)에는 CNN(Convolutional Neural Network) 등 심층신경망 구조(DNN)가 탑재될 수 있다. 상기 학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 입력 데이터에 포함된 사물, 공간의 속성을 인식하여, 그 결과를 출력할 수 있다. 또한, 상기 학습된 심층신경망 구조(DNN)는 인식용 입력 데이터를 입력받고, 로봇(100)의 사용(Usage) 관련 데이터(Data)를 분석하고 학습하여 사용 패턴, 사용 환경 등을 인식할 수 있다. Meanwhile, the artificial intelligence module 200 of the robot 100 may be equipped with a deep neural network structure (DNN) such as a convolutional neural network (CNN). The learned deep neural network structure (DNN) may receive input data for recognition, recognize the properties of objects and spaces included in the input data, and output the result. In addition, the learned deep neural network structure (DNN) receives input data for recognition, and analyzes and learns usage-related data of the robot 100 to recognize usage patterns, usage environments, etc. .

한편, 공간(space), 사물(Object), 사용(Usage) 관련 데이터(Data)는 통신부(125)를 통하여 서버로 전송될 수 있다. 서버는 학습된 웨이트(weight)들의 구성을 생성할 수 있고, 서버는 심층신경망(DNN) 구조를 트레이닝(training) 데이터를 사용하여 학습할 수 있다. 서버는 수신한 데이터에 기초하여, 심층신경망(DNN)을 학습시킨 후, 업데이트된 심층신경망(DNN) 구조 데이터를 로봇(100)으로 전송하여 업데이트하게 할 수 있다.Meanwhile, space, object, and usage related data may be transmitted to the server through the communication unit 125 . The server may generate a configuration of learned weights, and the server may learn a deep neural network (DNN) structure using training data. After the server learns a deep neural network (DNN) based on the received data, the updated deep neural network (DNN) structure data may be transmitted to the robot 100 to be updated.

이에 따라, 로봇(100)은 점점 더 똑똑해지고, 사용할수록 진화되는 사용자 경험(UX)을 제공할 수 있다.Accordingly, the robot 100 can provide a user experience (UX) that becomes smarter and evolves as it is used.

인공지능 모듈(200)은, 센싱부(110)를 통해 수신한 데이터를 트레이닝 데이터로 사용하여 오브젝트를 검출 동작의 학습 과정을 수행할 수 있다. 여기서, 오브젝트는, 로봇(100) 주변의 사물, 사람, 구조물 등 로봇(100)의 이동에 직접적 또는 간접적으로 영향을 주는 객체로 정의할 수 있다.The artificial intelligence module 200 may perform a learning process of an object detection operation by using the data received through the sensing unit 110 as training data. Here, the object may be defined as an object that directly or indirectly affects the movement of the robot 100 , such as objects, people, and structures around the robot 100 .

인공지능 모듈(200)은, 센싱부(110)를 통해 수신한 데이터를 트레이닝 데이터로 사용하여 접객 동작, 방역 동작 또는 학습 동작의 학습 과정을 수행할 수 있다.The artificial intelligence module 200 may use the data received through the sensing unit 110 as training data to perform a learning process of a hospitality operation, a quarantine operation, or a learning operation.

인공지능 모듈(200)은, 센싱부(110)를 통해 수신한 데이터를 트레이닝 데이터로 사용하여 스케줄링 동작의 학습 과정을 수행할 수 있다.The artificial intelligence module 200 may use the data received through the sensing unit 110 as training data to perform a learning process of the scheduling operation.

인공지능 모듈(200)은, 센싱부(110)에서 제공받은 데이터를 학습하여 영역별 시간대로 구분된 유동인구 및 영역별 시간대로 구분된 오염도에 관한 예측 정보를 생성할 수 있다. 예를 들면, 인공지능 모듈(200)은, 센싱부(110)에서 제공받은 데이터를 전처리 한 후 인공신경망(ANN)의 입력 데이터로 활용하여, 영역별 시간대로 구분된 유동인구 및 영역별 시간대로 구분된 오염도에 관한 예측 정보를 생성할 수 있다. 이때, 전처리는, 센싱부(110)에서 제공받은 데이터를 영역별 시간대로 구분하는 작업일 수 있다.The artificial intelligence module 200 may learn the data provided by the sensing unit 110 to generate predictive information about the floating population divided by time zones for each area and the pollution level divided by time zones for each area. For example, the artificial intelligence module 200 pre-processes the data provided by the sensing unit 110 and then uses it as input data of the artificial neural network (ANN), and the floating population divided by the time zone for each zone and the time zone for each zone. It is possible to generate predictive information about the classified pollution level. In this case, the pre-processing may be a task of classifying the data provided by the sensing unit 110 into time zones for each area.

인공지능 모듈(200)은, 센싱부(110)에서 제공받은 데이터를 학습하여, 예측 모델을 생성할 수 있다. 예측 모델은, 적어도 하나의 인공신경망(ANN)을 활용한 모델일 수 있다. 예측 모델은, 과거의 데이터를 학습하여 산출된 결과물로, 시간과 공간에 대한 인풋값을 입력하면 해당 시간과 공간에 대한 예측 데이터를 출력하는 모델로 이해될 수 있다.The artificial intelligence module 200 may generate a predictive model by learning the data provided by the sensing unit 110 . The predictive model may be a model using at least one artificial neural network (ANN). A predictive model is a result calculated by learning past data, and may be understood as a model that outputs predictive data for a corresponding time and space when input values for time and space are input.

인공지능 모듈(200)은, 생성된 예측 모델에 데이터를 입력하여, 예측 정보를 생성할 수 있다. 인공지능 모듈(200)은, 예측 모델에 시간과 영역에 대한 데이터를 입력하여, 해당 시간과 해당 영역에 대한 유동인구와 오염도에 대한 예측 정보를 생성할 수 있다. 한편, 영역은, 대상 공간을 기 설정된 기준으로 분할하여 구분된 단위 공간으로 설명될 수 있다.The artificial intelligence module 200 may generate prediction information by inputting data into the generated prediction model. The artificial intelligence module 200 may input data on a time and a region to the prediction model, and generate prediction information on the floating population and pollution level for the corresponding time and region. Meanwhile, the region may be described as a unit space divided by dividing the target space based on a preset criterion.

인공지능 모듈(200)은, 예측 정보에 기초하여, 동작 스케줄을 생성할 수 있다. The artificial intelligence module 200 may generate an operation schedule based on the prediction information.

인공지능 모듈(200)은, 예측 정보에 기초하여, 제1 기간 동안 접객 스케줄을 생성할 수 있다.The artificial intelligence module 200 may generate a hospitality schedule for the first period based on the prediction information.

인공지능 모듈(200)은, 예측 정보에 기초하여, 제2 기간 동안 방역 스케줄을 생성할 수 있다.The artificial intelligence module 200 may generate a quarantine schedule for the second period based on the prediction information.

인공지능 모듈(200)은, 예측 정보에 기초하여, 제3 기간 동안 충전 스케줄을 생성할 수 있다.The artificial intelligence module 200 may generate a charging schedule for the third period based on the prediction information.

인공지능 모듈(200)은, 소프트웨어로 구현되거나, 하드웨어 형태로 구현될 수 있다. 인공지능 모듈(200)이 프로세서(예를 들면, GPU)로 구현되는 경우, 인공지능 모듈(200)이 구현된 프로세서로 명명될 수 있다.The artificial intelligence module 200 may be implemented in software or hardware. When the artificial intelligence module 200 is implemented as a processor (eg, GPU), it may be called a processor in which the artificial intelligence module 200 is implemented.

한편, 실시예에 따라, 인공지능 모듈(200)은, 제어부(170)의 하위 개념으로 분류될 수 있다. 이경우, 인공지능 모듈(200)의 동작은 제어부(170)의 동작으로 설명될 수 있다.Meanwhile, according to an embodiment, the artificial intelligence module 200 may be classified into a sub-concept of the control unit 170 . In this case, the operation of the artificial intelligence module 200 may be described as the operation of the control unit 170 .

통신부(125)는, 로봇(100) 외부의 전자 장치(예를 들면, 사용자 단말기, 서버, 다른 이동 로봇, 충전 스테이션 등)와 신호를 교환할 수 있다. The communication unit 125 may exchange signals with an electronic device (eg, a user terminal, a server, another mobile robot, a charging station, etc.) external to the robot 100 .

통신부(125)는, 외부의 전자 장치와 데이터를 교환할 수 있다.The communication unit 125 may exchange data with an external electronic device.

통신부(125)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication unit 125 may include at least one of a transmit antenna, a receive antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.

입력부(130)는, 사용자로부터 정보를 입력받기 위한 것으로, 입력부(130)에서 수집한 데이터는, 제어부(170)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다.The input unit 130 is for receiving information from a user, and the data collected by the input unit 130 may be analyzed by the control unit 170 and processed as a user's control command.

입력부(130)는, 음성 입력부, 터치 입력부를 포함할 수 있다. 실시예에 따라, 제스쳐 입력부 또는 기계식 입력부를 포함할 수 있다.The input unit 130 may include a voice input unit and a touch input unit. According to an embodiment, it may include a gesture input unit or a mechanical input unit.

음성 입력부는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 제어부(170)에 제공될 수 있다. 음성 입력부는, 하나 이상의 마이크로 폰을 포함할 수 있다.The voice input unit may convert the user's voice input into an electrical signal. The converted electrical signal may be provided to the control unit 170 . The voice input unit may include one or more microphones.

터치 입력부는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 제어부(170)에 제공될 수 있다.The touch input unit may convert the user's touch input into an electrical signal. The converted electrical signal may be provided to the control unit 170 .

터치 입력부는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다.The touch input unit may include a touch sensor for sensing a user's touch input.

실시예에 따라, 터치 입력부는 디스플레이(181)와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 로봇(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.According to an embodiment, the touch input unit may be formed integrally with the display 181 to implement a touch screen. Such a touch screen may provide an input interface and an output interface between the robot 100 and a user together.

제스쳐 입력부는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 제어부(170)에 제공될 수 있다.The gesture input unit may convert the user's gesture input into an electrical signal. The converted electrical signal may be provided to the control unit 170 .

제스쳐 입력부는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.The gesture input unit may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.

기계식 입력부는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부에 의해 생성된 전기적 신호는, 제어부(170)에 제공될 수 있다.The mechanical input unit may include at least one of a button, a dome switch, a jog wheel, and a jog switch. The electrical signal generated by the mechanical input unit may be provided to the control unit 170 .

메모리(140)는, 제어부(170)와 전기적으로 연결된다. 메모리(140)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(140)는, 제어부(170)에서 처리된 데이터를 저장할 수 있다. 메모리(140)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(140)는 제어부(170)의 처리 또는 제어를 위한 프로그램 등, 로봇(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(140)는, 제어부(170)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(140)는, 제어부(170)의 하위 구성으로 분류될 수 있다.The memory 140 is electrically connected to the control unit 170 . The memory 140 may store basic data for the unit, control data for operation control of the unit, and input/output data. The memory 140 may store data processed by the controller 170 . The memory 140 may be configured as at least one of ROM, RAM, EPROM, flash drive, and hard drive in terms of hardware. The memory 140 may store various data for the overall operation of the robot 100 , such as a program for processing or control of the controller 170 . The memory 140 may be implemented integrally with the controller 170 . According to an embodiment, the memory 140 may be classified into a sub-configuration of the control unit 170 .

구동부(150)는, 로봇(100)의 이동 동력을 제공할 수 있다. 구동부(150)는, 동력 생성부 및 동력 전달부를 포함할 수 있다.The driving unit 150 may provide movement power of the robot 100 . The driving unit 150 may include a power generating unit and a power transmitting unit.

동력 생성부는, 전기 에너지를 힘 에너지로 전환할 수 있다. 이를 위해 동력 생성부는, 적어도 하나의 모터로 구성될 수 있다. The power generator may convert electrical energy into force energy. To this end, the power generating unit may include at least one motor.

동력 전달부는, 동력 생성부에서 생성된 동력을 구동 바퀴에 전달할 수 있다. 동력 전달부는, 적어도 하나의 기어 또는 적어도 하나의 벨트를 포함할 수 있다.The power transmission unit may transmit the power generated by the power generation unit to the driving wheels. The power transmission unit may include at least one gear or at least one belt.

방역부(160)는, 대상 공간에 대한 방역 동작을 수행할 수 있다. The quarantine unit 160 may perform a quarantine operation on the target space.

방역부(160)는, 화학적 방역 및 물리적 방역 동작 중 적어도 어느 하나를 수행할 수 있다.The quarantine unit 160 may perform at least one of chemical quarantine and physical quarantine operations.

방역부(160)는, 분사 장치 및 UV 광출력부를 포함할 수 있다.The quarantine unit 160 may include a spraying device and a UV light output unit.

분사 장치는, 소독액을 외부로 분사할 수 있다. 분사 장치는, 소독액을 수용하는 탱크, 소독액을 외부로 분사하는 스프레이 노즐 및 분사력을 제공하는 분사엔진을 포함할 수 있다. 분사 장치는, 제어부(170)에서 제공되는 신호에 따라 전자식으로 제어될 수 있다. 제어부(170)는 분사 장치에 제어 신호를 제공하여 분사 여부, 분사량, 분사 강도 등을 제어할 수 있다.The spraying device may spray the disinfectant solution to the outside. The injection device may include a tank for accommodating the disinfectant solution, a spray nozzle for spraying the disinfectant solution to the outside, and an injection engine for providing a spraying force. The injection device may be electronically controlled according to a signal provided from the control unit 170 . The control unit 170 may provide a control signal to the injection device to control whether to inject, an injection amount, an injection intensity, and the like.

로봇(100)은 한쌍의 구동 바퀴를 포함할 수 있다. 스프레이 노즐은, 이동 로봇의 한쌍의 구동 바퀴 사이에 배치될 수 있다.The robot 100 may include a pair of driving wheels. The spray nozzle may be disposed between a pair of drive wheels of the mobile robot.

한편, 소독액은, 에탄올, 과산화수소 등이 이용되는 것이 일반적이나 이에 한정되지 아니하고, 병원체를 사멸시킬 수 있는 외용약이면 소독액으로 이용될 수 있다.On the other hand, as the disinfectant, ethanol, hydrogen peroxide, etc. are generally used, but the present invention is not limited thereto, and as long as it is an external drug that can kill pathogens, it may be used as the disinfectant.

UV 광출력부는, UV광을 외부로 출력할 수 있다. UV 광출력부는 UV LED를 포함할 수 있다. UV 광출력부는, 제어부(170)에서 제공되는 신호에 따라 전자식으로 제어될 수 있다. 제어부(170)는, UV 광출력부에 제어 신호를 제공하여 UV광 출력 여부, UV 광출력 양 등을 제어할 수 있다.The UV light output unit may output UV light to the outside. The UV light output unit may include a UV LED. The UV light output unit may be electronically controlled according to a signal provided from the control unit 170 . The controller 170 may provide a control signal to the UV light output unit to control whether UV light is output, the amount of UV light output, and the like.

UV 광출력부는, 복수의 UV LED 모듈을 포함할 수 있다. 로봇(100)은 4개의 캐스터휠을 포함할 수 있다. 복수의 LED 모듈는, 4개의 캐스터휠 사이사이에 배치될 수 있다.The UV light output unit may include a plurality of UV LED modules. The robot 100 may include four caster wheels. A plurality of LED modules may be disposed between the four caster wheels.

접객부(180)는, 대상 공간에 위치한 사람과 인터렉션을 수행할 수 있다. 이를 위해 접객부(180)는, 출력 장치로 디스플레이(181) 및 스피커(182)를 포함할 수 있다. 상술한 입력부(130)는 접객부(180)의 하위 개념으로 분류될 수 있다.The customer service unit 180 may perform an interaction with a person located in the target space. To this end, the customer service unit 180 may include a display 181 and a speaker 182 as output devices. The above-described input unit 130 may be classified as a sub-concept of the customer service unit 180 .

디스플레이(181)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다. The display 181 may display graphic objects corresponding to various pieces of information.

디스플레이(181)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display 181 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. ), a three-dimensional display (3D display), and may include at least one of an e-ink display (e-ink display).

디스플레이(181)는 터치 입력부와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.The display 181 may implement a touch screen by forming a layer structure with the touch input unit or being formed integrally with each other.

디스플레이(181)는 복수로 구성될 수 있다. 예를 들면, 디스플레이(181)는, 터치 스크린으로 구성되어 터치 입력을 수신할 수 있는 제1 디스플레이 및 정보 출력을 위한 제2 디스플레이로 구성될 수 있다.The display 181 may be configured in plurality. For example, the display 181 may include a first display configured as a touch screen to receive a touch input and a second display configured to output information.

스피커(182)는, 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커(182)는, 하나 이상의 스피커를 포함할 수 있다.The speaker 182 converts the electrical signal provided from the control unit 170 into an audio signal and outputs it. To this end, the speaker 182 may include one or more speakers.

충전부(190)는, 충전 스테이션으로부터 전기 에너지를 공급받을 수 있다. 충전부(190)는. 공급받은 전기 에너지를 배터리에 저장할 수 있다.The charging unit 190 may receive electrical energy from the charging station. The charging unit 190 is. The supplied electrical energy can be stored in a battery.

제어부(170)는, 로봇(100)의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Control Unit)로 명명될 수 있다. 제어부(170)는, 로봇(100)의 각 유닛과 전기적으로 연결된다.The controller 170 may control the overall operation of each unit of the robot 100 . The control unit 170 may be referred to as an Electronic Control Unit (ECU). The control unit 170 is electrically connected to each unit of the robot 100 .

제어부(170)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit 170, ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays), processors (processors), controller It may be implemented using at least one of controllers, micro-controllers, microprocessors, and other electrical units for performing functions.

제어부(170)는, 인공 지능 모듈(200)에서 생성한 스케줄에 기초하여, 구동부(150), 방역부(160, 접객부(180 및 충전부(190) 중 적어도 어느 하나를 제어할 수 있다.The controller 170 may control at least one of the driving unit 150 , the quarantine unit 160 , the hospitality unit 180 , and the charging unit 190 based on the schedule generated by the artificial intelligence module 200 .

제어부(170)는, 접객 스케줄에 따라 접객부(180)를 제어할 수 있다. 이경우, 제어부(170)는, 접객부(180)와 구동부(150)를 함께 제어할 수 있다.The controller 170 may control the hospitality unit 180 according to a hospitality schedule. In this case, the control unit 170 may control the customer service unit 180 and the driving unit 150 together.

제어부(170)는, 방역 스케줄에 따라 방역부(160)를 제어할 수 있다. 이경우, 제어부(170)는, 방역부(160)와 구동부(150)를 함께 제어할 수 있다.The controller 170 may control the quarantine unit 160 according to the quarantine schedule. In this case, the control unit 170 may control the quarantine unit 160 and the driving unit 150 together.

제어부(170)는, 충전 스케줄에 따라 충전부(190)를 제어할 수 있다. 이경우, 제어부(170)는, 충전부(190)와 구동부(150)를 함께 제어할 수 있다.The controller 170 may control the charging unit 190 according to a charging schedule. In this case, the control unit 170 may control the charging unit 190 and the driving unit 150 together.

도 3은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.3 is a diagram referenced for explaining the operation of the robot according to the embodiment of the present invention.

도면을 참조하면, 제어부(170)는, 로봇(100)의 외부 상황을 감지하도록 센싱부(110)를 제어할 수 있다(S310). 제어부(170)는, 대상 공간에서 사람을 검출하고, 대상 공간의 오염도를 측정할 수 있도록 센싱부(110)를 제어할 수 있다.Referring to the drawings, the control unit 170 may control the sensing unit 110 to detect an external situation of the robot 100 ( S310 ). The controller 170 may control the sensing unit 110 to detect a person in the target space and measure the contamination level in the target space.

제어부(170)는, 기계 학습을 수행할 수 있다(S320). 인공지능 모듈(200)은, 제어부(170)의 하위 개념으로 분류될 수 있다. 제어부(170)는, 센싱부(110)에서 제공받은 데이터를 학습할 수 있다.The controller 170 may perform machine learning (S320). The artificial intelligence module 200 may be classified as a sub-concept of the control unit 170 . The control unit 170 may learn the data provided by the sensing unit 110 .

제어부(170)는, 예측 모델을 생성할 수 있다(S330). 제어부(170)는, 센싱부(110)에서 제공받은 데이터를 학습하여, 예측 모델을 생성할 수 있다.The controller 170 may generate a predictive model ( S330 ). The controller 170 may generate a predictive model by learning the data provided by the sensing unit 110 .

제어부(170)는, 예측 모델에 기초하여, 예측 정보를 생성할 수 있다(S335). 제어부(170)는, 예측 모델에 영역별 센싱 데이터 및 시간별 센싱 데이터를 입력하여 예측 정보를 생성할 수 있다. 제어부(170)는, 영역별 시간대로 구분된 유동인구 및 영역별 시간대로 구분된 오염도에 관한 예측 정보를 생성할 수 있다.The control unit 170 may generate prediction information based on the prediction model (S335). The controller 170 may generate prediction information by inputting sensing data for each region and sensing data for each time into the prediction model. The control unit 170 may generate prediction information about the floating population divided by time zone for each area and pollution degree divided by time zone for each area.

제어부(170)는, 스케줄을 생성할 수 있다(S340). 제어부(170)는, 예측 정보에 기초하여, 제1 기간 동안 접객 스케줄을 생성할 수 있다. 제어부(170)는, 예측 정보에 기초하여, 제2 기간 동안 방역 스케줄을 생성할 수 있다. 제어부(170)는, 예측 정보에 기초하여, 제3 기간 동안 충전 스케줄을 생성할 수 있다.The controller 170 may create a schedule (S340). The controller 170 may generate a hospitality schedule for the first period based on the prediction information. The control unit 170 may generate a quarantine schedule for the second period based on the prediction information. The controller 170 may generate a charging schedule for the third period based on the prediction information.

제어부(170)는, 스케줄에 기초하여, 방역부(160), 접객부(180) 또는 충전부(190)를 제어할 수 있다. 제어부(170)는, 접객 스케줄에 따라 접객부(180)를 제어할 수 있다. 제어부(170)는, 방역 스케줄에 따라 방역부(160)를 제어할 수 있다. 제어부(170)는, 충전 스케줄에 따라 충전부(190)를 제어할 수 있다.The controller 170 may control the quarantine unit 160 , the hospitality unit 180 , or the charging unit 190 based on the schedule. The controller 170 may control the hospitality unit 180 according to a hospitality schedule. The controller 170 may control the quarantine unit 160 according to the quarantine schedule. The controller 170 may control the charging unit 190 according to a charging schedule.

도 4는 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.4 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.

도면을 참조하면, 제어부(170)는, 센싱부(110)에서 생성된 데이터에 기초하여, 대상 공간 내에서 사람을 인식할 수 있다. 제어부(170)는, 시간, 장소, 상태를 파악할 수 있다. 이경우, 인공 지능 모듈(200)이 활용될 수 있다.Referring to the drawings, the controller 170 may recognize a person in a target space based on data generated by the sensing unit 110 . The control unit 170 may grasp the time, place, and state. In this case, the artificial intelligence module 200 may be utilized.

만약, 사람이 기 설정 거리 이내에 위치하는 경우, 제어부(170)는, 사람과 인터렉션을 수행하도록 접객부(180)를 제어할 수 있다. 제어부(170)는, 접객부(180)를 통해 컨텐츠를 실행하고, 사람의 음성 명령을 인식할 수 있다.If the person is located within the preset distance, the controller 170 may control the customer service unit 180 to interact with the person. The controller 170 may execute content through the customer service unit 180 and recognize a human voice command.

만약, 사람이 기 설정 거리 밖에 위치하는 경우, 제어부(170)는, 사운드를 출력할 수 있다. 예를 들면, 제어부(170)는, 대상 공간을 안내하는 사운드를 지속하여 출력할 수 있다.If the person is located outside the preset distance, the controller 170 may output a sound. For example, the controller 170 may continuously output a sound for guiding the target space.

한편, 기 설정 거리는, 사람과의 인터렉션이 수행가능한 거리를 기준으로 설정될 수 있다. 예를 들면, 기 설정 거리는, 로봇(100)을 중심으로 반경 2m 이내로 설정될 수 있다.Meanwhile, the preset distance may be set based on a distance at which interaction with a person can be performed. For example, the preset distance may be set within a radius of 2 m with respect to the robot 100 .

도 5는 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.5 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.

도면을 참조하면, 메모리(140)는 데이터 베이스를 포함할 수 있다. 실시예에 따라, 데이터 베이스는 별도의 서버에 포함될 수도 있다.Referring to the drawings, the memory 140 may include a database. According to an embodiment, the database may be included in a separate server.

센싱부(110)에서 생성되는 데이터, 인공지능 모듈(200)에서 생성되는 데이터 및 제어부(170)에서 생성되는 데이터는 지속하여 데이터 베이스에 저장될 수 있다. 데이터 베이스에 저장된 데이터는 기계 학습을 위한 입력 데이터로 이용될 수 있다.Data generated by the sensing unit 110 , data generated by the artificial intelligence module 200 , and data generated by the control unit 170 may be continuously stored in the database. Data stored in the database may be used as input data for machine learning.

대상 공간의 오염도 관련 데이터는 환경 데이터로 지속적으로 데이터 베이스에 누적 저장될 수 있다. Pollution degree-related data of the target space may be continuously accumulated and stored in the database as environmental data.

대상 공간에서 검출된 사람 관련 데이터는 유동 인구 데이터로 지속적으로 데이터 베이스에 누적 저장될 수 있다.The person-related data detected in the target space may be continuously accumulated and stored in the database as floating population data.

오염도 측정 위치, 시간 관련 데이터와 사람 검출 위치, 시간 관련 데이터는 지속적으로 데이터 베이스에 누적 저장될 수 있다.Pollution level measurement location, time-related data, human detection location, and time-related data may be continuously accumulated and stored in the database.

제어부(170)는, 로봇(100)이 자율주행 하는 동안에 지속하여 센싱부(110)를 통해 데이터를 데이터 베이스에 축적할 수 있다. 데이터 베이스에 축적된 데이터를 이용하여 학습을 함으로써, 보다 효율적인 관리를 수행할 수 있다.The controller 170 may continuously accumulate data in the database through the sensing unit 110 while the robot 100 autonomously drives. By learning using the data accumulated in the database, more efficient management can be performed.

도 6은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.6 is a diagram referenced for explaining the operation of the robot according to an embodiment of the present invention.

도면을 참조하면, 로봇(100)이 구동된 상태에서, 인공지능 모듈(200)은, 특정 공간, 시각, 사람수, 오염 정도 등에 대한 데이터를 시계열 학습하여 예측 모델을 생성할 수 있다.Referring to the drawings, in a state in which the robot 100 is driven, the artificial intelligence module 200 may generate a predictive model by time-series learning data on a specific space, time, number of people, pollution level, and the like.

인공지능 모듈(200)은, 예측 모델에 기초하여, 특정 공간과 특정 시간에 대한 유동인구 및 오염도의 미래 정보를 획득할 수 있다. 여기서, 미래 정보는, 예측 정보로 명명될 수 있다.The artificial intelligence module 200 may acquire future information of the floating population and pollution level for a specific space and a specific time, based on the predictive model. Here, the future information may be called prediction information.

인공지능 모듈(200)은, 유동 인구에 대한 가중치가 오염도에 대한 가중치보다 높은 경우, 접객 스케줄을 생성할 수 있다.The artificial intelligence module 200 may generate a hospitality schedule when the weight for floating population is higher than the weight for pollution.

인공지능 모듈(200)은, 유동 인구에 대한 가중치가 오염도에 대한 가중치보다 높지 않은 경우, 전체스케줄 대비 방역스케줄 비율을 계산할 수 있다. The artificial intelligence module 200 may calculate the ratio of the quarantine schedule to the overall schedule when the weight for the floating population is not higher than the weight for the pollution level.

인공지능 모듈(200)은, 전체스케줄 대비 방역스케줄 비율이 기준값 이하인 경우, 방역 스케줄을 생성할 수 있다. The artificial intelligence module 200 may generate a quarantine schedule when the ratio of the quarantine schedule to the total schedule is less than or equal to a reference value.

인공지능 모듈(200)은, 전체스케줄 대비 방역스케줄 비율이 기준값보다 큰 경우, 접객 스케줄을 생성할 수 있다.The artificial intelligence module 200 may generate a hospitality schedule when the ratio of the quarantine schedule to the total schedule is greater than the reference value.

접객 스케줄이 생성되는 경우, 제어부(170)는, 접객 스케줄 대로 로봇(100)을 제어할 수 있다.When the hospitality schedule is generated, the controller 170 may control the robot 100 according to the hospitality schedule.

방역 스케줄이 생성되는 경우, 제어부(170)는, 방역 스케줄 대로 로봇(100)을 제어할 수 있다.When the quarantine schedule is generated, the controller 170 may control the robot 100 according to the quarantine schedule.

도 7은 본 발명의 실시예에 따른 로봇의 동작을 설명하는데 참조되는 도면이다.7 is a diagram referenced for explaining the operation of the robot according to the embodiment of the present invention.

도면을 참조하면, 충전 스테이션(400)은, 상용 전원으로부터 전기 에너지를 공급받아 로봇(100)에 제공할 수 있다. 충전 스테이션(400)은, 상용 전원에 연결된 상태로, 로봇(100)이 도킹되면, 로봇(100)에 전기 에너지를 공급할 수 있다. 로봇(100)과 충전 스테이션(400)은 로봇 시스템의 하위 개념으로 분류될 수 있다.Referring to the drawings, the charging station 400 may receive electrical energy from a commercial power source and provide it to the robot 100 . The charging station 400 may supply electrical energy to the robot 100 when the robot 100 is docked while being connected to a commercial power source. The robot 100 and the charging station 400 may be classified as sub-concepts of a robot system.

통신부(125)는, 충전 스테이션(400)과 신호 교환을 할 수 있다. The communication unit 125 may exchange signals with the charging station 400 .

제어부(170)는, 배터리의 충전 필요 여부를 판단할 수 있다. 예를 들면, 제어부(170)는, 배터리의 잔존 전기 에너지 양을 기준으로 배터리의 충전 필요 여부를 판단할 수 있다. 예를 들면, 제어부(170)는, 로봇(100)의 임무 대비 잔존 전기 에너지 양을 기준으로 배터리의 충전 필요 여부를 판단할 수 있다. 제어부(170)는, 로봇(100)의 기능을 수행하기 위한 에너지량보다 배터리에 저장된 에너지량이 적은 경우, 배터리의 충전이 필요하다고 판단할 수 있다.The controller 170 may determine whether the battery needs to be charged. For example, the controller 170 may determine whether charging of the battery is necessary based on the amount of remaining electric energy of the battery. For example, the controller 170 may determine whether the battery needs to be charged based on the amount of remaining electrical energy compared to the task of the robot 100 . When the amount of energy stored in the battery is less than the amount of energy for performing the function of the robot 100 , the controller 170 may determine that the battery needs to be charged.

제어부(170)는, 배터리의 충전이 필요하다고 판단되는 경우, 통신부(125)를 통해, 충전 스테이션(400)에 충전 대기 신호를 전송할 수 있다. When it is determined that the battery needs to be charged, the control unit 170 may transmit a charging standby signal to the charging station 400 through the communication unit 125 .

충전 스테이션(400)은, 충전 대기 신호를 수신하는 경우, 대기 모드로 전환될 수 있다. 대기 모드로 전환되면, 충전 스테이션(400)은, 충전 스테이션의 각 유닛에 전원을 공급하여, 시스템을 웨이크업(wake up) 시킬 수 있다.The charging station 400 may be switched to a standby mode when receiving a charging standby signal. When switched to the standby mode, the charging station 400 may wake up the system by supplying power to each unit of the charging station.

제어부(170)는, 배터리의 충전이 필요하다고 판단되는 경우, 충전 스테이션(400)을 향해 로봇(100)이 이동하도록 구동부(150)를 제어할 수 있다.When it is determined that the battery needs to be charged, the controller 170 may control the driving unit 150 to move the robot 100 toward the charging station 400 .

제어부(170)는, 로봇(100)과 충전 스테이션(400) 사이의 거리가 기준값 이내인지 판단할 수 있다. 예를 들면, 제어부(170)는, 통신 신호의 세기에 기초하여, 로봇(100)과 충전 스테이션(400) 사이의 거리를 산출하고, 거리가 기준값 이내인지 판단할 수 있다. 예를 들면, 제어부(170)는, 센싱부(110)에서 생성된 데이터에 기초하여, 로봇(100)과 충전 스테이션(400) 사이의 거리를 산출하고, 거리가 기준값 이내인지 판단할 수 있다.The controller 170 may determine whether the distance between the robot 100 and the charging station 400 is within a reference value. For example, the controller 170 may calculate a distance between the robot 100 and the charging station 400 based on the strength of the communication signal, and determine whether the distance is within a reference value. For example, the controller 170 may calculate a distance between the robot 100 and the charging station 400 based on the data generated by the sensing unit 110 and determine whether the distance is within a reference value.

로봇(100)과 충전 스테이션(400) 사이의 거리가 기준값 이내인 것으로 판단되는 경우, 제어부(170)는, 제1 통신부(125)를 통해, 충전 스테이션(400)에 충전 준비 신호를 전달할 수 있다.When it is determined that the distance between the robot 100 and the charging station 400 is within the reference value, the control unit 170 may transmit a charging preparation signal to the charging station 400 through the first communication unit 125 . .

충전 스테이션(400)은, 충전 준비 신호를 수신하는 경우, 준비 모드로 전환될 수 있다. 준비 모드로 전환되면, 충전 스테이션(400)은, 입체 마커를 돌출시킬 수 있다.When receiving the charging preparation signal, the charging station 400 may be switched to a preparation mode. When switched to the ready mode, the charging station 400 may project the stereoscopic marker.

제어부(170)는, 로봇(100)이 충전 스테이션(400)에 도킹되도록 구동부(150)를 제어할 수 있다.The controller 170 may control the driving unit 150 to dock the robot 100 to the charging station 400 .

제어부(170)는, 충전 스테이션(400) 대비 로봇(100)의 상대적 위치를 판단할 수 있다.The controller 170 may determine the relative position of the robot 100 with respect to the charging station 400 .

제어부(170)는, 카메라로부터, 충전 스테이션(400)의 마커를 촬영한 영상 데이터를 수신할 수 있다. 제어부(170)는, 영상 데이터에서 검출된 입체 마커의 상태에 기초하여, 충전 스테이션 대비 로봇(100)의 상대적 위치를 판단할 수 있다. The controller 170 may receive, from the camera, image data obtained by photographing the marker of the charging station 400 . The controller 170 may determine the relative position of the robot 100 with respect to the charging station based on the state of the three-dimensional marker detected in the image data.

한편, 마커는, 로봇(100)이 충전 스테이션(400)에 도킹하는데 도움을 주기 위한 요소로, 충전 스테이션(400)에 배치된다. 마커는 제1 마커, 제2 마커, 제3 마커를 포함할 수 있다. 제1 마커는, 입체 마커로 명명될 수 있다. 제1 마커는, 제공되는 동력에 따라 직선 운동할 수 있다. 제1 마커는, 제공되는 동력에 의해 제1 높이만큼 충전 스테이션의 표면에서 돌출될 수 있다. 제1 마커는, 제공되는 동력에 의해 수납될 수 있다.Meanwhile, the marker is an element for helping the robot 100 dock to the charging station 400 , and is disposed in the charging station 400 . The marker may include a first marker, a second marker, and a third marker. The first marker may be referred to as a stereoscopic marker. The first marker may move linearly according to the power provided. The first marker may protrude from the surface of the charging station by a first height by the power provided. The first marker may be accommodated by provided power.

돌출된 상태의 제1 마커는, 위에서 볼때, 센터라인 상에 위치할 수 있다. 제2 마커는, 제1 마커와 제1 방향으로 제1 거리만큼 이격된다. 제3 마커는, 제1 마커와 제1 방향과 반대 방향인 제2 방향으로 제1 거리만큼 이격된다.The first marker in the protruding state may be positioned on the centerline when viewed from above. The second marker is spaced apart from the first marker by a first distance in the first direction. The third marker is spaced apart from the first marker by a first distance in a second direction opposite to the first direction.

제어부(170)는, 수신된 영상 데이터에서, 제1 마커 이미지, 제2 마커 이미지 및 제3 마커 이미지를 검출할 수 있다.The controller 170 may detect a first marker image, a second marker image, and a third marker image from the received image data.

제1 마커 이미지가 제2 마커 이미지에 더 근접하거나, 제3 마커 이미지에 더 근접한 경우, 제어부(170)는, 로봇(100)이 센터 라인에 위치하지 않는 것으로 판단할 수 있다.When the first marker image is closer to the second marker image or closer to the third marker image, the controller 170 may determine that the robot 100 is not located on the center line.

제1 마커 이미지가 제2 마커 이미지 및 제3 마커 이미지의 가운데에 위치한 경우, 제어부(170)는, 로봇(100)이 센터 라인에 위치한 것으로 판단할 수 있다. 여기서, 가운데는, 수학적으로 정확한 중심을 의미하지 않고, 작은 수치의 오차를 반영하여, 좌측과 우측으로 소정의 배리언스(variance)를 두는 정도까지 의미한다. 한편, 센터 라인은, 위에서 볼때 바닥에서 제2 마커와 제3 마커의 사이의 중심을 가르면서 충전 스테이션의 적어도 하나의 모서리에 직각되게 형성된 가상의 선으로 정의할 수 있다.When the first marker image is located at the center of the second marker image and the third marker image, the controller 170 may determine that the robot 100 is located at the center line. Here, the center does not mean a mathematically accurate center, but refers to the extent to which a predetermined variance is placed on the left and right sides by reflecting a small numerical error. Meanwhile, the center line may be defined as a virtual line formed perpendicular to at least one corner of the charging station while crossing a center between the second marker and the third marker on the floor when viewed from above.

로봇(100)이 센터 라인에 위치하는 것으로 판단되는 경우, 제어부(170)는, 로봇(100)이 충전 스테이션(400)을 향해 직선 이동하도록 구동부(150)를 제어할 수 있다. 제어부(170)는, 로봇(100)의 직선 이동을 통해, 도킹을 시도할 수 있다.When it is determined that the robot 100 is located on the center line, the controller 170 may control the driving unit 150 to move the robot 100 in a straight line toward the charging station 400 . The controller 170 may attempt docking through the linear movement of the robot 100 .

제어부(170)는, 로봇(100)이 충전 스테이션(400)에 도킹 완료 되었는지 판단할 수 있다.The control unit 170 may determine whether the docking of the robot 100 to the charging station 400 is completed.

예를 들면, 충전 스테이션(400)은, 준비 모드 상태에서, 충전 스테이션(400)의 충전 단자에 상대적으로 약한 전류를 유입시킬 수 있다. 제어부(170)는, 충전부(190)의 충전 단자 약한 전류가 유입되는 것이 감지되는 경우, 로봇(100)이 충전 스테이션(400)에 도킹 완료된 것으로 판단할 수 있다. 이를 위해, 충전부(190)는, 전류 감지기를 포함할 수 있다.For example, the charging station 400 may introduce a relatively weak current into the charging terminal of the charging station 400 in the ready mode state. The controller 170 may determine that the robot 100 has been docked to the charging station 400 when it is sensed that a weak current is introduced into the charging terminal of the charging unit 190 . To this end, the charging unit 190 may include a current sensor.

예를 들면, 제어부(170)는, 로봇(100)의 중심이 센터 라인위에 위치하고, 센싱부(110)에서 생성되는 센싱 데이터에 기초하여 산출된 로봇(100)과 충전 스테이션(400) 사이의 거리가 기 설정 범위 내에 있는 경우, 로봇(100)이 충전 스테이션(400)에 도킹 완료된 것으로 판단할 수 있다.For example, the control unit 170, the center of the robot 100 is located on the center line, the distance between the robot 100 and the charging station 400 calculated based on the sensing data generated by the sensing unit 110, If it is within the preset range, it may be determined that the robot 100 has been docked to the charging station 400 .

예를 들면, 충전 스테이션(400)은, 로봇(100)이 입체 마커에 접촉하였는지 판단할 수 있다. 로봇(100)이 센터 라인을 따라 충전 스테이션(400)을 향해 직선 이동하면서, 입체 마커에 접촉하면, 입체 마커는, 로봇(100)의 이동 방향으로 약간의 직선 운동을 한다. 입체 마커의 의도되지 않은 직선 운동이 감지되면, 충전 스테이션(400)은, 로봇(100)이 충전 스테이션(400)에 도킹 완료된 것으로 판단할 수 있다. 충전 스테이션(400)은, 로봇(100)에 도킹 완료 상태 정보를 전송할 수 있다. 제어부(170)는, 충전 스테이션(400)에서 수신된 정보에 기초하여, 로봇(100)이 충전 스테이션(400)에 도킹 완료된 것으로 판단할 수 있다.For example, the charging station 400 may determine whether the robot 100 is in contact with the three-dimensional marker. When the robot 100 comes into contact with the three-dimensional marker while moving linearly toward the charging station 400 along the center line, the three-dimensional marker makes a slight linear motion in the moving direction of the robot 100 . When the unintentional linear motion of the three-dimensional marker is detected, the charging station 400 may determine that the robot 100 has been docked to the charging station 400 . The charging station 400 may transmit docking completion state information to the robot 100 . The controller 170 may determine that the robot 100 has been docked to the charging station 400 based on the information received from the charging station 400 .

로봇(100)이 충전 스테이션(400)에 도킹된 것으로 판단되는 경우, 제어부(170)는, 충전 스테이션(400)에 충전 요청 신호를 전달할 수 있다.When it is determined that the robot 100 is docked at the charging station 400 , the controller 170 may transmit a charging request signal to the charging station 400 .

제어부(170)는, 로봇(100)과 충전 스테이션(400) 사이의 도킹 여부에 따라, 릴레이의 온(on) 오프(off)를 제어할 수 있다. 예를 들면, 로봇(100)이 충전 스테이션(400)에 도킹 완료되는 경우, 로봇(100)은 충전 모드로 전환될 수 있다. 충전 모드로 전환되는 경우, 제어부(170)는, 릴레이를 온(on) 상태로 전환할 수 있다.The controller 170 may control on/off of the relay according to whether the robot 100 and the charging station 400 are docked. For example, when the robot 100 is docked to the charging station 400 , the robot 100 may be switched to a charging mode. When switched to the charging mode, the control unit 170 may switch the relay to an on (on) state.

로봇(100)이 충전 스테이션(400)에 도킹 완료되는 경우, 충전 스테이션(400)은 충전 모드로 전환될 수 있다. When the robot 100 is docked with the charging station 400 , the charging station 400 may be converted to a charging mode.

충전 모드에서 충전 스테이션(400)은, 로봇(100)의 충전부(190)에 전원을 인가하고, 충전 시작 신호를 로봇(100)에 전송할 수 있다.In the charging mode, the charging station 400 may apply power to the charging unit 190 of the robot 100 and transmit a charging start signal to the robot 100 .

제어부(170)는, 충전 스테이션(400)에서 제공되는 전기 에너지로 배터리를 충전할 수 있다.The controller 170 may charge the battery with electric energy provided from the charging station 400 .

제어부(170)는, 배터리의 충전이 완료된 것으로 판단되는 경우, 충전 완료 신호를 충전 스테이션(400)에 전달할 수 있다.When it is determined that charging of the battery is complete, the controller 170 may transmit a charging completion signal to the charging station 400 .

충전 완료 신호가 수신되는 경우, 충전 스테이션(400)은, 전기에너지 공급을 중단할 수 있다.When the charging completion signal is received, the charging station 400 may stop supplying electrical energy.

제어부(170)는, 릴레이를 오프(off) 상태로 전환하여, 충전을 중지할 수 있다.The controller 170 may switch the relay to an off state to stop charging.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 제어부 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable codes on a medium in which a program is recorded. The computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is this. In addition, the computer may include a control unit or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

100 : 인공 지능 알고리즘이 적용된 방역용 접객 로봇100: Hospitality robot for quarantine applied with artificial intelligence algorithm

Claims (5)

대상 공간에 위치한 사람과 인터렉션을 수행하는 접객부;
대상 공간에 대한 방역을 수행하기 위해 소독액을 외부로 분사하는 분사 장치 및 UV 광을 외부로 출력하는 UV 광출력부를 포함하는 방역부;
대상 공간에서 사람을 검출하고, 대상 공간의 오염도를 측정하는 센싱부;
상기 센싱부에서 제공받은 데이터를 학습하여 영역별 시간대로 구분된 유동인구 및 영역별 시간대로 구분된 오염도에 관한 예측 정보를 생성하고,
상기 예측 정보에 기초하여 동작 스케줄을 생성하는 인공 지능 모듈;
상기 스케줄에 기초하여, 상기 방역부 및 상기 접객부를 제어하는 제어부; 및
충전 스테이션으로부터 전기 에너지를 공급받는 충전부;를 포함하고,
상기 인공 지능 모듈은,
특정 공간, 시각, 사람수 및 오염 정도에 대한 데이터를 시계열 학습하여 예측 모델을 생성하고,
특정 공간과 특정 시간에 대한 유동 인구 및 오염도에 관한 상기 예측 정보를 생성하고,
유동 인구에 대한 가중치가 오염도에 대한 가중치보다 높은 경우, 접객 스케줄을 생성하고,
유동 인구에 대한 가중치가 오염도에 대한 가중치보다 높지 않은 경우, 전체스케줄 대비 방역스케줄 비율로 계산하되, 전체스케줄 대비 방역스케줄 비율이 기준값 이하인 경우, 방역 스케줄을 생성하고,
상기 제어부는,
카메라로부터 상기 충전 스테이션의 마커를 촬영한 영상 데이터를 수신하고, 상기 영상 데이터에 기초하여, 상기 충전 스테이션의 표면에서 돌출된 입체 마커의 이미지가 한쌍의 다른 마커의 가운데에 위치한 것으로 판단되는 경우, 상기 충전 스테이션과의 도킹을 시도하는 인공 지능 알고리즘이 적용된 방역용 접객 로봇.
a receptionist who interacts with a person located in the target space;
a quarantine unit including a spraying device for spraying a disinfectant solution to the outside in order to perform quarantine on the target space and a UV light output unit for outputting UV light to the outside;
a sensing unit for detecting a person in the target space and measuring a degree of contamination of the target space;
By learning the data provided by the sensing unit, it generates predictive information about the floating population divided by time zone for each area and pollution degree divided by time zone for each area,
an artificial intelligence module for generating an operation schedule based on the prediction information;
a control unit controlling the quarantine unit and the hospitality unit based on the schedule; and
Including; a charging unit receiving electrical energy from the charging station;
The artificial intelligence module is
Create a predictive model by learning data about a specific space, time, number of people, and pollution level in time series;
generating said predictive information about floating population and pollution levels for a specific space and a specific time;
If the weight for floating population is higher than the weight for pollution, create a hospitality schedule;
If the weight for floating population is not higher than the weight for pollution, it is calculated as the ratio of the quarantine schedule to the total schedule.
The control unit is
When image data obtained by photographing the marker of the charging station is received from the camera, and it is determined that the image of the three-dimensional marker protruding from the surface of the charging station is located in the middle of a pair of other markers based on the image data, the A hospitality robot for quarantine applied with an artificial intelligence algorithm that attempts to dock with the charging station.
제 1항에 있어서,
상기 인공 지능 모듈은,
상기 데이터를 학습하여, 예측 모델을 생성하고,
상기 예측 모델에 데이터를 입력하여 상기 예측 정보를 생성하는 인공 지능 알고리즘이 적용된 방역용 접객 로봇.
The method of claim 1,
The artificial intelligence module is
By learning the data, a predictive model is generated,
A hospitality robot for quarantine to which an artificial intelligence algorithm is applied to generate the prediction information by inputting data into the prediction model.
제 2항에 있어서,
상기 인공 지능 모듈은,
상기 예측 정보에 기초하여, 제1 기간 동안 접객 스케줄을 생성하고,
상기 제어부는,
상기 접객 스케줄에 따라 상기 접객부를 제어하는 인공 지능 알고리즘이 적용된 방역용 접객 로봇.
3. The method of claim 2,
The artificial intelligence module is
generating a hospitality schedule for a first period based on the prediction information;
The control unit is
A hospitality robot for quarantine to which an artificial intelligence algorithm that controls the hospitality unit according to the customer service schedule is applied.
제 2항에 있어서,
상기 인공 지능 모듈은,
상기 예측 정보에 기초하여, 제2 기간 동안 방역 스케줄을 생성하고,
상기 제어부는,
상기 방역 스케줄에 따라 상기 방역부를 제어하는 인공 지능 알고리즘이 적용된 방역용 접객 로봇.
3. The method of claim 2,
The artificial intelligence module is
Based on the prediction information, generate a quarantine schedule for a second period,
The control unit is
A hospitality robot for quarantine to which an artificial intelligence algorithm that controls the quarantine unit according to the quarantine schedule is applied.
제 2항에 있어서,
상기 인공 지능 모듈은,
상기 예측 정보에 기초하여, 제3 기간 동안 충전 스케줄을 생성하고,
상기 제어부는,
상기 충전 스케줄에 따라 상기 충전부를 제어하는 인공 지능 알고리즘이 적용된 방역용 접객 로봇.

3. The method of claim 2,
The artificial intelligence module is
Based on the prediction information, generate a charging schedule for a third period,
The control unit is
A hospitality robot for quarantine to which an artificial intelligence algorithm that controls the charging unit according to the charging schedule is applied.

KR1020210089503A 2021-07-08 2021-07-08 Robot with artificial intelligence algorithm KR102366332B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210089503A KR102366332B1 (en) 2021-07-08 2021-07-08 Robot with artificial intelligence algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210089503A KR102366332B1 (en) 2021-07-08 2021-07-08 Robot with artificial intelligence algorithm

Publications (1)

Publication Number Publication Date
KR102366332B1 true KR102366332B1 (en) 2022-02-23

Family

ID=80495496

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210089503A KR102366332B1 (en) 2021-07-08 2021-07-08 Robot with artificial intelligence algorithm

Country Status (1)

Country Link
KR (1) KR102366332B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240016677A (en) 2022-07-29 2024-02-06 주식회사 대성종합관리 Intelligent quarantine robot control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101987133B1 (en) 2017-01-31 2019-06-10 (주) 한호기술 Unmanned autonomous driving robot for pest control
KR20190104486A (en) * 2019-08-21 2019-09-10 엘지전자 주식회사 Service Requester Identification Method Based on Behavior Direction Recognition
KR102039555B1 (en) * 2019-03-08 2019-11-01 이봉규 OPTIMIZATION SYSTEM AND METHOD FOR INTERIOR ENVIRONMENT BASED ON IoT-NETWORK
KR20210030155A (en) * 2019-09-09 2021-03-17 엘지전자 주식회사 Robot and controlling method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101987133B1 (en) 2017-01-31 2019-06-10 (주) 한호기술 Unmanned autonomous driving robot for pest control
KR102039555B1 (en) * 2019-03-08 2019-11-01 이봉규 OPTIMIZATION SYSTEM AND METHOD FOR INTERIOR ENVIRONMENT BASED ON IoT-NETWORK
KR20190104486A (en) * 2019-08-21 2019-09-10 엘지전자 주식회사 Service Requester Identification Method Based on Behavior Direction Recognition
KR20210030155A (en) * 2019-09-09 2021-03-17 엘지전자 주식회사 Robot and controlling method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240016677A (en) 2022-07-29 2024-02-06 주식회사 대성종합관리 Intelligent quarantine robot control system

Similar Documents

Publication Publication Date Title
US10895629B2 (en) Apparatus and methods for detection of objects using broadband signals
US11503971B2 (en) Cleaning robot
US20210405646A1 (en) Marker, method of moving in marker following mode, and cart-robot implementing method
US11330951B2 (en) Robot cleaner and method of operating the same
US11511634B2 (en) Charging system for robot and control method thereof
KR20190106891A (en) Artificial intelligence monitoring device and operating method thereof
KR20210037419A (en) Moving robot
US20210333391A1 (en) Mobile robot and method of controlling the same
CN112401747B (en) Robot cleaner avoiding jamming situation through artificial intelligence and operation method thereof
KR20190106874A (en) Robot cleaner for recognizing stuck situation through artificial intelligence and operating method thereof
US20210208595A1 (en) User recognition-based stroller robot and method for controlling the same
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
KR20190104008A (en) Robot cleaner for cleaning using artificial intelligence and operating method thereof
KR102366332B1 (en) Robot with artificial intelligence algorithm
Voth Segway to the future [autonomous mobile robot]
Baballe et al. Obstacle Avoidance Robot using an ultrasonic Sensor with Arduino Uno
KR102366328B1 (en) Mobile robot that implements charging safety through communication with the charging station, Automatic charging system of mobile robot and Control method of mobile robot
KR20230077847A (en) Autonomous driving robot with artificial intelligence algorithm
KR102366333B1 (en) Method for providing artificial intelligence platform
Ghidary et al. Multi-modal human robot interaction for map generation
KR20240070740A (en) Quarantine robot with safety function implemented
KR20240070739A (en) Collaborative robot that forms a safety fence using light
KR20240070738A (en) Collaborative robot performing fingerprint reader sterilization action
KR20210070153A (en) Robot
Bello et al. Simulation of Obstacle Avoidance Robots

Legal Events

Date Code Title Description
GRNT Written decision to grant