KR102054301B1 - Method of drawing map applied by object feature and robot implementing thereof - Google Patents
Method of drawing map applied by object feature and robot implementing thereof Download PDFInfo
- Publication number
- KR102054301B1 KR102054301B1 KR1020190097430A KR20190097430A KR102054301B1 KR 102054301 B1 KR102054301 B1 KR 102054301B1 KR 1020190097430 A KR1020190097430 A KR 1020190097430A KR 20190097430 A KR20190097430 A KR 20190097430A KR 102054301 B1 KR102054301 B1 KR 102054301B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- category
- map
- robot
- signal
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술로 본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다.The present invention relates to a method for creating a map to which the characteristics of an object are applied and a robot implementing the same. The robot for creating a map to which the characteristics of an object are applied according to an embodiment of the present invention includes a moving unit that controls the movement of the robot; A map storage unit that stores a map referred to when the robot moves, a sensing unit that senses one or more objects disposed outside the robot, and controls the moving unit, the map storage unit, and the sensing unit, and the position information and characteristics of the sensed object. And a controller for calculating information, wherein the controller stores the position information and the characteristic information of the sensed object in the map storage unit.
Description
본 발명은 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇에 관한 기술이다.The present invention relates to a method of creating a map to which a property of an object is applied, and a technology related to a robot implementing the same.
공항, 학교, 관공서, 호텔, 사무실, 공장 등 인적, 물적 교류가 활발하게 발생하는 공간에서 로봇이 동작하기 위해서는 전체 공간에 대한 맵을 가져야 한다. 특히, 다양한 재질로 구성된 구조물들을 센싱하여 이들이 고정된 구조물인지 아니면 이동하는 구조물인지를 판별하고, 고정된 구조물을 기반으로 맵을 작성하는 것이 필요하다. 특히, 공항이나 항만, 기차역과 같이 다수의 사람들이 이동하는 공간에서는 콘트리트 외에도 유리를 이용하여 벽을 구성하는 경우가 빈번하며, 맵을 구성하기 위해 주변을 센싱하는 과정에서 유리가 센싱되지 않거나 혹은 유리 뒤쪽의 콘크리트가 센싱되는 경우가 발생할 수 있다. 이에, 이러한 문제점을 해결하기 위해, 본 명세서에서는 로봇이 맵을 생성하거나 업데이트 하는 과정에서 고정된 구조물의 재질을 센싱하고 이를 분석하여 맵을 생성 및 업데이트하는 방안을 제시하고자 한다. In order to operate a robot in a space where human and material exchanges are actively occurring, such as an airport, a school, a public office, a hotel, an office, a factory, a map of the entire space must be provided. In particular, it is necessary to sense structures made of various materials to determine whether they are fixed structures or moving structures, and to create a map based on the fixed structures. In particular, in a space where many people move, such as airports, harbors, and train stations, glass is often used to construct walls in addition to concrete, and glass is not sensed in the process of sensing the surroundings to construct a map. The concrete behind may be sensed. In order to solve this problem, the present specification proposes a method of generating and updating a map by sensing a material of a fixed structure and analyzing the material in the process of creating or updating a map.
본 명세서에서는 전술한 문제점을 해결하기 위한 것으로, 다양한 재질의 객체들이 배치된 공간에서 각 객체의 특성을 센싱하여 이를 토대로 맵을 구성하고 로봇이 맵을 이용하여 이동할 수 있도록 한다. In this specification, in order to solve the above-described problems, the characteristics of each object in the space in which the objects of various materials are arranged to construct a map based on this and to allow the robot to move using the map.
본 명세서에서는 장애물의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지하여 인해 정확한 맵 정보를 생성하도록 한다.In this specification, accurate map information is generated due to preventing a case where an incorrect value is obtained or not obtained according to the material of an obstacle.
본 명세서에서는 장애물의 재질에 따라 맵 상에 달리 표시하도록 하여 로봇의 이동을 설계하는 과정에서 객체들의 특성을 반영할 수 있도록 한다. In this specification, it is displayed differently on the map according to the material of the obstacle so that the characteristics of the objects can be reflected in the process of designing the movement of the robot.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
본 발명의 일 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 로봇은 로봇의 이동을 제어하는 이동부, 로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부, 로봇의 외부에 배치된 하나 이상의 객체를 센싱하는 센싱부, 및 이동부, 맵 저장부, 센싱부를 제어하며, 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며, 로봇의 제어부는 센싱된 객체의 위치 정보와 특성 정보를 맵 저장부에 저장한다. According to an embodiment of the present invention, a robot for creating a map to which an object characteristic is applied may include a moving unit for controlling a movement of a robot, a map storage unit for storing a map referenced when the robot moves, and at least one outside of the robot. And a control unit for sensing an object, a moving unit, a map storage unit, and a sensing unit to calculate the position information and the characteristic information of the sensed object, wherein the controller of the robot includes the position information and the characteristic information of the sensed object. Is stored in the map storage.
본 발명의 다른 실시예에 의한 객체의 특성이 적용된 맵을 작성하는 방법은 로봇의 센싱부가 센싱 가능 범위 내의 하나 이상의 객체의 위치 정보와 특성 정보를 센싱하는 단계, 로봇의 제어부가 위치 정보와 특성 정보에서 센싱부의 신호가 투과하는 제1객체 및 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계, 제어부가 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계, 및 제어부가 제2객체의 위치 정보를 맵 저장부에 저장하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of creating a map to which a property of an object is applied. Identifying a first object through which the signal of the sensing unit passes and a second object through which the signal of the sensing unit is not transmitted; storing, by the controller, position information and characteristic information of the first object in the map storage unit; and And storing the location information of the two objects in the map storage unit.
본 발명의 실시예들을 적용할 경우, 센서를 이용하여 맵울 작성하거나 수정하는 과정에서 장애물이 가지는 재질상의 특성을 반영하여 정확한 맵을 작성할 수 있다.When applying the embodiments of the present invention, it is possible to create an accurate map by reflecting the material characteristics of the obstacle in the process of creating or modifying the map using the sensor.
또한, 본 발명의 실시예들을 적용할 경우, 장애물의 재질에 따라 정확하게 객체의 정보를 센싱할 수 있으며, 또한 맵 상에 서로 상이한 재질의 장애물들에 대한 정보를 구분하여 저장 및 표시할 수 있다. In addition, when applying the embodiments of the present invention, it is possible to accurately sense the information of the object according to the material of the obstacle, it is also possible to distinguish and store the information about the obstacles of different materials on the map.
또한 본 발명의 실시예들을 적용할 경우, 로봇은 근접한 객체들의 특성에 따라 달리 동작할 수 있다. In addition, when applying the embodiments of the present invention, the robot may operate differently depending on the characteristics of the adjacent objects.
본 발명의 효과는 전술한 효과에 한정되지 않으며, 본 발명의 당업자들은 본 발명의 구성에서 본 발명의 다양한 효과를 쉽게 도출할 수 있다. The effects of the present invention are not limited to the above effects, and those skilled in the art can easily derive various effects of the present invention from the configuration of the present invention.
도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다.
도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다.
도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다.
도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.
도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다.
도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다.
도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다.
도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다.
도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다.
도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다.
도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다.
도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다.
도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다.
도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다. 1 is a view showing the configuration of a LiDAR sensor according to an embodiment of the present invention.
2 is a view showing the configuration of a robot according to an embodiment of the present invention.
3 is a diagram illustrating a configuration of a map stored in a map storage unit according to an exemplary embodiment of the present invention.
4 is a diagram illustrating a characteristic of an object stored in the object
FIG. 5 is a diagram illustrating a process of distinguishing a robot using signal strength in a space where walls and glass are disposed according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating objects stored in FIG. 5 in the
FIG. 7 is a view illustrating a process of distinguishing the glass from the objects disposed behind the glass by the robot according to another embodiment of the present invention.
FIG. 8 is a diagram illustrating a process of distinguishing objects variously arranged in an open space without glass by a robot according to another embodiment of the present invention.
9 is a diagram illustrating a virtual boundary line stored in a map storage unit according to an embodiment of the present invention.
10 is a view showing a change in signal strength when the
11 and 12 illustrate a result of sensing the signal strength and distance by the
FIG. 13 is a diagram illustrating a process of creating a map to which a characteristic of an object is applied by a robot according to an embodiment of the present invention.
14 is a diagram illustrating a process of receiving a reflection signal of an object by a lidar sensor according to an embodiment of the present invention.
FIG. 15 is a diagram for a process of storing, by a controller, information of an external object sensed according to an embodiment of the present invention in a map storage unit.
FIG. 16 is a diagram illustrating a process in which a robot operates differently in response to characteristic information of surrounding objects according to an embodiment of the present invention.
FIG. 17 is a view illustrating a process of exchanging position and characteristic information of an object between a plurality of robots or between a robot and a server according to an embodiment of the present invention.
이하, 도면을 참조하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.
본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조 부호를 붙이도록 한다. 또한, 본 발명의 일부 실시예들을 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.In order to clearly describe the present invention, parts irrelevant to the description are omitted, and like reference numerals designate like elements throughout the specification. In addition, some embodiments of the invention will be described in detail with reference to exemplary drawings. In adding reference numerals to components of each drawing, the same components may have the same reference numerals as much as possible even though they are shown in different drawings. In addition, in describing the present invention, when it is determined that the detailed description of the related well-known configuration or function may obscure the gist of the present invention, the detailed description may be omitted.
본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the components of the present invention, terms such as first, second, A, B, (a), and (b) can be used. These terms are only to distinguish the components from other components, and the terms are not limited in nature, order, order or number of the components. When a component is described as being "connected", "coupled" or "connected" to another component, that component may be directly connected to or connected to that other component, but between components It will be understood that the elements may be "interposed" or each component may be "connected", "coupled" or "connected" through other components.
또한, 본 발명을 구현함에 있어서 설명의 편의를 위하여 구성요소를 세분화하여 설명할 수 있으나, 이들 구성요소가 하나의 장치 또는 모듈 내에 구현될 수도 있고, 혹은 하나의 구성요소가 다수의 장치 또는 모듈들에 나뉘어져서 구현될 수도 있다.In addition, in the implementation of the present invention may be described by subdividing the components for convenience of description, these components may be implemented in one device or module, or one component is a plurality of devices or modules It can also be implemented separately.
이하, 본 명세서에서 로봇은 특정한 목적(청소, 보안, 모니터링, 안내 등)을 가지거나 혹은 로봇이 이동하는 공간의 특성에 따른 기능을 제공하며 이동하는 장치를 포함한다. 따라서, 본 명세서에서의 로봇은 소정의 정보와 센서를 이용하여 이동할 수 있는 이동수단을 보유하며 소정의 기능을 제공하는 장치를 통칭한다. Hereinafter, in the present specification, the robot includes a device having a specific purpose (cleaning, security, monitoring, guidance, etc.) or providing a function according to the characteristics of the space in which the robot moves. Therefore, the robot in the present specification collectively refers to a device that holds a moving means that can move using predetermined information and a sensor and provides a predetermined function.
본 명세서에서 로봇은 맵을 보유하면서 이동할 수 있다. 맵은 공간에서 이동하지 않는 고정된 벽, 계단, 유리벽 등에 대한 정보를 의미한다. 또한, 로봇은 맵 위에 특정한 객체들에 대한 정보를 저장할 수 있다. 예를 들어, 객체가 유리와 같이 특정한 신호를 투과시키는 재질인 경우, 이를 벽과 구분하여 저장할 수 있다. 마찬가지로, 거울과 같이 반사 신호를 왜곡시키는 재질에 대해서도 정보를 저장할 수 있다. 빈 공간에 확장되어 배치되는 유리벽은 센싱 신호를 투과시켜 로봇이 거리를 정확하게 측정하지 못할 수 있으므로, 로봇이 이동하는 공간 내에서 벽과 유리 등 재질이 상이한 객체들의 정보를 구분하여 저장하고 이를 표시하거나 이용하는 것이 필요하다. 도 1은 본 발명의 일 실시예에 의한 라이다(LiDAR) 센서의 구성을 보여주는 도면이다. 본 발명의 일 실시예에 로봇은 라이다(Lidar) 센서를 이용하여 맵을 보완하거나 혹은 고정된 구조물의 재질 등을 식별할 수 있다. 라이다 센서는 외부의 장애물 혹은 이동체를 향해 출사시킨 레이저의 반사를 통해 사물까지의 위치(거리)나 방향, 사물의 속도나 온도, 혹은 물질 분포와 농도, 재질 등을 확인할 수 있다. 이를 위해 라이다 센서를 포함하는 센싱부(100)는 레이저를 출사시키는 레이저 송신부(110)와 레이저 수신부(120)로 구성될 수 있으며, 이에 더하여 수신된 신호를 분석하는 센싱 데이터 분석부(130)로 구성될 수 있다. 레이저 송신부(110)는 특정한 파장의 레이저 혹은 파장을 가변하는 것이 가능한 레이저 광원을 이용할 수 있다. 센싱 데이터 분석부(130)는 센싱된 객체와의 거리, 혹은 센싱된 객체의 온도나 속도, 재질과 같은 정보를 분석하여 센싱부(100)가 장착된 로봇에게 제공할 수 있다.In the present specification, the robot may move while holding a map. The map refers to information about fixed walls, stairs, and glass walls that do not move in space. The robot can also store information about specific objects on the map. For example, if the object is a material that transmits a specific signal, such as glass, it can be stored separately from the wall. Similarly, information may be stored about a material that distorts a reflected signal, such as a mirror. Since the glass wall extended in the empty space transmits a sensing signal, the robot may not be able to accurately measure the distance. Therefore, information about objects having different materials such as walls and glass may be classified and stored and displayed in the moving space of the robot. Or need to use. 1 is a view showing the configuration of a LiDAR sensor according to an embodiment of the present invention. According to an embodiment of the present invention, the robot may use a Lidar sensor to complement the map or identify a material of a fixed structure. The lidar sensor can check the position (distance) or direction to the object, the speed or temperature of the object, the material distribution and concentration, and the material through the reflection of the laser emitted toward an external obstacle or moving object. To this end, the
도 1에서 레이저 송신부(110) 및 레이저 수신부(120)를 통합하여 라이다 센서라고 지시할 수 있다. 다른 실시예로 라이다 센서는 센싱 데이터 분석부(130)와 레이저 송신부(110), 레이저 수신부(120)를 모두 포함할 수도 있다. In FIG. 1, the
도 1은 센싱부의 일 실시예로 레이저를 이용하는 라이다 센서의 구성을 제시하고 있으나, 본 발명이 이에 한정되는 것은 아니며, 초음파 센서, 적외선 센서 등 다양한 센서를 이용하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도(Intensity)를 확인할 수 있다. 또한 둘 이상의 센서들을 이용하고, 각 센서들이 식별한 정보의 특징을 반영하여 외부의 객체들에 대한 재질 혹은 이들 외부의 객체들로부터 반사된 신호의 강도를 확인할 수 있다.1 illustrates a configuration of a lidar sensor using a laser as an embodiment of the sensing unit, but the present invention is not limited thereto, and materials or materials for external objects using various sensors such as an ultrasonic sensor and an infrared sensor may be used. The intensity of the signal reflected from these external objects can be checked. In addition, two or more sensors may be used to reflect the characteristics of the information identified by each sensor, thereby identifying the material of the external objects or the strength of the signal reflected from the external objects.
도 2는 본 발명의 일 실시예에 의한 로봇의 구성을 보여주는 도면이다. 로봇(1000)은 외부의 이동 객체 혹은 고정 객체를 센싱하는 센싱부(100), 맵을 저장하는 맵 저장부(200), 이동을 제어하는 이동부(300), 로봇의 소정의 기능을 수행하는 기능부(400), 다른 로봇과 맵 또는 이동 객체, 고정 객체에 관한 정보를 송수신하는 통신부(500), 로봇(1000)이 취득한 정보를 표시하는 인터페이스부(600), 그리고 이들 각각의 구성요소들을 제어하는 제어부(900)를 포함한다.2 is a view showing the configuration of a robot according to an embodiment of the present invention. The
제어부(900)는 센싱부(100)가 센싱한 정보들을 취합하여 센싱된 객체의 재질 또는 센싱된 객체의 특성을 분석하여 이를 맵 저장부(200)에 저장할 수 있다. 이동부(300)는 바퀴와 같이 로봇(1000)을 이동시키는 수단으로, 제어부(900)의 제어에 따라 로봇(1000)을 이동시킨다. 이때, 제어부(900)는 맵 저장부(200)에 저장된 영역에서 로봇(1000)의 현재 위치를 확인하여 이동부(300)에 이동에 필요한 제어 신호를 제공할 수 있다. The
또한, 센싱부(100)에서 센싱된 외부의 객체의 존재 유무를 제어부(900)가 판별하여 이동부(300)의 이동을 제어할 수 있다. 기능부(400)는 로봇의 특화된 기능을 제공하는 것을 의미한다. 예를 들어, 청소 로봇인 경우 기능부(400)는 청소에 필요한 구성요소를 포함한다. 안내 로봇인 경우 기능부(400)는 안내에 필요한 구성요소를 포함한다. 기능부(400)는 로봇이 제공하는 기능에 따라 다양한 구성요소를 포함할 수 있다. In addition, the
맵 저장부(200)는 맵(210)을 포함한다. 맵은 로봇(1000)이 이동할 수 있는 공간에 대한 정보를 의미한다. 맵은 전체 공간을 세분화된 단위 영역으로 나누어 단위 영역에 고정 객체가 배치된 정보를 저장한다. 맵(210)은 로봇(1000)이 이동하면서 로봇(1000)의 위치에서 주변에 배치된 객체를 확인하는데 사용될 수 있다. 또한 맵(210)은 로봇(1000)을 관리하는 사람에게 공간에 대한 정보를 제공할 수 있다. 따라서, 도 3의 맵(210)은 로봇(1000)이 이동하는 과정에서 참조하는 메모리 상의 정보가 될 수도 있고, 특정한 디스플레이를 통해 시각적으로 표시되는 정보가 될 수도 있다. The
또한, 맵 저장부(200)는 객체특성 저장부(220)를 포함한다. 객체특성 저장부(220)는 센싱부(100)에서 출사한 신호가 수신되는 과정에서 취득한 외부 객체의 특성 정보를 저장한다. 예를 들어, 수신된 신호를 통해 확인한 외부 객체의 재질과 같은 특성 정보가 객체특성 저장부(220)에 저장될 수 있다. 특성 정보의 일 실시예로, 도 1의 레이저 송신부(110)가 송신한 신호가 레이저 수신부(120)에서 수신된 신호의 특성을 포함한다. In addition, the
따라서, 맵 저장부(200)는 객체의 특성 정보를 범주화한 범주에 대한 정보를 저장하고, 이는 후술할 도 15와 같이 제어부(900)에 의해 범주가 재조정될 수 있다. 범주의 재조정은 전체 공간의 객체들을 범주에 따라 구분하여 표시하는 과정에서 보다 정확하게 공간의 객체들의 특성을 반영시키기 위함이다. 또한, 범주에 대한 정보는 로봇이 특정한 범주에 속하는 객체들에 근접하여 이동할 경우 동작 모드를 변경할 수 있도록 하므로, 공간 내에 배치되는 객체들의 특성을 반영하여 범주를 재조정할 수 있다. Accordingly, the
라이다 센서를 적용하는 실시예에서 수신된 신호의 반사 강도(intensity) 정보가 반사된 물질의 재질에 따라 달라질 수 있다. 레이저를 전부 반사할 경우 강도는 세어지고, 레이저를 일부 흡수하거나 투과시킬 경우 강도는 약해질 수 있다. 따라서, 동일한 위치에 배치된 사물이라도, 사물의 재질에 따라 상이한 강도로 레이저 신호가 수신되며, 이를 이용하여 객체의 특성 정보로 저장할 수 있다. In an embodiment in which a lidar sensor is applied, the reflection intensity information of the received signal may vary depending on the material of the reflected material. The intensity is increased when all the lasers are reflected, and the intensity may be weakened when the laser is partially absorbed or transmitted. Therefore, even if the objects are arranged in the same position, the laser signal is received at a different intensity according to the material of the object, it can be stored as the characteristic information of the object.
본 발명의 실시예를 적용하여 라이다 센서의 경우 레이저를 이용하여 전/후방에 있는 객체, 즉 장애물에 대한 정보를 맵핑하며, 이들 장애물의 재질(유리, 콘크리트 벽 등)에 따라 서로 다른 레이저 신호의 반사 강도(Intensity) 정보를 획득할 수 있다. 본 명세서에서는 센싱된 거리 정보만을 이용하여 맵핑하지 않고, 센싱된 거리 정보에 더하여 서로 다른 강도에 대한 모든 거리 값을 이용하여 맵핑을 수행하여, 더 많은 외부의 객체들에 대한 정보를 획득할 수 있다. According to an embodiment of the present invention, a lidar sensor uses a laser to map information about an object in front and rear, that is, obstacles, and different laser signals according to materials of the obstacles (glass, concrete wall, etc.). Intensity information can be obtained. In the present specification, instead of using only the sensed distance information, mapping may be performed using all distance values for different intensities in addition to the sensed distance information, thereby obtaining information on more external objects. .
특히, 맵 상에서 신호의 강도(Intensity) 구간 별로 장애물, 즉 객체에 대해 상이한 식별 기호(컬러, 숫자 등)를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 맵으로 사용할 수 있다. In particular, different identification symbols (colors, numbers, etc.) are assigned to obstacles, that is, objects, for each intensity section of the signal on the map, and thus may be used as reference maps for removing classification and unnecessary obstacles according to the material of the obstacle.
이동부(300) 또는 기능부(400)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작할 수 있다. The moving
이동부(300)는 로봇(1000)을 이동시킨다. 이동부(300)는 제어부(900)의 제어에 따라 이동할 수 있는데, 특히, 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 방식으로 이동할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 접근하도록 이동하는 경우에는 속도를 높이고, 범주 3에 해당하는 객체(예를 들어 유리)에 접근하도록 이동하는 경우에는 속도를 낮출 수 있다. The moving
기능부(400)는 특정한 동작, 예를 들어 청소, 보안 등의 기능, 안내 기능 등을 수행한다. 기능부(400)는 로봇(1000)의 현재 위치에서 주변에 배치된 객체들의 특징에 따라 상이한 동작을 수행할 수 있다. 예를 들어, 후술할 도 3의 실시예에서 범주 9에 해당하는 객체(예를 들어 벽)에 인접하여 수행하는 기능과, 범주 3에 해당하는 객체(예를 들어 유리)에 인접하여 수행하는 기능을 달리 할 수 있다. The
정리하면, 이동부(300) 및 기능부(400)는 진행 방향 또는 인접하게 배치된 객체의 특성 정보에 따라 상이하게 동작할 수 있다. In summary, the moving
도 3은 본 발명의 일 실시예에 의한 맵 저장부에 저장되는 맵의 구성을 보여주는 도면이다. 도 1 및 도 2에서 살펴본 센싱부(100)가 로봇(1000)이 이동하며 센싱한 공간 정보를 저장한다. 3 is a diagram illustrating a configuration of a map stored in a map storage unit according to an exemplary embodiment of the present invention. The
도 3의 맵(210a)은 일종의 비트맵과 같이 구성할 수 있다. 이미지 파일의 비트맵에서 각 비트가 하나의 단위 영역을 나타내도록 구성할 수 있다. 각 단위 영역은 좌측 하단을 (0, 0)으로, 우측 상단을 (19, 19)로 지시할 수 있다. 또한, 도 3의 210a은 20x20 구조의 데이터 구조를 가질 수 있다. 예를 들어, 각 위치에 대해 객체가 배치되는지 여부에 대한 정보를 포함할 수 있다. 일종의 행렬과 같이 정보를 배치하고, 고정 객체가 배치되는 경우에는 해당 행렬의 값을 미리 설정된 값으로 설정할 수 있다.The
또한, 맵 저장부(200)는 고정 객체들로 구성된 맵(210) 외에도 객체들에 대한 특성 정보를 저장할 수 있는데, 객체에 대한 특성 정보는 객체 특성 저장부(220)에 저장된다. 그리고 이들 정보 역시 맵(210) 상에 표시될 수 있다. In addition, the
도 3의 맵(210a)에서 검은 색으로 표시된 부분(211)은 콘트리트와 같이 빛이 전혀 투과하지 않는 재질의 객체를 나타낸다. 한편 212에서 지시하는 부분은 반투명 유리와 같이 빛이 일부 투과되고 일부 반사되는 재질의 객체를 나타낸다. 또한, 213에서 지시하는 부분은 유리와 같이 빛의 투과도가 높은 재질의 객체를 나타낸다. The
도 3의 맵(210a)에는 20x20의 비트맵 공간 중에서 각 공간의 객체 특성의 범주값으로 설정될 수 있다. In the
일 실시예로는 20x20의 비트맵 공간에서 객체 특성의 범주에 따라 상이한 컬러로 표시하는 방식이 있다. 예를 들어, 도 3에서 211에서 지시되는 검은 색 부분은 검은 색으로 표시하며, 212는 노란 색으로, 213은 붉은 색으로 표시하는 방식이 적용될 수 있다. 또는 도 3에 나타난 바와 같이, 상이한 무늬로 표시하는 방식이 있다. One embodiment is a method of displaying in different colors according to a category of object characteristics in a 20x20 bitmap space. For example, a black portion indicated by 211 in FIG. 3 may be displayed in black, 212 may be yellow, and 213 may be displayed in red. Alternatively, as shown in Figure 3, there is a way to display in a different pattern.
또 다른 실시예로는 상이한 숫자로 표시하는 방식이 있다. 211에서 지시되는 검은 색 부분에는 가장 높은 강도의 범주인 9가 설정되고, 212에서 지시되는 부분에는 이보다 낮은 강도의 범주인 7, 그리고 213에서 지시되는 부분에는 이보다 더 낮은 강도의 범주인 3이 설정될 수 있다. Another example is a method of displaying different numbers. The highest intensity category is set to 9 in the black areas indicated at 211, the lower intensity category is set to 7, at the points indicated at 212, and the
도 4는 객체 특성 저장부(220)에 저장되는 객체의 특성을 보여주는 도면이다.4 is a diagram illustrating a characteristic of an object stored in the object
객체 특성 저장부(220)는 객체 특성의 범주의 정보를 저장하는 범주 저장부(221) 및 객체의 위치 및 강도에 대한 정보가 저장되는 위치 저장부(225)로 나뉘어진다. 범주 저장부(221)는 필드(221a) 및 데이터(221b)로 나뉘어지며 이는 로봇이 주행하는 공간의 특성에 따라 다양하게 구성될 수 있다. The object
일 실시예로 카테고리(Category) 필드는 객체의 특성의 범주를 나타낸다. 도 4에서 221b와 같이 4 종류의 카테고리가 제시되어 있다. 그리고 각 카테고리별로 맵에 표시할 경우의 색상(Color)가 설정될 수 있다. Intensity_Min과 Intensity_Max는 반사 강도의 범위를 의미한다. 이는 도 1의 레이저 수신부(120)에서 수신한 반사 신호의 강도의 값에 따라 설정될 수 있으며, 이를 새로이 변환한 값이 될 수 있다. In one embodiment, the Category field represents a category of properties of the object. In FIG. 4, four types of categories are presented as shown in FIG. Colors for displaying on the map for each category may be set. Intensity_Min and Intensity_Max mean a range of reflection intensities. This may be set according to the intensity value of the reflected signal received by the
예를 들어, 도 4에 기반하여 반사 신호의 강도가 실제로 0 내지 100 사이의 값을 가질 수 있다. 다른 실시예로, 반사 신호의 강도는 실제로는 0 내지 10000 사이의 값을 가지지만 이를 0 내지 100의 값으로 변환할 수 있다. 변환하는 방식은 100으로 나누는 방식, 혹은 소정의 해쉬 태이블 또는 함수를 이용하여 변환하는 방식 등이 가능하다. 예를 들어, 반사 신호의 강도가 0 내지 10000 사이에 속하지만, 로봇이 주행한 결과 의미있는 반사 신호의 강도는 3000에서 5000 사이인 경우, 이를 기준으로 0 내지 100으로 변환할 수 있다. For example, based on FIG. 4, the intensity of the reflected signal may actually have a value between 0 and 100. In another embodiment, the intensity of the reflected signal actually has a value between 0 and 10000 but can be converted to a value between 0 and 100. The converting method may be divided by 100, or may be converted using a predetermined hash table or a function. For example, if the intensity of the reflected signal is in the range of 0 to 10000, but the strength of the meaningful reflected signal is 3000 to 5000 as a result of the robot running, it may be converted to 0 to 100 based on this.
또한, 로봇과 객체의 거리를 통해 신호의 강도를 정규화(normalization) 시키는 과정을 추가할 수 있다. 즉, 객체와의 거리가 10미터 인 경우의 신호의 강도와 객체와의 거리가 5미터인 경우의 신호의 강도는 다르므로, 이를 기준 거리에서의 신호의 강도로 변환하여 객체 특성 저장부(220)에 저장할 수 있다. In addition, a process of normalizing the strength of the signal through the distance between the robot and the object may be added. That is, since the intensity of the signal when the distance from the object is 10 meters and the intensity of the signal when the distance from the object is 5 meters are different, the object
Material_1 내지 Material_3은 각 범주에 대응하는 객체의 재질에 대한 정보이다. 이는 레이저 센서의 반사 강도에 따라 미리 설정될 수도 있고, 로봇의 다른 센서에서 센싱된 정보 혹은 미리 제공되는 정보에 기반하여 설정될 수 있다.Material_1 to Material_3 are information on the material of the object corresponding to each category. This may be set in advance according to the reflection intensity of the laser sensor, or may be set based on information sensed or provided in advance by another sensor of the robot.
도 4의 221에는 4 종류의 범주가 있으며, 이 중에서 1은 빈공간을 의미한다. 9는 콘크리트, 불투명한 재질 등으로 구성된 객체의 특성을 지시한다. 7은 반투명 유리 혹은 반투명 아크릴 등으로 구성된 객체의 특성을 지시한다. 3은 유리 또는 투명한 아크릴 등으로 구성된 객체의 특성을 지시한다. There are four types of categories in 221 of FIG. 4, where 1 means empty space. 9 indicates the properties of an object composed of concrete, opaque material, and so on. 7 indicates the property of an object composed of translucent glass or translucent acrylic. 3 indicates the property of an object composed of glass or transparent acrylic or the like.
여기서 범주는 로봇이 주행 중 센싱한 정보들을 토대로 재구성할 수 있다. 예를 들어, 7이라는 범주에는 속하지만 특정한 강도의 값을 가지는 객체가 다수 존재하는 것으로 센싱될 경우, 이 객체를 위해 별도의 범주를 추가할 수 있다. 즉 7이라는 범주에 속하지만 50~55 사이의 반사 강도를 가지는 객체가 다수 센싱될 경우, 6이라는 범주를 새로 추가할 수 있다. Here, the category can be reconstructed based on information sensed by the robot while driving. For example, if a number of objects belonging to the
위치 저장부(225)는 센싱부(100)가 센싱한 객체의 위치 및 특성에 대한 정보를 저장한다. 센싱된 모든 객체의 위치, 정규화한 신호의 강도(Intensity) 및 특성에 대한 정보를 저장하는 것을 일 실시예로 한다. 또한, 센싱된 객체 중 특정 범주에 속한 객체들의 위치 및 특성에 대한 정보를 저장하는 것을 다른 실시예로 한다. The
예를 들어, 도 3에서 맵(210a)에는 범주가 9 에 해당하는 객체들에 대한 위치 정보가 211과 같이 기본적으로 저장될 수 있다. 그리고 범주가 212 및 213에서 지시하는 7 또는 3인 객체들의 위치 및 특성에 대한 정보만 위치 저장부(225)에 저장될 수 있다. 이는 공간 내에 주도적으로 배치되는 객체들의 특성에 따라 다양하게 적용할 수 있다.For example, in FIG. 3, location information about objects having a category of 9 may be basically stored in the
도 4의 225에서는 도 3의 212 및 213에서 지시하는 객체들에 대한 위치 정보가 저장된 위치 저장부의 실시예를 보여준다. 4 shows an embodiment of a location storage unit in which location information about objects indicated by 212 and 213 of FIG. 3 is stored.
위치 저장부(225)는 필드(225a) 및 데이터(225b)로 구성된다. 필드는 시리얼(Serial), 범주(Category), 신호의 강도(Intensity), 그리고 객체의 시작 지점(StartX, StartY)와 종료 지점(EndX, EndY)에 대한 정보를 포함한다. 위치 저장부(225)의 데이터(225b)는 도 3의 212 및 213에서 지시되는 객체들의 위치 및 이들의 범주에 대한 정보가 저장한 실시예를 보여준다.The
도 4에 제시된 바와 같이, 맵 저장부(200)는 객체 및 객체가 반사한 신호의 강도가 포함된 범주에 따라 구별하여 객체의 정보를 저장한다. 그리고, 로봇은 저장한 정보를 구별하여 표시할 수 있다. 즉, 로봇(1000)의 인터페이스부(600)는 맵 저장부(200)에 저장된 객체의 정보를 신호의 강도가 포함된 범주에 따라 상이하게 표시할 수 있다. 상이하게 표시하는 실시예로는 각 범주에 대해 컬러를 상이하게 설정하는 것을 의미한다. 다른 실시예로, 각 범주에 대해 상이한 무늬로 객체를 표시할 수 있다. 앞서 도 3에서 상이한 무늬 또는 색상으로 객체들을 구별하여 표시하는 실시예를 살펴보았다. As shown in FIG. 4, the
도 4에서 제시하는 범주(Category)는 미리 외부적으로 설정될 수도 있으나, 로봇(1000)의 제어부(900) 및 맵 저장부(200)가 저장된 정보를 재그룹하여 특정한 범주에 포함되는 객체들을 둘 이상의 범주로 분리하거나, 혹은 둘 이상의 범주에 포함되는 객체들을 하나의 범주로 통합할 수 있다. The category shown in FIG. 4 may be externally set in advance, but the
또한, 공간의 구성적 특징에서 유리와 같이 라이다 센서가 송신한 신호가 투과되는 공간이 다수 배치되는 경우, 유리를 벽으로 인식할 수 있도록 하여 장애물과 같은 외부의 객체의 재질에 따라 잘못된 값이 획득되거나 획득이 되어지지 않는 경우를 방지할 수 있다. 또한, 이러한 로봇을 구현하여 정확한 맵 정보를 생성할 수 있다. In addition, when there are a large number of spaces through which the signals transmitted by the rider sensor are transmitted, such as glass, the glass may be recognized as a wall so that an incorrect value may be obtained depending on the material of an external object such as an obstacle. It can prevent the case of being acquired or not being acquired. In addition, such a robot can be implemented to generate accurate map information.
도 5는 본 발명의 일 실시예에 의한 로봇이 벽과 유리가 배치된 공간에서 신호의 강도를 이용하여 구별하는 과정을 보여주는 도면이다. 센싱부(100)가 전방으로 180도 범위 내에서 신호를 송신 및 수신하는 구성에 대해 살펴본다. 센싱부(100)는 전방 180도 내에 신호를 순차적으로, 혹은 동시에 송신하고, 외부의 객체로부터 반사되는 신호를 수신한다. 벽(11a, 11b, 12)과 같이 센싱부(100)가 송신한 신호가 투과하지 않는 영역에서는 신호의 강도가 높으며, 유리와 같이 센싱부(100)가 송신한 신호가 일부 투과하는 영역에서는 신호의 강도가 낮다. FIG. 5 is a diagram illustrating a process of distinguishing a robot using signal strength in a space where walls and glass are disposed according to an embodiment of the present invention. It looks at the configuration in which the
센싱부(100)가 센싱한 신호의 강도는 하단의 그래프(51)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 신호의 강도를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터 신호가 반사되어 일부 신호가 수신되며, 또한, 유리(10)를 투과하지 못한 일부 신호가 수신되는 영역(10a)에서의 신호의 강도는 앞쪽의 벽(11a, 11b)에서 반사된 신호의 강도보다 작다. The intensity of the signal sensed by the
한편, 센싱부(100)가 센싱한 신호의 거리는 하단의 그래프(52)와 같이 표시된다. 설명의 편의를 위하여 센싱부(100)를 중심으로 -45도에서 +45도 사이의 객체의 센싱된 거리를 보여준다. 유리(10)를 투과하여 유리 뒷편에 배치된 벽(12)으로부터의 거리가 산출된다. 또한, 센싱부(100)의 구성에 따라, 유리(10)를 일부 투과하지 못하여 반사된 신호를 통한 거리 역시 10a 내에서의 점선과 같이 산출될 수 있다. 신호의 거리는 센싱부(100)를 중심으로 한 각도를 반영하여 보정한 값이 52와 같이 표시될 수 있다. Meanwhile, the distance of the signal sensed by the
도 5의 실시예에서 센싱부(100)가 센싱한 신호의 강도(Intensity) 및 거리(Distance)에 대한 정보는 제어부(900)에게 전달되고, 제어부(900)는 외부 객체들에 대해 센싱된 정보들을 기준으로 맵 저장부(200)에 객체의 정보를 저장할 수 있다. 10a 영역에서 신호의 강도가 약해지는 부분과 신호의 거리가 길어지는 부분에서 반사된 신호의 강도와 거리를 비교하여, 유리(10)가 배치되어 있음을 확인할 수 있다. In the embodiment of FIG. 5, the information about the intensity and distance of the signal sensed by the
일 실시예로, 유리(10)가 없을 경우 예상되는 신호의 강도보다 10a영역에서의 신호의 강도가 더 낮거나 혹은 더 높은 경우에는 벽(12)과 센싱부(100) 사이에 빛을 투과하거나 반사하는 등, 신호의 강도를 왜곡시키는 객체가 배치되어 있음을 제어부(900)가 확인할 수 있다. 또한, 10a영역에서 유리(10)로부터 반사되는 미세한 신호의 거리를 통해 52에 점선으로 표시된 신호 역시 유리(10)가 배치되어 있음을 확인하는 요소가 될 수 있다. In one embodiment, when the
도 5와 같은 구조에서 제어부(900)와 맵 저장부(200)는 신호의 강도 및 신호의 거리를 보정하여 저장할 수 있다. 유리(10)가 배치된 영역에서는 유리 및 뒷편의 벽(12) 모두 맵 상에 저장할 수 있다. In the structure as shown in FIG. 5, the
도 6은 본 발명의 일 실시예에 의한 도 5에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면이다. 맵(210b)에는 도 5의 벽(12)의 일부(12a)만이 표시되는데, 이는 앞쪽의 벽들(11a, 11b)로 인해 뒤쪽의 벽(12)의 일부 영역은 거리가 센싱되지 않기 때문이다. 또한 유리(10)는 벽들과 상이하게 표시되도록 맵(210b)에 저장된다. FIG. 6 is a diagram illustrating objects stored in FIG. 5 in the
또한, 공간 사이에 배치되며 인접한 영역의 객체인 벽(11a, 11b)들과 다른 종류의 재질을 가지는 객체(도 5 및 6에서 유리)는 쉽게 제거될 수도 있으므로, 특정 범주에 들어가는 객체들에 대해서는 센싱된 시간에 대한 정보를 추가적으로 저장할 수 있다. In addition,
예를 들어, 도 4의 위치 저장부(225)에 SensingTime이라는 필드를 더 추가하고, 해당 객체가 센싱된 시간에 대한 정보를 지속하여 업데이트 할 수 있으며, 센싱 시간이 일정 기간이상 지난 객체에 대해서는 해당 객체가 제거되었는지 여부를 새로이 센싱하여 업데이트할 수도 있다. For example, an additional field called SensingTime may be added to the
특히, 공항, 터미널과 같이 유동인구가 많으며 공간의 구획이 자주 변경되는 곳에서는 유리를 이용하여 새로운 공간을 구획하거나 혹은 이미 존재하는 공간을 제거할 수 있으므로, 콘크리트와 같이 쉽게 제거하기 어려운 범주에 속하는 객체가 아닌 경우, 유동적인 객체로 판단하여 주기적으로 혹은 특정한 시점을 기준으로 객체들이 그대로 배치되어 있는지 여부를 확인할 수 있다.In particular, where there are many floating populations such as airports and terminals, and the compartments of the spaces are frequently changed, glass can be used to partition new spaces or to remove existing spaces. In the case of non-objects, it can be determined as a fluid object to check whether objects are arranged as they are periodically or at a specific point in time.
라이다 센서와 같이 외부의 객체를 센싱하는 과정에서 신호의 강도(Intensity) 정보와 거리 정보를 동시에 획득이 가능할 경우, 이들 정보를 이용하여 외부의 객체에 대한 정보를 상세하게 획득할 수 있다. 즉, 장애물과 같은 객체의 재질에 따라 서로 다른 강도에 대한 모든 거리 값을 이용하여 매핑을 할 경우 더 많은 장애물 정보의 획득이 가능하다. When it is possible to acquire intensity information and distance information of a signal at the same time in the process of sensing an external object, such as a lidar sensor, the information on the external object can be obtained in detail using these information. That is, when mapping using all distance values for different strengths according to the material of an object such as an obstacle, more obstacle information can be obtained.
또한, 도 4에서 살펴본 바와 같이, 신호의 강도에 대한 구간을 범주로 그룹핑하여 장애물에 컬러나 숫자, 해칭 무늬를 부여하여 장애물의 재질에 따른 구분 및 불필요한 장애물을 제거하기 위한 참조 자료로 사용하여 보다 정확한 맵 생성이 가능하다. In addition, as shown in Figure 4, by grouping the intervals of the signal strength into a category to give color, number, hatching pattern to the obstacle to use as a reference material for the classification and removal of unnecessary obstacles according to the material of the obstacle Accurate map generation is possible.
도 7은 본 발명의 다른 실시예에 의한 로봇이 유리 뒷편에 배치되는 사물들과 유리를 구별하는 과정을 보여주는 도면이다. FIG. 7 is a view illustrating a process of distinguishing the glass from the objects disposed behind the glass by the robot according to another embodiment of the present invention.
도 5의 구성과 달리, 유리(10) 뒷편에는 다수의 진열대(15)가 배치되어 있다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 5에서 살펴본 사항과 상이하다. Unlike the configuration of FIG. 5, a plurality of display stands 15 are arranged behind the
진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(71)에서의 71a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(72)에서의 72a 부분과 같다. 72에서의 점선은 유리와의 거리를 의미한다. 제어부(900)는 71 및 72와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 전면의 유리(10)와 뒷편의 벽(12)을 저장할 수 있다. 이는 71 및 72의 10b 영역에서 신호가 짧은 범위 내에 급격히 변화하는 경우 제어부(900)가 10b 영역을 유리 뒷편에 다양한 사물들이 배치됨으로 인해 신호의 강도와 거리가 변화하는 것으로 맵 저장부(200)에 저장할 수 있다. 도 7에서 센싱된 객체들을 맵 저장부(200)에 저장한 도면은 도 6과 동일할 수 있다. The intensity of the signal reflected from the
도 8은 본 발명의 또다른 실시예에 의한 로봇이 유리가 없는 열린 공간 상에서 다양하게 배치된 사물들을 구별하는 과정을 보여주는 도면이다. FIG. 8 is a diagram illustrating a process of distinguishing objects variously arranged in an open space without glass by a robot according to another embodiment of the present invention.
도 7의 구성과 달리, 다수의 진열대(15)가 배치되어 있으나 진열대(15) 전면에는 유리 또는 벽과 같은 다른 객체가 배치되지 않은 실시예이다. 따라서, 이들 진열대(15)에서 반사되는 신호의 강도와 거리는 도 7에서 살펴본 사항과 상이하다. Unlike the configuration of FIG. 7, a plurality of display racks 15 are arranged, but other objects such as glass or walls are not disposed on the front surface of the
진열대(15)에서 반사된 신호의 강도는 신호 강도 그래프(81)에서의 81a 부분과 같다. 진열대(15)에서 측정된 거리는 신호 거리 그래프(82)에서의 82a 부분과 같다. 도 7과 달리 유리와의 거리는 신호 거리 그래프(82)에 배치되어 있지 않다. The intensity of the signal reflected from the
제어부(900)는 81 및 82와 같이 센싱된 정보에서 맵에 정보를 저장하는 과정에서 진열대(15)를 맵에 저장하지 않고, 인접한 벽(11a, 11b)의 확장 구간된 구간과 뒷편의 벽(12)을 저장할 수 있다. 센싱부(100)와 진열대(15) 사이에는 로봇(1000)의 이동에 장애가 되는 객체가 존재하자 않는 것은 81 및 82의 그래프를 통하여 제어부(900)가 확인할 수 있다.The
그러나 제어부(900)는 센싱된 신호의 강도가 벽(11a, 11b)에서 센싱된 신호의 강도와 비교하여 거리 보정을 한 이후에도 서로 상이한 경우, 진열대(15)와 벽(11a, 11b) 사이의 거리가 미리 설정된 값 이내라고 판단할 경우, 진열대(15)까지 로봇이 진입하지 않고, 벽(11a, 11b)에서 확장된 영역에 객체가 가상으로 존재하는 것으로 맵 저장부(200)에 저장할 수 있다.However, if the strength of the sensed signal is different from each other even after the distance is corrected compared with the strength of the signal sensed by the
이 경우, 제어부(900)는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이에 가상의 유리가 있는 것으로 맵 저장부(200)에 저장할 수 있다. 혹은 유리가 아닌, 가상의 경계선에 대한 정보를 맵 저장부(200)에 저장할 수 있다. In this case, the
도 9는 본 발명의 일 실시예에 의한 가상의 경계선을 맵 저장부에 저장한 도면이다. 90으로 지시되는 영역은 도 8의 는 좌측 전면부의 벽(11a) 및 우측 전면부의 벽(11b) 사이의 공간에 가상의 경계선, 즉 가상의 벽을 지시한다. 마찬가지로, 범주 저장부(221)에는 이에 대응하는 범주(-1)에 대한 정보가 저장된다. "-1"이라는 카테고리를 가지는 영역은 사물이 배치되어 있지 않으나 진입하지 않는 공간으로 인식하여 로봇(1000)은 이동 과정에서 90영역에 대해서는 벽이 배치된 것과 동일하게 동작할 수 있다. 9 is a diagram illustrating a virtual boundary line stored in a map storage unit according to an embodiment of the present invention. The area indicated by 90 indicates a virtual boundary, that is, a virtual wall, in the space between the
전술한 본 발명의 실시예들을 살펴보면, 로봇(1000)은 외부에 배치되는 객체들의 재질 특성 별로 구별하는 맵(컬러, 또는 무늬 등)을 구성하여 장애물을 구분할 수 있다. 또한 로봇(1000)은 장애물들의 재질 특성을 반영한 맵을 생성하여 맵 정보의 활용이 필요한 다양한 응용 분야에 사용이 가능하다.Looking at the above-described embodiments of the present invention, the
예를 들어, 로봇(1000)이 이동하는 과정에서 벽과 유리를 구분하여 동작하는 것이 필요할 경우, 맵 상에 저장된 상이한 특성의 객체들의 구분된 정보에 따라 로봇(1000)은 이동할 수 있다.For example, when it is necessary to operate the wall and glass separately in the process of moving the
정리하면, 로봇(1000)의 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장할 수 있다. 가상의 객체는 가상의 벽과 같이 해당 위치에 객체가 배치되지 않음에도 인접한 객체들(진열대 등)로 인해 가상으로 장애물이 있는 것처럼 맵 저장부(200)에 저장하는 것을 일 실시예로 한다. In summary, the
도 10은 본 발명의 일 실시예에 의한 로봇의 센싱부(100)가 유리벽을 감지하는 경우의 신호 강도의 변화를 보여주는 도면이다. 10 is a view showing a change in signal strength when the
벽이 배치된 경우(Wall)와 달리 유리벽이 배치된 경우(Wall w/Glass) 91에서 지시하는 영역과 같이 신호의 강도가 불균질하게 변화함을 확인할 수 있다. 이는 벽 사이에 유리가 배치되거나, 벽 앞에 유리가 배치되는 등 신호의 강도를 저감시키는 객체가 배치된 경우를 보여준다.Unlike the wall arrangement (Wall) and the glass wall arrangement (Wall w / Glass) it can be seen that the signal intensity changes heterogeneously, as shown in the area indicated in 91. This shows a case where an object that reduces the strength of the signal is disposed, such as glass is disposed between walls or glass is placed in front of the wall.
센싱부(100)에서 도 10과 같이 센싱할 경우, 콘크리트와 상이한 재질의 객체가 배치된 것을 확인할 수 있으므로, 상이한 재질의 객체에 대한 정보를 맵 저장부(200)에 달리 저장하여 로봇(1000)이 이동할 경우 이를 참조할 수 있다. When the
또한, 객체의 재질이 반영된 정보는 다른 로봇들과 공유하거나 중앙 서버로 전송될 수 있다. 이는 중앙 서버에서 공간을 구성하는 객체들의 특징을 파악하는 근거가 될 수 있다. 또한, 신호의 반사 강도가 가지는 오차 혹은 범위를 고려하여 도 4에서 살펴본 바와 같이 범주화를 적용하여 객체들의 특성을 그룹핑할 수 있다. In addition, the information reflecting the material of the object may be shared with other robots or transmitted to the central server. This can be the basis for understanding the characteristics of the objects that make up the space in the central server. In addition, the characteristics of the objects may be grouped by applying categorization as shown in FIG. 4 in consideration of an error or a range of the reflection intensity of the signal.
도 11 및 도 12는 본 발명의 다른 실시예에 의한 로봇의 센싱부(100)가 신호의 강도와 거리를 함께 센싱한 결과를 보여주는 도면이다. 도 11에서 92가 지시하는 영역은 신호의 강도가 강한 영역을 보여준다. 도 11에서 93은 신호의 강도가 약하면서 먼 거리에 객체가 배치되는 것을 보여준다. 그런데, 93과 같은 영역의 폭이 크지 않으므로, 이는 벽에 반사 물질이 배치되거나 혹은 유리가 배치되어 있는 영역이 될 수 있다. 이에, 제어부(900)는 도 11과 같이 센싱된 데이터를 기반으로 도 12와 같이 벽(94)이 배치된 것으로 맵 저장부(200)에 저장할 수 있다.11 and 12 are diagrams illustrating a result of sensing the signal strength and distance by the
도 13은 본 발명의 일 실시예에 의한 로봇이 객체의 특성이 적용된 맵을 작성하는 과정을 보여주는 과정을 보여주는 도면이다. FIG. 13 is a diagram illustrating a process of creating a map to which a characteristic of an object is applied by a robot according to an embodiment of the present invention.
로봇(1000)의 센싱부(100)가 센싱 가능 범위 내의 하나 이상의 객체의 거리 정보와 특성 정보를 센싱한다(S1310). 그리고 로봇(1000)의 제어부(900)가 거리 정보와 특성 정보에서 센싱부(100)의 신호가 투과하는 제1객체 및 센싱부(100)의 신호가 불투과하는 제2객체를 식별한다(S1320). 일 실시예로 제1객체는 유리가 될 수 있으며, 제2객체는 콘크리트로 구성되는 벽이 될 수 있다. The
제1객체는 투과성이라는 특성을 가지므로, 제어부(900)는 제1객체의 위치 정보와 특성 정보를 맵 저장부(200)에 저장한다(S1330). 특성 정보가 저장되는 실시예는 도 2 및 도 4에서 살펴본 바와 같다. Since the first object has a property of transparency, the
그리고 제어부(900)는 제2객체의 위치 정보를 맵 저장부(200)에 저장한다(S1340). 여기서 제2객체의 특성 정보는 선택적으로 맵 저장부(200)에 저장될 수 있다. The
본 발명의 일 실시예에 의하면, 전체 공간에서 기준이 되는 특성(콘크리트 벽과 같은)을 가지는 제2객체에 대해서는 불변하는 고정객체로 저장하며, 제1객체에 대해서는 가변객체로 저장할 수 있다. 가변객체로 저장할 경우, 제1객체에 대한 센싱 시간 정보가 맵 저장부(200)에 저장되는 것을 일 실시예로 한다.According to an embodiment of the present invention, a second object having a characteristic (such as a concrete wall) as a reference in the entire space may be stored as an immutable fixed object, and a first object may be stored as a variable object. When storing as a variable object, the sensing time information for the first object is stored in the
여기서 제1객체 또는 제2객체의 일 실시예는 맵 저장부에 저장하는 단위에 대응하여 배치되는 객체를 의미한다. 예를 들어 로봇의 전면에 1m x 1m 넓이의 유리가 있고, 로봇은 10cm 단위로 정보를 저장할 때, 로봇은 전면에 배치된 1m 폭의 유리에 대해 10cm 크기의 10개의 객체들의 거리 정보 및 센싱된 신호의 강도에 대한 정보를 저장할 수 있다. Here, an embodiment of the first object or the second object means an object disposed corresponding to a unit stored in the map storage unit. For example, when there is 1m x 1m wide glass on the front of the robot, and the robot stores information in 10cm units, the robot detects the distance information and sensing of 10 objects of 10cm size for the 1m wide glass placed on the front. Information about the strength of the signal can be stored.
도 13의 과정에 추가적으로, 도 9에서 살펴본 바와 같이, 제어부(900)는 맵 저장부(200)에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함할 수 있다. 이는, 진열대가 배치되는 공간에 로봇(1000)이 더 이상 진입하지 않도록 가상의 벽을 맵 상에 저장하는 것을 의미한다. 가상의 벽은 인접한 벽 또는 인접한 특수한 재질의 객체들에 연장하여 배치할 수 있다. 도 9에서는 11a 및 11b의 연장선에 가상의 벽(90)을 배치한 실시예를 살펴보았다. In addition to the process of FIG. 13, as described above with reference to FIG. 9, the
도 14는 본 발명의 일 실시예에 의한 라이다 센서가 객체의 반사 신호를 수신하는 과정을 보여주는 도면이다. 도 1에서 살펴본 바와 같이, 센싱부(100)는 라이다 센서로, 레이저 송신부(110), 레이저 수신부(120), 그리고 센싱 데이터 분석부(130)를 포함할 수 있다. 14 is a diagram illustrating a process of receiving a reflection signal of an object by a lidar sensor according to an embodiment of the present invention. As illustrated in FIG. 1, the
레이저 송신부(110)가 신호, 즉 레이저 신호를 송신한다(S1311). 그리고 레이저 수신부(120)가 송신한 신호가 제1객체에서 반사된 신호를 수신한다(S1312). 그리고, 레이저 수신부는 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신한다(S1313). 제1객체는 유리와 같이 신호의 일부를 투과시키며, 제3객체에서 반사된 신호는 제1객체를 투과하여 전달된 신호이므로, 신호의 강도가 약하게 된다. 따라서, 이러한 약해진 신호의 강도가 제1객체의 특성으로 저장될 수 있다. The
즉, 로봇의 센싱 데이터 분석부는 반사된 신호의 강도 및 제1객체와 제3객체의 거리 정보를 제어부에 전달한다(S1314). 따라서, 센싱된 객체 특성은 상기 제1객체 또는 제3객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 강도(Intensity)를 포함할 수 있다.That is, the sensing data analyzer of the robot transmits the intensity of the reflected signal and the distance information of the first object and the third object to the controller (S1314). Accordingly, the sensed object characteristic may include an intensity of a signal reflected by the first object or the third object and received by the laser receiver.
도 15는 본 발명의 일 실시예에 의한 제어부가 센싱된 외부의 객체의 정보를 맵 저장부에 저장하는 과정에 관한 도면이다. FIG. 15 is a diagram illustrating a process of storing, by a controller, information on an external object sensed by a controller according to an embodiment of the present invention in a map storage unit.
외부의 객체의 정보를 저장하는 과정, 즉 S1330 단계를 보다 상세히 진행하면, 제어부(900)가 제1객체의 신호의 강도가 포함된 범주에 따라 구별하여 제1객체의 정보를 맵 저장부(200)에 저장한다. 보다 상세히 도 15의 순서도를 살펴본다. If the process of storing the information of the external object, that is, the step S1330 in more detail, the
제어부(900)는 센싱 데이터 분석부(130)가 제공하는 제1객체의 신호 강도를 거리 정보를 이용하여 정규화한다(S1331). 로봇의 전면 10미터에 배치된 유리로부터 반사되는 신호의 강도와 전면의 5미터에 배치된 유리로부터 반사되는 신호의 강도는 상이하다. 또한, 정규화 과정에서 인접한 불투명한 객체와의 거리를 참고할 수 있다. The
예를 들어, 도 5에서 10이 지시하는 유리의 신호 강도를 정규화하는 과정에서 11a 또는 11b의 객체와의 거리를 참고할 수 있다. 다만, 공간이 돌출하거나 함몰된 공간도 존재할 수 있으므로, 인접한 다른 재질의 객체와의 거리는 맵 상에서 로봇이 위치한 주변 공간의 정보를 반영하여 참고할 수 있다. For example, in the process of normalizing the signal strength of the glass indicated by 10 in FIG. 5, the distance to the object of 11a or 11b may be referred to. However, since a space may protrude or be depressed, the distance from an object of another material that is adjacent may be referred to by reflecting information of the surrounding space where the robot is located on the map.
이후, 제어부(900)는 정규화한 신호 강도가 포함된 범주를 맵 저장부(200)에서 확인한다(S1332). 도 4의 범주 저장부(221)에서 정규화한 신호 강도가 Intensity_Min과 Intensity_Max 사이에 포함되는지를 확인할 수 있다. 범주가 존재하는 경우(S1333), 존재하는 범주에 따라 제1객체의 정보를 저장한다(S1337). 맵(210)에 제1객체의 위치 정보를 저장할 수 있고, 위치 저장부(225)에 제1객체의 위치 정보, 범주에 대한 정보, 그리고 신호의 강도에 대한 정보를 저장할 수 있다. Thereafter, the
한편, 제어부(900)는 공간 내에 배치되는 객체들의 신호의 강도의 특성과 범주가 적절하게 대응되는지를 확인한다. 일 실시예로, 제1객체의 정보가 범주 내에서 경계에 배치되는지 혹은 중간에 배치되는지를 확인한다(S1338). 예를 들어, 제1객체의 정규화한 신호 강도가 Category_6 이라는 범주에 들어가며 Category_6의 범주는 600에서 800 사이의 신호 강도인 경우를 가정한다. 제1객체의 신호 강도가 601이면 Category_6이라는 범주의 경계 영역에 배치됨을 의미한다. 이 경우, 다른 객체의 신호 강도를 맵 저장부(200)에서 검색하여 새로운 범주를 생성할 수 있다. 이는 맵 상에서 범주 별로 객체들을 달리 표시하는 과정에서 서로 구별이 필요한 객체들을 구분하기 위한 실시예이다. On the other hand, the
S1338의 경계에 배치되는지 여부의 추가적인 실시예로, 제어부(900)는 해당 범주에 해당하는 객체들의 신호의 강도의 평균값, 분산값, 또는 표준편차 등을 산출할 수 있다. Category_6 라는 범주 내에 속하는 객체들이 600에서 650 사이의 신호 강도를 가지는 제1그룹과 760에서 790 사이의 신호 강도를 가지는 제2그룹으로 구분될 경우, Category_6-1 및 Category_6-2로 나누어 보다 정확하게 상이한 재질의 객체들을 구분할 수 있다. In a further embodiment of whether or not disposed at the boundary of S1338, the
한편, S1333에서 객체의 신호 강도에 대응하는 범주가 존재하지 않는 경우, 제1객체의 신호 강도에 일정한 마진(margin)을 포함시켜 범주를 새로이 생성할 수 있다(S1334). 예를 들어 도 4에서 신호의 강도가 100 이상인 경우가 발생한다면 이를 포함하는 새로운 범주가 추가될 수 있다. 그리고 생성한 범주에 따라 제1객체의 정보를 저장한다(S1335). On the other hand, if there is no category corresponding to the signal strength of the object in S1333, a new margin may be generated by including a certain margin in the signal strength of the first object (S1334). For example, if a signal intensity of 100 or more occurs in FIG. 4, a new category including the same may be added. In operation S1335, information on the first object is stored according to the created category.
도 15를 살펴보면, 로봇의 제어부(900)는 맵 저장부(200)에 저장된 객체의 특성 정보에 따라 범주를 재조정할 수 있다. Referring to FIG. 15, the
도 16은 본 발명의 일 실시예에 의한 로봇이 주변의 객체의 특성 정보에 대응하여 상이하게 동작하는 과정을 보여주는 도면이다. 16 is a diagram illustrating a process in which a robot operates differently in response to characteristic information of surrounding objects according to an embodiment of the present invention.
앞서, 기능부(400) 또는 이동부(300)는 로봇의 현재 위치에서 인접하게 배치된 객체의 특성 정보에 대응하여 상이하게 동작하는 것에 대해 살펴보았다. 이를 보다 상세히 살펴본다. Previously, the
제어부(900)는 진행 방향에 배치된 객체의 특성 정보를 맵 저장부(200)에서 확인한다(S1610). 그리고 객체의 범주가 "Risk_Category"인지 확인한다(S1620). "Risk_Category"는 제어부(900) 또는 맵 저장부(200)에 미리 설정된 것으로, 도 4에서 범주가 3인 객체들이 "Risk_Category"에 포함되는 것을 일 실시예로 한다. The
S1620에서 객체의 범주가 "Risk_Category"가 아닌 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 일반 대응 모드로 유지한다(S1630). 한편, S1620에서 객체의 범주가 "Risk_Category"인 경우, 제어부(900)는 이동부(300) 또는 기능부(400)를 Risk_Category 대응 모드로 유지한다(S1640). Risk_Category 대응 모드는 외부에 배치된 객체가 파손 가능성이 있는 재질인 것으로 판단하여 이동 속도를 줄이는 것을 일 실시예로 한다. If the category of the object is not "Risk_Category" in S1620, the
또한, 기능부(400)가 청소를 수행하는 기능인 경우, 청소 과정에서 외부의 객체가 손상되지 않도록 한다. 예를 들어, 물걸레 기능을 수행할 경우, 물걸레의 회전 속도를 줄이거나 월팔로잉(Wall-Following) 청소 기능에서 객체와의 거리를 멀리하는 등을 의미한다. In addition, in the case where the
본 명세서에서 살펴본 실시예들은 라이다(LiDAR) 센서가 외부의 객체를 센싱하는 과정에서 취득하는 신호의 강도(Intensity) 정보를 활용하여 이들 객체를 맵 상에 컬러 혹은 무늬, 숫자 등으로 구분하여 표시하여 장애물들을 구분할 수있도록 한다. 장애물 별로 획득된 신호의 강도(Intensity)에 대한 정보를 활용하여 장애물에 대한 대응 동작을 수행할 수 있다. 특히, 본 발명의 실시예를 적용할 경우, 반사 재질에서 획득된 잘못된 거리 정보를 추출하는 것을 방지할 수 있다. Embodiments described in the present specification are displayed by dividing the objects by color, pattern, number, etc. on the map using the intensity information of the signal acquired by the LiDAR sensor in the process of sensing an external object. To identify obstacles. Corresponding operation may be performed by using information on the intensity of a signal acquired for each obstacle. In particular, when applying the embodiment of the present invention, it is possible to prevent the extraction of wrong distance information obtained from the reflective material.
도 17은 본 발명의 일 실시예에 의한 다수의 로봇 사이에, 혹은 로봇과 서버 사이에 객체의 위치 및 특성 정보를 교환하는 과정을 보여주는 도면이다. FIG. 17 is a view illustrating a process of exchanging position and characteristic information of an object between a plurality of robots or between a robot and a server according to an embodiment of the present invention.
서버(2000)는 다수의 로봇들(1000a, ..., 1000z)에게 객체의 위치 및 특성 정보를 다운로드(S1701, S1702) 송신한다. 로봇들(1000a, ..., 1000z)은 수신된 객체의 위치 및 특성 정보를 맵 저장부(200)에 업데이트한다. 서버(2000)는 다수의 로봇들(1000a, ..., 1000z)이 전송한 객체의 위치 및 특성 정보를 분석하여 동일한 위치에서 중복하여 센싱된 정보는 새로이 업데이트 하여 하나의 객체에 대한 위치 및 특성 정보로 저장할 수 있다. 또한, 센싱된 시간 정보(SensingTime)가 도 4에 저장될 수 있으며, 이를 기반으로 특정 위치에서 센싱된 객체가 제거되었는지를 확인할 수 있다. 유리로 가벽을 만드는 경우 가벽이 제거된 후에는 맵 저장부(200)에서도 제거하여 로봇이 이동할 수 있도록 한다. 이후 로봇들(1000a, ..., 1000z)은 주행 과정에서 객체의 위치 및 특성 정보를 업데이트한다(S1710, S1720). 일 실시예로 각 로봇이 보유하는 맵 저장부의 정보를 업데이트하는 것을 포함한다. 또한, 로봇 중에서 인접하여 위치하는 로봇 사이에서는 새로이 습득한 객체의 위치 및 특성 정보를 쉐어링할 수 있다(S1715). 이때 객체의 위치 및 특성 정보의 쉐어링은 일정한 범위 내에 근접해있는 로봇들에게만 한정하여 제공할 수 있다. 또는, 로봇 이후에 해당 공간으로 이동하는 것이 예정된 로봇에게 제공할 수도 있다. The
그리고 각각의 로봇들(1000a, ..., 1000z)은 주행 중 취득한 객체의 위치 및 특성 정보를 서버로 업로드(S1711, S1721) 송신한다. Each of the
서버(2000)는 수신한 객체의 위치 및 특성 정보를 업데이트 하며(S1730) 이 과정에서 중복된 정보를 하나의 객체에 대한 정보로 정리하거나, 혹은 객체의 특성 정보(정규화된 신호의 강도)가 변동이 발생한 경우 이를 반영하여 새로이 객체의 위치 및 특성 정보를 다운로드한다(S1731, S1732). The
본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니며, 본 발명의 목적 범위 내에서 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 반도체 기록소자를 포함하는 저장매체를 포함한다. 또한 본 발명의 실시예를 구현하는 컴퓨터 프로그램은 외부의 장치를 통하여 실시간으로 전송되는 프로그램 모듈을 포함한다. Although all components constituting the embodiments of the present invention have been described as being combined or operating in combination, the present invention is not necessarily limited to these embodiments, and all of the components are within the scope of the present invention. It can also be combined to operate selectively. In addition, although all of the components may be implemented in one independent hardware, each or all of the components are selectively combined to perform some or all of the functions combined in one or a plurality of hardware. It may be implemented as a computer program having a. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. The storage medium of the computer program includes a storage medium including a magnetic recording medium, an optical recording medium and a semiconductor recording element. In addition, the computer program for implementing an embodiment of the present invention includes a program module that is transmitted in real time through an external device.
이상에서는 본 발명의 실시예를 중심으로 설명하였지만, 통상의 기술자의 수준에서 다양한 변경이나 변형을 가할 수 있다. 따라서, 이러한 변경과 변형이 본 발명의 범위를 벗어나지 않는 한 본 발명의 범주 내에 포함되는 것으로 이해할 수 있을 것이다.In the above description, the embodiment of the present invention has been described, but various changes and modifications can be made at the level of ordinary skill in the art. Therefore, it will be understood that such changes and modifications are included within the scope of the present invention without departing from the scope of the present invention.
1000: 로봇 100: 센싱부
200: 맵저장부 210: 맵
220: 객체특성 저장부 221: 범주 저장부
225: 위치 저장부 300: 이동부
400:기능부 500: 통신부
600: 인터페이스부 2000: 서버1000: robot 100: sensing unit
200: map storage unit 210: map
220: object property storage unit 221: category storage unit
225: location storing unit 300: moving unit
400: function unit 500: communication unit
600: interface unit 2000: server
Claims (15)
로봇의 이동 시 참조하는 맵을 저장하는 맵 저장부;
로봇의 외부에 배치된 하나 이상의 객체를 센싱하며 레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하는 센싱부; 및
상기 이동부, 맵 저장부, 센싱부를 제어하며, 상기 센싱된 객체의 위치 정보와 특성 정보를 산출하는 제어부를 포함하며,
상기 로봇의 제어부는 상기 센싱된 객체의 위치 정보와 특성 정보를 상기 맵 저장부에 저장하며,
상기 센싱된 객체 특성 정보는
상기 레이저 송신부가 송신한 신호가 상기 객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 반사 강도(Intensity)를 포함하며,
상기 제어부는 상기 반사 강도를 이용하여 객체의 특성 정보를 콘크리트 또는 불투명한 재질로 구성된 제1범주, 반투명 유리 또는 반투명 아크릴로 구성된 제2범주, 투명 유리 또는 투명 아크릴로 구성된 제3범주로 구분하며,
상기 맵 저장부는 객체의 특성 정보를 범주화한 범주에 대한 정보를 더 포함하며,
상기 제어부는 진행 방향에 배치된 객체의 특성 정보가 상기 제2범주 또는 제3범주에 속하는 경우 이동 속도를 줄이는, 객체의 특성이 적용된 맵을 작성하는 로봇.
Moving unit for controlling the movement of the robot;
A map storage unit for storing a map referenced when the robot moves;
A sensing unit which senses one or more objects disposed outside the robot and includes a laser transmitter, a laser receiver, and a sensing data analyzer; And
A control unit which controls the moving unit, the map storage unit, and the sensing unit, and calculates position information and characteristic information of the sensed object;
The controller of the robot stores position information and characteristic information of the sensed object in the map storage unit,
The sensed object property information
A signal transmitted by the laser transmitter is reflected from the object and includes an intensity of reflection of the signal received by the laser receiver,
The control unit divides the characteristic information of the object into a first category composed of concrete or an opaque material, a second category composed of translucent glass or translucent acrylic, a third category composed of transparent glass or transparent acrylic, using the reflection intensity,
The map storage unit further includes information on a category that categorizes property information of an object.
And the controller is configured to create a map to which the property of the object is applied to reduce the moving speed when the property information of the object disposed in the advancing direction belongs to the second or third category.
상기 맵 저장부는
상기 로봇이 이동하는 공간에 대한 정보를 저장하는 맵; 및
상기 공간에 배치된 객체의 재질 특성을 저장하는 객체 특성 저장부를 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The map storage unit
A map storing information about a space in which the robot moves; And
And a object property storage unit configured to store material properties of the objects arranged in the space.
상기 센싱부는
유리를 투과하여 유리 뒷편에 배치된 벽으로부터 반사된 제1신호 및 상기 유리를 일부 투과하지 못한 제2신호를 수신하며,
상기 제어부는 상기 신호의 강도 및 신호의 거리를 보정하여 상기 맵 저장부에 상기 유리 및 상기 유리 뒷편의 벽을 맵에 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The sensing unit
Receives a first signal transmitted through the glass and reflected from a wall disposed behind the glass and a second signal not partially transmitted through the glass,
The controller generates a map to which the property of the object is applied, correcting the intensity of the signal and the distance of the signal to store the glass and the wall behind the glass in a map in the map storage unit.
상기 맵 저장부는 상기 객체 및 상기 객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 객체의 정보를 저장하며,
상기 로봇은 상기 맵 저장부에 저장된 객체의 정보를 상기 신호의 강도가 포함된 범주에 따라 상이하게 표시하는 인터페이스부를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The map storage unit stores information of the object by distinguishing according to a category including the object and the strength of the signal of the object,
The robot may further include an interface unit configured to display information of an object stored in the map storage unit differently according to a category including the strength of the signal.
상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The controller is configured to create a map to which the characteristics of the object are applied to store information about the virtual object not sensed in the map storage unit.
청소를 수행하는 기능을 제공하는 기능부를 더 포함하며,
상기 기능부가 청소를 수행하는 기능인 경우, 상기 제2범주 또는 상기 제3범주에 속하는 객체 근처에서 상기 기능부는 물걸레 기능 수행에서 물걸레의 회전 속도를 줄이거나, 월 팔로잉 청소 기능에서 상기 제2범주 또는 상기 제3범주에 속하는 객체와의 거리를 멀리하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
It further includes a functional unit that provides a function to perform the cleaning,
When the function unit is a function for performing cleaning, the function unit reduces the rotational speed of the mop in performing the mop function near the object belonging to the second category or the third category, or the second category or in the month following cleaning function. A robot for creating a map to which the property of the object is applied, which is far from the object belonging to the third category.
상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는, 객체의 특성이 적용된 맵을 작성하는 로봇.
The method of claim 1,
The controller of the robot generates a map to which the characteristics of the object are applied to readjust the category according to the characteristic information of the object stored in the map storage unit.
로봇의 제어부가 상기 위치 정보와 특성 정보에서 상기 센싱부의 신호가 투과하는 제1객체 및 상기 센싱부의 신호가 불투과하는 제2객체를 식별하는 단계;
상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보 및 상기 특성 정보를 범주화한 범주에 대한 정보를 맵 저장부에 저장하는 단계; 및
상기 제어부가 상기 제2객체의 위치 정보를 상기 맵 저장부에 저장하는 단계를 포함하며,
상기 센싱부는 라이다 센서이며, 레이저 송신부, 레이저 수신부 및 센싱데이터 분석부를 포함하며,
상기 센싱된 객체 특성 정보는
상기 레이저 송신부가 송신한 신호가 상기 객체에서 반사되어 상기 레이저 수신부에 수신된 신호의 반사 강도(Intensity)를 포함하며,
상기 제어부는 상기 반사 강도를 이용하여 객체의 특성 정보를 콘크리트 또는 불투명한 재질로 구성된 제1범주, 반투명 유리 또는 반투명 아크릴로 구성된 제2범주, 투명 유리 또는 투명 아크릴로 구성된 제3범주로 구분하는 단계; 및
상기 제어부는 진행 방향에 배치된 객체의 특성 정보가 상기 제2범주 또는 제3범주에 속하는 경우 이동 속도를 줄이는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
Sensing position information and characteristic information of one or more objects within a sensing range by a sensing unit of a robot;
Identifying, by the controller of the robot, a first object through which the signal of the sensing unit is transmitted and a second object through which the signal of the sensing unit is opaque from the position information and the characteristic information;
Storing, by the controller, in a map storage unit, location information and characteristic information of the first object, and information on a category that categorizes the characteristic information; And
Storing, by the controller, the location information of the second object in the map storage unit;
The sensing unit is a lidar sensor, and includes a laser transmitter, a laser receiver, and a sensing data analyzer,
The sensed object property information
A signal transmitted by the laser transmitter is reflected from the object and includes an intensity of reflection of the signal received by the laser receiver,
The control unit divides the characteristic information of the object into a first category made of concrete or opaque material, a second category made of translucent glass or translucent acrylic, a third category made of transparent glass or transparent acrylic, using the reflection intensity. ; And
The control unit further comprises the step of reducing the moving speed when the property information of the object disposed in the advancing direction belongs to the second category or the third category, creating a map to which the property of the object is applied.
상기 센싱하는 단계는
상기 레이저 송신부가 신호를 송신하는 단계;
상기 레이저 수신부가 상기 제1객체에서 반사된 신호를 수신하는 단계;
상기 레이저 수신부가 상기 제1객체 후면에 배치된 제3객체에서 반사된 신호를 수신하는 단계; 및
상기 로봇의 센싱 데이터 분석부가 상기 반사된 신호의 강도 및 상기 제1객체와 상기 제3객체의 위치 정보를 상기 제어부에 전달하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The sensing step
Transmitting, by the laser transmitter, a signal;
Receiving, by the laser receiver, a signal reflected from the first object;
Receiving, by the laser receiver, a signal reflected from a third object disposed behind the first object; And
And transmitting, by the sensing data analysis unit of the robot, the intensity of the reflected signal and the position information of the first object and the third object to the control unit.
상기 센싱부가 유리를 투과하여 유리 뒷편에 배치된 벽으로부터 반사된 제1신호 및 상기 유리를 일부 투과하지 못한 제2신호를 수신하는 단계;
상기 제어부가 상기 신호의 강도 및 신호의 거리를 보정하여 상기 맵 저장부에 상기 유리 및 상기 유리 뒷편의 벽을 맵에 저장하는 단계를 포함하는,
객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 9,
Receiving the first signal transmitted through the glass and reflected from a wall disposed behind the glass, and a second signal that does not partially pass through the glass;
And correcting, by the controller, the intensity of the signal and the distance of the signal to store the glass and the wall behind the glass in a map in the map storage.
How to create a map with the properties of an object applied.
상기 제어부가 상기 제1객체의 위치 정보 및 특성 정보를 맵 저장부에 저장하는 단계는
상기 제어부가 상기 제1객체의 상기 신호의 강도가 포함된 범주에 따라 구별하여 상기 제1객체의 정보를 맵 저장부에 저장하는 단계를 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 9,
The storing of the location information and the characteristic information of the first object by the control unit in the map storage unit
And storing, by the controller, information of the first object in a map storage unit according to a category including a strength of the signal of the first object.
상기 로봇의 인터페이스부가 상기 맵 저장부에 저장된 제1객체 및 제2객체를 상이하게 표시하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
And displaying the first object and the second object differently stored in the map storage unit by the interface unit of the robot.
상기 제어부는 상기 맵 저장부에 센싱되지 않은 가상의 객체에 대한 정보를 저장하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The control unit further comprises the step of storing information about the virtual object is not sensed in the map storage unit, creating a map to which the characteristics of the object is applied.
상기 로봇의 기능부가 청소를 수행하는 기능인 경우, 상기 제2범주 또는 상기 제3범주에 속하는 객체 근처에서 상기 기능부는 물걸레 기능 수행에서 물걸레의 회전 속도를 줄이거나, 월 팔로잉 청소 기능에서 상기 제2범주 또는 상기 제3범주에 속하는 객체와의 거리를 멀리하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
When the functional unit of the robot is a function of performing cleaning, the function unit reduces the rotational speed of the mop in performing the mop function near the object belonging to the second category or the third category, or the second in the wall following cleaning function. Further comprising a distance from a category or an object belonging to the third category.
상기 로봇의 제어부는 상기 맵 저장부에 저장된 객체의 특성 정보에 따라 상기 범주를 재조정하는 단계를 더 포함하는, 객체의 특성이 적용된 맵을 작성하는 방법.
The method of claim 8,
The control unit of the robot further comprises the step of re-adjusting the category according to the characteristic information of the object stored in the map storage unit, creating a map to which the characteristics of the object is applied.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190097430A KR102054301B1 (en) | 2019-08-09 | 2019-08-09 | Method of drawing map applied by object feature and robot implementing thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190097430A KR102054301B1 (en) | 2019-08-09 | 2019-08-09 | Method of drawing map applied by object feature and robot implementing thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170022239A Division KR20180096059A (en) | 2017-02-20 | 2017-02-20 | Method of drawing map applied by object feature and robot implementing thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190096897A KR20190096897A (en) | 2019-08-20 |
KR102054301B1 true KR102054301B1 (en) | 2020-01-22 |
Family
ID=67807727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190097430A KR102054301B1 (en) | 2019-08-09 | 2019-08-09 | Method of drawing map applied by object feature and robot implementing thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102054301B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210069984A (en) * | 2019-12-04 | 2021-06-14 | 삼성전자주식회사 | Electronic apparatus and method for controlling thereof |
KR102451757B1 (en) * | 2021-03-10 | 2022-10-11 | 한국과학기술연구원 | System and method for calculating degree of messiness of space based on characterstics of product in the space |
CN116700236A (en) * | 2022-02-28 | 2023-09-05 | 追觅创新科技(苏州)有限公司 | Map generation method for self-mobile device, self-mobile device and storage medium |
KR102583669B1 (en) * | 2022-10-04 | 2023-09-26 | 한국전기연구원 | Method for Marker Recognition and Pose Estimation of Mobile Robot and Apparatus Using the Same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031884A (en) | 2007-07-25 | 2009-02-12 | Toyota Motor Corp | Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101985188B1 (en) * | 2012-09-20 | 2019-06-04 | 엘지전자 주식회사 | Moving robot and driving method for the moving robot |
US9868211B2 (en) * | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
-
2019
- 2019-08-09 KR KR1020190097430A patent/KR102054301B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009031884A (en) | 2007-07-25 | 2009-02-12 | Toyota Motor Corp | Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body |
Also Published As
Publication number | Publication date |
---|---|
KR20190096897A (en) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102054301B1 (en) | Method of drawing map applied by object feature and robot implementing thereof | |
KR20180096059A (en) | Method of drawing map applied by object feature and robot implementing thereof | |
US20240094353A1 (en) | Lidar system, apparatus communicating with the lidar system, and apparatus located in a field of view (fov) of the lidar system | |
KR102341181B1 (en) | Dual-mode illuminator for imaging in different lighting conditions | |
KR102326077B1 (en) | Method of identifying movable obstacle in 3-dimensional space and robot implementing thereof | |
US20180239355A1 (en) | Method of identifying unexpected obstacle and robot implementing the method | |
US7598484B2 (en) | Photoelectric sensor for securing the safety of a work area | |
US8890657B2 (en) | System and method for operating an RFID system with head tracking | |
CN109747643A (en) | A kind of information fusion method of intelligent vehicle sensory perceptual system | |
US20200269691A1 (en) | Control method and control device for vehicle display device | |
CN110419211A (en) | Information processing unit, information processing method and message handling program | |
KR102012549B1 (en) | Method of drawing map by identifying moving object and robot implementing thereof | |
JP2018508064A (en) | Signs for vehicle identification systems | |
CN106956267A (en) | Robot arm barrier-avoiding method and system | |
KR102063150B1 (en) | Method of performing interpersonal behavior by identifying a person and robot implementing thereof | |
CN111083332B (en) | Structured light module, autonomous mobile device and light source distinguishing method | |
JP2018106695A (en) | Method of operating autonomously traveling transfer vehicle | |
KR102608471B1 (en) | Method and apparatus for eye tracking | |
CN106080136B (en) | Incident light intensity control method and device | |
KR102329674B1 (en) | Method of configuring position based on identification of fixed object and moving object and robot implementing thereof | |
CN107843887A (en) | Position feedback sense for automated vehicle laser radar | |
SE536984C2 (en) | System and method for displaying information on a window pane a vehicle with a mirror mounted outside the pane | |
JP6475055B2 (en) | Detection device, detection method, and program | |
KR102135369B1 (en) | Distance detecting apparatus and method thereof | |
CN109791203A (en) | Method for carrying out the optical sensor of range measurement and/or tachometric survey, the system of mobility monitoring for autonomous vehicle and the mobility for autonomous vehicle monitor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |