WO2021158009A1 - 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법 - Google Patents

추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법 Download PDF

Info

Publication number
WO2021158009A1
WO2021158009A1 PCT/KR2021/001411 KR2021001411W WO2021158009A1 WO 2021158009 A1 WO2021158009 A1 WO 2021158009A1 KR 2021001411 W KR2021001411 W KR 2021001411W WO 2021158009 A1 WO2021158009 A1 WO 2021158009A1
Authority
WO
WIPO (PCT)
Prior art keywords
positioning
node
module
tracking device
path
Prior art date
Application number
PCT/KR2021/001411
Other languages
English (en)
French (fr)
Inventor
이상철
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to EP21750214.5A priority Critical patent/EP4102459A4/en
Publication of WO2021158009A1 publication Critical patent/WO2021158009A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the present invention relates to a tracking device for tracking a target object, a tracking system including the same, and a tracking method of the tracking device.
  • LBS location-based service
  • the positioning technology based on GPS, etc. is easy for positioning outdoors where GPS satellite signals can be smoothly received, but positioning is impossible or impossible in an indoor environment where it is difficult to receive GPS satellite signals or signal distortion may occur. There is a problem that the positioning accuracy is lowered.
  • positioning nodes for positioning are installed in a plurality of locations indoors, and a distance from a target node located in an area inside the plurality of positioning nodes to each positioning node is measured to calculate the location of the target node. This was also used.
  • the location of the target node can be positioned only when a plurality of positioning nodes are installed in advance to cover the entire region to be positioned.
  • the driving of the tracking device should be adjusted according to the situation. For example, if a path needs to be changed due to a surrounding obstacle during tracking, or if a moving object is observed during tracking, a safety risk occurs.
  • the present invention provides a tracking device capable of accurately positioning a target object and actively coping with an environment occurring during tracking, a tracking system including the same, and a tracking method of the tracking device.
  • a tracking device capable of accurately positioning a target object and actively coping with an environment occurring during tracking
  • a tracking system including the same
  • a tracking method of the tracking device e.g., a tracking method of the tracking device.
  • One aspect of the present invention provides a tracking device for following a moving target object, comprising: a driving module for moving a main body; a positioning module installed on the main body to measure a distance between the target object and the tracking device; an imaging module for photographing the target object or the surrounding environment, a sensor module for sensing a moving object between the target object and the main body by sensing the front of the main body, and the positioning module, the imaging module, and the sensor module It provides a tracking device, including a controller for receiving data from, setting the path of the driving module and controlling the driving.
  • the controller may drive the driving module to a second path avoiding the obstacle by correcting a preset first path.
  • the controller may drive the driving module through the first path again.
  • the controller may drive the driving module in a first path set based on the data measured by the positioning module.
  • the driving module may be stopped.
  • the controller may drive the driving module through the first path again.
  • the controller drives the driving module in a first path in which the distance between the target object and the tracking device is maintained constant based on the data measured by the positioning module, Based on the information about the moving object or the information about the moving object received from the sensor module, the driving module is driven in a path different from the first path, and when the obstacle or the moving object is removed, the driving module is again driven to the first path You can run the module.
  • the positioning module may include a plurality of positioning nodes, and each of the positioning nodes may measure a distance from a target node mounted on the target object.
  • the controller may receive data on a distance between the target nodes from the positioning node having a triangular arrangement, and calculate location information of the target node.
  • the positioning nodes may be arranged such that at least two or more distances between the neighboring positioning nodes are the same.
  • the three positioning nodes may have an arrangement of a right isosceles triangle.
  • Another aspect of the present invention includes a target object having a target node, and a tracking device for following the target object, wherein the tracking device includes a driving module for moving a main body, and installed in the main body, the target object and the A positioning module for measuring a distance of a tracking device, an imaging module for photographing the target object or the surrounding environment while moving, and a sensor module for sensing a moving object between the target object and the main body by sensing the front of the main body; and a controller configured to receive data from the positioning module, the imaging module, and the sensor module to set a path of the driving module and control the driving.
  • the tracking device includes a driving module for moving a main body, and installed in the main body, the target object and the A positioning module for measuring a distance of a tracking device, an imaging module for photographing the target object or the surrounding environment while moving, and a sensor module for sensing a moving object between the target object and the main body by sensing the front of the main body; and a controller configured to receive data from the positioning module
  • Another aspect of the present invention provides the steps of measuring a distance between a target object and a tracking device in a positioning module, and moving the tracking device along a first path set by a controller, and between the target object and the tracking device in an imaging module.
  • the controller When an obstacle is sensed, setting a second path avoiding the obstacle by correcting the first path in the controller, moving the tracking device to the second path by the controller, and in the imaging module
  • the controller provides a tracking method of the following device, comprising the step of moving the tracking device back to the first path.
  • the method may further include moving the tracking device back to the first path.
  • the step of moving the tracking device to the first path comprises: arranging a plurality of positioning nodes of the positioning module in a triangular arrangement, measuring a distance between each positioning node and a target node of the target object; calculating the location information of the target node based on data on a distance between the location node and the target node, and based on the location information of the tracking device and the location information of the target object, the target object and the target object
  • the method may include setting the first path so that a distance between the following devices is constant.
  • a tracking device, a tracking system including the same, and a tracking method of the tracking device according to an embodiment of the present invention may accurately measure the position of a target object.
  • the tracking device may accurately measure the positions of the target object in the x-axis direction and the y-axis direction.
  • the tracking device can position the target node with high accuracy while preventing the operation of calculating the position of the target node from becoming complicated.
  • a tracking device, a tracking system including the same, and a tracking method of the tracking device according to an embodiment of the present invention may actively cope with a situation by modifying a route during tracking.
  • the tracking device may follow the obstacle by correcting the path. Since the obstacle is in a fixed state, it is possible to change the path to secure safety and continuously follow the target object.
  • a tracking device, a tracking system including the same, and a tracking method of the tracking device according to an embodiment of the present invention can ensure safety by stopping the driving when a moving object is observed. Unlike a fixed obstacle, it is difficult to predict the movement of a moving object, so when the moving object is observed by the sensor module, the tracking device stops driving when the moving object disappears. Accordingly, it is possible to minimize the risk of collision occurring during tracking.
  • the scope of the present invention is not limited by these effects.
  • FIG. 1 is a diagram illustrating a tracking system according to an embodiment of the present invention.
  • FIG. 2 is a view showing a positioning method according to an embodiment of the positioning module of FIG. 1 .
  • FIG. 3 is a view showing a positioning method according to another embodiment of the positioning module of FIG. 1 .
  • FIG. 4 is a view showing a positioning method according to another embodiment of the positioning module of FIG. 1 .
  • FIG. 5 is a view showing driving of the imaging module of FIG. 1 .
  • FIG. 6 is a view showing the operation of the sensor module of FIG. 1 .
  • FIG. 7 is a flowchart illustrating a tracking method of a tracking device according to another embodiment of the present invention.
  • FIG. 8 is a flowchart showing details of a tracking method of the tracking device of FIG. 7 .
  • 9 to 11 are graphs showing performance data of the tracking system of FIG. 1 .
  • expressions such as “or” include any and all combinations of the words listed together.
  • “A or B” may include A, may include B, or may include both A and B.
  • Expressions such as “first”, “second”, “first”, or “second” used in various embodiments of the present disclosure may modify various components of various embodiments, but do not limit the components. does not For example, the above expressions do not limit the order and/or importance of corresponding components. The above expressions may be used to distinguish one component from another. For example, both the first user device and the second user device are user devices, and represent different user devices. For example, without departing from the scope of the various embodiments of the present disclosure, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.
  • FIG. 1 is a diagram showing a tracking system 1 according to an embodiment of the present invention.
  • the tracking system 1 includes a moving target object 10 and a tracking device 100 moving by following the target object 10 .
  • the target object 10 is a movable and tracking object, and may be set in various ways.
  • the target object 10 may be a device such as a movable robot or a vehicle having the target node 11 .
  • the target object 10 may be attached to the target node 11 , such as a human, an animal, or the like.
  • the target node 11 may receive a signal from the positioning module 120 of the tracking device 100 and measure the distance. By measuring the distance between the target node 11 and the positioning node, the location of the target object 10 , that is, the target node 11 may be accurately measured.
  • the target node 11 is not limited to a specific component that can measure the distance to the positioning node.
  • the target node 11 may be an RF node.
  • the tracking device 100 is a device that moves along the moving target object 10 and may be set in various ways. As an example, the tracking device 100 may be set as a traversable cart, a robot, or the like. However, hereinafter, for convenience of description, the following device 100 will be described with reference to a structure that can move through the driving module 110 .
  • the tracking device 100 may include a driving module 110 , a positioning module 120 , an imaging module 130 , a sensor module 140 , and a controller 150 .
  • the driving module 110 is installed in the main body, and provides mobility to the tracking device 100 . That is, the driving module 110 may move the main body of the tracking device 100 . Although not shown in the drawings, the driving module 110 may include wheels, a driving shaft, a driving motor, and the like, and the speed of the driving module 110 may be adjusted or stopped by a control signal from the controller 150 .
  • the positioning module 120 is installed in the main body, and can measure the distance between the target object and the tracking device.
  • the positioning module 120 has a plurality of positioning nodes, and may measure a distance between the plurality of positioning nodes and the target node 11 .
  • the controller 150 may accurately measure the location of the target node 11 by using the distance data.
  • the positioning nodes may be arranged such that the distance between the neighboring positioning nodes is equal to at least two or more.
  • three positioning nodes may have an array of right isosceles triangles.
  • the imaging module 130 may photograph the target object 10 and the surrounding environment while moving.
  • the imaging module 130 may be installed on one side of the tracking device 100 , photograph the surroundings of the tracking device 100 , and provide the captured image to the controller 150 .
  • the controller 150 may correct an existing tracking path.
  • the imaging module 130 may measure that a fixed obstacle FO is located in the vicinity while moving along a first path that is a preset movement path. Based on the data received from the imaging module 130 , the controller 150 sets a corrected second path to avoid the obstacle FO, so the tracking device 100 reflects the surrounding environment to continuously and actively target the target. The object 10 may be followed.
  • the sensor module 140 may sense the front of the main body to sense a moving object MO between the target object 10 and the main body. That is, the sensor module 140 may sense the object moving forward during the tracking process.
  • the sensor module 140 may be an ultrasonic sensor.
  • the sensor module 140 may improve the safety of the tracking device 100 by recognizing a sudden change in the situation during the tracking process. Unlike the fixed obstacle FO, the movement of the moving object MO is unpredictable, so when the moving object MO is sensed by the sensor module 140 , the controller 150 stops the driving module 110 . . Thereafter, when the moving object MO is no longer sensed, the controller 150 resets the path so that the tracking device 100 follows the target object 10 .
  • the controller 150 is electrically connected to the driving module 110 , the positioning module 120 , the imaging module 130 , and the sensor module 140 , and can control them.
  • the controller 150 may receive data from the positioning module 120 , the imaging module 130 , and the sensor module 140 to set a path and control the driving of the driving module 110 .
  • the controller 150 may receive data on a distance between target nodes from a positioning node having a triangular arrangement and calculate location information of the target node 11 .
  • the distance D between the target object 10 and the tracking device 100 may be constantly maintained.
  • the tracking device 100 may be set as a preset first path to maintain a distance D by D from the target object 10 .
  • the tracking device 100 corrects the first path and sets the second path, but then the obstacle FO or the moving object MO ) is removed, it may be set as the first path again.
  • FIG. 2 is a view showing a positioning method according to an embodiment of the positioning module 120 of FIG. 1 .
  • the positioning module 120 may include a first positioning node 121 , a second positioning node 122 , and a third positioning node 123 .
  • the positioning nodes may have an arrangement of a right isosceles triangle as shown in (a), or may have an arrangement of an equilateral triangle as shown in (b).
  • the positioning module 120 has a right-angled isosceles triangle structure in which the second positioning node 122 and the third positioning node 123 are positioned in a direction perpendicular to each other with respect to the first positioning node 121 . can be arranged.
  • Equation 1 calculating the position of the target node 11 based on the first positioning node 121 may be expressed as in Equation 1 below.
  • d denotes a distance between the first positioning node 121 and the second positioning node 122 or a distance between the first positioning node 121 and the third positioning node 123 .
  • the first distance (X TA ) in the X-axis direction can be calculated without considering the location (distance) information (Y T ) on the Y-axis of the target node 11, It is possible to calculate the second distance Y TA in the Y-axis direction without considering the location (distance) information X T of the target node 11 on the X-axis.
  • the second positioning node 122 and the third positioning node 123 are perpendicular to each other with respect to the first positioning node 121 .
  • the values of the X-axis and the Y-axis do not affect each other (decoupling).
  • Equation 1 described above exemplifies an embodiment in which the tracking device 100 tracks the target object 10 in a two-dimensional plane, but when a dimension such as three-dimensional increases, the operation of measuring a position must be complicatedly performed.
  • the tracking device 100 calculates the position of one target object 10, but in a situation in which other target objects are additionally linked, it is complicated to calculate the position of each target object. will be performed
  • the tracking system 1 and the tracking device 100 may calculate a distance to the target node 11 by transmitting and receiving RF signals to and from the target node 11 in a plurality of positioning nodes ( R a, R B, R C ), by using this, the controller 150 can correctly calculate the relative position of the target object 10 relative to the tracking device 100.
  • the plurality of positioning nodes may calculate the distance to the target node 11 by using a Time of Flight (ToF) technique while transmitting and receiving RF signals to and from the target node 11 .
  • ToF Time of Flight
  • the present invention is not limited thereto, and it is also possible to calculate the distance between the positioning node and the target node 11 by applying various techniques such as a phase shift or frequency modulation.
  • the first positioning node 121a, the second positioning node 122a, and the third positioning node 123a may be disposed in the positioning module 120 in the form of an equilateral triangle.
  • d denotes a distance between the first positioning node 121a, the second positioning node 122a, and the third positioning node 123a.
  • Equation 2 in order to obtain the second distance Y TA , the value of the position X T on the X-axis of the target node 11 is reflected.
  • FIG. 3 is a view showing a positioning method according to another embodiment of the positioning module 120 of FIG. 1 .
  • the tracking device 100 may calculate the absolute position of the target object 10 based on a predetermined reference point O in consideration of location information of the tracking device 100 .
  • the positioning module 120 transmits and receives an RF signal with respect to the reference node 12 provided at the reference point O, calculates the distance between each positioning node and the reference node 12, and follows the reference node 12 as a reference. Location information of the device 100 may be calculated. Then, the positioning module 120 calculates the position information of the target object 10 based on the tracking device 100, and finally calculates the absolute position of the target object 10 based on the reference point O. there will be
  • the positioning module 120 sets the target object 10 based on the tracking device 100 .
  • T(X T , Y T ) which is the location of the target node 11 based on the location of the reference node 12 .
  • the positioning module 120 calculates the distance between the reference node 12 and the first positioning node 121 in the X-axis direction by using Equation 1, and the reference in the Y-axis direction.
  • a distance between the node 12 and the first positioning node 121 may be calculated.
  • the distance between the target node 11 and the first positioning node 121 in the X-axis direction is calculated, and the target node 11 and the first positioning node in the Y-axis direction are calculated.
  • the distance between (121) can be calculated.
  • the controller 150 may calculate the measured data to calculate T(X T , Y T ) which is the location of the target node 11 based on the location of the reference node 12 .
  • FIG. 4 is a view showing a positioning method according to another embodiment of the positioning module 120b of FIG. 1 .
  • the positioning module 120b may have a square arrangement of four positioning nodes.
  • the first positioning node 121b, the second positioning node 122b, the third positioning node 123b, and the fourth positioning node 124b may have a square arrangement in which the horizontal and vertical distances are d, respectively.
  • Positioning module (120b) is a distance between the target node 11 and the distance (R A) between the first positioning node (121b), a target node 11 and the second positioning node (122b) (R B), the target node A distance R C between ( 11 ) and the third positioning node 123b and a distance R D between the target node 11 and the fourth positioning node 124b may be measured.
  • the controller 150 may measure the distance between any one of the positioning modules and the target node 11 according to the above-described method by using the distance data calculated by the positioning module 120b. For example, the controller uses the data measured by the first positioning node 121b, the second positioning node 122b, and the third positioning node 123b to perform a distance between the first positioning node 121b and the target node 11. distance can be measured. In addition, the controller 150 uses the data measured by the second positioning node 122b, the third positioning node 123b, and the fourth positioning node 124b, and the target node 11 in the fourth positioning node 124b. ) can be measured.
  • the positioning module 120b may have an extra degree of freedom, so that the location of the target object 10 may be accurately measured and calculated. That is, by selecting each of a plurality of distance data, location information of the target object 10 may be calculated in a different manner according to the selection. By using the location information of the target object 10 calculated by a plurality of methods, the location of the target object 10 may be calculated and corrected to improve accuracy.
  • the positioning module 120b may have an extra degree of freedom, so even if there is an error in some positioning nodes of the positioning module 120b, the distance measured at another positioning node Using the data, the position of the target object 10 may be accurately measured. For example, if the first positioning node 121b is an error, the location of the target object 10 may be calculated using the second to fourth positioning nodes 122b, 123b, and 124b.
  • FIG. 5 is a view showing the operation of the imaging module 130 of FIG. 1 .
  • the controller 150 corrects the preset first path to the second path. Thereafter, when the obstacle FO disappears from the imaging module 130 , the controller 150 returns to the first path again.
  • the tracking device 100 is controlled by the controller 150 to follow the target object 10 along the first path P1 .
  • the controller 150 corrects the preset first path P1 to avoid the obstacle FO.
  • the driving module is driven by the 2 path P2. That is, the controller 150 changes the steering direction of the driving module 110 so that the obstacle FO is no longer imaged by the imaging module 130 .
  • the controller 150 drives the driving module 110 through the first path again. In this case, it is assumed that the position of the target object is changed from 10A to 10B.
  • the controller 150 may be set to the path of P1a. That is, based on the position of the target object 10B at the point in time when the obstacle FO is no longer observed, the controller 150 may reset the optimal first path P1a.
  • the controller 150 may be set to the path of P1b.
  • the controller 150 controls the position of 10C, which is the position to which the target object will move after a predetermined time, based on the information that the target object 10 has moved from 10A to 10B at a point in time when the obstacle FO is no longer observed. to calculate Thereafter, the controller 150 may re-establish the optimal first path 1b by predicting that the target object will be moved to the position 10C.
  • the imaging module 130 may recognize the obstacle FO from a plurality of consecutively photographed frames. While the tracking device 100 is moving, the imaging module 130 continuously takes pictures of the front.
  • the controller 150 compares a plurality of frames, detects whether the position of the specific object changes, and if the position of the specific object does not change, may recognize it as a fixed obstacle (FO).
  • the tracking system 1 and the tracking device 100 detect an obstacle (FO) placed in front while the target object 10 is followed by using the image data acquired by the imaging module 130 . Recognize and quickly avoid obstacles (FO). Since the position of the fixed obstacle FO does not change, the tracking device 100 may actively respond to the situation by changing the following path without stopping.
  • FO obstacle
  • FIG. 6 is a view showing the operation of the sensor module 140 of FIG. 1 .
  • the tracking device 100 stops the driving module. Thereafter, when the moving object MO is removed from the data measured by the sensor module 140 , that is, when the sensor module 140 senses that there is no moving object MO in front, the controller returns the driving module to the first path. (110) can be driven.
  • the sensor module 140 senses the front of the tracking device 100 .
  • the sensor module 140 may sense the presence or absence of the moving object MO in a space between the target object and the tracking device 100 .
  • the sensor module 140 may include an ultrasonic sensor.
  • the sensor module 140 may measure the wavelength reflected from the moving object MO to determine whether the moving object MO exists in front.
  • the controller 150 stops the driving module 110. Since the follower device 100 is stopped, it is possible to prevent an accident in which the follower device 100 collides with the moving object MO while driving.
  • the sensor module 140 has a predetermined measuring radius, and even if the moving object MO moves from MO-1 to M0-2 as shown in FIG. 6 , it is recognized that the moving object MO is in front.
  • the controller 150 moves the driving module 110 to the first path P1 again. drive it Since the target object moves from 10A to 10B while the tracking device 100 is stopped, the controller 150 increases the rotation speed of the driving module 110 so that the tracking device 100 moves with the target object 10 in a predetermined position. The distance (D) can be maintained.
  • the sensor module 140 may measure the moving object MO in successive frames measured by the imaging module 130 .
  • the tracking system 1 and the tracking device 100 detect a moving object MO in the front during tracking of the target object 10 by using the data measured by the sensor module 140 . It is recognized and the tracking device 100 is stopped until the moving object MO disappears, thereby increasing the safety of the tracking device 100 .
  • FIG. 7 is a flowchart illustrating a tracking method of a tracking device according to another embodiment of the present invention
  • FIG. 8 is a detailed flowchart illustrating the tracking method of the tracking device of FIG. 7 .
  • the following method of a tracking device includes measuring a distance between a target object and the tracking device in a positioning module, and moving the tracking device along a first path set by a controller; When an obstacle is sensed between the target object and the tracking device, the controller corrects the first path to set a second path avoiding the obstacle, and the controller sets the tracking device as the second path. moving, and when the obstacle is removed from the data measured by the imaging module, moving the tracking device back to the first path by the controller.
  • the tracking method of the tracking device includes the steps of: when a sensor module senses a moving object between the target object and the tracking device, stopping the tracking device in the controller; When removed, the method may further include moving the tracking device back to the first path in the controller.
  • a distance between the moving target object and the tracking device is measured, and the tracking device moves along a first path ( S10 ).
  • the exact position of the target node 11 is measured based on distance information between the target node 11 of the target object 10 and the positioning nodes of the positioning module 120 .
  • the controller 150 sets the first path and controls the driving module 110 to move to the first path.
  • the imaging module senses whether there is an obstacle in front (S20).
  • the imaging module 130 analyzes the image frame and senses whether a fixed obstacle FO exists between the tracking device 100 and the target object 10 .
  • a second path for avoiding the obstacle is set ( S21 ).
  • the controller 150 modifies the path of the tracking device 100 from the first path to the second path so that the obstacle FO is not observed in the imaging module 130 .
  • the tracking device moves to the second path (S22).
  • the controller 150 steers and drives the driving module 110 so that the tracking device 100 moves along the second path.
  • the imaging module 130 continuously acquires images, and when it is confirmed that there is no obstacle in the imaging module 130 , the controller 150 drives the tracking device 100 again along the first path.
  • the sensor module senses the presence or absence of a moving object in front (S30). When it is confirmed that there is a moving object in the sensor module, the tracking device stops (S31). Since the moving line of the moving object MO is unpredictable, it stops for the safety of the tracking device 100 .
  • the sensor module 140 continuously senses the front object, and when it is confirmed that there is no moving object MO in the sensor module 140 , the controller 150 drives the tracking device 100 again through the first path.
  • the step of moving the tracking device along the first path includes arranging a plurality of positioning nodes of the positioning module in a triangular arrangement, and a distance between each positioning node and the target node of the target object. Measuring (S11), calculating the location information of the target node based on data on the distance between the location node and the target node (S12), and the location information of the tracking device and the target object and setting the first path with a constant distance between the target object and the tracking device based on the location information (S13).
  • the tracking method of the tracking device may accurately measure the position of the target object by the positioning module.
  • 9 to 11 are graphs showing performance data of the tracking system 1 of FIG. 1 .
  • the positioning module of the tracking device 100 has a case where a plurality of positioning nodes are disposed in a right-angled triangle shape and an equilateral triangle shape. It can be seen that all of them show a linearly increasing proportional relationship.
  • the positioning module of the tracking device 100 is an equilateral triangle (Right-angled Triangle) when a plurality of positioning nodes are arranged in the form of a right-angled triangle.
  • Equilateral Triangle shows higher accuracy than the case of arrangement.
  • the right-angled triangle has a linearly inversely proportional relationship
  • the equilateral triangle has a non-linearly inversely proportional relationship.
  • the positioning module of the tracking device 100 includes a plurality of positioning nodes in the form of a right-angled triangle. It can be seen that the arrangement shows higher accuracy than the case of arrangement in the form of an equilateral triangle.
  • the target node 11 of the target object 10 is not installed in advance in the area to be positioned without having to install a plurality of positioning nodes in advance. ) can be accurately measured.
  • the tracking system 1, the tracking device 100, and the tracking method can measure the location of the target node 11 with high accuracy while preventing the operation for calculating the location of the target node 11 from being complicated. there is.
  • a tracking device, a tracking system including the same, and a tracking method of the tracking device according to an embodiment of the present invention while preventing the tracking device from complicating the calculation of the location of the target node, position the location of the target node with high accuracy Industrial applicability is remarkable in that it is made to be possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 추종 장치, 이를 포함하는 추종 시스템 및 추종 방법을 제공한다. 본 발명은 이동하는 타겟 대상체를 추종하는 추종 장치에 있어서, 본체를 이동시키는 구동 모듈과, 상기 본체에 설치되며, 상기 타겟 대상체와 상기 추종 장치의 거리를 측정하는 측위 모듈과, 이동 중에 상기 타겟 대상체나 주변 환경을 촬영하는 촬상 모듈과, 상기 본체의 전방을 센싱하여, 상기 타겟 대상체와 상기 본체 사이에 이동 물체를 센싱하는 센서 모듈, 및 상기 측위 모듈, 상기 촬상 모듈 및 상기 센서 모듈로부터 데이터를 전달받아, 상기 구동 모듈의 경로를 설정 및 구동을 제어하는 컨트롤러를 포함한다.

Description

추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법
본 발명은 타겟 대상체를 추종하는 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법에 관한 것이다.
근래 위치 정보에 기반한 위치 기반 서비스(Location Based Service, LBS) 기술이 다양하게 활용되고 있다. 이에 대한 대표적인 예로서, GPS 신호 등을 수신하여 사용자의 현재 위치를 측위하거나 목적지까지의 이동 경로를 안내해주는 네비게이션 디바이스가 폭넓게 사용되고 있는 상황이다.
그런데, 위와 같이 GPS 등에 기반한 측위 기술은 GPS 위성 신호를 원활하게 수신할 수 있는 실외에서의 측위에는 용이하겠으나, GPS 위성 신호를 수신하기 어렵거나 신호의 왜곡이 발생할 수 있는 실내 환경에서는 측위가 불가능하거나 측위 정확도가 떨어지는 문제가 발생하게 된다.
이에 대하여, 종래에는 실내의 복수 위치에 측위를 위한 측위 노드들을 설치하고 상기 복수의 측위 노드 내부 영역에 위치하는 타겟 노드에서 상기 각 측위 노드 까지의 거리를 측정하여 상기 타겟 노드의 위치를 산출하는 기술이 사용되기도 하였다.
그러나, 위와 같은 경우 측위하고자 하는 영역 전체를 커버할 수 있도록 다수의 측위 노드를 미리 설치하여야 타겟 노드의 위치를 측위할 수 있다는 제약이 따랐다.
이에 대하여, 측위 노드가 구비된 이동체 등을 이용하여 타겟 노드의 위치를 측위할 수 있도록 하는 것이 바람직하겠으나, 이러한 경우 타겟 노드의 위치를 산출하기 위한 연산이 매우 복잡해 질 수 있을 뿐만 아니라, 상기 타겟 노드에 대한 측위 정확도가 떨어지는 문제가 따를 수 있다.
이에 따라, 측위하고자 하는 영역에 다수의 측위 노드를 미리 설치하지 않고도 타겟 노드에 대한 측위가 가능하며, 나아가 타겟 노드의 위치를 산출하기 위한 연산이 복잡해 지는 것을 방지하고 높은 정확도로 상기 타겟 노드의 위치를 측위할 수 있는 방안이 요구되고 있으나, 아직 이러한 요구를 적절하게 해결할 수 있는 구체적인 방안이 제공되지 못하고 있다.
또한, 추종 장치는 상황에 따라 구동이 조절되어야 한다. 예컨대, 추종 중에 주변 장애물에 의해서 경로가 변경되어야 할 필요가 있거나, 추종 중에 이동하는 물체가 관측되면 안전 상의 위험이 발생된다.
본 발명은 타겟 대상체의 위치를 정확하게 측위하고, 추종 중에 발생하는 환경에 능동적으로 대처할 수 있는 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법을 제공한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 일측면은, 이동하는 타겟 대상체를 추종하는 추종 장치에 있어서, 본체를 이동시키는 구동 모듈과, 상기 본체에 설치되며, 상기 타겟 대상체와 상기 추종 장치의 거리를 측정하는 측위 모듈과, 이동 중에 상기 타겟 대상체나 주변 환경을 촬영하는 촬상 모듈과, 상기 본체의 전방을 센싱하여, 상기 타겟 대상체와 상기 본체 사이에 이동 물체를 센싱하는 센서 모듈, 및 상기 측위 모듈, 상기 촬상 모듈 및 상기 센서 모듈로부터 데이터를 전달받아, 상기 구동 모듈의 경로를 설정 및 구동을 제어하는 컨트롤러를 포함하는, 추종 장치를 제공한다.
또한, 상기 컨트롤러는 상기 촬상 모듈에서 상기 타겟 대상체와 상기 본체 사이의 장애물을 촬상하면, 기 설정된 제1 경로를 보정하여 상기 장애물을 회피하는 제2 경로로 상기 구동 모듈을 구동할 수 있다.
또한, 상기 컨트롤러는 상기 촬상 모듈에서 측정된 데이터에서 상기 장애물이 제거되면, 다시 상기 제1 경로로 상기 구동 모듈을 구동할 수 있다.
또한, 상기 컨트롤러는 상기 측위 모듈에서 측정된 데이터를 기초로 설정된 제1 경로로 상기 구동 모듈을 구동시키되, 상기 센서 모듈에서 상기 이동 물체를 센싱하면, 상기 구동 모듈을 정지시킬 수 있다.
또한, 상기 컨트롤러는 상기 센서 모듈에서 측정된 데이터에서 상기 이동 물체가 제거되면, 다시 상기 제1 경로로 상기 구동 모듈을 구동할 수 있다.
또한, 상기 컨트롤러는 상기 측위 모듈에서 측정된 데이터를 기초로, 상기 타겟 대상체와 상기 추종 장치 사이의 거리를 일정하게 유지되는 제1 경로로 상기 구동 모듈을 구동시키되, 상기 촬상 모듈에서 전달받은 장애물에 관한 정보나 상기 센서 모듈로부터 전달받은 이동 물체에 관한 정보를 기초로, 상기 제1 경로와 다른 경로로 상기 구동 모듈을 구동 시키며, 상기 장애물이나 상기 이동 물체가 제거되면 다시 상기 제1 경로로 상기 구동 모듈을 구동시킬 수 있다.
또한, 상기 측위 모듈은 복수개의 측위 노드를 구비하며, 각각의 상기 측위 노드가 상기 타겟 대상체에 장착된 타겟 노드와의 거리를 측정할 수 있다.
또한, 상기 컨트롤러는 삼각 배열을 가지는 상기 측위 노드로부터 상기 타겟 노드 사이의 거리에 대한 데이터를 전달 받고, 상기 타겟 노드의 위치 정보를 산출할 수 있다.
또한, 상기 측위 노드는 이웃하는 상기 측위 노드 사이의 거리가 적어도 2개 이상 같도록 배치될 수 있다.
또한, 상기 측위 노드는 3개가 직각 이등변삼각형의 배열을 가질 수 있다.
본 발명의 다른 측면은, 타겟 노드를 가지는 타겟 대상체, 및 상기 타겟 대상체를 추종하는 추종 장치를 포함하고, 상기 추종 장치는 본체를 이동시키는 구동 모듈과, 상기 본체에 설치되며, 상기 타겟 대상체와 상기 추종 장치의 거리를 측정하는 측위 모듈과, 이동 중에 상기 타겟 대상체나 주변 환경을 촬영하는 촬상 모듈과, 상기 본체의 전방을 센싱하여, 상기 타겟 대상체와 상기 본체 사이에 이동 물체를 센싱하는 센서 모듈, 및 상기 측위 모듈, 상기 촬상 모듈 및 상기 센서 모듈로부터 데이터를 전달받아, 상기 구동 모듈의 경로를 설정 및 구동을 제어하는 컨트롤러를 구비하는 추종 시스템을 제공한다.
본 발명의 또 다른 측면은, 측위 모듈에서 타겟 대상체와 추종 장치 사이의 거리를 측정하고, 컨트롤러에서 설정된 제1 경로로 상기 추종 장치를 이동시키는 단계과, 촬상 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 장애물을 센싱하면, 상기 컨트롤러에서 상기 제1 경로를 보정하여 상기 장애물을 회피하는 제2 경로를 설정하는 단계와, 상기 컨트롤러에서 상기 제2 경로로 상기 추종 장치를 이동시키는 단계, 및 상기 촬상 모듈에서 측정된 데이터에서 상기 장애물이 제거되면, 상기 컨트롤러에서 상기 제1 경로로 다시 상기 추종 장치를 이동시키는 단계를 포함하는 추종 장치의 추종 방법을 제공한다.
또한, 센서 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 이동 물체를 센싱하면, 상기 컨트롤러에서 상기 추종 장치를 정지하는 단계, 및 상기 센서 모듈에서 측정된 데이터에서 상기 이동 물체가 제거되면, 상기 컨트롤러에서 다시 상기 제1 경로로 상기 추종 장치를 이동시키는 단계를 더 포함할 수 있다.
또한, 상기 제1 경로로 상기 추종 장치를 이동시키는 단계는 상기 측위 모듈의 복수개의 측위 노드가 삼각 배열로 배치되며, 각 상기 측위 노드와 상기 타겟 대상체의 타겟 노드 사이의 거리를 측정하는 단계와, 상기 측위 노드와 상기 타겟 노드 사이의 거리에 대한 데이터를 기초로 상기타겟 노드의 위치 정보를 산출하는 단계, 및 상기 추종 장치의 위치 정보와 상기 타겟 대상체의 위치 정보를 기초로, 상기 타겟 대상체와 상기 추종 장치 사이의 거리가 일정하게 상기 제1 경로를 설정하는 단계를 포함할 수 있다.
전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.
본 발명의 일 실시예에 따른 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법은 타겟 대상체의 위치를 정확하게 측정할 수 있다. 측위 모듈의 복수개의 측위 노드와 타겟 대상체의 타겟 노드 사이의 거리에 대한 데이터를 이용하여 이용하여, 추종 장치에서 타겟 대상체의 x축 방향과 y축 방향의 위치를 정확하게 측정할 수 있다. 특히 추종 장치는 타겟 노드의 위치를 산출하는 연산이 복잡해 지는 것을 방지하면서, 높은 정확도로 타겟 노드의 위치를 측위할 수 있다.
본 발명의 일 실시예에 따른 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법은 추종 중에 경로를 수정하여, 상황에 능동적으로 대처할 수 있다. 촬상 모듈에서 장애물이 관측되면, 추종 장치는 경로를 수정하여, 장애물이 사라지도록 추종할 수 있다. 장애물은 고정된 상태이므로, 경로를 변경하여 안전성을 확보함과 동시에 지속적으로 타겟 대상체를 추종할 수 있다.
본 발명의 일 실시예에 따른 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법은 이동하는 물체가 관측되면 구동을 멈추어서 안전성을 확보할 수 있다. 고정된 장애물과 달리, 이동 물체는 그 동선을 예측하기 어려우므로, 추종 장치는 센서 모듈에서 이동 물체가 관측되면, 이동 물체가 사라질 때 구동을 멈춘다. 이로써, 추종 중에 발생하는 충돌의 위험을 최소화 할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.
도 1은 본 발명의 일 실시예에 따른 추종 시스템을 도시하는 도면이다.
도 2는 도 1의 측위 모듈의 일 실시예에 따른 측위 방법을 보여주는 도면이다.
도 3은 도 1의 측위 모듈의 다른 실시예에 따른 측위 방법을 보여주는 도면이다.
도 4는 도 1의 측위 모듈의 또 다른 실시예에 따른 측위 방법을 보여주는 도면이다.
도 5는 도 1의 촬상 모듈의 구동을 보여주는 도면이다.
도 6은 도 1의 센서 모듈의 구동을 보여주는 도면이다.
도 7은 본 발명의 다른 실시예에 따른 추종 장치의 추종 방법을 도시하는 순서도이다.
도 8은 도 7의 추종 장치의 추종 방법의 상세하게 도시하는 순서도이다.
도 9 내지 도 11은 도 1의 추종 시스템의 성능 데이터를 보여주는 그래프이다.
이하, 본 개시의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 본 개시의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시의 다양한 실시예에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시의 다양한 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 다양한 실시예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시의 다양한 실시예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시의 다양한 실시예에서 사용한 용어는 단지 특정일 실시예를 설명하기 위해 사용된 것으로, 본 개시의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시예에 따른 추종 시스템(1)을 도시하는 도면이다.
도 1을 참조하면, 추종 시스템(1)은 이동하는 타겟 대상체(10)와, 타겟 대상체(10)를 추종하여 이동하는 추종 장치(100)를 포함한다.
타겟 대상체(10)는 이동 가능하고 추적의 대상이 되는 객체로, 다양하게 설정될 수 있다. 일 예로, 타겟 대상체(10)는 타겟 노드(11)를 구비한 이동 가능한 로봇, 차량 등과 같이 장치일 수 있다. 또한, 타겟 대상체(10)는 인간, 동물 등에 타겟 노드(11)가 부착될 수 있다.
타겟 노드(11)는 추종 장치(100)의 측위 모듈(120)과 신호를 전달 받아, 거리를 측정할 수 있다. 타겟 노드(11)와 측위 노드 사이의 거리를 측정하여, 타겟 대상체(10) 즉 타겟 노드(11)의 위치를 정확하게 측정할 수 있다. 타겟 노드(11)는 측위 노드와의 거리를 측정할 수 있는 것으로 특정한 부품으로 한정되지 않는다. 일 예로, 타겟 노드(11)는 RF노드 일 수 있다.
추종 장치(100)는 이동하는 타겟 대상체(10)를 따라 이동하는 장치이며, 다양하게 설정될 수 있다. 일 예로, 추종 장치(100)는 주행 가능한 카트, 로봇 등으로 설정될 수 있다. 다만, 이하에서는 설명의 편의를 위해서 추종 장치(100)는 구동 모듈(110)을 통해서 이동할 수 있는 구조물을 중심으로 설명하기로 한다. 추종 장치(100)는 구동 모듈(110), 측위 모듈(120), 촬상 모듈(130), 센서 모듈(140) 및 컨트롤러(150)를 구비할 수 있다.
구동 모듈(110)은 본체에 설치되며, 추종 장치(100)에 이동성을 제공한다. 즉, 구동 모듈(110)은 추종 장치(100)의 본체를 이동시킬 수 있다. 도면에는 도시되지 않았으나, 구동 모듈(110)은 바퀴, 구동 축, 구동 모터 등을 구비할 수 있으며, 컨트롤러(150)의 제어 신호에 의해서 구동 모듈(110)은 속도가 조절되거나, 멈출 수 있다.
측위 모듈(120)은 본체에 설치되며, 타겟 대상체와 추종 장치의 거리를 측정할 수 있다. 측위 모듈(120)은 복수개의 측위 노드를 가지며, 복수개의 측위 노드와 타겟 노드(11) 사이의 거리를 측정할 수 있다. 컨트롤러(150)는 상기 거리 데이터를 이용하여, 타겟 노드(11)의 위치를 정확하게 측정할 수 있다.
측위 노드는 이웃하는 측위 노드 사이의 거리가 적어도 2개 이상 같도록 배치될 수 있다. 또한, 측위 노드는 3개가 직각 이등변삼각형의 배열을 가질 수 있다.
촬상 모듈(130)은 이동 중에 타겟 대상체(10), 주변 환경을 촬영할 수 있다. 촬상 모듈(130)은 추종 장치(100)의 일측에 설치되며, 추종 장치(100)의 주변을 촬영하며, 촬영된 영상을 컨트롤러(150)로 제공할 수 있다. 특히, 촬상 모듈(130)에서 추종 경로 상에 놓인 장애물(FO)이 촬영되면, 컨트롤러(150)에서 기존의 추종 경로를 보정할 수 있다.
촬상 모듈(130)은 기 설정된 이동 경로인 제1 경로를 따라 이동 중에, 고정된 장애물(FO)이 주변에 위치하는 것을 측정할 수 있다. 촬상 모듈(130)에서 전달받은 데이터를 기초로, 컨트롤러(150)는 장애물(FO)을 회피하는 보정된 제2 경로를 설정하므로, 추종 장치(100)는 주변 환경을 반영하여 지속적 및 능동적으로 타겟 대상체(10)를 추종할 수 있다.
센서 모듈(140)은 본체의 전방을 센싱하여, 타겟 대상체(10)와 본체 사이의 이동 물체(MO)를 센싱할 수 있다. 즉, 센서 모듈(140)은 추종 과정 중에서 전방에 이동하는 대상체를 센싱할 수 있다. 일 실시예로, 센서 모듈(140)은 초음파 센서 일 수 있다.
센서 모듈(140)은 추종 과정에서 갑작스러운 상황의 변화를 인식하여, 추종 장치(100)의 안전성을 향상시킬 수 있다. 고정된 장애물(FO)과는 달리, 이동 물체(MO)의 이동은 예측할 수 없으므로, 센서 모듈(140)에서 이동 물체(MO)가 센싱되면, 컨트롤러(150)는 구동 모듈(110)을 정지시킨다. 이후, 이동 물체(MO)가 더 이상 센싱되지 않으면, 컨트롤러(150)에서 경로를 재 설정 하여, 추종 장치(100)가 타겟 대상체(10)를 추종한다.
컨트롤러(150)는 구동 모듈(110), 측위 모듈(120), 촬상 모듈(130), 센서 모듈(140)과 전기적으로 연결되며, 이들을 제어할 수 있다. 컨트롤러(150)는 측위 모듈(120), 촬상 모듈(130) 및 센서 모듈(140)로부터 데이터를 전달받아, 구동 모듈(110)의 경로를 설정 및 구동을 제어할 수 있다.
컨트롤러(150)는 삼각 배열을 가지는 측위 노드로부터 타겟 노드 사이의 거리에 대한 데이터를 전달 받고 타겟 노드(11)의 위치 정보를 산출할 수 있다.
일 실시예로, 추종 시스템(1)은 타겟 대상체(10)와 추종 장치(100)의 거리(D)가 일정하게 유지 될 수 있다. 상세히, 추종 장치(100)는 타겟 대상체(10)에서 D 만큼 이격 거리를 유지하도록 기 설정된 제1 경로로 설정될 수 있다. 추종 장치(100)에서 장애물(FO)이나 이동 물체(MO)를 측정하면, 추종 장치(100)는 제1 경로를 보정하여 제2 경로를 설정하나, 이후에 장애물(FO)이나 이동 물체(MO)가 제거되면 다시 제1 경로로 설정될 수 있다.
도 2는 도 1의 측위 모듈(120)의 일 실시예에 따른 측위 방법을 보여주는 도면이다.
도 2를 참조하면, 측위 모듈(120)은 제1 측위 노드(121), 제2 측위 노드(122) 및 제3 측위 노드(123)를 포함할 수 있다. 측위 노드들은 (a)와 같이 직각 이등변삼각형의 배치를 가지거나, (b)와 같이 정삼각형의 배치를 가질 수 있다.
(a)를 참조하면, 측위 모듈(120)에는 제2 측위 노드(122)와 제3 측위 노드(123)가 제1 측위 노드(121)를 기준으로 서로 수직인 방향에 위치하는 직각 이등변삼각형 구조를 이루어 배치될 수 있다.
이러한 경우, 제1 측위 노드(121)를 기준으로 타겟 노드(11)의 위치를 산출하면 아래의 수학식 1와 같이 표현될 수 있다.
[수학식 1]
Figure PCTKR2021001411-appb-I000001
XTA는 제1 측위 노드(121)에서 제2 측위 노드(122)를 연결하는 제1 축(=X축)에서의 제1 측위 노드(121)로부터 타겟 노드(11)까지의 제1 거리를 의미한다. 즉, XTA는 X축 방향으로의 제1 측위 노드(121)와 타겟 노드(11) 사이의 제1 거리로 정의된다.
YTA는 제1 측위 노드(121)에서 제3 측위 노드(123)를 연결하는 제2 축(=Y축)에서의 제1 측위 노드(121)로부터 타겟 노드(11)까지의 제2 거리를 의미한다. 즉, YTA는 Y축 방향으로의 제1 측위 노드(121)와 타겟 노드(11) 사이의 제2 거리로 정의된다.
d는 제1 측위 노드(121)와 제2 측위 노드(122) 사이의 거리 또는 제1 측위 노드(121)와 제3 측위 노드(123) 사이의 거리를 의미한다.
수학식 1에서 볼 수 있는 바와 같이, 타겟 노드(11)의 Y축에서의 위치(거리) 정보(YT)를 고려하지 않고 X축 방향의 제1 거리(XTA)를 산출할 수 있으며, 타겟 노드(11)의 X축에서의 위치(거리) 정보(XT)를 고려하지 않고 Y축 방향의 제2 거리(YTA)를 산출할 수 있게 된다.
본 발명의 일 실시예에 따른 추종 시스템(1) 및 추종 장치(100)는 제2 측위 노드(122) 및 제3 측위 노드(123)가 제1 측위 노드(121)를 기준으로 서로 수직인 방향에 위치하는 직각 이등변삼각형 구조를 이루어 배치됨으로써, X축과 Y축의 값이 서로 영향을 미치지 않는다(decoupling).
전술한 수학식 1에서는 2차원 평면에서 추종 장치(100)가 타겟 대상체(10)를 추종하는 실시예를 예시하고 있으나, 3차원 등 차원이 늘어나는 경우에는 위치를 측정하는 연산 복잡하게 수행되어야 한다. 또한, 수학식 1에서는 추종 장치(100)가 하나의 타겟 대상체(10)의 위치를 산출하는 것을 설명하고 있으나, 추가적으로 또 다른 타겟 대상체들이 연계되는 상황에서는 각 타겟 대상체의 위치를 연산하는 것이 복잡하게 수행되게 된다.
본 발명의 일 실시예에 따른 측위 모듈(120)은 제1 측위 노드(121)로부터 타겟 노드(11)까지의 거리(=RA)는 XTA와 YTA를 구하는데 공통적으로 반영되지만, 제2 측위 노드(122)로부터 타겟 노드(11)까지의 거리(=RB)는 XTA를 구하는 데에만 반영되고, 제3 측위 노드(123)로부터 타겟 노드(11)까지의 거리(=RC)는 YTA를 구하는 데에만 반영되게 된다. 이에 따라, X축과 Y축의 값이 서로 영향을 미치지 않게 되어(decoupling), 측위 모듈(120)은 제1 거리(XTA)와 제2 거리(YTA)를 보다 단순한 연산을 통해 산출할 수 있게 된다. 따라서, 측위 모듈(120)은 제1 거리(XTA)와 제2 거리(YTA)를 산출하는 수식을 간결히 모델링할 수 있을 뿐만 아니라, 이에 소요되는 연산량 등도 효과적으로 줄일 수 있게 된다.
본 발명의 일 실시예에 따른 추종 시스템(1) 및 추종 장치(100)는 복수의 측위 노드에서는 타겟 노드(11)로 RF 신호를 송수신하여 타겟 노드(11)에 대한 거리를 산출할 수 있으며(RA, RB, RC), 이를 이용하여 컨트롤러(150)는 추종 장치(100)를 기준으로 하는 타겟 대상체(10)의 상대 위치를 정확하게 산출할 수 있다.
일 예로, 복수의 측위 노드에서는 타겟 노드(11)로 RF 신호를 송수신하면서 ToF(Time of Flight) 기법 등을 이용하여 타겟 노드(11)까지의 거리를 산출할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며 이외에도 위상변이(phase shift)나 주파수 변조(frequency modulation) 등 다양한 기법을 적용하여 측위 노드와 타겟 노드(11) 사이의 거리를 산출하는 것도 가능하다.
(b)를 참조하면, 측위 모듈(120)에는 제1 측위 노드(121a), 제2 측위 노드(122a) 및 제3 측위 노드(123a)가 정삼각형 형태로 배치될 수도 있다. 측위 모듈(120)은 제1 측위 노드(121a), 제2 측위 노드(122a) 및 제3 측위 노드(123a)에서 타겟 대상체(10)에 구비되는 타겟 노드(11)까지의 거리를 각각 산출한 후(=RA, RB, RC), 이를 이용하여 제1 측위 노드(121a)를 기준으로 타겟 노드(11)의 위치를 산출하면 아래의 수학식 2과 같이 표현될 수 있다.
[수학식 2]
Figure PCTKR2021001411-appb-I000002
XTA는 제1 측위 노드(121a)에서 제2 측위 노드(122a)를 연결하는 제1 축(=X축)에서의 제1 측위 노드(121a)로부터 타겟 노드(11)까지의 제1 거리를 의미한다. 즉, XTA는 X축 방향으로의 제1 측위 노드(121a)와 타겟 노드(11) 사이의 제1 거리로 정의된다.
YTA는 제1 측위 노드(121a)에서 제3 측위 노드(123a)를 연결하는 제2 축(=Y축)에서의 제1 측위 노드(121a)로부터 타겟 노드(11)까지의 제2 거리를 의미한다. 즉, YTA는 Y축 방향으로의 제1 측위 노드(121a)와 타겟 노드(11) 사이의 제2 거리로 정의된다.
d는 제1 측위 노드(121a), 제2 측위 노드(122a) 및 제3 측위 노드(123a) 간의 거리를 의미한다.
수학식 2에서 볼 수 있는 바와 같이, 제2 거리(YTA)를 구하기 위해서는 타겟 노드(11)의 X축 상에서의 위치(XT) 값이 반영되게 된다.
도 3은 도 1의 측위 모듈(120)의 다른 실시예에 따른 측위 방법을 보여주는 도면이다.
도 3을 참조하면, 추종 장치(100)는 추종 장치(100)의 위치 정보를 고려하여 미리 정해진 기준점(O)을 기준으로 하는 타겟 대상체(10)의 절대 위치를 산출할 수 있다.
측위 모듈(120)은 기준점(O)에 구비되는 기준 노드(12)에 대하여 RF 신호를 송수신하여 각 측위 노드와 기준 노드(12)에 대한 거리를 산출하여, 기준 노드(12)를 기준으로 추종 장치(100)의 위치 정보를 산출할 수 있다. 이어서, 측위 모듈(120)은 추종 장치(100)를 기준으로 타겟 대상체(10)의 위치 정보를 산출하여, 최종적으로 기준점(O)을 기준으로 하는 타겟 대상체(10)의 절대 위치를 산출할 수 있게 된다.
상세하게, 기준점(O)의 기준 노드(12)의 위치는 미리 측정되어 저장될 수 있다. 이에 따라 측위 모듈(120)은 제1 측위 노드(121), 제2 측위 노드(122) 및 제3 측위 노드(123)로부터 기준 노드(12)로 RF 신호를 송수신하여, 제1 측위 노드(121), 제2 측위 노드(122) 및 제3 측위 노드(123)로부터 기준 노드(12)까지의 거리를 각각 산출한 후(=RA0, RB0, RC0), 기준 노드(12)의 위치를 이용하여 제1 측위 노드(121), 제2 측위 노드(122) 및 제3 측위 노드(123)의 위치를 산출할 수 있게 된다.
나아가, 제1 측위 노드(121), 제2 측위 노드(122) 및 제3 측위 노드(123)의 위치가 산출되면, 측위 모듈(120)은 추종 장치(100)를 기준으로 타겟 대상체(10)의 위치 정보를 고려하여, 기준 노드(12)의 위치를 기준으로 타겟 노드(11)의 위치인 T(XT, YT)를 산출할 수 있다.
다른 실시예로, 측위 모듈(120)은 상기 수학식1을 이용하여, X축 방향으로의 기준 노드(12)와 제1 측위 노드(121) 사이의 거리를 산출하고, Y축 방향으로의 기준 노드(12)와 제1 측위 노드(121) 사이의 거리를 산출할 수 있다. 이후, 상기 수학식 1을 이용하여, X축 방향으로의 타겟 노드(11)와 제1 측위 노드(121) 사이의 거리를 산출하고, Y축 방향으로의 타겟 노드(11)와 제1 측위 노드(121) 사이의 거리를 산출할 수 있다. 이후, 컨트롤러(150)는 측정된 데이터를 연산하여, 기준 노드(12)의 위치를 기준으로 타겟 노드(11)의 위치인 T(XT, YT)를 산출할 수 있다.
도 4는 도 1의 측위 모듈(120b)의 또 다른 실시예에 따른 측위 방법을 보여주는 도면이다.
도 4를 참조하면, 측위 모듈(120b)은 4개의 측위 노드들이 정사각형의 배열을 가질 수 있다. 제1 측위 노드(121b), 제2 측위 노드(122b), 제3 측위 노드(123b) 및 제4 측위 노드(124b)는 가로 세로의 거리가 각각 d인 정사각형 배열을 가질 수 있다.
측위 모듈(120b)은 타겟 노드(11)와 제1 측위 노드(121b) 사이의 거리(RA), 타겟 노드(11)와 제2 측위 노드(122b) 사이의 거리(RB), 타겟 노드(11)와 제3 측위 노드(123b) 사이의 거리(RC), 타겟 노드(11)와 제4 측위 노드(124b) 사이의 거리(RD)를 측정할 수 있다.
컨트롤러(150)는 측위 모듈(120b)에서 산출된 거리 데이터를 이용하여, 전술한 방법에 따라 어느 하나의 측위 모듈과 타겟 노드(11) 사이의 거리를 측정할 수 있다. 예컨대, 컨트롤러는 제1 측위 노드(121b), 제2 측위 노드(122b), 제3 측위 노드(123b)에서 측정된 데이터를 이용하여, 제1 측위 노드(121b)에서 타겟 노드(11) 사이의 거리를 측정할 수 있다. 또한, 컨트롤러(150)는 제2 측위 노드(122b), 제3 측위 노드(123b), 제4 측위 노드(124b)에서 측정된 데이터르 이용하여, 제4 측위 노드(124b)에서 타겟 노드(11) 사이의 거리를 측정할 수 있다.
본 발명에 따른 추종 시스템(1) 및 추종 장치(100)는 측위 모듈(120b)이 여유 자유도를 가질 수 있어, 타겟 대상체(10)의 위치를 정확하게 측정 및 검산 할 수 있다. 즉, 복수개의 거리 데이터를 각각 선택하여, 선택에 따라 다른 방식으로 타겟 대상체(10)의 위치 정보를 산출할 수 있다. 복수개의 방법으로 산출된 타겟 대상체(10)의 위치 정보를 이용하여, 타겟 대상체(10)의 위치를 검산 및 보정하여, 정확성을 향상시킬 수 있다.
본 발명에 따른 추종 시스템(1) 및 추종 장치(100)는 측위 모듈(120b)이 여유 자유도를 가질 수 있어, 측위 모듈(120b)의 일부 측위 노드에 에러가 있더라도, 다른 측위 노드에서 측정된 거리데이터를 이용하여, 타겟 대상체(10)의 위치를 정확하게 측정할 수 있다. 예컨대, 제1 측위 노드(121b)가 에러라면, 제2 내지 제4 측위 노드(122b, 123b, 124b)를 이용하여, 타겟 대상체(10)의 위치를 산출할 수 있다.
도 5는 도 1의 촬상 모듈(130)의 구동을 보여주는 도면이다.
도 5를 참조하면, 추종 장치(100)는 촬상 모듈(130)에서 장애물(FO)이 관측되면, 컨트롤러(150)는 기 설정된 제1 경로에서 제2 경로로 보정한다. 이후, 촬상 모듈(130)에ㅔ서 장애물(FO)이 사라지면, 컨트롤러(150)는 다시 제1 경로로 회귀한다.
추종 장치(100)는 컨트롤러(150)에서 제1 경로(P1)를 따라 타겟 대상체(10)를 추종하도록 제어된다.
촬상 모듈(130)에서 타겟 대상체(10)와 본체 사이에 고정된 장애물(FO)이 촬상되면, 컨트롤러(150)는 기 설정된 제1 경로(P1)를 보정하여, 장애물(FO)을 회피하도록 제2 경로(P2)로 구동 모듈을 구동한다. 즉, 컨트롤러(150)는 구동 모듈(110)의 조향 방향을 변경하여 촬상 모듈(130)에서 장애물(FO)이 더 이상 촬상되지 않도록 한다.
촬상 모듈(130)에서 측정된 데이터에서 장애물(FO)이 제거되면, 컨트롤러(150)는 다시 제1 경로로 구동 모듈(110)을 구동한다. 이때, 타겟 대상체의 위치는 10A에서 10B로 변경된 것으로 가정한다.
일 실시예로, 컨트롤러(150)는 P1a의 경로로 설정될 수 있다. 즉, 장애물(FO)이 더 이상 관측되지 않는 시점에서의 타겟 대상체(10B)의 위치를 기초로, 컨트롤러(150)는 최적의 제1 경로(P1a)를 재설정할 수 있다.
다른 실시에로, 컨트롤러(150)는 P1b의 경로로 설정될 수 있다. 상세히, 컨트롤러(150)는 장애물(FO)이 더 이상 관측 되지 않는 시점에서, 타겟 대상체(10)가 10A에서 10B로 이동한 정보를 기초로, 소정의 이후에 타겟 대상체가 이동할 위치인 10C의 위치를 산출한다. 이후, 컨트롤러(150)는 타겟 대상체가 10C의 위치로 이동될 것을 예상하여, 최적의 제1 경로(제1b)를 재설정할 수 있다.
촬상 모듈(130)은 연속적으로 촬영된 복수의 프레임에서 장애물(FO)을 인식할 수 있다. 추종 장치(100)의 이동중에 촬상 모듈(130)은 연속적으로 전방을 촬영한다. 컨트롤러(150)는 복수개의 프레임을 비교하여, 특정 물체의 위치가 변화하는지를 감지하고, 특정 물체의 위치가 변화하지 않는다면 고정된 장애물(FO)로 인식할 수 있다.
본 발명에 일 실시예에 따른 추종 시스템(1) 및 추종 장치(100)는 촬상 모듈(130)에서 획득한 영상 데이터를 이용하여, 타겟 대상체(10)의 추종 중에 전방에 놓여진 장애물(FO)을 인식하고, 장애물(FO)을 신속하게 회피 할 수 있다. 고정된 장애물(FO)은 위치가 변화하지 않으므로, 추종 장치(100)는 멈추지 않고 추종 경로를 변경하여, 능동적으로 상황에 대응할 수 있다.
도 6은 도 1의 센서 모듈(140)의 구동을 보여주는 도면이다.
도 6을 참조하면, 추종 장치(100)는 센서 모듈(140)에서 이동 물체를 센싱하면, 구동 모듈을 정지한다. 이후, 센서 모듈(140)에서 측정된 데이터에서 이동 물체(MO)가 제거되면, 즉 센서 모듈(140)이 전방에 이동 물체(MO)가 없는 것으로 센싱하면, 컨트롤러는 다시 제1 경로로 구동 모듈(110)을 구동할 수 있다.
센서 모듈(140)은 추종 장치(100)의 전방을 센싱한다. 센서 모듈(140)은 타겟 대상체와 추종 장치(100)의 사이 공간에 이동 물체(MO)의 유무를 센싱할 수 있다.
일 예로, 센서 모듈(140)은 초음파 센서를 구비할 수 있다. 센서 모듈(140)은 이동 물체(MO)에서 반사된 파장을 측정하여, 전방에 이동 물체(MO)가 존재 하는지 확인할 수 있다.
추종 장치(100)는 이동 물체(MO)의 동선을 예측할 수 없으므로, 센서 모듈(140)에서 이동 물체(MO)가 확인되면, 컨트롤러(150)는 구동 모듈(110)을 멈춘다. 추종 장치(100)가 정지하므로, 추종 장치(100)의 주행으로 이동 물체(MO)에 부딪치는 사고를 예방할 수 있다.
센서 모듈(140)은 소정의 측정 반경을 가지며, 도 6에서와 같이 이동 물체(MO)가 MO-1에서 M0-2로 이동하더라도, 전방에 이동 물체(MO)가 있는 것으로 인식된다.
이후, 이동 물체(MO)가 MO-3으로 이동하여, 센서 모듈(140)에서 이동 물체(MO)가 센싱되지 않으면, 컨트롤러(150)는 다시 제1 경로(P1)로 구동 모듈(110)을 구동시킨다. 추종 장치(100)가 정지한 상태에서 타겟 대상체는 10A에서 10B로 이동하였으므로, 컨트롤러(150)는 구동 모듈(110)의 회전 속도를 높여서, 추종 장치(100)가 타겟 대상체(10)와 소정의 거리(D)를 유지하도록 할 수 있다.
다른 실시예로, 센서 모듈(140)은 촬상 모듈(130)에서 측정된 연속된 프레임에서 이동 물체(MO)를 측정할 수 있다.
본 발명에 일 실시예에 따른 추종 시스템(1) 및 추종 장치(100)는 센서 모듈(140)에서 측정된 데이터를 이용하여, 타겟 대상체(10)의 추종 중에 전방에 있는 이동 물체(MO)를 인식하고, 이동 물체(MO)가 사라질 때까지 추종 장치(100)를 멈추어서, 추종 장치(100)의 안전성을 높일 수 있다.
도 7은 본 발명의 다른 실시예에 따른 추종 장치의 추종 방법을 도시하는 순서도이고, 도 8은 도 7의 추종 장치의 추종 방법의 상세하게 도시하는 순서도이다.
도 7 및 도 8을 참조하면, 추종 장치의 추종 방법은, 측위 모듈에서 타겟 대상체와 추종 장치 사이의 거리를 측정하고, 컨트롤러에서 설정된 제1 경로로 상기 추종 장치를 이동시키는 단계와, 촬상 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 장애물을 센싱하면, 상기 컨트롤러에서 상기 제1 경로를 보정하여 상기 장애물을 회피하는 제2 경로를 설정하는 단계와, 상기 컨트롤러에서 상기 제2 경로로 상기 추종 장치를 이동시키는 단계, 및 상기 촬상 모듈에서 측정된 데이터에서 상기 장애물이 제거되면, 상기 컨트롤러에서 상기 제1 경로로 다시 상기 추종 장치를 이동시키는 단계를 포함한다.
또한, 추종 장치의 추종 방법은 센서 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 이동 물체를 센싱하면, 상기 컨트롤러에서 상기 추종 장치를 정지하는 단계와, 상기 센서 모듈에서 측정된 데이터에서 상기 이동 물체가 제거되면, 상기 컨트롤러에서 다시 상기 제1 경로로 상기 추종 장치를 이동시키는 단계를 더 포함할 수 있다.
추종 장치의 추종 방법은, 이동하는 타겟 대상체와 추종 장치의 거리를 측정하고, 제1 경로로 추종 장치가 이동한다(S10). 전술한 바와 같이, 타겟 대상체(10)의 타겟 노드(11)와 측위 모듈(120)의 측위 노드들 사이의 거리 정보를 기초로, 타겟 노드(11)의 정확한 위치를 측정한다. 이후, 컨트롤러(150)는 제1 경로를 설정하고, 제1 경로로 이동하도록 구동 모듈(110)을 제어한다.
촬상 모듈에서는 전방에 장애물의 여부를 센싱한다(S20). 촬상 모듈(130)은 영상 프레임을 분석하여, 추종 장치(100)와 타겟 대상체(10) 사이에 고정된 장애물(FO)이 존재하는지 센싱한다.
장애물이 있는 것으로 판단되면, 장애물을 회피하는 제2 경로를 설정한다(S21). 컨트롤러(150)는 촬상 모듈(130)에서 장애물(FO)이 관측되지 않도록, 추종 장치(100)의 경로를 제1 경로에서 제2 경로로 수정한다.
추종 장치는 제2 경로로 이동한다(S22). 컨트롤러(150)는 제2 경로로 추종 장치(100)가 이동하도록, 구동 모듈(110)을 조향 및 구동시킨다.
촬상 모듈(130)은 연속적으로 영상을 획득하고, 촬상 모듈(130)에서 장애물이 없는 것으로 확인되면, 컨트롤러(150)는 다시 제1 경로로 추종 장치(100)를 구동시킨다.
센서 모듈에서는 전방에 이동 물체의 유무를 센싱한다(S30). 센서 모듈에서 이동 물체가 있는 것으로 확인되면, 추종 장치는 정지한다(S31). 이동 물체(MO)의 동선은 예측할 수 없으므로, 추종 장치(100)의 안전성을 위해서 멈춘다.
센서 모듈(140)은 연속적으로 전방 물체를 센싱하고, 센서 모듈(140)에서 이동 물체(MO)가 없는 것으로 확인되면, 컨트롤러(150)는 다시 제1 경로로 추종 장치(100)를 구동시킨다.
또한, 추종 장치의 추종 방법은 상기 제1 경로로 상기 추종 장치를 이동시키는 단계는 상기 측위 모듈의 복수개의 측위 노드가 삼각 배열로 배치되며, 각 상기 측위 노드와 상기 타겟 대상체의 타겟 노드 사이의 거리를 측정하는 단계(S11), 상기 측위 노드와 상기 타겟 노드 사이의 거리에 대한 데이터를 기초로 상기타겟 노드의 위치 정보를 산출하는 단계(S12), 및 상기 추종 장치의 위치 정보와 상기 타겟 대상체의 위치 정보를 기초로, 상기 타겟 대상체와 상기 추종 장치 사이의 거리가 일정하게 상기 제1 경로를 설정하는 단계(S13)를 포함한다.
본 발명의 일 실시예에 따른 추종 장치의 추종 방법은 측위 모듈에 의해서 정확하게 타겟 대상체의 위치를 측정할 수 있다. 또한, 촬상 모듈에 의해서 고정된 장애물을 인식하고, 장애물을 피하도록 경로를 보정하여 능동적으로 대처할 수 있다. 또한, 센서 모듈에 의해서 이동하는 물체를 인식하고, 이동 물체가 사라질 때까지 추종 장치를 멈추어서, 안전성을 높일 수 있다.
도 9 내지 도 11은 도 1의 추종 시스템(1)의 성능 데이터를 보여주는 그래프이다.
도 9를 참조하면, 거리 측정 오차에 따른 측위 정확도를 살펴보면, 추종 장치(100)의 측위 모듈은 복수의 측위 노드가 직각 삼각형(Right-angled Triangle) 형태로 배치된 경우와 정삼각형(Equilateral Triangle) 형태로 배치된 경우 모두 선형적으로 증가하는 비례 관계를 보임을 확인할 수 있다.
도 10을 참조하면, 측위 노드의 거리(d)에 따른 측위 정확도를 살펴보면, 추종 장치(100)의 측위 모듈은 복수의 측위 노드가 직각 삼각형(Right-angled Triangle) 형태로 배치된 경우가 정삼각형(Equilateral Triangle) 형태로 배치된 경우보다 높은 정확도를 보인다. 또한, 직각 삼각형(Right-angled Triangle) 형태의 경우 선형적으로 반비례하는 관계를 가지는 반면, 정삼각형(Equilateral Triangle) 형태의 경우 비선형적으로 반비례하는 관계를 보임을 알 수 있다.
도 11을 참조하면, 추종 장치(100)와 타겟 대상체(10) 간의 거리에 따른 측위 정확도를 살펴보면, 추종 장치(100)의 측위 모듈은 복수의 측위 노드가 직각 삼각형(Right-angled Triangle) 형태로 배치된 경우가 정삼각형(Equilateral Triangle) 형태로 배치된 경우보다 높은 정확도를 보임을 확인할 수 있다.
이에 따라, 본 발명의 일 실시예에 따른 추종 시스템(1), 추종 장치(100) 및 추종 방법은 측위하고자 하는 영역에 다수의 측위 노드를 미리 설치하지 않고도 타겟 대상체(10)의 타겟 노드(11)의 위치를 정확하게 측정할 수 있다. 또한, 추종 시스템(1), 추종 장치(100) 및 추종 방법은 타겟 노드(11)의 위치를 산출하기 위한 연산이 복잡해 지는 것을 방지하면서 높은 정확도로 상기 타겟 노드(11)의 위치를 측정할 수 있다.
이와 같이 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
한편, 본 발명은 아래와 같이 기재된 국가연구개발사업에 의해 지원을 받는다.
[과제 1]
[과제고유번호] 2019010015
[정부 부처명] 과학기술정보통신부
[연구관리전문기관] 대구경북과학기술원
[연구사업명] 실시간 실내광역 측위기술개발
[연구과제명] 실시간 실내광역 측위기술개발
[주관기관] 대구경북과학기술원
[연구기간] 2019.01.01 ~ 2019.12.31
[과제 2]
[과제고유번호] 2019010014
[정부 부처명] 과학기술정보통신부
[연구관리전문기관] 대구경북과학기술원
[연구사업명] 미래자동차 수요기술개발 및 상용화
[연구과제명] 미래자동차 수요기술개발 및 상용화
[주관기관] 대구경북과학기술원
[연구기간] 2019.01.01 ~ 2019.12.31
[과제 3]
[과제고유번호] 2020010082
[정부 부처명] 과학기술정보통신부
[연구관리전문기관] 대구경북과학기술원
[연구사업명] 인간-로봇 증강교류를 위한 인간정보 처리 핵심 기술 연구
[연구과제명] 인간-로봇 증강교류를 위한 인간정보 처리 핵심 기술 연구
[주관기관] 대구경북과학기술원
[연구기간] 2020.01.01 ~ 2020.12.31
본 발명의 실시예에 따른 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법은, 추종 장치가 타겟 노드의 위치를 산출하는 연산이 복잡해 지는 것을 방지하면서, 높은 정확도로 타겟 노드의 위치를 측위할 수 있도록 이루어지는 점에서, 산업상 이용가능성이 현저하다.

Claims (9)

  1. 이동하는 타겟 대상체를 추종하는 추종 장치에 있어서,
    본체를 이동시키는 구동 모듈;
    상기 본체에 설치되며, 상기 타겟 대상체와 상기 추종 장치의 거리를 측정하는 측위 모듈;
    이동 중에 상기 타겟 대상체나 주변 환경을 촬영하는 촬상 모듈;
    상기 본체의 전방을 센싱하여, 상기 타겟 대상체와 상기 본체 사이에 이동 물체를 센싱하는 센서 모듈; 및
    상기 측위 모듈, 상기 촬상 모듈 및 상기 센서 모듈로부터 데이터를 전달받아, 상기 구동 모듈의 경로를 설정 및 구동을 제어하는 컨트롤러;를 포함하고,
    상기 측위 모듈은
    복수개의 측위 노드를 구비하며, 각각의 상기 측위 노드가 상기 타겟 대상체에 장착된 타겟 노드와의 거리를 측정하고,
    상기 복수개의 측위 노드는
    제1 측위 노드, 제2 측위 노드, 제3 측위 노드를 포함하고, 제2 측위 노드와 제3 측위 노드가 제1 측위 노드에 대해 서로 수직인 방향에 위치하여 직각 이등변삼각형의 배열을 갖고,
    상기 복수개의 측위 노드는
    상기 제1 측위 노드, 상기 제2 측위 노드 및 상기 제3 측위 노드와 정사각형의 배열을 갖는 제4 측위 노드를 더 포함하고,
    상기 컨트롤러는
    상기 제1 측위 노드, 상기 제2 측위 노드, 상기 제3 측위 노드 및 상기 제4 측위 노드 중 3개의 측위 노드를 이용해 상기 타겟 노드와의 거리를 측정하고, 나머지 측위 노드를 포함하는 3개의 측위 노드를 이용해 상기 측정된 거리를 적어도 1회 이상 검산 및 보정하는, 추종 장치.
  2. 제1 항에 있어서,
    상기 컨트롤러는
    상기 촬상 모듈에서 상기 타겟 대상체와 상기 본체 사이의 장애물을 촬상하면, 기 설정된 제1 경로를 보정하여 상기 장애물을 회피하는 제2 경로로 상기 구동 모듈을 구동하는, 추종 장치.
  3. 제1 항에 있어서,
    상기 컨트롤러는
    상기 측위 모듈에서 측정된 데이터를 기초로 설정된 제1 경로로 상기 구동 모듈을 구동시키되,
    상기 센서 모듈에서 상기 이동 물체를 센싱하면, 상기 구동 모듈을 정지시키는, 추종 장치.
  4. 제3 항에 있어서,
    상기 컨트롤러는
    상기 센서 모듈에서 측정된 데이터에서 상기 이동 물체가 제거되면, 다시 상기 제1 경로로 상기 구동 모듈을 구동하는, 추종 장치
  5. 제1 항에 있어서,
    상기 컨트롤러는
    상기 측위 모듈에서 측정된 데이터를 기초로, 상기 타겟 대상체와 상기 추종 장치 사이의 거리를 일정하게 유지되는 제1 경로로 상기 구동 모듈을 구동시키되,
    상기 촬상 모듈에서 전달받은 장애물에 관한 정보나 상기 센서 모듈로부터 전달받은 이동 물체에 관한 정보를 기초로, 상기 제1 경로와 다른 경로로 상기 구동 모듈을 구동 시키며,
    상기 장애물이나 상기 이동 물체가 제거되면 다시 상기 제1 경로로 상기 구동 모듈을 구동시키는, 추종 장치.
  6. 타겟 노드를 가지는 타겟 대상체; 및
    상기 타겟 대상체를 추종하는 추종 장치;를 포함하고,
    상기 추종 장치는
    본체를 이동시키는 구동 모듈;
    상기 본체에 설치되며, 상기 타겟 대상체와 상기 추종 장치의 거리를 측정하는 측위 모듈;
    이동 중에 상기 타겟 대상체나 주변 환경을 촬영하는 촬상 모듈;
    상기 본체의 전방을 센싱하여, 상기 타겟 대상체와 상기 본체 사이에 이동 물체를 센싱하는 센서 모듈; 및
    상기 측위 모듈, 상기 촬상 모듈 및 상기 센서 모듈로부터 데이터를 전달받아, 상기 구동 모듈의 경로를 설정 및 구동을 제어하는 컨트롤러;를 구비하고,
    상기 측위 모듈은
    복수개의 측위 노드를 구비하며, 각각의 상기 측위 노드가 상기 타겟 대상체에 장착된 타겟 노드와의 거리를 측정하고,
    상기 복수개의 측위 노드는
    제1 측위 노드, 제2 측위 노드, 제3 측위 노드를 포함하고, 제2 측위 노드와 제3 측위 노드가 제1 측위 노드에 대해 서로 수직인 방향에 위치하여 직각 이등변삼각형의 배열을 갖고,
    상기 복수개의 측위 노드는
    상기 제1 측위 노드, 상기 제2 측위 노드 및 상기 제3 측위 노드와 정사각형의 배열을 갖는 제4 측위 노드를 더 포함하고,
    상기 컨트롤러는
    상기 제1 측위 노드, 상기 제2 측위 노드, 상기 제3 측위 노드 및 상기 제4 측위 노드 중 3개의 측위 노드를 이용해 상기 타겟 노드와의 거리를 측정하고, 나머지 측위 노드를 포함하는 3개의 측위 노드를 이용해 상기 측정된 거리를 적어도 1회 이상 검산 및 보정하는, 추종 시스템.
  7. 측위 모듈에서 타겟 대상체와 추종 장치 사이의 거리를 측정하고, 컨트롤러에서 설정된 제1 경로로 상기 추종 장치를 이동시키는 단계;
    촬상 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 장애물을 센싱하면, 상기 컨트롤러에서 상기 제1 경로를 보정하여 상기 장애물을 회피하는 제2 경로를 설정하는 단계;
    상기 컨트롤러에서 상기 제2 경로로 상기 추종 장치를 이동시키는 단계; 및
    상기 촬상 모듈에서 측정된 데이터에서 상기 장애물이 제거되면, 상기 컨트롤러에서 상기 제1 경로로 다시 상기 추종 장치를 이동시키는 단계;를 포함하고,
    상기 측위 모듈은
    복수개의 측위 노드를 구비하며, 각각의 상기 측위 노드가 상기 타겟 대상체에 장착된 타겟 노드와의 거리를 측정하고,
    상기 복수개의 측위 노드는
    제1 측위 노드, 제2 측위 노드, 제3 측위 노드를 포함하고, 제2 측위 노드와 제3 측위 노드가 제1 측위 노드에 대해 서로 수직인 방향에 위치하여 직각 이등변삼각형의 배열을 갖고,
    상기 복수개의 측위 노드는
    상기 제1 측위 노드, 상기 제2 측위 노드 및 상기 제3 측위 노드와 정사각형의 배열을 갖는 제4 측위 노드를 더 포함하고,
    상기 컨트롤러는
    상기 제1 측위 노드, 상기 제2 측위 노드, 상기 제3 측위 노드 및 상기 제4 측위 노드 중 3개의 측위 노드를 이용해 상기 타겟 노드와의 거리를 측정하고, 나머지 측위 노드를 포함하는 3개의 측위 노드를 이용해 상기 측정된 거리를 적어도 1회 이상 검산 및 보정하는, 추종 장치의 추종 방법.
  8. 제7 항에 있어서,
    센서 모듈에서 상기 타겟 대상체와 상기 추종 장치 사이에 이동 물체를 센싱하면, 상기 컨트롤러에서 상기 추종 장치를 정지하는 단계; 및
    상기 센서 모듈에서 측정된 데이터에서 상기 이동 물체가 제거되면, 상기 컨트롤러에서 다시 상기 제1 경로로 상기 추종 장치를 이동시키는 단계;를 더 포함하는, 추종 장치의 추종 방법.
  9. 제7 항에 있어서,
    상기 제1 경로로 상기 추종 장치를 이동시키는 단계는,
    상기 측위 모듈의 복수개의 측위 노드가 삼각 배열로 배치되며, 각 상기 측위 노드와 상기 타겟 대상체의 타겟 노드 사이의 거리를 측정하는 단계;
    상기 측위 노드와 상기 타겟 노드 사이의 거리에 대한 데이터를 기초로 상기타겟 노드의 위치 정보를 산출하는 단계; 및
    상기 추종 장치의 위치 정보와 상기 타겟 대상체의 위치 정보를 기초로, 상기 타겟 대상체와 상기 추종 장치 사이의 거리가 일정하게 상기 제1 경로를 설정하는 단계;를 포함하는, 추종 장치의 추종 방법.
PCT/KR2021/001411 2020-02-06 2021-02-03 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법 WO2021158009A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21750214.5A EP4102459A4 (en) 2020-02-06 2021-02-03 TRACKING DEVICE, TRACKING SYSTEM THEREFOR AND TRACKING METHOD FOR A TRACKING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200014356A KR102169922B1 (ko) 2020-02-06 2020-02-06 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법
KR10-2020-0014356 2020-02-06

Publications (1)

Publication Number Publication Date
WO2021158009A1 true WO2021158009A1 (ko) 2021-08-12

Family

ID=73006118

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/001411 WO2021158009A1 (ko) 2020-02-06 2021-02-03 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법

Country Status (3)

Country Link
EP (1) EP4102459A4 (ko)
KR (1) KR102169922B1 (ko)
WO (1) WO2021158009A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115103117A (zh) * 2022-06-20 2022-09-23 四川新视创伟超高清科技有限公司 基于二维坐标投影的运动目标快速追踪方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102169922B1 (ko) * 2020-02-06 2020-10-26 재단법인대구경북과학기술원 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법
KR102643848B1 (ko) 2022-12-29 2024-03-07 주식회사 짐보로보틱스 박스형 위치기반 추종 이송로봇 및 위치기반 추종 로봇군
KR102669094B1 (ko) 2022-12-29 2024-05-29 주식회사 짐보로보틱스 트레일러형 위치기반 추종 이송로봇 및 위치 기반 추종 로봇군
KR102641788B1 (ko) 2023-11-06 2024-02-28 주식회사 짐보로보틱스 사용자의 움직임 파악 방법 및 그 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086589A (ko) * 2009-01-23 2010-08-02 성균관대학교산학협력단 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법
KR20120018247A (ko) * 2010-08-20 2012-03-02 엘지전자 주식회사 진공 청소기
KR20180094329A (ko) * 2017-02-15 2018-08-23 제주대학교 산학협력단 대상체를 추종하는 방법 및 디바이스
KR20190057880A (ko) * 2017-11-21 2019-05-29 주식회사 티티엔지 정확한 위치정보를 기반으로 자율주행이 가능한 골프카트 시스템 및 그 시스템을 이용한 골프카트 제어방법
KR20190064252A (ko) * 2017-11-30 2019-06-10 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102169922B1 (ko) * 2020-02-06 2020-10-26 재단법인대구경북과학기술원 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086589A (ko) * 2009-01-23 2010-08-02 성균관대학교산학협력단 지그비의 수신신호세기를 이용한 지능형 이동로봇의 이동 대상물 추적 제어 장치 및 그 방법
KR20120018247A (ko) * 2010-08-20 2012-03-02 엘지전자 주식회사 진공 청소기
KR20180094329A (ko) * 2017-02-15 2018-08-23 제주대학교 산학협력단 대상체를 추종하는 방법 및 디바이스
KR20190057880A (ko) * 2017-11-21 2019-05-29 주식회사 티티엔지 정확한 위치정보를 기반으로 자율주행이 가능한 골프카트 시스템 및 그 시스템을 이용한 골프카트 제어방법
KR20190064252A (ko) * 2017-11-30 2019-06-10 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102169922B1 (ko) * 2020-02-06 2020-10-26 재단법인대구경북과학기술원 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4102459A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115103117A (zh) * 2022-06-20 2022-09-23 四川新视创伟超高清科技有限公司 基于二维坐标投影的运动目标快速追踪方法
CN115103117B (zh) * 2022-06-20 2024-03-26 四川新视创伟超高清科技有限公司 基于二维坐标投影的运动目标快速追踪方法

Also Published As

Publication number Publication date
EP4102459A1 (en) 2022-12-14
EP4102459A4 (en) 2024-02-28
KR102169922B1 (ko) 2020-10-26

Similar Documents

Publication Publication Date Title
WO2021158009A1 (ko) 추종 장치, 이를 포함하는 추종 시스템 및 추종 장치의 추종 방법
WO2017008224A1 (zh) 一种移动物体的距离检测方法、装置及飞行器
WO2018008808A1 (ko) 개별구동 자주식 대차 및 관성항법장치를 구비한 터널 검사 시스템
WO2020151038A1 (zh) 割草机器人视觉避障方法、机器人、控制装置、存储介质
WO2019135437A1 (ko) 안내 로봇 및 그의 동작 방법
EP3829832A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2011013862A1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
WO2017196062A1 (en) Distance sensor, and calibration method performed by device and system including the distance sensor
WO2019103213A1 (ko) 정확한 위치정보를 기반으로 자율주행이 가능한 골프카트 시스템 및 그 시스템을 이용한 골프카트 제어방법
WO2015194868A1 (ko) 광각 카메라가 탑재된 이동 로봇의 주행을 제어하기 위한 장치 및 그 방법
WO2015147371A1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
EP3668768A1 (en) Device and method for assisting with driving of vehicle
WO2016200185A1 (ko) 3차원 스캐닝 시스템 및 이를 위한 라인레이저 정렬용 표적기구
WO2014027718A1 (ko) 차량의 경로 변경을 판정하는 내비게이션 시스템
WO2021158062A1 (ko) 이동수단의 위치인식방법 및 위치인식시스템
EP2707266A2 (en) Parking camera system and method of driving the same
WO2020241950A1 (ko) 이동 로봇 및 그 제어방법
WO2020226187A1 (ko) 다중 센서 및 인공지능에 기반하여 맵을 생성하고 맵을 이용하여 주행하는 로봇
WO2014027714A1 (ko) 영상 인식 정보를 이용한 경로 변경 판정 시스템 및 방법
WO2020218644A1 (ko) 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
WO2017073924A1 (ko) 수중 구조물의 용접라인을 이용한 수중 작업 장치의 위치 파악 시스템 및 방법
WO2019199112A1 (ko) 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
WO2022039404A1 (ko) 광시야각의 스테레오 카메라 장치 및 이를 이용한 깊이 영상 처리 방법
WO2020027611A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2020230931A1 (ko) 다중 센서 및 인공지능에 기반하여 맵을 생성하고 노드들의 상관 관계를 설정하며 맵을 이용하여 주행하는 로봇 및 맵을 생성하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21750214

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021750214

Country of ref document: EP

Effective date: 20220906