WO2018070686A1 - 공항용 안내 로봇 및 그의 동작 방법 - Google Patents

공항용 안내 로봇 및 그의 동작 방법 Download PDF

Info

Publication number
WO2018070686A1
WO2018070686A1 PCT/KR2017/010440 KR2017010440W WO2018070686A1 WO 2018070686 A1 WO2018070686 A1 WO 2018070686A1 KR 2017010440 W KR2017010440 W KR 2017010440W WO 2018070686 A1 WO2018070686 A1 WO 2018070686A1
Authority
WO
WIPO (PCT)
Prior art keywords
airport
image
guide robot
robot
unit
Prior art date
Application number
PCT/KR2017/010440
Other languages
English (en)
French (fr)
Inventor
신용민
김형록
김강욱
김동훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US16/340,295 priority Critical patent/US20200088524A1/en
Publication of WO2018070686A1 publication Critical patent/WO2018070686A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a robot disposed in an airport and a method of operation thereof.
  • it provides an airport guide robot that is arranged in the airport to provide a destination guidance service to the user.
  • the present invention relates to an airport guide robot that provides a road guide service displaying a front screen while accommodating users to a real destination.
  • Deep learning is a field of machine learning. Deep learning is not a method of checking conditions and setting commands in advance, but a technique that allows a program to make similar judgments in various situations. Thus, deep learning allows computers to think similarly to the human brain, enabling the analysis of vast amounts of data.
  • Autonomous driving is a technology that allows the machine to move on its own and avoid obstacles.
  • the robot autonomously recognizes the position through the sensor and moves and avoids obstacles.
  • Automatic control technology refers to a technology that automatically controls the operation of the machine by feeding back the measured value of the machine state in the machine to the control device. Therefore, control without human operation is possible, and the target control object can be automatically adjusted to fall within the target range, that is, to the target value.
  • the Internet of Things is an intelligent technology and service that connects all things based on the Internet and communicates information between people and things, things and things.
  • Devices connected to the Internet by the Internet of Things are able to communicate autonomously, taking care of themselves without any help.
  • Robot applications are generally classified into industrial, medical, space, and submarine applications.
  • robots can perform repetitive tasks.
  • many industrial robots are already in operation that repeat the same movement for hours if the human arm is taught only once.
  • the technology that the camera is mounted on the robot has already been implemented a lot.
  • the robot can check the position or recognize the obstacle using the camera.
  • displaying the captured image on the display unit has been sufficiently implemented.
  • An object of the present invention is to avoid obstructing the user's view when providing a road guidance service while the robot for the airport to accompany.
  • Another object of the present invention is to provide an effective route guidance service to the users in the airport having a complicated geographical condition.
  • Still another object of the present invention is to provide an airport visitor with information around a destination, so that a simple picture or picture provides an image in an actual airport.
  • Still another object of the present invention is to prevent an error of missing a user when an airport robot provides a travel guide service.
  • the airport guide robot may include a camera and a display unit.
  • the airport guide robot may output a front image photographed by a camera to a display unit.
  • the following user may check the front image displayed on the display unit.
  • the airport guide robot according to the present invention may output navigation content based on the movement route to the display unit.
  • the following user can check the navigation content displayed on the display unit.
  • the airport guide robot may receive real-time CCTV imaging image data photographing the surroundings of the destination.
  • the airport guide robot may output CCTV photographing image data photographing the surroundings of the destination to the display unit.
  • the airport guide robot may mix the CCTV photographing image data and the main facility data around the destination and output the mixed information to the display unit.
  • the airport guide robot according to the present invention may sense the distance between a trailing user and the guide robot in real time using a camera or a sensor. And, the guide robot can adjust the moving speed in some cases.
  • the airport guide robot according to the present invention may output a front image photographed by a camera to a display unit. And the following user can check the front image displayed on the display unit. As a result, the trailing user can check the front image, and the effect of solving the problem of the front view being obscured by the robot.
  • the guide robot for an airport can display navigation contents while providing a companion service. As a result, a trailing user can easily grasp the path currently being moved.
  • the airport guide robot according to the present invention may mix the CCTV photographing image data and the main facility data around the destination and output them to the display unit. As a result, the user can easily grasp the information around the actual destination, and there is an effect to effectively visit the main facilities.
  • the guide robot for an airport can always maintain a constant distance by sensing a distance from a user in real time. As a result, in providing the road guidance service, the effect of preventing the missed user is obtained.
  • FIG. 1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
  • FIG. 2 is a view showing in detail the configuration of the micom and the AP of the airport robot according to another embodiment of the present invention.
  • FIG. 3 is a view for explaining the structure of the airport robot system according to an embodiment of the present invention.
  • FIG 4 is a view for explaining an example in which the guide robot according to an embodiment of the present invention to photograph the omnidirectional image in the airport through the omnidirectional camera.
  • 5 to 8 are views for explaining the omnidirectional camera mounted to the guide robot according to an embodiment of the present invention.
  • 9 and 10 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention outputs a part of the image captured by the omnidirectional camera to the display unit.
  • 11 to 13 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention receives a CCTV image and outputs it to a display unit.
  • 14 to 18 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention moves while maintaining a constant distance from the user, the wall, and the floor.
  • 19 to 21 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention is divided into zones to provide a road guide companion service.
  • 22 is a block diagram showing the configuration of a guide robot for an airport according to an embodiment of the present invention.
  • FIG. 1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
  • the hardware of the airport robot 100 may be composed of a micom group and an AP group.
  • the microcomputer 110 group may include a microcomputer 110, a power supply unit 120, an obstacle recognition unit 130, and a driving driver 140.
  • the AP group may include the AP 150, the user interface unit 160, the object recognition unit 170, the location recognition unit 180, and the LAN 190.
  • the user interface unit 160 may be referred to as a communication unit.
  • the microcomputer 110 may manage a power supply unit 120 including a battery, an obstacle recognition unit 130 including various sensors, and a driving driver 140 including a plurality of motors and wheels among hardware of the airport robot. .
  • the power supply unit 120 may include a battery driver 121 and a lithium-ion battery 122.
  • the battery driver 121 may manage charging and discharging of the lithium-ion battery 122.
  • the lithium-ion battery 122 may supply power for driving the airport robot.
  • the lithium-ion battery 122 may be configured by connecting two 24V / 102A lithium-ion batteries in parallel.
  • the obstacle recognition unit 130 may include an IR remote control receiver 131, a USS 132, a Cliff PSD 133, an ARS 134, a Bumper 135, and an OFS 136.
  • the IR remote control receiver 131 may include a sensor for receiving a signal of an infrared (IR) remote controller for remotely controlling the airport robot.
  • the USS (Ultrasonic sensor) 132 may include a sensor for determining a distance between the obstacle and the airport robot using an ultrasonic signal.
  • Cliff PSD 133 may include a sensor for detecting cliffs or cliffs in the airport robot driving range of 360 degrees.
  • Attitude Reference System (ARS) 134 may include a sensor for detecting a posture of an airport robot.
  • the ARS 134 may include a sensor composed of three axes of acceleration and three axes of gyro for detecting the amount of rotation of the airport robot.
  • Bumper 135 may include a sensor for detecting a collision between the airport robot and the obstacle. The sensor included in the bumper 135 may detect a collision between the airport robot and the obstacle in a 360 degree range.
  • OFS Optical Flow Sensor, 1366
  • OFS Optical Flow Sensor
  • the driving unit 140 may include a motor driver 141, a wheel motor 142, a rotation motor 143, a main brush motor 144, a side brush motor 145, and a suction motor 146. It may include.
  • the motor driver 141 may serve to drive a wheel motor, a brush motor, and a suction motor for driving and cleaning the airport robot.
  • the wheel motor 142 may drive a plurality of wheels for driving the airport robot.
  • the rotary motor 143 may be driven for left and right rotation and up and down rotation of the main body of the airport robot or the head of the airport robot, or may be driven to change the direction or rotate the wheels of the airport robot.
  • the main brush motor 144 may drive a brush for sweeping up dirt from the airport floor.
  • the side brush motor 145 may drive a brush that sweeps up dirt in an area around an outer surface of the airport robot.
  • the suction motor 146 may be driven to suction dirt from the airport floor.
  • the application processor 150 may function as a central processing unit for managing the entire hardware module system of the airport robot.
  • the AP 150 may transmit the application program for driving and the user input / output information to the microcomputer 110 by using the location information input through various sensors to drive the motor.
  • the user interface unit 160 may include a UI processor 161, an LTE router 162, a WIFI SSID 163, a microphone board 164, a barcode reader 165, a touch monitor 166, and the like. It may include a speaker 167.
  • the user interface processor 161 may control an operation of a user interface unit that is responsible for input / output of a user.
  • the LTE router 162 may perform LTE communication for receiving necessary information from the outside and transmitting information to the user.
  • the WIFI SSID 163 may analyze the signal strength of the WiFi to perform location recognition of a specific object or an airport robot.
  • the microphone board 164 may receive a plurality of microphone signals, process the voice signal into voice data which is a digital signal, and analyze the direction of the voice signal and the corresponding voice signal.
  • the barcode reader 165 may read barcode information written in a plurality of tickets used at an airport.
  • the touch monitor 166 may include a touch panel configured to receive a user input and a monitor for displaying output information.
  • the speaker 167 may serve to inform the user of specific information by voice.
  • the object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173.
  • the 2D camera 171 may be a sensor for recognizing a person or an object based on the 2D image.
  • RGBD camera Red, Green, Blue, Distance, 172
  • the recognition data processing module 173 may recognize a person or an object by processing a signal such as a 2D image / image or a 3D image / image obtained from the 2D camera 171 and the RGBD camera 172.
  • the position recognition unit 180 may include a stereo board (Stereo B / D, 181), a rider (Lidar, 182), and a SLAM camera 183.
  • the SLAM camera Simultaneous Localization And Mapping camera, 183) can implement simultaneous location tracking and mapping technology.
  • the airport robot detects the surrounding environment information using the SLAM camera 183 and processes the obtained information to prepare a map corresponding to the mission execution space and estimate its absolute position.
  • the rider Light Detection and Ranging: Lidar, 182) is a laser radar, and may be a sensor that irradiates a laser beam and collects and analyzes backscattered light among light absorbed or scattered by an aerosol to perform position recognition.
  • the stereo board 181 may be in charge of data management for location recognition and obstacle recognition of the airport robot by processing and processing sensing data collected from the rider 182 and the SLAM camera 183.
  • the LAN 190 may communicate with the user input / output related user interface processor 161, the recognition data processing module 173, the stereo board 181, and the AP 150.
  • FIG. 2 is a view showing in detail the configuration of the micom and the AP of the airport robot according to another embodiment of the present invention.
  • the microcomputer 210 and the AP 220 may be implemented in various embodiments to control the recognition and behavior of the airport robot.
  • the microcomputer 210 may include a data access service module 215.
  • the data access service module 215 may include a data acquisition module 211, an emergency module 212, a motor driver module 213, and a battery manager module 214. It may include.
  • the data acquisition module 211 may acquire data sensed from a plurality of sensors included in the airport robot and transfer it to the data access service module 215.
  • the emergency module 212 is a module capable of detecting an abnormal state of the airport robot. When the airport robot performs a predetermined type of action, the emergency module 212 may detect that the airport robot has entered an abnormal state. Can be.
  • the motor driver module 213 may manage driving control of a wheel, a brush, and a suction motor for driving and cleaning the airport robot.
  • the battery manager module 214 may be responsible for charging and discharging the lithium-ion battery 122 of FIG. 1, and may transmit the battery status of the airport robot to the data access service module 215.
  • the AP 220 may receive various cameras, sensors, user inputs, and the like, and process the recognition of the airport robot.
  • the interaction module 221 synthesizes the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222 to manage the software that the user and the airport robot can interact with each other. May be a module.
  • the user interface module 222 receives a short distance command of a user such as a display unit 223 and a key, a touch screen, a reader, etc., which are monitors for providing current status and operation / information of the airport robot,
  • the user input may be received from a user input unit 224 receiving a remote signal such as a signal of an IR remote controller for remote control or receiving a user input signal from a microphone or a barcode reader.
  • the user interface module 222 may transfer user input information to a state machine module 225.
  • the state management module 225 having received the user input information may manage the overall state of the airport robot and issue an appropriate command corresponding to the user input.
  • the planning module 226 may determine start and end points / actions for a specific operation of the airport robot according to a command received from the state management module 225, and calculate which path the airport robot should move.
  • the navigation module 227 is responsible for the overall driving of the airport robot, and may cause the airport robot to travel according to the driving route calculated by the planning module 226.
  • the motion module 228 may perform operations of a basic airport robot in addition to driving.
  • the airport robot may include a location recognition unit 230.
  • the position recognizer 230 may include a relative position recognizer 231 and an absolute position recognizer 234.
  • the relative position recognition unit 231 may correct the movement amount of the airport robot through the RGM mono (232) sensor, calculate the movement amount of the airport robot for a predetermined time, and recognize the current environment of the current airport robot through the LiDAR 233. can do.
  • the absolute location recognition unit 234 may include a Wifi SSID 235 and a UWB 236.
  • the Wifi SSID 235 is a UWB sensor module for absolute position recognition of an airport robot, and is a WIFI module for estimating a current position through Wifi SSID detection.
  • the Wifi SSID 235 may recognize the location of the airport robot by analyzing the signal strength of the Wifi.
  • the UWB 236 may calculate the distance between the transmitter and the receiver to sense the absolute position of the airport robot.
  • the airport robot may include a map management module 240.
  • the map management module 240 may include a grid module 241, a path planning module 242, and a map partitioning module 243.
  • the grid module 241 may manage the grid-shaped map generated by the airport robot through the SLAM camera or the map data of the surrounding environment for location recognition previously input to the airport robot.
  • the path planning module 242 may be responsible for calculating a driving route of the airport robots in a map classification for collaboration between the plurality of airport robots.
  • the path planning module 242 may calculate a driving route to which the airport robot should move in an environment in which one airport robot operates.
  • the map segmentation module 243 may calculate the area to be in charge of each of the plurality of airport robots in real time.
  • Data sensed and calculated by the location recognition unit 230 and the map management module 240 may be transferred to the state management module 225 again.
  • the state management module 225 may instruct the planning module 226 to control the operation of the airport robot based on the data sensed and calculated by the location recognition unit 230 and the map management module 240.
  • FIG. 3 is a view for explaining the structure of the airport robot system according to an embodiment of the present invention.
  • An airport robot system may include a mobile terminal 310, a server 320, an airport robot 300, and a camera 330.
  • the mobile terminal 310 may transmit and receive data with the server 320 in the airport.
  • the mobile terminal 310 may receive airport-related data such as a flight time schedule, an airport map, and the like from the server 320.
  • the user may receive and obtain information necessary for the airport from the server 320 through the mobile terminal 310.
  • the mobile terminal 310 may transmit data such as a picture, a video, a message, etc. to the server 320.
  • a user may request a cleaning of a corresponding area by transmitting a lost picture to the server 320 to receive a lost child or by taking a picture of an area requiring cleaning in the airport with a camera and transmitting the picture to the server 320.
  • the mobile terminal 310 may transmit and receive data with the airport robot (300).
  • the mobile terminal 310 may transmit a signal for calling the airport robot 300, a signal for commanding to perform a specific operation, or an information request signal to the airport robot 300.
  • the airport robot 300 may move to the location of the mobile terminal 310 or perform an operation corresponding to the command signal in response to the call signal received from the mobile terminal 310.
  • the airport robot 300 may transmit data corresponding to the information request signal to the mobile terminal 310 of each user.
  • the airport robot 300 may serve as patrol, guidance, cleaning, quarantine, transport, etc. in the airport.
  • the airport robot 300 may transmit / receive a signal with the mobile terminal 310 or the server 320.
  • the airport robot 300 may transmit and receive a signal including the server 320 and the situation information in the airport.
  • the airport robot 300 may receive image information photographing each zone of the airport from the camera 330 in the airport. Therefore, the airport robot 300 may monitor the situation of the airport by combining the image information taken by the airport robot 300 and the image information received from the camera 330.
  • the airport robot 300 may receive a command directly from the user. For example, a command may be directly received from a user through an input for touching a display unit provided in the airport robot 300 or a voice input.
  • the airport robot 300 may perform an operation such as patrolling, guiding, cleaning, or the like according to a command received from a user, a mobile terminal 310, a server 320, or the like.
  • the server 320 may receive information from the mobile terminal 310, the airport robot 300, and the camera 330.
  • the server 320 may integrate and store and manage information received from each device.
  • the server 320 may transmit the stored information to the mobile terminal 310 or the airport robot 300.
  • the server 320 may transmit a command signal for each of the plurality of airport robot 300 disposed in the airport.
  • the camera 330 may include a camera installed in the airport.
  • the camera 330 may include a plurality of CCTV (closed circuit television) cameras, infrared thermal cameras, and the like installed in the airport.
  • the camera 330 may transmit the captured image to the server 320 or the airport robot 300.
  • FIG 4 is a view for explaining an example in which the guide robot according to an embodiment of the present invention to photograph the omnidirectional image in the airport through the omnidirectional camera.
  • the guide robot according to an embodiment of the present invention may photograph and store an image within a predetermined range by using an omnidirectional camera while traveling around a predetermined area in an airport.
  • the guide robot 400 may be equipped with an omnidirectional camera 410 on the upper side of the display unit.
  • the omnidirectional camera 410 may be referred to as a 360 degree camera.
  • the omnidirectional camera 400 may capture an image of a 360 degree region, that is, the omnidirectional region 415 within a predetermined distance.
  • the omnidirectional camera 410 will be described in detail later with reference to FIGS. 5 to 8.
  • 5 to 8 are views for explaining the omnidirectional camera mounted to the guide robot according to an embodiment of the present invention.
  • the omnidirectional camera 410 has a camera mounted therein, and some products adopt a rotary camera to rotate the camera to photograph an object.
  • the omnidirectional camera 410 equipped with the rotatable camera includes a camera position input unit 510 for outputting an analog signal indicating a relative position of the camera as shown in FIG. 5; An analog / digital converter 520 for digitally converting and outputting the analog signal; A controller 530 which determines a relative position of the camera with reference to the digitally converted data;
  • the display unit 540 may display an operation state of the controller 530.
  • the camera position input unit 510 transmits a signal indicating the relative position of the camera to the control unit 530 so that the control unit 530 determines the relative position of the camera and performs a corresponding operation.
  • the camera position input unit 510 is a omnidirectional camera. Each 410 may have a different configuration.
  • FIG. 6 is an exemplary view showing the configuration of a rotation angle recognition device of a rotary camera that can be included in the omnidirectional camera 410, a rotary camera 521 to rotate at a predetermined angle as shown therein; It may be configured as a camera position signal output unit 522 for outputting an analog signal according to the relative position of the rotary camera 521.
  • the rotating camera 521 transmits the captured image while rotating at a predetermined angle within 360 degrees to the control unit and outputs the image to the display unit 523, and the camera position signal output unit 522 is an analog indicating the relative position of the rotating camera 521.
  • the signal is output to the controller so that the controller determines the relative position of the camera.
  • FIG. 7 is an exemplary view illustrating an apparatus for recognizing whether or not the rotary camera of FIG. 6 is rotated. As shown in FIG. 531 may be turned on and off to output a high / low signal indicating a relative position of the camera to the controller.
  • the switch 531 When the switch 531 is located in the groove 534 of the rotating plate, it is turned off to output a high signal from the camera position signal output to the controller. Is output.
  • the omnidirectional camera 410 structure if the camera is initially set to shoot based on the front-facing state, the image output on the display when the camera is rotated to face the rear side will be seen as upside down. In order to correct this, the user can manually invert the image upside down.
  • FIG. 8 is an exemplary view showing the configuration of a rotation angle recognition device of a rotary camera included in the omnidirectional camera of the present invention, the camera 541 to rotate at a predetermined angle as shown therein;
  • a voltage output unit 542 connected to the rotating shaft of the camera 541 to divide and output the power voltage by a variable resistor whose resistance value is changed by rotation and a fixed resistor having a constant resistance value;
  • the controller 543 may be configured to digitally convert the voltage value of the voltage output unit 542 to calculate a rotation angle of the camera and to control an image display corresponding to the rotation angle.
  • the camera 541 rotates at a predetermined angle within a 360 degree range, and the rotation axis of the camera module and the rotation axis of the variable resistor 542 are connected.
  • the rotation axis of the variable resistor 542 may rotate to change the resistance value of the variable resistor 542.
  • the voltage output unit 542 may output a predetermined voltage value by distributing the power supply voltage by a variable resistor whose resistance value is changed by the rotation of the camera and a fixed resistor having a constant resistance value.
  • the controller 543 may digitally convert the voltage value of the voltage output unit 542 by an analog / digital converter to calculate the rotation angle of the camera and control the image display of the display unit 544 corresponding to the rotation angle.
  • the rotation angle of the camera 541 is equal to or greater than a predetermined reference angle, the image flipping of the display unit 544 may be determined and the input image of the camera 541 may be inverted.
  • 9 and 10 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention outputs a part of the image captured by the omnidirectional camera to the display unit.
  • the guide robot may provide a road guide companion service to a user in an airport. That is, the user may request the guidance robot from the current location to the specific destination in the airport.
  • the guide robot may provide a road guidance display service that informs the user of a moving route from the current location to a specific destination through a map or navigation.
  • the guide robot may provide a user with a road guide companion service that guides the road while directly walking from the current location to a specific destination. In this case, the guide robot may output a predetermined region of the image photographed by the omnidirectional camera to the display unit.
  • the user 920 may request a road guidance service from the guide robot 900.
  • the guide robot 900 may provide a road guide companion service to the user 920 in the airport.
  • the guide robot 900 may provide the user 920 with a road guidance display service that informs the user of the movement route from the current location to a specific destination through a map or navigation.
  • the guide robot 900 may provide a user with a road guide companion service that guides the road while directly walking from the current location to a specific destination.
  • the guide robot 900 may output a predetermined region of the image photographed by the omnidirectional camera 910 to the display unit.
  • the guide robot 900 may output an image 935 photographing an area including a front surface based on a moving direction to a display unit. Accordingly, when the user 920 is provided with a road guide companion service, the user 920 may eliminate the inconvenience of the frontal view being obscured by the guide robot 900.
  • the guide robot 900 provides a road guidance display service such as a map image or navigation as well as first content such as an image 935 of a predetermined region captured by the omnidirectional camera 910.
  • the second content 940 may also be output to the display unit.
  • the guide robot 900 may include a user interface such as a touch pad on the display unit.
  • the user 920 may change the second content by, for example, touching the display unit of the guide robot 900.
  • the second content may be a navigation image that displays a moving path that first travels to a destination.
  • the second content may be changed into a guide image of main facilities in the airport.
  • the second content may be changed to content related to the destination.
  • the navigation image indicating the moving path to the destination as the second content may be output again.
  • 11 to 13 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention receives a CCTV image and outputs it to a display unit.
  • a plurality of CCTVs 1111, 1112, and 1113 may be randomly disposed in an airport.
  • a plurality of CCTV (1111, 1112, 1113) can shoot the situation in the airport in real time.
  • the plurality of CCTVs 1111, 1112, and 1113 may transmit real-time captured image data to at least one airport robot 1101, 1102, 1103, 1104, 1105, and 1106.
  • At least one airport robot 1101, 1102, 1103, 1104, 1105, and 1106 may provide various services to airport users by using image data received from CCTV.
  • the plurality of CCTVs 1111, 1112, and 1113 may transmit real-time captured image data to a server.
  • At least one airport robot 1101, 1102, 1103, 1104, 1105, and 1106 may receive real-time captured image data captured by a specific CCTV from a server.
  • the guidance robot may receive and output real-time photographed image data captured by CCTV when providing a road guide companion service to a user.
  • the guide robot may process the real-time photographed image data captured by the CCTV and output the processed image.
  • the user 1120 may request a road guidance service from the guide robot 1100.
  • the guide robot 1100 may provide a road guide companion service to the user 1120 in the airport.
  • the guide robot 1100 may provide the user 1120 with a road guide display service that informs the user 1120 of a moving path from a current location to a specific destination through a map or navigation.
  • the guide robot 1100 may provide a user with a road guide companion service that guides the road while directly walking from the current location to a specific destination.
  • the guide robot 1100 may output a predetermined region of the image photographed by the omnidirectional camera 1110 to the display unit. For example, as illustrated in FIG. 12, the guide robot 1100 may output an image 1130 photographing an area including a front surface based on a moving direction to a display unit. Therefore, when the user 1120 is provided with a road guide companion service, the user 1120 may solve the inconvenience caused by the frontal view being obscured by the guide robot 1100.
  • the guide robot 1100 may capture not only the first content, such as the image 1130 of a predetermined region captured by the omnidirectional camera 1110, but also the real-time captured image 1140 captured by the CCTV 1115. Data can be processed and output to the display. At this time, the guide robot 1100 may proceed with the image data processing process of adding an indicator indicating the location of the current user 1120 in the real-time captured image 1140 taken by the CCTV 1115. Therefore, the guide robot 1100 may output the image photographed by the omnidirectional camera 1110 and the image photographed by the CCTV 1115 together with the display unit in providing a road guide companion service.
  • the guide robot 1100 may perform an image data processing process of adding an indicator indicating a main facility in a real-time captured image 1140 captured by the CCTV 1115. Therefore, when the user 1120 is provided with a road guide companion service, the user 1120 may be provided with an image 1130 for photographing a certain area ahead and a CCTV 1115 photographed image in which an indicator indicating a main facility is displayed.
  • 14 to 18 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention moves while maintaining a constant distance from the user, the wall, and the floor.
  • the guide robot can move while maintaining a constant distance from the user, the wall and the bottom surface at all times.
  • the guide robot 1400 may photograph the user 1420 in real time using the omnidirectional camera 1410.
  • the guide robot 1400 may measure the distance between the guide robot 1400 and the user 1420 in real time using the omnidirectional camera 1410.
  • the guide robot 1400 may measure the distance between the trailing user 1420 and the guide robot 1400 in real time using an infrared sensor. If the distance between the user 1420 and the guide robot 1400 is greater than a predetermined distance, the guide robot 1400 may adjust the distance by adjusting its speed or approaching the user 1420. have.
  • the guide robot 1400 may use a camera to avoid obstacles or obstacles in providing a road guide service to the user 1420.
  • the guide robot 1400 may maintain a constant distance from the wall surface using the omnidirectional camera 1410, or may be provided with a bottom surface photographing camera to maintain a constant distance from the floor surface.
  • the floor distance maintaining apparatus may be provided with a vacuum cleaning means to suck dust and the like on the floor.
  • the guide robot 1400 may include a distance measuring sensor 1500.
  • the distance measuring sensor 1500 detects a positional change of a point of a beam on a measuring surface that changes according to a distance change of a light source 1510 that emits a beam to the measuring surface and the measuring surface, and thus, between the light source 1510 and the measuring surface. The distance can be calculated.
  • the distance measuring sensor 1500 may include an image of a measurement surface including a light source 1510 emitting a beam in a direction spaced at a predetermined angle from a vertical direction of the measurement surface, and a point generated on the measurement surface by the light source 1510.
  • the distance calculator 1550 may be configured to calculate and output a distance between the light source 1510 and the measurement surface with reference to the information.
  • it may include a focusing lens for focusing the beam emitted from the light source 1510
  • the imaging unit 1520 may also include one or more lenses for photographing the measurement surface.
  • the light source 1510 may be formed of, for example, a light emitting element such as an LED or a laser pointer having a straightness, and is formed to irradiate a beam to the measurement surface in a direction spaced apart from the vertical direction of the measurement surface by a predetermined angle.
  • the beam emitted through the light source 1510 is preferably composed of a color that can be easily distinguished from the measurement surface.
  • the light source 1510 is installed at a predetermined angle vertically with respect to the imaging unit 1520 to emit a beam having a predetermined width, and the emitted beam reaches a measurement surface to generate a point.
  • the reason why the light source 1510 is installed at a predetermined angle vertically is to change the position of the point according to the change of the distance between the light source 1510 and the measurement surface.
  • the light source 1510 may include an LED and a light focusing unit for focusing light emitted from the LED into a beam having a predetermined width and straightness.
  • the light output from the LED is light emitted without linearity, and thus cannot generate a constant point on the measurement surface. Therefore, the light focusing unit may focus light emitted from the LED into a beam having a predetermined width and straightness.
  • the light focusing unit may be implemented in an array of one or more lenses, but in the preferred embodiment of the present invention, the light focusing unit may be coupled to the LED and may be configured as a cover in which holes of a predetermined size are formed. The cover is formed of a material that can not transmit light, and the light emitted from the LED is emitted through the hole so that the luggage having a straightness can be output by simply combining the cover.
  • the imaging unit 1520 may be an optical sensor that is formed parallel to the measurement surface and captures and outputs an image of the measurement surface including a point generated on the measurement surface by a beam emitted from the light source 1510.
  • the imaging unit 1520 may capture an image of a measurement plane including a point that varies according to a distance between the light source 1510 and the measurement plane, and output the captured image to the point position calculator 1530.
  • the point position calculator 1530 receives the measurement plane image output through the imaging unit 1520, extracts a point in the measurement plane image, and extracts the point from the measurement plane image.
  • the position information is calculated and the calculated position information is output to the distance calculator 1550.
  • the point position calculator 1530 extracts a point generated by a beam having a color different from that of the measurement plane using a color information difference from the measurement plane, and calculates a position at which the point is generated in the measurement plane image.
  • the location information may be transmitted to the distance information calculator.
  • the distance information table 1540 may be, for example, a flash memory having a compact size and capable of reading and writing.
  • the distance information table 1540 may store distance information between the light source 1510 and the measurement plane corresponding to each point location in the measurement plane image calculated by the experiment. The data thus stored may be access controlled by the distance calculator 1550.
  • the distance calculator 1550 receives the location information of the point output from the point location calculator 1530, accesses the distance between the corresponding light source 1510 and the measurement surface using the distance information from the distance information table. This can be provided.
  • the distance calculator 1550 calculates distance information between the light source 1510 and the measurement plane through the correlation of the positional change of the point according to the distance change between the light source 1510 and the measurement plane. As described above, the distance-specific distance information of the point is sampled, and the measured information calculated by the experiment is sampled and stored in the distance information table 1540, and the distance calculator 1550 is determined by the corresponding point position calculator 1530. Distance information corresponding to the location information may be accessed and output from the distance information table 1540 using the calculated location information of the point.
  • the guide robot 1600 may include a vacuum cleaning unit 1620 for performing floor cleaning together with a driving module near the floor.
  • the guide robot 1600 irradiates a beam to a measurement plane to detect and output a measurement plane image including a point generated by the beam, and a measurement plane 1610 and a measurement plane output from the distance measurement sensor 1610.
  • the microcomputer 1670 may be configured to calculate a distance between the distance measuring sensor 1610 and the measurement surface according to a change in the position of the beam point in the image.
  • the distance measuring sensor 1610 detects and outputs a measurement surface image including a point generated by the beam by irradiating the beam to the measurement surface, and emits the beam in a direction spaced at a predetermined angle from the vertical direction of the measurement surface.
  • an imaging unit 1612 for capturing and outputting a measurement plane image including the beam point generated on the measurement plane by the beam irradiated from the light source 1611 and outputting it to the microcomputer 1670.
  • it may include a focusing lens for focusing the beam emitted from the light source 1611, and the imaging unit 1612 may also include one or more lenses for photographing the measurement surface.
  • the light source 1611 may be configured of, for example, a light emitting device such as an LED or a laser pointer having straightness, and is formed to irradiate a beam to the measurement surface in a direction spaced apart from the vertical direction of the measurement surface by a predetermined angle.
  • the beam emitted through the light source 1611 is preferably composed of a color that can be easily distinguished from the measurement surface.
  • the light source 1611 is installed at an angle perpendicular to the imaging unit 1612 at a predetermined angle to emit a beam having a predetermined width, and the emitted beam reaches a measurement surface to generate a point.
  • the reason why the light source 1611 is installed at a predetermined angle vertically is to change the position of the point according to the change of the distance between the light source 1611 and the measurement surface.
  • the imaging unit 1612 may be an optical sensor that is formed in parallel with the measurement plane and captures and outputs an image of the measurement plane including points generated on the measurement plane by a beam emitted from the light source 1611.
  • the imaging unit 1612 may capture an image of a measurement plane including a point that varies depending on a distance between the light source 1611 and the measurement plane, and output the image to the microcomputer 1670.
  • the guide robot 1600 of Figure 16 includes a dust detection sensor for detecting dust or foreign matter in the cleaning area, the suction means 1621 for sucking the dust or foreign matter detected by the dust detection sensor, and suction Vacuum cleaning means 1620 including dust storage means 1622 for storing dust and foreign matter collected by the means 1641, traveling means 1630 for driving the cleaning robot 1600, and vacuum cleaning means ( 1620 and the battery 1640 for supplying driving power to the driving means 1630, and a battery sensing circuit for detecting a remaining amount of the battery 1640 every predetermined period and outputting a battery charge request signal when the value is less than or equal to a predetermined value ( 1650, a driving program of the cleaning robot 1600 is stored, a memory 1660 in which position information of the charging station calculated from the guide signal is stored, and an input unit 1680 for receiving a user's operation command and driving of the cleaning robot. It may include a display unit (1690) that displays the status.
  • the memory 1660 is configured of, for example, a nonvolatile memory device such as an EEPROM or a flash memory, and stores an operating program for driving the guide robot 1600. Further, according to a characteristic aspect of the present invention, the memory 1660 stores distance information for each point position in the measurement plane image. As described above, the distance information for each point position of the point is sampled and stored. This data is then access controlled by the microcomputer 1670.
  • a nonvolatile memory device such as an EEPROM or a flash memory
  • the driving means 1630 drives the mobile robot 1600 by driving the right wheel and left wheel motors 1621 and 1622 according to a control signal output from the microcomputer 1670.
  • the right wheel and left wheel motors 1621 and 1622 of the driving means 1630 may be connected to the left / right wheels for driving the mobile robot 1600. Accordingly, the mobile robot 1600 may travel back, front, left, and right according to the rotation speeds and the rotation directions of the right and left wheel motors 1621 and 1622.
  • the microcomputer 1670 controls the overall apparatus of the mobile robot 1600 according to an operating program stored in the memory 1660, and the distance measuring sensor according to the position change of the beam point in the measurement plane image output from the distance measuring sensor 1610 ( 1610) and the distance between the measurement surface is calculated, and the driving direction is reset if necessary according to the calculated distance information.
  • the function of the microcomputer 1670 is one of the functional modules of an operating program mounted on the mobile robot 1600, and can be simply implemented in a software language.
  • the microcomputer 1670 receives the measurement surface image output from the driving control unit 1701 and the distance measuring sensor 1610 to control the driving of the driving means 1630, extracts a point, and calculates the extracted point position.
  • the distance calculation unit 1682 and the distance information corresponding to the point position information are referred to by the memory 1660 through the position information calculated by the point position calculator 1672 between the distance measuring sensor 1610 and the measurement surface. It may be configured to include a distance calculator 1673 for calculating the distance.
  • the driving control unit 1671 may control the driving means 1630 for driving the mobile robot 1600 according to a control command output from an operation program of the mobile robot 1600.
  • the point position calculation unit 1672 receives the measurement plane image output through the imaging unit 1612, extracts a point in the measurement plane image, and calculates the position information in the measurement plane image of the extracted point. The information is output to the distance calculator 1673.
  • the point position calculator 1672 extracts a point generated by a beam having a color different from that of the measurement plane using a color information difference from the measurement plane, and calculates a position at which the point is generated in the measurement plane image.
  • the location information may be transmitted to the distance information calculator.
  • the distance calculator 1673 receives the location information of the point output from the point location calculator 1672, and accesses the distance between the corresponding light source 1611 and the measurement surface using the distance information from the memory 1660. And output it.
  • the guide robot 1600 according to the present invention is installed on the bottom of the above-described distance measuring sensor 1610 to move with the obstacle and the floor surface through the distance information measured by the distance calculator 1673 It is possible to leave the corresponding area by determining an impossible region to perform a task such as a threshold in which the height between the robots 1600 varies. Accordingly, the microcomputer 1670 according to the present invention determines that the distance between the measurement planes calculated by the distance calculator 1673 is out of a predetermined error range as an obstacle, and resets the driving direction so as to travel according to the reset driving direction.
  • the apparatus may further include a driving direction setting unit 1674 which outputs a control signal to the driving control unit 1671.
  • the driving direction setting unit 1674 receives the distance information output from the distance calculating unit 1673, determines whether the driving direction is within an error range of the preset reference distance information, and when the deviation is out of the error range of the predetermined reference distance information, the corresponding guide.
  • the driving controller 1701 determines that the area in which the robot 1600 is driven is a mission impossible area or an obstacle area, resets the driving direction so as to leave the area, and drives the guide robot 1600 according to the reset driving direction. Can output a control signal.
  • the guide robot 1600 calculates accurate distance information between the guide robot 1600 and the floor surface through the distance measuring sensor 1610 capable of measuring the ultra close distance, and thus the area where the height varies according to the structure. Can be judged more accurately, and it can be avoided.
  • the guide robot 1600 according to the present invention is installed at the side of the guide robot 1600 by the above-mentioned distance measuring sensor 1610 at a predetermined distance from the wall surface during wall following driving (wall following) Allow yourself to drive.
  • the driving direction setting unit 1674 of the microcomputer 1670 according to the present invention compares the distance with the measured surface calculated by the distance calculator 1673 with the set distance information and sets the distance with the measured surface.
  • the driving direction may be reset so as to remain within the error range of the control unit, and a control signal may be output to the driving control unit 1671 to travel in accordance with the reset driving direction.
  • the driving direction setting unit 1674 receives distance information between the guide robot 1600 and the wall surface output from the distance calculating unit 1673 and determines whether the driving direction setting unit is within an error range of preset reference distance information. If within the error range of the guide robot 1600 to maintain the direction of travel, if outside the error range to reset the travel direction of the guide robot 1600 so that the distance to the wall is maintained within the error range of the set reference distance information The control signal may be output to the driving controller 1701 so that the guide robot 1600 may travel in accordance with the reset driving direction.
  • the guide robot 1600 calculates accurate distance information between the guide robot 1600 and the wall through the distance measuring sensor 1610 capable of measuring the ultra close distance, and is constant during the wall following the driving along the wall. It has the advantage of being able to drive at intervals.
  • the guidance robot 1600 causes the above-mentioned distance measuring sensor 1610 to notify the server or the administrator when it is in an unmeasurable situation. Accordingly, the microcomputer 1670 according to the present invention notifies the server or administrator of the measurement error through the speaker 1700 or the display unit 1690 when the point does not exist in the measurement plane image by the point position calculator 1672.
  • the measurement error notification unit 1675 may be further included.
  • the point position calculator 1672 extracts a point from an image of the measurement plane transmitted from the imaging unit 1612. If the point does not exist in the image of the measurement plane and cannot calculate the position of the point, a measurement error notification unit ( 1675) can output an error signal. If a point does not exist in the image of the measurement plane, it may be determined that the distance between the distance sensor 1610 and the measurement plane is out of the imaging area of the imaging unit 1612. Accordingly, the measurement error notification unit 1675 may receive an error signal and output voice or graphic data through the speaker 1700 or the display unit 1690 of the guide robot 1600 to notify the user of the measurement error. have.
  • FIG. 17 is a flowchart schematically illustrating a driving process of a guide robot according to an exemplary embodiment of the present invention.
  • a driving method of a guide robot traveling along a wall surface is provided at a side surface of the guide robot 1600 and outputs a wall image including a point generated by a beam irradiated to the wall surface.
  • Calculating the distance between the distance measuring sensor 1610 and the wall surface by referring to the memory 1660 in which the distance information for each point location is stored, and comparing the calculated distance between the wall surface with the preset distance information to guide the robot 1600. ) And reset the driving direction so that the distance between the wall and the wall remains within the error range of the set distance information. It is configured to include a step of outputting a control signal.
  • the driving method of the guide robot 1600 is a step of notifying the user of the measurement error through the speaker 1700 or the display unit 1690 when the point is not extracted from the floor image It may further include.
  • the guide robot 1600 starts the road guide companion service together with the road guide display service as described above (S1703).
  • the microcomputer 1670 may transmit a driving command to one or more distance measuring sensors 1610 provided on the bottom surface of the guide robot 1600 (S1705).
  • the distance measuring sensor 1610 irradiates the floor surface with a beam having a predetermined width through the light source 1611 according to the driving command, and the image capturer 1612 generates a floor image including a point generated on the floor surface by the beam.
  • the image may be captured and output to the point position calculator 1672 of the microcomputer 1670 (S1707).
  • the point position calculator 1672 receives a floor image output from the distance measuring sensor 1610, extracts a point in the floor image, and calculates position information in the measured surface image of the extracted point. Information may be output to the distance calculator 1673 (S1713).
  • the distance calculator 1673 receives the location information of the point output from the point location calculator 1672, and accesses the distance between the corresponding light source 1611 and the measurement surface using the distance information from the memory 1660.
  • the driving direction setting unit 1674 may output the driving direction setting unit 1674.
  • the driving direction setting unit 1674 receives the distance information output from the distance calculating unit 1673 and determines whether the driving direction setting unit is within an error range of the preset reference distance information (S1717). Maintain driving (S1723), if the deviation of the set reference distance information is out of the error range of the mobile robot 1600 is determined to be a non-mission area or obstacle area, reset the driving direction to leave the area and In operation S1719, a control signal may be output to the driving controller 1701 such that the guide robot 1600 travels according to the reset driving direction in operation S1721.
  • the mobile robot 200 stops the driving (S125). In the case of resetting the driving direction, a movement route for guiding a road may be newly calculated.
  • the point position calculation unit 1672 fails to calculate the position of the point because the point does not exist in the image of the bottom surface transmitted from the imaging unit 1612 (S1709), an error signal is sent to the measurement error notification unit 1675.
  • the measurement error notification unit 1675 receives the error signal and outputs voice or graphic data through the speaker 1700 or the display unit 1690 included in the guide robot 1600 to notify the server or administrator of the measurement error. It may be (S1711).
  • a driving method for guiding a road of a guide robot according to the present invention includes a distance provided on a side surface of the guide robot 1600 and outputting a wall image including a point generated by a beam irradiated to a wall.
  • the driving method of the mobile robot 1600 according to the present invention is to notify the server or the user of a measurement error through the speaker 1700 or the display unit 1690 when a point is not extracted from the wall image. It may further comprise a step.
  • the guide robot 1600 starts the road guide companion service by using the wall driving along with the road guide display service as described above (S1803).
  • the microcomputer 1670 may transmit a driving command to one or more distance measuring sensors 1610 provided on the side of the mobile robot 1600 (S1805).
  • the distance measuring sensor 1610 irradiates the wall surface with a beam having a predetermined width through the light source 1611 according to the driving command, and the imaging unit 1612 captures a wall image including a point generated on the wall surface by the beam.
  • the point position calculating unit 1672 of the microcomputer 1670 may output the result (S1807).
  • the point position calculator 1672 receives a wall image output from the distance measuring sensor 1610, extracts a point in the wall image, and calculates position information in the measured surface image of the extracted point.
  • the distance calculator 1673 may output the distance calculator 1673 (S1813).
  • the distance calculator 1673 receives the location information of the point output from the point location calculator 1672, and accesses the distance between the corresponding light source 1611 and the measurement surface using the distance information from the memory 1660.
  • the driving direction setting unit 1674 may output the driving direction setting unit 1674.
  • the driving direction setting unit 1674 receives distance information between the guide robot 1600 output from the distance calculating unit 1673 and the wall surface and determines whether the driving direction setting unit is within an error range of preset reference distance information (S1817), and the determination result is set. If it is within the error range of the reference distance information to maintain the direction of travel of the guide robot 1600 (S1821), if out of the error range, the guide robot 1600 to maintain the distance to the wall within the error range of the set reference distance information
  • the control signal may be output to the driving control unit 1701 such that the guide robot 1600 travels in accordance with the reset driving direction by resetting the traveling direction of the controller S1819.
  • the guide robot 1600 may stop the driving (S1823).
  • the point position calculator 1672 may output an error signal to the measurement error notification unit 1675 when the point does not exist in the wall image transmitted from the imaging unit 1612 and thus cannot calculate the position of the point. . If a point does not exist in the image of the wall surface, it may be determined that the distance between the distance sensor 1610 and the measurement plane is out of the imaging area of the imaging unit 1612 (S1809). Therefore, the measurement error notification unit 1675 receives the error signal and outputs voice or graphic data through the speaker 1700 or the display unit 1690 included in the guide robot 1600 to notify the server or administrator of the measurement error. It is possible (S1811).
  • 19 to 21 are diagrams for explaining an example in which the guide robot according to an embodiment of the present invention is divided into zones to provide a road guide companion service.
  • the guide robots 1910, 1920, 1930, and 1940 may be disposed in a predetermined area of the airport 1900.
  • the airport interior 1900 may be divided into certain zones 1901, 1902, 1903, and 1904, and the guide robots 1910, 1920, 1930, and 1940 may be set to move only within a predetermined zone.
  • the first guide robot 1910 may move only within the first zone 1901 of the airport interior 1900.
  • the second guide robot 1920 may only move within the second zone 1902 of the airport interior 1900.
  • the third guide robot 1930 may move only within the third zone 1903 of the airport interior 1900.
  • the fourth guide robot 1940 may move only within the fourth zone 1904 of the airport interior 1900.
  • the guide robots 1910, 1920, 1930, and 1940 may accompany the user only to a point beyond the area where the guide robot can move.
  • the guide robots can communicate with each other so that other guide robots may be accompanied by the moment they leave the movable area.
  • the user 1905 may request a road guide companion service from the first guide robot 1910 in the first zone 1901.
  • the movement path to the destination requested by the user 1905 passes through the first zone 1901 and passes through the second zone 1902.
  • the first guide robot 1910 may accompany the user 1905 only to the boundary of the first zone 1901 to which the user 1905 may move.
  • the first guide robot 1910 may transmit a message to the second guide robot 1920 to continuously guide the user 1905 along the way.
  • the first guide robot 1910 may transmit the image data photographing the user 1905, the movement path information and the navigation data of the user 1905 to the second guide robot 1920 in a message.
  • the second guide robot 1920 receiving the message from the first guide robot 1910 may provide a road guide service by accommodating with the user 1905 from a start point of the second zone 1902 of the moving path.
  • FIG. 22 is a block diagram showing the configuration of a guide robot for an airport according to an embodiment of the present invention. Referring to the airport guide robot according to an embodiment of the present invention described with reference to FIGS. 4 to 21, the block diagrams described in FIGS. 1 and 2 may be simplified to FIG. 22.
  • the airport guide robot 2200 may include a map management module 2210 for storing airport map data.
  • the airport guide robot 2200 may include a camera 2250 for capturing an image.
  • the airport guide robot 2200 may include a communication unit 2230 for transmitting and receiving data.
  • the airport guide robot 2200 may include an imaging processor 2240 for processing an image.
  • the airport guide robot 2200 may include a display unit 2260 for outputting a processed image.
  • the airport guide robot 2200 may include a driver 2290 for moving the airport guide robot.
  • the airport guide robot 2200 may include a controller 2280. When the controller 2280 receives the road guidance request signal, the controller 2280 may calculate a movement path from the current location to the destination.
  • the airport guide robot 2200 may move along a movement path.
  • the camera 2250 may capture a real-time image of a certain area of the moving path.
  • the controller 2280 may control to output the captured real-time image to the display unit 2260.
  • the controller 2280 may generate navigation content based on the movement route.
  • the controller 2280 may control the display unit 2260 to output the captured real-time image and the navigation content in a screen division mode.
  • the controller 2280 may generate navigation content based on the movement route.
  • the controller 2280 may control to alternately output the captured real-time image and the navigation content to the display unit 2260 according to a user selection input.
  • the airport guide robot 2200 may further include a location recognizing unit 2220.
  • the location recognizer 2220 may include a LiDAR and a Wi-Fi module.
  • the controller 2280 may detect the current position of the airport guide robot 2200 through the location recognizer 2220.
  • the controller 2280 may calculate a movement route using the detected current location information and the destination information.
  • the communication unit 2230 may receive CCTV photographed image data photographing a moving path.
  • the controller 2280 may control the display unit 2260 to output the real-time image and the received CCTV-photographed image in the screen division mode.
  • the communicator 2230 may receive CCTV photographing image data photographing a surrounding of a destination.
  • the controller 2280 may control the display unit 2260 to output the real-time image and the received CCTV-photographed image in the screen division mode.
  • the communication unit 2230 may receive key facility data around the destination from the server.
  • the controller 2280 may control to mix the CCTV photographing image data and the main facility data around the destination and output the mixed output to the display unit 2260.
  • the camera 2250 may photograph the user in real time.
  • the controller 2280 may calculate the distance between the user and the airport guide robot 2200 in real time using the user image captured in real time.
  • the controller 2280 may adjust the driving speed of the driver 2290 in real time such that the distance between the user and the airport guide robot 2200 falls within a predetermined range.
  • the airport guide robot 2200 may include a sensor 2270 that senses a distance between a user and the airport guide robot 2200 in real time.
  • the controller 2280 may adjust the driving speed of the driver 2290 in real time such that the distance between the user and the airport guide robot 2200 falls within a predetermined range.
  • the airport guide robot may include a map management module 2210 for storing airport map data. And the airport guide robot 2200 calculates the distance between the light source and the measurement surface by detecting a change in the position of the point of the beam on the measurement surface that changes according to the distance change of the light source that emits the beam to the measurement surface and the measurement surface It may include a sensor 2270. In addition, the airport guide robot 2200 may include a communication unit 2230 for transmitting and receiving data. In addition, the airport guide robot 2200 may include an imaging processor 2240 for processing an image. The airport guide robot 2200 may include a display unit 2260 for outputting a processed image. The airport guide robot 2200 may include a driver 2290 for moving the airport guide robot 2200.
  • the airport guide robot 2200 may include a controller 2280.
  • the sensor 2270 may sense the distance between the user and the airport guidance robot in real time.
  • the controller 2280 may calculate a movement path from the current location to the destination.
  • the airport guide robot 2200 may move along a movement path.
  • the controller 2280 may adjust the driving speed of the driver 2290 in real time such that the distance between the user and the airport guide robot 2200 falls within a predetermined range.
  • the light source in the sensor 2270 may include an LED and a light focusing unit configured to focus light emitted from the LED into a beam.
  • the light source of the sensor 2270 may be a laser.
  • the sensor 2270 may be formed on the side of the airport guide robot 2200.
  • a computer-readable storage medium comprising computer-executable instructions for execution by a processing system, wherein the computer-executable instructions for providing a route guidance service according to an embodiment of the present invention are route guidance request signals.
  • Commands for outputting an image to the display unit may be included.
  • the computer-executable instructions may include instructions for generating navigation content based on the movement path, and instructions for outputting the captured real-time image and the navigation content in a screen division mode to a display unit.
  • the computer-executable instructions may include instructions for generating navigation content based on the movement path and instructions for alternately outputting the captured real-time image and the navigation content to a display unit according to a user selection input.
  • the computer-executable instructions may include instructions for detecting a current position of the airport guide robot through a location recognition unit and instructions for calculating the moving path using the detected current position information and destination information. have.
  • the computer-executable instructions include instructions for receiving CCTV photographed image data of photographing the moving path through a communication unit, and instructions for outputting the photographed real-time image and the received CCTV photographed image in a screen division mode to a display unit. can do.
  • the computer-executable instructions include instructions for receiving CCTV photographed image data photographing the surrounding area of the destination through a communication unit, and instructions for outputting the photographed real-time image and the received CCTV photographed image in a screen division mode to a display unit. can do.
  • the computer-executable instructions include commands for receiving main facility data around the destination from a server through a communication unit, and commands for mixing CCTV photographing image data with main facility data around the destination and outputting them to the display unit. It may include.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the AP 150 of the airport robot. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명의 일 실시예에 의한 공항용 안내 로봇은 공항 지도 데이터를 저장하는 맵(map) 관리모듈, 영상을 촬영하는 카메라, 데이터를 송수신하는 통신부, 영상을 처리하는 이미징 프로세서, 상기 이미지 프로세서에서 처리된 상기 영상을 출력하는 디스플레이부, 공항용 안내 로봇을 이동시키는 구동부 및 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고, 상기 제어부는 길 안내 요청 신호를 수신하는 경우, 상기 공항 지도 데이터를 기반으로, 현재 위치로부터 목적지까지의 계산된 이동 경로를 따라 이동 중, 카메라를 제어하여 촬영한 이동 경로 일정 영역의 실시간 영상을 상기 디스플레이부에 출력하도록 제어하는 것을 특징으로 한다.

Description

공항용 안내 로봇 및 그의 동작 방법
본 발명은 공항에 배치되는 로봇 및 그의 동작 방법에 관한 것이다. 보다 상세하게는 공항에 배치되어 사용자들에게 목적지 길 안내 서비스를 제공하는 공항용 안내 로봇을 제공한다. 실제 목적지까지 사용자들과 동행하면서 전방 화면을 표시하는 길 안내 서비스 제공하는 공항용 안내 로봇에 관한 것이다.
최근 딥러닝(Deep Learning) 기술, 자율 주행 기술, 자동 제어 기술, 사물인터넷 등의 발전으로 로봇의 기능이 확대되고 있다.
각각의 기술을 구체적으로 설명하면, 딥러닝은 기계학습의 한 분야에 해당한다. 딥러닝은 프로그램에 미리 조건을 확인하고 명령을 설정해두는 방식이 아니라, 다양한 상황에 대해 프로그램이 유사한 판단을 내리도록 하는 기술이다. 따라서, 딥러닝에 따르면 컴퓨터가 인간의 뇌와 유사하게 사고할 수 있고, 방대한 양의 데이터 분석을 가능하게 한다.
자율 주행은 기계가 스스로 판단하여 이동하고, 장애물을 피할 수 있는 기술이다. 자율 주행 기술에 따르면 로봇은 센서를 통해 자율적으로 위치를 인식하여 이동하고 장애물을 피할 수 있게 된다.
자동 제어 기술은 기계에서 기계 상태를 검사한 계측 값을 제어 장치에 피드백하여 기계의 동작을 자동으로 제어하는 기술을 말한다. 따라서 사람의 조작 없는 제어가 가능하고, 목적하는 제어 대상을 목적하는 범위 내 즉, 목표 값에 이르도록 자동적으로 조절할 수 있다.
사물인터넷(Internet of Things)은 인터넷을 기반으로 모든 사물을 연결하여 사람과 사물, 사물과 사물 간의 정보를 상호 소통하는 지능형 기술 및 서비스를 말한다. 사물인터넷에 의해 인터넷에 연결된 기기들은 사람의 도움 없이 알아서 정보를 주고 받으며 자율적인 소통을 하게 된다.
위에서 설명한 바와 같은 기술들의 발전 및 융합으로 지능형 로봇의 구현이 가능하고, 지능형 로봇을 통해 다양한 정보와 서비스의 제공이 가능해졌다.
로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다. 예를 들면, 자동차 생산과 같은 기계 가공 공업에서는 로봇이 반복작업을 수행할 수 있다. 즉, 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있다.
또한 로봇에 카메라가 장착되는 기술은 이미 종래에 많이 구현되어 있다. 로봇은 카메라를 이용하여 위치를 확인하거나 장애물을 인식할 수 있다. 또한, 촬영 영상을 디스플레이부에 표시하는 것도 충분히 구현되고 있다.
본 발명의 목적은 공항용 로봇이 동행하면서 길 안내 서비스를 제공할 때 사용자의 시야를 방해하지 않도록 하는 것이다.
본 발명의 다른 목적은 복잡한 지리적 조건을 가진 공항에서 이용객들에게 효과적으로 길 안내 서비스를 제공하는 것이다.
본 발명의 또 다른 목적은 공항 이용객에게 목적지 주변 정보를 제공하는데 있어서, 단순 그림이나 사진이 실제 공항 내 영상을 제공하는 것이다.
본 발명의 또 다른 목적은 공항용 로봇이 동행 길 안내 서비스를 제공할 때 사용자를 놓치는 오류를 방지하는 것이다.
본 발명에 따른 공항용 안내 로봇은 카메라 및 디스플레이부를 구비할 수 있다. 공항용 안내 로봇은 카메라로 촬영된 전방 영상을 디스플레이부에 출력할 수 있다. 후행하는 사용자는 디스플레이부에 표시된 전방 영상을 확인할 수 있다.
본 발명에 따른 공항용 안내 로봇은 이동 경로에 기초하는 네비게이션 컨텐츠를 디스플레이부에 출력할 수 있다. 후행하는 사용자는 디스플레이부에 표시된 네비게이션 컨텐츠를 확인할 수 있다.
본 발명에 따른 공항용 안내 로봇은 목적지 주변을 촬영하는 실시간 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고, 공항용 안내 로봇은 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 디스플레이부에 출력할 수 있다. 나아가, 공항용 안내 로봇은 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력할 수 있다.
본 발명에 따른 공항용 안내 로봇은 카메라 또는 센서를 이용하여 후행하는 사용자와 안내 로봇 사이의 거리를 실시간으로 센싱할 수 있다. 그리고, 안내 로봇은 경우에 따라서 이동 속도를 조절할 수 있다.
본 발명에 따른 공항용 안내 로봇은 카메라로 촬영된 전방 영상을 디스플레이부에 출력할 수 있다. 그리고 후행하는 사용자는 디스플레이부에 표시된 전방 영상을 확인할 수 있다. 그 결과, 후행하는 사용자가 전방 영상을 확인할 수 있고, 로봇에 의해 전방 시야가 가려지는 문제점을 해결하는 효과를 가져온다.
본 발명에 따른 공항용 안내 로봇은 동행 서비스를 제공함과 동시에 네비게이션 컨텐츠를 표시할 수 있다. 그 결과 후행하는 사용자가 현재 어떠한 경로로 이동 중인지를 쉽게 파악할 수 있는 효과를 가져온다.
본 발명에 따른 공항용 안내 로봇은 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력할 수 있다. 그 결과, 사용자는 실제 목적지 주변 정보를 쉽게 파악할 수 있고, 주요 시설을 효과적으로 찾아갈 수 있는 효과가 있다.
본 발명에 따른 공항용 안내 로봇은 실시간으로 사용자와의 거리를 센싱하여 항상 일정한 거리를 유지할 수 있다. 그 결과 동행 길 안내 서비스를 제공하는데 있어서 사용자를 놓치는 오류를 방지하는 효과를 가져온다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라를 통해 공항 내에서 전방위 영상을 촬영하는 일 예를 설명하기 위한 도면이다.
도 5 내지 도 8은 본 발명의 일 실시예에 의한 안내 로봇에 장착되는 전방위 카메라에 대하여 설명하기 위한 도면들이다.
도 9 및 도 10은 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라로 촬영한 일부 영상을 디스플레이부에 출력하는 일 예를 설명하기 위한 도면들이다.
도 11 내지 도 13은 본 발명의 일 실시예에 의한 안내 로봇이 CCTV 영상을 수신하여 디스플레이부에 출력하는 일 예를 설명하기 위한 도면이다.
도 14 내지 도 18은 본 발명의 일 실시예에 의한 안내 로봇이 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동하는 일 예를 설명하기 위한 도면들이다.
도 19 내지 도 21은 본 발명의 일 실시예에 의한 안내 로봇들이 구역별로 나누어 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면들이다.
도 22는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(100)의 하드웨어는 마이컴(Micom) 그룹과 및 AP 그룹으로 구성될 수 있다.
마이컴(110) 그룹은 마이컴(110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)을 포함할 수 있다. AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다. 상기 유저 인터페이스부(160)는 통신부로 명명될 수 있다. 마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130) 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다.
전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. 배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.
장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. IR 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. 모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터, 브러시 모터 및 석션 모터를 구동하는 역할을 수행할 수 있다. 휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.
AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치로서 기능할 수 있다. AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하게 할 수 있다.
유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. 유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력 받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.
사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. 2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.
위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.
랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 2에 도시된 바와 같이, 공항 로봇의 인식 및 행동을 제어하기 위해서 마이컴(210)과 AP(220)는 다양한 실시예로 구현될 수 있다.
일 예로서, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)를 포함할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. 데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우에 이머전시 모듈(212)은 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 리튬-이온 배터리(122)의 충전과 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.
AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. 인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. 유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. 사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. 플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. 네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. 모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 위치 인식부(230)를 포함할 수 있다. 위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. 맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다.
위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.
다음으로 도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 공항 로봇 시스템은 이동 단말기(310), 서버(320), 공항 로봇(300) 및 카메라(330)를 포함할 수 있다.
이동 단말기(310)는 공항 내 서버(320)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(310)는 서버(320)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(310)를 통해 공항에서 필요한 정보를 서버(320)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(310)는 서버(320)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(320)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(320)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.
또한, 이동 단말기(310)는 공항 로봇(300)과 데이터를 송수신할 수 있다.
예를 들어, 이동 단말기(310)는 공항 로봇(300)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(300)으로 전송할 수 있다. 공항 로봇(300)은 이동 단말기(310)로부터 수신된 호출 신호에 응답하여 이동 단말기(310)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(300)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(310)로 전송할 수 있다.
다음으로, 공항 로봇(300)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.
공항 로봇(300)은 이동 단말기(310) 또는 서버(320)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(300)은 서버(320)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(300)은 공항 내 카메라(330)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. 따라서 공항 로봇(300)은 공항 로봇(300)이 촬영한 영상 정보 및 카메라(330)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링할 수 있다.
공항 로봇(300)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(300)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(300)은 사용자, 이동 단말기(310) 또는 서버(320) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
다음으로 서버(320)는 이동 단말기(310), 공항 로봇(300), 카메라(330)로부터 정보를 수신할 수 있다. 서버(320)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(320)는 저장된 정보들을 이동 단말기(310) 또는 공항 로봇(300)에 전송할 수 있다. 또한, 서버(320)는 공항에 배치된 복수의 공항 로봇(300)들 각각에 대한 명령 신호를 전송할 수 있다.
카메라(330)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(330)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(330)는 촬영된 영상을 서버(320) 또는 공항 로봇(300)에 전송할 수 있다.
도 4는 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라를 통해 공항 내에서 전방위 영상을 촬영하는 일 예를 설명하기 위한 도면이다.
본 발명의 일 실시예에 의한 안내 로봇은 공항 내 일정 영역을 순회 이동하면서 전방위 카메라를 이용하여 기 정해진 범위 내의 영상을 촬영하여 저장할 수 있다.
예를 들어 도 4에 도시된 바와 같이, 안내 로봇(400)은 디스플레이부 상부측에 전방위 카메라(410)가 장착될 수 있다. 전방위 카메라(410)는 360도(degree) 카메라로 명명될 수 있다. 전방위 카메라(400)는 기 설정된 거리내의 360도 영역 즉 전방위 영역(415)의 영상을 촬영할 수 있다. 전방위 카메라(410)에 대해서는 이하 도 5 내지 도 8에서 자세히 설명하도록 하겠다.
도 5 내지 도 8은 본 발명의 일 실시예에 의한 안내 로봇에 장착되는 전방위 카메라에 대하여 설명하기 위한 도면들이다.
전방위 카메라(410)는 내부에 카메라를 장착하고 있고 일부 제품은 회전식 카메라를 채택하여 카메라를 회전시켜 사물을 촬영할 수 있다. 회전식 카메라가 장착된 전방위 카메라(410)는 도 5에 도시된 바와 같이, 카메라의 상대 위치를 나타내는 아날로그 신호를 출력하는 카메라 위치 입력부(510)와; 상기 아날로그 신호를 디지털 변환하여 출력하는 아날로그/디지털 변환기(520)와; 디지털 변환된 데이터를 참조하여 카메라의 상대 위치를 판단하는 제어부(530)와; 상기 제어부(530)의 동작 상태를 표시하는 표시부(540)를 포함할 수 있다.
카메라 위치 입력부(510)는 카메라의 상대 위치를 나타내는 신호를 제어부(530)로 전달하여 제어부(530)에서 카메라의 상대 위치를 파악하고 그에 대응한 작업을 수행하는데 카메라 위치 입력부(510)는 전방위 카메라(410)마다 다른 구성을 가질 수 있다.
도 6은 전방위 카메라(410)에 포함될 수 있는 회전식 카메라의 회전각도 인식 장치의 구성을 보인 예시도로서, 이에 도시된 바와 같이 소정 각도로 회전하는 회전식 카메라(521)와; 상기 회전식 카메라(521)의 상대 위치에 따른 아날로그 신호를 출력하는 카메라 위치 신호 출력부(522)로 구성될 수 있다.
회전식 카메라(521)는 360도 이내에서 소정 각도로 회전하면서 촬영한 영상을 제어부로 전달하여 표시부(523)에 출력하고 카메라 위치 신호 출력부(522)는 회전식 카메라(521)의 상대 위치를 나타내는 아날로그 신호를 제어부에 출력하여 제어부에서 카메라의 상대 위치를 판단하게 한다.
도 7은 도 6의 회전식 카메라의 회전 여부를 인식하는 장치를 설명하는 예시도로서, 이에 도시된 바와 같이 카메라가 소정 각도로 회전할 때 스위치(531)가 아래 위로 움직임을 설명하고 이에 따라 스위치(531)가 온/오프되어 카메라의 상대 위치를 나타내는 하이/로우 신호가 제어부로 출력될 수 있다.
스위치(531)가 회전판의 홈(534)에 위치하면 오프되어 카메라 위치 신호 출력부에서 제어부로 하이 신호를 출력하고, 반대로 스위치가 홈(534)이 파이지 않은 부분에 위치하면 온되어 로우 신호가 출력된다. 이와 같은 전방위 카메라(410) 구조에서 카메라가 전면을 향한 상태를 기준으로 촬영하도록 초기 설정되어 있으면 카메라가 회전하여 후면을 향하게 되었을 때 표시부에 출력되는 영상은 상하가 뒤집힌 상태로 보일 것이다. 이를 바로 잡기 위해 사용자는 수동 조작하여 상하가 뒤집힌 영상을 반전시킬 수 있다.
그리고, 회전판 홈의 위치에 따라 스위치를 온/오프시키는 기구 구성은 간단하지만 마찰로 인한 마모 등으로 인해 내구성과 안정성을 떨어뜨릴 수 있다.
도 8은 본 발명의 전방위 카메라에 포함되는 회전식 카메라의 회전각도 인식 장치의 구성을 보인 예시도로서, 이에 도시된 바와 같이 소정 각도로 회전하는 카메라(541)와; 상기 카메라(541)의 회전축과 연결되어 회전에 의해 저항값이 변하는 가변 저항과 저항값이 일정한 고정 저항에 의해 전원전압을 분배하여 출력하는 전압 출력부(542)와; 상기 전압 출력부(542)의 전압값을 디지털 변환하여 카메라의 회전 각도를 계산하고 회전 각도에 대응한 영상 표시를 제어하는 제어부(543)로 구성될 수 있다.
카메라(541)는 360도 범위 내에서 소정 각도로 회전하고, 카메라 모듈의 회전축과 가변 저항(542)의 회전축이 연결된다. 카메라(541)가 회전하면 가변 저항(542)의 회전축이 회전하여 가변 저항(542)의 저항값이 변할 수 있다. 전압 출력부(542)는 카메라 회전에 의해 저항값이 변하는 가변 저항과 저항값이 일정한 고정 저항에 의해 전원전압을 분배하여 소정 전압값을 출력할 수 있다.
제어부(543)는 상기 전압 출력부(542)의 전압값을 아날로그/디지털 변환기에 의해 디지털 변환하여 카메라의 회전 각도를 계산하고 회전 각도에 대응한 표시부(544)의 영상 표시를 제어한다. 카메라(541)의 회전 각도가 소정 기준 각도 이상이면 표시부(544)의 영상 뒤집힘을 판단하고 카메라(541)의 입력 영상을 반전시킬 수 있다.
도 9 및 도 10은 본 발명의 일 실시예에 의한 안내 로봇이 전방위 카메라로 촬영한 일부 영상을 디스플레이부에 출력하는 일 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 의한 안내 로봇은 공항 내에서 사용자에게 길 안내 동행 서비스를 제공할 수 있다. 즉, 사용자는 공항 내에서 안내 로봇에게 현 위치로부터 특정 목적지까지의 길 안내 서비스를 요청할 수 있다. 안내 로봇은 사용자에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다. 이 경우, 안내 로봇은 전방위 카메라로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다.
예를 들어 도 9에 도시된 바와 같이, 사용자(920)는 안내 로봇(900)에 길 안내 서비스를 요청할 수 있다. 그리고, 안내 로봇(900)은 공항 내에서 사용자(920)에게 길 안내 동행 서비스를 제공할 수 있다. 안내 로봇(900)은 사용자(920)에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇(900)은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다.
이 경우, 안내 로봇(900)은 전방위 카메라(910)로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다. 예를 들어 도 9에 도시된 바와 같이, 안내 로봇(900)은 이동방향을 기준으로 정면을 포함하는 영역을 촬영한 영상(935)을 디스플레이부에 출력할 수 있다. 따라서, 사용자(920)는 길 안내 동행 서비스를 제공받을 때, 안내 로봇(900)에 의해 정면 시야가 가려져서 얻는 불편함을 해소할 수 있다.
뿐만 아니라 도 10에 도시된 바와 같이, 안내 로봇(900)은 전방위 카메라(910)로 촬영한 일정 영역의 영상(935)과 같은 제1 컨텐츠 뿐만 아니라 지도 이미지나 네비게이션 등의 길 안내 표시 서비스를 제공하는 제2 컨텐츠(940)도 함께 디스플레이부에 출력할 수 있다.
또한, 안내 로봇(900)은 디스플레이부에 터치 패드 등의 사용자 인터페이스를 포함할 수 있다. 그리고, 사용자(920)는 안내 로봇(900)의 디스플레이부를 터치 하는 등의 방식으로 제2 컨텐츠를 변경할 수 있다. 예를 들어, 제2 컨텐츠는 우선 목적지까지 이동하는 이동 경로를 표시하는 네비게이션 영상일 수 있다. 그리고 사용자(920)가 디스플레이부를 터치하면 제2 컨텐츠는 공항 내 주요시설에 대한 안내 영상으로 변경될 수 있다. 또한, 사용자(920)가 안내 로봇(900)의 디스플레이부를 다시 터치하면 제2 컨텐츠는 목적지와 관련된 컨텐츠로 변경될 수 있다. 또한, 사용자(920)가 안내 로봇(900)의 디스플레이부를 다시 터치하면 제2 컨텐츠로서 목적지까지 이동하는 이동 경로를 표시하는 네비게이션 영상이 다시 출력될 수 있다.
도 11 내지 도 13은 본 발명의 일 실시예에 의한 안내 로봇이 CCTV 영상을 수신하여 디스플레이부에 출력하는 일 예를 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 공항 내에는 복수 개의 CCTV(1111, 1112, 1113)들이 랜덤하게 배치될 수 있다. 복수 개의 CCTV(1111, 1112, 1113)들은 공항 내 상황을 실시간으로 촬영할 수 있다. 또한, 복수 개의 CCTV(1111, 1112, 1113)들은 실시간 촬영 영상 데이터를 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들에게 전송할 수 있다. 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들은 CCTV로부터 전달받은 영상 데이터를 이용하여 공항 이용객에게 다양한 서비스를 제공할 수 있다. 또한, 또한, 복수 개의 CCTV(1111, 1112, 1113)들은 실시간 촬영 영상 데이터를 서버에 전송할 수 있다. 그리고, 적어도 하나 이상의 공항용 로봇(1101, 1102, 1103, 1104, 1105, 1106)들은 서버로부터 특정 CCTV가 촬영한 실시간 촬영 영상 데이터를 수신할 수 있다.
그리고, 본 발명의 일 실시예에 의한 안내 로봇은 길 안내 동행 서비스를 사용자에게 제공할 때, CCTV가 촬영한 실시간 촬영 영상 데이터를 수신하여 출력할 수 있다. 이 때, 안내 로봇은 CCTV가 촬영한 실시간 촬영 영상 데이터를 가공하여 디스플레이부에 출력할 수 있다.
예를 들어, 도 12에 도시된 바와 같이, 사용자(1120)는 안내 로봇(1100)에 길 안내 서비스를 요청할 수 있다. 그리고, 안내 로봇(1100)은 공항 내에서 사용자(1120)에게 길 안내 동행 서비스를 제공할 수 있다. 안내 로봇(1100)은 사용자(1120)에게 현 위치로부터 특정 목적지까지의 이동 경로를 지도 또는 네비게이션(navigation)을 통해 알려주는 길 안내 표시 서비스를 제공할 수 있다. 뿐만 아니라 안내 로봇(1100)은 현위치로부터 특정 목적지까지 직접 동행하면서 길을 안내해주는 길 안내 동행 서비스를 사용자에게 제공할 수 있다.
이 경우, 안내 로봇(1100)은 전방위 카메라(1110)로 촬영한 영상 중 일정 영역을 디스플레이부에 출력할 수 있다. 예를 들어 도 12에 도시된 바와 같이, 안내 로봇(1100)은 이동방향을 기준으로 정면을 포함하는 영역을 촬영한 영상(1130)을 디스플레이부에 출력할 수 있다. 따라서, 사용자(1120)는 길 안내 동행 서비스를 제공받을 때, 안내 로봇(1100)에 의해 정면 시야가 가려져서 얻는 불편함을 해소할 수 있다.
뿐만 아니라 도 12에 도시된 바와 같이, 안내 로봇(1100)은 전방위 카메라(1110)로 촬영한 일정 영역의 영상(1130)과 같은 제1 컨텐츠 뿐만 아니라 CCTV(1115)가 촬영한 실시간 촬영 영상(1140) 데이터를 가공하여 디스플레이부에 출력할 수 있다. 이 때, 안내 로봇(1100)는 CCTV(1115)가 촬영한 실시간 촬영 영상(1140) 에서 현재 사용자(1120)의 위치를 표시하는 인디케이터를 추가하는 영상 데이터 가공 프로세스를 진행할 수 있다. 따라서, 안내 로봇(1100)은 길 안내 동행 서비스를 제공함에 있어서, 전방위 카메라(1110)가 촬영한 영상 및 CCTV(1115)가 촬영한 영상을 함께 디스플레이부에 출력할 수 있다.
또한 도 13에 도시된 바와 같이, 안내 로봇(1100)는 CCTV(1115)가 촬영한 실시간 촬영 영상(1140)에서 주요 시설을 나타내는 인디케이터를 추가하는 영상 데이터 가공 프로세스를 진행할 수 있다. 따라서 사용자(1120)는 길 안내 동행 서비스를 제공받을 때, 전방 일정 영역을 촬영하는 영상(1130) 및 주요 시설을 나타내는 인디케이터가 표시된 CCTV(1115) 촬영 영상을 함께 제공받을 수 있다.
도 14 내지 도 18은 본 발명의 일 실시예에 의한 안내 로봇이 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동하는 일 예를 설명하기 위한 도면들이다.
본 발명의 일 실시예에 의한 안내 로봇은 사용자, 벽면 및 바닥면과 항상 일정한 거리를 유지하면서 이동할 수 있다. 예를 들어 도 14에 도시된 바와 같이, 안내 로봇1400)은 사용자(1420)에게 길 안내 동행 서비스를 제공하는 경우에 전방위 카메라(1410)를 이용하여 실시간으로 사용자(1420)를 촬영할 수 있다. 또한, 안내 로봇(1400)은 전방위 카메라(1410)를 이용하여 안내 로봇(1400)과 사용자(1420) 사이의 거리를 실시간으로 측정할 수 있다. 또한, 안내 로봇(1400)은 적외선 센서 등을 이용하여 후행하는 사용자(1420)와 안내 로봇(1400) 사이의 거리를 실시간으로 측정할 수 있다. 그리고 사용자(1420)와 안내 로봇(1400) 사이의 거리가 기 정해진 거리 이상으로 멀어지는 경우, 안내 로봇(1400)은 자신의 속도를 조절하거나 사용자(1420)에게 다가가는 방식을 사용하여 거리를 조정할 수 있다.
또한 본 발명의 일 실시예에 의한 안내 로봇(1400)은 사용자(1420)에게 길 안내 서비스를 제공하는데 있어서 장애물 또는 이물질의 방해를 회피하기 위하여 카메라를 이용할 수 있다. 안내 로봇(1400)은 전방위 카메라(1410)를 이용하여 벽면과 일정한 거리를 유지하거나, 바닥면 촬영 카메라를 별도로 구비하여 바닥면과 일정한 거리를 유지할 수 있다. 또한, 바닥면 거리 유지 장치는 진공 청소 수단을 구비하여 바닥면의 먼지 등도 흡입할 수 있다.
도 15에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇(1400)은 거리 측정 센서(1500)를 포함할 수 있다. 거리 측정 센서(1500)는 측정 면과 측정 면에 빔을 발산하는 광원(1510)의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 광원(1510)과 측정면 사이의 거리를 산출할 수 있다. 이러한 거리 측정 센서(1500)는 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(1510)과, 광원(1510)에 의해 측정 면에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하는 촬상부(1520)와, 촬상부(1520)에 의해 촬상된 측정 면 영상 내에서 포인트의 위치 정보를 추출하여 출력하는 포인트 위치 산출부(1530)와, 측정 면 영상 내의 포인트 위치별 거리정보가 저장되는 거리정보 테이블(1540)과, 포인트 위치 산출부(1530)에 의해 산출된 위치 정보를 통해 거리정보 테이블(1540)로부터 해당 포인트 위치 정보에 대응되는 광원(1510)과 측정 면 간의 거리정보를 참조하여 광원(1510)과 측정 면 간의 거리를 산출하여 출력하는 거리 산출부(1550)를 포함하여 구성될 수 있다. 아울러 광원(1510)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(1520) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다.
광원(1510)은 예를 들면, LED와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(1510)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다.
광원(1510)은 촬상부(1520)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(1510)이 수직에 소정 각도로 설치되는 이유는 광원(1510)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다.
본 발명의 특징적인 양상에 따라 본 발명에 따른 광원(1510)은 LED와, LED로부터 발산되는 광을 소정폭과 직진성을 가지는 빔으로 집속하는 광 집속부를 포함하여 구성될 수 있다. 일반적으로 LED로부터 출력되는 광은 직진성이 없이 발산되는 광이기 때문에 측정 면에 일정한 포인트를 생성할 수 없다. 따라서, 광 집속부는 LED로부터 발산되는 광을 일정 폭과 직진성을 가지는 빔으로 집속할 수 있다. 이러한 광 집속부는 하나 이상의 렌즈의 배열로 구현될 수 있으나 본 발명의 바람직한 실시 예에서는 LED에 결합되되, 소정 크기의 홀이 형성된 커버로 구성될 수 있다. 커버는 빛이 투과할 수 없는 소재로 형성되며, LED로부터 발산된 광은 홀을 통해 발산되므로 간단한 커버의 결합만으로 직진성을 가지는 짐을 출력할 수 있게 한다.
촬상부(1520)는 측정 면과 평행하게 형성되며, 광원(1510)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(1520)는 광원(1510)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 포인트 위치 산출부(1530)로 출력할 수 있다.
포인트 위치 산출부(1530)는 포인트 위치 산출부(1530)는 촬상부(1520)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1550)로 출력한다. 포인트 위치 산출부(1530)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송할 수 있다.
거리정보 테이블(1540)은 예를 들면, 콤팩트한 사이즈를 가지며, 읽고 쓰기가 가능한 플래시 메모리로 구성될 수 있다. 거리정보 테이블(1540)은 실험에 의해 미리 산출된 측정 면 영상 내에서의 포인트 위치별로 그와 대응되는 광원(1510)과 측정 면과의 거리 정보가 저장될 수 있다. 이렇게 저장된 데이터는 거리 산출부(1550)에 의해 액세스 제어될 수 있다.
거리 산출부(1550)는 포인트 위치 산출부(1530)로부터 출력되는 포인트의 위치 정보를 수신하고, 거리 정보테이블로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1510)과 측정 면간의 거리를 액세스하고, 이를 제공할 수 있다.
이러한 광원(1510)과 측정 면간의 거리 변화에 따른 포인트의 위치 변화의 상관관계를 통해 거리 산출부(1550)는 광원(1510)과 측정 면간의 거리 정보를 산출한다. 이러한 포인트의 위치별 거리 정보는 상술한 바와 같이, 실험에 의해 산출된 실측 정보가 샘플링되어 거리정보 테이블(1540)에 저장되며, 거리 산출부(1550)는 해당 포인트 위치 산출부(1530)에 의해 산출된 포인트의 위치 정보를 이용하여 해당 위치 정보에 대응되는 거리 정보를 거리정보 테이블(1540)로부터 액세스하여 출력할 수 있다.
도 16에 도시된 바와 같이, 본 발명에 따른 안내 로봇(1600)은 바닥면 부근에 구동 모듈과 함께 바닥면 청소를 수행하는 진공 청소 수단(1620)을 포함할 수 있다. 그리고 안내 로봇(1600)은 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하는 거리 측정 센서(1610)와, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(1610)와 측정 면간의 거리를 산출하는 마이컴(1670)을 포함하여 구성될 수 있다.
거리 측정 센서(1610)는 측정 면으로 빔을 조사하여 빔에 의해 생성된 포인트를 포함하는 측정 면 영상을 감지하여 출력하되, 측정 면의 수직 방향에서 소정 각도로 이격된 방향에서 빔을 발산하는 광원(1611)과, 광원(1611)으로부터 조사된 빔에 의해 측정 면에 생성되는 빔 포인트를 포함하는 측정 면 영상을 촬영하여 마이컴(1670)으로 출력하는 촬상부(1612)를 포함하여 구성된다. 아울러 광원(1611)으로부터 발산되는 빔을 집속하는 집속 렌즈를 포함할 수 있으며, 또한, 촬상부(1612) 역시 측정 면의 촬영을 위한 하나 이상의 렌즈가 포함될 수 있다.
광원(1611)은 예를 들면, LED와 같은 발광 소자나 직진성을 가지는 레이저 포인터로 구성될 수 있으며, 측정 면의 수직 방향과 소정 각도 이격된 방향에서 측정 면에 빔을 조사할 수 있도록 형성된다. 광원(1611)을 통해 발산되는 빔은 측정 면과 쉽게 구분될 수 있는 색상으로 구성되는 것이 바람직하다.
광원(1611)은 촬상부(1612)를 중심으로 수직에 소정 각도로 설치되어 소정 폭을 갖는 빔을 발산하고, 발산된 빔은 측정 면에 도달하여 포인트를 생성하게 된다. 이렇듯 광원(1611)이 수직에 소정 각도로 설치되는 이유는 광원(1611)과 측정 면의 거리 변화에 따라 포인트의 위치가 가변되게 하기 위함이다.
촬상부(1612)는 측정 면과 평행하게 형성되며, 광원(1611)으로부터 발산되는 빔에 의해 측정 면상에 생성되는 포인트를 포함하는 측정 면의 영상을 촬상하여 출력하는 광센서일 수 있다. 촬상부(1612)는 광원(1611)과 측정 면과의 이격 거리에 따라 달라지는 포인트를 포함하는 측정 면 영상을 촬상하여 마이컴(1670)으로 출력할 수 있다.
도 16의 안내 로봇(1600)의 기본 구성을 살펴보면 청소구역 내의 먼지 또는 이물질을 감지하는 먼지 감지 센서를 포함하고, 먼지 감지 센서에 의해 감지된 먼지 또는 이물질을 흡입하는 흡입수단(1621)과, 흡입수단(1621)에 의해 집진 된 먼지 및 이물질을 수납하는 먼지 수납 수단(1622)를 포함하는 진공 청소 수단(1620)과, 청소로봇(1600)을 주행시키는 주행수단(1630)과, 진공 청소 수단(1620) 및 주행수단(1630)에 구동 전원을 공급하는 배터리(1640)와, 소정 주기마다 배터리(1640)의 잔량을 감지하여 그 값이 소정 값 이하일 경우 배터리 충전 요청 신호를 출력하는 배터리 감지 회로(1650)와, 청소로봇(1600)의 구동 프로그램이 저장되며, 안내신호로부터 산출된 충전대의 위치정보가 저장되는 메모리(1660) 및 사용자의 조작명령을 입력받는 입력부(1680)와 청소로봇의 구동 상태를 표시하는 표시부(1690)를 포함할 수 있다.
메모리(1660)는 예를 들면, EEPROM 또는 플래시 메모리와 같은 비휘발성 메모리 소자로 구성되며, 안내 로봇(1600)의 구동을 위한 운영 프로그램이 저장되어 있다. 또한, 본 발명의 특징적인 양상에 따라 메모리(1660)는 측정 면 영상 내의 포인트 위치별 거리정보가 저장된다 상술한 바와 같이, 포인트의 위치별 거리정보는 실험에 의해 산출된 실측 정보가 샘플링되어 저장되며, 이러한 데이터는 마이컴(1670)에 의해 액세스 제어된다.
주행수단(1630)은 마이컴(1670)으로부터 출력되는 제어신호에 따라 우륜 및 좌륜모터(1621, 1622)를 구동시켜 이동로봇(1600)을 주행시킨다. 주행수단(1630)의 우륜 및 좌륜모터(1621, 1622)는 이동로봇(1600)을 주행시키는 좌/우 바퀴와 연결될 수 있다. 따라서, 우륜 및 좌륜모터(1621, 1622)의 회전속도와 회전 방향에 따라 이동로봇(1600)은 전후좌우로 주행할 수 있다.
마이컴(1670)은 메모리(1660)에 저장된 운영 프로그램에 따라 이동로봇(1600) 장치 전반을 제어하며, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상 속의 빔 포인트의 위치 변화에 따른 거리 측정 센서(1610)와 측정 면간의 거리를 산출하고, 산출된 거리 정보에 따라 필요한 경우 주행 방향을 재설정한다.
이러한 마이컴(1670)의 기능은 이동로봇(1600)에 탑재되는 운영 프로그램의 기능 모듈 중 하나로써, 소프트웨어 언어로 간단하게 구현가능하다.
마이컴(1670)은 주행수단(1630)의 구동을 제어하는 주행 제어부(1671)와, 거리 측정 센서(1610)로부터 출력되는 측정 면 영상을 수신하여 포인트를 추출하고, 추출된 포인트 위치를 산출하는 포인트 위치 산출부(1672)와, 포인트 위치 산출부(1672)에 의해 산출된 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 메모리(1660)에서 참조하여 거리 측정 센서(1610)와 측정 면간의 거리를 산출하는 거리 산출부(1673)를 포함하여 구성될 수 있다.
주행 제어부(1671)는 이동로봇(1600)의 운영 프로그램으로부터 출력되는 제어명령에 따라 이동로봇(1600)을 주행시키는 주행수단(1630)을 제어할 수 있다.
포인트 위치 산출부(1672)는 촬상부(1612)를 통해 출력되는 측정 면 영상을 수신하여 측정 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력한다. 포인트 위치 산출부(1672)는 측정 면과 색상이 다른 빔에 의해 생성된 포인트를 측정 면과의 색상 정보 차를 이용하여 추출하고, 포인트가 측정 면 영상에서 어느 위치에 생성되었는지를 산출하여 산출된 위치 정보를 거리 정보 산출부로 전송할 수 있다.
거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 출력할 수 있다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)를 저면에 설치하여 거리 산출부(1673)에 의해 측정된 거리 정보를 통해 장애물 및 바닥 면과 이동로봇(1600) 간의 높이가 달라지는 문턱과 같은 임무 수행 불가능 지역을 판단하여 해당 지역을 이탈할 수 있다. 이에 따라 본 발명에 따른 마이컴(1670)은 거리 산출부(1673)에 의해 산출된 측정 면간의 거리가 소정 오차 범위를 벗어나는 경우 장애물로 판단하고, 주행 방향을 재설정하여 재설정된 주행 방향에 따라 주행하도록 주행 제어부(1671)로 제어 신호를 출력하는 주행 방향 설정부(1674)를 더 포함할 수 있다.
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 안내 로봇(1600)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고, 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
따라서, 본 발명에 따른 안내 로봇(1600)은 초 근접 거리 측정이 가능한 거리 측정 센서(1610)를 통해 안내 로봇(1600)과 바닥 면간의 정확한 거리 정보를 산출하여 이에 따라 구조물에 의해 높이가 달라지는 지역을 보다 정확하게 판단하고, 이를 회피할 수 있는 장점을 갖는다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)를 안내 로봇(1600)의 측면에 설치하여 월 팔로윙(wall following) 주행시 해당 벽면으로부터 일정한 간격으로 주행할 수 있도록 한다. 이에 따라 본 발명에 따른 마이컴(1670)의 주행 방향 설정부(1674)는 거리 산출부(1673)에 의해 산출된 측정 면과의 거리를 설정된 거리 정보와 비교하여 측정 면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 안내 로봇(1600)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고, 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 안내 로봇(1600)의 진행방향을 유지시키되, 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 안내 로봇(1600)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다.
따라서, 본 발명에 따른 안내 로봇(1600)은 초 근접 거리 측정이 가능한 거리 측정 센서(1610)를 통해 안내 로봇(1600)과 벽면 간의 정확한 거리 정보를 산출하여 벽면을 따라 주행하는 월 팔로윙 주행시 일정한 간격을 유지하며 주행하도록 할 수 있는 장점을 갖는다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)은 상술한 거리 측정 센서(1610)가 측정 불가능한 상황에 처해 질 경우 서버 또는 관리자에게 이를 통보하도록 한다. 이에 따라 본 발명에 따른 마이컴(1670)은 포인트 위치 산출부(1672)에 의해 측정 면 영상 내에서 포인트가 존재하지 않을 경우 스피커(1700) 또는 표시부(1690)를 통해 서버 또는 관리자에게 측정 에러를 통보하는 측정 에러 통보부(1675)를 더 포함할 수 있다.
포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 측정 면의 영상에서 포인트를 추출하는데, 측정 면의 영상 내에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(1675)로 에러 신호를 출력할 수 있다. 측정 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 이에 따라 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 사용자에게 측정 에러를 통보할 수 있다.
이하에서는 본 발명의 바람직한 일 실시 예에 따른 거리 측정 센서(1610)를 이용한 안내 로봇의 주행 방법을 도 17및 도 18을 통해 보다 상세히 설명하기로 한다.
도 17은 본 발명의 바람직한 일 실시 예에 따른 안내 로봇의 주행 과정을 개략적으로 도시한 흐름도이다. 도 17에 도시된 바와 같이, 벽면을 따라 주행하는 안내 로봇의 주행 방법은 안내 로봇(1600)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(1610)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(1660)로부터 참조하여 거리 측정 센서(1610)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 안내 로봇(1600)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성된다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 안내 로봇(1600)의 주행 방법은 바닥 면 영상 내에서 포인트가 추출되지 않을 경우 스피커(1700) 또는 표시부(1690)을 통해 사용자에게 측정 에러를 통보하는 단계를 더 포함할 수 있다.
사용자가 안내 로봇(1600)에 대하여 길 안내를 요청하면(S1701) 안내 로봇(1600)은 전술한 바와 같이 길 안내 표시 서비스와 함께 길 안내 동행 서비스를 시작하게 된다(S1703).
이때 마이컴(1670)은 안내 로봇(1600) 저면에 구비되는 하나 이상의 거리 측정 센서(1610)로 구동 명령을 전송할 수 있다(S1705). 거리 측정 센서(1610)는 구동 명령에 따라 광원(1611)을 통해 소정 폭을 가지는 빔을 바닥 면에 조사하고 촬상부(1612)는 빔에 의해 바닥 면에 생성되는 포인트를 포함하는 바닥 면 영상을 촬상하여 마이컴(1670)의 포인트 위치 산출부(1672)로 출력할 수 있다(S1707).
포인트 위치 산출부(1672)는 거리 측정 센서(1610)로부터 출력되는 바닥 면 영상을 수신하여 바닥 면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력할 수 있다(S1713).
거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(1674)로 출력할 수 있다(S1715).
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S1717), 판단 결과 설정된 기준 거리 정보의 오차 범위인 경우 주행을 유지하고(S1723), 설정된 기준 거리 정보의 오차 범위를 벗어나는 경우 해당 이동로봇(1600)이 주행 중인 지역이 임무 수행 불가능 지역 또는 장애물 지역으로 판단하고, 해당 지역을 이탈하도록 주행 방향을 재설정하고(S1719), 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다(S1721). 길 안내가 완료되면 이동로봇(200)은 그 구동을 중지한다(S125). 주행 방향을 재 설정하는 경우에는 길 안내를 위한 이동 경로를 새롭게 계산할 수 있다.
한편, 포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 바닥 면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우(S1709), 측정 에러 통보부(1675)로 에러 신호를 출력한다. 바닥 면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다. 따라서, 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 서버 또는 관리자에게 측정 에러를 통보할 수 있다(S1711).
도 18은 본 발명의 제 2 실시 예에 따른 안내 로봇의 길 안내 시 주행 과정을 개략적으로 도시한 흐름도이다. 도 18에 도시된 바와 같이, 본 발명에 따른 안내 로봇의 길 안내시 주행 방법은 안내 로봇(1600)의 측면에 구비되며, 벽면으로 조사한 빔에 의해 생성된 포인트를 포함하는 벽면 영상을 출력하는 거리 측정 센서(1610)로부터 벽면 영상을 수신하는 단계와, 벽면 영상에서 포인트를 추출하고, 추출된 포인트 위치 정보를 산출하는 단계와, 산출된 포인트 위치 정보를 통해 해당 포인트 위치 정보에 대응되는 거리정보를 벽면 영상 내의 포인트 위치별 거리정보가 저장되는 메모리(1660)로부터 참조하여 거리 측정 센서(1610)와 벽면 간의 거리를 산출하는 단계와, 산출된 벽면과의 거리를 기 설정된 거리 정보와 비교하여 이동로봇(1600)과 벽면과의 거리가 설정된 거리 정보의 오차 범위 이내로 유지되도록 주행 방향을 재설정하고, 재설정된 주행방향에 따라 주행하도록 제어 신호를 출력하는 단계를 포함하여 구성될 수 있다.
본 발명의 추가적인 양상에 따라 본 발명에 따른 이동로봇(1600)의 주행 방법은 벽면 영상 내에서 포인트가 추출되지 않을 경우 스피커(1700) 또는 표시부(1690)를 통해 서버 또는 사용자에게 측정 에러를 통보하는 단계를 더 포함할 수 있다.
사용자가 안내 로봇(1600)에 대하여 길 안내를 요청하면(S1801) 안내 로봇(1600)은 전술한 바와 같이 길 안내 표시 서비스와 함께 벽면 주행을 이용하여 길 안내 동행 서비스를 시작하게 된다(S1803).
이때 마이컴(1670)은 이동로봇(1600) 측면에 구비되는 하나 이상의 거리 측정 센서(1610)로 구동 명령을 전송할 수 있다(S1805). 거리 측정 센서(1610)는 구동 명령에 따라 광원(1611)을 통해 소정 폭을 가지는 빔을 벽면에 조사하고, 촬상부(1612)는 빔에 의해 벽면에 생성되는 포인트를 포함하는 벽면 영상을 촬상하여 마이컴(1670)의 포인트 위치 산출부(1672)로 출력할 수 있다(S1807).
포인트 위치 산출부(1672)는 거리 측정 센서(1610)로부터 출력되는 벽면 영상을 수신하여 벽면 영상 내에서 포인트를 추출하고, 추출된 포인트의 측정 면 영상에서의 위치 정보를 산출하여 산출된 위치 정보를 거리 산출부(1673)로 출력할 수 있다(S1813). 거리 산출부(1673)는 포인트 위치 산출부(1672)로부터 출력되는 포인트의 위치 정보를 수신하고, 메모리(1660)로부터 해당 거리 정보를 이용하여 그에 대응되는 광원(1611)과 측정 면간의 거리를 액세스하고, 이를 주행 방향 설정부(1674)로 출력할 수 있다(S1815).
주행 방향 설정부(1674)는 거리 산출부(1673)로부터 출력되는 안내 로봇(1600)과 벽면 간의 거리 정보를 수신하여 기 설정된 기준 거리 정보의 오차 범위 이내에 해당되는지 판단하고(S1817), 판단 결과 설정된 기준 거리 정보의 오차 범위 이내일 경우 안내 로봇(1600)의 진행방향을 유지시키되(S1821), 오차 범위를 벗어나는 경우 벽면과의 거리가 설정된 기준 거리 정보의 오차 범위 이내로 유지되도록 해당 안내 로봇(1600)의 진행 방향을 재설정하여 재설정된 주행 방향에 따라 안내 로봇(1600)이 주행하도록 주행 제어부(1671)로 제어 신호를 출력할 수 있다(S1819). 길 안내 임무가 완료되면 안내 로봇(1600)은 그 구동을 중지할 수 있다(S1823).
한편, 포인트 위치 산출부(1672)는 촬상부(1612)로부터 전송되는 벽면의 영상에서 포인트가 존재하지 않아 포인트의 위치를 산출하지 못할 경우 측정 에러 통보부(1675)로 에러 신호를 출력할 수 있다. 벽면의 영상 내에 포인트가 존재하지 않는 경우는 거리 측정 센서(1610)와 측정 면간 거리가 촬상부(1612)의 촬상 영역을 벗어난 것으로 판단할 수 있다(S1809). 따라서, 측정 에러 통보부(1675)는 에러 신호를 수신하여 안내 로봇(1600)에 구비된 스피커(1700) 또는 표시부(1690)을 통해 음성 또는 그래픽 데이터를 출력함으로써, 서버 또는 관리자에게 측정 에러를 통보할 수 있다(S1811).
도 19 내지 도 21은 본 발명의 일 실시예에 의한 안내 로봇들이 구역별로 나누어 길 안내 동행 서비스를 제공하는 일 예를 설명하기 위한 도면들이다.
도 19에 도시된 바와 같이, 본 발명의 일 실시예에 의한 안내 로봇들(1910, 1920, 1930, 1940)은 공항 내부(1900)의 일정 영역에 배치될 수 있다. 이 경우, 공항 내부(1900)는 일정한 구역들(1901, 1902, 1903, 1904)로 구분될 수 있고, 안내 로봇들(1910, 1920, 1930, 1940)은 정해진 구역 내에서만 이동하도록 세팅될 수 있다. 예를 들어, 제1 안내 로봇(1910)은 공항 내부(1900)의 제1 구역(1901) 내에서만 이동할 수 있다. 또한, 제2 안내 로봇(1920)은 공항 내부(1900)의 제2 구역(1902) 내에서만 이동할 수 있다. 또한, 제3 안내 로봇(1930)은 공항 내부(1900)의 제3 구역(1903) 내에서만 이동할 수 있다. 그리고, 제4 안내 로봇(1940)은 공항 내부(1900)의 제4 구역(1904) 내에서만 이동할 수 있다.
안내 로봇이 정해진 구역 내에서만 이동하도록 하는 세팅에 따를 때, 안내 로봇들(1910, 1920, 1930, 1940)은 자신이 이동 가능한 구역을 벗어나는 지점까지만 사용자를 동행할 수 있다. 그리고, 자신이 이동 가능한 구역을 벗어나는 순간부터는 다른 안내 로봇이 이어서 동행하도록 안내 로봇끼리 통신이 가능하다. 예를 들어 도 20에 도시된 바와 같이, 사용자(1905)는 제1 구역(1901)에서 제1 안내 로봇(1910)에게 길 안내 동행 서비스를 요청할 수 있다. 이 때, 사용자(1905)가 요청한 목적지까지의 이동 경로는 제1 구역(1901)을 지나 제2 구역(1902)를 통과하는 것으로 가정한다. 이 경우, 제1 안내 로봇(1910)은 사용자(1905)를 자신이 이동 가능한 제1 구역(1901)의 경계까지만 동행할 수 있다. 그리고 도 21에 도시된 바와 같이, 제1 안내 로봇(1910)은 제2 안내 로봇(1920)에게 사용자(1905)를 계속해서 길 안내 동행하도록 하는 메시지를 전송할 수 있다. 이 경우 제1 안내 로봇(1910)은 제2 안내 로봇(1920)에게 사용자(1905)를 촬영한 영상 데이터, 사용자(1905)의 이동 경로 정보 및 네비게이션 데이터 등을 메시지에 포함하여 전송할 수 있다. 제1 안내 로봇(1910)으로부터 메시지를 전송받은 제2 안내 로봇(1920)은 이동 경로 중 제2 구역(1902)의 시작 지점부터 사용자(1905)와 동행하여 길 안내 서비스를 제공할 수 있다.
도 22는 본 발명의 일 실시예에 의한 공항용 안내 로봇의 구성을 블록도로 도시한 도면이다. 도 4 내지 도 21에서 설명한 본 발명의 일 실시예에 의한 공항용 안내 로봇에 대하여 정리하면, 도 1 및 도 2에 기재된 블록도는 도 22로 간략화될 수 있다.
본 발명의 일 실시예에 의한 공항용 안내 로봇(2200)은 공항 지도 데이터를 저장하는 맵(map) 관리모듈(2210)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 촬영하는 카메라(2250)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 데이터를 송수신하는 통신부(2230)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 처리하는 이미징 프로세서(2240)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 처리된 이미지를 출력하는 디스플레이부(2260)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 상기 공항용 안내 로봇을 이동시키는 구동부(2290)를 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 제어부(2280)를 포함할 수 있다. 그리고 제어부(2280)는 길 안내 요청 신호를 수신하는 경우, 현재 위치로부터 목적지까지의 이동 경로를 계산할 수 있다. 그리고 공항용 안내 로봇(2200)는 이동 경로에 따라 이동할 수 있다. 카메라(2250)는 이동 경로 일정 영역의 실시간 영상을 촬영할 수 있다. 그리고 제어부(2280)는 상기 촬영된 실시간 영상을 상기 디스플레이부(2260)에 출력하도록 제어할 수 있다. 그리고 제어부(2280)는 이동 경로에 기초하는 네비게이션 컨텐츠를 생성할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하도록 제어할 수 있다. 그리고 제어부(2280)는 이동 경로에 기초하는 네비게이션 컨텐츠를 생성할 수 있다. 그리고 제어부(2280)는 사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 상기 디스플레이부(2260)에 출력하도록 제어할 수 있다. 그리고 공항용 안내 로봇(2200)은 위치 인식부(2220)를 더 포함할 수 있다. 위치 인식부(2220)은 LiDAR 및 Wi-Fi 모듈을 포함할 수 있다. 그리고 제어부(2280)는 위치 인식부(2220)를 통해 공항용 안내 로봇(2200)의 현재 위치를 디텍팅할 수 있다. 그리고 제어부(2280)는 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 이동 경로를 계산할 수 있다. 통신부(2230)는 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어할 수 있다. 통신부(2230)는 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신할 수 있다. 그리고 제어부(2280)는 디스플레이부(2260)에 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어할 수 있다. 통신부(2230)는 서버로부터 목적지 주변의 주요 시설 데이터를 수신할 수 있다. 그리고 제어부(2280)는 CCTV 촬영 영상 데이터와 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부(2260)에 출력하도록 제어할 수 있다. 카메라(2250)는 사용자를 실시간으로 촬영할 수 있다. 그리고 제어부(2280)는 실시간으로 촬영된 사용자 이미지를 이용하여 사용자와 공항용 안내 로봇(2200) 사이의 거리를 실시간으로 계산할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다. 공항용 안내 로봇(2200)은 사용자와 공항용 안내 로봇(2200) 사이의 거리를 실시간으로 센싱하는 센서(2270)을 포함할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다.
본 발명의 다른 일 실시예에 의한 공항용 안내 로봇은 공항 지도 데이터를 저장하는 맵(map) 관리모듈(2210)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 상기 광원과 측정 면의 거리를 산출하는 센서(2270)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 데이터를 송수신하는 통신부(2230)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 이미지를 처리하는 이미징 프로세서(2240)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 처리된 이미지를 출력하는 디스플레이부(2260)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 공항용 안내 로봇(2200)을 이동시키는 구동부(2290)을 포함할 수 있다. 그리고 공항용 안내 로봇(2200)은 제어부(2280)을 포함할 수 있다. 그리고, 사용자로부터 길 안내 요청 신호를 수신하는 경우, 센서(2270)는 사용사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 센싱할 수 있다. 그리고 제어부(2280)는 현재 위치로부터 목적지까지의 이동 경로를 계산할 수 있다. 그리고 공항용 안내 로봇(2200)은 이동 경로에 따라 이동할 수 있다. 그리고 제어부(2280)는 사용자와 공항용 안내 로봇(2200) 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 구동부(2290)의 구동 속도를 조절할 수 있다. 센서(2270) 내 광원은 LED 및 상기 LED로부터 발산되는 광을 빔으로 집속하는 광 집속부를 포함할 수 있다. 센서(2270)의 광원은 레이저일 수 있다. 그리고 센서(2270)는 공항용 안내 로봇(2200)의 측면에 형성될 수 있다.
처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서, 본 발명의 일 실시예에 의한 길 안내 서비스를 제공하기 위한 상기 컴퓨터-실행가능 명령들은, 길 안내 요청 신호를 수신하는 명령들, 현재 위치로부터 목적지까지의 이동 경로를 계산하는 명령들, 상기 이동 경로에 따라 이동하는 명령들, 카메라를 통해 이동 경로 일정 영역의 실시간 영상을 촬영하는 명령들 및 상기 촬영된 실시간 영상을 상기 디스플레이부에 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들 및 사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 디스플레이부에 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 위치 인식부를 통해 상기 공항용 안내 로봇의 현재 위치를 디텍팅하는 명령들 및 상기 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 상기 이동 경로를 계산하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 상기 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들 및 디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 포함할 수 있다. 그리고 컴퓨터-실행가능 명령들은 통신부를 통해 서버로부터 상기 목적지 주변의 주요 시설 데이터를 수신하는 명령들 및 CCTV 촬영 영상 데이터와 상기 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력하는 명령들을 포함할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 공항용 로봇의 AP(150)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 공항용 안내 로봇에 있어서,
    공항 지도 데이터를 저장하는 맵(map) 관리모듈;
    영상을 촬영하는 카메라;
    데이터를 송수신하는 통신부;
    영상을 처리하는 이미징 프로세서;
    상기 이미지 프로세서에서 처리된 상기 영상을 출력하는 디스플레이부;
    상기 공항용 안내 로봇을 이동시키는 구동부; 및
    상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
    상기 제어부는,
    길 안내 요청 신호를 수신하는 경우,
    상기 공항 지도 데이터를 기반으로, 현재 위치부터 목적지까지의 계산된 이동 경로를 따라 이동 중, 상기 카메라를 제어하여 촬영한 이동 경로 일정 영역의 실시간 영상을 상기 디스플레이부에 출력하도록 제어하는,
    공항용 안내 로봇.
  2. 제1 항에 있어서,
    상기 제어부는,
    상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하고,
    상기 디스플레이부에 상기 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하도록 제어하는,
    공항용 안내 로봇.
  3. 제1 항에 있어서,
    상기 제어부는,
    상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하고,
    사용자 선택 입력에 따라, 상기 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 상기 디스플레이부에 출력하도록 제어하는,
    공항용 안내 로봇.
  4. 제1 항에 있어서,
    상기 공항용 안내 로봇의 현재 위치를 디텍팅하는 위치 인식부를 더 포함하고,
    상기 제어부는,
    상기 위치 인식부에서 디텍팅한 상기 현재 위치에 대한 현재 위치 정보와 상기 목적지에 대한 목적지 정보를 이용하여 상기 이동 경로를 계산하는,
    공항용 안내 로봇.
  5. 제1 항에 있어서,
    상기 제어부는,
    상기 통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하고,
    상기 디스플레이부에 상기 실시간 영상과 상기 CCTV 촬영 영상 데이터에 대응하는 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어하는,
    공항용 안내 로봇.
  6. 제1 항에 있어서,
    상기 제어부는,
    상기 통신부를 통해 상기 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신하고,
    상기 디스플레이부에 상기 실시간 영상과 상기 CCTV 촬영 영상 데이터에 대응하는 CCTV 촬영 영상을 화면 분할 모드로 출력하도록 제어하는,
    공항용 안내 로봇.
  7. 제6 항에 있어서,
    상기 통신부는 서버로부터 목적지 주변의 주요 시설 데이터를 수신하고,
    상기 제어부는,
    상기 CCTV 촬영 영상 데이터와 상기 주요 시설 데이터를 믹싱(mixing)하여 상기 디스플레이부에 출력하도록 제어하는,
    공항용 안내 로봇.
  8. 제1 항에 있어서,
    상기 카메라는 실시간으로 사용자에 대한 사용자 영상을 촬영하고,
    상기 제어부는,
    상기 사용자 영상을 이용하여 상기 사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 계산하고,
    상기 사용자와 상기 공항용 안내 로봇 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 상기 구동부의 구동 속도를 조절하는,
    공항용 안내 로봇.
  9. 제1 항에 있어서,
    상기 사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 센싱하는 센서를 더 포함하고,
    상기 제어부는,
    상기 사용자와 상기 공항용 안내 로봇 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 상기 구동부의 구동 속도를 조절하는,
    공항용 안내 로봇.
  10. 공항용 안내 로봇에 있어서,
    공항 지도 데이터를 저장하는 맵(map) 관리모듈;
    측정 면과 측정 면에 빔을 발산하는 광원의 거리 변화에 따라 변화하는 측정 면에서의 빔의 포인트의 위치 변화를 감지하여 상기 광원과 측정 면의 거리를 산출하는 센서;
    데이터를 송수신하는 통신부;
    영상을 처리하는 이미징 프로세서;
    상기 이미지 프로세서에서 처리한 상기 영상을 출력하는 디스플레이부;
    상기 공항용 안내 로봇을 이동시키는 구동부; 및
    상기 공항용 안내 로봇의 동작을 제어하는 제어부를 포함하고,
    상기 제어부는,
    사용자로부터 길 안내 요청 신호를 수신하는 경우,
    상기 센서를 동작시켜, 상기 사용자와 상기 공항용 안내 로봇 사이의 거리를 실시간으로 센싱하고,
    상기 공항 지도 데이터를 기반으로, 현재 위치로부터 목적지까지의 계산된 이동 경로를 따라 이동 중 상기 사용자와 상기 공항용 안내 로봇 사이의 거리가 기 정해진 범위에 속하도록 실시간으로 상기 구동부의 구동 속도를 조절하는,
    공항용 안내 로봇.
  11. 제10 항에 있어서,
    상기 광원은,
    LED 및 상기 LED로부터 발산되는 광을 빔으로 집속하는 광 집속부를 포함하는,
    공항용 안내 로봇.
  12. 제10 항에 있어서,
    상기 광원이 레이저인 것을 특징으로 하는,
    공항용 안내 로봇.
  13. 제10 항에 있어서,
    상기 센서는 상기 공항용 안내 로봇의 측면에 형성되는,
    공항용 안내 로봇.
  14. 처리 시스템에 의해 실행하기 위한 컴퓨터-실행가능 명령들을 포함하는 컴퓨터-판독가능 저장 매체로서,
    길 안내 서비스를 제공하기 위한 상기 컴퓨터-실행가능 명령들은,
    길 안내 요청 신호를 수신하는 명령들;
    현재 위치로부터 목적지까지의 이동 경로를 계산하는 명령들;
    상기 이동 경로에 따라 이동하는 명령들;
    카메라를 통해 이동 경로 일정 영역의 실시간 영상을 촬영하는 명령들; 및
    상기 촬영된 실시간 영상을 상기 디스플레이부에 출력하는 명령들을 포함하는,
    컴퓨터-판독가능 저장 매체.
  15. 제14 항에 있어서,
    상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들; 및
    디스플레이부에 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 화면 분할 모드로 출력하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
  16. 제14 항에 있어서,
    상기 이동 경로에 기초하는 네비게이션 컨텐츠를 생성하는 명령들; 및
    사용자 선택 입력에 따라, 상기 촬영된 실시간 영상과 상기 네비게이션 컨텐츠를 교대로 디스플레이부에 출력하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
  17. 제14 항에 있어서,
    위치 인식부를 통해 상기 공항용 안내 로봇의 현재 위치를 디텍팅하는 명령들; 및
    상기 디텍팅된 현재 위치 정보와 목적지 정보를 이용하여 상기 이동 경로를 계산하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
  18. 제14 항에 있어서,
    통신부를 통해 상기 이동 경로를 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들; 및
    디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
  19. 제14 항에 있어서,
    통신부를 통해 상기 목적지 주변을 촬영하는 CCTV 촬영 영상 데이터를 수신하는 명령들; 및
    디스플레이부에 상기 촬영된 실시간 영상과 수신된 CCTV 촬영 영상을 화면 분할 모드로 출력하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
  20. 제19 항에 있어서,
    통신부를 통해 서버로부터 상기 목적지 주변의 주요 시설 데이터를 수신하는 명령들; 및
    상기 CCTV 촬영 영상 데이터와 상기 목적지 주변의 주요 시설 데이터를 믹싱(mixing)하여 디스플레이부에 출력하는 명령들을 더 포함하는,
    컴퓨터-판독가능 저장 매체.
PCT/KR2017/010440 2016-10-10 2017-09-22 공항용 안내 로봇 및 그의 동작 방법 WO2018070686A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/340,295 US20200088524A1 (en) 2016-10-10 2017-09-22 Airport guide robot and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160130735A KR102608046B1 (ko) 2016-10-10 2016-10-10 공항용 안내 로봇 및 그의 동작 방법
KR10-2016-0130735 2016-10-10

Publications (1)

Publication Number Publication Date
WO2018070686A1 true WO2018070686A1 (ko) 2018-04-19

Family

ID=61906158

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010440 WO2018070686A1 (ko) 2016-10-10 2017-09-22 공항용 안내 로봇 및 그의 동작 방법

Country Status (3)

Country Link
US (1) US20200088524A1 (ko)
KR (1) KR102608046B1 (ko)
WO (1) WO2018070686A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200033135A1 (en) * 2019-08-22 2020-01-30 Lg Electronics Inc. Guidance robot and method for navigation service using the same
TWI695180B (zh) * 2018-07-24 2020-06-01 國立交通大學 機器人導引方法
EP3792848A1 (en) * 2019-09-12 2021-03-17 eBay, Inc. Systems and methods for deploying a robotic security escort to enhance enterprise security

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180070932A (ko) * 2016-12-19 2018-06-27 삼성전자주식회사 이동체 및 이동체의 제어 방법
KR20190141303A (ko) 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
KR102257746B1 (ko) 2018-11-13 2021-05-31 주식회사 케이티 로봇군 제어 방법 및 시스템
US11358274B2 (en) * 2019-06-13 2022-06-14 Lingdong Technology (Beijing) Co. Ltd Autonomous mobile robot with adjustable display screen
KR20200144363A (ko) * 2019-06-18 2020-12-29 엘지전자 주식회사 로봇 및 그의 구동 방법
WO2021002516A1 (ko) * 2019-07-04 2021-01-07 엘지전자 주식회사 전자 장치 및 전자 장치의 동작 방법
KR102140322B1 (ko) * 2019-09-30 2020-07-31 주식회사 힉스코리아 오토파일럿 기능을 구비한 로봇볼 및 이의 제어 시스템
JP6833111B1 (ja) * 2019-11-28 2021-02-24 三菱電機株式会社 表示制御装置、表示システム、及び、表示制御方法
KR20210075428A (ko) * 2019-12-13 2021-06-23 삼성전자주식회사 로봇 및 그 제어 방법
KR102162439B1 (ko) * 2019-12-17 2020-10-06 에스케이텔레콤 주식회사 자율이동지원장치 및 자율이동지원장치의 동작 방법
CN111798133A (zh) * 2020-07-06 2020-10-20 北京海益同展信息科技有限公司 机器人调度方法、装置、设备、***和存储介质
JP2022030594A (ja) * 2020-08-07 2022-02-18 本田技研工業株式会社 管理装置、管理システム、管理方法、およびプログラム
CN112362047A (zh) * 2020-11-26 2021-02-12 浙江商汤科技开发有限公司 定位方法及装置、电子设备和存储介质
CN113175932A (zh) * 2021-04-27 2021-07-27 上海景吾智能科技有限公司 机器人导航自动化测试方法、***、介质及设备
CN114296448A (zh) * 2021-12-10 2022-04-08 北京云迹科技股份有限公司 一种机器人引领方法、装置、电子设备和存储介质
CN114200938B (zh) * 2021-12-10 2024-03-19 北京云迹科技股份有限公司 引领机器人周围障碍物的语音提醒方法、装置和机器人

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR20080090150A (ko) * 2007-04-04 2008-10-08 삼성전자주식회사 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법
KR100904191B1 (ko) * 2008-05-29 2009-06-22 (주)다사로봇 안내용 로봇
US8700250B1 (en) * 2012-03-15 2014-04-15 The Boeing Company Airport transportation system
CN105549588A (zh) * 2015-12-10 2016-05-04 上海电机学院 一种多功能导视机器人

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080100735A (ko) * 2007-05-14 2008-11-19 주식회사 유진로봇 무선 네트워크 기반의 이동로봇을 이용한 메시지 전달시스템
KR101012288B1 (ko) * 2008-07-11 2011-02-08 주식회사 로보테크 이동식 안내로봇 및 그 시스템
KR101127490B1 (ko) * 2009-12-22 2012-03-22 (주)이산솔루션 로봇과 디스플레이 장치의 상호 작용형 고객 서비스 시스템 및 고객 서비스 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR20080090150A (ko) * 2007-04-04 2008-10-08 삼성전자주식회사 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법
KR100904191B1 (ko) * 2008-05-29 2009-06-22 (주)다사로봇 안내용 로봇
US8700250B1 (en) * 2012-03-15 2014-04-15 The Boeing Company Airport transportation system
CN105549588A (zh) * 2015-12-10 2016-05-04 上海电机学院 一种多功能导视机器人

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI695180B (zh) * 2018-07-24 2020-06-01 國立交通大學 機器人導引方法
US20200033135A1 (en) * 2019-08-22 2020-01-30 Lg Electronics Inc. Guidance robot and method for navigation service using the same
US11686583B2 (en) * 2019-08-22 2023-06-27 Lg Electronics Inc. Guidance robot and method for navigation service using the same
EP3792848A1 (en) * 2019-09-12 2021-03-17 eBay, Inc. Systems and methods for deploying a robotic security escort to enhance enterprise security

Also Published As

Publication number Publication date
US20200088524A1 (en) 2020-03-19
KR102608046B1 (ko) 2023-11-30
KR20180039438A (ko) 2018-04-18

Similar Documents

Publication Publication Date Title
WO2018070686A1 (ko) 공항용 안내 로봇 및 그의 동작 방법
WO2018128292A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2018070664A1 (ko) 공항용 보조 로봇 및 그의 동작 방법
WO2020107957A1 (zh) 一种机房巡检***及其工作方法
WO2018070663A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2016200098A1 (ko) 이동 로봇 및 그 제어방법
US11260533B2 (en) Robot and robot system comprising same
WO2017018848A1 (en) Mobile robot and control method thereof
WO2015008874A1 (ko) 로봇 청소기 및 그 로봇 청소기의 3d 센서 자가 교정 방법
US20190358814A1 (en) Robot and robot system comprising same
WO2018043957A1 (en) Robot cleaner
WO2018066837A1 (ko) 공항 로봇 및 이를 포함하는 시스템
WO2018117514A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2018117513A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2020122582A1 (en) Artificial intelligence moving robot and method for controlling the same
WO2020218644A1 (ko) 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
WO2019212174A1 (ko) 인공지능 청소기 및 그 제어방법
KR102570164B1 (ko) 공항 로봇 및 그와 연결되는 서버의 동작 방법
WO2020159277A2 (ko) 이동 로봇 및 이의 제어 방법
WO2020196948A1 (ko) 인공 지능 청소기 및 그의 동작 방법
KR20180038884A (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
US11964402B2 (en) Robot control system, robot control method, and control program
WO2020138954A1 (ko) 이동 로봇 및 이동 로봇의 제어방법
EP3478143A1 (en) Robot cleaner
WO2019216673A1 (ko) 무인 이동체용 사물 유도 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17860282

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17860282

Country of ref document: EP

Kind code of ref document: A1