WO2024122777A1 - 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 - Google Patents

선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 Download PDF

Info

Publication number
WO2024122777A1
WO2024122777A1 PCT/KR2023/009293 KR2023009293W WO2024122777A1 WO 2024122777 A1 WO2024122777 A1 WO 2024122777A1 KR 2023009293 W KR2023009293 W KR 2023009293W WO 2024122777 A1 WO2024122777 A1 WO 2024122777A1
Authority
WO
WIPO (PCT)
Prior art keywords
collaborative robot
robot
collaborative
drive
movement
Prior art date
Application number
PCT/KR2023/009293
Other languages
English (en)
French (fr)
Inventor
임기웅
Original Assignee
주식회사 유에이로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유에이로보틱스 filed Critical 주식회사 유에이로보틱스
Publication of WO2024122777A1 publication Critical patent/WO2024122777A1/ko

Links

Images

Definitions

  • the present invention relates to a method of driving a cooperative robot capable of preemptive response and a system therefor.
  • a collaborative robot driving method and system for preemptive response such as fault diagnosis and operation compensation before the collaborative robot performs work, and a proactive response to enable the collaborative robot to be driven while avoiding surrounding movements during operation, are provided. It's about.
  • robots were able to perform the roles mentioned above is that, unlike humans, whose physical strength is depleted when working, robots complete a given task with only input data and supplied energy (e.g. electrical energy) until the drive control is activated. It may be because of its characteristics.
  • energy e.g. electrical energy
  • robots operate based on input data, so they do not make mistakes during work.
  • artificial intelligence (AI) technology has been applied to robots. It has become possible to perform more precise and accurate work by being able to learn on its own from the mounted and input driving data or identify surrounding objects.
  • robots do not have sensory functions and are unable to preemptively respond to preventable situations.
  • the present invention determines whether the collaborative robot is broken before performing a specific task or whether there is an error in driving to perform a specific task, and if it is broken or has an error in driving, corrects the above.
  • the purpose is to provide a method for performing a specific task and a system for doing so.
  • the present invention provides that when a collaborative robot sequentially performs a first drive task and a second drive for a specific task, before performing the second drive, the path that must be moved to perform the second drive or the second drive is performed.
  • the purpose is to provide a method and system for preemptive response by first identifying whether there are any obstacles in the movement radius of the collaborative robot.
  • the collaborative robot driving method capable of preemptive response is (a) when the collaborative robot is driven for fault diagnosis, the first position detection sensor detects the collaborative robot in real time. determining the positional accuracy, (b) if the positional accuracy of the collaborative robot does not fall within a preset error range, allowing the collaborative robot to perform a first drive for the task, (c) the collaborative robot Before carrying out the second drive for work, a second position detection sensor detects surrounding movement in the collaborative robot movement path corresponding to the second drive, and (d) the second position detection sensor detects the robot If no surrounding movement is detected in the collaborative robot movement path corresponding to the second drive, the method may include performing a second drive of the collaborative robot.
  • the position accuracy is characterized by calculating the degree of similarity by comparing and analyzing the standard position where the collaborative robot should be located when performing a task and the position of the collaborative robot when the collaborative robot is driven for fault diagnosis. You can do this.
  • the first position detection sensor is disposed adjacent to the collaborative robot and is characterized as a camera that detects the movement and position of the collaborative robot by recognizing at least one IR marker attached to the collaborative robot. You can.
  • the second position detection sensor is a device that includes at least one 3D Lidar or Depth camera, and is located adjacent to or on the collaborative robot, and detects the movement or position of a moving object in real time. It can be characterized as:
  • step (a) if the positional accuracy of the collaborative robot falls within a preset error range, failure information is sent to the robot server - the failure information includes an identification code of the collaborative robot, or information including at least one error range - requesting drive compensation by transmitting and when the collaborative robot receives drive compensation information from the robot server, the collaborative robot re-executes driving for fault diagnosis Additional steps may be included.
  • step (c), (c-1) when the second position detection sensor detects surrounding movement in the collaborative robot movement path corresponding to the second drive, the voice utterance unit of the collaborative robot warns.
  • a step of outputting voice may be further included.
  • step (c) when the second position detection sensor detects peripheral movement in the collaborative robot movement path corresponding to the second drive, the collaborative robot changes axis. Step to determine whether it is a possible collaborative robot. (c-2′) when it is determined that the cooperative robot is a cooperative robot capable of changing its axis, determining whether the cooperative robot is capable of avoiding the surrounding movement, and (c-3′) the cooperative robot When it is determined that avoidance driving for the surrounding movement is possible, the method may further include allowing the collaborative robot to perform avoidance driving for the surrounding movement.
  • the collaborative robot driving system includes a communication unit capable of exchanging data with the robot server and transmitting failure information to the robot server;
  • a sensor unit that generates sensing information by detecting the position and movement of the collaborative robot or objects around the collaborative robot;
  • An obstacle recognition unit that recognizes objects or people based on sensing information generated from the sensor unit;
  • a path creation unit that generates a movement path of the collaborative robot necessary when the collaborative robot performs a task;
  • a drive control unit that controls driving of the collaborative robot or a robot arm provided in the collaborative robot; and a voice emitting unit that outputs a warning voice.
  • It includes a collaborative robot with at least one IR marker attached to its outer surface, a position adjacent to the collaborative robot or placed on the collaborative robot, and movement of the collaborative robot by recognizing at least one IR marker attached to the collaborative robot. and a first position sensor that detects the location, a second position sensor that is disposed adjacent to the collaborative robot or in the collaborative robot, and detects the movement or position of a moving object in real time, and receives the fault information from the collaborative robot.
  • it may include a robot server that analyzes the failure information, generates drive correction information, and transmits the drive correction information to the collaborative robot.
  • the collaborative robot before the collaborative robot performs a specific task, the collaborative robot performs a fault diagnosis operation to detect in advance whether there is a breakdown or an error in the operation, thereby improving the completeness of the work and providing quality work. It has the effect of producing results.
  • the collaborative robot before the collaborative robot performs the second drive after the first drive, it is first determined whether there are any obstacles in the path along which it moves to perform the second drive or the movement radius of the collaborative robot when performing the second drive, and By implementing preemptive response, it has the effect of preventing problems (e.g. accidents, breakdowns, defects) that may occur during work, and further has the effect of enabling cooperative work between collaborative robots and users. there is.
  • problems e.g. accidents, breakdowns, defects
  • Figure 1 is a diagram illustrating a conceptual understanding of a cooperative robot driving system capable of preemptive response according to a first embodiment of the present invention.
  • Figure 2 is a diagram for conceptually understanding the failure information and drive correction information referred to in the present invention.
  • Figure 3 is a diagram showing a process in which a collaborative robot operates through preemptive response according to the first embodiment of the present invention.
  • Figure 4 is a perspective view showing a collaborative robot according to the first embodiment of the present invention.
  • Figure 5 is a simple schematic diagram showing the overall configuration of a cooperative robot driving system capable of preemptive response according to the first embodiment of the present invention.
  • Figure 6 is a diagram specifically showing a method of driving a cooperative robot capable of preemptive response according to the first embodiment of the present invention.
  • Figure 7 is a diagram specifically showing a collaborative robot driving method capable of preemptive response according to a second embodiment of the present invention.
  • Figure 8 is a diagram specifically showing a method of driving a collaborative robot capable of preemptive response according to a third embodiment of the present invention.
  • first and second are used to distinguish one component from another component, and the scope of rights should not be limited by these terms.
  • a first component may be named a second component, and similarly, the second component may also be named a first component.
  • Figure 1 is a diagram illustrating a conceptual understanding of a cooperative robot driving system capable of preemptive response according to a first embodiment of the present invention.
  • the collaborative robot drive system capable of preemptive response according to the first embodiment of the present invention (hereinafter abbreviated as the collaborative robot drive system 10) is used before the collaborative robot 100 performs the task.
  • the first position detection sensor 300 disposed adjacent to the collaborative robot 100 determines the positional accuracy of the collaborative robot 100 (2), and the collaborative robot ( If the positional accuracy of the collaborative robot 100 does not fall within the preset error range, the collaborative robot 100 can perform the first drive to perform the above task, and the positional accuracy of the collaborative robot 100 is within the preset error range.
  • the robot server 200 If it falls within the range, the robot server 200 generates drive correction information that can correct the drive for the error range and transmits it to the collaborative robot 100 (3), and the collaborative robot 100 performs the corrected drive. It relates to a system that enables the collaborative robot 100 to perform accurate and precise work (4).
  • the 'preemptive response' referred to in the present invention means that when the collaborative robot 100 of the present invention attempts to perform a specific task, it preempts incorrect driving due to a problem situation caused by a driving error or obstacle. It can be said that by identifying or predicting and correcting the operation of the collaborative robot 100 based on the identified data, more accurate and precise operation can be performed. Specifically, conventional robots that perform specific tasks brought convenience to users through precise and accurate movements that humans could not perform, but the movements performed by these robots operated only based on data input by users.
  • the present invention provides a collaborative robot (100) to solve the problems of conventional robots.
  • the collaborative robot 100 can perform the task more actively or interact with users. Enable work to be carried out cooperatively.
  • Figure 2 is a diagram for conceptually understanding the failure information and drive correction information referred to in the present invention.
  • the collaborative robot system 10 checks whether the collaborative robot 100 can properly perform a specific task before performing it or if the collaborative robot 100 fails. In order to diagnose whether a malfunction has occurred, the collaborative robot 100 performs a fault diagnosis operation.
  • the failure diagnosis drive referred to herein may refer to a simulation drive that allows the collaborative robot 100 to perform a task in advance before carrying out the actual work.
  • the first position detection sensor 300 disposed adjacent to the collaborative robot 100 is an IR marker attached to the outer surface of the collaborative robot 100.
  • the location accuracy of the collaborative robot 100 is determined, and fault information is generated based on this.
  • the collaborative robot 100 performs the 'B' drive by a fault diagnosis drive. If so, the first position detection sensor 300 not only recognizes the 'B' drive of the collaborative robot 100, but also compares and analyzes the 'B' drive and the standard 'A' drive to determine the location accuracy for the fault diagnosis drive. Understand (1).
  • the first position sensor 300 determines that the position accuracy of the collaborative robot 100 falls within a preset error range, it generates failure information.
  • the positional accuracy referred to here refers to the standard position or posture (A) where the collaborative robot 100 must be positioned when performing a task and the position of the collaborative robot 100 when the collaborative robot 100 drives for fault diagnosis. It can be said that the similarity is calculated by comparing and analyzing the position or posture (B).
  • the failure information referred to here may refer to information including at least one identification code (UUID) of the collaborative robot and an error range.
  • the reason why this failure information includes the identification code (UUID) of the collaborative robot 100 is to enable the robot server 200 to quickly diagnose a failure of the collaborative robot 100.
  • each of the plurality of collaborative robots 100 will have driving data input or learned to perform a specific task, and when the robot server 200 diagnoses a failure of the corresponding collaborative robot 100, the plurality of cooperative robots 100 This is because identifying the collaborative robot 100 itself, rather than individually identifying the driving data of the robot 100, can quickly diagnose a malfunction of the collaborative robot 100.
  • the first position detection sensor 300 or the collaborative robot 100 that has received the failure information generated from the first position detection sensor 300 transmits the failure information to the robot. It is transmitted to the server 200, and the robot server 200 generates drive correction information based on the received failure information and transmits it to the collaborative robot 100 (3).
  • the driving correction information referred to here means that when the robot server 100 receives failure information from the first detection sensor 300 or the collaborative robot 100, the robot server 100 analyzes the failure information and determines the current collaborative robot 100. By deriving the reason for this failure (e.g. lack of power, defective part of the collaborative robot, etc.), information generated to resolve the reason for the failure or information that can resolve the driving error can be referred to.
  • the collaborative robot 100 performing the task of moving the cup must perform 'A' drive to lift the cup, but in the fault diagnosis drive, 'B' drive which cannot lift the cup is performed.
  • the robot server 200 receives the failure information for the 'B' drive and allows the collaborative robot 100 to perform the 'A' drive. Or, by analyzing problems in the configuration of the collaborative robot 100 (robot arm (102: see Figure 4), axis (101: see Figure 4), etc.), drive correction that 'the robot arm 102 should be corrected to the ⁇ 1 angle' Information' or 'driving correction information that the nth axis 101 of the collaborative robot 100 must be corrected to the ⁇ 2 angle' can be generated.
  • Figure 3 is a diagram showing a process in which the collaborative robot 100 operates through preemptive response according to the first embodiment of the present invention.
  • the collaborative robot driving system 10 provides peripheral movement (When movement of an obstacle (e.g., movement of an obstacle) is detected, a warning sound can be output.
  • an obstacle e.g., movement of an obstacle
  • the collaborative robot 100 which must sequentially perform the 'first drive' to lift the cup at site A and the 'second drive' to move the lifted cup to site B, performs the 'first drive'. Assuming that ' is performed (1), the second position detection unit 400 linked to the collaborative robot 100 detects surrounding movement (e.g. user) in the movement path of the collaborative robot 100 corresponding to the 'second drive'. When a body) is detected (2), the detected information is transmitted to the collaborative robot 100 so that the collaborative robot 100 can output a warning voice such as “Be careful” (3).
  • a warning voice such as “Be careful”
  • Figure 4 is a perspective view showing the collaborative robot 100 according to the first embodiment of the present invention.
  • the collaborative robot 100 is a robot designed to precisely and accurately perform a specific task or to perform the task in cooperation with a user.
  • the collaborative robot 100 may include at least one axis 101, a robot arm 102, and an IR marker 103.
  • axes 101 There are a plurality of axes 101, and the plurality of axes 101 are capable of different drives (up/down/left/right drive, rotational drive), so that the collaborative robot 100 can perform six degrees of freedom movement (Six). Allows operation for degrees of freedom (6DOF).
  • the collaborative robot 100 of the present invention consists of 7 or more axes 101, allowing for more detailed and precise operation at the target location. It allows entry at an angle, and allows the collaborative robot 100 to perform operations with a higher degree of freedom, such as obstacle avoidance operation, assuming a specific pose, etc.
  • the robot hand 102 is a component that performs a similar role to the user's hand. Specifically, the robot hand 102 can grip, pull, or carry an object, thereby performing a role similar to that of the user's hand and performing cooperative tasks with the user.
  • the robot hand 102 can perform difficult tasks requiring precision in cooperation with the user. Specifically, the robot hand 102 can perform tasks that require precision, such as medical procedures, cooking, assembly, or processing, and can perform these tasks in cooperation with the user.
  • the robot hand 102 may have a shape suitable for the purpose of the task to be performed in order to perform the above tasks. For example, when the robot hand 102 performs a medical procedure, it may display the shape of a medical device such as a cutting surgical tool, biopsy tool, or screw driver, rather than the shape of the user's hand.
  • a medical device such as a cutting surgical tool, biopsy tool, or screw driver
  • the IR marker 103 is recognized through the first position sensor 300 by a reflector included inside or attached to the outside.
  • the reflector has the property of reflecting light that can be recognized by a specific device when light of a special wavelength is irradiated, so it reflects the light irradiated when the IR marker 103 is photographed by the first position detection sensor 300 and Ensure that the location of the marker 103 is recognized.
  • the reflector may be included within the IR marker 103, but may also be implemented to be attachable and detachable from the surface by the user. At this time, the user can arbitrarily adjust the position of the reflector on the surface of the IR marker 103 by attaching or detaching it.
  • Figure 5 is a simple schematic diagram showing the overall configuration of the cooperative robot driving system 10 capable of preemptive response according to the first embodiment of the present invention.
  • the cooperative driving system 10 of the present invention may include a collaborative robot 100, a robot server 200, a first position sensor 300, and a second position sensor 400. .
  • the collaborative robot 100 not only includes the above-described axis 101, robot hand 102, and IR marker 103, but also includes a communication unit 110 and a sensor unit to perform 'preemptive response drive', which is the purpose of the present invention.
  • 120, an obstacle recognition unit 130, a path creation unit 140, a drive control unit 150, and a voice utterance unit 160 may be further included.
  • the communication unit 110 allows the collaborative robot 100 to receive data from a user terminal (e.g., a user's smartphone, desktop, etc.), a robot server 200, a first position sensor 300, or a second position sensor 00. It is a component designed to be exchanged. Specifically, the communication unit 110 may receive information about driving data that allows the collaborative robot 100 to perform a specific drive from the user terminal 200, or receive control information such as power on/off. , failure information may be transmitted or drive correction information may be received from the robot server 200, and sensed information may be received from the first and second position detection sensors 300 and 400.
  • a user terminal e.g., a user's smartphone, desktop, etc.
  • the communication unit 110 may receive information about driving data that allows the collaborative robot 100 to perform a specific drive from the user terminal 200, or receive control information such as power on/off. , failure information may be transmitted or drive correction information may be received from the robot server 200, and sensed information may be received from the first and second position detection sensors 300 and 400.
  • the sensor unit 120 like the first and second position detection sensors 300 and 400 described above, is configured to detect the position and movement of the collaborative robot 100 or detect objects around the collaborative robot to generate sensing information. It is an element. Simply put, the first and second position sensors 300 and 400 may not be installed at adjacent positions of the collaborative robot 100 but may be provided as one component of the collaborative robot 100.
  • the obstacle recognition unit 130 is a component that recognizes obstacles that immediately appear/occur when the collaborative robot 100 performs a task and prevents collision with the obstacles.
  • the obstacle recognition unit 130 recognizes obstacles using an AI object identification algorithm.
  • the AI object identification algorithm may refer to an algorithm that can classify and identify objects based on learned image data and recognize whether the identified object is an obstacle or not.
  • the AI object identification algorithm learns about image data of the cup and the user's body (e.g. hand), and identifies the cup and the user's body during operation. If captured, they can be identified separately as work objects and obstacles.
  • the cooperative driving system 10 of the present invention was able to predict or prevent a failure or collision with an obstacle through preemptive response, it could detect obstacles in the immediate situation through the obstacle recognition unit 130 of the collaborative robot 100. Collisions can be prevented.
  • the path generator 140 receives information about the current location and posture of the collaborative robot 100 using Lidar technology of the sensor unit 120 or the second position detection sensor 400 linked to the collaborative robot 100. It is a component that creates a path along which the collaborative robot 100 must move to perform a specific task based on the received data.
  • the path generated by the path generator 140 may be updated and updated in real time when the collaborative robot 100 receives driving correction information from the robot server 200.
  • the drive control unit 150 controls the drive of the collaborative robot 100 based on the learned drive data or the corrected drive information received from the robot server 200 in order to drive the collaborative robot 100 to perform a specific task. It is a component.
  • the voice speech unit 160 is a component that utilizes TTS (Text to Speech: voice synthesis) technology, and when a specific situation is detected, it can convert text data matched to the specific situation into voice data and output the converted voice data. there is. For example, when the collaborative robot 100 is driven and the first and second position detection sensors 300 and 400 detect surrounding movement while driving, the voice speech unit 160 generates text matching the corresponding situation. By converting the data into voice data, a voice saying “Be careful” can be output.
  • TTS Text to Speech: voice synthesis
  • the robot server 200 is a server that can collectively control at least one identifiable collaborative robot 100.
  • the robot server 200 When the collaborative robot 100 performs a drive for a specific task, the robot server 200 performs a drive corresponding to an error or the drive itself is incomplete, and provides information to correct the drive of the collaborative robot 100. It can be transmitted to the robot 100. In other words, when the robot server 200 receives failure information from the collaborative robot 100 or the first position detection sensor 300, it provides drive correction information to correct the drive of the collaborative robot 100 based on the failure information. It can be generated and transmitted to the collaborative robot 100.
  • the first position detection sensor 300 is a sensor that is disposed adjacent to the collaborative robot 100 and can detect the motion or position of the collaborative robot 100 in real time.
  • the first position detection sensor 300 is a camera that takes an image of a subject to detect the motion or position of the collaborative robot 100, and an IR sensor that can detect the IR marker 103 attached to the outer surface of the collaborative robot 100. It may include a motion tracking camera capable of detecting the motion of the camera and the collaborative robot 100 itself.
  • the second position detection sensor 400 is disposed adjacent to the collaborative robot 100 and detects obstacles such as the user's body or objects moving in real time when the collaborative robot 100 operates for a specific task. It's a sensor.
  • the second position detection sensor 400 may include a 3D Lidar sensor and/or a depth camera that detects the movement or position of an object in 3D space in order to detect moving obstacles in real time.
  • the second position detection sensor 400 does not simply detect obstacles around the collaborative robot 100, but rather determines whether the detected object is the collaborative robot 100, an obstacle, or a subject that is not an obstacle (e.g., a user). It is possible to detect movement around you by recognizing it.
  • Figure 6 is a diagram specifically showing a method of driving a cooperative robot capable of preemptive response according to the first embodiment of the present invention.
  • the first position detection sensor 300 operates cooperatively. It starts with the step of determining the robot’s positional accuracy (S101).
  • positional accuracy refers to the standard position or posture where the collaborative robot 100 must be positioned when performing a task, and the position or posture of the collaborative robot 100 when the collaborative robot 100 performs a drive for fault diagnosis. It can be said that the similarity was calculated by comparing and analyzing .
  • the collaborative robot performs a first drive for the task (S102).
  • the error range refers to a driving range in which the collaborative robot 100 is unlikely to be able to properly carry out a certain drive or causes instability in the overall work procedure
  • the preset error range refers to a range that is determined by the user (user). It may be an error range set directly at one's own discretion, or an error range analyzed by the robot server 100 through an AI learning algorithm.
  • Steps S101 and S102 allow the collaborative robot 100 to perform a fault diagnosis operation before actually carrying out the work, thereby completing the actual work properly and preventing problems with breakdowns, defects, or operating errors in advance. It can be seen as the ‘first preemptive response’ stage.
  • the second position detection sensor 400 detects surrounding movement on the movement path corresponding to the second drive (S103).
  • the second drive may refer to a drive performed after the first drive in step S102 among all drives of the collaborative robot 100 to complete a specific task.
  • the collaborative robot performs the second drive (S104).
  • Steps S103 and S104 are a movement path or second drive that the collaborative robot 100 must enter in order to perform the second drive sequentially after the collaborative robot 100 has performed the first drive. It detects surrounding movement within the movement radius when performing the second drive properly, and prevents collision with obstacles in the moving situation when the second drive is performed or before the second drive is performed. It can be seen as the ‘second preemptive response’ stage.
  • Figure 7 is a diagram specifically showing a collaborative robot driving method capable of preemptive response according to a second embodiment of the present invention.
  • the cooperative robot driving method capable of preemptive response according to the above-described first embodiment of the present invention is a cooperative robot driving method capable of preemptive response mainly described by the cooperative robot driving system 10
  • the second embodiment of the present invention In order to explain the collaborative robot driving method capable of preemptive response according to the present invention to a more expanded scope, the configurations in the collaborative robot driving system 10 are explained by another subject. It is a cooperative robot driving method that can respond.
  • the collaborative robot 100 performs a fault diagnosis drive (S201) and the first position detection sensor 300 It begins with a step (S202) of determining the positional accuracy of the collaborative robot 100 performing the fault diagnosis drive.
  • the first position sensor 300 detects the movement of the collaborative robot 100 through a motion tracking camera or recognizes the IR marker 103 attached to the collaborative robot 100 through an IR camera to detect the collaborative robot 100. By detecting the movement and position of the collaborative robot 100, the positional accuracy of the collaborative robot 100 can be determined.
  • the collaborative robot 100 determines whether the position accuracy determined by the first position detection sensor 300 is within the preset error range (S203), and if the position accuracy is not within the preset error range, the first position detection sensor 300 determines whether the position accuracy is within the preset error range. Carry out operation (S204).
  • the collaborative robot 100 determines whether the position accuracy determined by the first position detection sensor 300 is within the preset error range (S203), if the position accuracy is within the preset error range, the collaborative robot (100) generates failure information and transmits it to the robot server 200 (S203-1), and the robot server 200 generates drive compensation information based on the received failure information (S203-2) and transmits it to the collaborative robot (S203-2).
  • Drive correction information is transmitted to the collaborative robot 100 so that the robot 100 can perform the corrected drive (S203-3).
  • step S204 the second position sensor 400 monitors whether surrounding movement is detected on the movement path corresponding to the second drive performed after the first drive (S205).
  • the collaborative robot 100 determines whether surrounding movement has been detected by the second position detection sensor 400 (S206).
  • the collaborative robot 100 when the collaborative robot 100 receives the fact that surrounding movement has been detected from the second position detection sensor 400, the collaborative robot 100 outputs a warning voice (S206-1) to This is prevented from colliding with surrounding movement (e.g., an obstacle), and then the second position detection sensor 400 returns to step S205 and monitors whether surrounding movement is detected on the movement path corresponding to the second drive.
  • a warning voice S206-1
  • Figure 8 is a diagram specifically showing a method of driving a collaborative robot capable of preemptive response according to a third embodiment of the present invention.
  • the cooperative robot driving method capable of preemptive response according to the third embodiment of the present invention is when the second position sensor 400 detects surrounding movement on the movement path corresponding to the second drive after the above-described step S205, In addition to a method in which the collaborative robot 100 outputs a warning voice to prevent collision with surrounding movements, if the collaborative robot 100 satisfies certain conditions, the collaborative robot 100 performs an avoidance drive to prevent collision with surrounding movements. It's about how to prevent it.
  • the collaborative robot driving method capable of preemptive response according to the third embodiment of the present invention determines whether peripheral movement is detected by the collaborative robot 100 from the second position detection sensor 400 after step S205. It starts with the judgment step (S301).
  • the collaborative robot 100 determines whether the axis 101 can be changed on its own (S302).
  • Step S302 is the first step of determining whether the collaborative robot 100 can perform an avoidance drive for a detected obstacle, and is a step of determining whether the collaborative robot 100 is a robot capable of changing the axis 101 on its own. This may be a step in which the robot server 200 receives an identification number (UUID) from the collaborative robot 100 and determines whether the axis 101 of the collaborative robot 100 can be changed.
  • UUID identification number
  • step S302 if the collaborative robot 100 itself is a robot capable of changing the axis 101, it is determined whether the collaborative robot 100 is capable of evasive driving by changing the axis 101 (S303), and the collaborative robot ( 100) If the robot itself cannot change its axis 101, a warning sound is output (S302-1).
  • Step S303 is the second step of determining whether the collaborative robot 100 can perform an avoidance drive for the detected obstacle. Even if the collaborative robot 100 is a robot that can change the axis 101, it may be used in a specific situation (narrow). This step is performed considering that evasive driving cannot be performed due to space.
  • step S303 is a step of determining whether the collaborative robot 100 is currently capable of evasive driving on its own, similar to step S302, or the robot server 200 receives an identification number (UUID) from the collaborative robot 100 and identifies the collaborative robot 100. ) may be a step to determine whether evasive driving is currently possible.
  • UUID identification number
  • step S303 the collaborative robot 100 performs a second drive if evasive driving is currently possible (S304), and if evasive driving is currently impossible, the collaborative robot 100 outputs a warning sound (S302-1).
  • Collaborative robot driving system 100 Collaborative robot 101: Axis 102: Robot hand 103: IR marker 110: Communication unit 120: Sensor unit 130: Obstacle recognition unit 140: Path creation unit 150: Drive control unit 160: Voice utterance unit 200: Robot Server 300: First position sensor 400: Second position sensor

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Human Computer Interaction (AREA)

Abstract

본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.

Description

선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템
본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.
많은 전문가들은 4차 산업 혁명과 첨단 기술의 발달로 인간과 로봇(Robot)이 공존하는 사회가 도래할 것이라고 전망하였다.
현재의 로봇 기술은 사람들이 할 수 있는 작업을 그대로 모방하거나 들어 올리고 옮기는 작업과 같은 단순 노동을 수행할 수 있음은 물론 공업, 농업, 서비스업 등과 같이 정밀함과 정확함을 요구하는 작업들을 수행할 수 있을 정도로 발전하였다.
로봇이 앞서 언급한 역할들을 수행할 수 있었던 것은 노동을 하게 되면 체력이 고갈되는 인간과 달리 입력된 데이터와 공급 에너지(예. 전기 에너지)만 있으면 구동 제어가 있을 때까지 주어진 작업을 완수하는 로봇의 특징 때문일 것이다.
또한, 로봇은 사소한 감정 또는 심리 상태에 의하여 작업 중에 실수를 할 수 있는 인간과 달리 입력된 데이터를 기반으로 구동을 실시하기 때문에 작업 중에 실수를 할 일이 없고, 최근에는 로봇에 인공지능 AI 기술이 탑재되어 입력된 구동 데이터들을 스스로 학습하거나 주변 객체들을 식별할 수 있게 되어 보다 정밀하고 정확한 작업을 수행할 수 있게 되었다.
다만, 로봇은 인간과 달리 감각 기능을 갖고 있지 않으며 예방 가능한 상황에 대한 선제적 대응이 불가능하다. 구체적인 예로, 로봇은 인간과 달리 작업을 시작하기 전에 본체가 작업에 대하여 준비가 되었는지 또는 현재 로봇의 상태가 불편한 점이 없는지 자체적으로 판단하거나 불편한 부분을 자체적으로 해결하기 어려우며, 작업 중에 발생되는 예방 가능한 돌발 상황(예. 다음 작업 공간에 누군가 방해 중인 상황)을 대처하기에는 어려움이 있었다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
본 발명은 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 났는지에 대하여 또는 특정 작업을 실시하기 위한 구동의 오차가 없는지에 대하여 판단하여, 고장 났거나 구동의 오차가 있는 경우 이를 보정하여 상기 특정 작업을 실시하도록 하는 방법 및 이를 위한 시스템을 제공하는 것을 목적한다.
또한, 본 발명은 협동 로봇이 특정 작업에 대하여 순차적으로 제1 구동과제2 구동을 실시할 때에 제2 구동을 실시하기 이전에, 제2 구동을 실시하기 위하여 이동해야 하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하여 선제적 대응 실시하는 방법 및 이를 위한 시스템을 제공하는 것을 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계, (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계, (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계 및 (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계를 포함할 수 있다.
또한, 상기 위치 정확도는 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 할 수 있다.
또한, 상기 제1 위치 감지 센서는 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 제2 위치 감지 센서는 3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 (a) 단계 이후에, (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계 및 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계. (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계 및 (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계를 더 포함할 수 있다.
한편, 위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 협동 로봇 구동 시스템은 로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서 및 상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버를 포함할 수 있다.
상기와 같은 본 발명에 따르면, 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 진단 구동 실시하여 고장이 났거나 구동의 오차가 있는 것을 사전에 파악함으로써, 작업의 완성도를 향상시켜 양질의 작업 결과물을 만들어 낼 수 있는 효과가 있다.
또한, 협동 로봇이 제1 구동 이후 제2 구동을 실시하기 이전에 제2 구동을 실시하기 위하여 이동하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하고 이에 대한 선제적 대응을 실시함으로써, 작업 중에 발생될 수 있는 문제점(예. 사고, 고장, 결함)들을 사전에 방지할 수 있는 효과가 있으며, 나아가 협동 로봇과 사용자 간의 협동 작업을 수행할 수 있도록 하는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
<제1 실시 예>
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도1을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(이하 협동 로봇 구동 시스템(10)이라 약칭함)은 협동 로봇(100)이 작업을 실시하기 이전에 고장 진단을 위한 구동을 실시하면(①), 협동 로봇(100)과 인접한 위치에 배치된 제1 위치 감지 센서(300)가 협동 로봇(100)의 위치 정확도를 파악하고(②), 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우 협동 로봇(100)이 상기 작업을 실시할 수 있는 제1 구동을 실시할 수 있도록 하며, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당할 경우 로봇 서버(200)가 상기 오차 범위에 대한 구동을 보정할 수 있는 구동 보정 정보를 생성하여 협동 로봇(100)에 전송하고(③), 협동 로봇(100)이 보정된 구동을 실시하도록 하여(④) 협동 로봇(100)이 정확하고 정밀한 작업을 실시할 수 있도록 하는 시스템에 관한 것이다.
참고로, 본 발명에서 말하는 ‘선제적 대응’ 이란 본 발명의 협동 로봇(100)이 어느 특정 작업을 수행하고자 할 때에 구동의 오차 또는 장애물에 의한 문제적 상황 봉착에 따라 잘못된 구동이 실시될 것을 사전에 파악하거나 예측하여, 파악된 데이터를 기반으로 협동 로봇(100)의 구동을 보정함으로써 보다 정확하고 정밀할 구동을 실시할 수 있도록 하는 것을 말할 수 있다. 구체적으로, 특정 작업을 수행하는 종래의 로봇들은 사람이 할 수 없었던 정밀하고 정확한 구동으로 사용자들에게 편리함을 가져다 주었지만, 이러한 로봇들이 수행하는 구동은 사용자들이 입력한 데이터를 기반으로만 작동하였기 때문에 작업을 실시할 때에 발생하는 예기치 않은 문제(장애물 접촉, 구동 오차 발생 등)에 일일이 대처하기 어려웠으며, 예방 가능한 문제에 대한 선제적 대응을 하기에는 어려움이 있고, 상기 문제가 발생한 이후에 구동이 보정되는 작업이 일률적으로 이루어지지 않아 종래의 로봇들은 매우 수동적인 작업에만 활용되거나 사용자들과 협동을 통하여 이루어지는 작업을 제대로 수행하지 못하였기에, 본 발명은 이러한 종래의 로봇의 문제점을 해결하고자 협동 로봇(100)이 어느 한 특정 작업을 실시하고자 할 때에 발생하는 고장, 오류, 장애물에 의한 문제적 상황 봉착 등의 이벤트들을 선제적으로 대응할 수 있도록 하여 협동 로봇(100)이 보다 능동적으로 작업을 수행하거나 사용자들과 작업을 협동하여 실시할 수 있도록 한다.
이러한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법과 이를 위한 시스템을 구체적으로 살펴보기 이전에 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보도록 한다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
*본 발명의 제1 실시 예에 따른 협동 로봇 시스템(10)은 협동 로봇(100)이 어느 특정한 작업을 실시하기 이전에 상기 작업을 제대로 수행할 수 있는지에 대하여 점검하거나 협동 로봇(100)이 고장 나지 않았는지 진단하기 위하여 협동 로봇(100)이 고장 진단 구동을 실시 하도록 한다. 여기서 말하는 고장 진단 구동이란 실제 작업을 실시하기 이전에 협동 로봇(100) 작업을 수행하기 위한 구동을 미리 실시해보도록 하는 시뮬레이션 구동을 말할 수 있다.
도2를 참고하면, 협동 로봇(100)이 고장 진단 구동을 실시하면, 협동 로봇(100)에 인접한 위치에 배치된 제1 위치 감지 센서(300)는 협동 로봇(100) 외면에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 모션 또는 자세를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악하고, 이를 기반으로 고장 정보를 생성한다. 구체적으로, 협동 로봇(100)이 컵을 들어올리는 작업을 수행하기 위해서는 표준의 구동인 ‘A’ 구동을 수행해야 한다고 가정하였을 때에 협동 로봇(100)이 고장 진단 구동에 의하여 ‘B’ 구동을 실시하였다면, 제1 위치 감지 센서(300)가 협동 로봇(100)의 ‘B’ 구동을 인식할 뿐만 아니라 ‘B’구동과 상기 표준의 ‘A’구동을 비교 분석하여 고장 진단 구동에 대한 위치 정확도를 파악한다(①). 이 때, 제1 위치 감지 센서(300)가 협동 로봇(100) 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당한다고 판단한 경우 고장 정보를 생성한다.
여기서 말하는 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세(A)와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세(B)를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
한편, 여기서 말하는 고장 정보란 협동 로봇의 식별 코드(UUID), 오차 범위를 적어도 하나 이상 포함하는 정보를 말할 수 있다. 이러한 고장 정보에 협동 로봇(100)의 식별 코드(UUID)가 포함되어 있는 이유는 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있도록 하기 위함이다. 구체적으로, 복수 개의 협동 로봇(100) 각각에는 특정 작업을 수행하기 위한 구동 데이터가 입력되어 있거나 학습되어 있을 것이며, 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 진단할 때에 복수 개의 협동 로봇(100)의 구동 데이터를 일일이 식별하는 것보다 협동 로봇(100) 그 자체를 식별하는 것이 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있기 때문이다.
다시 도2를 참고하면, 고장 정보가 생성된 이후에, 제1 위치 감지 센서(300) 또는 제1 위치 감지 센서(300)로부터 생성된 고장 정보를 수신한 협동 로봇(100)은 고장 정보를 로봇 서버(200)에 전송하고, 로봇 서버(200)는 수신한 고장 정보를 토대로 구동 보정 정보를 생성하여 협동 로봇(100)에 전송한다(③).
여기서 말하는 구동 보정 정보란 로봇 서버(100)가 제1 감지 센서(300) 또는 협동 로봇(100)으로부터 고장 정보를 수신하였을 때, 로봇 서버(100)가 고장 정보를 분석하고 현재 협동 로봇(100)이 고장 난 이유(예. 전력 부족, 협동 로봇의 부품 결함 등)를 도출하여 고장 난 이유를 해결하기 위하여 생성한 정보 또는 구동 오차를 해결할 수 있는 정보를 말할 수 있다. 구체적인 예를 위해 도2를 참고하면, 컵을 옮기는 작업을 수행하는 협동 로봇(100)이 컵을 들어올리기 위해서는 ‘A’구동을 실시해야 하지만 고장 진단 구동에서 컵을 들어올리지 못하는 ‘B’구동을 실시하였다고 가정하였을 때, 로봇 서버(200)는 상기 ‘B’ 구동에 대한 고장 정보를 수신하여 협동 로봇(100)이 ‘A’ 구동을 실시할 수 있도록 ‘A’구동과 ‘B’ 구동의 오차 또는 협동 로봇(100)의 구성(로봇팔(102: 도4 참고), 축(101: 도4 참고) 등)의 문제점을 분석하여, ‘로봇팔(102)이 θ1 각도로 보정되어야 한다는 구동 보정 정보’ 또는 ‘협동 로봇(100)의 n번째 축(101)이 θ2 각도로 보정되어야 한다는 구동 보정 정보’등을 생성할 수 있다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇(100)이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
본 발명의 제1 실시 예에 따른 협동 로봇 구동 시스템(10)은 협동 로봇(100)이 선제적 대응을 할 수 있도록 협동 로봇(100)이 특정한 작업을 실시할 때의 예상 작업 경로에 주변 움직임(예. 장애물의 움직임)이 감지되면 경고 음성을 출력할 수 있도록 한다.
도3을 참고하면, A 사이트에 있는 컵을 들어올리는 ‘제1 구동’과 들어올린 컵을 B사이트로 옮겨야 하는 ‘제2 구동’을 순차적으로 실시해야 하는 협동 로봇(100)이 ‘제1 구동’을 실시하였다고 가정하였을 때(①), 협동 로봇(100)과 연계된 제2 위치 감지부(400)가 ‘제2 구동'에 대응되는 협동 로봇(100) 이동경로에 주변 움직임(예. 사용자 신체)을 감지한 경우(②), 감지된 정보를 협동 로봇(100)에 전송하여 협동 로봇(100)이 "조심하세요"와 같은 경고 음성 출력할 수 있도록 한다(③).
이상 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보았다.
다음으로, 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보도록 한다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇(100)을 사시도로 나타낸 도면이다.
도 4를 참고하면, 본 발명의 제1 실시 예에 따른 협동 로봇(100)은 특정한 작업을 정밀하고 정확하게 수행하거나, 사용자와 협동하여 작업을 수행할 수 있도록 설계된 로봇이다.
협동 로봇(100)은 상기 역할들을 수행하기 위하여, 적어도 하나 이상의 축(101), 로봇팔(102) 및 IR 마커(103)를 포함할 수 있다.
축(101)은 복수 개로 마련되어 있으며, 이 복수 개의 축(101)이 서로 다른 구동(상/하/좌/우 구동, 회전 구동)이 가능하여, 협동 로봇(100)이 6자유도 운동(Six degrees of freedom, 6DOF)에 대한 구동을 실시할 수 있도록 한다.
또한, 종래 로봇암(미도시)의 축이 최대 6개로 구성되어 있는 것과 달리 본 발명의 협동 로봇(100)의 축(101)이 7개 이상으로 구성되어 있어 타겟이 된 위치에 보다 세밀하고 정교한 각도로 진입할 수 있도록 하며, 협동 로봇(100)이 장애물 회피 구동, 특정 포즈 취하기 등과 같은 보다 자유도 높은 구동을 할 수 있도록 한다.
로봇핸드(102)는 사용자 손과 비슷한 역할을 수행하는 구성요소이다. 구체적으로, 로봇핸드(102)는 물체를 그립(Grip)하거나, 당기거나 운반하는 구동을 실시할 수 있어 사용자 손과 비슷한 역할을 수행하여 사용자와 같이 협동의 작업을 수행 할 수도 있다.
로봇핸드(102)는 사용자와 협동하여 정밀함을 요하는 어려운 작업을 수행할 수 있다. 구체적으로, 로봇핸드(102)는 의료 시술, 조리, 조립 또는 가공과 같은 정밀함을 요하는 작업을 수행할 수 있어 이러한 작업을 사용자와 협동하여 실시할 수 있다.
로봇핸드(102)는 상기 작업들을 수행하기 위하여 수행하고자 하는 작업의 목적에 맞는 형상을 가질 수 있다. 예를 들면, 로봇핸드(102)가 의료 시술을 진행할 때에는 사용자의 손 형상이 아닌 절삭 가능한 수술도구, 생검 도구, 스크류 드라이버 등과 같은 의료기구 형상을 나타낼 수 있다.
IR 마커(103)는 내부에 포함되거나 외면에 부착된 반사체에 의하여 제1 위치 감지 센서(300)를 통하여 인식된다.
반사체는 특수한 파장의 빛이 조사되었을 때 특정 장치에 의해 인식 가능한 빛을 반사하는 성질을 가지고 있어 IR 마커(103)가 제1 위치 감지 센서(300)에 의하여 촬영될 때에 조사되는 빛을 반사하여 IR 마커(103)의 위치가 인식되도록 한다.
반사체는 IR 마커(103) 내부에 포함되는 구성으로 마련될 수 있지만, 사용자에 의하여 표면에 탈부착 가능하도록 구현될 수도 있다. 이 때, 사용자는 임의로 IR 마커(103) 표면에서의 반사체의 위치를 탈부착하여 조정할 수 있다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(10)의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도5를 참고하면, 본 발명의 협동 구동 시스템(10)은 협동 로봇(100), 로봇 서버(200), 제1 위치 감지 센서(300) 및 제2 위치 감지 센서(400)를 포함할 수 있다.
협동 로봇(100)은 전술한 축(101), 로봇핸드(102) 및 IR 마커(103)를 포함할 뿐만 아니라 본 발명의 목적인 ‘선제적 대응 구동’을 실시하기 위하여 통신부(110), 센서부(120), 장애물 인식부(130), 경로 생성부(140), 구동 제어부(150) 및 음성 발화부(160)를 더 포함할 수 있다.
통신부(110)는 협동 로봇(100)이 사용자 단말(예. 사용자의 스마트폰, 데스크탑 등), 로봇 서버(200), 제1 위치 감지 센서(300) 또는 제2 위치 감지 센서(00)와 데이터 교환이 가능하도록 마련된 구성요소이다. 구체적으로, 통신부(110)는 사용자 단말(200)로부터 협동 로봇(100)이 특정한 구동을 실시할 수 있도록 하는 구동 데이터에 대한 정보를 수신하거나, 전원 On/Off와 같은 제어 정보를 수신할 수 있으며, 로봇 서버(200)로부터 고장 정보를 송신하거나 구동 보정 정보를 수신할 수 있고, 제1 및 제2 위치 감지 센서(300, 400)로부터 감지된 정보들을 수신할 수 있다.
센서부(120)는 전술한 제1 및 제2 위치 감지 센서(300, 400)와 마찬가지로 협동 로봇(100)의 위치 및 움직임을 감지하거나, 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 구성요소이다. 쉽게 말해, 제1 및 제2 위치 감지 센서(300, 400)가 협동 로봇(100)의 인접한 위치에 설치되는 것이 아니라 협동 로봇(100)의 하나의 구성으로서 마련될 수 있다.
장애물 인식부(130)는 협동 로봇(100)이 작업에 대한 구동을 실시할 때에 즉각적으로 출현/발생하는 장애물을 인식하여 장애물과의 충돌을 방지해주는 구성요소이다.
장애물 인식부(130)는 AI 객체 식별 알고리즘을 활용하여 장애물을 인식한다. 여기서, AI 객체 식별 알고리즘이란, 학습된 이미지 데이터들을 기반으로 객체를 구분 및 식별하여 식별한 객체가 장애물인지 아닌지 인식할 수 있는 알고리즘을 말할 수 있다. 쉬운 예로, 협동 로봇(100)이 컵을 들어올리는 구동을 실시해야 한다고 가정 하였을 때에 AI 객체 식별 알고리즘은 컵과 사용자의 신체(예. 손) 이미지 데이터에 대하여 학습하고, 구동 중에 컵과 사용자의 신체가 포착된다면 각각 작업 대상물과 장애물로서 구분하여 식별할 수 있다.
본 발명의 협동 구동 시스템(10)은 선제적 대응을 통하여 고장 또는 장애물 충돌을 사전에 예측하거나 방지할 수 있었다면, 협동 로봇(100)의 장애물 인식부(130)를 통하여 즉각적인 상황에 대한 장애물과의 충돌을 방지할 수 있다.
경로 생성부(140)는 센서부(120) 또는 협동 로봇(100)과 연계된 제2 위치 감지 센서(400)의 Lidar기술을 활용하여 현재 협동 로봇(100)의 위치, 자세에 대한 정보를 수신하고, 수신한 데이터를 기반으로 협동 로봇(100)이 특정한 작업을 수행하기 위하여 이동되어야 할 경로를 생성해주는 구성요소이다.
참고로, 경로 생성부(140)로부터 생성된 경로는 협동 로봇(100)이 로봇 서버(200)로부터 구동 보정 정보를 수신한 경우 실시간으로 갱신 및 업데이트될 수 있다.
구동 제어부(150)는 협동 로봇(100)이 특정한 작업을 수행하는 구동을 실시하기 위하여 학습된 구동 데이터 또는 로봇 서버(200)로부터 수신한 보정 구동 정보를 토대로 협동 로봇(100)의 구동을 제어하는 구성요소이다.
음성 발화부(160)는 TTS(Text to Speech: 음성합성)기술이 활용되는 구성요소이며, 특정 상황이 감지되면 특정 상황에 매칭된 텍스트 데이터를 음성 데이터로 변환하여 변환한 음성 데이터를 출력할 수 있다. 예를 들어, 협동 로봇(100)이 구동을 실시할 때에 제1 및 제2 위치 감지 센서(300, 400)가 구동 중 주변 움직임을 감지하면, 음성 발화부(160)는 해당 상황과 매칭되는 텍스트 데이터를 음성 데이터로 변환하여 “조심하세요”라는 내용의 음성을 출력할 수 있다.
로봇 서버(200)는 식별 가능한 적어도 하나 이상의 협동 로봇(100)을 총괄적으로 관제할 수 있는 서버이다.
로봇 서버(200)는 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 오차에 해당하는 구동을 실시하거나 구동 자체가 불완전할 때에 이러한 협동 로봇(100)의 구동을 보정하기 위한 정보를 협동 로봇(100)에 전송할 수 있다. 다시 말해, 로봇 서버(200)는 협동 로봇(100) 또는 제1 위치 감지 센서(300)로부터 고장 정보를 수신하면 상기 고장 정보를 기반으로 협동 로봇(100)의 구동을 보정하기 위한 구동 보정 정보를 생성하여 협동 로봇(100)에 전송할 수 있다.
제1 위치 감지 센서(300)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)의 모션 또는 위치를 실시간으로 감지할 수 있는 센서이다.
제1 위치 감지 센서(300)는 협동 로봇(100)의 모션 또는 위치를 감지하기 위하여 피사체의 이미지를 촬영하는 카메라, 협동 로봇(100) 외면에 부착된 IR 마커(103)를 감지할 수 있는 IR 카메라 및 협동 로봇(100) 자체의 모션을 감지할 수 있는 모션 트래킹 카메라를 포함할 수 있다.
제2 위치 감지 센서(400)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 실시간으로 움직이는 사용자의 신체 또는 물체와 같은 장애물들을 감지하는 센서이다.
제2 위치 감지 센서(400)는 실시간으로 움직이는 장애물을 감지하기 위하여 3차원 공간 내의 객체의 움직임 또는 위치를 감지하는3차원 Lidar 센서 및/또는 Depth 카메라를 포함할 수 있다.
참고로, 제2 위치 감지 센서(400)는 단순히 협동 로봇(100)의 주변 장애물을 감지하는 것이 아니라 감지된 객체가 협동 로봇(100)인지, 장애물인지 또는 장애물 대상이 아닌 피사체(예. 사용자)인지에 대하여 식별하여 주변 움직임을 감지할 수 있다.
이상 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보았다.
다음으로, 본 발명의 제1 내지 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 살펴보도록 한다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도6을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동하는 방법은 먼저 협동 로봇(100)이 고장 진단 구동을 실시하면, 제1 위치 감지 센서(300)가 협동 로봇의 위치 정확도를 파악하는 단계에서 시작한다(S101). 여기서, 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
이후에, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 협동 로봇이 작업을 위한 제1 구동을 실시하도록 한다(S102). 여기서 오차 범위란 협동 로봇(100)이 어느 한 구동을 실시함에 있어서 상기 구동을 제대로 실시하지 못할 것 같거나 전체적인 작업 절차에 불안정을 주는 구동 범위를 말할 수 있으며, 기 설정된 오차 범위란 사용자(사용자) 본인 판단 하에 직접 설정한 오차범위이거나 또는 로봇 서버(100)가 AI 학습 알고리즘을 통하여 분석한 오차범위를 말할 수 있다.
S101 단계 및 S102 단계는 협동 로봇(100)이 실제로 작업을 실시하기 이전에 고장 진단 구동을 실시하도록 하여 실제 작업을 제대로 완수하고, 고장, 결함 또는 구동 오차에 대한 문제점을 사전에 방지해줄 수 있는 ‘제1 선제적 대응’ 단계라고 볼 수 있다.
다음으로, 협동 로봇(100)이 제2 구동을 실시하기 이전에, 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지한다(S103). 여기서 제2 구동이란 특정한 작업을 완료하기 위한 협동 로봇(100)이 전체 구동 중에서 S102 단계의 제1 구동 이후에 실시되는 구동을 말할 수 있다.
이후에, 제2 위치 감지 센서(400)에 의해 제2 구동에 대응되는 협동 로봇(100) 이동경로 상에서 주변 움직임이 감지되지 않은 경우, 협동 로봇이 제2 구동을 실시한다(S104).
S103 단계 및 S104 단계는 협동 로봇(100)이 제1 구동을 실시한 이후에 순차적으로 제2 구동을 실시하기 이전에 협동 로봇(100)이 제2 구동을 하기 위하여 진입해야 하는 이동경로 또는 제2 구동을 실시할 때의 움직임 반경에 주변 움직임을 감지하여 제2 구동을 제대로 완수하고, 제2 구동이 실시될 때 또는 제2 구동이 실시되기 전 이동 상황에서 장애물과 충돌하지 않도록 사전에 방지해줄 수 있는‘제2 선제적 대응’ 단계라고 볼 수 있다.
<제2 실시 예>
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
전술한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법이 협동 로봇 구동 시스템(10)을 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이라면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 보다 확장된 범위로 본 발명의 선제적 대응이 가능한 협동 로봇 구동 방법을 설명하기 위하여 협동 로봇 구동 시스템(10) 내의 구성들을 또 다른 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이다.
도7을 참고하면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 먼저, 협동 로봇(100)이 고장 진단 구동을 실시하고(S201) 제1 위치 감지 센서(300)가 고장 진단 구동을 실시하는 협동 로봇(100)의 위치 정확도를 파악하는 단계(S202)에서 시작한다.
S202 단계에서 제1 위치 감지 센서(300)는 모션 트래킹 카메라를 통하여 협동 로봇(100)의 움직임을 감지하거나, IR 카메라를 통하여 협동 로봇(100)에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 움직임, 위치를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악할 수 있다.
이후에, 협동 로봇(100)은 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는지에 대하여 판단하고(S203), 위치 정확도가 기 설정된 오차 범위에 포함되지 않으면 제1 구동을 실시한다(S204).
한편, 협동 로봇(100)이 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는 지에 대하여 판단하였을 때(S203), 위치 정확도가 기 설정된 오차 범위에 포함되면, 협동 로봇(100)은 고장 정보를 생성하여 로봇 서버(200)에 전송하며(S203-1), 로봇 서버(200)는 수신한 고장 정보를 기반으로 구동 보정 정보를 생성하여(S203-2) 협동 로봇(100)이 보정된 구동을 실시 할 수 있도록 구동 보정 정보를 협동 로봇(100)에 전송한다(S203-3).
S204 단계 이후에, 제2 위치 감지 센서(400)는 제1 구동 이후에 실시되는 제2 구동에 대응되는 이동경로에 주변 움직임을 감지되는지에 대하여 모니터링한다(S205).
다음으로 협동 로봇(100)은 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단한다(S206).
이후에, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신하지 않은 경우, 제2 구동을 실시한다(S207).
한편, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우, 협동 로봇(100)은 경고 음성을 출력하여(S206-1) 협동 로봇(100)이 주변 움직임(예. 장애물)과 충돌하지 못하도록 방지하고, 이후에 제2 위치 감지 센서(400) 다시 S205 단계로 회귀하여 제2 구동에 대응되는 이동경로에 주변 움직임이 감지되는지에 대하여 모니터링한다.
<제3 실시 예>
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 전술한 S205 단계 이후에 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지하였을 때, 협동 로봇(100)이 경고 음성을 출력하여 주변 움직임과의 충돌을 방지하는 방법과 더불어 협동 로봇(100)이 특정 조건이 갖추어져 있다면 협동 로봇(100)이 회피 구동을 실시하여 주변 움직임과의 충돌을 방지할 수 있도록 하는 방법에 관한 것이다.
도8을 참고하면, 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 S205 단계 이후에 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단하는 단계(S301)에서 시작한다.
다음으로, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실이 수신되지 않은 경우에는 제2 구동을 실시하지만(S304), 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우에는 협동 로봇(100)은 자체적으로 축(101) 변경이 가능한지 판단한다(S302).
S302 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 첫 번째 단계로서, 협동 로봇(100)이 자체적으로 축(101) 변경이 가능한 로봇인지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)의 축(101)이 변경 가능한지를 판단하는 단계일 수도 있다.
S302 단계 이후에, 협동 로봇(100) 자체가 축(101) 변경이 가능한 로봇이라면, 협동 로봇(100)이 축(101) 변경을 통하여 회피 구동이 가능한지 에 대한 판단하고(S303), 협동 로봇(100) 자체가 축(101) 변경이 불가능한 로봇이라면, 경고 음성을 출력한다(S302-1).
S303 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 두 번째 단계로서, 협동 로봇(100)이 축(101)을 변경할 수 있는 로봇이라도 특정 상황(협소한 공간)때문에 회피 구동을 실시할 수 없을 것을 고려하여 실시되는 단계이다. 아울러 S303 단계는 S302 단계와 마찬가지로 협동 로봇(100)이 자체적으로 현재 회피 구동이 가능한지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)이 현재 회피 구동이 가능한지에 대하여 판단하는 단계일 수도 있다.
S303 단계 이후에, 협동 로봇(100)은 현재 회피 구동이 가능하다면 제2 구동을 실시하고(S304), 협동 로봇(100)은 현재 회피 구동이 불가능하다면 경고 음성을 출력한다(S302-1).
이상 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 대한 실시 예를 모두 살펴보았다.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
10: 협동 로봇 구동 시스템 100: 협동 로봇 101: 축 102: 로봇핸드 103: IR 마커 110: 통신부 120: 센서부 130: 장애물 인식부 140: 경로 생성부 150: 구동 제어부 160: 음성 발화부 200: 로봇 서버 300: 제1 위치 감지 센서 400: 제2 위치 감지 센서

Claims (8)

  1. 협동 로봇 구동 시스템이 선제적 대응이 가능한 협동 로봇을 구동하는 방법에 있어서,
    (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계;
    (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계;
    (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계; 및
    (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계;
    를 포함하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  2. 제1 항에 있어서,
    상기 위치 정확도는,
    상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  3. 제1 항에 있어서,
    상기 제1 위치 감지 센서는,
    상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  4. 제1 항에 있어서,
    상기 제2 위치 감지 센서는,
    3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  5. 제1 항에 있어서,
    상기 (a) 단계 이후에,
    (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계; 및
    상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계;
    를 더 포함하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  6. 제1 항에 있어서,
    상기 (c) 단계 이후에,
    (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계;
    를 더 포함하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  7. 제1 항에 있어서,
    상기 (c) 단계 이후에,
    (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계;
    (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계; 및
    (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계;
    를 더 포함하는,
    선제적 대응을 위한 협동 로봇 구동 방법.
  8. 선제적 대응이 가능한 협동 로봇을 구동하는 협동 로봇 구동 시스템에 있어서,
    로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇;
    상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서;
    상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서; 및
    상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버;
    를 포함하는,
    협동 로봇 구동 시스템.
PCT/KR2023/009293 2022-12-07 2023-07-03 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 WO2024122777A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0169877 2022-12-07
KR1020220169877A KR102520214B1 (ko) 2022-12-07 2022-12-07 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Publications (1)

Publication Number Publication Date
WO2024122777A1 true WO2024122777A1 (ko) 2024-06-13

Family

ID=85976671

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/009293 WO2024122777A1 (ko) 2022-12-07 2023-07-03 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Country Status (2)

Country Link
KR (1) KR102520214B1 (ko)
WO (1) WO2024122777A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (ja) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd ワークの位置決め方法
KR20140124935A (ko) * 2013-04-16 2014-10-28 고등기술연구원연구조합 로봇손 조립오차 보정 장치
US20170334067A1 (en) * 2014-10-27 2017-11-23 Intuitive Surgical Operations, Inc. System and method for instrument disturbance compensation
JP2020511325A (ja) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド 作業空間安全監視および機器制御
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3754402B2 (ja) * 2002-07-19 2006-03-15 川崎重工業株式会社 産業用ロボットの制御方法および制御装置
JP5653166B2 (ja) * 2010-10-22 2015-01-14 キヤノン株式会社 ロボットセル
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (ja) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd ワークの位置決め方法
KR20140124935A (ko) * 2013-04-16 2014-10-28 고등기술연구원연구조합 로봇손 조립오차 보정 장치
US20170334067A1 (en) * 2014-10-27 2017-11-23 Intuitive Surgical Operations, Inc. System and method for instrument disturbance compensation
JP2020511325A (ja) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド 作業空間安全監視および機器制御
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
KR102520214B1 (ko) 2023-04-11

Similar Documents

Publication Publication Date Title
WO2024122777A1 (ko) 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템
US6763284B2 (en) Robot teaching apparatus
WO2013077623A1 (ko) 구조물 변위 측정 시스템 및 방법
WO2018230845A1 (ko) 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
WO2020075954A1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
EP0511396A1 (en) Method for setting coordinate system of robot
WO2020218644A1 (ko) 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇
WO2024019342A1 (ko) 인공지능 기반 유해 가스 누출 탐지 시스템 및 이의 동작 방법
WO2023090876A1 (ko) 선제적 풍력발전 유지관리 시스템
KR102202629B1 (ko) 지능형 로봇 안전관리 시스템 및 그것의 동작 방법
WO2020184776A1 (ko) 코드 인식을 통한 위치 인식 및 이동경로 설정 방법과 무인 모빌리티와 운영시스템
WO2018074729A1 (ko) 사무/공장 자동화를 위한 컴퓨터 입력 시스템
WO2023249266A1 (ko) 협동 로봇을 위한 티칭 방법 및 기기
JP2019108190A (ja) エレベータのカメラ装置の撮影状態診断方法、遠隔診断システム、および遠隔診断プログラム
WO2023068440A1 (ko) 로봇 손 시스템 및 로봇 손 제어 방법
CN112672854A (zh) 机器人及其原点位置调整方法
WO2023054813A1 (ko) 충전식 모바일로봇을 활용한 화재감지 및 조기대응시스템
JPH02262991A (ja) ロボット動作監視装置
WO2019151555A1 (ko) 물체 검출 방법 및 로봇 시스템
CN115342730A (zh) 机械手位置异常的检测方法与检测装置
WO2021096320A1 (ko) 3차원 스캐너를 이용한 로봇의 위치 보정 방법 및 장치
WO2024075926A1 (ko) 모바일 로봇을 활용한 비전 검사 시스템 및 그 방법
WO2015186948A1 (ko) 플랫폼 스크린 도어 주변의 물체를 감지하는 방법
WO2024075905A1 (ko) 모바일 로봇 가이드 장치 및 모바일 로봇 가이드 방법
CN114348811A (zh) 机器人、机器人乘梯方法、装置及存储介质