KR102520214B1 - 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 - Google Patents

선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 Download PDF

Info

Publication number
KR102520214B1
KR102520214B1 KR1020220169877A KR20220169877A KR102520214B1 KR 102520214 B1 KR102520214 B1 KR 102520214B1 KR 1020220169877 A KR1020220169877 A KR 1020220169877A KR 20220169877 A KR20220169877 A KR 20220169877A KR 102520214 B1 KR102520214 B1 KR 102520214B1
Authority
KR
South Korea
Prior art keywords
robot
driving
cooperative
collaborative
cooperative robot
Prior art date
Application number
KR1020220169877A
Other languages
English (en)
Inventor
임기웅
Original Assignee
주식회사 유에이로보틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유에이로보틱스 filed Critical 주식회사 유에이로보틱스
Priority to KR1020220169877A priority Critical patent/KR102520214B1/ko
Application granted granted Critical
Publication of KR102520214B1 publication Critical patent/KR102520214B1/ko
Priority to PCT/KR2023/009293 priority patent/WO2024122777A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Human Computer Interaction (AREA)

Abstract

본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.

Description

선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템{A METHOD FOR DRIVING A COLLABORATIVE ROBOT CAPABLE OF PREEMPTIVE RESPONSE AND A SYSTEM THEREFOR}
본 발명은 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다. 보다 자세하게는 협동 로봇이 작업을 실시하기 이전에 고장 진단 및 구동 보정을 하고, 또한 구동 시에는 협동 로봇이 주변 움직임을 피하여 구동될 수 있도록 한 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 관한 것이다.
많은 전문가들은 4차 산업 혁명과 첨단 기술의 발달로 인간과 로봇(Robot)이 공존하는 사회가 도래할 것이라고 전망하였다.
현재의 로봇 기술은 사람들이 할 수 있는 작업을 그대로 모방하거나 들어 올리고 옮기는 작업과 같은 단순 노동을 수행할 수 있음은 물론 공업, 농업, 서비스업 등과 같이 정밀함과 정확함을 요구하는 작업들을 수행할 수 있을 정도로 발전하였다.
로봇이 앞서 언급한 역할들을 수행할 수 있었던 것은 노동을 하게 되면 체력이 고갈되는 인간과 달리 입력된 데이터와 공급 에너지(예. 전기 에너지)만 있으면 구동 제어가 있을 때까지 주어진 작업을 완수하는 로봇의 특징 때문일 것이다.
또한, 로봇은 사소한 감정 또는 심리 상태에 의하여 작업 중에 실수를 할 수 있는 인간과 달리 입력된 데이터를 기반으로 구동을 실시하기 때문에 작업 중에 실수를 할 일이 없고, 최근에는 로봇에 인공지능 AI 기술이 탑재되어 입력된 구동 데이터들을 스스로 학습하거나 주변 객체들을 식별할 수 있게 되어 보다 정밀하고 정확한 작업을 수행할 수 있게 되었다.
다만, 로봇은 인간과 달리 감각 기능을 갖고 있지 않으며 예방 가능한 상황에 대한 선제적 대응이 불가능하다. 구체적인 예로, 로봇은 인간과 달리 작업을 시작하기 전에 본체가 작업에 대하여 준비가 되었는지 또는 현재 로봇의 상태가 불편한 점이 없는지 자체적으로 판단하거나 불편한 부분을 자체적으로 해결하기 어려우며, 작업 중에 발생되는 예방 가능한 돌발 상황(예. 다음 작업 공간에 누군가 방해 중인 상황)을 대처하기에는 어려움이 있었다.
본 발명은 이와 같은 문제점에 착안하여 도출된 것으로, 이상에서 살핀 기술적 문제점을 해소시킬 수 있음은 물론, 본 기술분야에서 통상의 지식을 가진 자가 용이하게 고안할 수 없는 추가적인 기술요소들을 제공하기 위해 발명되었다.
본 발명은 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 났는지에 대하여 또는 특정 작업을 실시하기 위한 구동의 오차가 없는지에 대하여 판단하여, 고장 났거나 구동의 오차가 있는 경우 이를 보정하여 상기 특정 작업을 실시하도록 하는 방법 및 이를 위한 시스템을 제공하는 것을 목적한다.
또한, 본 발명은 협동 로봇이 특정 작업에 대하여 순차적으로 제1 구동과제2 구동을 실시할 때에 제2 구동을 실시하기 이전에, 제2 구동을 실시하기 위하여 이동해야 하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하여 선제적 대응 실시하는 방법 및 이를 위한 시스템을 제공하는 것을 목적으로 한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도를 파악하는 단계, (b) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계, (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계 및 (d) 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계를 포함할 수 있다.
또한, 상기 위치 정확도는 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임을 특징으로 할 수 있다.
또한, 상기 제1 위치 감지 센서는 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 제2 위치 감지 센서는 3차원 Lidar 또는 Depth 카메라를 적어도 하나 이상 포함하는 장치로서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 카메라인 것을 특징으로 할 수 있다.
또한, 상기 (a) 단계 이후에, (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 상기 로봇 서버에 고장 정보- 상기 고장 정보는, 상기 협동 로봇의 식별 코드, 또는 오차 범위를 적어도 하나 이상 포함하는 정보임-를 송신하여 구동 보정을 요청하는 단계 및 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계를 더 포함할 수 있다.
또한, 상기 (c) 단계 이후에, (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계. (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단 하는 단계 및 (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계를 더 포함할 수 있다.
한편, 위와 같은 문제점을 해결하기 위하여, 본 발명에 따른 협동 로봇 구동 시스템은 로봇 서버와 데이터 교환이 가능하여 상기 로봇 서버에 고장 정보를 전송하는 통신부; 상기 협동 로봇의 위치 및 움직임을 감지하거나 상기 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 센서부; 상기 센서부로부터 생성된 센싱정보를 기반으로 물체 또는 사람을 인식하는 장애물 인식부; 상기 협동 로봇이 작업을 수행할 때에 필요한 상기 협동 로봇의 이동경로를 생성하는 경로 생성부; 상기 협동 로봇 또는 상기 협동 로봇에 구비된 로봇팔의 구동을 제어하는 구동 제어부; 및 경고 음성을 출력하는 음성 발화부; 를 포함하고, 외면에 적어도 하나 이상의 IR 마커가 부착된 협동 로봇, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 상기 협동 로봇에 부착된 적어도 하나 이상의 IR 마커를 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 제1 위치 감지 센서, 상기 협동 로봇에 인접한 위치 또는 상기 협동 로봇에 배치되어, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 제2 위치 감지 센서 및 상기 협동 로봇으로부터 상기 고장 정보를 수신하면, 상기 고장 정보를 분석하여 구동 보정 정보를 생성하고 상기 구동 보정 정보를 상기 협동 로봇에 전송하는 로봇 서버를 포함할 수 있다.
상기와 같은 본 발명에 따르면, 협동 로봇이 특정 작업을 실시하기 이전에 협동 로봇이 고장 진단 구동 실시하여 고장이 났거나 구동의 오차가 있는 것을 사전에 파악함으로써, 작업의 완성도를 향상시켜 양질의 작업 결과물을 만들어 낼 수 있는 효과가 있다.
또한, 협동 로봇이 제1 구동 이후 제2 구동을 실시하기 이전에 제2 구동을 실시하기 위하여 이동하는 경로 또는 제2 구동을 실시할 때의 협동 로봇의 움직임 반경에 장애물이 있는지 먼저 파악하고 이에 대한 선제적 대응을 실시함으로써, 작업 중에 발생될 수 있는 문제점(예. 사고, 고장, 결함)들을 사전에 방지할 수 있는 효과가 있으며, 나아가 협동 로봇과 사용자 간의 협동 작업을 수행할 수 있도록 하는 효과가 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해 될 수 있을 것이다.
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇을 사시도로 나타낸 도면이다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
본 명세서에서 사용되는 "포함한다 (Comprises)" 및/또는 "포함하는 (Comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
<제1 실시 예>
도1은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템을 개념적으로 이해하기 위하여 나타낸 도면이다.
도1을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(이하 협동 로봇 구동 시스템(10)이라 약칭함)은 협동 로봇(100)이 작업을 실시하기 이전에 고장 진단을 위한 구동을 실시하면(①), 협동 로봇(100)과 인접한 위치에 배치된 제1 위치 감지 센서(300)가 협동 로봇(100)의 위치 정확도를 파악하고(②), 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우 협동 로봇(100)이 상기 작업을 실시할 수 있는 제1 구동을 실시할 수 있도록 하며, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당할 경우 로봇 서버(200)가 상기 오차 범위에 대한 구동을 보정할 수 있는 구동 보정 정보를 생성하여 협동 로봇(100)에 전송하고(③), 협동 로봇(100)이 보정된 구동을 실시하도록 하여(④) 협동 로봇(100)이 정확하고 정밀한 작업을 실시할 수 있도록 하는 시스템에 관한 것이다.
참고로, 본 발명에서 말하는 ‘선제적 대응’ 이란 본 발명의 협동 로봇(100)이 어느 특정 작업을 수행하고자 할 때에 구동의 오차 또는 장애물에 의한 문제적 상황 봉착에 따라 잘못된 구동이 실시될 것을 사전에 파악하거나 예측하여, 파악된 데이터를 기반으로 협동 로봇(100)의 구동을 보정함으로써 보다 정확하고 정밀할 구동을 실시할 수 있도록 하는 것을 말할 수 있다. 구체적으로, 특정 작업을 수행하는 종래의 로봇들은 사람이 할 수 없었던 정밀하고 정확한 구동으로 사용자들에게 편리함을 가져다 주었지만, 이러한 로봇들이 수행하는 구동은 사용자들이 입력한 데이터를 기반으로만 작동하였기 때문에 작업을 실시할 때에 발생하는 예기치 않은 문제(장애물 접촉, 구동 오차 발생 등)에 일일이 대처하기 어려웠으며, 예방 가능한 문제에 대한 선제적 대응을 하기에는 어려움이 있고, 상기 문제가 발생한 이후에 구동이 보정되는 작업이 일률적으로 이루어지지 않아 종래의 로봇들은 매우 수동적인 작업에만 활용되거나 사용자들과 협동을 통하여 이루어지는 작업을 제대로 수행하지 못하였기에, 본 발명은 이러한 종래의 로봇의 문제점을 해결하고자 협동 로봇(100)이 어느 한 특정 작업을 실시하고자 할 때에 발생하는 고장, 오류, 장애물에 의한 문제적 상황 봉착 등의 이벤트들을 선제적으로 대응할 수 있도록 하여 협동 로봇(100)이 보다 능동적으로 작업을 수행하거나 사용자들과 작업을 협동하여 실시할 수 있도록 한다.
이러한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법과 이를 위한 시스템을 구체적으로 살펴보기 이전에 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보도록 한다.
도2는 본 발명에서 말하는 고장 정보 및 구동 보정 정보를 개념적으로 이해하기 위하여 나타낸 도면이다.
본 발명의 제1 실시 예에 따른 협동 로봇 시스템(10)은 협동 로봇(100)이 어느 특정한 작업을 실시하기 이전에 상기 작업을 제대로 수행할 수 있는지에 대하여 점검하거나 협동 로봇(100)이 고장 나지 않았는지 진단하기 위하여 협동 로봇(100)이 고장 진단 구동을 실시 하도록 한다. 여기서 말하는 고장 진단 구동이란 실제 작업을 실시하기 이전에 협동 로봇(100) 작업을 수행하기 위한 구동을 미리 실시해보도록 하는 시뮬레이션 구동을 말할 수 있다.
도2를 참고하면, 협동 로봇(100)이 고장 진단 구동을 실시하면, 협동 로봇(100)에 인접한 위치에 배치된 제1 위치 감지 센서(300)는 협동 로봇(100) 외면에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 모션 또는 자세를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악하고, 이를 기반으로 고장 정보를 생성한다. 구체적으로, 협동 로봇(100)이 컵을 들어올리는 작업을 수행하기 위해서는 표준의 구동인 ‘A’ 구동을 수행해야 한다고 가정하였을 때에 협동 로봇(100)이 고장 진단 구동에 의하여 ‘B’ 구동을 실시하였다면, 제1 위치 감지 센서(300)가 협동 로봇(100)의 ‘B’ 구동을 인식할 뿐만 아니라 ‘B’구동과 상기 표준의 ‘A’구동을 비교 분석하여 고장 진단 구동에 대한 위치 정확도를 파악한다(①). 이 때, 제1 위치 감지 센서(300)가 협동 로봇(100) 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당한다고 판단한 경우 고장 정보를 생성한다.
여기서 말하는 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세(A)와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세(B)를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
한편, 여기서 말하는 고장 정보란 협동 로봇의 식별 코드(UUID), 오차 범위를 적어도 하나 이상 포함하는 정보를 말할 수 있다. 이러한 고장 정보에 협동 로봇(100)의 식별 코드(UUID)가 포함되어 있는 이유는 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있도록 하기 위함이다. 구체적으로, 복수 개의 협동 로봇(100) 각각에는 특정 작업을 수행하기 위한 구동 데이터가 입력되어 있거나 학습되어 있을 것이며, 로봇 서버(200)가 해당 협동 로봇(100)의 고장을 진단할 때에 복수 개의 협동 로봇(100)의 구동 데이터를 일일이 식별하는 것보다 협동 로봇(100) 그 자체를 식별하는 것이 해당 협동 로봇(100)의 고장을 신속히 진단할 수 있기 때문이다.
다시 도2를 참고하면, 고장 정보가 생성된 이후에, 제1 위치 감지 센서(300) 또는 제1 위치 감지 센서(300)로부터 생성된 고장 정보를 수신한 협동 로봇(100)은 고장 정보를 로봇 서버(200)에 전송하고, 로봇 서버(200)는 수신한 고장 정보를 토대로 구동 보정 정보를 생성하여 협동 로봇(100)에 전송한다(③).
여기서 말하는 구동 보정 정보란 로봇 서버(100)가 제1 감지 센서(300) 또는 협동 로봇(100)으로부터 고장 정보를 수신하였을 때, 로봇 서버(100)가 고장 정보를 분석하고 현재 협동 로봇(100)이 고장 난 이유(예. 전력 부족, 협동 로봇의 부품 결함 등)를 도출하여 고장 난 이유를 해결하기 위하여 생성한 정보 또는 구동 오차를 해결할 수 있는 정보를 말할 수 있다. 구체적인 예를 위해 도2를 참고하면, 컵을 옮기는 작업을 수행하는 협동 로봇(100)이 컵을 들어올리기 위해서는 ‘A’구동을 실시해야 하지만 고장 진단 구동에서 컵을 들어올리지 못하는 ‘B’구동을 실시하였다고 가정하였을 때, 로봇 서버(200)는 상기 ‘B’ 구동에 대한 고장 정보를 수신하여 협동 로봇(100)이 ‘A’ 구동을 실시할 수 있도록 ‘A’구동과 ‘B’ 구동의 오차 또는 협동 로봇(100)의 구성(로봇팔(102: 도4 참고), 축(101: 도4 참고) 등)의 문제점을 분석하여, ‘로봇팔(102)이 θ1 각도로 보정되어야 한다는 구동 보정 정보’ 또는 ‘협동 로봇(100)의 n번째 축(101)이 θ2 각도로 보정되어야 한다는 구동 보정 정보’등을 생성할 수 있다.
도3은 본 발명의 제1 실시 예에 따른 협동 로봇(100)이 선제적 대응을 통하여 구동을 실시하는 과정을 나타낸 도면이다.
본 발명의 제1 실시 예에 따른 협동 로봇 구동 시스템(10)은 협동 로봇(100)이 선제적 대응을 할 수 있도록 협동 로봇(100)이 특정한 작업을 실시할 때의 예상 작업 경로에 주변 움직임(예. 장애물의 움직임)이 감지되면 경고 음성을 출력할 수 있도록 한다.
도3을 참고하면, A 사이트에 있는 컵을 들어올리는 ‘제1 구동’과 들어올린 컵을 B사이트로 옮겨야 하는 ‘제2 구동’을 순차적으로 실시해야 하는 협동 로봇(100)이 ‘제1 구동’을 실시하였다고 가정하였을 때(①), 협동 로봇(100)과 연계된 제2 위치 감지부(400)가 ‘제2 구동'에 대응되는 협동 로봇(100) 이동경로에 주변 움직임(예. 사용자 신체)을 감지한 경우(②), 감지된 정보를 협동 로봇(100)에 전송하여 협동 로봇(100)이 "조심하세요"와 같은 경고 음성 출력할 수 있도록 한다(③).
이상 본 발명에서 자주 언급되는 용어들에 대하여 먼저 간략히 살펴보았다.
다음으로, 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보도록 한다.
도4는 본 발명의 제1 실시 예 따른 협동 로봇(100)을 사시도로 나타낸 도면이다.
도 4를 참고하면, 본 발명의 제1 실시 예에 따른 협동 로봇(100)은 특정한 작업을 정밀하고 정확하게 수행하거나, 사용자와 협동하여 작업을 수행할 수 있도록 설계된 로봇이다.
협동 로봇(100)은 상기 역할들을 수행하기 위하여, 적어도 하나 이상의 축(101), 로봇팔(102) 및 IR 마커(103)를 포함할 수 있다.
축(101)은 복수 개로 마련되어 있으며, 이 복수 개의 축(101)이 서로 다른 구동(상/하/좌/우 구동, 회전 구동)이 가능하여, 협동 로봇(100)이 6자유도 운동(Six degrees of freedom, 6DOF)에 대한 구동을 실시할 수 있도록 한다.
또한, 종래 로봇암(미도시)의 축이 최대 6개로 구성되어 있는 것과 달리 본 발명의 협동 로봇(100)의 축(101)이 7개 이상으로 구성되어 있어 타겟이 된 위치에 보다 세밀하고 정교한 각도로 진입할 수 있도록 하며, 협동 로봇(100)이 장애물 회피 구동, 특정 포즈 취하기 등과 같은 보다 자유도 높은 구동을 할 수 있도록 한다.
로봇핸드(102)는 사용자 손과 비슷한 역할을 수행하는 구성요소이다. 구체적으로, 로봇핸드(102)는 물체를 그립(Grip)하거나, 당기거나 운반하는 구동을 실시할 수 있어 사용자 손과 비슷한 역할을 수행하여 사용자와 같이 협동의 작업을 수행 할 수도 있다.
로봇핸드(102)는 사용자와 협동하여 정밀함을 요하는 어려운 작업을 수행할 수 있다. 구체적으로, 로봇핸드(102)는 의료 시술, 조리, 조립 또는 가공과 같은 정밀함을 요하는 작업을 수행할 수 있어 이러한 작업을 사용자와 협동하여 실시할 수 있다.
로봇핸드(102)는 상기 작업들을 수행하기 위하여 수행하고자 하는 작업의 목적에 맞는 형상을 가질 수 있다. 예를 들면, 로봇핸드(102)가 의료 시술을 진행할 때에는 사용자의 손 형상이 아닌 절삭 가능한 수술도구, 생검 도구, 스크류 드라이버 등과 같은 의료기구 형상을 나타낼 수 있다.
IR 마커(103)는 내부에 포함되거나 외면에 부착된 반사체에 의하여 제1 위치 감지 센서(300)를 통하여 인식된다.
반사체는 특수한 파장의 빛이 조사되었을 때 특정 장치에 의해 인식 가능한 빛을 반사하는 성질을 가지고 있어 IR 마커(103)가 제1 위치 감지 센서(300)에 의하여 촬영될 때에 조사되는 빛을 반사하여 IR 마커(103)의 위치가 인식되도록 한다.
반사체는 IR 마커(103) 내부에 포함되는 구성으로 마련될 수 있지만, 사용자에 의하여 표면에 탈부착 가능하도록 구현될 수도 있다. 이 때, 사용자는 임의로 IR 마커(103) 표면에서의 반사체의 위치를 탈부착하여 조정할 수 있다.
도5는 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 시스템(10)의 전체 구성을 간단한 모식도로 나타낸 도면이다.
도5를 참고하면, 본 발명의 협동 구동 시스템(10)은 협동 로봇(100), 로봇 서버(200), 제1 위치 감지 센서(300) 및 제2 위치 감지 센서(400)를 포함할 수 있다.
협동 로봇(100)은 전술한 축(101), 로봇핸드(102) 및 IR 마커(103)를 포함할 뿐만 아니라 본 발명의 목적인 ‘선제적 대응 구동’을 실시하기 위하여 통신부(110), 센서부(120), 장애물 인식부(130), 경로 생성부(140), 구동 제어부(150) 및 음성 발화부(160)를 더 포함할 수 있다.
통신부(110)는 협동 로봇(100)이 사용자 단말(예. 사용자의 스마트폰, 데스크탑 등), 로봇 서버(200), 제1 위치 감지 센서(300) 또는 제2 위치 감지 센서(00)와 데이터 교환이 가능하도록 마련된 구성요소이다. 구체적으로, 통신부(110)는 사용자 단말(200)로부터 협동 로봇(100)이 특정한 구동을 실시할 수 있도록 하는 구동 데이터에 대한 정보를 수신하거나, 전원 On/Off와 같은 제어 정보를 수신할 수 있으며, 로봇 서버(200)로부터 고장 정보를 송신하거나 구동 보정 정보를 수신할 수 있고, 제1 및 제2 위치 감지 센서(300, 400)로부터 감지된 정보들을 수신할 수 있다.
센서부(120)는 전술한 제1 및 제2 위치 감지 센서(300, 400)와 마찬가지로 협동 로봇(100)의 위치 및 움직임을 감지하거나, 협동 로봇의 주변 물체를 감지하여 센싱정보를 생성하는 구성요소이다. 쉽게 말해, 제1 및 제2 위치 감지 센서(300, 400)가 협동 로봇(100)의 인접한 위치에 설치되는 것이 아니라 협동 로봇(100)의 하나의 구성으로서 마련될 수 있다.
장애물 인식부(130)는 협동 로봇(100)이 작업에 대한 구동을 실시할 때에 즉각적으로 출현/발생하는 장애물을 인식하여 장애물과의 충돌을 방지해주는 구성요소이다.
장애물 인식부(130)는 AI 객체 식별 알고리즘을 활용하여 장애물을 인식한다. 여기서, AI 객체 식별 알고리즘이란, 학습된 이미지 데이터들을 기반으로 객체를 구분 및 식별하여 식별한 객체가 장애물인지 아닌지 인식할 수 있는 알고리즘을 말할 수 있다. 쉬운 예로, 협동 로봇(100)이 컵을 들어올리는 구동을 실시해야 한다고 가정 하였을 때에 AI 객체 식별 알고리즘은 컵과 사용자의 신체(예. 손) 이미지 데이터에 대하여 학습하고, 구동 중에 컵과 사용자의 신체가 포착된다면 각각 작업 대상물과 장애물로서 구분하여 식별할 수 있다.
본 발명의 협동 구동 시스템(10)은 선제적 대응을 통하여 고장 또는 장애물 충돌을 사전에 예측하거나 방지할 수 있었다면, 협동 로봇(100)의 장애물 인식부(130)를 통하여 즉각적인 상황에 대한 장애물과의 충돌을 방지할 수 있다.
경로 생성부(140)는 센서부(120) 또는 협동 로봇(100)과 연계된 제2 위치 감지 센서(400)의 Lidar기술을 활용하여 현재 협동 로봇(100)의 위치, 자세에 대한 정보를 수신하고, 수신한 데이터를 기반으로 협동 로봇(100)이 특정한 작업을 수행하기 위하여 이동되어야 할 경로를 생성해주는 구성요소이다.
참고로, 경로 생성부(140)로부터 생성된 경로는 협동 로봇(100)이 로봇 서버(200)로부터 구동 보정 정보를 수신한 경우 실시간으로 갱신 및 업데이트될 수 있다.
구동 제어부(150)는 협동 로봇(100)이 특정한 작업을 수행하는 구동을 실시하기 위하여 학습된 구동 데이터 또는 로봇 서버(200)로부터 수신한 보정 구동 정보를 토대로 협동 로봇(100)의 구동을 제어하는 구성요소이다.
음성 발화부(160)는 TTS(Text to Speech: 음성합성)기술이 활용되는 구성요소이며, 특정 상황이 감지되면 특정 상황에 매칭된 텍스트 데이터를 음성 데이터로 변환하여 변환한 음성 데이터를 출력할 수 있다. 예를 들어, 협동 로봇(100)이 구동을 실시할 때에 제1 및 제2 위치 감지 센서(300, 400)가 구동 중 주변 움직임을 감지하면, 음성 발화부(160)는 해당 상황과 매칭되는 텍스트 데이터를 음성 데이터로 변환하여 “조심하세요”라는 내용의 음성을 출력할 수 있다.
로봇 서버(200)는 식별 가능한 적어도 하나 이상의 협동 로봇(100)을 총괄적으로 관제할 수 있는 서버이다.
로봇 서버(200)는 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 오차에 해당하는 구동을 실시하거나 구동 자체가 불완전할 때에 이러한 협동 로봇(100)의 구동을 보정하기 위한 정보를 협동 로봇(100)에 전송할 수 있다. 다시 말해, 로봇 서버(200)는 협동 로봇(100) 또는 제1 위치 감지 센서(300)로부터 고장 정보를 수신하면 상기 고장 정보를 기반으로 협동 로봇(100)의 구동을 보정하기 위한 구동 보정 정보를 생성하여 협동 로봇(100)에 전송할 수 있다.
제1 위치 감지 센서(300)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)의 모션 또는 위치를 실시간으로 감지할 수 있는 센서이다.
제1 위치 감지 센서(300)는 협동 로봇(100)의 모션 또는 위치를 감지하기 위하여 피사체의 이미지를 촬영하는 카메라, 협동 로봇(100) 외면에 부착된 IR 마커(103)를 감지할 수 있는 IR 카메라 및 협동 로봇(100) 자체의 모션을 감지할 수 있는 모션 트래킹 카메라를 포함할 수 있다.
제2 위치 감지 센서(400)는 협동 로봇(100)에 인접한 위치에 배치되어, 협동 로봇(100)이 특정 작업에 대한 구동을 실시할 때에 실시간으로 움직이는 사용자의 신체 또는 물체와 같은 장애물들을 감지하는 센서이다.
제2 위치 감지 센서(400)는 실시간으로 움직이는 장애물을 감지하기 위하여 3차원 공간 내의 객체의 움직임 또는 위치를 감지하는3차원 Lidar 센서 및/또는 Depth 카메라를 포함할 수 있다.
참고로, 제2 위치 감지 센서(400)는 단순히 협동 로봇(100)의 주변 장애물을 감지하는 것이 아니라 감지된 객체가 협동 로봇(100)인지, 장애물인지 또는 장애물 대상이 아닌 피사체(예. 사용자)인지에 대하여 식별하여 주변 움직임을 감지할 수 있다.
이상 본 발명의 제1 실시 예에 따른 협동 로봇(100)의 개략적인 외관과 협동 로봇(100)에 포함된 전체 구성요소들에 대하여 살펴보았다.
다음으로, 본 발명의 제1 내지 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 살펴보도록 한다.
도6은 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
도6을 참고하면, 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동하는 방법은 먼저 협동 로봇(100)이 고장 진단 구동을 실시하면, 제1 위치 감지 센서(300)가 협동 로봇의 위치 정확도를 파악하는 단계에서 시작한다(S101). 여기서, 위치 정확도란 협동 로봇(100)이 작업을 수행할 때에 위치해야 하는 표준의 위치 또는 자세와 협동 로봇(100)이 고장 진단을 위한 구동을 실시할 때의 협동 로봇(100)의 위치 또는 자세를 비교 분석하여 유사도를 산출한 것을 말할 수 있다.
이후에, 협동 로봇(100)의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 협동 로봇이 작업을 위한 제1 구동을 실시하도록 한다(S102). 여기서 오차 범위란 협동 로봇(100)이 어느 한 구동을 실시함에 있어서 상기 구동을 제대로 실시하지 못할 것 같거나 전체적인 작업 절차에 불안정을 주는 구동 범위를 말할 수 있으며, 기 설정된 오차 범위란 사용자(사용자) 본인 판단 하에 직접 설정한 오차범위이거나 또는 로봇 서버(100)가 AI 학습 알고리즘을 통하여 분석한 오차범위를 말할 수 있다.
S101 단계 및 S102 단계는 협동 로봇(100)이 실제로 작업을 실시하기 이전에 고장 진단 구동을 실시하도록 하여 실제 작업을 제대로 완수하고, 고장, 결함 또는 구동 오차에 대한 문제점을 사전에 방지해줄 수 있는 ‘제1 선제적 대응’ 단계라고 볼 수 있다.
다음으로, 협동 로봇(100)이 제2 구동을 실시하기 이전에, 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지한다(S103). 여기서 제2 구동이란 특정한 작업을 완료하기 위한 협동 로봇(100)이 전체 구동 중에서 S102 단계의 제1 구동 이후에 실시되는 구동을 말할 수 있다.
이후에, 제2 위치 감지 센서(400)에 의해 제2 구동에 대응되는 협동 로봇(100) 이동경로 상에서 주변 움직임이 감지되지 않은 경우, 협동 로봇이 제2 구동을 실시한다(S104).
S103 단계 및 S104 단계는 협동 로봇(100)이 제1 구동을 실시한 이후에 순차적으로 제2 구동을 실시하기 이전에 협동 로봇(100)이 제2 구동을 하기 위하여 진입해야 하는 이동경로 또는 제2 구동을 실시할 때의 움직임 반경에 주변 움직임을 감지하여 제2 구동을 제대로 완수하고, 제2 구동이 실시될 때 또는 제2 구동이 실시되기 전 이동 상황에서 장애물과 충돌하지 않도록 사전에 방지해줄 수 있는‘제2 선제적 대응’ 단계라고 볼 수 있다.
<제2 실시 예>
도7은 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
전술한 본 발명의 제1 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법이 협동 로봇 구동 시스템(10)을 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이라면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 보다 확장된 범위로 본 발명의 선제적 대응이 가능한 협동 로봇 구동 방법을 설명하기 위하여 협동 로봇 구동 시스템(10) 내의 구성들을 또 다른 주체로 설명한 선제적 대응이 가능한 협동 로봇 구동 방법이다.
도7을 참고하면, 본 발명의 제2 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 먼저, 협동 로봇(100)이 고장 진단 구동을 실시하고(S201) 제1 위치 감지 센서(300)가 고장 진단 구동을 실시하는 협동 로봇(100)의 위치 정확도를 파악하는 단계(S202)에서 시작한다.
S202 단계에서 제1 위치 감지 센서(300)는 모션 트래킹 카메라를 통하여 협동 로봇(100)의 움직임을 감지하거나, IR 카메라를 통하여 협동 로봇(100)에 부착된 IR 마커(103)를 인식하여 협동 로봇(100)의 움직임, 위치를 감지함으로써 협동 로봇(100)의 위치 정확도를 파악할 수 있다.
이후에, 협동 로봇(100)은 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는지에 대하여 판단하고(S203), 위치 정확도가 기 설정된 오차 범위에 포함되지 않으면 제1 구동을 실시한다(S204).
한편, 협동 로봇(100)이 제1 위치 감지 센서(300)가 파악한 위치 정확도가 기 설정된 오차 범위에 포함되는 지에 대하여 판단하였을 때(S203), 위치 정확도가 기 설정된 오차 범위에 포함되면, 협동 로봇(100)은 고장 정보를 생성하여 로봇 서버(200)에 전송하며(S203-1), 로봇 서버(200)는 수신한 고장 정보를 기반으로 구동 보정 정보를 생성하여(S203-2) 협동 로봇(100)이 보정된 구동을 실시 할 수 있도록 구동 보정 정보를 협동 로봇(100)에 전송한다(S203-3).
S204 단계 이후에, 제2 위치 감지 센서(400)는 제1 구동 이후에 실시되는 제2 구동에 대응되는 이동경로에 주변 움직임을 감지되는지에 대하여 모니터링한다(S205).
다음으로 협동 로봇(100)은 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단한다(S206).
이후에, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신하지 않은 경우, 제2 구동을 실시한다(S207).
한편, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우, 협동 로봇(100)은 경고 음성을 출력하여(S206-1) 협동 로봇(100)이 주변 움직임(예. 장애물)과 충돌하지 못하도록 방지하고, 이후에 제2 위치 감지 센서(400) 다시 S205 단계로 회귀하여 제2 구동에 대응되는 이동경로에 주변 움직임이 감지되는지에 대하여 모니터링한다.
<제3 실시 예>
도8은 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법을 구체적으로 나타낸 도면이다.
본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 전술한 S205 단계 이후에 제2 위치 감지 센서(400)가 제2 구동에 대응되는 이동경로에 주변 움직임을 감지하였을 때, 협동 로봇(100)이 경고 음성을 출력하여 주변 움직임과의 충돌을 방지하는 방법과 더불어 협동 로봇(100)이 특정 조건이 갖추어져 있다면 협동 로봇(100)이 회피 구동을 실시하여 주변 움직임과의 충돌을 방지할 수 있도록 하는 방법에 관한 것이다.
도8을 참고하면, 본 발명의 제3 실시 예에 따른 선제적 대응이 가능한 협동 로봇 구동 방법은 S205 단계 이후에 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임이 감지되었는지에 대하여 판단하는 단계(S301)에서 시작한다.
다음으로, 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실이 수신되지 않은 경우에는 제2 구동을 실시하지만(S304), 협동 로봇(100)이 제2 위치 감지 센서(400)로부터 주변 움직임을 감지하였다는 사실을 수신한 경우에는 협동 로봇(100)은 자체적으로 축(101) 변경이 가능한지 판단한다(S302).
S302 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 첫 번째 단계로서, 협동 로봇(100)이 자체적으로 축(101) 변경이 가능한 로봇인지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)의 축(101)이 변경 가능한지를 판단하는 단계일 수도 있다.
S302 단계 이후에, 협동 로봇(100) 자체가 축(101) 변경이 가능한 로봇이라면, 협동 로봇(100)이 축(101) 변경을 통하여 회피 구동이 가능한지 에 대한 판단하고(S303), 협동 로봇(100) 자체가 축(101) 변경이 불가능한 로봇이라면, 경고 음성을 출력한다(S302-1).
S303 단계는 협동 로봇(100)이 감지된 장애물에 대한 회피 구동을 실시 할 수 있는 지 판단하는 두 번째 단계로서, 협동 로봇(100)이 축(101)을 변경할 수 있는 로봇이라도 특정 상황(협소한 공간)때문에 회피 구동을 실시할 수 없을 것을 고려하여 실시되는 단계이다. 아울러 S303 단계는 S302 단계와 마찬가지로 협동 로봇(100)이 자체적으로 현재 회피 구동이 가능한지 판단하는 단계이거나 로봇 서버(200)가 협동 로봇(100)으로부터 식별 번호(UUID)를 수신하여 해당 협동 로봇(100)이 현재 회피 구동이 가능한지에 대하여 판단하는 단계일 수도 있다.
S303 단계 이후에, 협동 로봇(100)은 현재 회피 구동이 가능하다면 제2 구동을 실시하고(S304), 협동 로봇(100)은 현재 회피 구동이 불가능하다면 경고 음성을 출력한다(S302-1).
이상 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템에 대한 실시 예를 모두 살펴보았다.
본 발명은 상술한 특정의 실시예 및 응용예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 구별되어 이해되어서는 안 될 것이다.
10: 협동 로봇 구동 시스템
100: 협동 로봇
101: 축
102: 로봇핸드
103: IR 마커
110: 통신부
120: 센서부
130: 장애물 인식부
140: 경로 생성부
150: 구동 제어부
160: 음성 발화부
200: 로봇 서버
300: 제1 위치 감지 센서
400: 제2 위치 감지 센서

Claims (8)

  1. 협동 로봇 구동 시스템이 선제적 대응이 가능한 협동 로봇을 구동하는 방법에 있어서,
    (a) 협동 로봇이 고장 진단을 위한 구동을 실시할 때, 제1 위치 감지 센서가 실시간으로 상기 협동 로봇의 위치 정확도 - 상기 위치 정확도는, 상기 협동 로봇이 작업을 수행할 때에 위치해야 하는 표준의 위치와 상기 협동 로봇이 고장 진단을 위한 구동을 실시할 때의 협동 로봇의 위치를 비교 분석하여 유사도를 산출한 것임 - 를 파악하는 단계;
    (a-1) 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하는 경우, 로봇 서버에 고장 정보 - 상기 고장 정보는, 상기 협동 로봇의 식별 코드(UUID) 및 오차 범위를 포함하는 정보임 - 를 송신하여 구동 보정을 요청하는 단계;
    (a-2) 상기 협동 로봇이 상기 로봇 서버로부터 구동 보정 정보를 수신한 경우, 상기 협동 로봇이 고장 진단을 위한 구동을 재실시하도록 하는 단계;
    (b) 고장 진단을 위한 구동을 재실시한 결과 상기 협동 로봇의 위치 정확도가 기 설정된 오차 범위 내에 해당하지 않을 경우, 상기 협동 로봇이 작업을 위한 제1 구동을 실시하도록 하는 단계;
    (c) 상기 협동 로봇이 작업을 위한 제2 구동을 실시하기 이전에, 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 주변 움직임을 감지하는 단계;
    (c-1′) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇이 축 변경이 가능한 협동 로봇인지에 대한 여부를 판단하는 단계;
    (c-2′) 상기 협동 로봇이 축 변경이 가능한 협동 로봇이라 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능한지에 대한 여부를 판단하는 단계;
    (c-3′) 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동이 가능하다고 판단한 경우, 상기 협동 로봇이 상기 주변 움직임에 대한 회피 구동을 실시하도록 하는 단계;
    (d) 회피 구동을 실시한 이후, 상기 제2 위치 감지 센서에 의해 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임이 감지되지 않은 경우, 상기 협동 로봇이 제2 구동을 실시하는 단계;를 포함하고,
    상기 제1 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 상기 협동 로봇에 부착된 적어도 복수 개의 IR 마커 - 상기 IR 마커는 외면에 반사체가 부착된 것으로서, 상기 반사체는 상기 제1 위치 감지 센서에 의해 조사된 특정 파장의 빛을 반사시켜 상기 제1 위치 감지 센서에 의해 인식되는 것임 - 들을 인식하여 상기 협동 로봇의 움직임 및 위치를 감지하는 카메라이고,
    상기 제2 위치 감지 센서는, 상기 협동 로봇에 인접한 위치에 배치되는 것으로, 실시간으로 움직이는 물체의 움직임 또는 위치를 검출하는 Lidar 센서이고,
    상기 제2 구동에 대응되는 협동 로봇 이동경로는, 현재 협동 로봇의 위치 및 자세 정보를 기반으로 생성된 것으로서, 상기 로봇 서버로부터 수신된 구동 보정 정보에 따라 실시간으로 갱신되는 것을 특징으로 하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1 항에 있어서,
    상기 (c) 단계 이후에,
    (c-1) 상기 제2 위치 감지 센서가 상기 제2 구동에 대응되는 협동 로봇 이동경로에 있어서 주변 움직임을 감지한 경우, 상기 협동 로봇의 음성 발화부가 경고 음성을 출력하도록 하는 단계;
    를 더 포함하는,
    선제적 대응이 가능한 협동 로봇 구동 방법.
  7. 삭제
  8. 제1항의 선제적 대응이 가능한 협동 로봇 구동 방법을 실행하는 협동 로봇 구동 시스템.
KR1020220169877A 2022-12-07 2022-12-07 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템 KR102520214B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220169877A KR102520214B1 (ko) 2022-12-07 2022-12-07 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템
PCT/KR2023/009293 WO2024122777A1 (ko) 2022-12-07 2023-07-03 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220169877A KR102520214B1 (ko) 2022-12-07 2022-12-07 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Publications (1)

Publication Number Publication Date
KR102520214B1 true KR102520214B1 (ko) 2023-04-11

Family

ID=85976671

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220169877A KR102520214B1 (ko) 2022-12-07 2022-12-07 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Country Status (2)

Country Link
KR (1) KR102520214B1 (ko)
WO (1) WO2024122777A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122777A1 (ko) * 2022-12-07 2024-06-13 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (ja) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd ワークの位置決め方法
JP2004050356A (ja) * 2002-07-19 2004-02-19 Kawasaki Heavy Ind Ltd 可動体の位置および姿勢検出装置
JP2012086333A (ja) * 2010-10-22 2012-05-10 Canon Inc ロボットセル
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材
JP2020511325A (ja) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド 作業空間安全監視および機器制御
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484920B1 (ko) * 2013-04-16 2015-01-23 고등기술연구원연구조합 로봇손 조립오차 보정 장치
KR102574095B1 (ko) * 2014-10-27 2023-09-06 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 기기 교란 보상을 위한 시스템 및 방법
KR102520214B1 (ko) * 2022-12-07 2023-04-11 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03228589A (ja) * 1990-02-01 1991-10-09 Kawasaki Heavy Ind Ltd ワークの位置決め方法
JP2004050356A (ja) * 2002-07-19 2004-02-19 Kawasaki Heavy Ind Ltd 可動体の位置および姿勢検出装置
JP2012086333A (ja) * 2010-10-22 2012-05-10 Canon Inc ロボットセル
JP2017071033A (ja) * 2015-10-09 2017-04-13 キヤノン株式会社 作業用基準物体、作業用基準物体の製造方法、ロボットアームの調整方法、ビジョンシステム、ロボット装置、及び指標用部材
JP2020511325A (ja) * 2017-02-07 2020-04-16 ヴェオ ロボティクス, インコーポレイテッド 作業空間安全監視および機器制御
KR20210064041A (ko) * 2019-11-25 2021-06-02 재단법인대구경북과학기술원 로봇 시스템 및 그 보정 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024122777A1 (ko) * 2022-12-07 2024-06-13 주식회사 유에이로보틱스 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템

Also Published As

Publication number Publication date
WO2024122777A1 (ko) 2024-06-13

Similar Documents

Publication Publication Date Title
US11039895B2 (en) Industrial remote control robot system
JP7076184B2 (ja) 人間運動センサを使用して油圧ロボットの近くにいるときの動きを検出すること
US20160129594A1 (en) Human-centric robot with noncontact measurement device
US20190321977A1 (en) Architecture and methods for robotic mobile manipluation system
KR102520214B1 (ko) 선제적 대응이 가능한 협동 로봇 구동 방법 및 이를 위한 시스템
JPWO2008047872A1 (ja) マニピュレータ
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
Kirschner et al. YuMi, come and play with Me! A collaborative robot for piecing together a tangram puzzle
JP2020189367A (ja) ロボットシステム
Khokar et al. A novel telerobotic method for human-in-the-loop assisted grasping based on intention recognition
CN114347037B (zh) 基于复合标识的机器人***故障检测处理方法及机器人***
JP4572497B2 (ja) ロボット制御装置
Rasch et al. Tidy up my room: Multi-agent cooperation for service tasks in smart environments
Zhang et al. QR code-based self-calibration for a fault-tolerant industrial robot arm
US10007837B2 (en) Determining the robot axis angle and selection of a robot with the aid of a camera
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
Nigro et al. Assembly task execution using visual 3D surface reconstruction: An integrated approach to parts mating
CN114536402B (zh) 基于关联标识的机器人***故障检测处理方法及机器人***
Miura et al. Development of a personal service robot with user-friendly interfaces
Jian et al. On-line precision calibration of mobile manipulators based on the multi-level measurement strategy
JP2020163511A (ja) 遠隔操作ロボットの作業支援システム及び作業支援方法
CN114536401B (zh) 基于多个位姿标识的机器人***故障检测处理方法及机器人***
US20220203531A1 (en) Robot, transmission method, and transmission estimation method
CN111399518A (zh) 一种基于多传感的协作机器人避障***及其控制方法
US20230330847A1 (en) Method and System for Training a Robot

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant