KR20130083099A - 로봇 및 이상 상황 판단과 대응방법 - Google Patents

로봇 및 이상 상황 판단과 대응방법 Download PDF

Info

Publication number
KR20130083099A
KR20130083099A KR20120003641A KR20120003641A KR20130083099A KR 20130083099 A KR20130083099 A KR 20130083099A KR 20120003641 A KR20120003641 A KR 20120003641A KR 20120003641 A KR20120003641 A KR 20120003641A KR 20130083099 A KR20130083099 A KR 20130083099A
Authority
KR
South Korea
Prior art keywords
robot
service
storage unit
task
controller
Prior art date
Application number
KR20120003641A
Other languages
English (en)
Other versions
KR101945185B1 (ko
Inventor
장준원
노경식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120003641A priority Critical patent/KR101945185B1/ko
Priority to US13/738,485 priority patent/US9132547B2/en
Priority to CN201310012878.2A priority patent/CN103203753B/zh
Publication of KR20130083099A publication Critical patent/KR20130083099A/ko
Application granted granted Critical
Publication of KR101945185B1 publication Critical patent/KR101945185B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/54Link editing before load time
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33002Artificial intelligence AI, expert, knowledge, rule based system KBS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33056Reinforcement learning, agent acts, receives reward, emotion, action selective
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45108Aid, robot for aid to, assist human disabled

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 이상 상황 판단과 대응을 위한 로봇 및 이상 상황 판단과 대응 방법에 관한 것이다. 본 발명은 로봇의 내부 및 외부의 데이터를 센싱하는 센서부와 센서부가 센싱한 정보, 추론모델, 학습모델, 로봇이 제공할 서비스, 서비스의 제공을 위한 세부 태스크 및 이상 상황에 대응하기 위한 대응 태스크를 저장하는 저장부와 서비스의 제공을 위한 세부 태스크 수행 중에 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하고 이상 상황의 발생이 판단된 경우 저장부의 추론모델을 통하여 이상 상황에 대응하는 대응 태스크를 선택하는 제어부를 포함하는 로봇에 관한 발명이다. 본 발명에 의하면, 로봇의 설계자가 정의한 데이터가 노이즈 또는 동작 환경에 의해 변형되더라도 로봇은 이상 상황의 발생 여부를 판단할 수 있고 이상 상황에 대응할 수 있다.

Description

로봇 및 이상 상황 판단과 대응방법{robot and method to recognize and handle exceptional situations}
본 발명은 로봇이 서비스 제공 중에 발생할 수 있는 이상 상황, 예외 상황 내지 오류 상황(이하 이상 상황이라 한다.)의 발생 여부를 판단하고, 이상 상황에 대응하는 로봇 및 그 방법에 관한 발명이다.
로봇이 산업현장을 벗어나 각 가정에 배치되는 경우에는 특정 작업만을 일률적으로 처리하는 로봇으로는 부족하고 다양한 동작 상황에서 서비스를 제공하며 서비스 제공 중에 동작 환경에 의한 불확실성으로 발생할 수 있는 상황에 대하여 유연하게 대응할 필요가 있다.
이러한 필요에도 불구하고 종래 기술에 의한 로봇은 동작 환경의 불확실성으로 인하여 변형된 정보가 입력되거나 설계자가 예상하지 못한 이상 상황이 발생할 경우 입력 오류가 발생한 것으로 판단하거나 이상 상황이 발생한 것으로 정의하는 수준에 머물러 있을 뿐 현재의 상황을 제대로 인지하지 못하고 나아가 이러한 상황에 적절하게 대응할 수 없다.
이와 관련하여 로봇의 센서부에 의하여 입력된 데이터를 이용하여 계층적인 데이터 구조를 형성하고, 형성된 계층 구조의 데이터를 이용하여 로봇의 주변 상황에 대한 인지 능력을 향상시키고, 미래 상황을 판단하여 로봇이 예상하지 못한 돌발 상황에 적절히 대응할 수 있는 로봇이 제안된 바 있다.
그러나 상기 로봇은 로봇이 판단한 상황과 실제로 인지된 상황이 일치하지 않을 경우에는 판단된 데이터가 입력될 때까지 주변 탐색을 계속하거나 예외 상황으로 처리하고 있어 이상 상황에 적절히 대응하는데 한계가 있다.
본 발명의 일 측면은 설계자에 의하여 사전에 정의된 입력데이터가 노이즈 또는 동작 환경의 불확실성에 의하여 변형되더라도 변형된 입력데이터에 대응하여 이상 상황이 발생하였는지 여부를 판단하고 그에 대응하는 대응 태스크를 수행하는 로봇 및 그 방법을 제공한다.
본 발명의 일 실시예에 의한 로봇은 로봇의 내부 및 외부의 정보를 센싱하는 센서부와 상기 센서부가 센싱한 정보, 추론모델, 학습모델, 로봇이 제공할 수 있는 서비스, 상기 서비스의 제공을 위한 세부 태스크 및 이상 상황에 대응하기 위한 대응 태스크를 저장하는 저장부와 사용자의 명령 또는 상기 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하고 선택된 서비스의 제공을 위한 세부 태스크의 수행 중에 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하고 이상 상황의 발생이 판단된 경우 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 제어부를 포함하는 로봇이다.
로봇이 제공할 서비스 선택과 관련하여 상기 제어부는 로봇이 제공할 서비스를 선택하였는지 여부를 판단하고 로봇이 제공할 서비스를 선택하지 않았다면 상기 저장부의 정보, 추론모델 및 로봇이 제공할 수 있는 서비스를 상기 제어부로 불러오고 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택한다.
이상 상황의 발생 여부 판단과 관련하여 상기 제어부는 선택된 서비스의 제공을 위한 세부 태스크를 선택하고 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하는지 판단하고 상기 학습모델이 존재하면 상기 제어부는 상기 저장부의 정보, 상기 학습모델을 제어부로 불러오고 상기 학습모델에 상기 정보를 입력하고 그 결과를 통하여 이상 상황의 발생 여부를 판단한다.
상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하지 않으면 상기 제어부는 상기 저장부의 정보를 불러오고 상기 정보와 이상 상황의 발생 여부를 대응시켜 학습모델을 훈련시키고 훈련된 학습모델을 상기 저장부에 저장하여 로봇이 상기 세부 태스크에 대응하는 학습모델을 생성한다.
이상 상황에 대응하는 대응 태스크의 선택과 관련하여 이상 상황의 발생이 판단되면 상기 제어부는 상기 저장부의 정보, 추론모델 및 이상 상황에 대응하기 위한 대응 태스크를 제어부로 불러오고 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 상기 이상 상황에 대응하는 대응 태스크를 선택한다.
본 발명의 일 실시예에 의한 로봇의 이상 상황 인지 및 대응 방법은 로봇의 제어부가 사용자의 명령 또는 로봇의 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하는 단계, 선택된 서비스의 제공을 위한 세부 태스크의 수행 중에 상기 제어부가 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 단계, 이상 상황의 발생이 판단된 경우 상기 제어부가 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계를 포함한다.
로봇의 제어부가 로봇의 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하는 단계는 로봇의 제어부가 로봇이 제공할 서비스를 선택하였는지 여부를 판단하는 단계, 로봇이 제공할 서비스를 선택하지 않았다면 상기 제어부가 상기 저장부의 정보, 추론모델 및 로봇이 제공할 수 있는 서비스를 제어부로 불러오는 단계, 상기 제어부가 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택하는 단계를 포함한다.
선택된 서비스의 제공을 위한 세부 태스크 수행 중에 상기 제어부가 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 단계는 상기 제어부가 선택된 서비스의 제공을 위한 세부 태스크를 선택하는 단계, 상기 제어부가 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하는지 판단하는 단계, 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하면 상기 제어부가 상기 저장부의 정보, 상기 학습모델을 제어부로 불러오는 단계, 상기 제어부가 상기 학습모델에 상기 정보를 입력하고 그 결과를 통하여 이상 상황의 발생 여부를 판단하는 단계를 포함한다.
상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하지 않으면 상기 제어부가 상기 저장부의 정보를 불러오는 단계, 상기 제어부가 상기 정보와 이상 상황의 발생 여부를 대응시켜 학습모델을 훈련시키는 단계, 상기 제어부가 훈련된 학습모델을 상기 저장부에 저장하는 단계를 거쳐 상기 제어부가 상기 세부 태스크에 대응하는 학습모델을 생성한다.
이상 상황의 발생이 판단된 경우 상기 제어부가 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계는 상기 제어부가 상기 저장부의 정보, 추론모델 및 이상 상황에 대응하기 위한 대응 태스크를 제어부로 불러오는 단계, 상기 제어부가 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계를 포함한다.
학습모델을 이용하여 이상 상황의 발생 여부를 판단하고 추론모델을 이용하여 이상 상황에 대응하는 대응 태스크를 선택함으로써 노이즈 또는 로봇의 동작 환경의 불확실성에 의하여 변형된 데이터(unseen input)가 입력되더라도 학습모델은 이를 입력 오류로 인식하지 않고 그에 대응한 출력 데이터를 출력할 수 있고 이러한 출력 데이터를 통하여 로봇의 제어부는 이상 상황의 발생 여부를 판단할 수 있다. 또한 상기 제어부는 이상 상황에 대응하는 대응 태스크를 선택하고 로봇이 대응 태스크를 수행하도록 할 수 있다.
도 1은 본 발명의 일 실시예에 의한 이상 상황 판단 및 대응을 위한 로봇의 구성을 개략적으로 도시한 블록도,
도 2는 본 발명의 일 실시예에 의한 로봇의 저장부에 저장되는 내용을 도시한 블록도,
도 3은 본 발명의 일 실시예에 의한 학습모델 생성 방법을 나타내는 순서도,
도 4는 본 발명의 일 실시예에 의한 로봇이 이상 상황의 발생 여부를 판단하고, 대응 태스크를 선택하기 위한 방법의 순서도이다.
이하에서는 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 의한 이상 상황 판단 및 대응을 위한 로봇의 구성을 개략적으로 도시한 블록도이고, 도 2는 본 발명의 일 실시예에 의한 로봇의 저장부에 저장되는 내용을 도시한 블록도이며, 도 3은 본 발명의 일 실시예에 의한 학습모델 생성 방법을 나타내는 순서도이다.
도 1과 2을 참조하면, 본 발명의 일 실시예에 의한 로봇은 로봇의 내부 및 외부의 정보를 센싱하는 센서부(101)와 센서부(101)가 센싱한 정보(201), 추론모델(202), 학습모델(203), 로봇이 제공할 수 있는 서비스(204), 서비스(204)의 제공을 위한 세부 태스크(205) 및 이상 상황에 대응하기 위한 대응 태스크(206)를 저장하는 저장부(102)와 로봇이 제공할 서비스를 선택하고 선택된 서비스의 제공을 위한 세부 태스크 수행 중에 이상 상황의 발생 여부를 판단하고 이상 상황의 발생이 판단되면 이상 상황에 대응하는 대응 태스크를 선택하는 제어부(103), 제어부(103)에 의하여 선택된 서비스를 제공하기 위하여 로봇을 구동하는 구동부(104) 및 제어부(103)에 의한 세부 태스크 또는 대응 태스크를 실현하는 로봇의 팔, 다리 등을 포함한다.
센서부(101)는 로봇에 구비된 복수의 센서를 포함한다.
로봇의 관절에 구비된 모터의 토크를 센싱하는 가속센서, 로봇의 위치, 속도, 가속도 등을 센싱하는 관성센서, 로봇의 기울어진 정도를 센싱하는 기울기센서 또는 자이로센서 등 로봇 내부의 정보를 센싱하는 센서와 시각정보를 센싱하는 비전센서, 청각정보를 센싱하는 오디오센서, 접촉 정보를 센싱하는 촉각센서, 물체와의 거리를 센싱하는 초음파센서, 온도를 센싱하는 온도센서, 습도를 센싱하는 습도센서 등 로봇의 외부 환경 또는 사용자의 정보를 센싱하는 센서를 포함할 수 있다.
저장부(102)는 센서부(101)가 센싱한 로봇, 환경 및 사용자에 대한 정보(201), 추론모델(202), 학습모델(203), 로봇이 제공할 수 있는 서비스(204), 서비스의 제공을 위한 세부 태스크(205) 및 이상 상황에 대응하기 위한 태스크(206)를 저장한다.
로봇, 환경 및 사용자에 대한 정보(201)는 로봇에 관한 정보, 로봇 외부의 환경에 관한 정보, 사용자에 관한 정보를 포함한다.
로봇에 관한 정보는 로봇의 가속센서에 의하여 센싱된 로봇의 관절에 구비된 모터의 토크값, 로봇의 관성센서에 의하여 센싱된 로봇의 위치, 속도, 가속도값 등을 포함한다. 로봇의 외부 환경에 관한 정보는 비전센서에 의하여 센싱된 시각정보, 온도센서에 의하여 센싱된 온도, 습도센서에 의하여 센싱된 습도 등 뿐만 아니라 시각정보 또는 청각정보 등을 처리하여 생성된 물건이 파손되었는지 여부, 바닥이 더러운지 여부 등의 정보도 포함한다. 사용자에 관한 정보는 비전센서에 의하여 센싱된 시각정보, 오디오센서에 의하여 센싱된 청각정보 등 뿐만 아니라 시각정보 또는 청각정보 등을 처리하여 생성된 사용자가 목마른지 여부, 사용자가 배고픈지 여부 등의 정보도 포함한다.
예를 들어, 사용자가 “목마르다”라는 말을 하면 로봇의 센서부(101) 중 오디오센서는 사용자의 음성을 센싱하고 저장부(102)에는 “사용자가 목마르다”라는 정보가 저장된다.
로봇이 제공할 수 있는 서비스(204)는 음료 전달, 식사 준비, 청소 등 로봇의 목적에 따라 로봇이 제공할 수 있는 모든 서비스를 포함한다.
로봇이 제공할 수 있는 서비스(204)는 구체적으로 서비스의 제공을 위한 세부 태스크(205)로 구성되고 서비스의 제공을 위한 세부 태스크(205)는 로봇이 제공할 수 있는 서비스(204)에 대응하여 정해진 순서대로 저장부(102)에 저장된다.
서비스의 제공을 위한 세부 태스크(205)는 로봇이 서비스를 제공하기 위하여 수행하는 개별 동작을 의미한다. 예를 들어 특정 물건을 들어올리는 세부 태스크, 특정 장소로 이동하는 세부 태스크, 사용자에게 특정 내용의 정보를 고지하는 세부 태스크 등이 세부 태스크(205)에 해당된다.
로봇이 제공할 수 있는 서비스(204)는 서비스의 제공을 위한 세부 태스크(205)가 순서대로 수행되어 실현된다. 예를 들어 사용자에 대한 음료 전달 서비스는 구체적으로 음료를 탐색하는 세부 태스크, 음료를 집어드는 세부 태스크, 음료를 들고 사용자에게 이동하는 세부 태스크, 사용자에게 음료를 전달하는 세부 태스크를 포함하고 정해진 순서대로 각각의 세부 태스크가 수행되어야 사용자에게 음료를 전달하는 서비스가 완료된다.
이상 상황이란 로봇이 서비스의 제공을 위한 세부 태스크의 수행 중에 서비스의 제공을 위한 다음 세부 태스크를 수행할 수 없는 상황을 의미한다. 예를 들어, 음료 전달 서비스를 제공하기 위하여 로봇이 음료를 탐색하는 세부 태스크의 수행 중에 음료를 발견하지 못하는 상황, 로봇이 음료를 들고 사용자에게 이동하는 세부 태스크의 수행 중에 음료가 담긴 컵을 놓치는 상황 등이 이상 상황에 해당한다.
이상 상황에 대응하기 위한 대응 태스크(206)는 이상 상황의 발생이 판단된 경우 이상 상황에 대응하여 로봇이 수행하는 개별 동작을 의미한다. 예를 들어 로봇이 음료를 탐색하는 세부 태스크의 수행 중에 음료를 발견하지 못하는 이상 상황이 발생하면 음료가 없다는 정보를 사용자에 고지하는 대응 태스크, 로봇이 음료를 들고 사용자에게 이동하는 대응 태스크의 수행 중에 음료가 담긴 컵을 놓치는 이상 상황이 발생하면 컵을 집어드는 대응 태스크 등이 대응 태스크(206)에 해당된다.
추론모델(202)은 수개의 명제(여기서 명제는 사실과 규칙을 포함한다.)를 이용하여 새로운 정보를 연역하는 것으로 대표적인 추론모델은 1차논리(First Order Logic, FOL), 베이지안 네트워크(Bayesian Network) 등이 있다.
저장부(102)에 저장된 추론모델(202)은 로봇이 제공할 서비스의 선택 및 이상 상황에 대응하는 대응 태스크의 선택과 관련된 규칙을 포함한다.
예를 들어, 저장부(102)의 추론모델(203)은 “사용자가 목마르면 음료를 전달한다”라는 규칙, “사용자가 바쁘고 바닥이 더러우면 청소한다”라는 규칙, “사용자가 배고프면 식사를 준비한다”라는 규칙, “파손되지 않은 물건은 집어든다.”라는 규칙, “물건이 파손되고 사용자가 바쁘지 않으면 사용자에게 고지한다.”라는 규칙 등을 포함할 수 있다.
학습모델(203)은 입력된 데이터에 대하여 출력을 계산하는 매핑함수(mapping function)의 일종으로 대표적인 학습모델로는 SVM(Support Vector Machine) 등이 있다. 학습모델에 입력 데이터를 입력하면 학습모델은 입력 데이터에 대응하는 출력 데이터를 출력한다.
학습모델(203)은 로봇의 설계자가 미리 정의하여 저장부(102)에 저장하는 것을 원칙으로 한다. 다만 로봇이 제공하는 서비스에 대응하는 학습모델이 저장부(102)에 존재하지 않을 경우에는 제어부(103)가 저장부(102)로부터 학습모델 생성과 관련된 정보(201)를 불러와 학습모델(203)을 생성한다.
학습모델의 생성은 훈련 데이터(training data)로부터 하나의 학습모델을 유추하기 위한 일련의 과정을 의미하며, 훈련 데이터는 입력 데이터와 그에 대응되는 출력 데이터를 포함한다.
도 3을 참고하면, 제어부(103)가 학습모델(202)을 생성하기 위한 구체적인 과정은 제어부(103)가 학습모델과 관련된 훈련 데이터를 수집하는 단계(301), 제어부(103)가 훈련 데이터 가운데 입력 데이터를 출력 데이터에 대응(mapping)시킴으로써 학습모델을 훈련시키는 단계(302), 제어부(103)가 훈련된 학습모델을 저장부(102)에 저장하는 단계(303)를 포함한다.
훈련 데이터는 선택된 서비스의 제공을 위한 세부 태스크 수행 중 발생할 수 있는 이상 상황과 관련된 정보와 이상 상황의 발생 여부를 포함한다.
제어부(103)가 로봇 핸드의 관절의 토크값을 입력받아 로봇이 물건을 파지하고 있는지 여부를 판단하는 학습모델을 생성하고 생성된 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 예를 설명한다.
구체적으로 로봇의 핸드의 관절이 총 22개로 설계됨을 가정할 때 그 중 물건을 파지하는데 중요한 역할을 하는 관절은 엄지, 검지, 중지에 포함된 9개의 관절이며, 9개의 토크 값을 9차원 벡터로 정의할 수 있다.
로봇이 물건을 파지하고 있는 경우 제어부(103)는 9개의 토크 값을 수회 실시간으로 측정하고 측정시기별로 9개의 토크 값을 입력데이터로 하고 (+1)을 출력 데이터로 하여 저장한다. 또한 로봇이 물건을 떨어뜨리는 경우 제어부(103)는 9개의 관절의 토크를 수회 실시간으로 측정하고 측정시기별로 9개의 토크 값을 입력데이터로 하고 (-1)을 출력 데이터로 하여 저장한다.
제어부(103)는 입력 데이터인 9개의 토크 값과 출력 데이터를 대응시켜 학습모델을 생성할 수 있다.
로봇의 서비스 제공을 위한 세부 태스크 수행 중에 센서부(101)가 로봇의 엄지, 검지, 중지에 포함된 관절의 토크 값 9개를 실시간으로 측정하고 제어부(103)가 생성된 학습모델에 9개의 토크 값을 입력하면 학습모델은 (+1) 또는 (-1)을 출력한다. 또한 제어부(103)는 학습모델의 출력을 통하여 로봇이 물건을 떨어뜨렸는지 여부를 판단할 수 있다.
제어부(103)는 저장부(102)의 추론모델(202)을 통하여 로봇이 제공할 서비스를 선택하고 선택된 서비스의 제공을 위한 세부 태스크 수행 중에 저장부(102)의 학습모델(203)을 통하여 이상 상황의 발생 여부를 판단하며 이상 상황의 발생이 판단된 경우 저장부(102)의 추론모델(202)을 통하여 상기 이상 상황에 대응하는 태스크를 선택한다.
로봇이 제공할 서비스의 선택과 관련하여 제어부(103)는 로봇이 제공할 서비스를 선택하였는지 여부를 판단한다. 로봇이 제공할 서비스를 선택하지 않았다면 제어부(103)는 로봇의 외부 및 사용자에 관한 정보(201), 추론모델(202) 및 로봇이 제공할 수 있는 서비스(204)를 저장부(102)로부터 불러오고 불러온 정보(201)와 추론모델(202)을 통하여 로봇이 제공할 서비스를 선택한다.
구체적으로 제어부(103)가 로봇이 제공할 수 있는 서비스 각각에 대하여 저장부(102)의 정보(201)가 추론모델(202)에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택한다.
예를 들어 “사용자1이 목마르다”라는 정보, “사용자1가 바쁘다”라는 정보, “사용자2가 바쁘다”라는 정보, “거실이 깨끗하다”라는 정보가 저장부(102)에 저장되어 있고, “사용자가 목마르면 음료를 전달한다”라는 규칙, “사용자가 바쁘고 바닥이 더러우면 청소한다”라는 규칙, “사용자가 배고프면 식사를 준비한다”라는 규칙이 포함된 추론모델이 저장부(102)에 저장되어 있고, 음료 전달 서비스, 식사 준비 서비스, 청소 서비스가 저장부(102)에 저장되어 있다고 가정한다.
제어부(103)는 저장부(102)의 정보, 추론 모델 및 로봇이 제공할 수 있는 서비스를 불러온다. 이후 제어부(103)는 불러온 정보가 추론모델의 규칙을 만족하는지 여부를 판단한다. 구체적으로 제어부(103)는 사용자1이 목마르므로 사용자1에게 음료를 전달하여야 함을 추론하고, 제어부(103)는 로봇이 제공할 서비스로 사용자1에 대한 음료 전달 서비스를 선택한다. 같은 방식으로 사용자1과 사용자2는 배고프지 않으므로 제어부(103)는 식사 준비 서비스를 선택하지 않고, 거실이 깨끗하므로 제어부(103)는 청소 서비스를 선택하지 않는다.
제어부(103)는 선택된 서비스에 대응하는 복수의 세부 태스크(205) 중 로봇이 수행할 세부 태스크를 정해진 순서대로 선택한다.
제어부(103)는 선택된 세부 태스크에 대응하는 학습모델이 저장부(102)에 존재하는지 여부를 판단하고, 저장부(102)에 선택된 세부 태스크에 대응하는 학습모델이 존재하면 제어부(103)는 저장부(102)로부터 선택된 세부 태스크에 대응하는 학습모델을 불러온다. 저장부(102)에 선택된 세부 태스크에 대응하는 학습모델이 존재하지 않으면 제어부(103)는 저장부(102)로부터 정보(201)를 불러오고 선택된 세부 태스크에 대응하는 학습모델을 생성한다.
제어부(103)는 선택된 서비스를 제공하기 위한 세부 태스크를 저장부(102)로부터 불러오고, 세부 태스크에 따라 구동부(104)를 제어한다.
예들 들어 음료 제공 서비스는 음료를 탐색하는 태스크, 음료를 집어드는 태스크, 음료를 들고 사용자에게 이동하는 태스크, 사용자에게 음료를 전달하는 태스크로 구성되어 있다고 가정한다. 제어부(103)는 저장부(102)에서 음료를 탐색하는 태스크를 불러오고 음료를 탐색하는 태스크에 따라 구동부(104)를 제어한다. 음료가 발견되면 음료를 탐색하는 태스크는 종료되며 제어부(103)는 저장부(102)에서 음료를 집어드는 태스크를 불러오고 그에 따라 구동부(104)를 제어한다. 이와 같은 방식으로 제어부(103)는 로봇이 음료 제공 서비스에 포함된 모든 세부 태스크를 순서대로 수행하도록 구동부(104)를 제어한다.
구동부(104)는 제어부(103)의 제어 신호에 따라 로봇의 팔, 다리 등을 구동하여 선택된 서비스를 실현한다.
선택된 세부 태스크의 수행 중에 제어부(103)는 제어부(103)는 학습모델의 입력에 해당하는 정보(201)를 저장부(102)로부터 불러오고 학습모델(203)에 불러온 정보(201)를 입력하고 그 결과를 통하여 이상 상황의 발생 여부를 판단한다.
예를 들어, 저장부(102)에 로봇 핸드의 9개의 토크값을 입력하면 로봇이 컵을 파지하고 있으면 (+1)을 출력하고 로봇이 컵을 놓치면 (-1)을 출력하는 학습모델(203)이 저장되어 있음을 가정한다.
로봇이 물건을 들고 사용자에게 이동하는 태스크 수행 중에 제어부(103)가 저장부(102)의 정보(102) 중 로봇 핸드의 9개의 토크값과 상기 학습모델을 불러오고 9개의 토크값을 상기 학습모델에 입력하여 학습모델의 출력이 (+1)인 경우 제어부(103)는 로봇이 물건을 파지하고 있어 이상 상황이 발생하지 않았음을 판단할 수 있고, 학습모델의 출력이 (-1)인 경우 제어부(103)는 로봇이 물건을 떨어뜨려 이상 상황이 발생하였음을 판단할 수 있다.
이상 상황의 발생이 판단되면 제어부(103)는 로봇 외부 환경 및 사용자에 관한 정보(201), 추론모델(202) 및 이상 상황에 대응하기 위한 태스크(206)를 저장부(102)로부터 불러오고 불러온 정보(201)가 추론모델(202)에 포함된 규칙을 만족하는지 여부를 판단하여 이상 상황에 대응하는 대응 태스크를 선택한다.
예를 들어 로봇이 사용자에게 물건을 전달하는 태스크 수행 중에 물건을 떨어뜨리는 이상 상황이 발생하고 사용자가 바쁘다면 “물건이 파손되었다”라는 정보, “거실이 더럽다”는 정보, “사용자가 바쁘다”라는 정보가 저장부(102)에 저장된다. 또한 “사용자가 바쁘고 바닥이 더러우면 바닥 청소를 한다”라는 규칙, “파손되지 않은 물건은 집어든다.”라는 규칙, “물건이 파손되고 사용자가 바쁘지 않으면 사용자에게 고지한다.”라는 규칙을 포함하는 추론모델(202)이 저장부(102)에 저장되어 있고 이상 상황에 대응하기 위한 대응 태스크로 사용자에게 고지하는 대응 태스크, 물건을 집어드는 대응 태스크, 바닥을 청소하는 대응 태스크가 저장되어 있음을 가정한다..
제어부(103)는 저장부(102)로부터 상기 정보, 추론모델 및 이상 상황에 대응하기 위한 대응 태스크를 불러오고 불러온 정보가 추론모델의 규칙을 만족하는지 여부를 판단하여 이상 상황에 대응하는 대응 태스크를 선택한다.
물건이 파손되었으므로 제어부(103)는 물건을 집어드는 대응 태스크를 선택하지 않고, 사용자가 바쁘므로 제어부(103)는 사용자에게 고지하는 대응 태스크를 선택하지 않는다. 또한 사용자가 바쁘고 거실 바닥이 더러우므로 제어부(103)는 바닥을 청소하는 대응 태스크를 선택한다.
제어부(103)는 선택된 바닥을 청소하는 태스크에 따라 구동부(104)를 제어하고 로봇의 팔, 다리 등은 바닥 청소 태스크를 실현한다.
도 4는 본 발명의 일 실시예에 의한 로봇이 이상 상황의 발생 여부를 판단하고 대응 태스크를 선택하기 위한 방법의 순서도이다.
도 4을 참조하여 본 발명의 일 실시예에 의하여 제어부(103)가 이상 상황의 발생 여부를 판단하고 이상 상황에 대응하는 대응 태스크를 선택하기 위한 동작을 설명한다.
제어부(103)는 로봇이 제공할 서비스의 선택 여부를 판단(401)한다. 로봇이 제공할 서비스가 선택되었다면 제어부(103)는 로봇이 제공할 서비스를 선택하지 않고 선택된 서비스 제공을 위한 세부 태스크를 선택(411)한다.
로봇이 제공할 서비스가 선택되지 않았다면 저장부(102)로부터 로봇 외부 환경 및 사용자에 관한 정보와 추론모델을 불러온다. 이후 제어부(103)는 저장부(102)의 정보가 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택(403)한다.
로봇이 제공할 서비스가 선택되면 제어부(103)는 선택된 서비스의 제공을 위한 세부 태스크를 선택(411)한다. 선택된 서비스의 제공을 위한 세부 태스크는 서비스 제공을 위하여 정해진 순서대로 저장부(102)에 저장되어 있고 제어부(103)는 정해진 순서에 따라 세부 태스크를 선택(411)한다.
로봇이 수행할 세부 태스크가 선택되면 제어부(103)는 저장부(102)에 선택된 세부 태스크에 대응하는 학습모델이 존재하는지 판단(412)한다.
선택된 세부 태스크에 대응하는 학습모델이 존재하지 않으면, 제어부(103)는 훈련 데이터를 수집하는 단계(301), 훈련 데이터를 이용하여 학습모델을 훈련시키는 단계(302), 훈련된 학습모델을 저장부(102)에 저장하는 단계(303)를 거쳐 선택된 세부 태스크에 대응하는 학습모델을 생성(419)한다.
저장부(102)에 선택된 세부 태스크에 대응하는 학습모델이 존재하면, 제어부(103)는 저장부(102)로부터 선택된 세부 태스크에 대응하는 학습모델을 불러온다(413).
이후 제어부(103)는 선택된 세부 태스크를 저장부(102)로부터 불러오고 불러온 세부 태스크에 따라 로봇의 구동부(104)를 제어하여 로봇이 선택된 세부 태스크를 수행(414)하도록 제어한다.
선택된 세부 태스크의 수행 중에 제어부(103)는 학습모델의 입력에 해당하는 정보를 저장부(102)로부터 불러오고(415), 불러온 정보를 실시간으로 학습모델에 입력시킨 후 학습모델의 출력을 통하여 이상 상황의 발생 여부를 판단(416)한다.
이상 상황이 발생하지 않았음이 판단되면, 제어부(103)는 선택된 세부 태스크가 종료하였는지 판단(417)한다.
선택된 세부 태스크가 종료되지 않았으면, 제어부(103)는 학습모델의 입력에 해당하는 정보를 저장부(102)로부터 다시 불러오고(415), 불러온 정보를 실시간으로 학습모델에 입력시킨 후 학습모델의 출력을 통하여 이상 상황의 발생 여부를 판단(416)하는 과정을 반복한다. 즉 선택된 세부 태스크가 종료할 때까지 제어부(103)는 저장부(102)의 정보를 불러와 학습모델에 입력하고 그 출력을 통하여 이상 상황이 발생하였는지 여부를 감시한다.
선택된 세부 태스크가 종료되었으면, 제어부(103)는 로봇이 제공하는 서비스가 종료되었는지 판단(418)한다.
로봇이 제공하는 서비스가 종료되지 않았으면 제어부(103)는 서비스 제공을 위한 다음 세부 태스크를 선택(411)하고, 로봇이 제공하는 서비스가 종료되었으면 제어부(103)는 다음 서비스를 선택하기 위하여 대기한다.
이상 상황이 발생하였음이 판단되면, 제어부(103)는 저장부(102)로부터 로봇 외부의 환경 및 사용자에 관한 정보, 추론모델 및 이상 상황에 대응하기 위한 대응 태스크를 불러온다(421).
제어부(103)는 저장부(102)의 정보가 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 이상 상황에 대응하는 대응 태스크를 선택(422)한다.
이후 제어부(103)는 선택된 대응 태스크에 따라 로봇의 구동부(104)를 제어하여 로봇이 선택된 대응 태스크를 수행(423)하도록 한다.
이상 상황에 대응하는 대응 태스크의 수행이 완료되면 제어부(103)는 선택된 서비스의 제공을 위한 세부 태스크를 다시 선택(404)하고 세부 태스크를 순서대로 수행하여 선택된 서비스의 제공을 완료한다.
101:로봇의 센서부
102:로봇의 저장부
103:로봇의 제어부

Claims (12)

  1. 로봇의 내부 및 외부의 정보를 센싱하는 센서부;
    상기 센서부가 센싱한 정보, 추론모델, 학습모델, 로봇이 제공할 수 있는 서비스, 상기 서비스의 제공을 위한 세부 태스크 및 이상 상황에 대응하기 위한 대응 태스크를 저장하는 저장부;
    사용자의 명령 또는 상기 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하고 선택된 서비스의 제공을 위한 세부 태스크의 수행 중에 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 제어부를 포함하는 로봇.
  2. 제1항에 있어서,
    상기 제어부는 상기 로봇이 제공할 서비스를 선택하였는지 여부를 판단하고 로봇이 제공할 서비스를 선택하지 않았다면 상기 저장부의 정보, 추론모델 및 로봇이 제공할 수 있는 서비스를 상기 제어부로 불러오고 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택하는 것을 특징으로 하는 로봇.
  3. 제1항에 있어서,
    상기 제어부는 선택된 서비스의 제공을 위한 세부 태스크를 선택하고 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하는지 판단하고 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하면 상기 저장부의 정보, 상기 학습모델을 제어부로 불러오고 상기 학습모델에 상기 정보를 입력하고 그 결과를 통하여 이상 상황의 발생 여부를 판단하는 것을 특징으로 하는 로봇.
  4. 제3항에 있어서,
    상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하지 않으면 상기 제어부는 상기 저장부의 정보를 불러오고 상기 정보와 이상 상황의 발생 여부를 대응시켜 학습모델을 훈련시키고 훈련된 학습모델을 상기 저장부에 저장하여 상기 세부 태스크에 대응하는 학습모델을 생성하는 것을 특징으로 하는 로봇.
  5. 제1항에 있어서,
    이상 상황의 발생이 판단된 경우 상기 제어부는 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 것을 특징으로 하는 로봇.
  6. 제5항에 있어서,
    상기 제어부는 상기 저장부의 정보, 추론모델 및 이상 상황에 대응하기 위한 대응 태스크를 제어부로 불러오고 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 것을 특징으로 하는 로봇.
  7. 로봇의 제어부가 사용자의 명령 또는 로봇의 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하는 단계;
    선택된 서비스의 제공을 위한 세부 태스크 수행 중에 상기 제어부가 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 단계를 포함하는 로봇의 이상 상황 인지 및 대응 방법.
  8. 제7항에 있어서,
    로봇의 제어부가 로봇의 저장부의 추론모델을 통하여 로봇이 제공할 서비스를 선택하는 단계는
    로봇의 제어부가 로봇이 제공할 서비스를 선택하였는지 여부를 판단하는 단계;
    로봇이 제공할 서비스를 선택하지 않았다면 상기 제어부가 상기 저장부의 정보, 추론모델 및 로봇이 제공할 수 있는 서비스를 제어부로 불러오는 단계;
    상기 제어부가 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 로봇이 제공할 서비스를 선택하는 단계를 포함하는 것인 로봇의 이상 상황 인지 및 대응 방법.
  9. 제7항에 있어서,
    선택된 서비스의 제공을 위한 세부 태스크의 수행 중에 상기 제어부가 상기 저장부의 학습모델을 통하여 이상 상황의 발생 여부를 판단하는 단계는
    상기 제어부가 상기 서비스의 제공을 위한 세부 태스크를 선택하는 단계;
    상기 제어부가 상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하는지 판단하는 단계;
    상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하면 상기 제어부가 상기 저장부의 정보, 상기 학습모델을 제어부로 불러오는 단계;
    상기 제어부가 상기 학습모델에 상기 정보를 입력하고 그 결과를 통하여 이상 상황의 발생 여부를 판단하는 단계를 포함하는 것인 로봇의 이상 상황 인지 및 대응 방법.
  10. 제9항에 있어서,
    상기 저장부에 상기 세부 태스크에 대응하는 학습모델이 존재하지 않으면 상기 제어부가 상기 저장부의 정보를 불러오는 단계;
    상기 제어부가 상기 정보와 이상 상황의 발생 여부를 대응시킴으로써 학습모델을 훈련시키는 단계;
    상기 제어부가 훈련된 학습모델을 상기 저장부에 저장하는 단계를 거쳐 상기 제어부가 상기 세부 태스크에 대응하는 학습모델을 생성하는 로봇의 이상 상황 인지 및 대응 방법.
  11. 제7항에 있어서,
    이상 상황의 발생이 판단된 경우 상기 제어부가 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계를 더 포함하는 로봇의 이상 상황 인지 및 대응 방법.
  12. 제11항에 있어서,
    이상 상황의 발생이 판단된 경우 상기 제어부가 상기 저장부의 추론모델을 통하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계는
    상기 제어부가 상기 저장부의 정보, 추론모델 및 로봇이 이상 상황에 대응하기 위한 대응 태스크를 제어부로 불러오는 단계;
    상기 제어부가 상기 정보가 상기 추론모델에 포함된 규칙을 만족하는지 여부를 판단하여 상기 이상 상황에 대응하는 대응 태스크를 선택하는 단계를 포함하는 것인 로봇의 이상 상황 인지 및 대응 방법.
KR1020120003641A 2012-01-12 2012-01-12 로봇 및 이상 상황 판단과 대응방법 KR101945185B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120003641A KR101945185B1 (ko) 2012-01-12 2012-01-12 로봇 및 이상 상황 판단과 대응방법
US13/738,485 US9132547B2 (en) 2012-01-12 2013-01-10 Robot and method to recognize and handle abnormal situations
CN201310012878.2A CN103203753B (zh) 2012-01-12 2013-01-14 用于识别和处理异常情况的机器人和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120003641A KR101945185B1 (ko) 2012-01-12 2012-01-12 로봇 및 이상 상황 판단과 대응방법

Publications (2)

Publication Number Publication Date
KR20130083099A true KR20130083099A (ko) 2013-07-22
KR101945185B1 KR101945185B1 (ko) 2019-02-07

Family

ID=48751263

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120003641A KR101945185B1 (ko) 2012-01-12 2012-01-12 로봇 및 이상 상황 판단과 대응방법

Country Status (3)

Country Link
US (1) US9132547B2 (ko)
KR (1) KR101945185B1 (ko)
CN (1) CN103203753B (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160020772A (ko) * 2014-08-14 2016-02-24 경북대학교 산학협력단 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법
KR101624184B1 (ko) 2015-03-11 2016-06-07 연세대학교 산학협력단 에이전트 시스템을 위한 행동학습 모델의 의도-대응 인터페이스 장치 및 방법
KR20200071820A (ko) * 2018-11-30 2020-06-22 동아대학교 산학협력단 로봇 제어 장치 및 방법
KR20200133705A (ko) * 2020-11-20 2020-11-30 한국과학기술연구원 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법
US11681921B2 (en) 2018-10-30 2023-06-20 Samsung Electronics Co., Ltd. Method of outputting prediction result using neural network, method of generating neural network, and apparatus therefor

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2839769B1 (en) * 2013-08-23 2016-12-21 LG Electronics Inc. Robot cleaner and method for controlling the same
CN103792943B (zh) * 2014-02-19 2017-01-11 北京工业大学 基于距离信息和实例学习的机器人自主运动控制方法
CN103901888B (zh) * 2014-03-18 2017-01-25 北京工业大学 一种基于红外声纳传感器的机器人自主运动控制方法
BR112017024895B1 (pt) * 2015-05-21 2021-06-08 Nissan Motor Co., Ltd. dispositivo de diagnóstico de falha e método de diagnóstico de falha
CN106313113B (zh) * 2015-06-30 2019-06-07 芋头科技(杭州)有限公司 一种对机器人进行训练的***及方法
CN105629947B (zh) * 2015-11-30 2019-02-01 东莞酷派软件技术有限公司 家居设备监测方法、家居设备监测装置和终端
CN105892994B (zh) * 2016-04-05 2018-04-24 东南大学 一种移动机器人任务规划与执行异常情况处理方法及装置
CN105930167A (zh) * 2016-05-10 2016-09-07 北京光年无限科技有限公司 一种智能机器人及应用于智能机器人的操作***
JP7000704B2 (ja) * 2017-05-16 2022-01-19 富士フイルムビジネスイノベーション株式会社 移動式サービス提供装置及びプログラム
CN107329445B (zh) * 2017-06-28 2020-09-08 重庆柚瓣家科技有限公司 机器人行为准则智能监管的方法
CN107255969B (zh) * 2017-06-28 2019-10-18 重庆柚瓣家科技有限公司 养老机器人用监管***
CN107544398A (zh) * 2017-09-30 2018-01-05 上海物景智能科技有限公司 一种适用于清洁装置的服务方法
US11475291B2 (en) * 2017-12-27 2022-10-18 X Development Llc Sharing learned information among robots
US11017317B2 (en) 2017-12-27 2021-05-25 X Development Llc Evaluating robot learning
US10730181B1 (en) 2017-12-27 2020-08-04 X Development Llc Enhancing robot learning
US11131787B2 (en) * 2018-05-28 2021-09-28 Samsung Electronics Co., Ltd. Electromagnetic sensor and mobile device including the same
US11399682B2 (en) * 2018-07-27 2022-08-02 Panasonic Intellectual Property Corporation Of America Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
US11357376B2 (en) * 2018-07-27 2022-06-14 Panasonic Intellectual Property Corporation Of America Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
CN109732602B (zh) * 2019-01-08 2021-03-16 英华达(上海)科技有限公司 机械臂调速方法、***、设备以及介质
KR102306394B1 (ko) * 2019-08-23 2021-09-30 엘지전자 주식회사 인공지능 로봇 청소기
JP7021158B2 (ja) * 2019-09-04 2022-02-16 株式会社東芝 ロボットシステムおよび駆動方法
CN113050614B (zh) * 2019-12-26 2022-07-26 炬星科技(深圳)有限公司 机器人自主管理执行能力的方法、设备及存储介质
CN114444696A (zh) * 2020-11-03 2022-05-06 华为云计算技术有限公司 一种任务学习***、方法及相关设备
US11772272B2 (en) * 2021-03-16 2023-10-03 Google Llc System(s) and method(s) of using imitation learning in training and refining robotic control policies

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005219161A (ja) * 2004-02-05 2005-08-18 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御システム
JP2006346768A (ja) * 2005-06-13 2006-12-28 Toshiba Corp 移動ロボット、プログラム及びロボット制御方法
JP2007115275A (ja) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボット制御システム
CN101890720A (zh) * 2004-07-13 2010-11-24 松下电器产业株式会社 物品保持***、机器人以及机器人控制方法
KR20110003811A (ko) * 2009-07-06 2011-01-13 한국전자통신연구원 상호작용성 로봇
KR20110026212A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 로봇 및 그 제어방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5367449A (en) * 1992-05-27 1994-11-22 Michael Manthey Artificial intelligence system
JP4122652B2 (ja) * 1999-09-27 2008-07-23 松下電器産業株式会社 ロボットの制御装置
JP2003001578A (ja) * 2001-06-26 2003-01-08 Casio Comput Co Ltd ロボット、ロボット管理システム、ロボット制御プログラム、ロボット管理処理プログラム、ロボット管理方法、及び機器管理システム、機器管理処理プログラム、機器管理方法
JP4329398B2 (ja) * 2002-05-10 2009-09-09 ソニー株式会社 顔検出装置及び方法、並びにプログラム及び記録媒体
AU2003293243A1 (en) * 2002-11-27 2004-06-23 At Home Care Partners, Inc. System for providing at home health care service
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
US7725418B2 (en) * 2005-01-28 2010-05-25 Honda Motor Co., Ltd. Responding to situations using multidimensional semantic net and Bayes inference
JP4525477B2 (ja) * 2005-02-23 2010-08-18 ソニー株式会社 学習制御装置および学習制御方法、並びに、プログラム
US7720572B2 (en) * 2005-09-30 2010-05-18 Irobot Corporation Companion robot for personal interaction
US7668796B2 (en) * 2006-01-06 2010-02-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Automata learning algorithms and processes for providing more complete systems requirements specification by scenario generation, CSP-based syntax-oriented model construction, and R2D2C system requirements transformation
US8484146B2 (en) * 2006-01-18 2013-07-09 Sony Corporation Interaction device implementing a bayesian's estimation
KR101055282B1 (ko) 2008-04-28 2011-08-09 한양대학교 산학협력단 계층 구조적 예측 모델을 이용한 로봇의 상황예측장치 및 그 방법
KR20100086262A (ko) 2009-01-22 2010-07-30 삼성전자주식회사 로봇 및 그 제어방법
CN102163047B (zh) * 2010-02-19 2014-02-12 发那科株式会社 学习控制机器人

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005219161A (ja) * 2004-02-05 2005-08-18 Matsushita Electric Ind Co Ltd ロボット把持制御装置及びロボット把持制御システム
CN101890720A (zh) * 2004-07-13 2010-11-24 松下电器产业株式会社 物品保持***、机器人以及机器人控制方法
JP2006346768A (ja) * 2005-06-13 2006-12-28 Toshiba Corp 移動ロボット、プログラム及びロボット制御方法
JP2007115275A (ja) * 2007-01-12 2007-05-10 Nippon Telegr & Teleph Corp <Ntt> ロボット制御システム
KR20110003811A (ko) * 2009-07-06 2011-01-13 한국전자통신연구원 상호작용성 로봇
KR20110026212A (ko) * 2009-09-07 2011-03-15 삼성전자주식회사 로봇 및 그 제어방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
박수용 외 3명, "서비스 로봇을 위한 Self-Managed 소프트웨어 프레임워크 개발", 한국정보과학회 정보과학회지, pp.35-42.(2006.04.) *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160020772A (ko) * 2014-08-14 2016-02-24 경북대학교 산학협력단 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법
KR101624184B1 (ko) 2015-03-11 2016-06-07 연세대학교 산학협력단 에이전트 시스템을 위한 행동학습 모델의 의도-대응 인터페이스 장치 및 방법
US11681921B2 (en) 2018-10-30 2023-06-20 Samsung Electronics Co., Ltd. Method of outputting prediction result using neural network, method of generating neural network, and apparatus therefor
KR20200071820A (ko) * 2018-11-30 2020-06-22 동아대학교 산학협력단 로봇 제어 장치 및 방법
KR20200133705A (ko) * 2020-11-20 2020-11-30 한국과학기술연구원 인간-로봇 상호작용을 위한 인터랙션 시스템 및 방법

Also Published As

Publication number Publication date
US20130184867A1 (en) 2013-07-18
KR101945185B1 (ko) 2019-02-07
CN103203753B (zh) 2016-07-06
US9132547B2 (en) 2015-09-15
CN103203753A (zh) 2013-07-17

Similar Documents

Publication Publication Date Title
KR20130083099A (ko) 로봇 및 이상 상황 판단과 대응방법
JP7198831B2 (ja) オンデマンド遠隔操作を備えた自律ロボット
US8958912B2 (en) Training and operating industrial robots
Haddadin et al. Towards the robotic co-worker
Thrun Toward a framework for human-robot interaction
US20200046169A1 (en) Robot system and control method of the same
US10514687B2 (en) Hybrid training with collaborative and conventional robots
KR20190014586A (ko) 로봇 시스템이 작업을 수행하기 위한 명령어를 생성하기 위한 방법 및 시스템
US20210394362A1 (en) Information processing device, control method, and program
US11097414B1 (en) Monitoring of surface touch points for precision cleaning
KR20210043621A (ko) 정보 처리 장치, 중개 장치, 시뮬레이트 시스템 및 정보 처리 방법
WO2021258023A1 (en) Robotic intervention systems
Li et al. Robotics in manufacturing—The past and the present
JP2021009466A (ja) 機械学習方法および移動ロボット
CN110895415A (zh) 自动在环境内移行的地面处理设备
Wegner et al. Agent-based support for balancing teleoperation and autonomy in urban search and rescue
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
Freedman et al. Safety in AI-HRI: Challenges complementing user experience quality
Lo et al. Developing a collaborative robotic dishwasher cell system for restaurants
Kobayashi et al. Extending commands embedded in actions for human-robot cooperative tasks
EP4011187A2 (en) Controlling an autonomous working device based on physical interaction
JP6248694B2 (ja) ロボット、ロボットシステム、及び制御装置
CN115213885B (zh) 机器人技能生成方法、装置、介质及云端服务器、机器人控制***
JP2000099128A (ja) ロボット教示・制御方法及びロボット教示装置並びにロボット制御装置
JP2021197048A (ja) 自動倉庫システム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant