KR101475210B1 - 가상로봇 시뮬레이션 장치 - Google Patents

가상로봇 시뮬레이션 장치 Download PDF

Info

Publication number
KR101475210B1
KR101475210B1 KR20130123244A KR20130123244A KR101475210B1 KR 101475210 B1 KR101475210 B1 KR 101475210B1 KR 20130123244 A KR20130123244 A KR 20130123244A KR 20130123244 A KR20130123244 A KR 20130123244A KR 101475210 B1 KR101475210 B1 KR 101475210B1
Authority
KR
South Korea
Prior art keywords
virtual robot
robot
virtual
obstacle
distance
Prior art date
Application number
KR20130123244A
Other languages
English (en)
Inventor
정회룡
손형일
손영은
이동건
이민수
Original Assignee
삼성중공업 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성중공업 주식회사 filed Critical 삼성중공업 주식회사
Priority to KR20130123244A priority Critical patent/KR101475210B1/ko
Application granted granted Critical
Publication of KR101475210B1 publication Critical patent/KR101475210B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes
    • G09B9/02Simulators for teaching or training purposes for teaching control of vehicles or other craft
    • G09B9/06Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of ships, boats, or other waterborne vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B63SHIPS OR OTHER WATERBORNE VESSELS; RELATED EQUIPMENT
    • B63BSHIPS OR OTHER WATERBORNE VESSELS; EQUIPMENT FOR SHIPPING 
    • B63B59/00Hull protection specially adapted for vessels; Cleaning devices specially adapted for vessels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/16Control of vehicles or other craft

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mechanical Engineering (AREA)
  • Ocean & Marine Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

가상로봇 시뮬레이션 장치가 개시된다. 본 발명의 실시 예에 따른 가상로봇 시뮬레이션 장치는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경 및 가상로봇을 모델링하여 그래픽이미지로 화면에 제공하는 그래픽처리부; 조작장치로부터 제어명령을 수신하는 인터페이스부; 및 수신된 제어명령에 따라 가상환경 위에서 가상로봇의 동작을 제어하는 가상로봇제어부;를 포함하되, 가상로봇은 가상환경에 포함된 각각의 객체를 감지하기 위한 레이저장치를 포함하고, 그래픽처리부는 가상로봇에 장착된 레이저장치로부터 조사되는 레이저빔을 복수의 방향벡터 형태로 모델링한다.

Description

가상로봇 시뮬레이션 장치{APPRARATUS FOR SIMULATION OF VITURAL ROBOT}
본 발명은 가상로봇 시뮬레이션 장치에 관한 것이다.
수중의 선체 외벽에는 따개비, 물이끼 등 각종 이물질이 들러붙어 외관을 해치거나 선박의 효율적인 운항에 지장을 줄 수 있으므로 청소작업이 필요하다. 그러나, 작업자가 수중에서 수도구나 맨손을 이용하여 청소작업을 수행할 경우, 매우 비효율적일 뿐 아니라 청소작업의 신뢰도 및 작업자의 안전성 등을 보장하기 힘들다. 이에 최근에는 다양한 종류의 청소로봇이 사용되고 있다.
청소로봇은 자성을 갖는 구동휠을 구비하여 선체 외벽에 부착된 상태에서 주행할 수 있다. 청소로봇에는 카메라가 구비되어 주행하면서 선저 상태 등을 촬영하여 원격지의 운용시스템으로 전송할 수 있다. 이때, 청소로봇에 장착된 레이저장치를 통해 레이저빔을 조사하여 선체 외벽에 부착된 다양한 형태의 장애물을 감지할 수 있다. 이러한 레이저장치는 수중 환경이 좋지 않을 경우 장애물을 감지하는 데에 효과적이다. 이와 관련하여 한국공개특허 제2008-0093536호(2008.10.22 공개)는 선체 외벽에 부착된 따개비 및 물이끼 등을 청소하고, 카메라에 의해 선저의 상태를 촬영하면서 이동하는 청소로봇에 관한 기술을 공개한 바 있다.
통상적으로 사용자는 운용시스템에 연결된 모니터 화면을 통해 촬영된 영상을 확인하면서, 조작장치를 이용하여 청소로봇의 주행방향을 조종하게 된다. 그러나, 선체 외벽은 곡면을 갖도록 형성되어 있고 촬영 영상이 선명하지 못하거나 선체 외벽에 다양한 장애물이 존재할 경우, 충분한 조종훈련이 이루어지지 않은 사용자가 화면을 보면서 청소로봇을 일정한 방향으로 이동시키는 것은 매우 어렵다. 따라서, 실제 청소로봇 조종에 앞서서 일정 기간 동안 로봇조종훈련을 충분히 받을 필요가 있다.
하지만, 선체 외벽 주행이라는 특수 상황에서 로봇조종훈련을 위한 가상의 시뮬레이션 장치에 대한 기술 개발은 매우 부족한 실정이다.
한국공개특허 제2008-0093536호(2008.10.22 공개)
본 발명의 실시 예는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경 및 가상로봇을 그래픽이미지로 모델링하여 화면에 제공하고, 조작장치에 의해 가상환경에서 가상로봇을 주행시키면서 로봇조종훈련을 수행하도록 하는 가상로봇 시뮬레이션 장치를 제공하고자 한다.
본 발명의 일 측면에 따르면, 선체 외벽의 형상과 상기 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 상기 가상환경 및 상기 가상로봇을 모델링하여 그래픽이미지로 화면에 제공하는 그래픽처리부; 조작장치로부터 제어명령을 수신하는 인터페이스부; 및 수신된 상기 제어명령에 따라 상기 가상환경 위에서 상기 가상로봇의 동작을 제어하는 가상로봇제어부;를 포함하되, 상기 가상로봇은 상기 가상환경에 포함된 각각의 객체를 감지하기 위한 레이저장치를 포함하고, 상기 그래픽처리부는 상기 가상로봇에 장착된 레이저장치로부터 조사되는 레이저빔을 복수의 방향벡터 형태로 모델링하는 가상로봇 시뮬레이션 장치가 제공될 수 있다.
상기 그래픽처리부는 미리 설정된 레이저빔 조사 범위 내에 포함되도록 상기 복수의 방향벡터를 모델링하되, 상기 레이저장치의 광원을 공통된 시작점으로 하여 상기 가상로봇의 진행방향으로 조사 방향이 향하도록 상기 복수의 방향벡터를 모델링할 수 있다.
상기 방향벡터는 상기 조사 범위 내에서 상기 광원을 중심으로 방사형으로 균등하게 배열될 수 있다.
상기 제어명령은 상기 가상로봇의 주행방향 및 주행속도와, 상기 레이저빔의 조사 각도 및 상기 방향벡터 개수 중 하나 이상을 포함하고, 상기 방향벡터 개수에 따라 상기 모델링되는 방향벡터의 배열을 균등하게 조절하는 방향벡터배열부를 더 포함할 수 있다.
상기 그래픽처리부는 상기 복수의 방향벡터를 하나의 그룹으로 묶어 모델링할 수 있다.
상기 가상로봇제어부는 상기 그룹화된 방향벡터를 상기 조사 각도에 따라 일체로 조절할 수 있다.
상기 객체는 상기 선체 외벽에 존재하는 장애물을 포함하고, 상기 장애물은 다각형 메시 형태로 모델링될 수 있다.
상기 복수의 방향벡터 중 상기 장애물과 접촉된 방향벡터만을 선택하여, 상기 가상로봇과 상기 장애물 간의 거리를 측정하되, 상기 장애물에 접촉되는 상기 방향벡터의 접촉점을 일직선으로 연결한 선분과 상기 가상로봇 간의 최단거리를 측정하는 거리측정부를 더 포함할 수 있다.
상기 거리측정부는 상기 장애물에 접촉되는 상기 방향벡터의 접촉점 중 상기 광원에 가장 가까운 접촉점의 좌표값을 선택하여 상기 장애물과 상기 가상로봇 간의 거리를 산출할 수 있다.
상기 측정된 거리 값, 상기 가상로봇의 주행속도 및 상기 가상로봇의 주행방향 중 하나 이상을 이용하여 상기 조작장치로 전달할 햅틱 피드백 정보를 생성하는 햅틱 피드백 정보 생성부를 더 포함할 수 있다.
본 발명의 실시 예에 따른 가상로봇 시뮬레이션 장치는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경 및 가상로봇을 그래픽이미지로 모델링하여 화면에 제공하고, 조작장치에 의해 가상환경에서 가상로봇을 주행시키면서 로봇조종훈련을 수행하도록 할 수 있다.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시 예에 따른 가상로봇 시뮬레이션 장치를 블록도로 도시한 것이다.
도 2는 도 1에 도시된 시뮬레이션 장치에 의해 제공되는 시뮬레이션 화면을 도시한다.
도 3은 도 2에 도시된 가상로봇에 장착된 레이저장치로부터 조사되는 레이저빔이 복수의 방향벡터 형태로 모델링된 형태를 도시한다.
도 4는 도 3에 도시된 방향벡터와 장애물 간의 접촉점을 일직선으로 연결한 선분과 가상로봇 간의 최단거리를 측정하는 방법을 설명하기 위한 도면이다.
이하에서는 본 발명의 실시 예들을 첨부 도면을 참조하여 상세히 설명한다. 이하에 소개되는 실시 예들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되는 것이다. 본 발명은 이하 설명되는 실시 예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 도면에서 생략하였으며 도면들에 있어서, 구성요소의 폭, 길이, 두께 등은 편의를 위하여 과장되어 표현될 수 있다. 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
도 1과 도 2를 참조하면, 본 발명의 실시 예에 따른 가상로봇 시뮬레이션 장치(100)(이하, “시뮬레이션 장치”라고 함)는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경(310) 및 가상로봇(320)을 그래픽이미지로 모델링하여 화면(300)에 제공한다. 사용자는 조작장치(200)를 이용하여 가상환경(310)에서 가상로봇(320)을 주행시키면서 로봇조종훈련을 수행할 수 있다. 참고로 상술한 실제로봇은 선체 외벽 위에서 주행하면서 브러시를 이용하여 청소작업을 수행하는 청소로봇을 포함할 수 있다. 또, 실제로봇은 선체 외벽을 주행하면서 도장, 용접, 수리 등의 작업을 수행하는 각종 작업용 로봇을 포함할 수 있다.
이러한 시뮬레이션 장치(100)는 그래픽처리부(110), 인터페이스부(120), 가상로봇제어부(130), 방향벡터배열부(140), 거리측정부(150), 햅틱 피드백 정보 생성부(160), 저장부(170), 및 중앙처리부(180) 를 포함한다.
그래픽처리부(110)는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경(310) 및 가상로봇(320)을 모델링하여 그래픽이미지로 화면(300)에 제공한다. 여기서, 그래픽처리부(110)는 선체 외벽과 관련된 설계정보를 포함하는 캐드 데이터를 기초로 선체 외벽(311) 형상을 가상환경(310)의 배경이미지로 모델링할 수 있다. 또, 그래픽처리부(110)는 실제로봇의 구조 설계정보를 기초로 가상로봇(320)을 모델링하여 그래픽이미지로 화면(300)에 제공할 수 있다. 이때, 실제로봇과 대응되도록 가상로봇(320)의 몸체, 구동휠, 브러시 등이 설정된 비율로 모델링될 수 있다. 가상로봇(320)은 가상환경(310)에 포함된 각 객체를 감지하기 위한 레이저장치(330)를 포함한다. 가상환경(310)에 포함된 객체는 다각형 메시 형태로 모델링된 각종 장애물(313)을 포함한다.
도 3의 (a)와 (b)를 참조하면, 그래픽처리부(110)는 가상로봇(320)에 장착된 레이저장치(330)의 광원(331)로부터 조사되는 레이저빔(L)을 복수의 방향벡터(L1~Ln) 형태로 모델링할 수 있다. 방향벡터(L1~Ln) 각각은 미리 설정된 일정 길이를 갖거나, 무한대의 길이를 가질 수 있다. 레이저장치(330)는 예컨대 LVS(Laser Vision System) 장치를 기초로 모델링될 수 있다. 가상로봇(320)에 장착된 레이저장치(330)로부터 조사되는 레이저빔(L)을 복수의 방향벡터(L1~Ln) 형태로 모델링함으로써, 실제 레이저장치(330)의 특징을 효과적으로 모사할 수 있고, 이를 응용하여 실제 레이저장치를 사용하지 않고도 장애물 감지 및 장애물과 다른 이동체 간의 충돌 알고리즘 개발 등에 활용할 수 있다.
또, 실제로봇에 장착된 레이저장치의 레이저빔과 실제 장애물 간의 접촉점을 복수의 방향벡터(L1~Ln) 형태로 모델링된 가상의 레이저빔(L)과 장애물(313)을 통해 모사하여 시각화함으로써 직관적으로 실제 레이저빔과 실제 장애물 간의 접촉 형태를 예측할 수 있다.
또, 방향벡터(L1~Ln)와 장애물(313)의 접촉 시, 방향벡터(L1~Ln)와 장애물(313) 간 접촉되는 접촉점을 이용하여, 가상로봇(320)과 장애물(313) 간의 거리 측정 연산을 빠른 속도로 수행할 수 있게 된다. 이는, 방향벡터(L1~Ln) 각각이 N개의 객체로 모델링됨으로써, 방향벡터(L1~Ln) 중 장애물(313)에 접촉되는 방향벡터만을 선택하여 해당 방향벡터의 접촉점을 이용하여 계산하면 되기 때문이다.
그래픽처리부(110)는 미리 설정된 레이저빔 조사 범위(S) 내에 포함되도록 복수의 방향벡터(L1~Ln)를 모델링하되, 레이저장치(330)의 광원(331)을 공통된 시작점으로 하여 가상로봇(320)의 진행방향으로 조사 방향이 향하도록 복수의 방향벡터(L1~Ln)를 각각 모델링할 수 있다. 방향벡터(L1~Ln)는 조사 범위(S) 내에서 광원(331)을 중심으로 방사형으로 균등하게 배열되되, 전체적으로 삼각형 형태를 가질 수 있다.
또, 그래픽처리부(110)는 복수의 방향벡터(L1~Ln)를 묶어 하나의 그룹으로 모델링할 수 있다. 복수의 방향벡터(L1~Ln)를 그룹화시킴으로써, 후술할 가상로봇제어부(130)에 의해 각 방향벡터(L1~Ln)의 조사 각도 등이 일체로 조절될 수 있다. 또, 그래픽처리부(110)에 의해 그룹화된 방향벡터(L1~Ln) 중 장애물(313)과 접촉된 방향벡터만을 선택하여, 장애물(313)과의 접촉된 여부를 선택적으로 표시하거나, 후술할 거리측정부(150)에 의해 가상로봇(320)과 장애물(313) 간의 거리 측정 연산을 빠른 속도로 수행할 수 있다.
도 1과 도 2를 참조하면, 인터페이스부(120)는 조작장치(200)로부터 제어명령을 수신한다. 제어명령은 가상로봇(320)의 주행방향 및 주행속도와, 가상로봇(320)에 장착된 레이저장치(330)의 레이저빔(L) 조사 각도, 방향벡터(L1~Ln) 개수 등에 대한 정보를 포함할 수 있다. 조작장치(200)는 조이스틱, 키보드, 터치패널, 마우스 등 다양한 형태의 입력장치를 포함할 수 있다.
가상로봇제어부(130)는 인터페이스부(120)로부터 수신된 제어명령에 따라 가상환경(310) 위에서 가상로봇(320)의 동작을 제어한다. 예컨대, 가상로봇제어부(130)는 가상로봇(320)의 주행방향, 주행속도에 대한 제어명령을 수신하면, 그에 따라 가상로봇(320)을 가상환경(310) 위에서 이동시킬 수 있다. 또, 가상로봇제어부(130)는 상술한 바와 같이, 그룹화된 방향벡터(L1~Ln)를 인터페이스부(120)를 통해 수신된 레이저빔(L)의 조사 각도에 따라 일체로 조절할 수 있다.
방향벡터배열부(140)는 인터페이스부(120)를 통해 수신된 제어명령에 포함된 방향벡터 개수에 따라 방향벡터(L1~Ln)의 배열을 균등하게 조절한다. 예컨대, 방향벡터의 개수가 10개인 경우, 방향벡터배열부(140)는 조사 범위(S)를 10 등분하여, 각 방향벡터를 균등하게 배열할 수 있다.
거리측정부(150)는 가상로봇(320)과 장애물(313) 간의 거리를 측정한다. 여기서, 도 4에 도시한 바와 같이, 거리측정부(150)는 가상환경(310)에 포함된 장애물(313)에 접촉되는 방향벡터(L10~Ln)의 접촉점(P1~Pn)을 일직선으로 연결한 선분(A)과 가상로봇(320) 간의 최단거리를 측정할 수 있다. 이때, 광원(331)을 기준으로 해당 선분(A)과 가상로봇(320) 간 최단거리가 측정될 수 있다.
또 거리측정부(150)는 장애물(313)에 접촉되는 방향벡터(L10~Ln)의 접촉점(P1~Pn) 중 광원(331)에 가장 가까운 접촉점의 좌표값을 선택하여 장애물(313)와 가상로봇(320) 간의 최단거리를 산출할 수 있다.
도 1과 도 2를 참조하면, 햅틱 피드백 정보 생성부(160)는 거리측정부(150)에 의해 산출된 장애물(313)와 가상로봇(320) 간의 거리 값, 가상로봇(320)의 주행속도 및 가상로봇(320)의 주행방향 중 하나 이상을 이용하여 조작장치(200)로 전달할 햅틱 피드백 정보를 생성한다. 장애물(313)과 가상로봇(320) 간의 거리가 가까울수록 반력이 커지도록 햅틱 피드백 정보가 생성될 수 있다. 장애물(313)와 가상로봇(320) 간의 거리 값은 상술한 최단거리로 정의될 수 있다.
햅틱 피드백 정보는 햅틱수단(미도시)으로 전달되고, 해당 햅틱수단은 햅틱 피드백 정보를 이용하여 반력을 생성하여 조작장치(200)로 전달한다. 가상로봇(320)을 조작하는 사용자는 반력을 통해 장애물(313)을 감각적으로 인식할 수 있고, 가상로봇(320)의 방향 제어 등을 유도받을 수 있다.
저장부(170)는 선체 외벽 및 실제로봇과 관련된 설계정보, 상술한 인터페이스부(120)를 통해 수신된 제어명령, 가상환경(310) 상의 객체(예컨대 장애물 등)에 대한 정보 등 시뮬레이션을 위한 각종 데이터를 저장한다. 또, 저장부(170)는 그래픽이미지 생성을 위한 알고리즘, 각종 설정값, 제어 및 각 장치간의 통신을 위한 알고리즘 등을 저장할 수 있다. 이러한 저장부(170)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다.
중앙처리부(180)는 각 구성요소(110~170) 간의 동작을 제어한다. 예컨대, 중앙처리부(180)는 인터페이스부(120)를 통해 수신된 제어명령에 따라 가상로봇제어부(130)에 의해 가상로봇(320)의 동작을 제어할 수 있다. 또, 햅틱 피드백 정보 생성부(160)에 의해 장애물(313)과 가상로봇(320) 간의 거리 값, 거리 값, 가상로봇(320)의 주행속도 및 가상로봇(320)의 주행방향 중 하나 이상을 이용하여 햅틱 피드백 정보를 생성하여 조작장치(200)로 전달할 수 있다. 또, 중앙처리부(180)는 레이저빔(L)의 조사 각도, 방향벡터(L1~Ln)의 개수 등을 제어 명령에 따라 조절하여 그래픽처리부(110)를 통해 그래픽이미지로 생성하여 화면(300)에 표시할 수 있다. 다른 예에서는 상술한 구성요소(110~170) 중 적어도 일부가 중앙처리부(180)에 포함될 수도 있다. 또, 도 1에서 도시된 각각의 구성요소는 일종의 '모듈'로 구성될 수 있다. 상기 '모듈'은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 주문형 반도체(ASIC, Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다.
본 발명의 실시 예에 따른 가상로봇 시뮬레이션 장치는 선체 외벽의 형상과 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경 및 가상로봇을 그래픽이미지로 모델링하여 화면에 제공하고, 조작장치에 의해 가상환경에서 가상로봇을 주행시키면서 로봇조종훈련을 수행하도록 할 수 있다.
또, 가상로봇에 장착된 레이저장치로부터 조사되는 레이저빔을 복수의 방향벡터 형태로 모델링함으로써, 실제 레이저장치의 특징을 효과적으로 모사할 수 있고, 이를 응용하여 실제 레이저장치를 사용하지 않고도 장애물 감지 및 장애물과 다른 이동체 간의 충돌 알고리즘 개발 등에 활용할 수 있다.
또, 복수의 방향벡터를 하나의 그룹화된 객체로 모델링함으로써, 각 방향벡터가 일체로 조절될 수 있고, 그룹화된 방향벡터 중 장애물과 접촉된 방향벡터만을 선택하여, 장애물과의 접촉된 여부를 표시하거나, 가상로봇과 장애물 간의 거리 측정 연산을 빠른 속도로 수행할 수 있다.
또, 실제로봇에 장착된 레이저장치의 레이저빔과 실제 장애물 간의 접촉점을 복수의 방향벡터 형태로 모델링된 가상의 레이저빔과 장애물을 통해 모사하여 시각화함으로써 직관적으로 실제 레이저빔과 실제 장애물 간의 접촉 형태를 예측할 수 있다.
또, 가상환경에 다각형 메시 형태로 장애물을 모델링하여 표시하고, 장애물에 접촉되는 방향벡터의 접촉점을 일직선으로 연결한 선분과 가상로봇 간의 최단거리를 측정한 거리 값과, 가상로봇의 주행속도 및 가상로봇의 주행방향 중 하나 이상을 이용하여 조작장치로 전달할 햅틱 피드백 정보를 생성함으로써, 가상로봇을 조작하는 사용자가 조작장치를 통해 장애물을 감각적으로 인식할 수 있도록 하고, 가상로봇의 방향 제어 등을 효율적으로 유도할 수 있다.이상에서는 특정의 실시 예에 대하여 도시하고 설명하였다. 그러나, 본 발명은 상기한 실시 예에만 한정되지 않으며, 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 이하의 청구범위에 기재된 발명의 기술적 사상의 요지를 벗어남이 없이 얼마든지 다양하게 변경 실시할 수 있을 것이다.
100: 가상로봇 시뮬레이션 장치 110: 그래픽처리부
120: 인터페이스부 130: 가상로봇제어부
140: 방향벡터배열부 150: 거리측정부
160: 햅틱 피드백 정보 생성부 170: 저장부
180: 중앙처리부 200: 조작장치
300: 화면 310: 가상환경
313: 장애물 320: 가상로봇
330: 레이저장치 331: 광원
L: 레이저빔 L1~Ln: 방향벡터

Claims (10)

  1. 선체 외벽의 형상과 상기 선체 외벽 위에서 주행하는 실제로봇의 형상을 기초로 가상환경 및 가상로봇을 모델링하여 그래픽이미지로 화면에 제공하는 그래픽처리부;
    조작장치로부터 제어명령을 수신하는 인터페이스부; 및
    수신된 상기 제어명령에 따라 상기 가상환경 위에서 상기 가상로봇의 동작을 제어하는 가상로봇제어부;를 포함하되,
    상기 가상로봇은 상기 가상환경에 포함된 각각의 객체를 감지하기 위한 레이저장치를 포함하고,
    상기 그래픽처리부는 상기 가상로봇에 장착된 레이저장치로부터 조사되는 레이저빔을 복수의 방향벡터 형태로 모델링하는 가상로봇 시뮬레이션 장치.
  2. 제1항에 있어서,
    상기 그래픽처리부는 미리 설정된 레이저빔 조사 범위 내에 포함되도록 상기 복수의 방향벡터를 모델링하되, 상기 레이저장치의 광원을 공통된 시작점으로 하여 상기 가상로봇의 진행방향으로 조사 방향이 향하도록 상기 복수의 방향벡터를 모델링하는 가상로봇 시뮬레이션 장치.
  3. 제2항에 있어서,
    상기 방향벡터는 상기 조사 범위 내에서 상기 광원을 중심으로 방사형으로 균등하게 배열되는 가상로봇 시뮬레이션 장치.
  4. 제3항에 있어서,
    상기 제어명령은 상기 가상로봇의 주행방향 및 주행속도와, 상기 레이저빔의 조사 각도 및 상기 방향벡터 개수 중 하나 이상을 포함하고,
    상기 방향벡터 개수에 따라 상기 모델링되는 방향벡터의 배열을 균등하게 조절하는 방향벡터배열부를 더 포함하는 가상로봇 시뮬레이션 장치.
  5. 제2항에 있어서,
    상기 그래픽처리부는 상기 복수의 방향벡터를 하나의 그룹으로 묶어 모델링하는 가상로봇 시뮬레이션 장치.
  6. 제5항에 있어서,
    상기 가상로봇제어부는 상기 그룹화된 방향벡터를 상기 조사 각도에 따라 일체로 조절하는 가상로봇 시뮬레이션 장치.
  7. 제2항에 있어서,
    상기 객체는 상기 선체 외벽에 존재하는 장애물을 포함하고, 상기 장애물은 다각형 메시 형태로 모델링되는 가상로봇 시뮬레이션 장치.
  8. 제7항에 있어서,
    상기 복수의 방향벡터 중 상기 장애물과 접촉된 방향벡터만을 선택하여, 상기 가상로봇과 상기 장애물 간의 거리를 측정하되, 상기 장애물에 접촉되는 상기 방향벡터의 접촉점을 일직선으로 연결한 선분과 상기 가상로봇 간의 최단거리를 측정하는 거리측정부를 더 포함하는 가상로봇 시뮬레이션 장치.
  9. 제8항에 있어서,
    상기 거리측정부는 상기 장애물에 접촉되는 상기 방향벡터의 접촉점 중 상기 광원에 가장 가까운 접촉점의 좌표값을 선택하여 상기 장애물과 상기 가상로봇 간의 거리를 산출하는 가상로봇 시뮬레이션 장치.
  10. 제8항에 있어서,
    상기 측정된 거리 값, 상기 가상로봇의 주행속도 및 상기 가상로봇의 주행방향 중 하나 이상을 이용하여 상기 조작장치로 전달할 햅틱 피드백 정보를 생성하는 햅틱 피드백 정보 생성부를 더 포함하는 가상로봇 시뮬레이션 장치.
KR20130123244A 2013-10-16 2013-10-16 가상로봇 시뮬레이션 장치 KR101475210B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130123244A KR101475210B1 (ko) 2013-10-16 2013-10-16 가상로봇 시뮬레이션 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130123244A KR101475210B1 (ko) 2013-10-16 2013-10-16 가상로봇 시뮬레이션 장치

Publications (1)

Publication Number Publication Date
KR101475210B1 true KR101475210B1 (ko) 2014-12-30

Family

ID=52679594

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130123244A KR101475210B1 (ko) 2013-10-16 2013-10-16 가상로봇 시뮬레이션 장치

Country Status (1)

Country Link
KR (1) KR101475210B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041831A (ko) * 2017-10-13 2019-04-23 네이버랩스 주식회사 게임 환경 추상화를 통한 강화 학습 기반의 모바일 로봇 제어
CN110434876A (zh) * 2019-08-09 2019-11-12 南京工程学院 一种六自由度rov模拟驾驶***及其模拟方法
KR20210069554A (ko) * 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 테스트 및 평가 장치
WO2022114847A1 (ko) * 2020-11-27 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
KR20120037065A (ko) * 2010-10-11 2012-04-19 국방과학연구소 자율 이동 차량용 장애물 정보 제공장치 및 그 방법
KR20120116606A (ko) * 2011-04-13 2012-10-23 한국과학기술원 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템
KR20130089403A (ko) * 2012-02-02 2013-08-12 삼성중공업 주식회사 장애물 감지 센서

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100968944B1 (ko) * 2009-12-14 2010-07-14 (주) 아이알로봇 로봇 동기화 장치 및 그 방법
KR20120037065A (ko) * 2010-10-11 2012-04-19 국방과학연구소 자율 이동 차량용 장애물 정보 제공장치 및 그 방법
KR20120116606A (ko) * 2011-04-13 2012-10-23 한국과학기술원 로봇을 이용한 가상 사물 자동 생성 동기화 방법 및 로봇을 이용한 가상 사물 자동 생성 동기화 시스템
KR20130089403A (ko) * 2012-02-02 2013-08-12 삼성중공업 주식회사 장애물 감지 센서

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041831A (ko) * 2017-10-13 2019-04-23 네이버랩스 주식회사 게임 환경 추상화를 통한 강화 학습 기반의 모바일 로봇 제어
KR101974447B1 (ko) 2017-10-13 2019-05-02 네이버랩스 주식회사 게임 환경 추상화를 통한 강화 학습 기반의 모바일 로봇 제어
CN110434876A (zh) * 2019-08-09 2019-11-12 南京工程学院 一种六自由度rov模拟驾驶***及其模拟方法
CN110434876B (zh) * 2019-08-09 2024-03-22 南京工程学院 一种六自由度rov模拟驾驶***及其模拟方法
KR20210069554A (ko) * 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 테스트 및 평가 장치
KR102441923B1 (ko) * 2019-12-03 2022-09-08 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 테스트 및 평가 장치
WO2022114847A1 (ko) * 2020-11-27 2022-06-02 삼성전자주식회사 전자 장치 및 그 제어 방법

Similar Documents

Publication Publication Date Title
CN105710888B (zh) 机器人***中的动态避障
US10888998B2 (en) Method and device for verifying one or more safety volumes for a movable mechanical unit
KR101475210B1 (ko) 가상로봇 시뮬레이션 장치
WO2016040862A2 (en) Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures
US11072071B2 (en) Modifying robot dynamics in response to human presence
JP7345042B2 (ja) 移動ロボットのナビゲーション
JP5902275B1 (ja) 自律移動装置
KR101615687B1 (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
WO2015137169A1 (ja) 地形判断装置、脚式移動ロボット、ロボットシステム、脚式移動ロボットの制御方法、及び、ロボットシステムの制御方法
US20220057804A1 (en) Path determination method
WO2017198299A1 (en) Method of simulating a robotic system
JP5414465B2 (ja) シミュレーションシステム
Haugaløkken et al. Monocular vision-based gripping of objects
CN106959762B (zh) 虚拟现实***及方法
Csaba et al. Differences between Kinect and structured lighting sensor in robot navigation
JP6902777B2 (ja) 行動誘導システム及び行動誘導方法
US11467592B2 (en) Route determination method
Ismael et al. Development of an omnidirectional mobile robot using embedded color vision system for ball following
US11725939B2 (en) System and method for controlling a light projector in a construction site
Birk et al. Cooperative Cognitive Control for Autonomous Underwater Vehicles (CO3AUVs): overview and progresses in the 3rd project year
DeMarco et al. A simulator for underwater human-robot interaction scenarios
Freund et al. Virtual reality technologies for the realistic simulation of excavators and construction machines: from VR-training simulators to telepresence systems
Mikhail et al. Navigation software system development for a mobile robot to avoid obstacles in a dynamic environment using laser sensor
JP7452706B2 (ja) 作業現場でモバイルロボットをシミュレーションする装置及び方法
US11693416B2 (en) Route determination method

Legal Events

Date Code Title Description
GRNT Written decision to grant