BR102013009830A2 - Sistema de ensino de robô e método de ensino de robô - Google Patents

Sistema de ensino de robô e método de ensino de robô Download PDF

Info

Publication number
BR102013009830A2
BR102013009830A2 BRBR102013009830-2A BR102013009830A BR102013009830A2 BR 102013009830 A2 BR102013009830 A2 BR 102013009830A2 BR 102013009830 A BR102013009830 A BR 102013009830A BR 102013009830 A2 BR102013009830 A2 BR 102013009830A2
Authority
BR
Brazil
Prior art keywords
teaching
positions
robot
tool
user
Prior art date
Application number
BRBR102013009830-2A
Other languages
English (en)
Inventor
Yukiko Sawada
Tomoyuki Sekiyama
Kenichi Motonaga
Original Assignee
Yaskawa Denki Seisakusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Denki Seisakusho Kk filed Critical Yaskawa Denki Seisakusho Kk
Publication of BR102013009830A2 publication Critical patent/BR102013009830A2/pt

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/427Teaching successive positions by tracking the position of a joystick or handle to control the positioning servo of the tool head, master-slave control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36452Touch points with handheld probe, camera detects position and orientation probe
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • Y10S901/04Manual lead through

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

SISTEMA DE ENSINO DE ROBÔ E MÉTODO DE ENSINO DE ROBÔ. A presente invenção refere-se a um sistema de ensino de robô que inclui uma ferramenta de ensino que inclui uma parte da operação operada por um usuário para especificar as posições de ensino e a especificação das posições de ensino, uma porção de medição que mede as posições e as posturas da ferramenta de ensino, e uma parte de controle que determina as posições de ensino para um robô. O sistema de ensino de robô é configurado para especificar continuamente as posições de ensino enquanto o usuário opera a parte da operação da ferramenta de ensino.

Description

Relatório Descritivo da Patente de Invenção para "SISTEMA DE ENSINO DE ROBÔ E MÉTODO DE ENSINO DE ROBÔ”.
ANTECEDENTES DA INVENÇÃQ
Campo da Invenção
A presente invenção refere-se a um sistema de ensino de robô e a um método de ensino de robô.
Descrição dos Antecedentes da Invenção
A Patente Japonesa em Aberto No. 2011-104759 descreve um sistema de controle de robô que inclui uma ferramenta de ensino que fica localizada em posições de ensino tais como as posições de operação de um robô para especificar as posições de ensino, uma câmera estéreo que foca a ferramenta de ensino localizada nas posições de ensino, e um controlador que determina as posições de ensino para o robô com base nas posições e posturas da ferramenta de ensino focada pela câmera estéreo.
Esse sistema de controle de robô é configurado de modo que um usuário opera um apêndice de ensino provido separadamente da ferramenta de ensino para determinar as posições de ensino com base nas imagens da ferramenta de ensino localizada nas posições de ensino focadas pela câmera estéreo.
No entanto, no sistema de controle de robô descrito na Patente Japonesa em Aberto No. 2011-104759 acima mencionada, o usuário opera o apêndice de ensino provido separadamente da ferramenta de ensino para determinar as posições de ensino com base nas imagens da ferramenta de ensino localizada nas posições de ensino focadas pela câmera estéreo, e desse modo é necessário operar o apêndice de ensino provido separadamente da ferramenta de ensino cada vez que as posições de ensino forem especificadas. Portanto, uma sobrecarga de operação no usuário é aumentada de maneira desvantajosa.
SUMÁRIO DA INVENÇÃO
A presente invenção foi proposta a fim de resolver o problema acima mencionado, e um objetivo da presente invenção é a provisão de um sistema de ensino de robô e um método de ensino de robô, cada um deles capaz de suprimir o aumento em uma sobrecarga de operação em um usuário quando as posições de ensino para um robô forem especificadas com uma ferramenta de ensino.
A fim de atingir o objetivo acima mencionado, um sistema de ensino de robô de acordo com um primeiro aspecto inclui uma ferramenta de ensino que inclui uma parte de operação operada por um usuário para especificar as posições de ensino e que fica localizada nas posições de ensino como posições de operação de um robô para especificar as posições de ensino, uma parte de medição que mede as posições e posturas da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino, e uma parte de controle que determina as posições de ensino para o robô com base nas posições e posturas da ferramenta de ensino medidas pela parte de medição, e é configurado para especificar as posições de ensino continuamente enquanto o usuário operar a parte da operação da ferramenta de ensino.
Nesse sistema de ensino de robô de acordo com o primeiro aspecto, tal como descrito acima, a ferramenta de ensino que inclui a parte de operação operada pelo usuário para especificar as posições de ensino é provida, por meio do que não é necessário operar um apêndice de ensino 20 provido separada da ferramenta de ensino cada vez que as posições de ensino são especificadas, e desse modo o aumento em uma sobrecarga de operação no usuário pode ser suprimido enquanto o usuário especifica as posições de ensino para o robô com a ferramenta de ensino. Além disso, o sistema de ensino de robô é configurado para especificar continuamente as 25 posições de ensino enquanto o usuário opera a parte de operação da ferramenta de ensino, por meio do que o usuário pode especificar continuamente as posições de ensino para o robô ao operar a parte de operação provida na ferramenta de ensino sem operar o apêndice de ensino provido separadamente da ferramenta de ensino cada vez que o usuário especifica as posi30 ções de ensino. Desse modo, o aumento em uma sobrecarga de operação no usuário pode ser eficazmente suprimido. Um método de ensino de robô de acordo com um segundo aspecto inclui a especificação das posições de ensino como posições de operação de um robô com base no fato que um usuário opera uma parte de operação da ferramenta de ensino em um estado em que a ferramenta de ensi5 no fica localizada nas posições de ensino, a medição das posições e posturas da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino, e a geração de um programa de ensino para o robô ao determinar as posições de ensino para o robô com base nas posições e posturas medidas da ferramenta de ensino, ao passo que as especificações das 10 posições de ensino incluem a especificação das posições de ensino continuamente enquanto o usuário opera a parte de operação, movendo a ferramenta de ensino.
Tal como descrito acima, esse método de ensino de robô de acordo com o segundo aspecto inclui a especificação das posições de ensino como posições de operação do robô com base no fato que o usuário opera a parte de operação da ferramenta de ensino no estado onde a ferramenta de ensino fica localizada nas posições de ensino é provido, por meio do que não é necessário operar um apêndice de ensino provido separadamente da ferramenta de ensino cada vez que as posições de ensino são especificadas, e desse modo o aumento em uma sobrecarga de operação no usuário pode ser suprimido enquanto o usuário especifica as posições de ensino para o robô com a ferramenta de ensino. Além disso, a especificação das posições de ensino inclui a especificação das posições de ensino continuamente enquanto o usuário opera a parte de operação, a movimentação da ferramenta de ensino, por meio do que o usuário pode especificar continuamente as posições de ensino para o robô ao operar a parte de operação provida na ferramenta de ensino sem operar o apêndice de ensino provido separadamente da ferramenta de ensino cada vez que o usuário especifica as posições de ensino. Desse modo, o aumento em uma sobrecarga de operação no usuário pode ser eficazmente suprimido.
Os objetivos, as características, os aspectos e as vantagens acima e outros ainda da presente invenção tornar-se-ão mais aparentes a partir da descrição detalhada a seguir da presente invenção quando tomada em conjunto com os desenhos anexos.
BREVE DESCRIÇÃO DOS DESENHOS
A Fig. 1 é um diagrama de blocos que mostra a estrutura total de um sistema de ensino de robô de acordo com uma modalidade;
a Fig. 2 é um vista em perspectiva que mostra um robô do sistema de ensino de robô de acordo com a modalidade;
a Fig. 3 ilustra o controle de ensino do sistema de ensino de robô de acordo com a modalidade;
a Fig. 4 ilustra uma ferramenta de ensino do sistema de ensino
de robô de acordo com a modalidade;
a Fig. 5 é um primeiro fluxograma para ilustrar o processamento de controle de ensino no sistema de ensino de robô de acordo com a modalidade;
a Fig. 6 é um segundo fluxograma para ilustrar o processamento
de controle de ensino no sistema de ensino de robô de acordo com a modalidade;
a Fig. 7 é uma vista em perspectiva que mostra uma primeira modificação da ferramenta de ensino do sistema de ensino de robô de acordo com a modalidade; e
a Fig. 8 ilustra uma segunda modificação da ferramenta de ensino do sistema de ensino de robô de acordo com a modalidade.
DESCRIÇÃO DAS MODALIDADES
Uma modalidade é descrita agora com referência aos desenhos. Em primeiro lugar, a estrutura de um sistema de ensino de robô
100 de acordo com esta modalidade é descrita com referência às Figs. 1 a 4.
Tal como mostrado na Fig. 1, o sistema de ensino de robô 100 inclui um robô 1, uma placa de controle (controlador do robô) 2, um PC (computador pessoal) 3, uma ferramenta de ensino 4, e câmeras estéreos 30 5a e 5b. O robô 1 é conectado à placa de controle 2. O PC 3 é conectado com a placa de controle 2 e as câmeras estéreo 5a e 5b por conexões com fio ou sem fio. A ferramenta de ensino 4 é conectada ao PC 3 por uma conexão com fio. O PC 3 é um exemplo da "parte de controle".
A placa de controle 2 inclui o software de controle 21 como uma estrutura de controle. O PC 3 inclui o software de visualização 31, o software de simulação 32, uma parte de armazenamento 33, um driver de câmera 34, 5 e um driver de entrada/saída 35 como uma estrutura de controle.
Tal como mostrado na Fig. 2, o robô 1 é um robô articulado vertical. O robô 1 inclui uma base 11, um braço 12 do robô montado na base 11, e uma ferramenta 13a montada em uma extremidade do braço 12 do robô.O braço 12 do robô tem seis graus de liberdade. Um flange 13 que tem 10 uma parte de montagem para montar a ferramenta 13a é formado na extremidade do braço 12 do robô.
O braço 12 do robô tem uma pluralidade de estruturas de braço, e uma estrutura de braço 12a é acoplada à base 11 para poder ser girada em torno de um eixo de rotação A1 perpendicular à superfície de instalação do robô 1. Uma estrutura de braço 12b é acoplada à estrutura de braço 12a para ser girada sobre um eixo de rotação A2 perpendicular ao eixo de rotação Al. Uma estrutura 12c do braço é acoplada à estrutura 12b do braço para poder ser girada em torno de um eixo de rotação A3 paralelo ao eixo de rotação A2. Uma estrutura de braço 12d é acoplada a uma estrutura de braço 12c para poder ser girada em torno de um eixo de rotação A4 perpendicular ao eixo de rotação A3. Uma estrutura de braço 12e é acoplada à estrutura de braço 12d para poder ser girada em torno de um eixo de rotação A5 perpendicular ao eixo de rotação A4. Uma estrutura de braço 12f é acoplada à estrutura de braço 12e para poder ser girada em torno de um eixo de rotação A6 perpendicular ao eixo de rotação A5.
Termos tais como "paralelo", "perpendicular", "vertical" e "horizontal" nesta descrição referem-se não somente a um sentido estrito, mas também se desviando ligeiramente de "paralelo", "perpendicular", "vertical" e "horizontal" em um sentido mais largo. Servomotores são providos nos res
pectivos eixos de rotação A1 a A6, e os servomotores têm codificadores que detectam as posições da rotação dos mesmos. Os servomotores são conectados à placa de controle 2 e são configurados para operar com base nos comandos de controle do software de controle 21 da placa de controle 2.
Tal como mostrado na Fig. 2, o flange 13 é montado na estrutura de braço 12f do braço 12 do robô. Noflange 13, é montada a ferramenta 13a que executa uma operação em uma peça de trabalho 6 (vide a Fig. 3). No 5 flange 13, é montado um par de câmeras estéreo 5a e 5b que focam na ferramenta de ensino 4.
A placa de controle 2 é configurada para controlar a operação total do robô 1. Especificamente, a placa de controle 2 é configurada para enviar um comando de controle do software de controle 21 ao robô 1 com base em um programa de ensino para o robô 1 gerado pelo PC 3 para controlar a operação do robô 1.
De acordo com esta modalidade, o PC 3 é configurado para focar na ferramenta de ensino 4 nas posições de ensino especificadas pela ferramenta de ensino 4 com as câmeras estéreos 5a e 5b com base no fato 15 que um usuário (operador) opera um botão de ensino 43 (vide a Fig. 4), descrito mais adiante, da ferramenta de ensino 4 em um estado em que a ferramenta de ensino 4 fica localizada nas posições de ensino. Além disso, o PC 3 é configurado para gerar o programa de ensino para o robô 1 ao determinar as posições de ensino para o robô 1 com base nas posições e pos20 turas da ferramenta de ensino 4 focada.
O software de visualização 31 é configurado para gerar o programa de ensino para o robô 1. Especificamente, o software de visualização
31 é configurado para medir as posições de ensino do programa de ensino em resposta aos pedidos de medição do software de controle 21 da placa de 25 controle 2 para gerar o programa de ensino para o robô 1. Além disso, o software de visualização 31 é configurado para controlar o par de câmeras estéreo 5a e 5b através do driver de câmera 34 para focar a ferramenta de ensino 4 nas posições de ensino especificadas pela ferramenta de ensino 4. Além disso, o software de visualização 31 é configurado para aceitar uma 30 operação executada pelo usuário na ferramenta de ensino 4 através do driver de entrada/saída 35 e para controlar o processamento para especificar as posições de ensino da ferramenta de ensino 4. O software de visualização 31 é configurado para interpolar entre as posições de ensino especificadas pela ferramenta de ensino 4 para gerar o programa de ensino para o robô 1. Especificamente, o software de visualização 31 é configurado para interpolar entre as posições de ensino 5 especificadas pela ferramenta de ensino 4 pela interpolação linear (MOVL), pela interpolação de ligação (MOVJ), ou pela interpolação circular (MOVC). Além disso, o software de visualização 31 é configurado para determinar a velocidade de operação do robô 1 e um método de interpolação para o movimento entre as posições de ensino dependendo das posições de ensino 10 que pertencem às zonas de trabalho do robô 1 e as posições de ensino que pertencem às zonas que não de trabalho do robô 1. As zonas de trabalho são as zonas em que o robô 1 é movido enquanto a ferramenta 13a executa uma operação na peça de trabalho 6, e as zonas que não de trabalho são as zonas em que a ferramenta 13a não executa uma operação, tais como as 15 zonas em que o robô 1 é movido entre as zonas de trabalho. Além disso, o software de visualização 31 é configurado para executar o controle de notificação do usuário sobre um resultado da determinação se o robô 1 é ou não movido para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4 com uma Iuz de notificação OK 44a, 20 uma Iuz de notificação NG 44b, uma Iuz de notificação de advertência 44c, e uma Iuz de notificação NG de focalização 44d (vide a Fig. 4), descritas mais adiante, da ferramenta de ensino 4.
O software de simulação 32 é configurado para executar uma simulação com base em um comando do software de visualização 31. Além 25 disso, o software de simulação 32 é configurado para executar uma simulação e para determinar se o robô 1 pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4. Além disso, o software de simulação 32 é configurado para executar uma simulação e para determinar se o robô 1 pode ou não se mover a30 través da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino 4. Além disso, o software de simulação 32 é configurado para enviar um resultado da determinação se o robô 1 pode ou não se mover para as posições e as posturas que correspondem às posições e posturas da ferramenta de ensino 4 e um resultado da determinação se o robô 1 pode ou não se mover através da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela 5 ferramenta de ensino 4 ao software de visualização 31. Além disso, o software de simulação 32 é configurado para simular a operação do robô 1 com base no programa de ensino gerado para o robô 1. A parte de armazenamento 33 armazena a informação de ensino da posição especificada pela ferramenta de ensino 4.
De acordo com esta modalidade, a ferramenta de ensino 4 é
configurada para ficar localizada nas posições de ensino como posições de operação do robô 1 para especificar as posições de ensino, tal como mostrado na Fig. 3. Além disso, a ferramenta de ensino 4 inclui uma parte de empunhar 41 agarrada pelo usuário e uma parte de ensino tetraédrica regu15 Iar 42 que ensina as posições e posturas do robô 1, tal como mostrado na Fig. 4. Na parte de empunhar 41, o botão de ensino 43 operado pelo usuário para especificar as posições de ensino, a Iuz de notificação OK 44a, a Iuz de notificação NG 44b, a Iuz de notificação de advertência 44c e a Iuz de notificação NG de focalização 44d são arranjadas. O botão de ensino 43 é um 20 exemplo da "parte de operação" ou da "parte de operação de ensino". A Iuz de notificação OK 44a, a Iuz de notificação NG 44b, a Iuz de notificação de advertência 44c e a Iuz de notificação NG de focalização 44d são exemplos da "parte de notificação". A Iuz de notificação OK 44a e a Iuz de notificação NG 44b são exemplos da "primeira parte da notificação visual", e a Iuz de 25 notificação de advertência 44c é um exemplo da "segunda parte da notificação visual".
A Iuz de notificação OK 44a e a Iuz de notificação NG 44b são configuradas para notificar o usuário de modo que o usuário possa reconhecer visualmente se o robô 1 pode ou não se mover para as posições e as 30 posturas que correspondem às posições e às posturas da ferramenta de ensino 4. Especificamente, quando o robô 1 pode ser movido para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4, a Iuz de notificação OK 44a acende na cor azul para a notificação. Quando o robô 1 não pode ser movido para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4, a Iuz de notificação NG 44b acende na cor vermelha para a notificação.
5 A Iuz de notificação de advertência 44c é configurada para notifi
car o usuário de modo que o usuário possa reconhecer visualmente se o robô 1 pode ou não se mover através da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino 4. Especificamente, quando o robô 1 não pode ser movido através da 10 trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino 4, a Iuz de notificação de advertência 44c acende na cor amarela para a notificação. A Iuz de notificação NG de focalização 44d pisca na cor vermelha para a notificação quando as câmeras estéreo 5a e 5b podem focar somente dois ou menos dos LEDs infraverme15 Ihos 421, 422, 423, e 424, descritos mais adiante, da parte de ensino 42. Em outras palavras, quando as câmeras estéreo 5a e 5b não podem reconhecer as posições de ensino e as posturas da ferramenta de ensino 4, a Iuz de notificação NG de focalização 44d pisca na cor vermelha.
Os LEDs infravermelhos 421, 422, 423, e 424 que são distinguí20 veis uns dos outros ao emitir seqüencialmente a Iuz são montados na parte de ensino 42 de uma maneira tal que os mesmos são arranjados nos vértices do tetraedro regular, respectivamente. As capas de difusão de Iuz 421a, 422a, 423a e 424a são montadas nos LEDs infravermelhos 421, 422, 423, e 424 da parte de ensino 42, respectivamente. Os LEDs infravermelhos 421 a 25 424 são exemplos da "parte de sinal" ou do "elemento emissor de luz".
De acordo com esta modalidade, a ferramenta de ensino 4 é configurada para especificar continuamente as posições de ensino enquanto o usuário opera o botão de ensino 43. A especificação das posições de ensino inclui continuamente não somente a especificação das posições de en30 sino de modo que as posições de ensino sejam conectadas continuamente, mas também a especificação das posições de ensino continuamente. Além disso, a ferramenta de ensino 4 é configurada para ser operável de modo a comutar entre um modo de especificação das posições de ensino uma a uma e um modo de especificação das posições de ensino continuamente enquanto a ferramenta de ensino 4 se move com base em uma operação executada pelo usuário no botão de ensino 43.
5 Especificamente, a ferramenta de ensino 4 é configurada para
comutar ao modo de especificação das posições de ensino continuamente enquanto a ferramenta de ensino 4 se move ao comprimir longamente (uma compressão longa por dois ou mais segundos, por exemplo) o botão de ensino 43. Além disso, a ferramenta de ensino 4 é configurada para comutar ao 10 modo de especificação das posições de ensino uma a uma fazendo uma compressão breve (por menos de dois segundos, por exemplo) o botão de ensino 43. Além disso, a ferramenta de ensino 4 é configurada para especificar as posições de ensino uma a uma cada vez que o usuário comprime o botão de ensino 43 e para especificar continuamente as posições de ensino 15 enquanto o usuário comprime continuamente o botão de ensino 43, ao mover a ferramenta de ensino 4.
A ferramenta de ensino 4 é configurada para poder especificar as posições de ensino em um estado de distinção das zonas de trabalho do robô 1 das zonas que não de trabalho do mesmo com base em uma opera20 ção executada pelo usuário no botão de ensino 43. Especificamente, a ferramenta de ensino 4 é configurada para distinguir as zonas de trabalho do robô 1 das zonas que não de trabalho do mesmo por um clique duplo do botão de ensino 43 pelo usuário.
As câmeras estéreo 5a e 5b são configuradas para poderem re25 conhecer a posição tridimensional da ferramenta de ensino 4 ao associar as imagens da ferramenta de ensino 4 focadas pelas duas câmeras uma com a outra com o software de visualização operado por um aparelho de controle embutido (não mostrado). As câmeras estéreo 5a e 5b são configuradas para focar a ferramenta de ensino 4 nas posições de ensino especificadas pela 30 ferramenta de ensino 4. Em outras palavras, as câmeras estéreo 5a e 5b são configuradas para focar a Iuz infravermelha emitida seqüencialmente dos LEDs infravermelhos 421, 422, 423 e 424 da ferramenta de ensino 4 para reconhecer as posições de ensino e as posturas da ferramenta de ensino 4. As câmeras estéreo 5a e 5b são exemplos da "parte de medição" ou da "parte de focalização".
As câmeras estéreo 5a e 5b focam a ferramenta de ensino 4 ca5 da vez que o usuário comprime o botão de ensino 43. Além disso, as câmeras estéreo 5a e 5b são configuradas para focar a ferramenta de ensino 4 continuamente enquanto o usuário move a ferramenta de ensino 4, ao manter comprimido o botão de ensino 43.
Em segundo lugar, o processamento de ensino de controle executado pelo software de controle 21 da placa de controle 2 do sistema de ensino de robô 100 e pelo software de visualização 31 e pelo software de simulação 32 do PC 3 é descrito com referência às Figs. 5 e 6.
Enquanto o usuário executa uma operação de início de ensino no software de controle 21, o software de controle 21 transmite um sinal de 15 início de ensino ao software de visualização 31 em um estado de espera para receber um sinal em uma etapa SI. O software de visualização 31 que recebe o sinal de início de ensino transmite um sinal OK de início de ensino ao software de controle 21 em uma etapa S2. A seguir, o software de controle 21 insere um estado de espera para receber um sinal do software de visu20 alização 31. Além disso, o software de visualização 31 insere um estado de espera de entrada da espera até que o usuário opere o botão de ensino 43 da ferramenta de ensino 4 para especificar as posições de ensino.
Enquanto o usuário ativa um comutador de estado de ensino (não mostrado) em uma etapa S3, um sinal de entrada ON (interrupção) é 25 transmitido da ferramenta de ensino 4 ao software de visualização 31. Em uma etapa S4, o software de visualização 31 transmite um sinal que ativa um LED de estado de ensino (não mostrado) para a ferramenta de ensino 4. A ferramenta de ensino 4 que recebe esse sinal ativa o LED de estado de ensino. Desse modo, a ferramenta de ensino 4 inicia o processamento para 30 a especificação das posições de ensino para o robô 1.
Enquanto o usuário comprime o botão de ensino 43 da ferramenta de ensino 4 localizada nas posições de ensino, um sinal de entrada ON (interrupção) é transmitido da ferramenta de ensino 4 ao software de visualização 31 em uma etapa S5. Enquanto o usuário opera (comprime) esse botão de ensino 43, as posições de ensino são especificadas continuamente.
5 Em uma etapa S6, o software de visualização 31 transmite um
sinal que ativa o LED infravermelho 421 para a ferramenta de ensino 4. A ferramenta de ensino 4 que recebe esse sinal que ativa o LED infravermelho 421 ativa o LED infravermelho 421 para fazer com que o LED infravermelho 421 emita Iuz infravermelha. Em uma etapa S7, o software de visualização 31 transmite um sinal de ativação de imagem para fazer com que as câmeras estéreo 5a e 5b executem a focalização. Depois que as câmeras estéreo 5a e 5b executam a focalização, duas imagens focadas pelas câmeras estéreo 5a e 5b são transmitidas ao software de visualização 31 em uma etapa S8. Em uma etapa S9, o software de visualização 31 transmite um sinal que desativa o LED infravermelho 421 para a ferramenta de ensino 4. A ferramenta de ensino 4 que recebe esse sinal que desativa o LED infravermelho 421 desativa o LED infravermelho 421. O processamento nas etapas S6 a S9 é executado similarmente para o LEDs infravermelho 422 a 424. Desse modo, o processamento de focalização em uma posição de ensino é terminado.
A seguir, o software de visualização 31 calcula as posições de ensino e as posturas da ferramenta de ensino 4. Em outras palavras, o software de visualização 31 calcula a posição tridimensional da parte de ensino 42 da ferramenta de ensino 4 com base nas posições dos LEDs infraverme25 Ihos 421 a 424 focados pelas câmeras estéreo 5a e 5b e reconhece as posições de ensino e as posturas da ferramenta de ensino 4. A forma de tetraedro regular da parte de ensino 42 pode ser reproduzida no espaço tridimensional se três ou mais dos LEDs infravermelho 421 a 424 puderem ser focados, e desse modo as posições de ensino e as posturas da ferramenta de 30 ensino 4 podem ser calculadas.
Em uma etapa S10, o software de visualização 31 transmite um sinal de comando de simulação ao software de simulação 32. O software de simulação 32 que recebe esse sinal do comando de simulação simula se o robô 1 pode ou não se mover (atingir) às posições e às posturas que correspondem às posições de ensino e às posturas da ferramenta de ensino 4. Além disso, o software de simulação 32 simula se o robô 1 pode ou não se 5 mover através da trajetória de movimento que é interpolada entre as posições de ensino. O software de simulação 32 transmite os resultados da simulação (alcance OK/NG) ao software de visualização 31 em uma etapa S11.
Em uma etapa S12, o software de visualização 31 transmite um 10 sinal que ilumina a Iuz de notificação OK 44a, a Iuz de notificação NG 44b, a Iuz de notificação de advertência 44c, ou a Iuz de notificação NG de focalização 44d da ferramenta de ensino 4 com base nos resultados da simulação (alcance OK/NG). Quando o robô 1 pode ser mover, o software de visualização 31 armazena uma posição de ensino 1 e faz com que o software de con15 trole 21 armazene a posição de ensino 1 em uma etapa S13. Em uma etapa S14, o software de visualização 31 transmite um sinal que desativa a Iuz de notificação iluminada da ferramenta de ensino 4 para a ferramenta de ensino
4 em uma etapa S14.
O processamento nas etapas S3 a S14 é executado de maneira similar para uma posição de ensino 2 a uma posição de ensino N. Em outras palavras, a posição de ensino especificada pela ferramenta de ensino 4 é movida, e o processamento nas etapas S3 a S14 é repetido.
Em uma etapa S15 na Fig. 6, o software de visualização 31 armazena a posição de ensino N e faz com que o software de controle 21 armazene a posição de ensino N. Desse modo, todas as posições de ensino (da posição de ensino 1 à posição de ensino N) foram especificadas pela ferramenta de ensino 4.
Enquanto o usuário ativa um comutador de confirmação de trajetória (não mostrado) da ferramenta de ensino 4, um sinal de entrada ON (interrupção) é transmitido da ferramenta de ensino 4 ao software de visualização 31 na etapa S16. Nas etapas S17 a S19, o software de visualização 31 transmite comandos do movimento ao software de simulação 32 e faz com que o software de simulação 32 execute uma simulação de mover o robô 1 para corresponder à posição de ensino 1 para a posição de ensino N. Desta vez, um resultado da simulação de mover o robô 1 é exibido em uma parte de exibição (não mostrada) do PC 3.
Enquanto o usuário desativa o comutador de estado de ensino
(não mostrado), um sinal de entrada ON (interrupção) é transmitido da ferramenta de ensino 4 ao software de visualização 31 em uma etapa S20. Em uma etapa S21, o software de visualização 31 transmite um sinal que desativa o LED de estado de ensino (não mostrado) para a ferramenta de ensino 10 4. A ferramenta de ensino 4 que recebe esse sinal que desativa o LED de estado de ensino desativa o LED de estado de ensino. Desse modo, o processamento para especificar as posições de ensino para o robô 1 pela ferramenta de ensino 4 é terminado. A seguir, as posições de ensino especificadas são inseridas no programa de ensino, por meio do que o programa de 15 ensino é gerado.
Em seguida, o software de controle 21 transmite um comando de posição de ensino 1 a um comando de posição de ensino N ao robô 1. Em outras palavras, o robô 1 é reativado com base no programa de ensino e é movido realmente.
De acordo com esta modalidade, tal como acima descrito, a fer
ramenta de ensino 4 é provida com o botão de ensino 43 operado pelo usuário para especificar as posições de ensino. Desse modo, não é necessário operar um apêndice de ensino provido separadamente da ferramenta de ensino 4 cada vez que as posições de ensino forem especificadas, e desse 25 modo o aumento em uma sobrecarga de operação no usuário pode ser suprimido enquanto o usuário especifica as posições de ensino para o robô 1 com a ferramenta de ensino 4. Além disso, uma operação de ensino pode ser executada em um estado onde os servos dos servomotores do robô 1 são desligados sem mover o robô 1 realmente com o apêndice de ensino, e 30 desse modo o usuário pode executar a operação mais com segurança. Além, o sistema de ensino de robô 100 é configurado para especificar continuamente as posições de ensino enquanto o usuário operar o botão de ensino 43 da ferramenta de ensino 4. Desse modo, o usuário pode especificar continuamente as posições de ensino para o robô 1 ao operar o botão de ensino 43 provido na ferramenta de ensino 4 sem operar o apêndice de ensino provido separadamente da ferramenta de ensino 4 cada vez que o usu5 ário especificar as posições de ensino, e desse modo o aumento em uma sobrecarga de operação no usuário pode ser eficazmente suprimido.
De acordo com esta modalidade, tal como descrito acima, a ferramenta de ensino 4 é configurada para ser operável de modo a comutar entre o modo de especificação das posições de ensino uma a uma e o modo 10 de especificação das posições de ensino continuamente enquanto a ferramenta de ensino 4 se move com base em uma operação executada pelo usuário no botão de ensino 43. Desse modo, uma sobrecarga no usuário pode ser reduzida mediante a interpolação entre as posições de ensino quando as posições de ensino são especificadas uma a uma enquanto as 15 posições de ensino (a trajetória de movimento do robô) podem ser especificadas especificamente quando as posições de ensino são especificadas continuamente.
De acordo com esta modalidade, tal como descrito acima, a ferramenta de ensino 4 é configurada para especificar uma a uma as posições de ensino cada vez que o usuário comprime o botão de ensino 43 e para especificar continuamente as posições de ensino enquanto o usuário comprime continuamente o botão de ensino 43, ao mover a ferramenta de ensino 4, e as câmeras estéreo 5a e 5b são configuradas para focar na ferramenta de ensino 4 cada vez que o usuário comprime o botão de ensino 43 e para focar na ferramenta de ensino 4 continuamente enquanto o usuário comprime continuamente o botão de ensino 43, ao mover a ferramenta de ensino 4. Desse modo, quando as posições de ensino são especificadas uma a uma, a ferramenta de ensino 4 é focada cada vez que o usuário comprime o botão de ensino 43, e desse modo a ferramenta de ensino 4 não é focada enquanto se move entre as posições de ensino de modo que o processamento de focalização pode ser simplificado. Quando as posições de ensino são especificadas continuamente, a ferramenta de ensino 4 é focada continuamente enquanto o usuário comprime continuamente o botão de ensino 43, e desse modo não é necessário que o usuário comprima repetidamente o botão de ensino 43 para a focalização. Desse modo, uma sobrecarga no usuário pode ser reduzida.
De acordo com esta modalidade, tal como descrito acima, o PC
3 é configurado para determinar se o robô 1 pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4 e executar o controle da notificação do usuário sobre o resultado da determinação com a Iuz de notificação OK 44a, a Iuz de notificação NG 44b, a Iuz de notificação de advertência 44c e a Iuz de notificação NG de focalização 44d da ferramenta de ensino 4. Desse modo, o usuário pode confirmar imediatamente se o robô 1 pode ou não se mover para as posições e as posturas que correspondem às posições de ensino especificadas e as posturas de ferramenta de ensino 4 pela notificação da Iuz de notificação OK 44a, da Iuz de notificação NG 44b, da Iuz de notificação de advertência 44c e da Iuz de notificação NG de focalização 44d da ferramenta de ensino 4 operada pelo usuário cada vez que a ferramenta de ensino 4 especifica as posições de ensino, e desse modo uma operação de ensino executada pelo usuário pode ser eficientemente executada. Desse modo, uma sobrecarga de uma operação de ensino no usuário pode ser reduzida.
De acordo com esta modalidade, tal como descrito acima, a Iuz de notificação OK 44a e a Iuz de notificação NG 44b da ferramenta de ensino 4 são configuradas para notificar o usuário de modo que o usuário possa reconhecer visualmente se o robô 1 pode ou não se mover para as posições 25 e as posturas que correspondem às posições e às posturas da ferramenta de ensino 4. Desse modo, o usuário pode reconhecer facilmente se o robô 1 pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas de ferramenta de ensino 4 através do sentido visual do usuário.
De acordo com esta modalidade, tal como descrito acima, o PC
3 é configurado para determinar se o robô 1 pode ou não se mover através da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino 4 e para executar o controle de notificação do usuário sobre o resultado da determinação com a Iuz de notificação de advertência 44c da ferramenta de ensino 4. Desse modo, o usuário pode confirmar imediatamente se o robô 1 pode ou não se mover através da 5 trajetória de movimento que é interpolada entre as posições de ensino pela notificação da Iuz de notificação de advertência 44c da ferramenta de ensino
4 operada pelo usuário, e desse modo uma operação de ensino executada pelo usuário pode ser eficientemente executada.
De acordo com esta modalidade, tal como descrito acima, a Iuz 10 de notificação de advertência 44c da ferramenta de ensino 4 é configurada para notificar o usuário de modo que o usuário possa reconhecer visualmente se o robô 1 pode ou não se mover através da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino 4. Desse modo, o usuário pode reconhecer facilmente se o robô 1 15 pode ou não se mover através da trajetória de movimento que é interpolada entre ensinar a posições através do sentido visual do usuário.
De acordo com esta modalidade, tal como descrito acima, a ferramenta de ensino 4 é configurada para poder especificar as posições de ensino no estado de distinção da zonas de trabalho do robô 1 das zonas que 20 não de trabalho do mesmo com base em uma operação executada pelo usuário no botão de ensino 43. Desse modo, as posições de ensino são especificadas no estado em que as zonas de trabalho do robô 1 são distinguidas das zonas que não de trabalho do mesmo, e desse modo o ensino apropriado para a operação do robô 1 pode ser facilmente executado.
De acordo com esta modalidade, tal como descrito acima, o PC
3 é configurado para determinar a velocidade de operação do robô 1 e o método de interpolação para o movimento entre as posições de ensino dependendo das posições de ensino que pertencem às zonas de trabalho do robô
1 e as posições de ensino que pertencem às zonas que não de trabalho do robô 1. Desse modo, a velocidade de operação do robô 1 e o método de interpolação para o movimento entre as posições de ensino que são mais apropriadas para a operação do robô 1 podem ser determinados. De acordo com esta modalidade, tal como descrito acima, é provida uma pluralidade de LEDs infravermelhos 421 a 424 que são distinguíveis uns dos outros de modo que os mesmos são arranjados nos vértices da parte de ensino tetraédrica 42, respectivamente. Desse modo, os LEDs in5 fravermelhos 421 a 424 arranjados nos vértices da parte de ensino tetraédrica 42, respectivamente, são focados pelas câmeras estéreos 5a e 5b, por meio do que as posições e as posturas de ensino da ferramenta de ensino 4 podem ser facilmente adquiridas.
De acordo com esta modalidade, tal como descrito acima, o PC 10 3 é configurado para emitir seqüencialmente a Iuz da pluralidade de LEDs infravermelho 421 a 424 da parte de ensino 42 e focar nas posições de ensino ensinadas pela parte de ensino 42 com as câmeras estéreo 5a e 5b. Desse modo, os LEDs infravermelho 421 a 424 arranjados nos vértices da parte de ensino tetraédrica 42 podem ser distinguidos individualmente, e 15 desse modo as posições e as posturas de ensino da ferramenta de ensino 4 podem ser adquiridas com precisão.
De acordo com esta modalidade, tal como descrito acima, as tampas de difusão de Iuz 421a a 424a são montadas na pluralidade de LEDs infravermelhos 421 a 424 da parte de ensino 42, respectivamente. Desse 20 modo, a Iuz infravermelha emitida dos LEDs infravermelho 421 a 424 pode ser difundida, e desse modo as câmeras estéreo 5a e 5b podem focar de maneira confiável na Iuz infravermelha emitida dos LEDs infravermelhos 421 a 424 independente da postura da parte de ensino 42.
De acordo com esta modalidade, tal como descrito acima, a plu25 ralidade de LEDs infravermelhos 421 a 424 é configurada para emitir Iuz infravermelha, e as câmeras estéreo 5a e 5b são configuradas para receber a Iuz infravermelha emitida da pluralidade de LEDs infravermelhos 421 a 424 para executar a focalização. Desse modo, a Iuz infravermelha dos LEDs infravermelhos 421 a 424 pode ser reconhecida sem ser influenciado pela Iuz 30 visível, e desse modo as posições e as posturas de ensino da ferramenta de ensino 4 podem ser adquiridas com precisão. De acordo com esta modalidade, tal como descrito acima, a parte de ensino 42 tem um formato de um tetraedro regular. Desse modo, a parte de ensino 42 é formada de uma maneira equilibrada, de modo que as posições e as posturas de ensino da ferramenta de ensino 4 podem ser facil5 mente reconhecidas.
Deve ser compreendido por aqueles versados na técnica que várias modificações, combinações, subcombinações, e alterações podem ocorrer dependendo dos requisitos do desenho e de outros fatores contanto que se enquadrem dentro do âmbito das reivindicações anexas ou equivalentes dos mesmos.
Por exemplo, a parte de empunhar da ferramenta de ensino pode ser alternativamente formada em um formato de ferramenta apropriado para uma operação executada pelo robô. Especificamente, uma parte de empunhar 41a uma ferramenta de ensino 4a pode estar na forma de um tri15 turador que executa a trituração, e uma parte de ensino 42 pode ser formada em uma parte que corresponde a uma parte que executa a trituração tal como em uma primeira modificação mostrada na Fig. 7. Além disso, uma parte de empunhar 41b de uma ferramenta de ensino 4b pode estar no formato de uma garra de um robô 1 que executa uma operação tal como em uma se20 gunda modificação mostrada na Fig. 8. Desse modo, as posições e as posturas da ferramenta que executa uma operação podem ser realmente especificadas mais especificamente.
Embora o braço de robô do robô tenha seis graus de liberdade na modalidade acima mencionada, o braço do robô pode ter alternativamen25 te graus de liberdade (cinco graus de liberdade, sete graus de liberdade, etc.) que não os seis graus de liberdade, por exemplo. Além disso, o robô não fica restringido a um chamado robô articulado vertical tal como na modalidade acima mencionada, mas um robô articulado horizontal em que os eixos de rotação das partes móveis são paralelos entre si, um robô de ligação 30 paralela (delta robô), ou similares, podem ser alternativamente empregados.
Embora ambos a velocidade de operação do robô e o método de interpolação para o movimento entre as posições de ensino sejam determinados dependendo das posições de ensino pertencentes às zonas de trabalho do robô e as posições de ensino pertencentes às zonas que não de trabalho do robô na modalidade acima mencionada, pelo menos um dentre a velocidade de operação do robô e o método de interpolação para o movi
5 mento entre as posições de ensino pode ser alternativamente determinado dependendo das posições de ensino que pertencem às zonas de trabalho do robô e das posições de ensino que pertencem às zonas que não de trabalho do robô, por exemplo. Além disso, o sistema de ensino de robô pode ser configurado de maneira tal que o usuário possa mudar o método de interpo10 lação, a velocidade de operação, e a contínuidade/descontinuidade com botões de entrada ou similares providos na ferramenta de ensino. Além disso, o sistema de ensino de robô pode ser configurado para ter funções de alterar as informações já armazenadas (pontos de ensino) das posições de ensino, cancelar os pontos de ensino, e assim por diante.
Embora as luzes de notificação, que notificam o usuário de mo
do que o usuário possa fazer o reconhecimento visual, sejam empregadas como parte da notificação na modalidade acima mencionada, a parte de notificação pode ser alternativamente configurada para notificar o usuário com um som, por meio de vibração, ou similares, por exemplo. Além disso, a par20 te de notificação pode incluir alternativamente uma parte de exibição tal como um mostrador de cristal líquido.
Embora a parte de ensino da ferramenta de ensino tenha um formato de um tetraedro regular na modalidade acima mencionada, a parte de ensino pode ter alternativamente um formato que não aquele de um te25 traedro regular, por exemplo. A parte de ensino pode estar na forma de uma pirâmide triangular ou uma pirâmide poligonal que não uma pirâmide triangular, por exemplo.
Embora a ferramenta de ensino seja conectada ao PC (parte de controle) por uma conexão com fio na modalidade acima mencionada, a ferramenta de ensino pode ser alternativamente conectada à parte de controle por uma conexão sem fio, por exemplo. A parte de controle não fica restringida ao PC, mas uma unidade de computação tal como um PLC ou um controlador de robô pode ser alternativamente empregada.
Embora os LEDs infravermelhos sejam empregados como parte de sinal na modalidade acima mencionada, os LEDs que emitem a Iuz visível podem ser alternativamente empregados como parte de sinal, ou elementos
5 emissores de Iuz que não os LEDs podem ser alternativamente empregados como parte de sinal, por exemplo. Além disso, marcadores ou similares podem ser empregados como parte de sinal contanto que os mesmos sejam distinguíveis entre si.
Embora as operações de processamento da parte de controle 10 sejam descritas ao usar o fluxograma descrito de uma maneira dirigida por fluxo em que o processamento é executado em ordem ao longo de um fluxo de processamento por razões de conveniência de ilustração na modalidade acima mencionada, as operações de processamento da parte de controle podem ser alternativamente executadas de uma maneira dirigida por evento 15 em que o processamento é executado em uma base de eventos. Neste caso, as operações de processamento da parte de controle podem ser executadas de uma maneira dirigida por evento completa ou em uma combinação de uma maneira dirigida por evento e uma maneira dirigida por fluxo.
Embora as câmeras estéreo (parte de focalização ou parte de 20 medição) sejam montadas no robô na modalidade acima mencionada, a parte de focalização (parte de medição) pode ser alternativamente provida separadamente do robô, por exemplo. Além disso, mesmo se a parte de focalização (parte de medição) for montada no robô, a localização da montagem da parte de focalização (parte de medição) não fica restringida a uma Iocali25 zação da montagem na modalidade, mas a parte de focalização (parte de medição) pode ser montada em uma parte intermediária do braço do robô.
Embora as câmeras estéreos sejam empregadas como parte de medição na modalidade acima mencionada, um dispositivo de um outro sistema não acompanhado com focalização ótica pode ser alternativamente 30 empregado contanto que o mesmo possa medir as posições e as posturas da ferramenta de ensino que correspondem aos graus de liberdade do robô ensinado e adquirir as posições e as posturas da ferramenta de ensino nas posições de ensino especificaram pela ferramenta de ensino como parte de medição, por exemplo. A parte de medição pode ser configurada ao incorporar um sensor composto tal como um sensor de aceleração ou um sensor de giros na ferramenta de ensino, por exemplo.
5

Claims (20)

REIVINDICAÇÕES
1. Sistema de ensino de robô, compreendendo: uma ferramenta de ensino incluindo uma parte de operação operada por um usuário para especificar posições de ensino e que fica localizada nas posições de ensino como posições de operação de um robô para especificar as posições de ensino; uma parte de medição que mede as posições e as posturas de ensino da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino; e uma parte de controle que determina as posições de ensino para o robô com base nas posições e posturas da ferramenta de ensino medidas pela parte de medição, o sistema de ensino de robô é configurado para especificar continuamente as posições de ensino enquanto o usuário opera a parte de operação da ferramenta de ensino.
2. Sistema de ensino de robô, de acordo com a reivindicação 1, em que a parte de medição inclui uma parte de focalização que foca a ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino.
3. Sistema de ensino de robô, de acordo com a reivindicação 1, em que a ferramenta de ensino é configurada para ser operável de modo a comutar entre um modo de especificação das posições de ensino e um modo de especificação das posições de ensino continuamente enquanto a ferramenta de ensino se move com base em uma operação executada pelo usuário na parte de operação.
4. Sistema de ensino de robô, de acordo com a reivindicação 3, em que a parte de operação da ferramenta de ensino inclui uma parte de operação de ensino, a ferramenta de ensino é configurada para especificar as posições de ensino cada vez que o usuário opera a parte de ensino da operação e para especificar continuamente as posições de ensino enquanto o usuário opera continuamente a parte de operação de ensino, ao mover a ferramenta de ensino, e a parte de medição é configurada para medir as posições e as posturas da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino cada vez que o usuário opera a parte de operação de ensino e para medir continuamente as posições e as posturas da ferramenta de ensino nas posições de ensino enquanto o usuário opera continuamente a parte de operação de ensino, ao mover a ferramenta de ensino.
5. Sistema de ensino de robô, de acordo com a reivindicação 1, em que a ferramenta de ensino inclui uma parte de notificação, e a parte de controle é configurada para determinar se o robô pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino e para executar o controle de notificação do usuário sobre um resultado da determinação com a parte de notificação da ferramenta de ensino.
6. Sistema de ensino de robô, de acordo com a reivindicação 5, em que a parte de notificação da ferramenta de ensino tem uma primeira parte de notificação visual que notifica o usuário de modo que o usuário possa reconhecer visualmente se o robô pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino.
7. Sistema de ensino de robô, de acordo com a reivindicação 5, em que a parte de controle é configurada para determinar se o robô pode ou não se mover através de uma trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino e para executar o controle de notificação do usuário sobre um resultado da determinação com a parte de notificação da ferramenta de ensino.
8. Sistema de ensino de robô, de acordo com a reivindicação 7, em que a parte de notificação da ferramenta de ensino tem uma segunda parte de notificação visual que notifica o usuário de modo que o usuário possa reconhecer visualmente se o robô pode ou não se mover através da trajetória de movimento que é interpolada entre as posições de ensino especificadas pela ferramenta de ensino.
9. Sistema de ensino de robô, de acordo com a reivindicação 1, em que a ferramenta de ensino é configurada para poder especificar as posições de ensino em um estado de distinção de uma zona de trabalho do robô e uma zona que não de trabalho do mesmo com base em uma operação executada pelo usuário na parte de operação.
10. Sistema de ensino de robô, de acordo com a reivindicação 9, em que a parte de controle é configurada para determinar pelo menos um dentre uma velocidade de operação do robô e um método de interpolação para movimento entre as posições de ensino dependendo das posições de ensino que pertencem à zona de trabalho do robô e as posições de ensino que pertencem à zona que não de trabalho do robô.
11. Sistema de ensino de robô, de acordo com a reivindicação 1, em que a ferramenta de ensino também inclui uma parte de empunhar agarrada pelo usuário e uma parte de ensino tetraédrica que ensina as posições e as posturas do robô, e a parte de ensino tem uma pluralidade de partes de sinal que são distinguíveis umas das outras e arranjadas nos vértices de um tetraedro da parte de ensino, respectivamente.
12. Sistema de ensino de robô, de acordo com a reivindicação 11, em que a pluralidade de partes de sinal tem uma pluralidade de elementos emissores de Iuz arranjados nos vértices do tetraedro, respectivamente, a parte de controle é configurada para emitir seqüencialmente a luz da pluralidade de elementos emissores de Iuz da parte de ensino e para medir as posições e as posturas da ferramenta de ensino nas posições de ensino ensinadas pela parte de ensino com a parte de medição.
13. Sistema de ensino de robô, de acordo com a reivindicação 12, em que a pluralidade de elementos emissores de Iuz da parte de ensino tem tampas de difusão de Iuz montadas nos mesmos.
14. Sistema de ensino de robô, de acordo com a reivindicação 12, em que a pluralidade de elementos emissores de Iuz é configurado para emitir luz infravermelha, e a parte de medição é configurada para receber a luz infravermelha emitida da pluralidade de elementos emissores de luz para medir as posições e as posturas da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino.
15. Sistema de ensino de robô, de acordo com a reivindicação 11, em que a parte de ensino tem um formato de um tetraedro regular.
16. Sistema de ensino de robô, de acordo com a reivindicação 11,em que a parte de empunhar da ferramenta de ensino é formada em um formato de ferramenta apropriado para uma operação executada pelo robô.
17. Método de ensino de robô, compreendendo: a especificação das posições de ensino como posições de operação de um robô com base no fato que um usuário opera uma parte de operação de uma ferramenta de ensino em um estado em que a ferramenta de ensino fica localizada nas posições de ensino; a medição das posições e posturas da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino; e a geração de um programa de ensino para o robô ao determinar as posições de ensino para o robô com base nas posições medidas e nas posturas da ferramenta de ensino, em que a especificação das posições de ensino inclui a especificação das posições de ensino continuamente enquanto o usuário opera a parte de operação, ao mover a ferramenta de ensino.
18. Método de ensino de robô, de acordo com a reivindicação 17, em que a medição das posições e posturas da ferramenta de ensino inclui a focalização da ferramenta de ensino nas posições de ensino especificadas pela ferramenta de ensino e a computação das posições e posturas da ferramenta de ensino com base em um resultado da focalização.
19. Método de ensino de robô, de acordo com a reivindicação 17, em que a especificação das posições de ensino inclui a comutação entre um modo de especificação das posições de ensino e um modo de especificação das posições de ensino continuamente enquanto a ferramenta de ensino se move com base em uma operação executada pelo usuário na parte de operação.
20. Método de ensino de robô, de acordo com a reivindicação 17, ainda compreendendo: a determinação se o robô pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino; e a notificação do usuário sobre um resultado da determinação se o robô pode ou não se mover para as posições e as posturas que correspondem às posições e às posturas da ferramenta de ensino com uma parte de notificação da ferramenta de ensino.
BRBR102013009830-2A 2013-01-16 2013-04-22 Sistema de ensino de robô e método de ensino de robô BR102013009830A2 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013005480A JP5549749B1 (ja) 2013-01-16 2013-01-16 ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール

Publications (1)

Publication Number Publication Date
BR102013009830A2 true BR102013009830A2 (pt) 2014-09-02

Family

ID=47997137

Family Applications (1)

Application Number Title Priority Date Filing Date
BRBR102013009830-2A BR102013009830A2 (pt) 2013-01-16 2013-04-22 Sistema de ensino de robô e método de ensino de robô

Country Status (5)

Country Link
US (1) US9104981B2 (pt)
EP (1) EP2757430A2 (pt)
JP (1) JP5549749B1 (pt)
CN (1) CN103921265A (pt)
BR (1) BR102013009830A2 (pt)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170028557A1 (en) 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
JP2015131375A (ja) * 2014-01-15 2015-07-23 セイコーエプソン株式会社 ロボット、ロボットシステム、ロボット制御装置、およびロボット制御方法
JP6562665B2 (ja) * 2015-03-18 2019-08-21 蛇の目ミシン工業株式会社 ロボット
DE102015209900A1 (de) 2015-05-29 2016-12-01 Kuka Roboter Gmbh Verfahren zum Bestimmen eines Bahnpunktes
US20170028549A1 (en) * 2015-07-28 2017-02-02 Comprehensive Engineering Solutions, Inc. Robotic navigation system and method
CN106476035B (zh) * 2015-08-24 2021-07-27 达明机器人股份有限公司 机器手臂及其教导方法
CN107921632B (zh) * 2015-09-03 2021-09-24 株式会社安川电机 处理轨迹编辑装置、机器人、物品处理***以及物品制造方法
JP6694279B2 (ja) * 2016-01-21 2020-05-13 株式会社ダイヘン 経路教示装置、及び移動体
ES2668930B1 (es) * 2016-11-22 2019-04-02 Estudios De Ingenieria Adaptada S L Dispositivo de marcado de la trayectoria de trabajo de un robot, sistema que incorpora dicho dispositivo y procedimiento para la identificacion de la trayectoria de trabajo del robot
JP6946669B2 (ja) * 2017-03-03 2021-10-06 株式会社デンソーウェーブ ロボットのダイレクトティーチングシステム
JP6581145B2 (ja) * 2017-05-01 2019-09-25 ファナック株式会社 システムおよびコネクタ
JP6619395B2 (ja) * 2017-07-12 2019-12-11 ファナック株式会社 ロボットシステムおよびロボットの教示方法
CN107309882B (zh) * 2017-08-14 2019-08-06 青岛理工大学 一种机器人示教编程***及方法
CN107351087A (zh) * 2017-08-29 2017-11-17 成都乐创自动化技术股份有限公司 一种点动响应控制方法及***
TWI700166B (zh) * 2017-09-20 2020-08-01 達明機器人股份有限公司 機器手臂的教導系統及方法
CN107511835A (zh) * 2017-10-18 2017-12-26 佛山市南方数据科学研究院 一种手把手仿人示教机器人***
CN107598913A (zh) * 2017-10-18 2018-01-19 佛山市南方数据科学研究院 一种多维度示教数控机器人
CN108161882B (zh) * 2017-12-08 2021-06-08 华南理工大学 一种基于增强现实的机器人示教再现方法及装置
JP7035555B2 (ja) * 2018-01-23 2022-03-15 セイコーエプソン株式会社 教示装置、及びシステム
CN108388252B (zh) * 2018-04-10 2021-04-09 中科新松有限公司 一种机器人示教方法、装置、设备和介质
JP2019217607A (ja) * 2018-06-21 2019-12-26 三菱電機株式会社 ティーチング装置、ロボット制御システム及びティーチング方法
JP7115090B2 (ja) 2018-07-17 2022-08-09 オムロン株式会社 加速度調整装置及び加速度調整プログラム
JP6773098B2 (ja) * 2018-10-17 2020-10-21 株式会社安川電機 ロボットシステム及びロボット制御方法
DE102019105820A1 (de) * 2019-03-07 2020-09-10 Matheus Service GmbH Verfahren, System sowie nichtflüchtiges Speichermedium
JP2020179453A (ja) * 2019-04-25 2020-11-05 セイコーエプソン株式会社 ロボットシステムの制御方法およびロボットシステム
CN110919626B (zh) * 2019-05-16 2023-03-14 广西大学 一种基于立体视觉的机器人手持示教装置及方法
CN112207857A (zh) * 2019-07-12 2021-01-12 上海智殷自动化科技有限公司 一种基于双目视觉***的离线示教***
CN110900609A (zh) * 2019-12-11 2020-03-24 浙江钱江机器人有限公司 一种机器人示教装置及其方法
EP4169676A4 (en) * 2020-06-23 2024-07-17 Kawasaki Heavy Ind Ltd ROBOT LEARNING METHOD AND ROBOT OPERATION METHOD
TW202235232A (zh) 2021-03-11 2022-09-16 日商發那科股份有限公司 利用教示工具或作業者的手來設定教示點之教示裝置
WO2022195680A1 (ja) 2021-03-15 2022-09-22 株式会社日立ハイテク ロボットの作業教示装置及び作業教示方法
IT202100017033A1 (it) * 2021-06-29 2022-12-29 Comau Spa "Apparecchiatura di lavorazione e relativo dispositivo marcatore per generare traiettorie di processo"
IT202100027485A1 (it) * 2021-10-26 2023-04-26 Glance Vision Tech S R L Apparato e procedimento per la programmazione di robot per mezzo di dimostrazione
DE102022205884B4 (de) 2022-06-09 2024-01-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein System und Verfahren zur Aufnahme von Elementen eines Werkstücks mittels eines Zeigegerätes

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60136806A (ja) * 1983-12-26 1985-07-20 Agency Of Ind Science & Technol ロボツト作業教示装置
JPS6389278A (ja) * 1986-10-02 1988-04-20 株式会社東芝 産業用ロボツト教示装置
JPH06102919A (ja) * 1992-09-22 1994-04-15 Nippon Telegr & Teleph Corp <Ntt> ロボット軌道を教示するための方法
JP3160443B2 (ja) 1993-11-05 2001-04-25 三菱重工業株式会社 非接触点教示装置
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
JP2665897B2 (ja) * 1995-08-08 1997-10-22 川崎重工業株式会社 ロボット作業教示装置
JPH09225872A (ja) 1996-02-23 1997-09-02 Yaskawa Electric Corp ロボット教示装置
SE531104C2 (sv) 2002-12-30 2008-12-16 Abb Research Ltd Metod och system för programmering av en industrirobot
JP4266946B2 (ja) * 2005-03-17 2009-05-27 ファナック株式会社 オフライン教示装置
US8265793B2 (en) * 2007-03-20 2012-09-11 Irobot Corporation Mobile robot for telecommunication
JP2009302322A (ja) * 2008-06-13 2009-12-24 Nec Electronics Corp ティーチング装置及びティーチング方法
DE102008063680A1 (de) * 2008-10-10 2010-04-15 Abb Ag Verfahren zum Einlernen (Teachen) eines Industrieroboters sowie ein entsprechend ausgestatteter Industrieroboter
JP2011104759A (ja) 2009-11-20 2011-06-02 Idec Corp ロボット制御システムの教示用補助具、その教示用補助具を用いた教示方法、およびその教示方法によって教示を行うロボット制御システム
JP5704833B2 (ja) * 2010-05-10 2015-04-22 オリンパス株式会社 操作入力装置およびマニピュレータシステム
JP2013071231A (ja) * 2011-09-29 2013-04-22 Panasonic Corp ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路

Also Published As

Publication number Publication date
JP2014136275A (ja) 2014-07-28
JP5549749B1 (ja) 2014-07-16
CN103921265A (zh) 2014-07-16
US9104981B2 (en) 2015-08-11
US20140201112A1 (en) 2014-07-17
EP2757430A2 (en) 2014-07-23

Similar Documents

Publication Publication Date Title
BR102013009830A2 (pt) Sistema de ensino de robô e método de ensino de robô
Kumar et al. Survey of human–robot collaboration in industrial settings: Awareness, intelligence, and compliance
Vogel et al. Safeguarding and supporting future human-robot cooperative manufacturing processes by a projection-and camera-based technology
CN106239516B (zh) 机器人控制装置、机器人以及机器人***
Szafir Mediating human-robot interactions with virtual, augmented, and mixed reality
JPWO2017033362A1 (ja) 遠隔操縦マニピュレータシステム及びその運転方法
CN104002296A (zh) 机器人模拟器、机器人示教装置以及机器人示教方法
JP2015510434A5 (pt)
JP6863927B2 (ja) ロボットのシミュレーション装置
WO2019044766A1 (ja) ロボットシステム及びその運転方法
TWI587996B (zh) 機械手臂教導裝置
WO2019239848A1 (ja) ロボット制御システム
JP2011161586A (ja) 作業用装置
US11389948B2 (en) Teaching method
US11865697B2 (en) Robot system and method for operating same
JP5549716B2 (ja) ロボットシステムおよび教示方法
JP5465522B2 (ja) 作業機械の操作支援装置
TWI587994B (zh) Non-contact gestures teach robots
Van Oosterwyck Real Time Human-Robot Interactions and Speed Control of a Robotic Arm for Collaborative Operations
Alagi et al. Teleoperation with tactile feedback based on a capacitive proximity sensor array
CN114161424A (zh) 一种scara机器人动态制动的控制方法及控制***
Piyavichayanon et al. Collision-aware ar telemanipulation using depth mesh
US20240001552A1 (en) Teaching method and teaching apparatus
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
Landa-Hurtado et al. Kinect-based trajectory teaching for industrial robots

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B08F Application dismissed because of non-payment of annual fees [chapter 8.6 patent gazette]

Free format text: REFERENTE A 3A ANUIDADE.

B08K Patent lapsed as no evidence of payment of the annual fee has been furnished to inpi [chapter 8.11 patent gazette]

Free format text: EM VIRTUDE DO ARQUIVAMENTO PUBLICADO NA RPI 2385 DE 20-09-2016 E CONSIDERANDO AUSENCIA DE MANIFESTACAO DENTRO DOS PRAZOS LEGAIS, INFORMO QUE CABE SER MANTIDO O ARQUIVAMENTO DO PEDIDO DE PATENTE, CONFORME O DISPOSTO NO ARTIGO 12, DA RESOLUCAO 113/2013.