BR102016029103A2 - Method for determining a system of coordinates of a terminal manipulator system of a terminal manipulator of a machine for a system of coordinates of a work part, and system for orienting a terminal manipulator of a robotic arm in relation to a work part - Google Patents

Method for determining a system of coordinates of a terminal manipulator system of a terminal manipulator of a machine for a system of coordinates of a work part, and system for orienting a terminal manipulator of a robotic arm in relation to a work part Download PDF

Info

Publication number
BR102016029103A2
BR102016029103A2 BR102016029103-8A BR102016029103A BR102016029103A2 BR 102016029103 A2 BR102016029103 A2 BR 102016029103A2 BR 102016029103 A BR102016029103 A BR 102016029103A BR 102016029103 A2 BR102016029103 A2 BR 102016029103A2
Authority
BR
Brazil
Prior art keywords
workpiece
light
camera
light beam
coordinate system
Prior art date
Application number
BR102016029103-8A
Other languages
English (en)
Other versions
BR102016029103B1 (pt
Inventor
A. Hull Jerald
Original Assignee
The Boeing Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by The Boeing Company filed Critical The Boeing Company
Publication of BR102016029103A2 publication Critical patent/BR102016029103A2/pt
Publication of BR102016029103B1 publication Critical patent/BR102016029103B1/pt

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1692Calibration of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37571Camera detecting reflected light from laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

“MÉTODO PARA DETERMINAR UMA TRANSFORMAÇÃO DE SISTEMA DE COORDENADAS DE UM SISTEMA DE COORDENADAS DE MANIPULADOR TERMINAL DE UM MANIPULADOR TERMINAL DE UMA MÁQUINA PARA UM SISTEMA DE COORDENADAS DE UMA PEÇA DE TRABALHO, E, SISTEMA PARA ORIENTAR UM MANIPULADOR TERMINAL DE UM BRAÇO ROBÓTICO EM RELAÇÃO A UMA PEÇA DE TRABALHO” Campo: [001] Essa descrição se refere geralmente a operações de fabricação robótica e mais particularmente a identificar a transformação na rotação e translação de um sistema de coordenadas de peça de trabalho em relação ao sistema de coordenadas de robô durante operações de fabricação. Fundamentos: [002] Processos de fabricação de aeronaves têm contado com acessórios mecânicos para segurar peças de trabalho sendo montadas e mecânica para alinhar ferramentas que estão realizando operações de fabricação nas peças de trabalho. Cada vez mais, robôs com ferramentas estão sendo usados para realizar funções de fabricação que anteriormente exigiam tais operações de alinhamento manual. No entanto, a precisão da operação do trabalho robótico conta com saber a colocação da peça de trabalho em relação ao robô e sua ferramenta ou ferramentas associada(s).
[003] Uma ferramenta pode ser alinhada por um operador de robô usando uma câmera montada por ferramenta para localizar um recurso em particular, como um furo ou marca fiducial. Habitualmente, a câmera é posicionada muito lentamente próxima à peça de trabalho usando comandos de programa numericamente controlados auxiliados por intervenção manual a fim de registrar precisamente um pequeno recurso contra um plano de fundo desordenado. No entanto, o braço robótico em que a câmera está localizada deve ser impedido de contactar inadvertidamente a peça de trabalho ou causar danos a qualquer um ou todos da câmera, braço robótico ou peça de trabalho. Essa colocação de grande proximidade pode envolver o uso de sensores mecânicos ou sensores ópticos, e inspeção visual demorada pelo operador. Quando recursos suficientes forem identificados de modo semiautônomo para derivar o sistema de coordenadas de peça de trabalho em três dimensões de rotação e translação, a peça de trabalho pode ser registrada para o sistema de coordenadas do robô e o operador pode começar uma operação de montagem robótica completamente autônoma, como corte, perfuração, fixação ou soldagem. As operações de alinhamento semiautônomas descritas acima são trabalhosas e podem adicionar décimos de minutos ou mais ao ciclo de operações de fabricação. Dispositivos de localização 3D, como um equipamento de telemetria a laser ou projetores a laser, são grandes, caros e apresentam seus próprios erros sistemáticos residuais pós-calibração além da câmera do manipulador terminal com a qual geralmente se conta para medições de visualização de máquina de recursos da peça de trabalho. Sumário: [004] Em um aspecto da descrição, um método para localizar uma peça de trabalho em relação a um manipulador terminal de uma máquina inclui identificar um ponto na peça de trabalho com um elemento reflexivo, que recebe, em um formador de imagem de uma câmera acoplada ao manipulador terminal, um feixe de luz que inclui luz recebida do elemento reflexivo, e identificar um centroide da luz recebida do elemento reflexivo no formador de imagem. O método também inclui determinar um deslocamento do centroide de um local previsto do centroide da luz recebida do elemento reflexivo e, usando o deslocamento, determinar um local real da peça de trabalho em relação ao manipulador terminal.
[005] Em um outro aspecto da descrição, um sistema para orientar um manipulador terminal de um braço de robô com uma peça de trabalho inclui uma câmera afixada ao manipulador terminal. A câmera tem uma linha de visão formada entre uma lente da câmera e um formador de imagem na câmera. O sistema também inclui uma fonte de feixe de luz, afixada ao manipulador terminal, que projeta um feixe de luz assim como um separador de feixe que alinha o feixe de luz da fonte de feixe de luz com a linha de visão da câmera. O sistema inclui adicionalmente um controlador que computa uma transformação de um sistema de coordenadas de manipulador terminal para um sistema de coordenadas de peça de trabalho usando luz de retomo do feixe de luz refletido de múltiplos locais na peça de trabalho com base em respectivos centroides da luz de retomo no formador de imagem de cada um dos múltiplos locais.
[006] Em ainda um outro aspecto da descrição, um manipulador terminal adaptado para uso na determinação de um local de uma peça de trabalho inclui uma armação afixada a um braço de robô, uma ferramenta de trabalho usada em uma operação de fabricação acoplada à armação, a câmera tendo uma lente e um formador de imagem alinhados ao longo de uma linha de visão da câmera. O manipulador terminal também inclui um subconjunto de feixe de luz que gera um feixe de luz e um separador de feixe que tem pelo menos um refletor que alinha o feixe de luz ao longo da linha de visão da câmera e permite que pelo menos uma porção de uma reflexão do feixe de luz passe para o formador de imagem.
[007] Os recursos, funções e vantagens que foram discutidos podem ser alcançados independentemente em várias modalidades ou podem ser combinados em ainda outras modalidades, cujos detalhes adicionais podem ser vistos com referência à seguinte descrição e desenhos.
Breve descrição dos desenhos: [008] Para um entendimento mais completo dos métodos e aparelhos descritos, referência deve ser feita à modalidade ilustrada em mais detalhes dos desenhos anexos, em que: a Fig. 1 é uma vista em perspectiva que ilustra uma peça de trabalho e um robô de acordo com a presente descrição; a Fig. 2 é uma ilustração adicional da peça de trabalho da Fig. l; a Fig. 3 é uma vista em perspectiva de uma outra peça de trabalho e do robô; a Fig. 4 é uma ilustração de um conjunto de formação de imagem de um manipulador terminal em um ambiente de trabalho; a Fig. 5 é uma ilustração de uma modalidade alternativa da peça de trabalho e do robô; a Fig. 6 é uma modalidade alternativa de um manipulador terminal em um ambiente de trabalho; a Fig. 7 é uma ilustração de um centroide de luz refletida em um formador de imagem de uma câmera do conjunto de formação de imagem da Fig. 4; a Fig. 8 é uma vista de topo do braço de robô e manipulador terminal em relação a dois refletores; e a Fig. 9 é uma ilustração de operações realizadas por uma modalidade de localizar opticamente uma peça de trabalho para operações robóticas de acordo com a presente descrição.
[009] Deve ser entendido que os desenhos não estão necessariamente em escala e que as modalidades descritas são às vezes ilustradas diagramaticamente e em vistas parciais. Em certas instâncias, detalhes que não são necessariamente para um entendimento dos métodos e aparelhos descritos ou que tomam outros detalhes difíceis de se perceber podem ter sido omitidos.
Descrição detalhada: [0010] Um dos elementos de operações de fabricação robóticas é que um robô, ou mais precisamente, um manipulador terminal do robô, operará ao longo de uma pista espacial fixa em uma maneira repetível muito precisa.
Portanto, o local de uma peça de trabalho em três dimensões de rotação e translação em relação a um sistema de coordenadas do robô é importante para operações de fabricação autônomas bem-sucedidas. Em alguns ambientes de fabricação, a tolerância a erros para tal colocação pode ser menor que centésimos ou milésimos de uma polegada em cada uma das três dimensões. Como discutido acima, a determinação do sistema de coordenadas da peça de trabalho em relação ao sistema de coordenadas do robô pode usar marcas fiduciais ou outros pontos de referência, como cantos, que podem ser identificados usando uma câmera no manipulador terminal. No entanto, é habitual que tal câmera opere em um nível macro e seja colocada muito próxima à marca fiducial ou ao ponto de referência a fim de discernir opticamente recursos da peça de trabalho contra uma imagem de plano de fundo desordenada usando detecção de visualização de máquina e algoritmos de extração. Dada a operação de grande proximidade do robô para a peça de trabalho com grande incerteza de localização, a intervenção manual do operador é geralmente requerida para evitar colisões inadvertidas de robô com a peça de trabalho. Isso frequentemente requer um operador para mover a câmera para a localização de recurso exata ou o uso de um sensor mecânico para evitar que a câmera ou o manipulador terminal façam contato físico inadvertido com a peça de trabalho. Uma vez que a pose em massa da peça de trabalho é conhecida com precisão razoável, o robô pode realizar operações subsequentes em alta velocidade com alta precisão.
[0011] A seguinte discussão descreve um sistema e método para determinar o sistema de coordenadas de uma peça de trabalho em relação a um sistema de coordenadas de manipulador terminal usando luz refletida de pontos conhecidos associados à peça de trabalho. Voltando-se agora para os desenhos, a Fig. 1 é uma ilustração de uma peça de trabalho 100, tal como pode ser empregada em uma operação de fabricação. A peça de trabalho 100 pode ser um elemento único, ou pode ser um subconjunto como representado na Fig. 1. A peça de trabalho 100 pode incluir furos 106, 108, 110, 112 que são dispostos em locais precisamente conhecidos, por exemplo, como parte de uma operação de fabricação anterior. Os furos 106, 108, 110, 112 podem ser criados em uma etapa de operação de fabricação anterior onde a peça de trabalho 100 já está em uma posição conhecida. Um braço de robô 102 pode ter um manipulador terminal 104, e na aplicação ilustrada na Fig. 1, uma ferramenta 105. O manipulador terminal 104 pode também incluir um conjunto de câmera, discutido em mais detalhes abaixo em relação à Fig. 4.
[0012] A Fig. 2 ilustra a colocação de um ou mais refletores 120, 122, 124, 126 na peça de trabalho 100. Cada um dos refletores 120, 122, 124, 126 pode ter um respectivo pilar de montagem 121 que permite que os refletores 120, 122, 124, 126 sejam dispostos precisamente, mas de modo removível, na peça de trabalho 100. Os refletores 120, 122, 124, 126 são projetados para prover uma imagem difusa altamente reflexiva de alto contraste quando iluminada, como discutido mais abaixo. Refletores adequados estão comercialmente disponíveis, por exemplo, em Laser Projection Technologies Inc. de Londonderry, New Hampshire.
[0013] Uma alternativa para o uso dos refletores 120, 122, 124, 126 é ilustrada na Fig. 3, onde, em vez dos refletores 120, 122, 124, 126, pontos de tinta reflexiva 130-138 circundados por anéis de absorção podem ser dispostos em vários pontos na peça de trabalho 100. Os pontos de tinta reflexiva 130-138 podem prover uma superfície reflexiva difusa. Os anéis de absorção podem absorver a maior parte da luz incidente adjacente aos pontos de tinta. Os anéis de absorção em torno dos pontos reflexivos podem também ser precisamente colocados na peça de trabalho 100, por exemplo, por um robô em uma operação de fabricação anterior.
[0014] A Fig. 4 ilustra uma modalidade de um conjunto de formação de imagem 160 para uso em localização óptica de peças de trabalho para operações robóticas. O conjunto de formação de imagem 160 pode ser afixado ao manipulador terminal 104 de modo que sua relação física dentro do manipulador terminal 104 e, correspondentemente, para uma ferramenta 105 seja precisamente conhecida. O conjunto de formação de imagem 160 pode incluir um subconjunto de feixe de luz 162 e um subconjunto de formador de imagem 164.
[0015] O subconjunto de feixe de luz 162 pode incluir uma fonte de feixe de luz 166, um expansor de feixe 168, e um espelho plano 170. Em uma modalidade, a fonte de feixe de luz 166 pode ser um laser que produz um feixe de luz polarizado de banda estreita 186. O expansor de feixe 168 amplia a emissão da fonte de feixe de luz 166 para um diâmetro desejado 187. Por exemplo, se a variação média na pose da peça de trabalho 100 é Vi polegada (1,27 cm), um diâmetro desejado do feixe pode ser 1 polegada (2,54 cm) de modo que o feixe de luz provavelmente cerque um refletor particular 120 quando apontado para seu local nominal, ou esperado. A fonte de feixe de luz 166 e o expansor de feixe 168 são produtos comercialmente disponíveis sem prescrição. O espelho plano 170 é simplesmente usado para alterar um trajeto do feixe de luz 186 para a configuração física mostrada na Fig. 4. Outras configurações físicas são possivelmente baseadas em exigências de espaço. Por exemplo, a fonte de feixe de luz 166 e o expansor de feixe 168 podem ser rotados 90° e movidos para o local geral do espelho plano 170 se as mudanças exigidas para a pegada do conjunto de formação de imagem 160 puderem ser acomodadas no manipulador terminal 104.
[0016] O subconjunto de formador de imagem 164 pode ter uma câmera 172 que inclui uma lente 174 e um formador de imagem 176. O formador de imagem 176 pode ter um plano focal 178 cujo centro pode ser usado como ponto de referência para rotação do manipulador terminal 104 durante operações de formação de imagem do refletor. Isso será discutido em mais detalhes abaixo em relação à Fig. 8. A lente 174 pode ser uma lente de foco macro variável adequada para uso em distâncias que variam de algumas polegadas até infinito. A lente 174 e o formador de imagem 176 formam uma linha de visão da câmera 172.
[0017] O subconjunto de formador de imagem 164 pode também incluir um separador de feixe 180 que, em uma modalidade, inclui uma superfície de separação revestida polarizada 182. O separador de feixe 180 permite que o feixe de luz 186 seja alinhado com a linha de visão da câmera, de modo que luz de saída e entrada pode ser coaxial. Uma janela 184 pode ser usada para transmitir luz dentro e fora do conjunto de formação de imagem 160.
[0018] Em operação, o conjunto de formação de imagem 160 pode ser apontado para um local esperado do refletor 120 de modo que o feixe de luz 186 saído do conjunto de formação de imagem 160 cerque o refletor 120. Um feixe de luz refletido 188 pode ser transmitido de volta para o subconjunto de formador de imagem 164. No caso onde a peça de trabalho 100 está fora do lugar mais que o esperado, o manipulador terminal 104 pode ser movido para fazer com que o feixe de luz 186 se mova em um padrão para fora em espiral a partir do local esperado até que a superfície reflexiva esteja cercada no feixe de luz 186 e o feixe de luz refletido 188 esteja capturado na câmera 172, indicando que um refletor foi localizado. Se nenhum refletor for encontrado ou se o refletor encontrado estiver além de um limite de onde era esperado, um erro pode ser levantado e um operador pode ser notificado.
[0019] Embora o feixe de luz refletido 188 possa ser facilmente identificável em alguns casos, outros fatores podem se combinar para fazer o feixe de luz refletido 188 mais difícil de se identificar claramente. Essas condições podem incluir a distância para o refletor 120, luzes suspensas de banda larga muito brilhantes, névoa de operações de soldagem, alta umidade, imagem da peça de trabalho que circunda o refletor, etc. Etapas podem ser seguidas para melhorar a razão de sinal para ruído do feixe de luz refletido 188.
[0020] Uma técnica de melhoria de sinal para ruído usa a superfície de separação revestida polarizada 182. O feixe de luz de saída 186 pode ser polarizado em S e completamente refletido a partir da superfície 182. No entanto, o feixe de luz refletido 188 pode incluir luz polarizada tanto em S quanto em P de modo que a luz polarizada em S 190 seja refletida e a luz polarizada em P seja passada através da superfície de separação 182 para a câmera 172. A transmissão ou reflexão de outra luz incidente na superfície 182 dependerá das propriedades ópticas de banda larga do revestimento da superfície 182. Uma outra modalidade vantajosa podería utilizar polarização no lugar da fonte de luz polarizada linear 166 e superfície de separação 182.
[0021] Uma outra melhoria de sinal para ruído pode levar vantagem da natureza do formador de imagem 176. A maioria dos formadores de imagem pixelados 176 contém um mosaico de filtro de cor, com cada elemento de mosaico sobre um pixel sendo transmissivo para uma cor de banda estreita de luz, como três cores primárias. Ao calcular um centroide da imagem do refletor, selecionar apenas a cor primária do formador de imagem 176 que a fonte de feixe de luz 166 abrange permitirá que toda a luz ambiente (branca) que entra na câmera 172 dentro das outras 2 bandas de cores primárias seja ignorada. Isto é, a fonte de feixe de luz 166 pode ser selecionada para apresentar uma cor de feixe dentro de um dos elementos de mosaico de filtro de cor. Isso efetivamente cria um contraste mais acentuado entre a imagem do refletor e todo o resto na imagem, resultando em um cálculo mais preciso do centroide da imagem do refletor.
[0022] A Fig. 5 ilustra uma modalidade alternativa para localizar opticamente peças de trabalho para operações robóticas. Na modalidade da Fig. 5, o refletor 120 da Fig. 2 é substituído por uma fonte de luz ativa 125 usando, por exemplo, um diodo emissor de luz (LED). A fonte de luz ativa 125 pode emitir feixes de luz de polarização aleatória, ou preferencialmente incluir filtragem para emitir feixes de luz polarizados linear ou circularmente.
Como discutido acima, uma cor do LED da fonte de luz ativa pode ser selecionada para apresentar uma cor dentro de um dos elementos de mosaico de filtro de cor da câmera 172.
[0023] A Fig. 6 ilustra um conjunto de formação de imagem 250 exemplificativo adequado para uso com a modalidade da Fig. 5. O conjunto de formação de imagem 250 pode incluir uma câmera 172, igual ou similar à usada no conjunto de formação de imagem 160 da Fig. 4. A câmera 172 recebe feixes de luz 256 gerados na fonte de luz ativa 125. O conjunto de formação de imagem 250 pode incluir o separador de feixe 180 para prover redução de ruído de luz ambiente como discutido acima. Quando usada, a superfície de separação revestida polarizada pode passar apenas feixes de luz 258 tendo uma polarização única incluindo linear ou circular. No entanto, como a fonte de luz ativa 125 pode ser aleatoriamente polarizada, a redução de ruído adicional provida pelo separador de feixe 180 pode não ser alcançável ou necessária.
[0024] Voltando à Fig. 7, um formador de imagem 176 da câmera 172 é ilustrado mostrando um local esperado 194 do feixe de luz refletido 188, presumindo que a peça de trabalho está perfeitamente em pose em sua posição esperada. Isto é, o conjunto de formação de imagem 160 é apontado para o local esperado do refletor 120 de modo que se a peça de trabalho estiver corretamente localizada, um centroide do feixe de luz refletido 188 ficará no centro exato do formador de imagem 176. Esse ponto é o local designado como cx, cy nesta ilustração. Também mostrada na Fig. 7 é a imagem real 196 do feixe de luz refletido 188. Um centroide de duas dimensões 198 do feixe de luz refletido 188 é designado como u, v. Usando essas duas medições de dimensão, seus locais tridimensionais nominais correspondentes, assim como informações conhecidas sobre a câmera, tais como comprimento focal e características da lente, uma equação e método podem ser usados para reconstruir a matriz de rotação R e o vetor de translação t que transformam uma peça de trabalho nominalmente em pose para a peça de trabalho real em pose - o objetivo desejado. Tal equação e método é a função solvepnp() encontrada em domínio público. Uma expressão da solvepnpO é: Eq. 1 Eq. 2 onde: [X Y Z 1]’ é a matriz de coluna M’ das coordenadas 3D conhecidas dos locais nominais dos refletores 120, 122,124, 126, etc.
[u v]’ é a matriz de coluna m’ das coordenadas do centroide medido correspondente do feixe de luz refletido 188, em pixels dos refletores 120, 122, 124,126, etc. A é uma matriz de parâmetros específicos da câmera (cx, cy) é o local esperado do feixe de luz refletido 188 fx e fy são os comprimentos focais em pixels [R|t] é a matriz de rotação - translação combinada desconhecida que descreve a transformação de coordenadas 3D nominais para as coordenadas 2D conforme medições Dados os centroides 2D medidos [u v]\ locais 3D nominais [X Y Z 1]’, e matriz de câmera A, a matriz de rotação desconhecida R e o vetor de translação t podem ser resolvidos por um dos vários métodos como os publicados em solvepnp().
[0025] A Equação 2 presume que todas as entradas conhecidas são de uma única câmera e pose. Como o campo de visão da câmera provavelmente não é grande o suficiente para conter todos os locais do refletor desejados a partir de uma única pose da câmera, o robô precisará reorientar a pose da câmera entre as medições do refletor. Como representado na Fig. 8, caso o centroide do plano focal 179 precise ser rotado e/ou translacionado entre as medições do refletor, a transformação real na rotação e translação de uma pose de medição para outra é precisamente conhecida no sistema de coordenadas de manipulador terminal. Um controlador 199 pode alinhar essas medições transformando cada medição de refletor em um sistema de coordenadas de manipulador terminal comum. Além de calcular transformações de sistema de coordenadas, o controlador 199 pode controlar o braço do robô 102 e/ou a ferramenta de trabalho 105.
[0026] Um método 200 para localizar uma peça de trabalho em relação a um manipulador terminal de uma máquina é ilustrado no fluxograma da Fig. 9. No bloco 202 um ponto na peça de trabalho 100 pode ser identificado com um refletor 120. Em uma modalidade, o ponto na peça de trabalho 100 pode ser identificado com um ponto de tinta reflexivo 130 e anel de absorção ou outro elemento reflexivo ou luminoso de alto contraste.
[0027] Um feixe de luz 192 incluindo luz refletida do refletor 120 pode ser recebido em um formador de imagem 176 de uma câmera 172 no bloco 204. Continuando no bloco 206, um centroide 198 da luz recebida no formador de imagem 176 pode ser determinado, por exemplo, incluindo apenas medições de pixel acima de um limite especificado em um cálculo de centro de massa, ou em um outro exemplo, por uma intensidade de imagem de produto cruzada em vários locais por todo o formador de imagem 176. Uma vez que o centroide 198 tenha sido localizado, um deslocamento do centroide 198 para um local esperado 194 do centroide pode ser determinado no bloco 208.
[0028] Um teste pode ser feito no bloco 210 para determinar se cada um dos pontos identificados com refletores 120, 122, 124, 126 foi medido em seus respectivos centroides determinados. Se não, a ramificação ‘não’ pode ser tirada do bloco 210 para o bloco 212 na câmera 172 pode ser apontada para outro elemento reflexivo. O processamento pode continuar no bloco 204 até que todos os pontos identificados na ramificação ‘sim’ do bloco 210 possam ser levados para o bloco 214. No bloco 214, usando o deslocamento, um local real da peça de trabalho 100 em relação ao manipulador terminal 104 pode ser calculado. Usando o local real, a peça de trabalho 100 pode ser orientada em relação ao espaço de coordenadas do braço do robô 102 de modo que uma operação de fabricação usando uma ferramenta 105 pode ser realizada na peça de trabalho 100.
[0029] Em algumas modalidades, a câmera 172 já está no lugar em um manipulador terminal 104 para uso em macro-operações, como identificação de marca fiducial aproximada, validação de local para uso da ferramenta 105, verificação de qualidade de uma operação de fabricação completada, ou alguma combinação destes, dentre outros usos possíveis.
[0030] A capacidade de localizar a peça de trabalho 100 em relação ao sistema de coordenadas de um braço de robô 102 a uma distância tem vários benefícios. Para o fabricante, uma vantagem é cortar tanto quanto décimos de minutos da localização de uma pose de peça de trabalho. Como não é incomum reposicionar uma peça de trabalho grande várias vezes dentro de um invólucro de trabalho de robô limitado, os vários eventos de reposicionamento representam uma redução significativa de tempo e, portanto, custo para operações de fabricação realizadas por robô. Adicionalmente, permitindo que o robô realize localização de peça de trabalho a uma distância, a tensão do operador é reduzida retirando a necessidade de acionar o manipulador terminal 104 para distância extremamente próxima, por exemplo, usando calibradores. Eliminar operações em aproximação também ajuda a evitar inatividade dispendiosa quando o método da técnica anterior resulta em dano ao manipulador terminal 104, ao braço de robô 102, ou à peça de trabalho 100 devido a contato não intencional entre componentes.
[0031] Adicionalmente, a descrição compreende modalidades de acordo com as seguintes cláusulas: Cláusula 1. Um método para determinar uma transformação de sistema de coordenadas de um sistema de coordenadas de manipulador terminal de um manipulador terminal de uma máquina para um sistema de coordenadas de uma peça de trabalho, o método compreendendo: identificar pontos na peça de trabalho; receber, em um formador de imagem de uma câmera acoplada ao manipulador terminal, feixes de luz incluindo luz recebida dos pontos identificados; identificar um respectivo centroide da luz recebida de cada um dos pontos identificados no formador de imagem; determinar um deslocamento de cada respectivo centroide de um local predeterminado do respectivo centroide da luz recebida de cada um dos pontos identificados; e usando os deslocamentos, determinar a transformação de sistema de coordenadas na rotação e translação do sistema de coordenadas da peça de trabalho em relação ao sistema de coordenadas do manipulador terminal.
Cláusula 2. O método da Cláusula 1, em que receber, no formador de imagem da câmera, os feixes de luz incluindo a luz recebida nos pontos identificados, inclui receber os feixes de luz em um plano focal do formador de imagem, em que o método compreende adicionalmente: rotar o manipulador terminal em tomo de um centroide do plano focal do formador de imagem para receber os feixes de luz de cada um dos pontos identificados na peça de trabalho.
Cláusula 3. O método da Cláusula 1, em que identificar os pontos na peça de trabalho compreende identificar cada um dos pontos da peça de trabalho com um respectivo elemento reflexivo.
Cláusula 4. O método da Cláusula 3, compreendendo adicionalmente iluminar cada um dos respectivos elementos reflexivos com uma luz polarizada.
Cláusula 5. O método da Cláusula 4, em que iluminar os respectivos elementos reflexivos com a luz polarizada compreende iluminar os elementos reflexivos usando uma fonte de feixe de luz montada próxima à câmera montada no manipulador terminal.
Cláusula 6. O método da Cláusula 1, em que identificar os pontos na peça de trabalho compreende afixar uma fonte de luz ativa a cada ponto respectivo na peça de trabalho.
Cláusula 7. O método da Cláusula 1, em que determinar a transformação de sistema de coordenadas do sistema de coordenadas de manipulador terminal para o sistema de coordenadas da peça de trabalho usando um algoritmo de reconstrução de duas dimensões para três dimensões.
Cláusula 8. Um sistema para orientar um manipulador terminal de um braço de robô em relação a uma peça de trabalho, o sistema compreendendo: uma câmera afixada ao manipulador terminal, a câmera tendo uma linha de visão formada entre uma lente da câmera e um formador de imagem na câmera; e um controlador que computa uma transformação de um sistema de coordenadas de manipulador terminal para um sistema de coordenadas de peça de trabalho usando um feixe de luz recebido de múltiplos locais na peça de trabalho com base em respectivos centroides do feixe de luz no formador de imagem de cada um dos múltiplos locais.
Cláusula 9. O sistema da Cláusula 8, compreendendo adicionalmente: uma fonte de feixe de luz afixada ao manipulador terminal, a fonte de feixe de luz projetando o feixe de luz para cada um dos múltiplos locais na peça de trabalho; um separador de feixe que alinha o feixe de luz da fonte de feixe de luz com a linha de visão da câmera.
Cláusula 10. O sistema da Cláusula 9, compreendendo adicionalmente um refletor difuso em cada um dos múltiplos locais na peça de trabalho.
Cláusula 11. O sistema da Cláusula 10, em que o refletor difuso é um de uma marca de tinta e um alvo retrorreflexivo.
Cláusula 12. O sistema da Cláusula 9, em que a fonte de feixe de luz compreende um expansor de feixe que aumenta um diâmetro do feixe de luz para aproximadamente um tamanho do alvo nos múltiplos locais mais uma tolerância de local inicial.
Cláusula 13. O sistema da Cláusula 9, em que o separador de feixe compreende um separador de feixe filtrado que passa seletivamente uma porção do feixe de luz recebido de cada um dos múltiplos locais.
Cláusula 14. O sistema da Cláusula 8, compreendendo adicionalmente uma fonte de luz ativa que gera o feixe de luz.
Cláusula 15.0 sistema da Cláusula 14, em que a fonte de luz ativa é uma fonte de luz polarizada.
Cláusula 16. Um manipulador terminal de um braço de robô adaptado para uso na determinação de uma peça de trabalho, o manipulador terminal incluindo: uma ferramenta de trabalho usada em uma operação de fabricação; uma câmera montada em uma relação conhecida à ferramenta de trabalho, a câmera tendo uma lente e um formador de imagem alinhados ao longo de uma linha de visão da câmera; um subconjunto de feixe de luz que gera um feixe de luz; e um separador de feixe que tem pelo menos um refletor que alinha o feixe de luz ao longo da linha de visão da câmera e permite que pelo menos uma porção de uma reflexão do feixe de luz passe pelo formador de imagem.
Cláusula 17. O manipulador terminal da Cláusula 16, em que o subconjunto de feixe de luz compreende um expansor de feixe.
Cláusula 18. O manipulador terminal da Cláusula 16, em que o pelo menos um refletor do separador de feixe é um separador de feixe filtrado.
Cláusula 19. O manipulador terminal da Cláusula 16, em que o subconjunto de feixe de luz é sintonizado para prover uma cor de feixe que corresponda a uma cor de um elemento de mosaico de filtro de cor do formador de imagem.
Cláusula 20. O manipulador terminal da Cláusula 16, em que a lente é uma lente de foco variável adaptada para ajuste entre foco macro e foco à distância.
[0032] Embora apenas certas modalidades tenham sido apresentadas, alternativas e modificações serão aparentes a partir da descrição acima para os versados na técnica. Essas e outras alternativas são consideradas equivalentes e dentro do espírito e escopo desta descrição e reivindicações anexas.
REIVINDICAÇÕES

Claims (10)

1. Método para determinar uma transformação de sistema de coordenadas de um sistema de coordenadas de manipulador terminal de um manipulador terminal (104) de uma máquina para um sistema de coordenadas de uma peça de trabalho (100), o método caracterizado pelo fato de que compreende: identificar (202) pontos na peça de trabalho; receber (204), em um formador de imagem (176) de uma câmera (172) acoplada ao manipulador terminal, feixes de luz (192) incluindo luz recebida dos pontos identificados; identificar (206) um respectivo centroide (198) da luz recebida de cada um dos pontos identificados no formador de imagem; determinar (208) um deslocamento de cada respectivo centroide de um local predeterminado (194) do respectivo centroide da luz recebida de cada um dos pontos identificados; e usando (214) os deslocamentos, determinar (214) a transformação de sistema de coordenadas na rotação e translação do sistema de coordenadas da peça de trabalho em relação ao sistema de coordenadas do manipulador terminal.
2. Método de acordo com a reivindicação 1, caracterizado pelo fato de que receber (204), no formador de imagem (176) da câmera (172), os feixes de luz (192) incluindo a luz recebida nos pontos identificados, inclui receber os feixes de luz em um plano focal (178) do formador de imagem, em que o método compreende adicionalmente: rotar o manipulador terminal (104) em torno de um centroide (198) do plano focal do formador de imagem para receber os feixes de luz de cada um dos pontos identificados na peça de trabalho (100).
3. Método de acordo com qualquer uma das reivindicações 1-2, caracterizado pelo fato de que identificar (206) os pontos na peça de trabalho (100) compreende identificar cada um dos pontos da peça de trabalho com um respectivo elemento reflexivo (120).
4. Método de acordo com a reivindicação 3, caracterizado pelo fato de que compreende adicionalmente iluminar cada um dos respectivos elementos reflexivos (120) com uma luz polarizada.
5. Método de acordo com qualquer uma das reivindicações 1-2, caracterizado pelo fato de que identificar (206) os pontos na peça de trabalho (100) compreende afixar uma fonte de luz ativa (125) a cada ponto respectivo na peça de trabalho.
6. Sistema para orientar um manipulador terminal (104) de um braço robótico (102) em relação a uma peça de trabalho (100), o sistema caracterizado pelo fato de que compreende: uma câmera (172) afixada ao manipulador terminal, a câmera tendo uma linha de visão formada entre uma lente (174) da câmera e um formador de imagem (176) na câmera; e um controlador (199) que computa uma transformação de um sistema de coordenadas de manipulador terminal para um sistema de coordenadas de peça de trabalho com base nos respectivos centroides (198) do feixe de luz no formador de imagem de cada um dos múltiplos locais.
7. Sistema de acordo com a reivindicação 6, caracterizado pelo fato de que compreende adicionalmente: uma fonte de feixe de luz (166) afixada ao manipulador terminal (104), a fonte de feixe de luz projetando o feixe de luz (186) para cada um dos múltiplos locais na peça de trabalho (100); um separador de feixe (180) que alinha o feixe de luz da fonte de feixe de luz com a linha de visão da câmera (172).
8. Sistema de acordo com a reivindicação 7, caracterizado pelo fato de que a fonte de feixe de luz (166) compreende um expansor de feixe (168) que aumenta o diâmetro do feixe de luz (186) para aproximadamente um tamanho de um alvo (120) nos múltiplos locais mais uma tolerância de local inicial.
9. Sistema de acordo com a reivindicação 6, caracterizado pelo fato de que compreende adicionalmente uma fonte de luz ativa (125) que gera o feixe de luz (256).
10. Sistema de acordo com a reivindicação 9, caracterizado pelo fato de que a fonte de luz ativa (125) é uma fonte de luz polarizada.
BR102016029103-8A 2016-01-22 2016-12-12 Método para determinar uma transformação de sistema de coordenadas de um sistema de coordenadas de manipulador terminal de um manipulador terminal de uma máquina para um sistema de coordenadas de uma peça de trabalho, e, sistema para orientar um manipulador terminal de um braço robótico em relação a uma peça de trabalho BR102016029103B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/004,459 US9815204B2 (en) 2016-01-22 2016-01-22 Apparatus and method to optically locate workpiece for robotic operations
US15/004459 2016-01-22

Publications (2)

Publication Number Publication Date
BR102016029103A2 true BR102016029103A2 (pt) 2017-08-01
BR102016029103B1 BR102016029103B1 (pt) 2021-12-21

Family

ID=57233314

Family Applications (1)

Application Number Title Priority Date Filing Date
BR102016029103-8A BR102016029103B1 (pt) 2016-01-22 2016-12-12 Método para determinar uma transformação de sistema de coordenadas de um sistema de coordenadas de manipulador terminal de um manipulador terminal de uma máquina para um sistema de coordenadas de uma peça de trabalho, e, sistema para orientar um manipulador terminal de um braço robótico em relação a uma peça de trabalho

Country Status (4)

Country Link
US (1) US9815204B2 (pt)
EP (1) EP3195989B1 (pt)
CN (1) CN106994696B (pt)
BR (1) BR102016029103B1 (pt)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9026242B2 (en) 2011-05-19 2015-05-05 Taktia Llc Automatically guided tools
US10556356B2 (en) 2012-04-26 2020-02-11 Sharper Tools, Inc. Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material
US10456883B2 (en) 2015-05-13 2019-10-29 Shaper Tools, Inc. Systems, methods and apparatus for guided tools
EP4375773A3 (en) 2016-08-19 2024-07-17 Shaper Tools, Inc. Apparatus and method for guiding a tool positioned on the surface of a piece of material
JP6622775B2 (ja) * 2017-10-12 2019-12-18 ファナック株式会社 計測システム
CN108107439A (zh) * 2017-11-30 2018-06-01 上海华力微电子有限公司 蚀刻设备真空传输腔内机械手臂位置量测方法及装置
TWI653130B (zh) 2017-12-05 2019-03-11 財團法人工業技術研究院 機械手臂的校正裝置及其校正方法
US11609544B2 (en) 2018-01-29 2023-03-21 Shaper Tools, Inc. Systems, methods and apparatus for guided tools with multiple positioning systems
JP6816070B2 (ja) * 2018-08-24 2021-01-20 ファナック株式会社 干渉回避装置およびロボットシステム
US10926416B2 (en) 2018-11-21 2021-02-23 Ford Global Technologies, Llc Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture
DE102020112352A1 (de) 2019-05-30 2020-12-03 Panasonic I-Pro Sensing Solutions Co., Ltd. Kamera und Roboter-System
US10989671B2 (en) 2019-09-16 2021-04-27 The Boeing Company Method and system for determining alignment and orientation of a target
US11113844B2 (en) 2019-11-26 2021-09-07 The Boeing Company Systems and methods for automatic quality assessment of multiple-camera calibration
ES1243504Y (es) * 2020-02-13 2020-09-01 Sosa Gonzalez S L Robot autónomo de pintura
CN111325659A (zh) * 2020-02-19 2020-06-23 北京迈格威科技有限公司 三维人像的获取方法、视频分析方法、装置、设备和介质
US11548158B2 (en) * 2020-04-17 2023-01-10 Abb Schweiz Ag Automatic sensor conflict resolution for sensor fusion system
CA3189581A1 (en) * 2020-07-29 2022-02-03 Nikon Corporation Processing system
US11794352B2 (en) 2021-01-04 2023-10-24 The Boeing Company Bore metrology methods and systems, and bore locating target assemblies for use therewith

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
US5164579A (en) * 1979-04-30 1992-11-17 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects including light spot centroid determination
US5280179A (en) * 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US6317953B1 (en) * 1981-05-11 2001-11-20 Lmi-Diffracto Vision target based assembly
US4456961A (en) * 1982-03-05 1984-06-26 Texas Instruments Incorporated Apparatus for teaching and transforming noncoincident coordinate systems
US4815845A (en) * 1986-04-16 1989-03-28 Westinghouse Electric Corp. Axial alignment aid for remote control operations and related method
US5195234A (en) * 1991-08-19 1993-03-23 Motorola, Inc. Method and apparatus for visual alignment of parts
EP0812662B1 (en) * 1995-12-27 2008-01-23 Fanuc Ltd Composite sensor robot system
US6044308A (en) * 1997-06-13 2000-03-28 Huissoon; Jan Paul Method and device for robot tool frame calibration
US6070109A (en) * 1998-03-10 2000-05-30 Fanuc Robotics North America, Inc. Robot calibration system
US6266142B1 (en) * 1998-09-21 2001-07-24 The Texas A&M University System Noncontact position and orientation measurement system and method
US7800758B1 (en) * 1999-07-23 2010-09-21 Faro Laser Trackers, Llc Laser-based coordinate measuring device and laser-based method for measuring coordinates
JP3421608B2 (ja) * 1999-04-08 2003-06-30 ファナック株式会社 教示モデル生成装置
SE0001312D0 (sv) * 2000-04-10 2000-04-10 Abb Ab Industrirobot
US6741364B2 (en) 2002-08-13 2004-05-25 Harris Corporation Apparatus for determining relative positioning of objects and related methods
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
JP4191080B2 (ja) * 2004-04-07 2008-12-03 ファナック株式会社 計測装置
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム
US7536242B2 (en) * 2004-11-12 2009-05-19 The Boeing Company Optical laser guidance system apparatus and method
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
DE602007011045D1 (de) * 2006-04-20 2011-01-20 Faro Tech Inc Kamerabasierte vorrichtung zur zielmessung und zielverfolgung mit sechs freiheitsgraden
DE602007010753D1 (de) * 2006-04-21 2011-01-05 Faro Tech Inc Kamerabasierte vorrichtung zur zielmessung und zielverfolgung mit sechs freiheitsgraden und drehbarem spiegel
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
US9393694B2 (en) * 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US9266241B2 (en) * 2011-03-14 2016-02-23 Matthew E. Trompeter Robotic work object cell calibration system
GB2504890A (en) * 2011-04-15 2014-02-12 Faro Tech Inc Enhanced position detector in laser tracker
JP6025386B2 (ja) * 2012-05-02 2016-11-16 キヤノン株式会社 画像計測装置、画像計測方法及び画像計測プログラム
BR112015001783B1 (pt) * 2012-07-27 2022-04-05 Eskom Holdings Soc Limited Aparelho para uso em um cabo e sistema e método de inspeção de um cabo
US8485017B1 (en) * 2012-08-01 2013-07-16 Matthew E. Trompeter Robotic work object cell calibration system
EP2722136A1 (en) * 2012-10-19 2014-04-23 inos Automationssoftware GmbH Method for in-line calibration of an industrial robot, calibration system for performing such a method and industrial robot comprising such a calibration system
WO2014099104A1 (en) 2012-12-21 2014-06-26 Beckman Coulter, Inc. System and method for laser-based auto-alignment
US9041914B2 (en) * 2013-03-15 2015-05-26 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
US9476695B2 (en) * 2013-07-03 2016-10-25 Faro Technologies, Inc. Laser tracker that cooperates with a remote camera bar and coordinate measurement device
CN103895023B (zh) * 2014-04-04 2015-08-19 中国民航大学 一种基于编码方位装置的机械臂末端跟踪测量***的跟踪测量方法
US10021379B2 (en) * 2014-06-12 2018-07-10 Faro Technologies, Inc. Six degree-of-freedom triangulation scanner and camera for augmented reality
CN104776815B (zh) * 2015-03-23 2018-04-17 中国科学院上海光学精密机械研究所 一种基于达曼光栅的彩色三维轮廓测量装置与方法
US9903934B2 (en) * 2015-06-30 2018-02-27 Faro Technologies, Inc. Apparatus and method of measuring six degrees of freedom

Also Published As

Publication number Publication date
CN106994696A (zh) 2017-08-01
BR102016029103B1 (pt) 2021-12-21
EP3195989B1 (en) 2020-02-19
EP3195989A1 (en) 2017-07-26
CN106994696B (zh) 2022-04-19
US20170210011A1 (en) 2017-07-27
US9815204B2 (en) 2017-11-14

Similar Documents

Publication Publication Date Title
BR102016029103A2 (pt) Method for determining a system of coordinates of a terminal manipulator system of a terminal manipulator of a machine for a system of coordinates of a work part, and system for orienting a terminal manipulator of a robotic arm in relation to a work part
US20210176456A1 (en) System and method for calibrating a vision system with respect to a touch probe
US10157458B2 (en) Laser projection system and method
US20080252248A1 (en) Device and Method for Calibrating the Center Point of a Tool Mounted on a Robot by Means of a Camera
TWI623724B (zh) Shape measuring device, structure manufacturing system, stage system, shape measuring method, structure manufacturing method, shape measuring program, and computer readable recording medium
JP2014016354A5 (pt)
US11105607B2 (en) Non-contact probe and method of operation
EP2770297B1 (en) Shape measuring apparatus
CN111141767A (zh) 测量用x射线ct装置和使用该装置的ct重建方法
JP2021193400A (ja) アーチファクトを測定するための方法
EP3662272B1 (en) Inspection system and method for turbine vanes and blades
JP2017003292A (ja) アライメント測定装置およびアライメント測定方法
CN105157615B (zh) 一种用于真空的三维形貌测量***
US11333619B2 (en) Measurement X-ray CT apparatus
TW201537309A (zh) 位置偏移檢測方法、位置偏移檢測裝置、描繪裝置及基板檢查裝置
US10488176B2 (en) Edge registration for interferometry
KR20220023900A (ko) 로봇좌표계와 시편좌표계의 정렬장치 및 이를 이용한 좌표계 정렬 방법
US10989671B2 (en) Method and system for determining alignment and orientation of a target
Matthias et al. Camera and projector calibration of an endoscopic fringe projection system
JP2017015572A (ja) 形状計測装置
KR20240104276A (ko) 기판 처리 장치 및 기판 처리 방법
JP2015075396A (ja) 計測方法及び計測装置

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 12/12/2016, OBSERVADAS AS CONDICOES LEGAIS.