KR20200122754A - Smart glass system for providing augmented reality image - Google Patents
Smart glass system for providing augmented reality image Download PDFInfo
- Publication number
- KR20200122754A KR20200122754A KR1020190045856A KR20190045856A KR20200122754A KR 20200122754 A KR20200122754 A KR 20200122754A KR 1020190045856 A KR1020190045856 A KR 1020190045856A KR 20190045856 A KR20190045856 A KR 20190045856A KR 20200122754 A KR20200122754 A KR 20200122754A
- Authority
- KR
- South Korea
- Prior art keywords
- smart glasses
- image
- information
- management server
- work
- Prior art date
Links
- 239000004984 smart glass Substances 0.000 title claims abstract description 200
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 17
- 238000004891 communication Methods 0.000 claims abstract description 80
- 210000001747 pupil Anatomy 0.000 claims abstract description 34
- 238000007726 management method Methods 0.000 description 88
- 238000000034 method Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 13
- 230000009012 visual motion Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000452 restraining effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 스마트 정보 통신에 관한 것으로, 좀 더 구체적으로 증강 현실 이미지를 제공하는 스마트 안경 시스템에 관한 것이다.The present invention relates to smart information communication, and more specifically, to a smart glasses system that provides an augmented reality image.
스마트 폰, 스마트 워치, 스마트 패드 등 사용자에게 다양한 서비스를 제공하는 전자 기기들이 제공되고 있다. 사용자들은 스마트 전자 기기들을 이용하여 정보 제공에 참여하거나, 정보를 공유하고, 서로 소통할 수 있다. 따라서, 스마트 전자 기기들은 사용자에 다양한 경험을 제공하고, 사용자 친화적인 서비스를 제공할 수 있다. 오늘날 산업 현장에서, 스마트 정보 통신을 이용하여, 작업자의 현재 상황에 맞는 작업 수행을 유도하는 스마트 팩토리 구축에 대한 요구가 제기되고 있다. 이러한 스마트 팩토리 구축을 통하여, 작업자의 실수가 감소하고, 생산성이 향상될 수 있다.Electronic devices that provide various services to users such as smart phones, smart watches, and smart pads are being provided. Users can participate in information provision, share information, and communicate with each other using smart electronic devices. Accordingly, smart electronic devices can provide various experiences to users and provide user-friendly services. In today's industrial sites, there is a demand for constructing a smart factory that uses smart information and communication to induce workers to perform tasks appropriate to the current situation. Through the establishment of such a smart factory, mistakes of workers can be reduced and productivity can be improved.
작업자의 작업 효율의 향상을 위하여, 현장의 작업자는 스마트 워치, 태블릿, 또는 스마트 폰을 활용할 수 있다. 다만, 태블릿 또는 스마트 폰의 경우, 정보를 확인하기 위하여 작업자의 손이 구속되어, 자유로운 작업이 방해된다. 스마트 워치의 경우, 정보를 확인하기 위하여 작업자의 조작 또는 시선 이동 등이 요구되어, 자유로운 작업이 방해된다. 따라서, 작업자의 움직임을 구속하지 않으면서 (예를 들어, 핸즈 프리(hands free)), 작업 수행 상태를 유지할 수 있는 스마트 전자 기기가 요구된다.In order to improve the work efficiency of the worker, the worker in the field may utilize a smart watch, a tablet, or a smart phone. However, in the case of a tablet or a smart phone, the operator's hand is restrained in order to check the information, preventing free work. In the case of a smart watch, an operator's manipulation or gaze movement is required to check information, which hinders free work. Accordingly, there is a need for a smart electronic device capable of maintaining a work performance state without restricting the movement of the worker (eg, hands free).
본 발명은 산업 현장의 작업자를 구속하지 않고, 작업 효율 및 편의성을 증가시킬 수 있는 증강 현실 이미지를 제공하는 스마트 안경 시스템을 제공할 수 있다.The present invention can provide a smart glasses system that provides an augmented reality image capable of increasing work efficiency and convenience without restraining a worker in an industrial site.
본 발명의 실시예에 따른 스마트 안경 시스템은 스마트 안경 및 관리 서버를 포함할 수 있다. 스마트 안경은 작업 장치를 촬영하여 작업 이미지를 획득하는 카메라 및, 작업 이미지에 대응되는 증강 현실 이미지를 표시하는 디스플레이를 포함할 수 있다. 관리 서버는 작업 이미지, 스마트 안경의 위치 및 방향, 및 스마트 안경을 착용한 작업자의 동공 위치에 기초하여 증강 현실 이미지를 생성할 수 있다. 스마트 안경은 음성 정보에 기초하여 증강 현실 이미지를 변경하고 통신 대상 및 통신 정보를 결정할 수 있다.The smart glasses system according to an embodiment of the present invention may include smart glasses and a management server. The smart glasses may include a camera that acquires a work image by photographing a work device, and a display that displays an augmented reality image corresponding to the work image. The management server may generate an augmented reality image based on the work image, the position and direction of the smart glasses, and the pupil position of the worker wearing the smart glasses. The smart glasses may change an augmented reality image and determine a communication target and communication information based on the voice information.
본 발명의 실시예에 따른 스마트 안경 시스템은 음성 명령어 기반으로 제어되고, 작업 제어를 위한 증강 현실 이미지를 제공함으로써, 핸즈 프리로 정보 교환 및 작업 가이드가 가능하다.The smart glasses system according to an embodiment of the present invention is controlled based on a voice command and provides an augmented reality image for controlling a task, thereby enabling hands-free information exchange and work guide.
또한, 본 발명에 따르면, 별도의 움직임 또는 동작 없이도 작업 공정 또는 지시 사항에 대한 확인이 가능하여, 작업 효율 및 작업 생산량이 증가할 수 있다.In addition, according to the present invention, it is possible to check a work process or instruction without a separate movement or operation, so that work efficiency and work output can be increased.
도 1은 본 발명의 실시예에 따른 스마트 안경 시스템을 도시한 도면이다.
도 2는 도 1의 스마트 안경의 예시적인 블록도이다.
도 3은 도 1의 스마트 안경의 동작을 설명하기 위한 예시적인 도면이다.
도 4는 도 1의 스마트 안경 시스템의 동작을 위하여 요구되는 정보의 관리 방법에 대한 순서도이다.
도 5는 도 1의 스마트 안경 시스템의 동작 방법에 대한 순서도이다.
도 6은 도 5의 S210 단계를 구체화한 순서도이다.
도 7은 도 5의 S230 단계를 구체화한 순서도이다.
도 8은 도 5의 S250 단계를 구체화한 순서도이다.
도 9는 도 5의 S290 단계를 구체화한 순서도이다.1 is a diagram showing a smart glasses system according to an embodiment of the present invention.
2 is an exemplary block diagram of the smart glasses of FIG. 1.
3 is an exemplary diagram for explaining the operation of the smart glasses of FIG. 1.
4 is a flowchart illustrating a method of managing information required for the operation of the smart glasses system of FIG. 1.
5 is a flowchart of a method of operating the smart glasses system of FIG. 1.
6 is a flowchart illustrating step S210 of FIG. 5.
7 is a flowchart illustrating step S230 of FIG. 5.
FIG. 8 is a flow chart illustrating step S250 of FIG. 5.
9 is a flowchart illustrating step S290 of FIG. 5.
아래에서는, 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로, 본 발명의 실시 예들이 명확하고 상세하게 기재된다.In the following, embodiments of the present invention are described clearly and in detail to the extent that a person having ordinary knowledge in the technical field of the present invention can easily implement the present invention.
도 1은 본 발명의 실시예에 따른 스마트 안경 시스템을 도시한 도면이다. 도 1을 참조하면, 스마트 안경 시스템(100)은 스마트 안경(110), 작업 장치(120), 관리 서버(130), 단말기(140), 및 네트워크(150)를 포함한다.1 is a diagram showing a smart glasses system according to an embodiment of the present invention. Referring to FIG. 1, a
스마트 안경(110)은 작업자의 헤드에 착용될 수 있다. 작업자는 스마트 안경(110)의 글라스를 통하여 작업 장치(120)를 볼 수 있도록 작업자의 눈에 인접하게 착용될 수 있다. 작업자는 스마트 안경(110)을 통하여, 작업 수행을 위한 다양한 정보를 제공 받고, 단말기(140) 등에 질의 요청을 수행할 수 있다. 스마트 안경(110)은 이러한 동작들을 수행하기 위하여 작업자를 구속하지 않을 수 있다. 스마트 안경(110)은 스마트 워치 또는 스마트 폰과 같이 사용자가 정보를 확인하기 위하여, 손을 구속하거나 시선을 이동시키는 등의 동작을 요구하지 않는다. 따라서, 작업자의 작업 효율이 증가하고, 작업물의 생산량이 증가할 수 있다.
작업자가 스마트 안경(110)을 통하여 작업 장치(120)를 주시하는 경우, 스마트 안경(110)은 작업 장치(120)에 대응되는 증강 현실(Augmented Reality) 이미지 (이하, AR 이미지)를 표시할 수 있다. AR 이미지는 스마트 안경(110)의 글라스에 투영된다. 이를 위하여, 글라스는 AR 이미지를 표시하기 위한 디스플레이 패널을 포함할 수 있다. AR 이미지는 작업 장치(120) 또는 작업물과 관련된 식별 정보, 작업 정보, 스마트 안경(110)의 동작 선택을 위한 메뉴 정보를 포함하는 가상 이미지일 수 있다. 이러한 AR 이미지는 사전에 관리 서버(130)에 저장 및 관리될 수 있다. 스마트 안경(110)이 AR 이미지를 표시하는 구체적인 동작은 후술된다.When the worker gazes at the
스마트 안경(110)의 동작 제어는 음성 인식 기반으로 수행될 수 있다. 작업자의 음성은 스마트 안경(110)에 포함된 마이크로폰 (또는 별도로 구비된 마이크로폰)에 입력될 수 있다. 스마트 안경(110)은 음성 인식을 통하여, 다양한 동작들 중 적어도 하나를 선택하고 해당 동작을 수행할 수 있다. 일례로, 음성 인식 결과에 기초하여, 스마트 안경(110)의 온/오프, 메뉴 정보의 표시, 스마트 안경(110)과 단말기(140)의 통신 등의 동작들이 수행될 수 있다. 일례로, 스마트 안경(110)은 음성 인식 결과에 기초하여 AR 이미지를 변경할 수 있다. 일례로, 스마트 안경(110)은 음성 인식 결과에 기초하여, 통신 대상 (일례로, 단말기(140)) 및 통신 정보 (데이터 또는 메시지 등)를 결정할 수 있다. 음성 인식 기반의 스마트 안경(110)의 구체적인 동작은 후술된다.Operation control of the
작업 장치(120)는 작업물의 생산, 설계, 개발, 또는 유통 등 다양한 작업들을 수행하도록 구성된다. 작업 장치(120)는 이러한 작업들을 수행하기 위한 기계 장치 또는 전자 장치를 포함할 수 있다. 일례로, 작업 장치(120)는 작업물을 제조하기 위한 기계 설비 또는 작업물의 제조를 제어하기 위한 컴퓨터 장치를 포함할 수 있다. The working
작업 장치(120)는 스마트 안경(110), 관리 서버(130), 또는 단말기(140) 등과 정보를 교환하기 위한 통신 장치를 포함할 수 있다. 다만, 이에 제한되지 않고, 통신 장치는 작업 장치(120)가 구비된 공간 내에 별도로 존재할 수 있고, 작업 장치(120)는 통신 장치를 이용하여 다른 구성 요소들과 정보를 교환할 수 있다. 일례로, 스마트 안경(110)은 통신 장치를 이용하여 네트워크(150)에 연결되고, 관리 서버(130) 또는 단말기(140) 등과 통신할 수 있다. 작업 장치(120)에 통신 장치의 통신 속성 정보를 포함하는 QR 코드가 삽입될 수 있다. 통신 속성 정보는 통신 장치와 네트워크(150)의 연결 및 데이터 송수신과 관련된 정보이고, 예를 들어, WiFi 속성, BLE(Bluetooth Low Energy) 속성 등을 나타낼 수 있다. 이러한 QR 코드는 스마트 안경(110)을 통하여 스캔될 수 있다. QR 코드에 기초하여 작업 장치(120)가 식별될 수 있고, 식별된 작업 장치(120)에 대응되는 AR 이미지가 표시될 수 있다.The
관리 서버(130)는 스마트 안경(110)에 제공되는 정보, 이러한 정보를 생성하기 위한 정보 등을 관리하고 저장할 수 있다. 관리 서버(130)는 스마트 안경(110)이 표시하는 AR 이미지 정보를 관리 및 저장할 수 있다. 관리 서버(130)는 사전에 작업 장치(120)를 촬영한 타겟 이미지에 식별 정보(ID)를 부여하여 관리할 수 있다. 관리 서버(130)는 작업 장치(120)에 대응되는 통신 속성 정보에 대한 ID (통신 ID)를 부여하여 관리할 수 있다. 관리 서버(130)는 통신 ID, 통신 속성 정보, 및 AR 이미지 등을 스마트 안경(110)의 요청에 따라 용이하게 추출할 수 있도록 트리 구조 또는 리스트 형태 등으로 체계화할 수 있다. 관리 서버(130)는 타겟 이미지에 대응되는 AR 이미지를 생성하고, AR 이미지 중 메뉴 정보에 대응되는 ID (AR 메뉴 ID)를 부여하여 관리할 수 있다. 관리 서버(130)는 메뉴 ID 및 AR 이미지 등을 체계화할 수 있다.The
관리 서버(130)는 스마트 안경(110)의 요청에 따라 AR 이미지를 스마트 안경(110)에 제공할 수 있다. 관리 서버(130)는 스마트 안경(110)으로부터 센싱된 작업자의 동공 위치 및 자세 정보 등을 분석하고, AR 이미지가 스마트 안경(110)에 표시될 영역을 계산할 수 있다. 관리 서버(130)는 계산된 표시 영역에 AR 이미지를 표시할 수 있도록, AR 이미지를 스마트 안경(110)에 제공할 수 있다.The
단말기(140)는 네트워크(150)를 통하여 스마트 안경(110)과 통신할 수 있다. 스마트 안경(110)의 요청에 따라, 단말기(140)는 작업자의 작업 수행에 대한 지시를 위한 음성 정보 또는 시각 정보를 스마트 안경(110)으로 전송할 수 있다. 단말기(140)는 스마트폰, 데스크탑, 랩탑, 웨어러블 장치 등 스마트 안경(110) 또는 관리 서버(130)와 정보를 교환할 수 있는 다양한 전자 장치 중 하나일 수 있다. 일례로, 단말기(140)는 스마트 안경(110)을 착용한 작업자와 통화를 수행할 수 있도록 구성될 수 있다.The terminal 140 may communicate with the
네트워크(150)는 스마트 안경(110), 작업 장치(120), 관리 서버(130), 및 단말기(140) 사이의 데이터 통신이 수행되도록 구성될 수 있다. 스마트 안경(110), 작업 장치(120), 관리 서버(130), 및 단말기(140)는 네트워크(150)를 통하여 유선 또는 무선으로 데이터를 주고 받을 수 있다.The
도 2는 도 1의 스마트 안경의 예시적인 블록도이다. 도 2의 블록도는 AR 이미지를 표시하여, 작업자의 작업 수행을 제어하기 위한 예시적인 구성으로 이해될 것이고, 스마트 안경(110)의 구조가 이에 제한되지 않을 것이다. 도 2를 참조하면, 스마트 안경(110)은 통신 모듈(111), 프로세서(112), 관성 측정 장치(Inertial Measurement Unit; IMU)(113), 시운동 센서(114), 카메라(115), 디스플레이(116), 스피커(117), 마이크로폰(118), 메모리(119), 및 버스(BUS)를 포함할 수 있다.2 is an exemplary block diagram of the smart glasses of FIG. 1. The block diagram of FIG. 2 will be understood as an exemplary configuration for controlling an operator's task performance by displaying an AR image, and the structure of the
통신 모듈(111)은 도 1의 네트워크(150)를 통하여 작업 장치(120), 관리 서버(130), 및 단말기(140)와 유선 또는 무선 통신을 수행하도록 구성된다. 통신 모듈(111)은 트랜시버를 포함할 수 있다. 예를 들어, 통신 모듈(111)은 관리 서버(130)로부터 AR 이미지를 수신할 수 있다. 통신 모듈(111)은 스마트 안경(110)의 각 구성들로부터 생성된 정보를 작업 장치(120), 관리 서버(130), 및 단말기(140) 등으로 송신할 수 있다.The
프로세서(112)는 스마트 안경(110)의 중앙 처리 장치로의 기능을 수행할 수 있다. 프로세서(112)는 AR 이미지를 표시하거나, 작업자의 음성을 인식하기 위하여 요구되는 제어 동작 및 연산 동작을 수행할 수 있다. 예를 들어, 프로세서(112)의 제어에 따라, 카메라(115)는 작업 장치(120)에 대응되는 작업 이미지를 촬영할 수 있다. 프로세서(112)의 제어에 따라, 통신 모듈(111)은 AR 이미지를 수신할 수 있고, 디스플레이(116)는 AR 이미지를 표시할 수 있다. 프로세서(112)의 제어에 따라, 마이크로폰(118)은 음성을 수신할 수 있다. 프로세서(112)는 수신된 음성의 의미를 인식하여 스마트 안경(110)의 다음 동작을 제어할 수 있다. 프로세서(112)는 메모리(119)의 연산 공간을 활용하여 동작할 수 있고, 다양한 어플리케이션들을 실행할 수 있다.The
IMU(113)는 작업자의 자세 및 움직임에 대응되는 스마트 안경(110)의 속도, 방향, 중력, 및 가속도 등을 측정할 수 있다. 일례로, IMU(113)는 가속도계, 각속도계, 지자기계, 고도계, 및 자이로 센서 등을 포함할 수 있다. 일례로, IMU(113)는 측정된 센싱 정보를 포함하는 자세 정보가 생성될 수 있다. 자세 정보는 작업자 또는 스마트 안경(110)의 위치 및 방향 등을 추정하는데 사용될 수 있다. 그리고, 위치 및 방향의 추정 결과는 디스플레이(116)에서 AR 이미지가 표시될 표시 영역을 계산하는데 사용될 수 있다.The
시운동 센서(114)는 작업자의 동공의 움직임을 감지할 수 있다. 일례로, 시운동 센서(114)는 작업자와 마주하게 배치되어 동공 이미지를 검출하는 카메라를 포함할 수 있다. 시운동 센서(114)는 동공 이미지를 통하여, 동공의 움직임 및 위치를 검출할 수 있다. 검출된 동공 이미지에 기초하여, 동공의 중심 위치 값 (동공 위치 정보)이 계산될 수 있다. 동공의 중심 위치 값은 AR 이미지가 표시될 표시 영역을 계산하고, AR 이미지와 작업 이미지의 배치 관계 및 초점 등을 계산하는데 사용될 수 있다.The
카메라(115)는 작업자가 스마트 안경(110)을 통하여 주시하는 이미지를 검출할 수 있다. 작업자가 도 1의 작업 장치(120)를 주시할 때, 카메라(115)는 작업 장치(120)에 대응되는 작업 이미지를 검출할 수 있다. 작업 이미지는 관리 서버(130)에 전송될 수 있다. 작업 이미지가 사전에 저장된 타겟 이미지와 유사한 경우, 관리 서버(130)는 타겟 이미지에 대응되는 AR 이미지를 스마트 안경(110)으로 송신할 수 있다. 카메라(115)는 상술된 QR 코드를 식별하는데 사용될 수도 있다.The
디스플레이(116)는 스마트 안경(110)의 글라스에 포함되고, AR 이미지를 표시할 수 있다. 관리 서버(130)는 자세 정보 및 동공의 중심 위치값에 기초하여, AR 이미지의 크기, 형상, 및 표시 영역을 계산할 수 있고, 이러한 계산에 따라 결정된 AR 이미지를 스마트 안경(110)으로 송신할 수 있다. 디스플레이(116)는 작업자가 주시하는 작업 장치(120)와 중첩되지 않고, 시야에 방해를 받지 않는 범위의 크기를 갖는 AR 이미지를 렌더링할 수 있다.The
스피커(117)는 작업자에 청각 정보를 제공할 수 있다. 예를 들어, 작업자는 작업 수행을 위하여 도 1의 단말기(140)의 사용자와 통화를 수 있으며, 스피커(117)는 단말기(140)의 사용자의 음성을 출력하는데 사용될 수 있다. 이외에도, 스피커(117)는 작업자의 작업 수행을 위한 다양한 제어 정보를 소리로 출력할 수 있다.The
마이크로폰(118)은 작업자의 음성을 수신하고, 전기 신호로 변환할 수 있다. 핸즈프리 스마트 안경(110)을 구현하기 위하여, 스마트 안경(110)은 작업자의 음성 인식을 통하여 제어될 수 있다. 마이크로폰(118)으로부터 수신된 음성 정보는 스마트 안경(110)의 온/오프, 메뉴 정보의 표시, 스마트 안경(110)과 단말기(140)의 통신 등을 위하여 사용될 수 있다. 일례로, 음성 정보는 AR 이미지를 변경하거나, 통신 대상 및 통신 정보를 결정할 수 있다. 또한, 마이크로폰(118)은 단말기(140)의 사용자와의 통화에도 사용될 수 있다. The
메모리(119)는 프로세서(112)에 의하여 처리되거나 처리될 예정인 데이터 및 프로세스 코드들을 저장할 수 있다. 예를 들어, 메모리(119)는 AR 이미지, 자세 정보, 동공 위치 중심값, 작업 이미지, 음성 정보, 음성 인식을 위한 정보를 저장할 수 있다. 메모리(119)는 프로세서(112)의 연산을 위한 공간을 제공할 수 있고, 메모리(119)에 로딩된 펌웨어 등은 프로세서(112)에 의하여 실행될 수 있다.The
버스(BUS)는 스마트 안경(110)의 구성 요소들 사이의 통신 경로를 제공할 수 있다. 통신 모듈(111), 프로세서(112), IMU(113), 시운동 센서(114), 카메라(115), 디스플레이(116), 스피커(117), 마이크로폰(118), 및 메모리(119)는 버스(BUS)를 통해 서로 데이터를 교환할 수 있다. 버스(BUS)는 스마트 안경(110)에서 이용되는 다양한 유형의 통신 포맷을 지원하도록 구성될 수 있다.The bus BUS may provide a communication path between components of the
도 3은 도 1의 스마트 안경의 동작을 설명하기 위한 예시적인 도면이다. 도 3을 참조하면, 스마트 안경 시스템(200)은 스마트 안경(210) 및 작업 장치(220)를 포함한다. 스마트 안경(210) 및 작업 장치(220)는 각각 도 1의 스마트 안경(110) 및 작업 장치(120)에 대응된다. 도 3에 도시된 스마트 안경(210) 및 작업 장치(220)의 형상은 예시적인 것으로, 도 3에 제한되지 않는다.3 is an exemplary diagram for explaining the operation of the smart glasses of FIG. 1. Referring to FIG. 3, the
작업자가 스마트 안경(210)을 착용하고 작업 장치(220)를 주시하는 경우, 스마트 안경(210)에 포함된 카메라는 작업 장치(220)에 대응되는 작업 이미지(WI)를 획득할 수 있다. 작업 이미지(WI)는 도 1의 관리 서버(130)로 전송될 수 있고, 관리 서버(130)는 사전에 저장된 타겟 이미지와 작업 이미지(WI)의 유사성을 판단할 수 있다. 유사성이 기준 유사도보다 큰 경우, 관리 서버(130)는 AR 이미지를 스마트 안경(210)에 제공할 수 있다. 기준 유사도는 AR 이미지의 증강이 가능할 정도로 작업 장치(120)가 작업 이미지(WI)에 나타나는지 결정하는 기준 값으로 이해될 것이다. 관리 서버(130)는 스마트 안경(210)에 구비된 IMU로부터 검출된 자세 정보 및 시운동 센서로부터 검출된 동공 위치에 기초하여 AR 이미지를 작업 이미지(WI)에 정합할 수 있다.When the worker wears the
스마트 안경(210)은 글라스에 구비된 디스플레이를 통하여, 관리 서버(130)로부터 수신된 AR 이미지를 표시할 수 있다. 일례로, AR 이미지는 작업 장치(220)에 대한 식별 정보(ID), 콘텐츠 정보(AA), 및 메뉴 정보(MI)를 포함할 수 있다. 콘텐츠 정보(AA)는 작업 장치(220)에 대한 설명, 공정 순서, 또는 작업 내용과 관련된 정보를 포함할 수 있다. 작업자는 콘텐츠 정보(AA)를 통하여, 작업 수행의 편의를 제공받을 수 있다. 메뉴 정보(MI)는 작업자가 스마트 안경(210)의 동작 모드를 선택하기 위한 리스트 정보를 포함할 수 있다. 도 3에 도시된 AR 이미지의 형상은 예시적인 것으로, 도 3에 제한되지 않는다.The
도 4는 도 1의 스마트 안경 시스템의 동작을 위하여 요구되는 정보의 관리 방법에 대한 순서도이다. 정보의 관리 방법은 도 1의 스마트 안경 시스템(100)에 의하여 수행될 수 있다. 설명의 편의상 도 1의 도면 부호를 참조하여, 도 4가 설명된다.4 is a flowchart illustrating a method of managing information required for the operation of the smart glasses system of FIG. 1. The information management method may be performed by the
S110 단계에서, 작업 장치(120)에 대응되는 타겟 이미지가 추출되고 관리 서버(130)에 타겟 이미지가 제공될 수 있다. 타겟 이미지는 카메라 등을 이용하여, 작업 장치(120) 또는 작업 장치(120)에 포함된 통신 장치를 촬영하여 획득될 수 있다. 타겟 이미지는 AR 이미지를 증강하기 위하여 획득될 수 있다.In step S110, a target image corresponding to the working
S120 단계에서, 작업 장치(120)에 포함된 통신 장치의 통신 속성 정보가 생성될 수 있다. 통신 속성 정보는 통신 장치가 네트워크(150)에 접속 연결되고 데이터의 송수신을 가능케 하는 통신 종류와 같은 정보를 포함할 수 있다. 예를 들어, 통신 속성 정보는 WIFI 속성 정보 또는 BLE 속성 정보 등을 포함할 수 있다. 일례로, 통신 속성 정보는 통신 장치에서 분석되어 추출될 수 있다. 통신 속성 정보는 관리 서버(130)로 제공될 수 있다.In step S120, communication attribute information of the communication device included in the working
S125 단계에서, 관리 서버(130)는 S110 단계에서 추출된 타겟 이미지에 대응되는 AR 이미지를 생성할 수 있다. 도 3에서 설명한 바와 같이, AR 이미지는 작업 내용, 공정 내용 등을 포함하는 콘텐츠 정보, 작업 장치(120)의 식별 정보, 메뉴 정보 등을 포함할 수 있다. 이외에도, 관리 서버(130)는 3D 이미지 모델, 동영상, 대화형 이벤트 등 다양한 부가 정보를 포함하는 AR 이미지를 생성할 수 있다. 관리 서버(130)는 타겟 이미지에서 작업 장치(120)의 위치 및 크기 등을 고려하여, AR 이미지의 표시 영역을 결정할 수 있다. 생성된 AR 이미지는 관리 서버(130)에 저장될 수 있다. In step S125, the
이전에 생성된 AR 이미지가 관리 서버(130)에 존재하는 경우, 관리 서버(130)는 AR 이미지의 갱신 여부를 판단할 수 있다. 예를 들어, 작업 장치(120)의 배치 구조가 변경되는 경우, AR 이미지의 배치도 변경이 요구된다. 따라서, 관리 서버(130)는 지속적으로 타겟 이미지를 수신하고, 타겟 이미지에 기초하여 AR 이미지의 변경 여부를 판단할 수 있다.When the previously generated AR image exists in the
S130 단계에서, 관리 서버(130)는 타겟 이미지의 ID를 생성할 수 있다. 작업 장치(120)는 촬영 방향 또는 작업 순서에 따라 다른 형상의 복수의 타겟 이미지들이 제공될 수 있다. 또한, 작업 장치(120)가 복수로 제공될 수 있다. 관리 서버(130)는 타겟 이미지들 각각에 작업 ID를 생성하고, 생성된 작업 ID들과 통신 속성 정보를 그룹화할 수 있다.In step S130, the
S140 단계에서, 관리 서버(130)는 통신 ID를 생성할 수 있다. 통신 ID는 작업 장치(120)에 포함된 통신 장치에 대응된다. 또한, S145 단계에서, 관리 서버(130)는 AR 이미지의 메뉴 정보에 대응되는 AR 메뉴 ID를 생성할 수 있다. 생성된 통신 ID 및 AR 메뉴 ID는 관리 서버(130)에 등록될 수 있다.In step S140, the
S150 단계에서, 관리 서버(130)는 통신 ID, 통신 속성 정보, 및 AR 이미지를 체계화할 수 있다. 관리 서버(130)는 통신 장치의 통신 ID와 통신 속성 정보를 AR 이미지에 매칭시키고, 정렬시킬 수 있다. 관리 서버(130)는 통신 ID, 통신 속성 정보, 및 AR 이미지가 스마트 안경(110)의 요청 시에 용이하게 추출될 수 있도록 해당 정보를 체계화된 구조로 관리할 수 있다. 예를 들어, 관리 서버(130)는 트리 구조 또는 리스트 형태 등으로 통신 ID, 통신 속성 정보, 및 AR 이미지를 체계화할 수 있다.In step S150, the
S155 단계에서, 관리 서버(130)는 AR 메뉴 ID와 AR 이미지를 체계화할 수 있다. 관리 서버(130)는 AR 메뉴 ID를 AR 이미지에 매칭시키고 정렬시킬 수 있다. 관리 서버(130)는 스마트 안경(110)의 요청 시에 용이하게 추출될 수 있도록 AR 메뉴 ID와 AR 이미지를 체계화된 구조로 관리할 수 있다.In step S155, the
S160 단계에서, 관리 서버(130)는 AR 이미지를 데이터베이스화할 수 있다. 관리 서버(130)는 작업 장치(120)의 종류, 작업 순서, 또는 타겟 이미지 별로 AR 이미지를 데이터베이스에 관리 및 저장할 수 있다. 관리 서버(130)는 타겟 이미지, 타겟 이미지의 ID, AR 이미지의 내용 정보, 표시 영역 등을 저장하고, 이를 효율적으로 추출하기 위한 색인, 분류, 저장, 검색, 매칭, 갱신 등의 관리를 수행할 수 있다. AR 이미지는 관리 서버(130)에 의하여 압축 저장될 수 있고, 암호화될 수 있다.In step S160, the
S170 단계에서, 관리 서버(130)는 통신 ID 및 통신 속성 정보를 포함하는 QR 코드를 생성할 수 있다. 생성된 QR 코드는 작업 장치(120)에 삽입될 수 있다. QR 코드는 스마트 안경(110)으로 스캔될 수 있다. 스마트 안경(110)은 QR 코드에 기초하여 AR 이미지를 관리 서버(130)로부터 수신할 수 있다.In step S170, the
도 5는 도 1의 스마트 안경 시스템의 동작 방법에 대한 순서도이다. 해당 동작 방법은 도 1의 스마트 안경 시스템(100)에 의하여 수행될 수 있다. 설명의 편의상 도 1의 도면 부호를 참조하여, 도 5가 설명된다.5 is a flowchart of a method of operating the smart glasses system of FIG. 1. This operation method may be performed by the
S210 단계에서, 스마트 안경 시스템(100)은 작업 이미지에 대응되는 AR 이미지를 추출할 수 있다. 작업자는 스마트 안경(110)을 착용하고, 작업 장치(120)가 구비된 작업장에 입실할 수 있다. 작업자는 스마트 안경(110)을 통하여 작업 장치(120)를 주시할 수 있고, 스마트 안경(110)의 카메라는 작업 장치(120)에 대응되는 작업 이미지를 획득할 수 있다. 스마트 안경(110)의 시운동 센서는 작업자의 동공 이미지를 검출할 수 있다. 동공이 기준 시간보다 오래 고정된 경우, 작업 타겟이 포커싱되고 관리 서버(130)에 제공될 작업 이미지가 촬영될 수 있다. 관리 서버(130)는 도 4의 방법으로부터 획득된 타겟 이미지와 작업 이미지의 유사도를 판단할 수 있다. 이러한 유사도에 기초하여 관리 서버(130)는 작업 이미지와 유사한 타겟 이미지를 추출하고, 타겟 이미지에 대응되는 AR 이미지를 선택할 수 있다.In step S210, the
S230 단계에서, 스마트 안경(110)은 AR 이미지를 디스플레이를 통하여 표시할 수 있다. 스마트 안경(110)의 IMU는 자세 정보를 검출하고, 관리 서버(130)는 자세 정보 및 동공 위치에 기초하여 S210 단계로부터 추출된 AR 이미지를 작업 이미지에 정합할 수 있다. 자세 정보 및 동공 위치에 기초하여 AR 이미지의 표시 영역이 결정될 수 있다. AR 이미지는 스마트 안경(110)에 제공되고, 스마트 안경(110)의 디스플레이는 계산된 표시 영역에 AR 이미지를 렌더링할 수 있다. AR 이미지는 식별 정보, 콘텐츠 정보, 및 메뉴 정보를 포함할 수 있다. 작업자는 콘텐츠 정보에 기초하여 작업 수행 순서 등을 파악할 수 있고, 메뉴 정보에 기초하여 스마트 안경(110)의 동작 모드를 선택할 수 있다.In step S230, the
S250 단계에서, 스마트 안경(110)은 음성 인식 기반의 작업을 수행할 수 있다. 작업자는 AR 이미지에 기초하여 음성으로 스마트 안경(110)의 동작 모드를 선택할 수 있다. 스마트 안경(110)은 작업자의 음성 명령어를 인식하고, 음성 명령어에 기초하여 스마트 안경(110)의 온/오프, 메뉴 정보와 같은 AR 이미지의 표시 및 변경, 스마트 안경(110)과 단말기(140)의 통신 등의 동작을 수행할 수 있다. 스마트 안경(110)은 음성 명령어에 기초하여 통신 대상 (일례로, 통신을 수행할 단말기(140)의 종류) 및 통신 정보 (일례로, 송신되는 데이터 또는 메시지)를 결정할 수 있다.In step S250, the
S270 단계에서, 스마트 안경(110)은 음성 명령어에 기초하여 단말기(140)와의 통신 여부를 결정할 수 있다. 스마트 안경(110)은 작업 수행을 위하여 단말기(140)의 사용자와 작업 공정과 관련된 지시 또는 문의 사항 등에 대하여 의견을 교환할 수 있다. 예를 들어, 스마트 안경(110)이 "전화 통화"의 음성 명령어를 인식한 경우, S290 단계에서, 작업자는 단말기(140)의 사용자와 통화를 수행할 수 있다. 예를 들어, 스마트 안경(110)이 "미러링"의 음성 명령어를 인식한 경우, S290 단계에서, 스마트 안경(110)은 작업 이미지에 대응되는 미러링 정보를 단말기(140)에 송신할 수 있다. 이외에도, 스마트 안경(110)은 인식된 음성에 대응되는 텍스트 메시지를 단말기(140)에 송신할 수 있다. 스마트 안경 시스템(100)을 통하여, 작업자는 동료 또는 전문가에게 작업 지시 및 정보를 제공받을 수 있고, 의견 교환에 따라 작업을 수행할 수 있다. 스마트 안경(110)은 작업 결과를 관리 서버(130) 또는 단말기(140)로 전송할 수 있다.In step S270, the
도 6은 도 5의 S210 단계를 구체화한 순서도이다. 도 6의 순서도는 작업 이미지에 대응되는 AR 이미지를 추출하는 예시적인 방법 단계로 이해될 것이고, S210 단계가 도 6에 의하여 제한되지 않을 것이다. 설명의 편의상, 도 1의 도면 부호를 참조하여, 도 6이 설명된다.6 is a flowchart illustrating step S210 of FIG. 5. The flowchart of FIG. 6 will be understood as an exemplary method step of extracting an AR image corresponding to a working image, and step S210 will not be limited by FIG. 6. For convenience of explanation, FIG. 6 is described with reference to the reference numerals in FIG. 1.
S211 단계에서, 스마트 안경(110)은 시운동 센서를 통하여 동공 이미지를 검출한다. 스마트 안경(110)은 동공 이미지로부터 동공의 중심 위치값을 추출할 수 있다. 스마트 안경(110)은 동공의 중심 위치값을 기준으로 동공의 움직임을 추적할 수 있다.In step S211, the
S212 단계에서, 동공이 고정된 시간이 기준 시간보다 큰지 판단될 수 있다. 이러한 판단은 관리 서버(130)에서 수행되거나, 스마트 안경(110) 자체에서 수행될 수 있다. 기준 시간은 작업자가 작업 객체에 집중하는 것으로 판단되는 설정된 시간 길이로 이해될 것이다. 동공의 고정 시간이 기준 시간보다 길지 않은 경우, S211 단계로 진행되어 동공 이미지를 계속 검출할 수 있다. 동공의 고정 시간이 기준 시간보다 긴 경우, S213 단계가 진행된다.In step S212, it may be determined whether the time at which the pupil is fixed is greater than the reference time. This determination may be performed by the
S213 단계에서, 스마트 안경(110)의 카메라는 작업 타겟을 포커싱할 수 있다. 작업 타겟은 작업 장치(120) 및 작업물 등을 포함할 수 있다. 카메라는 미리 설정된 타겟 이미지에 대응되도록, 줌인 또는 줌 아웃을 통하여 작업 타겟의 초점을 맞출 수 있다. In step S213, the camera of the
S215 단계에서, 스마트 안경(110)은 작업 장치(120)에 삽입된 QR 코드를 감지할 수 있다. 스마트 안경(110)의 카메라는 QR 코드를 스캔할 수 있다. 상술한 바와 같이, QR 코드는 통신 장치의 통신 ID 및 통신 속성 정보를 포함할 수 있다. S216 단계에서, 스마트 안경(110)은 QR 코드가 스캔 가능한지 판단할 수 있다. QR 코드가 스캔 가능한 경우, QR 코드 분석을 위한 S217 단계가 진행된다. QR 코드가 스캔 가능하지 않은 경우, S218 단계가 진행된다.In step S215, the
S217 단계에서, QR 코드 정보와 통신 속성 정보 사이의 유사도가 판단될 수 있다. QR 코드의 스캔에 따른 QR 코드 정보는 관리 서버(130)로 제공될 수 있다. 관리 서버(130)는 QR 코드 정보에 포함된 통신 속성 정보와 관리되는 통신 ID별 통신 속성 정보를 비교할 수 있다. QR 코드 정보와 관리되는 통신 속성 정보 사이의 유사도가 기준 유사도보다 큰 경우, S221 단계가 진행되고, AR 이미지가 생성될 수 있다. 여기에서, 기준 유사도는 QR 코드 정보가 관리되는 통신 속성을 갖는 것으로 인정되는 기준 값으로 이해될 것이다. QR 코드 정보와 관리되는 통신 속성 정보 사이의 유사도가 기준 유사도보다 작은 경우, S218 단계가 진행된다. QR 코드를 이용함으로써, 스마트 안경(110)은 작업 장치(120)와 관련된 서비스를 간편하게 제공 받을 수 있다.In step S217, a degree of similarity between the QR code information and the communication attribute information may be determined. QR code information according to the scanning of the QR code may be provided to the
S218 단계에서, 스마트 안경(110)의 카메라는 작업 타겟을 촬영할 수 있다. S213 단계에서 맞춰진 초점을 기준으로, 카메라는 작업 타겟을 촬영할 수 있다. S219 단계에서, 카메라는 촬영에 의한 작업 이미지를 추출할 수 있다. 추출된 작업 이미지는 관리 서버(130)로 송신될 수 있다.In step S218, the camera of the
S220 단계에서, 작업 이미지와 타겟 이미지 사이의 유사도가 판단될 수 있다. 관리 서버(130)는 작업 이미지와 사전에 촬영되어 관리되는 작업 장치(120)에 대한 타겟 이미지를 비교할 수 있다. 작업 이미지와 타겟 이미지 사이의 유사도가 기준 유사도보다 큰 경우, S221 단계가 진행된다. 여기에서, 기준 유사도는 AR 이미지의 증강이 가능할 정도로 작업 장치(120)가 작업 이미지에 나타나는지 결정하는 기준 값으로 이해될 것이다. 작업 이미지와 타겟 이미지 사이의 유사도가 기준 유사도보다 작은 경우, S222 단계가 진행된다. S222 단계에서, 스마트 안경(110)은 작업 장치(120)가 검출되지 않았다는 의미의 "미검출"을 표시할 수 있고, S211 내지 S220 단계가 반복될 수 있다.In step S220, a degree of similarity between the work image and the target image may be determined. The
S221 단계에서, 관리 서버(130)는 타겟 이미지의 ID를 검출할 수 있다. S220 단계로부터, 작업 장치(120)에 대응되는 타겟 이미지의 ID가 추출될 수 있다. 추출된 ID에 기초하여 타겟 이미지에 대응되는 AR 이미지가 추출될 수 있다. AR 이미지는 작업 이미지와 정합되도록 변경되어 스마트 안경(110)에 제공될 수 있다.In step S221, the
도 7은 도 5의 S230 단계를 구체화한 순서도이다. 도 7의 순서도는 AR 이미지를 표시하는 예시적인 방법 단계로 이해될 것이고, S230 단계가 도 7에 의하여 제한되지 않을 것이다. 설명의 편의상, 도 1의 도면 부호를 참조하여, 도 7이 설명된다.7 is a flowchart illustrating step S230 of FIG. 5. The flowchart of FIG. 7 will be understood as an exemplary method step for displaying an AR image, and step S230 will not be limited by FIG. 7. For convenience of explanation, FIG. 7 is described with reference to the reference numerals in FIG. 1.
S231 단계에서, 스마트 안경(110)은 IMU를 통하여 자세 정보를 생성할 수 있다. IMU는 작업자의 위치, 방향, 및 움직임에 대응되는 스마트 안경(110)의 위치, 방향, 및 움직임을 감지할 수 있다. 자세 정보는 IMU로부터 감지된 측정 값들을 포함할 수 있다.In step S231, the
S232 단계에서, 관리 서버(130)는 자세 정보에 기초하여 작업자 또는 스마트 안경(110)의 위치 정보 및 방향 정보를 계산할 수 있다. 관리 서버(130)는 자세 정보를 분석하여 작업자가 주시하는 시선 방향 및 현재의 위치를 추정할 수 있다.In step S232, the
S233 단계에서, 관리 서버(130)는 위치 및 방향 정보에 기초하여 초기 캘리브레이션을 설정할 수 있다. 초기 캘리브레이션은 스마트 안경(110)의 위치 및 방향에 따른 초기 기준 값으로 이해될 것이다. 초기 캘리브레이션은 스마트 안경(110)의 움직임을 추적하기 위한 기준으로 사용될 수 있다.In step S233, the
S234 단계에서, 작업자의 움직임에 따른 스마트 안경(110)의 자세 변화가 추적될 수 있다. 스마트 안경(110)은 IMU를 통하여 스마트 안경(110)의 자세 정보를 추출할 수 있다. 이러한 자세 정보는 스마트 안경(110)의 움직임이 반영될 수 있다. 관리 서버(130)는 자세 정보에 기초하여 스마트 안경(110)의 변화된 위치 정보 및 방향 정보를 계산할 수 있다. 관리 서버(130)는 위치 및 방향의 변화를 계산함으로써, 스마트 안경(110)의 자세 변화를 추적할 수 있다. 관리 서버(130)는 자세 변화의 추적을 통하여 스마트 안경(110)의 중심 위치 값을 계산할 수 있다. 관리 서버(130)는 초기 캘리브레이션을 기준으로, 변화된 스마트 안경(110)의 중심 위치 좌표를 계산할 수 있다. 스마트 안경(110)의 중심 위치 값은 예를 들어, 디스플레이의 표시 영역의 중심 위치 등과 같이, 특정된 스마트 안경(110)의 위치 좌표 값일 수 있다. In step S234, the posture change of the
S235 단계에서, 관리 서버(130)는 AR 이미지와 표시 영역을 정합할 수 있다. 이를 위하여, 관리 서버(130)는 S234 단계에서 계산된 스마트 안경(110)의 중심 위치 값과 동공의 중심 위치 값을 동기화할 수 있다. 동공의 중심 위치 값은 도 5의 S210 단계 또는 도 6의 S211 단계 등에서 계산된다. 스마트 안경(110)의 중심 위치 값과 동공의 중심 위치 값을 통하여, 작업자의 주시 방향 및 시야가 추정될 수 있다. 관리 서버(130)는 계산된 작업자의 시야에 기초하여 작업 장치(120)를 가리지 않는 AR 이미지의 크기 및 위치를 계산할 수 있다. 관리 서버(130)는 AR 이미지가 표시되는 영역을 결정할 수 있다.In step S235, the
S236 단계에서, 관리 서버(130)는 정합된 AR 이미지를 스마트 안경(110)에 송신하고, 스마트 안경(110)은 정합된 AR 이미지를 표시할 수 있다. AR 이미지는 반투명 형태로 렌더링 될 수 있다. 스마트 안경 시스템(100)은 작업자의 움직임을 실시간으로 감지하여, AR 이미지의 적합한 정합 위치를 계산하고, AR 이미지를 작업 이미지에 증강할 수 있다.In step S236, the
도 8은 도 5의 S250 단계를 구체화한 순서도이다. 도 8의 순서도는 음성 인식 기반의 작업을 수행하는 예시적인 방법 단계로 이해될 것이고, S250 단계가 도 8에 의하여 제한되지 않을 것이다. 설명의 편의상, 도 1의 도면 부호를 참조하여, 도 8이 설명된다.FIG. 8 is a flow chart illustrating step S250 of FIG. 5. The flowchart of FIG. 8 will be understood as an exemplary method step for performing a voice recognition-based operation, and step S250 will not be limited by FIG. 8. For convenience of explanation, FIG. 8 is described with reference to the reference numerals in FIG. 1.
S251 단계에서, 작업자는 스마트 안경(110)에 제1 음성 명령어를 입력할 수 있다. 작업자는 스마트 안경(110)에 표시된 AR 이미지에 기초하여, 입력될 제1 음성 명령어의 종류를 인식할 수 있다. 예를 들어, 제1 음성 명령어의 종류는 "메뉴 요청", "취소", "전화 통화", 및 "종료"를 포함할 수 있고, AR 이미지로 표시될 수 있다.In step S251, the operator may input a first voice command to the
S252 단계에서, 스마트 안경(110)은 제1 음성 명령어를 해석하여 인식 가능한지 판단할 수 있다. 제1 음성 명령어가 불명확하여 인식되지 않는 경우, S251 단계로 돌아갈 수 있다. 작업자에게 추가적인 음성 명령어를 요구하기 위하여, 스마트 안경(110)은 재입력을 요구하는 메시지를 표시할 수 있다. 제1 음성 명령어가 인식 가능한 경우, S253 단계가 진행된다.In step S252, the
S253 단계에서, 스마트 안경(110)은 제1 음성 명령어가 "메뉴 요청"에 대응되는지 판단할 수 있다. 제1 음성 명령어가 "메뉴 요청"에 대응되는 경우, 스마트 안경(110)은 AR 이미지에 메뉴 정보를 포함하는 메뉴 이미지를 표시하여 작업자에게 동작 모드의 선택을 유도할 수 있다. 이러한 동작을 위한 S258 내지 S263단계가 진행된다. 제1 음성 명령어가 "메뉴 요청"에 대응되지 않는 경우, S254 단계가 진행된다. In step S253, the
S254 단계에서, 스마트 안경(110)은 제1 음성 명령어가 "취소"에 대응되는지 판단할 수 있다. 제1 음성 명령어가 "취소"에 대응되는 경우, 도 5의 S210 단계로 돌아가고, 스마트 안경 시스템(100)은 작업자의 시야에 따른 AR 이미지를 생성하기 위한 동작을 수행할 수 있다. 제1 음성 명령어가 "취소"에 대응되지 않는 경우, S255 단계가 진행된다.In step S254, the
S255 단계에서, 스마트 안경(110)은 제1 음성 명령어가 "전화 통화"에 대응되는지 판단할 수 있다. 제1 음성 명령어가 "전화 통화"에 대응되는 경우, S256 단계가 진행된다. S256 단계에서, 작업자는 단말기(140)의 사용자와 전화 통화를 수행할 수 있다. 작업자는 통화를 통하여, 작업 장치(120)의 작업 제어를 위한 지시를 받거나 의견을 교환할 수 있다. 통화 종료 후, 다시 S251 단계가 진행되고, 제1 음성 명령어의 입력을 요구하는 메시지가 표시될 수 있다. 제1 음성 명령어가 "전화 통화"에 대응되지 않는 경우, S257 단계가 진행된다.In step S255, the
S257 단계에서, 스마트 안경(110)은 제1 음성 명령어가 "종료"에 대응되는지 판단할 수 있다. 제1 음성 명령어가 "종료"에 대응되는 경우, 스마트 안경(110)은 오프될 수 있다. 제1 음성 명령어가 "종료"에 대응되지 않는 경우, 스마트 안경(110)은 제1 음성 명령어가 선택 가능한 동작 모드를 지시하지 않는다고 판단할 수 있다. 따라서, 다시 S251 단계가 진행되고, 제1 음성 명령어의 입력을 요구하는 메시지가 표시될 수 있다.In step S257, the
S258 단계에서, 스마트 안경(110)은 "메뉴 요청"에 대응되는 제1 음성 명령어에 기초하여 메뉴 정보를 포함하는 메뉴 이미지를 표시할 수 있다. 메뉴 이미지는 제2 음성 명령어의 종류를 표시할 수 있다. 예를 들어, 제2 음성 명령어의 종류는 "다음", "선택", 및 "이전"을 포함할 수 있고, 메뉴 이미지로 표시될 수 있다. 상술된 AR 이미지와 같이, 메뉴 이미지는 스마트 안경(110)의 자세 정보 및 동공의 위치에 기초하여 표시 영역에 정합될 수 있다.In step S258, the
S259 단계에서, 작업자는 스마트 안경(110)에 제2 음성 명령어를 입력할 수 있다. 작업자는 메뉴 이미지에 기초하여 제2 음성 명령어의 종류를 인식할 수 있다. S260 단계에서, 스마트 안경(110)은 제2 음성 명령어가 인식 가능한지 판단할 수 있다. 제2 음성 명령어가 인식되지 않는 경우, S259 단계로 돌아갈 수 있다. 작업자에게 추가적인 음성 명령어를 요구하기 위하여, 스마트 안경(110)은 재입력을 요구하는 메시지를 표시할 수 있다. 제2 음성 명령어가 인식 가능한 경우, S261 단계가 진행된다.In step S259, the worker may input a second voice command to the
S261 단계에서, 스마트 안경(110)은 제2 음성 명령어가 "다음"에 대응되는지 판단할 수 있다. 제2 음성 명령어가 "다음"에 대응되는 경우, 스마트 안경(110)은 관리 서버(130)로부터 다음 메뉴 이미지를 수신하여 표시할 수 있다. 메뉴 이미지들은 관리 서버(130)에 순차적으로 정렬되어 관리될 수 있다. 예를 들어, 메뉴 이미지들은 작업 수행 순서에 따라 정렬될 수 있다. 작업자는 현재 작업 단계를 수행한 이후에 "다음"을 선택함으로써, 다음 작업 단계를 표시하도록 스마트 안경(110)을 제어할 수 있다. 다음 메뉴 이미지는 스마트 안경(110)의 자세 정보 및 동공의 위치에 기초하여 표시 영역에 정합될 수 있다. 제2 음성 명령어가 "다음"에 대응되지 않는 경우, S262 단계가 진행된다.In step S261, the
S262 단계에서, 스마트 안경(110)은 제2 음성 명령어가 "선택"에 대응되는지 판단할 수 있다. 제2 음성 명령어가 "선택"에 대응되는 경우, 도 5의 S270 단계가 진행된다. 즉, "선택"에 대응되는 동작 모드는 단말기(140)와 같은 전자 장치와의 통신이 요구되는 동작을 포함할 수 있다. 제2 음성 명령어가 "선택"에 대응되지 않는 경우, S263 단계가 진행된다.In step S262, the
S263 단계에서, 스마트 안경(110)은 제2 음성 명령어가 "이전"에 대응되는지 판단할 수 있다. 제2 음성 명령어가 "이전"에 대응되는 경우, 스마트 안경(110)은 관리 서버(130)로부터 이전 메뉴 이미지를 수신하여 표시할 수 있다. 작업자는 "이전"을 선택함으로써, 이전 작업 단계를 표시하도록 스마트 안경(110)을 제어할 수 있다. 이전 메뉴 이미지는 스마트 안경(110)의 자세 정보 및 동공의 위치에 기초하여 표시 영역에 정합될 수 있다. 제2 음성 명령어가 "이전"에 대응되지 않는 경우, 제2 음성 명령어가 선택 가능한 동작 모드를 지시하지 않는다고 판단할 수 있다. 따라서, 다시 S258 단계가 진행되고, 제2 음성 명령어의 입력을 요구하는 메시지가 표시될 수 있다.In step S263, the
도 9는 도 5의 S290 단계를 구체화한 순서도이다. 도 9의 순서도는 선택된 통신 작업을 수행하는 예시적인 방법 단계로 이해될 것이고, S290 단계가 도 9에 의하여 제한되지 않을 것이다. 설명의 편의상, 도 1의 도면 부호를 참조하여, 도 9가 설명된다. 도 8의 S262 단계에서, 제2 음성 명령어가 "선택"에 대응되는 경우, 도 9의 단계들이 진행된다. 스마트 안경(110)은 선택된 메뉴 정보를 판단하고, 선택된 메뉴 정보에 대응되는 통신 작업을 수행할 수 있다.9 is a flowchart illustrating step S290 of FIG. 5. The flowchart of FIG. 9 will be understood as an exemplary method step for performing the selected communication task, and step S290 will not be limited by FIG. 9. For convenience of explanation, FIG. 9 is described with reference to the reference numerals in FIG. 1. In step S262 of FIG. 8, if the second voice command corresponds to "select", steps of FIG. 9 are performed. The
S291 단계에서, 스마트 안경(110)은 선택된 메뉴 정보가 "수행 완료"에 대응되는지 판단할 수 있다. "수행 완료"에 대응되는 경우, S292 단계가 진행되며, "수행 완료" 메시지를 단말기(140) 또는 관리 서버(130)에 전송할 수 있다. "수행 완료"는 작업자가 현재 작업 단계를 완료한 경우 선택될 수 있다. 스마트 안경(110)은 송신자 목록에서 송신자를 선택하고, 수신자 목록에서 수신자를 선택하여 메시지를 해당 수신자에 전송할 수 있다. 메시지가 전송된 후, S295 단계가 진행되며, 메뉴 이미지가 디스플레이에 표시되지 않도록 제거될 수 있다. 이후, 스마트 안경(110)은 도 5의 S210 단계로 진행하고, 스마트 안경 시스템(100)은 작업자의 시야에 따른 AR 이미지를 생성하기 위한 동작을 수행할 수 있다. 선택된 메뉴 정보가 "수행 완료"에 대응되지 않는 경우, S293 단계가 진행될 수 있다.In step S291, the
S293 단계에서, 스마트 안경(110)은 선택된 메뉴 정보가 "수신 확인"에 대응되는지 판단할 수 있다. "수신 확인"에 대응되는 경우, S294 단계가 진행되며, "수신 확인" 메시지를 단말기(140) 또는 관리 서버(130)에 전송할 수 있다. "수신 확인"은 작업자가 단말기(140) 등으로부터 지시 정보 또는 작업 제어와 관련된 정보를 받은 경우 선택될 수 있다. 스마트 안경(110)은 송신자 목록에서 송신자를 선택하고, 수신자 목록에서 수신자를 선택하여 메시지를 해당 수신자에 전송할 수 있다. 메시지가 전송된 후, S295 단계가 진행되며, 메뉴 이미지가 디스플레이에 표시되지 않도록 제거될 수 있다. 이후, 스마트 안경(110)은 도 5의 S210 단계로 진행하고, 스마트 안경 시스템(100)은 작업자의 시야에 따른 AR 이미지를 생성하기 위한 동작을 수행할 수 있다. 선택된 메뉴 정보가 "수신 확인"에 대응되지 않는 경우, S296 단계가 진행될 수 있다.In step S293, the
S296 단계에서, 스마트 안경(110)은 선택된 메뉴 정보가 "미러링"에 대응되는지 판단할 수 있다. "미러링"에 대응되는 경우, S297 단계가 진행되며, 스마트 안경(110)은 미러링 정보를 단말기(140)로 제공할 수 있다. 일례로, 단말기(140)는 미러링 정보에 기초하여, 작업 장치(120)의 작업 이미지를 표시할 수 있다. 스마트 안경(110)은 송신자 목록에서 송신자를 선택하고, 수신자 목록에서 수신자를 선택하여 미러링 정보를 해당 수신자에 전송할 수 있다. 이후, 스마트 안경(110)은 도 5의 S250 단계로 진행하고, 음성 인식 기반의 작업이 수행될 수 있다.In step S296, the
위에서 설명한 내용은 본 발명을 실시하기 위한 구체적인 예들이다. 본 발명에는 위에서 설명한 실시 예들뿐만 아니라, 단순하게 설계 변경하거나 용이하게 변경할 수 있는 실시 예들도 포함될 것이다. 또한, 본 발명에는 상술한 실시 예들을 이용하여 앞으로 용이하게 변형하여 실시할 수 있는 기술들도 포함될 것이다.The contents described above are specific examples for carrying out the present invention. The present invention will include not only the embodiments described above, but also embodiments that can be changed in design or easily changed. In addition, the present invention will also include techniques that can be easily modified and implemented in the future using the above-described embodiments.
100, 200: 스마트 안경 시스템
110, 210: 스마트 안경
120, 220: 작업 장치
130: 관리 서버
140: 단말기
100, 200: smart glasses system
110, 210: smart glasses
120, 220: working device
130: management server
140: terminal
Claims (1)
상기 작업 이미지, 상기 스마트 안경의 위치 및 방향, 및 상기 스마트 안경을 착용한 작업자의 동공 위치에 기초하여 상기 증강 현실 이미지를 생성하는 관리 서버를 포함하되,
상기 스마트 안경은 음성 정보에 기초하여 상기 증강 현실 이미지를 변경하고 통신 대상 및 통신 정보를 결정하는 스마트 안경 시스템.
Smart glasses including a camera for photographing a work device to obtain a work image, and a display for displaying an augmented reality image corresponding to the work image; And
A management server for generating the augmented reality image based on the work image, the position and direction of the smart glasses, and the pupil position of the worker wearing the smart glasses,
The smart glasses system for changing the augmented reality image based on voice information and determining a communication target and communication information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190045856A KR20200122754A (en) | 2019-04-19 | 2019-04-19 | Smart glass system for providing augmented reality image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190045856A KR20200122754A (en) | 2019-04-19 | 2019-04-19 | Smart glass system for providing augmented reality image |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20200122754A true KR20200122754A (en) | 2020-10-28 |
Family
ID=73018194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190045856A KR20200122754A (en) | 2019-04-19 | 2019-04-19 | Smart glass system for providing augmented reality image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20200122754A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102294397B1 (en) | 2020-12-03 | 2021-08-26 | 주식회사 엔씨월드 | Smart wearable system using augmented reality |
KR102377988B1 (en) * | 2021-09-30 | 2022-03-24 | 주식회사 아진엑스텍 | Method and device for assisting collaboration with robot |
-
2019
- 2019-04-19 KR KR1020190045856A patent/KR20200122754A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102294397B1 (en) | 2020-12-03 | 2021-08-26 | 주식회사 엔씨월드 | Smart wearable system using augmented reality |
KR102377988B1 (en) * | 2021-09-30 | 2022-03-24 | 주식회사 아진엑스텍 | Method and device for assisting collaboration with robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11127210B2 (en) | Touch and social cues as inputs into a computer | |
KR20220027119A (en) | System and method for monitoring field based augmented reality using digital twin | |
US9639988B2 (en) | Information processing apparatus and computer program product for processing a virtual object | |
US8225226B2 (en) | Virtual control panel | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
US7454216B2 (en) | in-facility information provision system and in-facility information provision method | |
KR102583682B1 (en) | Electronic device and method for dispalying sharing information based on augmented reality | |
KR102499354B1 (en) | Electronic apparatus for providing second content associated with first content displayed through display according to motion of external object, and operating method thereof | |
KR20210086072A (en) | System and method for real-time monitoring field work | |
US11532227B2 (en) | Discovery of and connection to remote devices | |
KR20190100133A (en) | Apparatus and method for providing augmented reality contents | |
KR20200122754A (en) | Smart glass system for providing augmented reality image | |
KR102259350B1 (en) | Remote support system based on augmented reality and operation method thereof | |
US11137600B2 (en) | Display device, display control method, and display system | |
US20230089061A1 (en) | Space recognition system, space recognition method, information terminal, and server apparatus | |
US20230124173A1 (en) | Information terminal device and application operation mode control method of same | |
KR20190048810A (en) | Apparatus and method for providing augmented reality contents | |
KR20220026114A (en) | Electronic device, and method for identifing realted external electronic device in augmented reality of electronic device | |
JP2016192096A (en) | Object recognition and selection device, object recognition and selection method, and program | |
WO2022244052A1 (en) | Head-mounted display device | |
JP2018181339A (en) | System, and information processing method and program | |
US12039859B2 (en) | Discovery of and connection to remote devices | |
US20240244173A1 (en) | Head mounted display | |
JP7187520B2 (en) | Glasses-type device, management server and program | |
KR102245760B1 (en) | Table top devices and table top systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |