KR20160138806A - 글래스타입 단말기 및 그 제어방법 - Google Patents

글래스타입 단말기 및 그 제어방법 Download PDF

Info

Publication number
KR20160138806A
KR20160138806A KR1020150073139A KR20150073139A KR20160138806A KR 20160138806 A KR20160138806 A KR 20160138806A KR 1020150073139 A KR1020150073139 A KR 1020150073139A KR 20150073139 A KR20150073139 A KR 20150073139A KR 20160138806 A KR20160138806 A KR 20160138806A
Authority
KR
South Korea
Prior art keywords
image
gesture
drones
glass
time information
Prior art date
Application number
KR1020150073139A
Other languages
English (en)
Inventor
권초희
한동수
임국찬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020150073139A priority Critical patent/KR20160138806A/ko
Priority to US14/951,318 priority patent/US10061391B2/en
Priority to EP16000093.1A priority patent/EP3098693B1/en
Priority to CN201610124368.8A priority patent/CN106210253B/zh
Publication of KR20160138806A publication Critical patent/KR20160138806A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • H04M1/72533
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72415User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories for remote control of appliances
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)

Abstract

본 발명은 드론(Drone)과 통신 가능한 글래스타입 단말기에 관한 것이다. 본 발명과 관련된 글래스타입 단말기는, 드론과 통신을 수행하는 통신부, 본체에 구비되며, 상기 드론으로부터 전송되는 시각정보를 출력하는 디스플레이부, 적어도 하나의 렌즈로 이루어지며, 상기 본체를 벗어난 가상영역에 상기 시각정보의 이미지를 형성하는 광학부, 사용자 제스처를 감지하는 감지부 및 상기 이미지에서 감지되는 사용자 제스처에 근거하여, 상기 드론을 제어하는 제어부를 포함한다.

Description

글래스타입 단말기 및 그 제어방법 {GLASS TYPE TERMINAL AND METHOD FOR CONTROLLING THE SAME}
본 발명은 드론(Drone)과 통신 가능한 글래스타입 단말기에 관한 것이다.
단말기(terminal)는 이동 가능 여부에 따라 글래스타입 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시 글래스타입 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
최근 사람의 신체의 일부에 장착가능 하도록 형성되는 웨어러블형(wearable-type) 글래스타입 단말기가 개발되고 있다. 사용자의 두부에 장착되는 글래스 타입(glass type) 단말기는 헤드 마운티드 디스플레이(HMD)에 해당될 수 있다. HMD와 같은 글래스 타입(glass type) 단말기에 구비된 디스플레이부는 단순한 영상출력 기능을 넘어 증강 현실기술, N스크린 기술 등과 조합되어 사용자에게 다양한 편의를 제공할 수 있다.
또한, 최근에는 무인항공장치(이하, '드론(Drone)'이라 함)에 대한 개발이 활발히 진행되고 있다. 드론은 활주로를 사용하지 않는 항공기로서, 상대적으로 가볍게 형성되는 소형의 본체에 사물의 운송, 이미지의 촬영, 저고도 정착수색 등 다양한 기능이 탑재될 수 있는 비행체이다.
이러한 드론은 최근 다양한 분야에 적용되고 있다. 드론은 원격으로 제어가 가능하며, 원하는 구간에서 기능을 수행하도록 제어될 수 있다.
글래스타입 단말기와 드론에 대한 개발이 활발히 진행됨에 따라, 최근에는 글래스타입 단말기를 이용하여 드론을 제어하는 방법에 대한 개발이 활발히 진행되고 있다.
본 발명의 일 목적은 최적화된 방식으로 드론을 제어하는 것이 가능한 글래스타입 단말기 및 그 제어방법을 제공하는 데에 있다.
본 발명의 다른 일 목적은 드론으로부터 전송되는 시각정보의 허상 이미지를 이용하여 드론을 제어하는 것을 가능한 글래스타입 단말기 및 그 제어방법을 제공하는 데에 있다.
본 발명의 또 다른 일 목적은 드론으로부터 전송되는 시각정보와 글래스타입 단말기로 수신되는 프리뷰 영상을 최적화된 방법으로 캡쳐하는 것이 가능한 글래스타입 단말기 및 그 제어방법을 제공하는 데에 있다.
본 발명의 일 실시 예에 따른 글래스타입 단말기는, 드론과 통신을 수행하는 통신부, 본체에 구비되며, 상기 드론으로부터 전송되는 시각정보를 출력하는 디스플레이부, 적어도 하나의 렌즈로 이루어지며, 상기 본체를 벗어난 가상영역에 상기 시각정보의 이미지를 형성하는 광학부, 사용자 제스처를 감지하는 감지부 및 상기 이미지에서 감지되는 사용자 제스처에 근거하여, 상기 드론을 제어하는 제어부를 포함한다.
실시 예에 있어서, 상기 제어부는, 상기 가상영역에 형성된 상기 이미지에 기 설정된 사용자 제스처가 가해지는 것에 근거하여, 상기 드론의 움직임 및 상기 드론에 구비된 카메라 중 적어도 하나를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 이미지에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론의 움직임을 제어하고, 상기 이미지에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제1 사용자 제스처는, 상기 이미지를 잡는 제스처에 연속하여 가해지는 제스처이고, 상기 제어부는, 상기 연속하여 가해지는 제스처에 대응하여 상기 드론이 움직여지도록 상기 드론을 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 드론은, 상기 이미지를 잡는 제스처의 방식에 따라 서로 다른 방식으로 움직여지는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 제1 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 상기 드론을 이동시키고, 상기 제1 방식과 다른 제2 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 상기 드론을 회전시키는 것을 특징으로 한다.
실시 예에 있어서, 상기 이미지는, 제1 표시방식으로 표시되는 상태에서, 상기 제1 사용자 제스처가 가해지는 것에 응답하여 상기 제1 표시방식과 다른 제2 표시방식으로 표시되는 것을 특징으로 한다.
실시 예에 있어서, 상기 제2 표시방식으로 표시되는 이미지는, 상기 제1 사용자 제스처가 해제되는 것에 근거하여 상기 제1 표시방식으로 복원되는 것을 특징으로 한다.
실시 예에 있어서, 상기 제2 사용자 제스처는, 상기 이미지에 가해지는 핀치-인 제스처 및 핀치-아웃 제스처 중 적어도 하나이고, 상기 제어부는, 상기 핀치-인 제스처 및 핀치-아웃 제스처 중 어느 하나가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라가 줌-아웃 기능 및 줌-인 기능 중 어느 하나의 기능을 수행하도록 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 핀치-아웃 제스처가 상기 이미지를 벗어나도록 가해지는 경우, 상기 드론을 이동시키는 것을 특징으로 한다.
실시 예에 있어서, 카메라를 더 포함하고, 상기 디스플레이부는, 상기 카메라를 통해 수신되는 프리뷰 영상을 출력하며, 상기 광학부는, 상기 프리뷰 영상의 이미지를 상기 시각정보의 이미지와 함께 형성하는 것을 특징으로 한다.
실시 예에 있어서, 상기 프리뷰 영상의 이미지와 상기 시각정보의 이미지는 서로 이격되어 형성되는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지 중 적어도 하나의 이미지에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 상기 적어도 하나의 이미지를 이동시키는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어부는, 상기 이동에 의해 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지가 서로 접촉되면, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지를 캡쳐하는 것을 특징으로 한다.
본 발명의 일 실시 예에 따른 글래스타입 단말기의 제어방법은, 드론으로부터 전송되는 시각정보의 이미지를 형성하는 단계 및 상기 이미지에서 감지되는 사용자 제스처에 근거하여, 상기 드론을 제어하는 단계를 포함하고, 상기 이미지는 상기 본체를 벗어난 가상영역에 형성되며, 상기 제어하는 단계는, 상기 가상영역에 형성된 상기 이미지에 기 설정된 사용자 제스처가 가해지는 것에 근거하여, 상기 드론의 움직임 및 상기 드론에 구비된 카메라 중 적어도 하나를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제어하는 단계는, 상기 이미지에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론의 움직임을 제어하고, 상기 이미지에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제1 사용자 제스처는, 상기 이미지를 잡는 제스처에 연속하여 가해지는 제스처이고, 상기 제어하는 단계는, 상기 연속하여 가해지는 제스처에 대응하여 상기 드론이 움직여지도록 상기 드론을 제어하는 것을 특징으로 한다.
실시 예에 있어서, 상기 제2 사용자 제스처는, 상기 이미지에 가해지는 핀치-인 제스처 및 핀치-아웃 제스처 중 적어도 하나이고, 상기 제어하는 단계는, 상기 핀치-인 제스처 및 핀치-아웃 제스처 중 어느 하나가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라가 줌-아웃 기능 및 줌-인 기능 중 어느 하나의 기능을 수행하도록 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 한다.
실시 예에 있어서, 글래스타입 단말기에 구비된 카메라를 통해 수신되는 프리뷰 영상의 이미지를 상기 시각정보의 이미지와 함께 형성하는 단계를 더 포함하고, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지 중 적어도 하나의 이미지는 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 이동되는 것을 특징으로 한다.
실시 예에 있어서, 상기 이동에 의해 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지가 서로 접촉되면, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지를 캡쳐하는 단계를 더 포함한다.
본 발명에 따르면, 본 발명은 글래스타입 단말기가 드론으로부터 전송되는 시각정보의 이미지에 대한 사용자 제스처에 근거하여 드론의 움직임 또는 드론에 구비된 카메라를 제어할 수 있다. 따라서, 본 발명은 사용자가 보다 직관적으로 드론을 제어할 수 있는 최적화된 UI/UX를 제공할 수 있다.
또한, 본 발명은 드론으로부터 전송되는 시각정보의 이미지가 가상영역에 형성된 상태에서, 상기 가상영역에 형성된 이미지를 잡는 제스처 및 이에 연속하는 제스처 중 적어도 하나에 근거하여 드론을 제어할 수 있다. 이에 따라, 본 발명은 사용자가 드론으로부터 전송되는 시각정보의 이미지를 보면서, 상기 이미지를 핸들 또는 조이스틱 처럼 조종하는 제스처를 이용하여 드론을 제어할 수 있는 새로운 사용자 인터페이스를 제공할 수 있다.
또한, 본 발명은 드론으로부터 수신되는 시각정보의 이미지 및 글래스타입 단말기에 구비된 카메라를 통해 수신되는 프리뷰 영상의 이미지에 기 설정된 방식의 제스처를 취함으로써, 상기 시각정보 및 상기 프리뷰 영상을 캡쳐할 수 있다. 따라서, 본 발명은 시각정보의 이미지 및 프리뷰 영상의 이미지 중 적어도 하나를 통해 상기 시각정보 및 프리뷰 영상 중 적어도 하나를 보다 편리하고 직관적으로 캡쳐할 수 있는 최적화된 UI/UX를 제공할 수 있다.
도 1은 본 발명과 관련된 글래스타입 단말기를 설명하기 위한 블록도이다.
도 2a는 본 발명의 일 실시 예에 따른 글래스타입 단말기를 일 방향에서 바라본 도면이다.
도 2b는 도 2a에 포함된 광학부를 설명하기 위한 개념도이다.
도 2c는 형상변형렌즈를 설명하기 위한 개념도이다.
도 3a는 본 발명의 다른 실시 예에 따른 글래스타입 단말기를 일 방향에서 바라본 도면이다.
도 3b는 도 3a의 글래스타입 단말기에 포함된 광학부를 설명하기 위한 개념도이다.
도 4는 본 발명과 관련된 드론을 일 방향에서 바라본 도면이다.
도 5는 본 발명의 제어방법을 대표적으로 나타내는 흐름도이다.
도 6은 도 5에서 살펴본 제어방법을 설명하기 위한 개념도이다.
도 7은 본 발명의 일 실시 예에 따른 글래스타입 단말기와 드론의 제어방법을 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시 예에 따른 글래스타입 단말기와 드론을 통신연결하는 방법을 설명하기 위한 개념도이다.
도 9는 본 발명의 일 실시 예에 따른 허상 이미지에 가해지는 사용자 제스처에 근거하여 드론을 제어하는 방법을 설명하기 위한 흐름도이다.
도 10a, 도 10b, 도 10c 및 도 11은 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 드론의 움직임을 제어하는 방법을 설명하기 위한 개념도이다.
도 12은 본 발명의 일 실시 예에 따른 시각정보의 이미지의 표시방식이 변경되는 것을 설명하기 위한 개념도이다.
도 13a 및 도 13b는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 드론에 구비된 카메라를 제어하는 방법을 설명하기 위한 개념도이다.
도 14a 및 도 14b는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지의 표시크기를 변경하는 방법을 설명하기 위한 개념도이다.
도 15a, 도 15b 및 도 15c는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 상기 시각정보를 캡쳐하는 방법을 설명하기 위한 개념도이다.
도 16a, 도 16b, 도 16c 및 도 16d는 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 개념도이다.
도 17a 및 도 17b는 본 발명의 다른 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 개념도이다.
도 18은 본 발명의 일 실시 예에 따른 캡쳐된 이미지를 확인하는 방법을 설명하기 위한 개념도이다.
도 19a, 도 19b, 도 19c, 도 19d는 본 발명의 일 실시 예에 따른 글래스타입 단말기를 이용하여 드론을 제어하는 방법을 설명하기 위한 개념도이다.
도 20은 본 발명의 일 실시 예에 따른 글래스타입 단말기를 이용하여 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 흐름도이다.
도 21a, 도 21b 및 도 21c는 도 20에서 설명한 제어방법을 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 본 발명과 관련된 글래스타입 단말기를 설명하기 위한 블록도이다. 글래스타입 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1a에 도시된 구성요소들은 글래스타입 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 글래스타입 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 글래스타입 단말기(100)와 무선 통신 시스템 사이, 글래스타입 단말기(100)와 다른 글래스타입 단말기(100) 사이, 글래스타입 단말기(100)와 외부서버 사이, 글래스타입 단말기(100)와 드론(1000, 도 4 참조) 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 글래스타입 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
보다 구체적으로, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 글래스타입 단말기(100)에 제공될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 글래스타입 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 글래스타입 단말기(100)와 무선 통신 시스템 사이, 글래스타입 단말기(100)와 이동 단말기 사이, 글래스타입 단말기(100)와 고정 단말기 사이, 글래스타입 단말기(100)와 이동 단말기(또는 외부서버)가 위치한 네트워크 사이 또는 글래스타입 단말기(100)와 외부기기(예를 들어, 드론(1000)) 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 이동 단말기는 본 발명에 따른 글래스타입 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook)) 또는 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다.
또한, 고정 단말기는 본 발명에 따른 글래스타입 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 될 수 있다.
근거리 통신 모듈(114)은, 글래스타입 단말기(100) 주변에, 상기 글래스타입 단말기(100)와 통신 가능한 이동 단말기, 웨어러블 디바이스, 고정 단말기 또는 드론을 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 이동 단말기, 웨어러블 디바이스, 고정 단말기 또는 드론이 본 발명에 따른 글래스타입 단말기(100)와 통신하도록 인증된 디바이스인 경우, 글래스타입 단말기(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 이동 단말기, 웨어러블 디바이스, 고정 단말기 또는 드론으로 전송할 수 있다. 따라서, 글래스타입 단말기(100)의 사용자는, 이동 단말기, 웨어러블 디바이스, 고정 단말기 또는 드론에서 처리되는 데이터를, 글래스타입 단말기(100)를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 이동 단말기에 전화가 수신된 경우, 글래스타입 단말기(100)를 통해 전화 통화를 수행하거나, 이동 단말기에 메시지가 수신된 경우, 글래스타입 단말기(100)를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(115)은 글래스타입 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 글래스타입 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 글래스타입 단말기의 위치를 획득할 수 있다. 다른 예로서, 글래스타입 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 글래스타입 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 글래스타입 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 글래스타입 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 글래스타입 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)(또는, 감지부(140))는 글래스타입 단말기 내 정보, 글래스타입 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 글래스타입 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 글래스타입 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 글래스타입 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 글래스타입 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 글래스타입 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 글래스타입 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 글래스타입 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 글래스타입 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 글래스타입 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 글래스타입 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 글래스타입 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 글래스타입 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 글래스타입 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 글래스타입 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 글래스타입 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
또한, 본 발명에 따른 글래스타입 단말기(100)는 시각정보의 허상 이미지를 형성하는 광학부(130)를 포함하며, 상기 광학부(130)에 근거하여 다양한 크기의 허상 이미지를 다양한 위치에 표시할 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 글래스타입 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 글래스타입 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 글래스타입 단말기 상에서 구현될 수 있다.
도 2a는 본 발명의 일 실시예에 따른 글래스타입 단말기의 일 방향에서 바라본 도면이다. 도 2b는 도 2a에 포함된 광학부를 설명하기 위한 개념도이다. 도 2c는 형상변형렌즈를 설명하기 위한 개념도이다.
도 2a에 따른 글래스타입 단말기(100)는 헤드 마운티드 디스플레이(HMD, Head Mounted Display)형 단말기에 해당될 수 있다. 상기 글래스타입 단말기(100)는 프레임부(101, 102), 입력부(123), 센싱부(140), 디스플레이부(151), 광학부(130) 음향 출력부(152), 제어부(180), 무선 통신부(110), 인터페이스부(160), 메모리(170), 및 전원 공급부(190) 등을 포함할 수 있다. 본 명세서 상에서 설명되는 헤드 마운티드 디스플레이는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 글래스타입 단말기(100)는 인체의 두부(또는, 머리, 헤드(head))에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(101)과 제2 프레임(102)을 포함하는 것을 예시하고 있다. 상기 프레임부는 본체 또는 바디 등으로 명명될 수 있다.
프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어부(180), 센싱부(140), 사용자 입력부(123), 음향 출력부(152), 광학부(130) 등과 같은 전자부품이 장착될 수 있다.
또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 디스플레이부(151)가 착탈 가능하게 장착될 수 있다. 상기 디스플레이부(151)는, 가상현실(Virtual Reality: VR)이 구현되도록 외부의 빛이 통과되지 못하게 형성되거나, 증강현실(Augmented Reality: AR)이 구현되도록 외부의 빛이 통과되게 형성될 수 있다.
또한, 상기 디스플레이부(151)는 외부 이동 단말기의 디스플레이부일 수 있다. 즉, 프레임부는 외부 이동 단말기가 착탈 가능하도록 형성될 수 있으며, 상기 외부 이동 단말기와 전기적으로 연결될 수 있다. 상기 외부 이동 단말기의 디스플레이부가 사용자의 좌안 및 우안을 향하도록 장착된 경우, 상기 디스플레이부(151)는 상기 외부 이동 단말기의 디스플레이부일 수 있다.
제어부(180)는 글래스타입 단말기(100)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어부(180)는 앞서 설명한 제어부(180)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어부(180)가 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어부(180)의 위치는 이에 한정되지 않는다.
카메라(121)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(121)가 눈에 인접하여 위치하므로, 카메라(121)는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.
본 도면에서는, 카메라(121)가 제어부(180)에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(121)는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.
글래스타입 단말기(100)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(123a, 123b)를 구비할 수 있다. 사용자 입력부(123a, 123b)는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는, 프레임부와 제어부(180)에 각각 푸시 및 터치 입력 방식의 사용자 입력부(123a, 123b)가 구비된 것을 예시하고 있다.
글래스타입 단말기(100)에 구비된 센싱부(140)(또는, 감지부(140))는 글래스타입 단말기 내 정보, 글래스타입 단말기의 상태, 글래스타입 단말기를 둘러싼 주변 환경 정보 및 사용자 정보(사용자 자세) 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다.
또한, 글래스타입 단말기(100)에는 사운드를 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰(미도시) 및 음향을 출력하는 음향 출력부(152)가 구비될 수 있다. 음향 출력부(152)는 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력부(152)가 골전도 방식으로 구현되는 경우, 사용자가 글래스타입 단말기(100)를 착용시, 음향 출력부(152)은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.
인터페이스부는 글래스타입 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 또한, 메모리는 글래스타입 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 글래스타입 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리에 저장된 응용 프로그램을 구동하기 위하여, 도 1과 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 글래스타입 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 글래스타입 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
디스플레이부(151)는 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 역할을 한다. 사용자가 헤드 마운티드 디스플레이(100)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(151)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다. 본 도면에서는, 사용자의 좌안 및 우안 모두를 향하여 영상을 출력할 수 있도록, 디스플레이부(151)가 좌안 및 우안을 모두 덮도록 위치한 것을 예시하고 있다.
또한, 디스플레이부(151)에 의하여 출력되는 화면정보(또는 시각정보)를, 복수의 렌즈로 이루어지는 광학부(130)를 통하여 형성된 허상의 이미지(400)로 사용자의 눈에 투사할 수 있다.
도 2b를 참조하면, 상기 광학부(130)는 제1 및 제2 렌즈(131, 132) 및 줌렌즈부(133)를 포함한다. 상기 제1 및 제2 렌즈(131, 132)는 형상변형렌즈로 초점거리가 변형될 수 있다.
도 2c를 참조하면, 상기 제1 렌즈(131)는 한 쌍의 기판의 내부에 서로 굴절률이 다르면서 섞이지 않는 두 종류의 제1 및 제2 액체층(131a, 131b)으로 이루어진다. 상기 제1 액체층(131a)은 절연성 및 무극성을 갖는 오일류이고, 제2 액체층(131b)는 전기가 통하는 전도성 수용액으로 형성된다. 상기 한쌍의 기판은 전기를 가할 수 있는 전극과 그 위의 절연체가 코팅된 형태로 이루어진다.
상기 제2 액체층(131b)과 인접한 기판에 반대 극성의 전극을 설치하여 상기 제1 액체층(131a)과 상기 한 쌍의 기판의 전극을 연결시키면, 상기 제1 렌즈(131)는 커패시터와 같은 구조가 된다. 상기 제1 렌즈(131)에 전압이 인가되면 상기 제2 액체층의 표면 장력이 변화하여 두 액체층 사이의 곡률이 변화한다. 이에 따라 상기 제1 렌즈(131)의 초점거리가 변화하게 된다. 도면에 도시된 바와 같이, 상기 제어부(180)는 상기 제1 렌즈(131)에 전압을 인가하여 초점거리를 조절할 수 있다.
상기 시각정보(300)를 출력하는 상기 디스플레이부(151)는 상기 제1 렌즈(131)의 초점(f)과 상기 제1 렌즈(131)의 사이에 배치될 수 있다. 이에 따라 상기 이미지(400)는 상기 시각정보(300)의 확대된 허상으로 형성된다.
이 때, 상기 시각정보(300)의 확대된 허상에 해당하는 이미지(400)(또는, 허상 이미지(400))는, 본체를 벗어난 가상영역에 형성될 수 있다. 구체적으로, 상기 이미지(400)는 디스플레이부(151) 상에 형성될 수도 있고, 상기 디스플레이부(151)를 벗어난 가상영역(예를 들어, 허공)에 형성될 수 있다.
여기서, 상기 이미지(400)는, 글래스타입 단말기(100)를 착용한 사용자에게만 보일 수 있다. 구체적으로, 상기 이미지(400)는 외부 사용자(즉, 글래스타입 단말기(100)를 착용한 사용자 이외의 사용자)에게 보이지 않을 수 있다.
본 발명의 글래스타입 단말기(100)에는, 광학부(130)의 구조(예를 들어, 제1 렌즈(131)의 굴절률, 초점거리 등), 디스플레이부(151)에서 출력하는 시각정보의 위치 및 상기 시각정보의 크기 중 적어도 하나에 따라 글래스타입 단말기(100)를 착용한 사용자에게 보이는 상기 시각정보의 허상 이미지(400)의 위치 및 크기에 대한 데이터가 기 저장되어 있을 수 있다.
또한, 본 발명의 글래스타입 단말기(100)는 사용자 요청에 근거하여 상기 허상 이미지(400)의 위치 및 크기가 변경되도록, 광학부(130)의 구조, 디스플레이부(151)에서 출력하는 시각정보의 위치 및 상기 시각정보의 크기 중 적어도 하나를 제어할 수 있다.
예를 들어, 제어부(180)는 상기 광학부(130)에 구비된 제1 렌즈(131)의 초점거리를 조정하여 상기 이미지(400)의 크기 및 상기 이미지(400)가 표시되는 위치를 제어할 수 있다. 상기 초점거리에 근거하여 상기 이미지(400)의 크기가 확장되면서 상기 이미지(400)가 멀어지거나, 상기 이미지(400)의 크기가 축소되면 상기 이미지(400)가 가까워질 수 있다.
다만 이에 한정되지 않고, 제어부(180)는 상기 이미지(400)의 크기가 확장되면서 상기 이미지(400)가 가까워지거나, 상기 이미지(400)의 크기가 축소되면서 상기 이미지(400)가 멀어지도록 제어하고나, 상기 이미지(400)의 크기를 유지시키면서 상기 이미지(400)가 멀어지거나 가까워지도록 제어할 수 있다. 이를 위해, 본 발명의 광학부(130)에는 상기 제1 렌즈(131) 및 제2 렌즈(132) 중 적어도 하나를 이동시키기 위한 액츄에이터가 더 포함될 수 있다.
상기 제1 렌즈(131)는 볼록렌즈 구조를 이루면서 굴절률이 변하고, 상기 제2 렌즈(132)는 오목렌즈 구조를 이루면서 굴절률이 변하도록 제어된다. 사용자의 눈과 상기 제1 렌즈(131) 사이에 상기 제2 렌즈(132)가 배치된다. 상기 제2 렌즈(132)는 상기 이미지(400)가 맺히는 위치를 조절한다. 이에 따라 상기 제1 및 제2 렌즈(131, 132)에 의하여 상기 이미지(400)의 크기 및 상기 이미지(400)가 맺히는 위치를 조절할 수 있다.
이에 따라 사용자 눈의 시력상태에 근거하여 서로 다른 위치에 이미지(400)를 형성(출력)할 수 있다. 이에 따라 시력을 교정하기 위한 별도의 교정장치를 착용하지 아니하고도 상기 제1 및 제2 렌즈(131, 132)에 의하여 또렷한 이미지(400)를 제공받을 수 있다.
상기 제2 렌즈(132)에 의하여 이미지(400)의 출력위치가 조절되므로 상기광학부(130)와 사용자의 눈 사이의 거리가 고정된 상태로 소형의 광학부(130)가 구현될 수 있다.
상기 광학부(130)는 시각정보(300)를 확대 및 축소하여 이미지(400)를 확대 및 축소하여 출력하도록 제어되는 줌렌즈부(133)를 더 포함할 수 있다. 상기 줌렌즈부(133)는 복수의 렌즈를 포함하며, 상기 복수의 렌즈를 광학축을 따라 이동시키는 액추에이터를 포함한다. 상기 줌렌즈부(133)는 사용자의 제어명령에 근거하여 상기 이미지(400)의 일부 또는 상기 이미지(400)의 전체를 확대 또는 축소하여 출력한다.
상기 제어부(180)는 상기 제1 및 제2 렌즈(131, 132)와 상기 줌렌즈부(133)를 독립적으로 제어할 수 있다. 사용자는 독립적인 제어신호를 입력하여 상기 제1 및 제2 렌즈(131, 132)와 상기 줌렌즈부(133)를 독립적으로 제어하여 상기 이미지의 크기 및 이미지가 출력되는 위치를 임의로 변경할 수 있다.
상기 광학부(130)의 제2 렌즈(132) 및 줌렌즈부(133)는 글래스타입 단말기(100)를 구현하는데 있어서 필수적인 것은 아니어서, 글래스타입 단말기의 설계에 따라 선택적으로 포함되거나 제외될 수 있다.
도 3a는 본 발명의 다른 실시 예에 따른 글래스타입 단말기를 일 방향에서 바라본 도면이고, 도 3b는 도 3a의 글래스타입 단말기에 포함된 광학부를 설명하기 위한 개념도이다.
도 3a를 참조하면, 글래스타입 단말기(100)는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(101)과 제2 프레임(102)을 포함하는 것을 예시하고 있다. 일반적으로 글래스타입 단말기(100)는 도1 내지 도 2c의 글래스타입 단말기(100)의 특징 또는 그와 유사한 특징을 포함할 수 있다.
프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(280), 음향 출력 모듈(252) 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나에 인접하게 배치되는 프리즘(151')이 장착될 수 있다. 상기 프리즘(151')은 착탈 가능할 수 있다.
제어 모듈(180)은 글래스타입 단말기(100)에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어 모듈(180)은 앞서 설명한 제어부(180)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어 모듈(180)이 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(180)의 위치는 이에 한정되지 않는다.
카메라(121)는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(121)가 눈에 인접하여 위치하므로, 카메라(121)는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.
글래스타입 단말기(100)는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(123a, 123b)를 구비할 수 있다. 사용자 입력부(123a, 123b)는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는, 프레임부와 제어 모듈(180)에 각각 푸시 및 터치 입력 방식의 사용자 입력부(123a, 123b)가 구비된 것을 예시하고 있다.
이하에서는, 터치 입력 방식의 사용자 입력부(123b)를 중점적으로 설명하며, 도면부호 123을 사용하기로 한다.
또한, 글래스 타입의 글래스타입 단말기(200)에는 사운드를 입력 받아 전기적인 음성 데이터로 처리하는 마이크로폰(미도시) 및 음향을 출력하는 음향 출력 모듈(152)이 구비될 수 있다.
디스플레이부를 통하여 출력되는 시각정보(300)는, 광학부(130) 및 프리즘(151')을 통하여 허상 이미지(400)로 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 글래스타입 단말기(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지(또는, 장면, 배경, 사용자의 일반 시야)에 가상 이미지(400)를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다. 상기 광학부(130)는 상기 프레임(101)에 내장될 수 있다. 즉, 상기 광학부(130)는 사용자의 시야에 위치하지 아니한다.
도 3b에 따라 광학부(130)를 통하여 시각정보(300)의 허상 이미지(400')가 출력되는 구조는 상기 프리즘(151')을 제외하고 도 2b에서 설명한 구조와 실질적으로 동일하다. 상기 광학부(130)는 상기 제1 및 제2 렌즈(131, 132) 및 상기 줌렌즈부(133)를 포함한다. 상기 광학부(130)에 의하여 형성된 상기 허상 이미지(400')는 상기 프리즘(151')에 의하여 반사되어 사용자의 눈으로 제공될 수 있다.
다만, 상기 글래스타입 단말기의 광학부 및 디스플레이부의 구조는 이에 한정되는 것은 아니다. 제어부(180)는 디스플레이부에서 출력되는 시각정보(300)를 사용자의 제어명령에 근거하여 다양한 크기의 허상 이미지(400)로 형성하고, 상기 허상 이미지(400)를 다양한 위치에 출력하기 위하여 광학부(130)를 제어할 수 있다.
디스플레이부는 광학부(130)의 제1 렌즈(131)의 초점(f)과 상기 제1 렌즈(131) 사이에 시각정보(300)를 출력할 수 있다. 이에 따라, 상기 시각정보(300)의 허상 이미지(400')는 상기 제1 렌즈(131)의 초점(f)을 기준으로, 상기 시각정보(300)가 출력된 위치의 반대되는 위치에 확대되어 형성될 수 있다.
상기 허상 이미지(400')는 광학부(130) 및 프리즘(151')을 통해 사용자의 눈에 보여질 수 있다. 이 경우, 사용자의 입장에서는 사용자 눈이 응시하는 정면에 위치한 가상영역(450)(또는, 공간, 가상공간)에서 허상 이미지(400)가 보여질 수 있다. 이는, 시각정보(300)의 허상 이미지(400)가 본체를 벗어난 가상영역(450)(예를 들어, 사용자의 눈이 응시하는 정면에 위치한 가상영역)에 형성된다는 것을 의미할 수 있다. 즉, 광학부(130)는 디스플레이부에서 출력되는 시각정보(300)의 이미지(400)(허상 이미지)를 본체를 벗어난 가상영역(450)(예를 들어, 사용자의 눈이 응시하는 정면에 위치한 가상영역(450)(또는, 공간))에 형성할 수 있다.
본 발명의 글래스타입 단말기(100)에는 사용자의 입장에서 상기 사용자 눈이 응시하는 정면에 위치한 가상영역(450)에서 보여지는 허상 이미지(400)의 표시위치(거리) 및 표시크기와 관련된 데이터가 기 저장되어 있을 수 있다.
또한, 감지부(140)는 글래스타입 단말기(100) 또는 글래스타입 단말기(100)로부터 기 설정된 거리 이내에 존재하는 공간(또는, 글래스타입 단말기(100) 주변)에서 행해지는 사용자 제스처를 감지할 수 있다. 예를 들어, 감지부(140)는 상기 허상 이미지(400)의 표시위치(거리) 및 표시크기와 관련된 데이터에 근거하여, 상기 허상 이미지(400)(이하, 이미지(400)라고 함)에 가해지는 사용자 제스처(gesture)(동작)를 감지할 수 있다. 여기서, 상기 사용자 제스처는, 사용자의 신체의 일부(예를 들어, 손가락, 손, 팔, 다리 등) 또는 대상체(물체, 막대기 등)에 의해 형성되는 동작을 의미한다.
감지부(140)는 다양한 센서를 이용하여 글래스타입 단말기(100)로부터 기 설정된 거리 이내에 존재하는 공간에서 행해지는 사용자 제스처를 감지할 수 있다.
예를 들어, 감지부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 자기 센서(magnetic sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 환경 센서(예를 들어, 방사능 감지 센서, 열 감지 센서 등) 중 적어도 하나를 이용하거나, 이러한 센서들 중 적어도 둘 이상의 센서를 조합하여 글래스타입 단말기(100) 주변에서 가해지는 사용자 제스처를 감지할 수 있다.
제어부(180)는 상기 감지부(140)를 이용하여 상기 사용자 제스처가 가해지는 위치(좌표 또는 글래스타입 단말기의 일 지점을 기준으로 이격된 거리 또는 방향), 동작 등을 추출(판단)할 수 있다.
또한, 제어부(180)는 감지부(140)를 통해 상기 이미지(400)에 가해지는 사용자 제스처를 감지할 수 있다.
상기 이미지(400)에 가해지는 사용자 제스처를 감지한다는 것은, 상기 이미지(400) 상에서(즉, 상기 이미지(400)가 형성된 표시위치에서) 행해지는 사용자 제스처를 감지하는 것, 상기 사용자의 눈(또는, 글래스타입 단말기(100)의 일 지점(예를 들어, 프리즘(151'))과 상기 이미지(400) 사이의 공간(460)에서 행해지는 사용자 제스처를 감지하는 것 및 상기 이미지(400)의 주변 공간(예를 들어, 상기 이미지(400)로부터 기 설정된 거리 이내의 공간)에서 행해지는 사용자 제스처를 감지하는 것을 포함하는 의미로 이해되어야 한다.
또한, 상기 이미지(400)에서 사용자 제스처가 감지된다는 것은, 상기 이미지(400)에 사용자 제스처가 가해진다는 의미로 받아들여질 수 있다.
예를 들어, 제어부(180)는 이미지(400)가 형성되는 표시위치(거리, 방향, 좌표 등) 및 표시크기와 관련된 데이터에 근거하여, 글래스타입 단말기(100)와 상기 이미지(400) 사이의 공간(460)을 결정(판단, 정의)할 수 있다. 또한, 도시되진 않았지만, 제어부(180)는 이미지(400)가 형성되는 표시위치 및 표시크기와 관련된 데이터에 근거하여, 상기 이미지(400) 주변 공간(예를 들어, 이미지(400)로부터 기 설정된 거리 이내의 공간)을 결정할 수 있다.
또한, 제어부(180)는 감지부(140)를 통해 사용자 제스처가 감지되면, 상기 감지된 사용자 제스처의 위치(좌표, 거리, 방향) 및 동작 등을 판단할 수 있다.
제어부(180)는 상기 판단된 사용자 제스처의 위치가 상기 공간(460)(또는, 주변 공간) 내라고 판단되는 경우, 상기 이미지(400)에 상기 사용자 제스처가 가해졌다고 판단할 수 있다.
또한, 제어부(180)는 상기 사용자 제스처의 위치가 상기 공간(460)(또는, 주변 공간) 내라고 판단되는 것에 더불어 기 설정된 조건을 만족하는 것에 근거하여, 상기 이미지(400)에 상기 사용자 제스처가 가해졌다고 판단할 수 있다.
예를 들어, 상기 기 설정된 조건은, 상기 사용자 제스처를 형성하는 대상체가, 상기 공간(460) 내에 위치한 상태로 일정 시간동안 움직이지 않는 것(호버링 되는 것), 상기 대상체가 상기 공간(460) 내에서 기 설정된 특정 동작을 취하는 것 등을 포함할 수 있다. 상기 공간(460)은 가상공간 중 상기 이미지(400)가 형성된 공간 및 상기 이미지(400)로부터 기 설정된 거리 이내에 존재하는 공간 등을 포함할 수 있다.
제어부(180)는 상기 이미지(400)에서 감지되는 사용자 제스처에 근거하여, 다양한 기능을 수행할 수 있다. 일 예로, 상기 이미지(400)가 드론으로부터 전송되는 시각정보(300)의 이미지(400)(허상 이미지(400))인 경우, 상기 이미지(400)에 가해지는 다양한 방식의 사용자 제스처에 근거하여, 상기 시각정보(300)를 전송한 드론을 다양한 방식으로 제어할 수 있다.
이하에서는, 본 발명과 관련된 드론에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다. 도 4는 본 발명과 관련된 드론을 일 방향에서 바라본 도면이다.
본 발명과 관련된 드론(Drone)(1000)(또는, 무인항공장치)는, 도 1에서 설명한 구성요소들 중 적어도 하나를 포함하는 것이 가능하다.
예를 들어, 드론(1000)은 무선통신부를 포함할 수 있다. 상기 드론(1000)은 상기 무선통신부와 글래스타입 단말기(100)에 구비된 무선통신부(110)를 통해 데이터를 교환할 수 있다.
또한, 드론(1000)은, 상부케이스(1001), 하부케이스(1002), 수납부(1004), 날개부(1210), 카메라(1121) 및 제어부 등을 포함할 수 있다.
상기 상부 케이스(1001) 및 상기 하부 케이스(1002)는 드론(1000)을 구현하기 위한 각종 부품들이 장착되는 공간을 마련한다. 상기 상부 케이스(1001) 및 상기 하부 케이스(1002)에는 도 1에서 설명한 구성요소들 중 적어도 하나, 예를 들어, 제어부, 센싱부, 사용자 입력부, 음향 출력부, 마이크로폰 등과 같은 전자부품이 장착될 수 있다. 상기 상부 케이스(1001) 및 상기 하부 케이스(1002)는, 드론의 바디부로 명명될 수 있다.
상기 수납부(1004)는 상기 상부 케이스(1001) 및 상기 하부 케이스(1002) 사이에 형성되며, 상기 수납부(1004)에 상기 날개부(1210)이 수납된다. 상기 날개부(1210)은 적어도 하나의 날개유닛으로 이루어질 수 있다. 도면에서는 상기 날개부(1210)는 4개의 날개유닛을 포함하는 것으로 도시되어 있으나, 날개유닛의 개수는 이에 한정되지 아니한다.
상기 날개부(1210)는 프로펠러(1211) 및 이를 포함하는 본체(1212)로 형성될 수 있다. 상기 본체(1212)는, 상기 바디부에 연결되는 연결부(1212a) 및 상기 프로펠러(1211)가 회전가능하도록 고정되는 고정부(1212b) 중 적어도 하나를 포함할 수 있다. 또한, 상기 날개부(1210)는 상기 본체(1212)에 포함된 연결부(1212a)를 회전 가능하게 연결시키는 가동축(미도시)을 포함한다.
상기 본체(1212)의 일 영역은 수납모드에서 상기 상부 및 하부 케이스(1001, 1002)의 외면과 연속적으로 형성되도록 곡면을 이룬다. 상기 가동축은 상기 수납모드에서 상기 비행모드로 전환되는 경우 상기 날개유닛이 상기 바디부의 외부로 돌출되어 상기 고정부(1212b)가 외부로 배치되도록, 상기 연결부(1212a)를 회전 이동 시킨다. 상기 비행모드에서 상기 프로펠러(1211)가 회전하면 상기 바디부가 비행하게 된다.
드론의 제어부는, 글래스타입 단말기(100)의 요청에 근거하여, 상기 날개부(1210)를 제어할 수 있다. 구체적으로, 드론의 제어부는, 글래스타입 단말기(100)로부터 일 방향으로의 움직임을 요청하는 신호가 수신되면, 상기 신호에 근거하여, 드론(1000)이 상기 일 방향으로 움직여지도록 날개부(1210)를 제어할 수 있다.
또한, 본 발명과 관련된 드론(1000)에는 카메라(1121)가 구비될 수 있다. 상기 카메라(1121)는 적어도 하나가 구비될 수 있다.
제어부는 상기 카메라(1121)를 통해 수신되는 프리뷰 영상(preview image)을 무선통신부를 통해 외부기기로 전송할 수 있다. 일 예로, 상기 외부기기는, 본 발명과 관련된 글래스타입 단말기(100)일 수 있다.
여기서, 상기 프리뷰 영상(preview image)는 카메라(1121)를 통해 수신되는 영상을 시간의 흐름에 따라 연속적으로 출력하는 영상을 의미한다.
드론의 제어부는, 글래스타입 단말기(100)의 요청에 근거하여, 카메라(1121)를 통해 수신되는 프리뷰 영상을 무선통신부를 통해 글래스타입 단말기(100)로 전송할 수 있다. 이에 따라, 상기 글래스타입 단말기(100)에는, 드론의 카메라(1121)를 통해 수신되는 프리뷰 영상이 표시될 수 있다.
이하에서는, 상기 드론으로부터 전송되는 프리뷰 영상을 시각정보(300)로 명명한다. 즉, 글래스타입 단말기(100)에서는, 상기 드론으로부터 전송되는 시각정보(300)(프리뷰 영상)의 허상 이미지(400)가 가상영역(450)에 형성될 수 있다.
또한, 드론의 제어부는, 글래스타입 단말기(100)의 요청에 근거하여, 카메라(1121)를 제어할 수 있다. 예를 들어, 글래스타입 단말기(100)로부터 카메라의 줌 인(zoom-in)기능을 수행하라는 요청이 수신되면, 드론의 제어부는 카메라(1121)를 제어하여 줌 인 기능을 수행하고, 줌 인 기능에 의해 변경된 프리뷰 영상(시각정보)를 글래스타입 단말기(100)로 전송할 수 있다.
여기서, 상기 드론(1000)은 글래스타입 단말기(1000)의 요청에 근거하여 제어될 뿐만 아니라, 상기 드론(1000)을 제어하는 것이 가능한 리모트 컨트롤러(remote controller), 이동 단말기, 고정 단말기 등에 의해 제어될 수 있음은 자명하다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 다양한 방식으로 도 4에서 설명한 드론(1000)을 제어할 수 있다. 이하에서는, 도 1 내지 도 3b에서 살펴본 글래스타입 단말기(100)을 이용하여 드론(1000)을 제어하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
도 5는 본 발명의 제어방법을 대표적으로 나타내는 흐름도이고, 도 6은 도 5에서 살펴본 제어방법을 설명하기 위한 개념도이다.
우선, 본 발명과 관련된 글래스타입 단말기(100)는 사용자 요청에 근거하여 드론(1000)과 통신 연결될 수 있다. 상기 사용자 요청은 다양한 방식으로 이루어질 수 있으며, 일 예로, 글래스타입 단말기(100)에 설치된 드론(1000)을 제어하는 기능이 연계된 애플리케이션을 실행하는 것일 수 있다.
예를 들어, 상기 글래스타입 단말기(100)에 설치된 애플리케이션이 실행되면, 글래스타입 단말기(100)의 제어부(180)는 무선 통신부(110)를 통해 통신 연결을 요청하는 신호를 방출할 수 있다.
상기 글래스타입 단말기(100)로부터 기 설정된 거리 이내의 공간에 드론(1000)이 존재하는 경우, 상기 드론(1000)은 상기 방출된 신호를 수신하고, 상기 수신된 신호를 이용하여 상기 글래스타입 단말기(100)와 통신 연결될 수 있다.
이 밖에도, 본 발명과 관련된 글래스타입 단말기(100)는 다양한 방식으로 드론(1000)과 통신 연결할 수 있으며, 이와 관련된 내용은 도 7 및 도 8을 참조하여 보다 구체적으로 후술하기로 한다.
글래스타입 단말기(100)와 연결된 드론(1000)은 비행을 시작하도록 날개부(1210)를 제어할 수 있다. 또한, 드론(1000)은, 상기 연결에 기초하여 카메라(1121)를 온(ON)시킬 수 있다.
이후, 드론(1000)은 상기 카메라(1121)를 통해 수신되는 프리뷰 영상, 즉 시각정보를 글래스타입 단말기(100)로 전송할 수 있다.
본 발명과 관련된 글래스타입 단말기(100)에서는 상기 드론으로부터 전송되는 시각정보의 이미지를 형성하는 단계가 진행된다(S510). 구체적으로, 글래스타입 단말기(100)의 제어부(180)는, 상기 드론으로부터 시각정보(300, 도 2b 참조)가 수신되면, 상기 시각정보(300)를 출력하도록 디스플레이부(151)를 제어할 수 있다. 상기 시각정보(300)는 글래스타입 단말기(100)의 광학부(130)에 포함된 제1 렌즈(131)의 초점(f)과 상기 제1 렌즈(131) 사이에 출력될 수 있다.
광학부(130)는 상기 시각정보(300)의 이미지(400)(허상 이미지)를 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 형성할 수 있다. 앞서 설명한 것과 같이, 상기 본체를 벗어난 가상영역은, 사용자의 눈이 응시하는 정면에 위치한 공간(또는 가상영역, 가상공간)일 수 있다.
상기 시각정보(300)의 이미지(400)는, 상기 시각정보(300)를 실상으로 본다면, 상기 시각정보(300)에 대한 확대된 허상일 수 있다. 즉, 상기 허상에 해당하는 이미지(400)는, 상기 실상에 비해 확대될 수 있다. 이는, 상기 제1 렌즈(131)가 볼록렌즈에 해당하고, 상기 실상에 해당하는 시각정보(300)가 상기 제1 렌즈(131)와 상기 제1 렌즈(131)의 초점(f) 사이에 위치하기 때문이다.
여기서, 상기 이미지(400)는, 상기 시각정보(300)가 변경되는 것에 근거하여 변경될 수 있다. 즉, 허상에 해당하는 이미지(400)의 표시내용은 실상에 해당하는 시각정보(300)의 표시내용이 변경되는 것에 종속하여 변경될 수 있다.
상기 시각정보(300)는 사용자의 시야에 포함되도록 출력되거나, 상기 사용자의 시야에 포함되지 않도록 출력될 수 있다.
도 3a 및 3b에 도시된 것과 같이, 상기 광학부(130)가 사용자의 시야에 위치하지 아니하는 경우, 시각정보(300)는 사용자의 시야에 포함되지 않을 수 있다. 다만, 상기 시각정보(300)의 이미지(400)는 프리즘(151')을 통해 글래스타입 단말기의 본체를 벗어난 가상영역, 즉 사용자의 시야에 보이는 공간에 위치되도록 형성될 수 있다.
상기 시각정보(300)는 글래스타입 단말기(100)에서 출력 가능한 모든 종류의 화면정보를 포함할 수 있다. 상기 시각정보(300)의 이미지(400)는, 상기 시각정보(300)와 동일한 화면정보이거나, 상기 시각정보(300) 중 적어도 일부가 제외된 화면정보이거나, 상기 시각정보(300)에 추가적인 정보가 부가된 화면정보일 수 있다.
예를 들어, 상기 시각정보(300)의 이미지(400)에는, 드론(1000)에 구비된 카메라(1121)를 통해 수신되는 시각정보(300)(예를 들어, 프리뷰 영상)에 해당하는 화면정보, 이미지, 동영상, 텍스트, 아이콘, 그래픽 객체, 알림정보 등이 포함될 수 있다.
이후, 본 발명과 관련된 글래스타입 단말기(100)에서는 상기 이미지(400)에서 감지되는 사용자 제스처에 근거하여 상기 드론(1000)을 제어하는 단계가 진행된다(S520).
글래스타입 단말기(100)에는 사용자의 입장에서 상기 시각정보(300)의 이미지(400)가 보이는 지점(표시위치)(또는, 상기 이미지(400)가 가상영역에 형성된 지점)과 상기 글래스타입 단말기(100) 사이의 거리 및 상기 시각정보(300)의 이미지(400)의 표시크기와 관련된 데이터가 메모리(170)에 기 저장되어 있을 수 있다.
감지부(140)는 상기 데이터에 근거하여, 상기 시각정보(300)의 이미지(400)에 가해지는 사용자 제스처를 감지할 수 있다. 예를 들어, 감지부(140)는, 근접센서(141, proximity sensor), 자기 센서(magnetic sensor), 모션 센서(motion sensor), 적외선 센서(IR 센서: infrared sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)) 등을 이용하여 상기 시각정보(300)의 이미지(400)에 가해지는 사용자 제스처를 감지할 수 있다.
앞서 설명한 것과 같이, 상기 사용자 제스처는, 사용자의 신체의 일부(예를 들어, 손가락, 손, 팔, 다리 등) 또는 대상체(물체, 막대기 등)에 의해 형성되는 동작을 의미한다.
또한, 상기 이미지(400)에 가해지는 사용자 제스처를 감지한다는 것은, 상기 이미지(400) 상에서(즉, 상기 이미지(400)가 형성된 표시위치(지점)에서) 행해지는 사용자 제스처를 감지하는 것, 상기 사용자의 눈과 상기 이미지(400) 사이의 공간(460, 도 3b 참조)에서 행해지는 사용자 제스처를 감지하는 것 및 상기 이미지(400)의 주변 공간(예를 들어, 상기 이미지(400)로부터 기 설정된 거리 이내의 공간)에서 행해지는 사용자 제스처를 감지하는 것을 포함하는 의미로 이해되어야 한다.
즉, 제어부(180)는 감지부(140)를 통해 본체를 벗어난 가상영역에 형성된 드론(1000)으로부터 전송되는 시각정보의 이미지(400)에 대한 사용자 제스처를 감지할 수 있다.
제어부(180)는 상기 본체를 벗어난 가상영역에 형성된 이미지(400)에서 감지되는 사용자 제스처에 근거하여, 상기 드론(1000)을 제어할 수 있다. 구체적으로, 제어부(180)는 상기 가상영역에 형성된 이미지(400)에 기 설정된 사용자 제스처가 가해지는 것에 근거하여, 상기 드론(1000)의 움직임 및 상기 드론(1000)에 구비된 카메라(1121) 중 적어도 하나를 제어할 수 있다.
예를 들어, 제어부(180)는 상기 이미지(400)에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론(1000)의 움직임을 제어하고, 상기 이미지(400)에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론(1000)에 구비된 카메라(1121)를 제어할 수 있다.
일 예로, 도 6에 도시된 것과 같이, 제어부(180)는, 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 형성된 시각정보의 이미지(400)에 가해지는 사용자 제스처를 감지할 수 있다. 제어부(180)는, 상기 이미지(400)에 가해지는 다양한 방식의 제스처에 근거하여 드론(1000)을 제어하도록 무신통신부(110)를 제어할 수 있다.
예를 들어, 도 6에 도시된 것과 같이, 상기 본체를 벗어난 가상영역에 형성된 시각정보의 이미지(400)를 잡는 제스처에 연속하여 일 방향으로 이동하는 제스처가 감지되면, 제어부(180)는 상기 시각정보를 전송한 드론(1000)이 상기 일 방향으로 움직여지도록 상기 드론(1000)을 제어할 수 있다.
여기서, 상기 드론(1000)을 제어한다는 것은, 상기 드론(1000)으로 제어신호를 전송하도록 무선통신부(110)를 제어한다는 의미를 포함한다.
이와 같은 구성을 통해, 본 발명은 상기 본체를 벗어난 가상영역에 형성되는 이미지(400)에 대한 사용자 제스처를 이용하여 드론을 제어함으로써, 글래스타입 단말기(100)를 착용한 사용자의 두부를 움직이거나 별도의 리모트 콘트롤러를 이용하지 않고, 보다 편리하고 직관적으로 드론을 제어할 수 있는 UX/UI를 제공할 수 있다.
이하에서는, 본 발명에서 글래스타입 단말기(100)가 형성하는 시각정보의 이미지를 이용하여 드론을 제어하는 방법에 대하여 보다 구체적이고 다양한 실시 예에 대하여 살펴본다.
또한, 이하에서는 첨부된 도면을 참조하여 설명할 때, 하나의 도면(도 N)에서 적어도 두 개의 이미지가 2 by 2 형태로 도시된 경우, 좌측 상단에 도시된 이미지를 "제1 도면", 우측 상단에 도시된 이미지를 "제2 도면", 우측 하단에 도시된 이미지를 "제3 도면" 및 좌측 하단에 도시된 이미지를 "제4 도면"이라 명명한다.
또한, 하나의 도면(도 N)에 적어도 두 개의 이미지가 상단에서 하단방향으로 일렬로 도시된 경우, 제일 상단에 있는 이미지부터 순차적으로 "제1 도면, 제2 도면, ..."이라고 명명한다.
또한, 하나의 도면(도 N)에 적어도 두 개의 이미지가 좌측단에서 우측단방향으로 일렬로 도시된 경우, 제일 좌측단에 있는 이미지부터 순차적으로 "제1 도면, 제2 도면, ..."이라고 명명한다.
도 7은 본 발명의 일 실시 예에 따른 글래스타입 단말기와 드론의 제어방법을 설명하기 위한 개념도이다. 도 8은 본 발명의 일 실시 예에 따른 글래스타입 단말기와 드론을 통신연결하는 방법을 설명하기 위한 개념도이다.
도 7을 참조하면, 본 발명에서는 글래스타입 단말기(100)에 기 설정된 방식의 사용자 입력이 수신되는 것에 근거하여, 글래스타입 단말기(100)와 드론(1000)을 통신 연결하는 단계가 진행된다(S710).
예를 들어, 도 8의 제1 도면에 도시된 것과 같이, 본 발명과 관련된 드론(1000)은 온(on) 상태에서 미비행 상태일 수 있다. 상기 드론(1000)은 별도의 제어신호가 수신되지 않으면, 미비행 상태일 수 있다.
미비행 상태인 드론(1000)은 본 발명과 관련된 글래스타입 단말기(100)로부터 신호를 수신할 수 있다. 구체적으로, 글래스타입 단말기(100)가 온(ON)인 상태에서, 제어부(180)는 상기 글래스타입 단말기(100)에 기 설정된 방식의 사용자 입력이 수신되는 것(또는, 상기 글래스타입 단말기(100)가 기 설정된 조건을 만족하는 것)에 근거하여 상기 드론(1000)에 신호를 전송할 수 있다.
여기서, 상기 신호는 상기 글래스타입 단말기(100)와 상기 드론(1000)을 통신연결하기 위한 신호일 수 있다.
예를 들어, 제어부(180)는 사용자 요청에 근거하여 글래스타입 단말기(100)에 구비된 카메라(121)를 활성화할 수 있다. 상기 사용자 요청은, 다양한 방식의 사용자 입력을 포함할 수 있으며, 일 예로, 글래스타입 단말기(100)의 사용자 입력부(123)에 기 설정된 터치(예를 들어, 롱 터치)가 가해지는 것일 수 있다.
제어부(180)는 상기 활성화된 카메라(121)를 통해 수신되는 프리뷰 영상을 분석하여, 상기 프리뷰 영상에 상기 드론(1000)에 해당하는 이미지가 포함되어 있는지 판단할 수 있다.
상기 프리뷰 영상에 상기 드론(1000)에 해당하는 이미지가 포함된 경우, 제어부(180)는 상기 드론(1000)과 연결하기 위한 신호를 무선 통신부(110)를 통해 상기 드론(1000)으로 전송할 수 있다.
다른 예로, 제어부(180)는 사용자 입력부(123)에 터치를 유지한 상태에서, 프리뷰 영상에 상기 드론(1000)에 해당하는 이미지가 존재하는 경우, 상기 드론(1000)과 연결하기 위한 신호를 상기 드론으로 전송할 수 있다.
또 다른 예로, 제어부(180)는, 도시되진 않았지만, 카메라(121)가 활성화되면, 상기 카메라(121)를 통해 수신되는 프리뷰 영상을 출력하도록 디스플레이부(151)를 제어하고, 상기 프리뷰 영상의 허상 이미지를 본체를 벗어난 영역에 형성하도록 광학부(130)를 제어할 수 있다. 상기 프리뷰 영상의 허상 이미지가 형성된 상태에서, 상기 허상 이미지에 포함된 드론(1000)이미지를 선택하는 제스처가 감지되면, 제어부(180)는 상기 드론(1000)과 연결하기 위한 신호를 상기 드론으로 전송할 수 있다.
이후, 본 발명에서는 상기 통신 연결에 근거하여, 드론(1000)으로부터 수신되는 시각정보의 이미지를 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 형성하는 단계가 진행된다(S720).
예를 들어, 상기 드론(1000)이 상기 글래스타입 단말기(100)로부터 통신 연결을 위한 신호를 수신하면, 상기 글래스타입 단말기(100)와 상기 드론(1000)은 통신 연결될 수 있다.
또한, 상기 드론(1000)이 상기 글래스타입 단말기(100)로부터 신호를 수신하면(통신 연결 되면), 도 8의 제2 도면에 도시된 것과 같이, 상기 드론(1000)은 비행을 시작할 수 있다. 구체적으로, 상기 드론(1000)의 제어부는 상기 신호에 근거하여 상기 글래스타입 단말기(100)와 연결되면, 상기 드론(1000)이 기 설정된 높이에 도달하도록 상기 드론(1000)의 날개부(1210)을 제어할 수 있다.
여기서, 상기 기 설정된 높이는 사용자 설정에 의해 결정될 수 있으며, 일 예로, 상기 신호를 전송한 글래스타입 단말기(100)가 지면으로부터 떨어진 높이와 같은 높이일 수 있다.
상기 드론(1000)이 비행을 시작하면(또는, 글래스타입 단말기로부터 통신 연결을 위한 신호를 수신하면, 또는 통신 연결되면), 상기 드론(1000)의 제어부는 드론(1000)에 구비된 카메라(1121)를 비활성화 상태에서 활성화 상태로 전환할 수 있다. 상기 카메라(1121)의 활성화는, 다양한 방법으로 구현될 수 있으며, 일 예로, 상기 드론(1000)이 상기 글래스타입 단말기(100)와 연결되는 것(즉, 상기 글래스타입 단말기로부터 신호를 수신하는 것), 상기 드론(1000)이 비행을 시작하는 것, 상기 글래스타입 단말기로부터 카메라 활성화를 제어하는 제어신호가 수신되는 것 등에 근거하여 구현될 수 있다.
드론(1000)의 제어부(180)는 상기 카메라(1121)가 활성화되면, 상기 활성화된 카메라(1121)를 통해 수신되는 프리뷰 영상을 상기 드론(1000)의 무선통신부를 통해 상기 글래스타입 단말기(100)로 전송할 수 있다. 여기서, 상기 드론(1000)에서 전송되는 프리뷰 영상은, 글래스타입 단말기(100)의 디스플레이부(151)가 출력하는 시각정보(300)에 해당할 수 있다.
상기 드론(1000)으로부터 시각정보(300)(프리뷰 영상)가 전송되면, 글래스타입 단말기(100)의 제어부(180)는, 도 8의 제2 도면에 도시된 것과 같이, 상기 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 상기 시각정보(300)에 대응하는 이미지(400), 즉 상기 시각정보(300)의 이미지(400)를 형성할 수 있다. 상기 시각정보(300)의 이미지(400)는 사용자의 정면에 위치한 공간(본체를 벗어난 가상영역)에 형성될 수 있으며, 상기 드론(1000)의 카메라(1121)를 통해 수신되는 프리뷰 영상에 대응하는 화면정보가 포함될 수 있다.
다만, 글래스타입 단말기(100)와 드론(1000)을 통신 연결하는 방법은, 도 5 및 도 8에서 설명한 예에 한정되지 않음에 유의하여야 한다.
이후, 본 발명에서는 상기 형성된 이미지(400)에 가해지는 사용자 제스처에 근거하여 드론의 움직임 및 드론에 구비된 카메라 중 적어도 하나를 제어하는 단계가 진행된다(S730).
본 발명과 관련된 글래스타입 단말기(100)는, 상기 시각정보(300)의 이미지(400)에 가해지는 사용자 제스처에 근거하여 드론(1000)을 제어할 수 있다. 예를 들어, 글래스타입 단말기(100)는 상기 시각정보(300)의 이미지(400)에서 특정 사용자 제스처가 감지되면, 상기 특정 사용자 제스처에 연계된 제어신호를 드론(1000)으로 전송할 수 있다. 상기 드론(1000)은 상기 특정 사용자 제스처에 연계된 제어신호가 수신되면, 상기 제어신호에 대응하는 동작을 수행할 수 있다.
앞서 설명한 것과 같이, 본 발명과 관련된 글래스타입 단말기(100)의 제어부(180)는, 상기 가상영역에 형성된 이미지(400)에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론(1000)의 움직임을 제어하고, 상기 이미지(400)에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라(1121)를 제어할 수 있다.
이하에서는, 우선 상기 제1 및 제2 사용자 제스처에 근거하여 상기 드론(1000)의 움직임 및 상기 드론(1000)에 구비된 카메라(1121) 중 적어도 하나를 제어하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
도 9는 본 발명의 일 실시 예에 따른 허상 이미지에 가해지는 사용자 제스처에 근거하여 드론을 제어하는 방법을 설명하기 위한 흐름도이다.
도 9에 도시된 흐름도는, 도 7의 S730단계를 보다 구체적으로 나타낸 흐름도로 이해될 수 있다.
도 9를 참조하면, 본 발명에서는 본체를 벗어난 가상영역에 형성된 이미지에 이미지가 형성된 상태에서, 상기 이미지에 사용자 제스처가 감지되면, 상기 사용자 제스처가 제1 사용자 제스처인지 제2 사용자 제스처인지를 판단하는 단계가 진행된다(S732).
구체적으로, 제어부(180)는, 감지부(140)를 통해 상기 이미지에서 감지된 사용자 제스처가 제1 사용자 제스처인지, 제2 사용자 제스처인지를 판단할 수 있다.
상기 제1 사용자 제스처 및 제2 사용자 제스처는 상기 이미지에서 감지되는 대상체(예를 들어, 사용자 손)에 의해 형성되는 기 설정된 제스처를 의미할 수 있다.
또한, 상기 제1 사용자 제스처는, 드론의 움직임을 제어하는 기능과 연계된 제스처이고, 상기 제2 사용자 제스처는, 드론에 구비된 카메라를 제어하는 기능과 연계된 제스처일 수 있다.
제어부(180)는 상기 S732단계에서 감지된 사용자 제스처가 제1 사용자 제스처인 경우, 드론의 움직임을 제어하는 단계를 진행할 수 있다. 이 때, 제어부(180)는 상기 제1 사용자 제스처가 제1 방식 또는 제2 방식으로 가해졌는지 여부를 판단할 수 있다(S733).
이후, 제어부(180)는 상기 제1 사용자 제스처가 제1 방식으로 가해지는 경우, 드론이 이동되도록 상기 드론을 제어할 수 있다(S734). 또한, 제어부(180)는 상기 제1 사용자 제스처가 상기 제1 방식과 다른 제2 방식으로 가해지는 경우, 상기 드론이 회전되도록 상기 드론을 제어할 수 있다(S735).
한편, 제어부(180)는 상기 S732단계에서 감지된 사용자 제스처가 제2 사용자 제스처인 경우, 드론에 구비된 카메라를 제어하는 단계를 진행할 수 있다(S736). 여기서, 상기 제2 사용자 제스처는, 상기 제1 사용자 제스처와 다른 방식으로 가해지는 제스처를 의미할 수 있다.
한편, 제어부(180)는 상기 이미지에 사용자 제스처가 가해지는 것에 근거하여, 상기 이미지를 변경(변형)할 수 있다(S737). 상기 이미지를 변경(변형)한다는 것은, 상기 이미지가 형성된 표시위치(거리, 좌표, 방향) 및 표시방식 등을 변경한다는 것을 포함할 수 있다.
구체적으로, 제어부(180)는 글래스타입 단말기의 본체를 벗어난 가상영역에 형성된 이미지에 사용자 제스처(제1 사용자 제스처)가 가해지는 것에 근거하여, 상기 이미지가 형성된 표시위치 및 표시방식 중 적어도 하나를 변경할 수 있다.
이후, 제어부(180)는 상기 이미지에서 감지된 사용자 제스처가 해제되면, 상기 변경된 이미지를 상기 사용자 제스처가 가해지기 전의 상태로 복원할 수 있다(S738).
상기 S732 내지 S738단계는 시계열적으로 한정되지 않음에 유의하여야 한다.
이하에서는, 본 발명의 일 실시 예에 따른 드론의 움직임을 제어하는 방법, 드론의 카메라를 제어하는 방법 및 이미지를 변경하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다.
도 10a, 도 10b, 도 10c 및 도 11은 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 드론의 움직임을 제어하는 방법을 설명하기 위한 개념도이고, 도 12는 본 발명의 일 실시 예에 따른 시각정보의 이미지의 표시방식이 변경되는 것을 설명하기 위한 개념도이다.
본 발명과 관련된 글래스타입 단말기는, 본체를 벗어난 가상영역에 형성된 드론(1000)으로부터 수신되는 시각정보의 이미지(400)를 이용하여 드론(1000)의 움직임을 제어할 수 있다.
제어부(180)는 상기 시각정보의 이미지(400)에서 기 설정된 방식의 사용자 제스처가 감지되면, 상기 사용자 제스처에 근거하여 무선통신부(110)를 통해 상기 드론(1000)으로 제어신호를 송신할 수 있다.
예를 들어, 제어부(180)는 상기 이미지(400)에 제1 사용자 제스처가 가해지면 상기 드론(1000)의 움직임을 제어하는 제어신호를 송신하고, 상기 이미지(400)에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지면, 상기 드론(1000)에 구비된 카메라(1121)를 제어하는 제어신호를 송신할 수 있다.
여기서, 상기 제1 사용자 제스처는, 일 예로, 상기 이미지(400)를 잡는 제스처에 연속하여 가해지는 제스처일 수 있다.
제어부(180)는 감지부(140)를 통해, 본체를 벗어난 가상영역에 형성된 상기 드론(1000)으로부터 전송된 시각정보의 이미지(400)를 잡는 제스처를 감지할 수 있다. 구체적으로, 제어부(180)는 상기 시각정보의 이미지(400)가 형성된 위치에 근거하여, 상기 시각정보의 이미지(400)에 가해지는 사용자 제스처를 감지할 수 있다. 또한, 제어부(180)는 상기 사용자 제스처가 상기 시각정보의 이미지(400)를 잡는 동작에 해당하는 경우, 상기 동작을 상기 이미지(400)를 잡는 제스처로 판단할 수 있다.
이후, 제어부(180)는 상기 이미지(400)를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 상기 드론(1000)이 움직여지도록 상기 드론(1000)으로 제어신호를 전송할 수 있다. 상기 이미지(400)를 잡는 제스처에 연속하여 가해지는 제스처는, 상기 이미지(400)를 잡는 동작이 가해진 이후, 상기 잡는 동작을 유지시킨 상태에서 추가적으로 발생하는 동작을 의미한다.
여기서, 제어부(180)는 상기 이미지(400)를 잡는 제스처가 감지되면, 상기 이미지(400)가 잡는 제스처가 감지되었다는 것을 알리기 위한 알림정보를 출력할 수 있다. 상기 알림정보는 소리 또는 진동을 발생시키는 것 및 이미지(400)에 인디케이터를 출력하는 것 등일 수 있다.
한편, 제어부(180)는 상기 이미지를 잡는 제스처의 방식에 따라 서로 다른 방식으로 드론(1000)이 움직여지도록 상기 드론(1000)을 제어할 수 있다. 구체적으로, 제어부(180)는, 상기 제1 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처가 가해지면, 상기 드론(1000)을 이동시킬 수 있다. 또한, 제어부(180)는 상기 제1 방식과 다른 제2 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처가 가해지는 것에 근거하여, 상기 드론(1000)을 회전시킬 수 있다.
일 예로, 상기 제1 방식으로 이미지를 잡는 제스처는, 사용자의 양 손으로 상기 이미지(400)를 잡는 제스처이고, 상기 제2 방식으로 이미지를 잡는 제스처는, 사용자의 한 손으로 상기 이미지(400)를 잡는 제스처일 수 있다.
상기 이미지(400)는 상기 이미지(400)를 잡는 제스처 및 상기 이미지(400)를 잡는 제스처에 연속하는 제스처가 가해지는 것 중 적어도 하나에 근거하여, 표시위치, 표시형태, 표시방식 및 표시크기 중 적어도 하나가 변경될 수 있다.
우선, 제1 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여 드론(1000)이 움직여지는 방법에 대하여 설명한다.
도 10a를 참조하면, 제어부(180)는 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 일 방향(810a)으로 움직이는 제스처가 가해지면, 상기 드론(1000)이 상기 일 방향(810a)에 대응하는 방향(810a')으로 움직여지도록 상기 드론(1000)을 제어할 수 있다.
여기서, 상기 드론(1000)의 방향은, 상기 드론(1000)에 구비된 카메라(1121)를 기준으로 정의될 수 있다. 예를 들어, 상기 드론(1000)의 전면 방향은, 상기 카메라(1121)가 구비된 면이 향하는 방향이고, 상기 드론(1000)의 좌측면, 우측면, 후면, 상측면 및 하측면은 상기 전면을 기준으로 각각 정의될 수 있다.
예를 들어, 제어부(180)는 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 상측 방향(810a) 또는 하측 방향(810c)으로 움직이는 제스처가 가해지면, 상기 드론(1000)을 상기 상측 방향에 대응하는 방향(810a') 또는 상기 하측 방향에 대응하는 방향(810c')으로 이동하도록 제어할 수 있다.
다른 예로, 제어부(180)는 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 전면 방향(예를 들어, 사용자로부터 멀어지는 방향)(810e) 또는 후면 방향(예를 들어, 사용자로 가까워지는 방향)(810f)으로 움직이는 제스처가 가해지면, 상기 드론(1000)을 드론의 카메라(1121)가 구비된 면이 향하는 방향(810e') 또는 상기 드론의 카메라(1121)가 구비된 면에 반대되는 면이 향하는 방향(810f')으로 이동하도록 제어할 수 있다.
또 다른 예로, 제어부(180)는 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 좌측면 방향(810d) 또는 우측면 방향(810b)으로 움직이는 제스처가 가해지면, 상기 드론(1000)을 상기 드론의 카메라(1121)가 구비된 면을 기준으로 좌측면이 향하는 방향(810d') 또는 우측면이 향하는 방향(810b')으로 이동하도록 제어할 수 있다.
상기 드론(1000)이 움직이는 속도는, 상기 제1 방식으로 이미지(400)를 잡는 제스처에 연속하여 움직이는 제스처의 거리에 비례할 수 있다. 구체적으로, 상기 제1 방식으로 이미지(400)를 잡는 제스처에 연속하여 일 방향으로 제1 거리만큼 움직이는 제스처가 감지되면, 제어부(180)는 드론(1000)을 상기 일 방향으로 상기 제1 거리에 대응하는 제1 속도로 이동하도록 제어할 수 있다. 또한, 제어부(180)는 상기 제1 방식으로 이미지(400)를 잡는 제스처에 연속하여 상기 일 방향으로 제1 거리와 다른 제2 거리만큼 움직이는 제스처가 감지되면, 상기 드론(1000)을 상기 일 방향으로 상기 제2 거리에 대응하는 제2 속도로 이동하도록 제어할 수 있다.
한편, 제어부(180)는 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 어느 두 개의 방향 사이로 움직이는 제스처가 가해지면, 상기 드론(1000)을 상기 어느 두 개의 방향에 근거하여 이동되도록 제어할 수 있다.
예를 들어, 제어부(180)는 상기 제1 방식으로 이미지(400)를 잡는 제스처에 연속하여 전면이 향하는 방향(810e)과 우측면이 향하는 방향(810b)으로 움직이는 제스처가 가해지면, 상기 드론(1000)을 상기 드론(1000)의 카메라가 구비된 전면이 향하는 방향에 대응하는 방향(810e')과 상기 전면을 기준으로 우측면이 향하는 방향(810b') 사이로 이동하도록 제어할 수 있다. 상기 드론(1000)이 이동하는 방향은, 상기 전면이 향하는 방향(810e)과 우측면이 향하는 방향(810b)으로 움직이는 제스처의 벡터의 방향에 대응할 수 있으며, 상기 드론(1000)이 이동하는 속도는 상기 벡터의 거리(크기, 값)에 비례할 수 있다.
한편, 제어부(180)는 제1 방식으로 상기 이미지(400)를 잡는 제스처에 연속하여 상기 이미지를 어느 하나의 축을 기준으로 회전시키는 제스처가 가해지는 것에 근거하여, 상기 드론(1000)을 상기 회전되는 방향에 대응하는 경로로 이동시킬 수 있다.
예를 들어, 도 10b의 제1 도면에 도시된 것과 같이, 제1 방식으로 상기 이미지(400)를 잡는 제스처(예를 들어, 사용자의 양 손으로 상기 이미지를 잡는 제스처)에 연속하여, 상기 이미지(400)의 우측변을 기준으로 좌측변이 사용자로부터 멀어지는 제스처(820)가 가해지면, 제어부(180)는 상기 드론(1000)의 카메라가 구비된 전면이 향하는 방향과 우측면이 향하는 방향 사이로 이동하도록 상기 드론(1000)을 제어할 수 있다.
이 때, 상기 드론(1000)은 특정 곡률반경을 갖도록 이동될 수 있다. 즉, 제1 방식으로 이미지(400)를 잡는 제스처에 연속하여 상기 이미지(400)를 회전시키는 제스처가 가해지면, 제어부(180)는 상기 드론(1000)이 일직선으로 이동하는 것이 아닌 특정 곡률반경을 가지면서 이동하도록 상기 드론(1000)을 제어할 수 있다.
이 때, 상기 곡률반경은 사용자 제스처에 의해 상기 이미지(400)가 회전되는 정도에 반비례할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는, 사용자 제스처에 의해 상기 이미지(400)가 이동되는 것을 가이드하는 가이드정보를 더 출력할 수 있다. 구체적으로, 제어부(180)는 상기 가이드정보를 출력하도록 디스플레이부(151)를 제어하고, 상기 가이드정보의 허상 이미지(850)가 형성되도록 광학부(130)를 제어할 수 있다.
상기 가이드정보의 허상 이미지(850)는 상기 드론(1000)으로부터 전송되는 시각정보의 이미지(400)와 함께 형성될 수 있다. 구체적으로, 상기 시각정보의 이미지(400)는 상기 가이드정보의 허상 이미지(850)에 포함되도록 본체를 벗어난 가상영역에 형성될 수 있다. 상기 가이드정보의 허상 이미지(850)는 배경 이미지(또는 배경 인터페이스)일 수 있다. 상기 가이드정보의 허상 이미지(850)는 상기 허상 이미지(850)에 대한 사용자 제스처가 가해지더라도 상기 허상 이미지(850)의 표시위치, 표시크기 및 표시형태 중 적어도 하나가 변형되지 아니할 수 있다.
상기 가이드정보의 허상 이미지(850)에는 기 설정된 패턴을 갖도록 형성된 그래픽 객체(852)가 포함될 수 있다. 예를 들어, 상기 그래픽 객체(852)는 기 설정된 간격을 갖도록 이격되어 배치될 수 있다. 상기 그래픽 객체(852)의 형태는 도 10c에 도시된 형태로 한정되지 아니하고, 격자무늬 형태 등을 포함할 수도 있다.
상기 드론(1000)으로부터 전송된 시각정보의 이미지(400)는, 사용자 제스처에 의해 상기 가이드정보의 허상 이미지(850) 내에서 이동될 수 있다. 즉, 상기 시각정보의 이미지(400)가 사용자 제스처에 의해 이동되는 범위는, 상기 가이드정보의 허상 이미지(850) 내로 제한될 수 있다.
도 10c의 제1 도면에 도시된 것과 같이, 제1 방식으로 상기 시각정보의 이미지(400)를 잡는 제스처에 연속하여 일 방향(860a)(예를 들어, 우측 방향)으로 움직이는 제스처가 가해지면, 제어부(180)는 상기 움직이는 제스처에 종속하여 상기 이미지(400)를 이동시킬 수 있다. 또한, 제어부(180)는 상기 제1 방식으로 상기 시각정보의 이미지(400)를 잡는 제스처에 연속하여 상기 일 방향(860a)으로 움직이는 제스처에 근거하여 상기 일 방향에 대응하는 방향(860a')(예를 들어, 드론(1000)의 카메라가 구비된 전면을 기준으로 우측면이 향하는 방향)으로 이동하도록 상기 드론(1000)을 제어할 수 있다.
한편, 도 10c의 제2 도면에 도시된 것과 같이, 상기 제1 방식으로 상기 시각정보의 이미지(400)를 잡는 제스처에 연속하여 일 방향(860a)(예를 들어, 우측 방향)으로 움직이는 제스처에 근거하여, 상기 시각정보의 이미지(400)는 상기 가이드정보의 허상 이미지(850)의 적어도 일부에 맞닿을(접촉할) 수 있다. 이 상태에서, 상기 시각정보의 이미지(400)를 상기 일 방향(860a)으로 움직이는 제스처가 계속 가해지면, 제어부(180)는 상기 시각정보의 이미지(400)의 이동을 제한할 수 있다. 또한, 상기 제어부(180)는 상기 상태에서 상기 시각정보의 이미지(400)를 상기 일 방향(860a)으로 움직이는 제스처가 계속 가해지면, 상기 가이드정보의 허상 이미지(850)에 포함된 그래픽 객체(852)(들)을 상기 일 방향(860a)과 반대되는 방향(860b)으로 이동시킬 수 있다. 상기 그래픽 객체(852)가 이동하는 속도는, 상기 일 방향(860a)으로 움직이는 제스처가 계속 가해지는 정도에 비례할 수 있다.
이는, 상기 시각정보의 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 상기 일 방향(860a)으로 이동되는 제스처가 가해지고 있음을 알리기 위함이다.
이 때, 상기 드론(1000)은, 상기 일 방향(860a)에 대응하는 방향(860a')으로 이동하며, 상기 시각정보의 이미지(400)가 이동된 거리에 대응하는 절대값 속도 및 상기 그래픽 객체(852)가 이동하는 절대값 속도에 비례하는 속도로 이동할 수 있다.
이상에서 살펴본 것과 같이, 본 발명에 따르면 제1 방식으로 이미지(400)를 잡는 제스처(예를 들어, 양 손으로 이미지를 잡는 제스처)에 연속하여 가해지는 제스처에 근거하여 드론(1000)을 이동시킬 수 있다. 다만, 위에서는 상기 제1 방식이 양 손에 의해 행해지는 제스처이고, 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여 드론(1000)을 이동시키는 것으로 예시하였지만, 이에 한정되지 않는다. 다른 예로, 상기 제1 방식은, 한 손에 의해 행해지는 제스처일 수 있다. 또한, 상기 드론의 이동은, 이미지를 잡는 제스처에 연속하여 가해지는 제스처 뿐만 아니라 다양한 방식의 제스처에 연속하여 가해지는 제스처에 근거하여 수행될 수도 있다.
상기 다양한 방식의 제스처는, 일 예로, 상기 이미지(400)의 일 지점(또는, 영역, 부분 등)에서 사용자의 손이 기 설정된 시간 이상 유지되는 제스처일 수 있다. 즉, 제어부(180)는 상기 사용자의 손이 상기 이미지(400)의 일 지점에서 기 설정된 시간동안 유지되는 제스처에 연속하여 일 방향으로 움직이는 제스처가 감지되면, 상기 드론(1000)을 상기 일 방향으로 이동하도록 제어할 수도 있다.
또한, 본 발명과 관련된 글래스타입 단말기(400)는 상기 이미지(400)를 제1 방식(사용자의 양 손)으로 잡는 제스처만 가해지는 것에 근거하여 상기 드론(1000)을 이동시킬 수 있다. 이 때, 제어부(180)는 상기 사용자의 양 손에 의해 상기 이미지(400)를 잡는 위치에 근거하여 서로 다른 방향으로 드론(1000)을 이동시킬 수 있다.
예를 들어, 제어부(180)는 상기 이미지(400)의 좌측과 우측을 잡는 제스처가 가해지면, 드론(1000)을 카메라가 구비된 전면이 향하는 방향으로 이동시키고, 상기 이미지(400)의 상측과 하측을 잡는 제스처가 가해지면, 상기 드론(1000)을 상기 전면과 반대되는 후면이 향하는 방향으로 이동시킬 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 상기 제1 방식과 다른 제2 방식으로 이미지(400)를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여 드론(1000)을 회전시킬 수 있다. 여기서, 상기 드론(1000)을 회전시킨다는 것은, 상기 드론(1000)이 위치한 지점에서 상기 드론의 중심축을 기준으로 회전시킨다는 것을 의미한다.
일 예로, 상기 제2 방식은, 사용자의 양 손이 아닌, 사용자의 한 손에 의해 행해지는 방식일 수 있다. 구체적으로, 상기 제2 방식으로 이미지(400)를 잡는 제스처는, 사용자의 한 손으로 상기 이미지(400)를 잡는 제스처를 의미할 수 있다.
제어부(180)는 상기 이미지(400)를 제2 방식으로 잡는 제스처가 감지되면, 여기서, 상기 이미지(400)가 잡는 제스처가 감지되었다는 것을 알리기 위한 알림정보를 출력할 수 있다. 상기 알림정보는 소리 또는 진동을 발생시키는 것 및 이미지(400)에 인디케이터를 출력하는 것 등일 수 있다.
이 때, 제어부(180)는 도 10a 내지 도 10c에서 설명한 것과 같이, 제1 방식으로 이미지(400)를 잡는 제스처가 감지되었을 경우 출력되는 알림정보와, 상기 제2 방식으로 이미지(400)를 잡는 제스처가 감지되었을 경우 출력되는 알림정보를 서로 다르게 형성할 수 있다. 예를 들어, 제1 방식으로 이미지(400)를 잡는 제스처가 감지되었을 경우 제1 알림정보가 표시되면, 제2 방식으로 이미지(400)를 잡는 제스처가 감지되었을 경우에는 상기 제1 알림정보와 다른 제2 알림정보가 표시될 수 있다.
이후, 제어부(180)는 상기 제2 방식으로 이미지(400)를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 드론(1000)을 회전시킬 수 있다.
예를 들어, 도 11의 제1 도면에 도시된 것과 같이, 상기 이미지(400)를 제2 방식(예를 들어, 사용자의 한 손)으로 잡는 제스처에 연속하여, 상기 이미지를 일 방향(910)으로 회전시키는 제스처가 감지되면, 제어부(180)는 상기 드론(1000)이 상기 드론(1000)의 중심축을 기준으로 상기 일 방향(910)에 대응하는 방향(910')으로 회전되도록 제어할 수 있다.
예를 들어, 제어부(180)는 상기 이미지(400)의 우측을 잡는 제스처에 연속하여 상기 이미지(400)의 우측이 사용자에게 가까워지도록 당기는 제스처가 가해지면, 상기 드론(1000)이 상기 드론(1000)의 중심축을 기준으로 오른쪽 방향으로 회전되도록 상기 드론(1000)을 제어할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는, 상기 제2 방식으로 잡는 제스처에 연속하여 가해지는 제스처에 근거하여 상기 드론(1000)을 회전시킬 수 있을 뿐만 아니라, 상기 제2 방식으로 이미지(400)를 잡는 제스처에 근거하여 상기 드론(1000)을 회전시킬 수 있다. 이 때, 상기 제2 방식으로 이미지(400)를 잡는 제스처가 가해지는 위치에 근거하여 상기 드론(1000)이 회전되는 방향은 서로 달라질 수 있다.
예를 들어, 상기 제2 방식(사용자의 한 손)으로 상기 이미지(400)의 우측을 잡는 제스처가 가해지면, 제어부(180)는 상기 드론(1000)이 상기 드론(1000)의 중심축을 기준으로 우측방향으로 회전되도록 상기 드론(1000)을 제어할 수 있다.
또한, 제어부(180)는 상기 제2 방식으로 상기 이미지(400)의 좌측을 잡는 제스처가 가해지면, 상기 드론(1000)이 상기 드론(1000)의 중심축을 기준으로 좌측방향으로 회전되도록 상기 드론(1000)을 제어할 수 있다.
한편, 제어부(180)는 도 10a 내지 도 11에서 설명한 제1 사용자 제스처(제1 또는 제2 방식으로 상기 이미지를 잡는 제스처, 또는 상기 이미지를 잡는 제스처에 연속하는 제스처)가 해제되면, 상기 드론(1000)이 움직이지 않도록 제어할 수 있다. 즉, 제어부(180)는 상기 이미지를 잡는 제스처가 해제되면, 상기 드론(1000)이 현재 위치(상기 제스처가 해제되는 시점에 위치한 지점)에서의 비행을 유지하도록 상기 드론(1000)을 제어할 수 있다.
한편, 글래스타입 단말기(100)는 제1 표시방식으로 상기 이미지(400)가 표시(형성)된 상태에서, 상기 제1 사용자 제스처가 가해지는 것에 응답하여, 상기 제1 표시방식과 다른 제2 표시방식으로 상기 이미지(400)를 표시할 수 있다.
여기서, 상기 표시방식은, 상기 이미지(400)가 형성된 표시위치, 표시형태, 표시크기 등을 포함하는 개념으로 이해되어야 한다.
예를 들어, 도 12의 제1 도면에 도시된 것과 같이, 본체를 벗어난 가상영역에 제1 표시방식(A)으로 시각정보의 이미지(400)가 형성된 상태에서, 도 12의 제2 도면에 도시된 것과 같이, 상기 이미지(400)를 제1 방식으로 잡는 제스처에 연속하여 사용자에 가까워지도록 움직이는 제스처가 가해지면, 제어부(180)는 상기 시각정보의 이미지(400)를 제1 표시방식(A)에서 제2 표시방식(B)으로 변경할 수 있다. 예를 들어, 상기 제2 표시방식은, 상기 제1 표시방식(A)으로 형성된 이미지(400)를 사용자에게 보다 가까운 위치에 표시시키고, 상기 이미지(400)의 크기를 변경하는 것 등을 포함할 수 있다.
이에 종속하여, 드론(1000)은 상기 사용자에 가까워지도록 움직이는 제스처에 근거하여, 상기 드론(1000)의 전면에 반대되는 후면이 향하는 방향으로 이동할 수 있다.
이후, 도 12의 제3 도면에 도시된 것과 같이, 상기 이미지(400)를 잡은 제스처가 해제되는 것에 근거하여, 제어부(180)는 상기 제2 표시방식(B)으로 표시된 이미지(400)를 상기 제1 표시방식(A)으로 복원할 수 있다. 여기서, 상기 제1 표시방식(A)은 이미지를 잡는 제스처가 가해지기 전에 표시되는 방식으로, 디폴트 표시방식일 수 있다.
이에 종속하여, 드론(1000)은 상기 이미지(400)를 잡는 제스처가 해제되는 시점에 위치한 지점에서 비행을 유지할 수 있다.
이러한 구성을 통해, 본 발명에서는 본체를 벗어난 영역에 형성된 시각정보의 이미지에 가해지는 사용자 제스처(예를 들어, 제1 사용자 제스처)에 근거하여 드론의 움직임을 제어할 수 있는 최적화된 UI/UX를 제공할 수 있다.
이하에서는, 본 발명에서 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여 상기 드론에 구비된 카메라를 제어하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다.
도 13a 및 도 13b는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 드론에 구비된 카메라를 제어하는 방법을 설명하기 위한 개념도이고, 도 14a 및 도 14b는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지의 표시크기를 변경하는 방법을 설명하기 위한 개념도이다.
본 발명과 관련된 글래스타입 단말기(100)는 본체를 벗어난 가상영역에 형성된 시각정보의 이미지(400)에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 드론(1000)에 구비된 카메라(1121)를 제어하기 위한 제어신호를 전송할 수 있다.
여기서 상기 기 설정된 방식의 제스처는, 도 10a 내지 도 12에서 설명한 제1 사용자 제스처와 다른 제2 사용자 제스처일 수 있다. 여기서, 상기 제2 사용자 제스처는, 일 예로, 상기 이미지(400)에 가해지는 핀치-인(pinch-in) 제스처 및 핀치-아웃(pinch-out)제스처 중 적어도 하나일 수 있다.
상기 핀치-인 제스처는, 서로 다른 두 지점에 위치한 사용자 양 손(또는 두 개의 손가락) 중 적어도 하나가 서로 가까워지는 방향으로 움직이는 제스처를 의미한다.
상기 핀치-아웃 제스처는, 서로 다른 두 지점에 위치한 사용자 양손(또는 두 개의 손가락) 중 적어도 하나가 서로 멀어지는 방향으로 움직이는 제스처를 의미한다.
제어부(180)는 상기 핀치-인 제스처 및 핀치-아웃 제스처 중 어느 하나가 가해지는 것에 근거하여, 상기 드론(1000)에 구비된 카메라(1121)가 줌-아웃(zoom-out) 기능 및 줌-인(zoom-in) 기능 중 어느 하나의 기능을 수행하도록 상기 드론(1000)에 구비된 카메라(1121)를 제어할 수 있다.
예를 들어, 도 13a의 제1 도면에 도시된 것과 같이, 상기 이미지(400)에 핀치-인 제스처(1100a)가 가해지면, 제어부(180)는, 도 13a의 제2 도면에 도시된 것과 같이, 상기 드론(1000)에 구비된 카메라(1121)가 줌-아웃 기능을 수행하도록 상기 드론(1000)(또는 드론에 구비된 카메라(1121))를 제어할 수 있다.
상기 드론에 구비된 카메라(1121)가 줌 아웃 기능이 수행하면, 상기 카메라(1121)를 통해 수신되는 프리뷰 영상은 변경되게 된다. 이에 따라, 상기 드론으로부터 전송되는 프리뷰 영상에 해당하는 시각정보도 변경된다. 또한, 상기 시각정보의 변경에 종속하여 상기 시각정보의 이미지(400)도 변경된다.
다른 예로, 도 13b의 제1 도면에 도시된 것과 같이, 상기 이미지(400)에 핀치-아웃 제스처(1100b)가 가해지면, 제어부(180)는, 도 13b의 제2 도면에 도시된 것과 같이, 상기 드론(1000)에 구비된 카메라(1121)가 줌-인 기능을 수행하도록 상기 드론(1000)(또는 드론에 구비된 카메라(1121)를 제어할 수 있다.
한편, 도 13b의 제2 도면에 도시된 것과 같이, 상기 핀치 아웃 제스처가 상기 이미지(400)를 벗어나도록 가해지는 경우, 제어부(180)는, 도 13b의 제3 도면에 도시된 것과 같이, 상기 드론(1000)을 상기 드론의 카메라(1121)가 구비된 전면이 향하는 방향으로 이동시킬 수 있다.
예를 들어, 상기 핀치 아웃 제스처를 가하는 사용자의 양 손이 상기 이미지(400) 상의 서로 다른 두 지점에 가해진 후 상기 사용자의 양 손 중 적어도 하나가 서로 멀어지는 방향으로 이동하는 것에 연속하여 상기 이미지(400)를 벗어나는 제스처가 가해지면, 제어부(180)는 상기 드론(1000)을 상기 드론의 카메라(1121)가 구비된 전면이 향하는 방향으로 이동시킬 수 있다. 이 때, 상기 드론(1000)은, 상기 핀치 아웃 제스처에 연속하여 상기 사용자의 양 손이 상기 이미지(400)를 벗어난 영역에 유지되는 동안 이동될 수 있다.
한편, 제어부(180)는 상기 핀치 인 제스처 또는 핀치 아웃 제스처가 가해지는 경우, 다양한 조건에 근거하여 드론(1000)을 이동시킬 수 있다.
예를 들어, 상기 드론의 카메라(1121)가 최대로 줌-인된 상태에서, 상기 핀치 아웃 제스처가 가해지면, 상기 핀치 아웃 제스처가 상기 이미지를 벗어나지 않더라도, 제어부(180)는 상기 드론(1000)을 상기 드론의 카메라(1121)가 구비된 전면이 향하는 방향으로 이동시킬 수 있다.
다른 예로, 상기 드론의 카메라(1121)가 최대로 줌-아웃된 상태에서, 상기 핀치 인 제스처가 가해지면, 제어부(180)는 상기 드론(1000)을 상기 드론의 카메라(1121)가 구비된 전면과 반대되는 후면이 향하는 방향으로 이동시킬 수 있다.
상기 이미지(400)에 가해지는 제2 사용자 제스처(예를 들어, 핀치 인 제스처 또는 핀치 아웃 제스처)가 해제되면, 제어부(180)는 드론(1000)이 상기 제2 사용자 제스처가 해제되는 시점에 위치한 지점에서 비행을 유지하도록 상기 드론(1000)을 제어할 수 있다.
여기서, 사용자 제스처가 해제되었다는 것은, 상기 사용자 제스처를 가하는 사용자의 손이 글래스타입 단말기(100)의 감지부(140)의 감지영역을 벗어났다는 것을 의미할 수 있다. 예를 들어, 글래스타입 단말기(100)의 카메라 시야각 내에 사용자 제스처를 가하는 사용자의 손이 존재하다가, 상기 사용자의 손이 상기 카메라 시야각을 벗어나는 경우, 제어부(180)는 상기 사용자 제스처가 해제되었다고 판단할 수 있다.
한편, 상기 핀치-인 제스처 및 핀치-아웃 제스처는, 다양한 방식으로 형성될 수 있다. 일 예로, 상기 핀치-인 제스처 및 핀치-아웃 제스처는, 사용자의 양 손이 상기 이미지(400)상에서 기준시간 이상 서로 다른 지점에서 유지되다가, 상기 양 손 중 적어도 하나가 서로 가까워지거나 멀어지는 제스처를 포함할 수 있다. 또한, 상기 핀치-인 제스처 및 핀치-아웃 제스처는, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여, 상기 양 손 중 적어도 하나가 가까워지거나 멀어지는 제스처를 포함할 수 있다.
이러한 구성을 통해, 본 발명에서는 드론(1000)의 카메라(1121)를 통해 수신되는 프리뷰 영상에 해당하는 시각정보의 이미지를 이용하여 드론의 카메라(1121)를 제어할 수 있다. 이에 따라, 사용자는 보다 편하고 직관적으로 드론(1000)에 의해 촬영되는 영상을 보면서 상기 드론(1000)의 카메라를 제어할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 드론(1000)으로부터 전송되는 시각정보의 이미지(400)에 기 설정된 방식의 제스처에 근거하여, 상기 이미지(400)의 표시크기를 변경하거나, 상기 이미지(400)를 변경할 수 있다.
상기 기 설정된 방식의 제스처는 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손 중 적어도 하나가 이동하는 제스처일 수 있다.
예를 들어, 도 14a에 도시된 것과 같이, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손이 서로 멀어지는 제스처가 가해지면, 제어부(180)는 상기 이미지(400)의 표시크기를 확대(확장)할 수 있다.
다른 예로, 도시되진 않았지만, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손이 서로 가까워지는 제스처가 가해지면, 제어부(180)는 상기 이미지(400)의 표시크기를 축소할 수 있다.
한편, 제어부(180)는 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손 중 어느 하나가 이동하는 제스처가 가해지는 것에 근거하여, 상기 이미지(400)를 변경할 수 있다.
예를 들어, 제어부(180)는, 도 14b에 도시된 것과 같이, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여, 상기 양 손 중 어느 하나가 고정되고, 나머지 하나가 상기 어느 하나와 가까워지는 방향으로 이동하는 제스처가 감지되면, 제어부(180)는 상기 나머지 하나의 제스처에 근거하여, 상기 이미지(400)를 변경할 수 있다. 여기서, 상기 이미지(400)의 변경은 상기 이미지(400)를 자르는 기능일 수 있다.
다른 예로, 제어부(180)는, 도시되진 않았지만, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여, 상기 양 손 중 어느 하나가 고정되고, 나머지 하나가 상기 어느 하나와 멀어지는 방향으로 이동하는 제스처가 감지되면, 제어부(180)는 상기 드론(1000)의 카메라(1121)를 줌 아웃 시키거나, 상기 드론(1000)이 카메라(1121)가 구비된 전면과 반대되는 후면이 향하는 방향으로 이동되도록 상기 드론(1000)을 제어할 수 있다.
이하에서는, 본 발명에서 드론으로부터 전송되는 시각정보의 이미지를 이용하여, 상기 시각정보(또는 상기 시각정보의 이미지)를 캡쳐하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다.
도 15a, 도 15b 및 도 15c는 본 발명의 일 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지를 이용하여 상기 시각정보를 캡쳐하는 방법을 설명하기 위한 개념도이다.
본 발명과 관련된 글래스타입 단말기(100)는 다양한 방법으로 캡쳐 기능을 수행할 수 있다. 상기 캡쳐 기능은, 카메라를 통해 수신되는 프리뷰 영상을 정지영상 또는 동영상 등으로 촬영하는 기능을 의미한다. 이하에서는 상기 캡쳐 기능이 프리뷰 영상을 정지영상으로 촬영하는 기능인 것으로 예를 들어 설명하기로 한다.
본 발명과 관련된 글래스타입 단말기(100)는 시각정보의 이미지(400)에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 상기 이미지(400) 또는 상기 시각정보를 캡쳐할 수 있다. 여기서, 상기 이미지(400)를 캡쳐하는 것은, 상기 이미지(400)의 실상에 해당하는 시각정보(300)를 캡쳐하는 것과 동일/유사한 의미를 내포할 수 있다. 이하에서는, 설명의 편의를 위해, 이미지(400)를 캡쳐한다고 설명한다.
캡쳐 기능에 연계된 기 설정된 방식의 제스처는 다양할 수 있다.
예를 들어, 도 15a의 제1 도면에 도시된 것과 같이, 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 드론(1000)으로부터 수신되는 시각정보(드론의 카메라를 통해 수신되는 프리뷰 영상)의 이미지(400)가 형성된 상태에서, 제어부(180)는 상기 이미지(400)에 사용자의 손이 펴진 상태(1300a)를 감지할 수 있다.
이후, 도 15a의 제2 도면에 도시된 것과 같이, 상기 사용자의 손이 펴진 상태에서 말아지는 제스처(1300b)가 감지되면, 제어부(180)는 상기 시각정보의 이미지(400)를 캡쳐할 수 있다.
다른 예로, 제어부(180)는 상기 시각정보의 이미지(400)에 기 설정된 손 형태가 감지되는 것에 근거하여 상기 시각정보의 이미지(400)를 캡쳐할 수 있다.
일 예로, 상기 기 설정된 손 형태는, 도 15b에 도시된 것과 같이, 상기 이미지(400) 또는 상기 이미지(400)의 주변에서 사용자의 어느 한 손의 엄지와 검지 및 상기 사용자의 나머지 한 손의 엄지와 검지가 각각 직각을 이루도록 형성된 형태일 수 있다. 이 밖에도, 제어부(180)는 다양한 손 형태가 감지되는 것에 근거하여 상기 시각정보의 이미지(400)를 캡쳐할 수 있다. 캡쳐된 이미지는, 글래스타입 단말기(100)의 메모리(170)에 저장될 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는, 파노라마 촬영 기능이 연계된 사용자 제스처가 시각정보의 이미지(400)에 가해지는 것에 근거하여, 파노라마 촬영을 수행할 수 있다.
상기 파노라마 촬영 기능은, 카메라에 수신되는 프리뷰 영상과 상기 프리뷰 영상과 다른 영상을 연속적으로 이어 하나의 이미지로 촬영하는 기능을 의미한다. 이러한 파노라마 촬영을 위해, 카메라가 구비된 단말기(예를 들어, 글래스타입 단말기 또는 드론)가 일 방향으로 이동 또는 회전하는 것이 필요하다.
상기 파노라마 촬영 기능이 연계된 사용자 제스처는 다양한 방식의 제스처를 포함할 수 있다. 예를 들어, 도 15c의 제1 및 제2 도면에 도시된 것과 같이, 상기 파노라마 촬영 기능이 연계된 사용자 제스처는, 사용자의 양 손으로 상기 이미지(400)를 잡는 제스처에 연속하여 상기 양 손 중 어느 하나의 손을 일 방향으로 이동시키는 제스처일 수 있다.
도 15c의 제1 도면에 도시된 것과 같이, 드론(1000)으로부터 수신되는 시각정보의 이미지(400)를 양 손으로 잡는 제스처가 가해진 후, 상기 제스처에 연속하여 상기 양 손 중 어느 하나의 손(예를 들어, 오른 손)이 일 방향(예를 들어, 위쪽 방향)으로 움직이는 제스처가 가해지면, 제어부(180)는 파노라마 촬영 기능을 실행할 수 있다. 또한, 제어부(180)는 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손 중 어느 하나의 손이 일 방향으로 움직이는 제스처가 가해지는 것에 근거하여, 드론(1000)을 상기 일 방향에 대응하는 방향으로 이동시킬 수 있다.
제어부(180)는 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손 중 어느 하나의 손이 일 방향으로 움직이는 제스처가 가해지면, 상기 어느 하나의 손이 일 방향으로 움직이는 제스처에 종속하여 상기 이미지(400)를 이동시킬 수 있다. 또한, 제어부(180)는 상기 제스처에 근거하여 파노라마 촬영 기능이 실행되면, 상기 파노라마 촬영 상태를 가이드하는 정보의 이미지(1340)를 본체를 벗어난 가상영역에 형성할 수 있다.
제어부(180)는, 상기 이미지(400)를 양 손으로 잡는 제스처에 연속하여 상기 양 손 중 어느 하나의 손이 일 방향으로 움직이는 제스처가 가해지는 동안 상기 드론이 일 방향에 대응하는 방향으로 이동하면서 전송하는 시각정보를 수신한다. 이후, 제어부(180)는 상기 드론(1000)이 이동하면서 전송하는 시각정보들을 연속적으로 이어 하나의 이미지를 생성한다.
이후, 제어부(180)는 양 손에 의한 제스처가 해제되면, 파노라마 촬영 기능을 종료할 수 있다. 또한, 제어부(180)는 상기 양 손에 의한 제스처가 해제되면, 상기 해제되는 시점까지 생성된 하나의 이미지를 파노라마 캡쳐 이미지 형성할 수 있다. 상기 형성된 파노라마 캡쳐 이미지는, 도 15c의 제4 도면과 같을 수 있으며, 글래스타입 단말기(100)의 메모리(170)에 저장될 수 있다.
이러한 구성을 통해, 본 발명에서는 보다 편리하게 드론의 카메라를 통해 수신되는 프리뷰 영상을 캡쳐할 수 있는 사용자 인터페이스를 제공할 수 있다.
이하에서는, 본 발명과 관련된 글래스타입 단말기에서, 글래스타입 단말기(100)에 구비된 카메라(121)를 통해 수신되는 프리뷰 영상과 드론(1000)에 구비된 카메라(1121)를 통해 수신되는 프리뷰 영상에 해당하는 시각정보의 이미지들을 제어하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 설명한다.
도 16a, 도 16b, 도 16c 및 도 16d는 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 개념도이다.
또한, 도 17a 및 도 17b는 본 발명의 다른 실시 예에 따른 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 개념도이다.
제어부(180)는 글래스타입 단말기(100)에 구비된 카메라(121)를 통해 수신되는 프리뷰 영상을 출력하도록 디스플레이부(151)를 제어할 수 있다. 또한, 제어부(180)는 상기 프리뷰 영상의 이미지가 본체를 벗어난 가상영역에 형성되도록 광학부(130)를 제어할 수 있다.
이 때, 제어부(180)는 상기 본체를 벗어난 가상영역에 드론(1000)으로부터 수신되는 시각정보의 이미지와 프리뷰 영상의 이미지가 함께 형성되도록 디스플레이부(151) 및 광학부(130)를 제어할 수 있다.
예를 들어, 도 16a에 도시된 것과 같이, 제어부(180)는 드론(1000)에 구비된 카메라(1121)를 통해 수신되는 프리뷰 영상에 해당하는 시각정보를 상기 드론(1000)으로부터 수신하면, 상기 시각정보의 이미지(400a)를 본체를 벗어난 가상영역에 형성할 수 있다.
또한, 제어부(180)는, 도 16a에 도시된 것과 같이, 글래스타입 단말기(100)에 구비된 카메라(121)가 사용자 요청에 근거하여 활성화되면, 상기 카메라(121)를 통해 프리뷰 영상을 수신하고, 상기 수신된 프리뷰 영상의 이미지(400b)를 상기 본체를 벗어난 가상영역에 형성할 수 있다.
이 때, 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)는 본체를 벗어난 가상영역에 함께 형성되며, 이는 사용자 요청에 근거하여 형성될 수 있다.
상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)는 기 설정된 이격거리(d)를 갖도록 서로 이격되어 형성될 수 있다.
즉, 상기 시각정보의 이미지(400a)는 드론(1000)의 카메라(1121)를 통해 수신되는 영상에 해당하고, 상기 프리뷰 영상의 이미지(400b)는 글래스타입 단말기(100)의 카메라(121)를 통해 수신되는 영상에 해당할 수 있다.
제어부(180)는 기 설정된 방식의 제스처가 상기 이미지들(400a, 400b)에 가해지는 것에 근거하여, 상기 이미지들 중 적어도 하나의 표시위치를 변경하거나 상기 적어도 하나를 이동시킬 수 있다. 구체적으로, 제어부(180)는 상기 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나의 이미지에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 상기 적어도 하나의 이미지를 이동시킬 수 있다.
예를 들어, 상기 기 설정된 방식의 제스처는, 상기 이미지들 중 적어도 하나를 잡는 제스처에 연속하여 가해지는 제스처일 수 있다. 도 16b의 제1 도면에 도시된 것과 같이, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 시각정보의 이미지(400a)를 잡는 제스처에 연속하여 일 방향으로 움직이는 제스처가 가해지면, 제어부(180)는 상기 시각정보의 이미지(400a)를 상기 일 방향으로 이동시킬 수 있다. 상기 시각정보의 이미지(400a)에 가해진 기 설정된 방식의 제스처가 해제되면, 도 16b의 제2 도면에 도시된 것과 같이, 제어부(180)는 상기 시각정보의 이미지(400a)를 상기 기 설정된 방식의 제스처가 해제된 지점에 대응하는 지점에 위치(표시, 형성)시킬 수 있다.
여기서, 제어부(180)는 상기 이동에 의해 상기 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b)가 서로 접촉되면(맞닿으면), 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)를 캡쳐할 수 있다.
이 때, 제어부(180)는, 상기 이동에 의해 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)가 접촉되면, 상기 접촉된 상태의 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)를 하나의 이미지로 캡쳐할 수 있다.
예를 들어, 도 16c의 제1 도면에 도시된 것과 같이, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b)가 함께 형성된 상태에서, 상기 시각정보의 이미지(400a)는 기 설정된 방식의 제스처(예를 들어, 상기 시각정보의 이미지(400a)를 잡는 제스처에 연속하여 일 방향으로 움직이는 제스처)가 가해지는 것에 근거하여 상기 시각정보의 이미지(400a)를 이동시킬 수 있다.
이후, 도 16c의 제2 도면에 도시된 것과 같이, 상기 이동에 의해 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되면, 제어부(180)는, 도 16c의 제4 도면에 도시된 것과 같이, 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)를 하나의 이미지(1400)로 캡쳐할 수 있다.
상기 캡쳐가 수행된 이후, 상기 기 설정된 방식의 제스처가 해제되면, 제어부(180)는, 도 16c의 제3 도면에 도시된 것과 같이, 상기 기 설정된 방식의 제스처에 의해 이동된 이미지(예를 들어, 시각정보의 이미지(400a))를 상기 기 설정된 방식의 제스처가 가해지기 이전에 위치한 지점으로 복원시킬 수 있다.
한편, 제어부(180)는 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)가 접촉되면, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나를 각각 캡쳐할 수도 있다.
한편, 제어부(180)는 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 기 설정된 제스처에 의해 접촉되더라도, 기 설정된 조건을 만족하는 것에 근거하여 캡쳐가 수행되도록 제어할 수 있다.
상기 캡쳐가 수행되기 위한 기 설정된 조건은, 일 예로, 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되는 부분(1410)의 연속성(또는 일치율)이 기 설정된 임계값 이상인 경우일 수 있다.
예를 들어, 도 16d의 제1 도면에 도시된 것과 같이, 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되는 부분(1410)이 연속되지 않는 경우(또는, 상기 부분(1410)의 연속성이 기 설정된 임계값 이하인 경우), 제어부(180)는, 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되더라도 캡쳐를 수행하지 않을 수 있다.
이 때, 제어부(180)는, 일 예로, 상기 접촉되는 부분(1410)이 연속되지 않음을 알리는 알림정보를 출력할 수 있다. 다른 예로, 제어부(180)는 상기 시각정보를 전송하는 드론(1000), 상기 드론(1000)의 카메라(1121) 및 프리뷰 영상을 수신하는 글래스타입 단말기(100)의 카메라(121) 중 적어도 하나를 제어하여, 상기 접촉되는 부분(1410)의 연속성이 기 설정된 임계값 이상으로 일치되도록 상기 시각정보 및 프리뷰 영상 중 적어도 하나를 변경할 수 있다.
도 16d의 제2 도면에 도시된 것과 같이, 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되는 부분(1410)이 연속되는 경우(또는, 상기 부분(1410)의 연속성이 기 설정된 임계값 이상인 경우), 제어부(180)는, 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)가 접촉되는 것에 근거하여 상기 시각정보의 이미지(400a)와 상기 프리뷰 영상의 이미지(400b)를 하나의 이미지(1400)로 캡쳐할 수 있다.
마찬가지로, 제어부(180)는 상기 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)가 접촉된 부분의 연속성이 기 설정된 임계값 이상으로 일치하면, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나를 각각 캡쳐할 수도 있다.
이러한 구성을 통해, 본 발명에서는 드론으로부터 수신되는 시각정보의 이미지를 캡쳐할 수 있을 뿐만 아니라, 글래스타입 단말기(100)의 카메라를 통해 수신되는 프리뷰 영상과 상기 드론으로부터 수신되는 시각정보를 이용하여 다양한 방식으로 캡쳐를 수행할 수 있는 UI/UX를 제공할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는, 글래스타입 단말기(100)의 카메라(121)가 활성화됨에 따라 상기 카메라(121)를 통해 프리뷰 영상이 수신되고, 드론(1000)의 카메라(1121)를 통해 수신되는 프리뷰 영상에 해당하는 시각정보가 상기 드론(1000)으로부터 전송되더라도, 상기 시각정보 및 프리뷰 영상 중 어느 하나에 해당하는 이미지만을 형성할 수 있다.
도 17a의 제1 도면에 도시된 것과 같이, 제어부(180)는 글래스타입 단말기(100)의 카메라(121)가 활성화 상태이더라도, 드론으로부터 수신되는 시각정보의 이미지(400a)만을 본체를 벗어난 가상영역에 형성할 수 있다.
이후, 제어부(180)는 다양한 방식으로 상기 시각정보의 이미지(400a)를 글래스타입 단말기(100)의 카메라(121)를 통해 수신되는 프리뷰 영상의 이미지(400b)로 전환할 수 있다.
예를 들어, 제어부(180)는, 도 17a의 제2 도면에 도시된 것과 같이, 감지부(140)를 통해 글래스타입 단말기(100)를 착용한 사용자의 눈이 깜박이는 것을 감지할 수 있다. 제어부(180)는, 도 17a의 제3 도면에 도시된 것과 같이, 상기 사용자의 눈이 깜박이는 것에 근거하여, 상기 시각정보의 이미지(400a)를 프리뷰 영상의 이미지(400b)로 전환할 수 있다.
여기서, 상기 사용자의 눈이 깜박거리는 것은, 사용자가 눈을 뜬 상태에서 상기 눈을 감았다가 다시 뜨는 동작을 의미할 수 있다.
구체적으로, 제어부(180)는 상기 사용자의 좌안 및 우안 중 적어도 하나가 깜박이는 것에 근거하여, 상기 시각정보의 이미지(400a)를 프리뷰 영상의 이미지(400b)로 전환하거나, 상기 프리뷰 영상의 이미지(400b)를 시각정보의 이미지(400a)로 전환할 수 있다. 또한, 제어부(180)는 상기 사용자의 좌안 및 우안 중 적어도 하나가 깜박이는 것에 근거하여, 상기 시각정보의 이미지(400a)와 프리뷰 영상(400b)의 이미지가 본체를 벗어난 가상영역에 함께 형성되도록 제어할 수도 있다.
다만, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b)에 대한 전환은, 사용자의 눈이 깜박이는 경우에 한정되어 수행되는 것이 아닌, 다양한 방식에 근거하여 수행될 수 있다. 일 예로, 제어부(180)는 상기 시각정보의 이미지(400a)에 드래그(drag) 제스처, 플리크(flick) 제스처 또는 스와이프(swipe) 제스처가 가해지는 것에 근거하여, 상기 시각정보의 이미지(400a)를 프리뷰 영상의 이미지(400b)로 전환할 수 있다. 상기 프리뷰 영상의 이미지(400b)에서 시각정보의 이미지(400a)로의 전환도 마찬가지로 적용될 수 있다.
상기 드래그 제스처는 가상영역에 형성된 이미지에의 제1 지점에서 시작되는 제스처가 일 방향을 따라 연속적으로 움직이다가 상기 제1 지점과 다른 제2 지점에서 해제되는 제스처일 수 있다.
상기 플리크 제스처는, 상기 드래그 제스처가 기 설정된 시간 안에 수행되는 제스처로, 기 설정된 속도 이상으로 드래그 제스처가 가해지는 제스처를 의미할 수 있다.
상기 스와이프 제스처는 좌우 방향 또는 상하 방향으로 가해지는 드래그 제스처를 의미할 수 있다.
한편, 제어부(180)는 사용자의 눈 깜박임에 근거하여, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나를 캡쳐할 수 있다.
예를 들어, 도 17b를 참조하면, 제어부(180)는 사용자의 좌안(1500b)이 깜박거리면, 시각정보의 이미지(400a)를 캡쳐하고, 사용자의 우안(1500a)이 깜박거리면, 프리뷰 영상의 이미지(400b)를 캡쳐할 수 있다.
또한, 제어부(180)는 사용자의 양 안이 함께 깜박거리면, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b)를 함께 캡쳐할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 다양한 방법으로 캡쳐된 이미지를 출력할 수 있다. 이하에서는, 본 발명에서 캡쳐된 이미지를 출력하는 방법에 대하여 첨부된 도면을 참조하여 보다 구체적으로 살펴본다.
도 18은 본 발명의 일 실시 예에 따른 캡쳐된 이미지를 확인하는 방법을 설명하기 위한 개념도이다.
본 발명과 관련된 글래스타입 단말기(100)는, 본체를 벗어난 가상영역에 형성된 이미지에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 캡쳐된 이미지를 확인하는 것이 가능한 화면정보의 이미지를 상기 가상영역에 형성할 수 있다.
상기 기 설정된 방식의 제스처는, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나에 가해지는 드래그 제스처, 플리크 제스처 및 스와이프 제스처 중 적어도 하나일 수 있다.
예를 들어, 도 18의 제1 도면에 도시된 것과 같이, 본체를 벗어난 가상영역에 시각정보의 이미지(400a)와 프리뷰 영상의 이미지(400b)에 함께 플리크 제스처가 가해지면, 제어부(180)는, 도 18의 제2 도면에 도시된 것과 같이, 상기 시각정보의 이미지(400a)와 프리뷰 영상의 미지(400b)를 캡쳐된 이미지를 확인하는 것이 가능한 화면정보의 이미지(1600)로 전환할 수 있다.
상기 캡쳐된 이미지를 확인하는 것이 가능한 화면정보의 이미지(1600)에는, 캡쳐된 이미지(또는, 상기 캡쳐된 이미지의 썸네일), 캡쳐된 날짜정보, 드론(1000)으로부터 전송되는 시각정보의 이미지에 대한 캡쳐인지 글래스타입 단말기의 카메라(121)를 통해 수신되는 프리뷰 영상의 이미지에 대한 캡쳐인지 여부를 나타내는 정보 등이 포함될 수 있다. 또한, 상기 화면정보의 이미지(1600)에는 날짜별, 드론(1000)의 비행별, 시각정보의 이미지에 대한 캡쳐이미지별, 프리뷰 영상의 이미지에 대한 캡쳐이미지별로 분류되어 캡쳐 이미지 등이 표시될 수 있다.
도 18의 제2 도면에는, 드론의 비행별로 드론(1000)으로부터 전송되는 시각정보의 이미지가 캡쳐된 캡쳐 이미지가 분류된 화면정보의 이미지(1600)가 도시되어 있다. 상기 캡쳐된 이미지 각각에는, 캡쳐 당시 드론(1000)의 위치정보, 캡쳐 당시 드론(1000)의 카메라가 바라보는 방향정보 등이 포함될 수 있다.
한편, 상기 화면정보의 이미지(1600)에는 지도정보의 이미지를 출력하는 기능과 연계된 아이콘의 이미지(1650)가 더 포함될 수 있다.
상기 아이콘의 이미지(1650)에 대한 터치 제스처가 감지되면, 제어부(180)는 상기 화면정보의 이미지(1600)를 지도정보의 이미지(1680)로 전환할 수 있다.
도 18의 제3 도면에 도시된 것과 같이, 상기 지도정보의 이미지(1680)에는, 메모리(170)에 기 저장된 지도정보 또는 외부기기(또는 외부 서버)로부터 수신하는 지도정보, 드론 아이콘(2000), 캡쳐 당시 드론의 카메라가 바라보는 방향을 가이드하는 인디케이터(2010) 및 캡쳐 이미지(1610a, 1620a, 1630a) 등이 포함될 수 있다.
드론 아이콘(2000), 캡쳐 당시 드론의 카메라가 바라보는 방향을 가이드하는 인디케이터(2010) 및 캡쳐 이미지 각각은 서로 연계되어 있을 수 있다. 제어부(180)는 캡쳐 이미지별로 포함된 캡쳐 당시 드론(1000)의 위치정보, 캡쳐 당시 드론(1000)의 카메라가 바라보는 방향 정보등에 근거하여, 지도정보의 이미지(1680)에 상기 드론 아이콘(2000), 캡쳐 당시 드론의 카메라가 바라보는 방향을 가이드하는 인디케이터(2010) 및 캡쳐 이미지 중 적어도 하나를 표시할 수 있다.
또한, 제어부(180)는 드론의 비행시작지점에 대한 정보 및 드론(1000)의 비행경로를 나타내는 이미지 등을 지도정보의 이미지(1680)에 더 표시할 수 있다.
이러한 구성을 통해, 본 발명은 보다 직관적이고 편리하게 캡쳐된 이미지를 확인할 수 있는 글래스타입 단말기를 제공할 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 본체를 벗어난 가상영역에 형성된 이미지를 이용하는 방법 뿐만 아니라 다양한 방법으로 드론(1000)을 제어할 수 있다.
이하에서는, 첨부된 도면을 참조하여 글래스타입 단말기(100)를 이용한 드론 제어방법에 대하여 보다 구체적으로 살펴본다.
도 19a, 도 19b, 도 19c 및 도 19d는 본 발명의 일 실시 예에 따른 글래스타입 단말기를 이용하여 드론을 제어하는 방법을 설명하기 위한 개념도이다.
본 발명과 관련된 글래스타입 단말기(100)는 사용자 입력부(123) 및 글래스타입 단말기(100)의 움직임 중 적어도 하나에 근거하여 드론(1000)을 제어할 수 있다.
감지부(140)는 상기 글래스타입 단말기(100)의 움직임을 감지할 수 있다. 상기 글래스타입 단말기(100)의 움직임을 감지한다는 것은, 상기 글래스타입 단말기(100)를 착용한 사용자 헤드의 움직임을 감지한다는 것으로 이해될 수 있다.
예를 들어, 도 19a에 도시된 것과 같이, 제어부(180)는, 카메라(121)가 드론(1000)을 향하도록 배치된 상태에서, 사용자 입력부(123)에 터치가 가해지면, 상기 드론(1000)으로 제어신호를 전송할 수 있다.
상기 제어신호는, 글래스타입 단말기(100)와 드론(1000)을 연결하기 위한 신호 및 상기 드론(1000)의 움직임, 상기 드론(1000)에 구비된 카메라(1121) 등을 제어하기 위한 신호 등을 포함할 수 있다.
상기 카메라(121)가 드론(1000)을 향하도록 배치된 상태라는 것은, 상기 카메라(121)를 통해 수신되는 프리뷰 영상에 드론(1000)에 해당하는 이미지가 포함된 상태를 의미할 수 있다.
상기 카메라(121)가 드론(1000)을 향하도록 배치되고, 상기 사용자 입력부(123)에 터치가 가해진 상태에서, 상기 글래스타입 단말기(100)가 움직이는 것이 감지되면, 제어부(180)는 상기 드론(1000)이 상기 글래스타입 단말기(100)의 움직임에 대응되게 움직여지도록 상기 드론(1000)을 제어할 수 있다.
예를 들어, 도 19a에 도시된 것과 같이, 상기 사용자 입력부(123)에 터치가 가해진 상태에서, 상기 글래스타입 단말기(100)가 일 방향(1700a)으로 움직여지면, 상기 드론(1000)은 상기 일 방향(1700a)에 대응하는 방향(1700a')으로 움직일 수 있다.
한편, 제어부(180)는 상기 사용자 입력부(123)에 가해진 터치의 종류에 따라 드론(1000)의 움직임을 다르게 제어할 수 있다.
예를 들어, 도 19b의 제1 도면에 도시된 것과 같이, 글래스타입 단말기(100)의 카메라(121)가 드론(1000)을 향하도록 배치된 상태에서, 상기 사용자 입력부(123)에 제1 방식의 터치(예를 들어, 일 지점에서의 터치)가 유지되는 상태에서 상기 글래스타입 단말기(100)가 움직여지는 것(1700b)에 근거하여, 상기 드론(100)은 상기 글래스타입 단말기(100)의 움직임(1700b)에 대응되도록 움직여질 수 있다(1700b').
이 때, 제어부(180)는 상기 제1 방식의 터치가 유지되는 상태에서 상기 제1 방식과 다른 제2 방식의 터치(예를 들어, 적어도 두 개의 지점에서의 터치)가 가해지면, 도 19b의 제2 도면에 도시된 것과 같이, 상기 글래스타입 단말기(100)의 움직임이 없더라도, 상기 제1 방식의 터치가 유지되는 상태에서 감지되는 상기 글래스타입 단말기(100)의 움직임(1700b)에 대응하는 움직임(1700b')으로 움직여지도록 드론(1000)을 제어할 수 있다.
구체적으로, 글래스타입 단말기(100)를 착용한 사용자의 헤드가 움직이는 것이 가능한 범위는, 사용자의 몸을 움직이지 않는 상태에서 제1 범위(1710a) 및 상기 제1 범위와 다른 제2 범위(1710b)로 구분될 수 있다. 상기 제1 범위(1710a)는 글래스타입 단말기(100)가 향할 수 있는 범위, 즉 글래스타입 단말기(100)의 카메라(121)를 통해 수신되는 프리뷰 영상 내에 포함 가능한 범위(시야)이고, 상기 제2 범위(1710a)는 글래스타입 단말기(100)가 향할 수 없는 범위이다.
즉, 제1 범위(1710a)에서는 글래스타입 단말기(100)의 사용자 입력부(123)에 제1 방식의 터치가 유지되는 상태에서 상기 글래스타입 단말기(100)의 움직임에 대응되도록 드론(1000)이 움직여질 수 있다.
드론(1000)이 상기 움직임에 의해 상기 제1 범위(1710a)가 아닌 제2 범위(1710b)로 진입하면(즉, 상기 드론(1000)이 상기 글래스타입 단말기(100)의 카메라(121)가 향하는 것이 가능한 범위를 벗어나면), 제어부(180)는 상기 사용자 입력부(123)에 상기 제1 방식과 다른 제2 방식의 터치가 가해지는 것에 근거하여, 상기 제1 방식의 터치가 유지되는 상태에서 상기 글래스타입 단말기(100)의 움직임에 대응되는 움직임이 계속 수행되도록 드론(1000)을 제어할 수 있다.
한편, 제어부(180)는 글래스타입 단말기(100)의 카메라(121)가 드론(1000)을 향하는 상태에서, 상기 제1 방식이 아닌 제2 방식의 터치가 유지되는 상태에서 상기 글래스타입 단말기(100)의 움직임이 감지되면, 상기 드론(1000)이 움직이는 방식을 다르게 제어할 수 있다. 예를 들어, 상기 드론(1000)은 상기 글래스타입 단말기(100)의 카메라(121)가 드론(1000)을 향하는 상태에서, 적어도 두 개의 지점에서 터치가 유지된 상태로 상기 글래스타입 단말기(100)가 일 방향으로 제1 속도로 움직여지면, 상기 일 방향에 대응하는 방향으로 제1 속도의 n배 속도인 제2 속도로 움직여지도록 제어될 수 있다. 상기 n배 속도는, 상기 사용자 입력부(123)에 유지되는 터치 지점의 수에 근거하여 결정될 수 있다.
한편, 제어부(180)는 사용자 입력부(123)에 다양한 방식의 터치가 가해지는 것에 근거하여 드론(1000)을 제어할 수 있다.
예를 들어, 도 19c의 제1 도면에 도시된 것과 같이, 드론(1000)에 구비된 카메라(1121)가 일 방향을 향하도록 비행하는 상태에서, 글래스타입 단말기(100)의 사용자 입력부(123)에 기 설정된 방식의 터치(예를 들어, 기준 시간 이내에 적어도 두 개의 터치가 가해지는 더블 터치)가 가해지면, 제어부(180)는, 도 19c의 제2 도면에 도시된 것과 같이, 상기 드론(1000)이 상기 일 방향과 다른 방향을 향하도록 상기 드론(1000)을 회전시킬 수 있다. 이 때, 상기 다른 방향은, 일 예로, 상기 일 방향과 반대되는 방향일 수 있다.
다른 예로, 제어부(180)는 글래스타입 단말기(100)의 사용자 입력부(123)에 가해지는 드래그 터치에 근거하여, 드론(1000)을 이동시킬 수 있다.
예를 들어, 도 19d에 도시된 것과 같이, 제어부(180)는, 사용자 입력부(123)에 드래그 터치가 일 방향으로 가해지면, 드론(1000)을 상기 일 방향에 대응하는 방향으로 이동시킬 수 있다.
제어부(180)는 상기 사용자 입력부(123)의 일 지점에 가해진 터치에 연속하여 상기 터치가 사용자의 전면(즉, 글래스타입 단말기(100)의 전면)을 향하는 방향(1730a)으로 이동되는 드래그 터치가 가해지면, 상기 드론(1000)을 상기 드론(1000)에 구비된 카메라(1121)가 구비된 전면(1730a')이 향하는 방향으로 이동시킬 수 있다. 상기 드래그 터치가 가해지는 방향이 상측 방향(1730b), 후면 방향(1730c) 및 하측 방향(1730d)인 경우, 드론(1000)은, 상기 드론(1000)의 카메라(1121)가 구비된 전면을 기준으로, 상측 방향(1730b'), 후면 방향(1730c') 및 하측 방향(1730d')으로 움직여질 수 있다. 상기 드래그 터치가 가해지는 방향이 상기 전면, 상측, 후면 및 하측 방향 중 어느 두 개의 방향 사이의 방향(즉, 대각선 방향)인 경우, 드론(1000)은 상기 어느 두 개의 방향 사이의 방향에 대응하는 방향으로 움직여질 수 있다.
이 때, 제어부(180)는 상기 드래그 터치를 가하는 터치 지점의 수에 따라 드론(1000)이 움직이는 속도를 다르게 제어할 수 있다. 예를 들어, 제어부(180)는 상기 사용자 입력부(123)에 하나의 지점에 가해진 터치에 연속하여 드래그 터치가 가해지면, 상기 드론(1000)을 제1 속도로 이동시키고, 상기 사용자 입력부(123)에 적어도 두 개의 지점에 가해진 터치에 연속하여 드래그 터치가 가해지면, 상기 드론(1000)을 상기 제1 속도와 다른 제2 속도로 이동시킬 수 있다.
예를 들어, 하나의 손가락에 의해 특정 속도로 드래그 터치가 가해지면, 제어부(180)는 상기 특정 속도에 대응하는(비례하는) 속도로 드론(1000)을 이동시키고, 두 개의 손가락에 의해 상기 특정 속도로 드래그 터치가 가해지면, 상기 특정속도에 대응하는 속도의 2배의 속도로 상기 드론(1000)을 이동시킬 수 있다.
이러한 구성을 통해, 본 발명에서는 사용자 입력부(123)에 가해지는 터치의 종류에 따라 드론(1000)을 움직이는 속도를 다양하게 제어할 수 있고, 상기 사용자 입력부(123)에 터치가 유지된 상태에서 감지되는 글래스타입 단말기(100)의 움직임에 근거하여 드론(1000)을 이동시킬 수도 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 본체를 벗어난 가상영역에 형성된 적어도 하나의 이미지를 사용자 입력부(123) 및 글래스타입 단말기(100)의 움직임 중 적어도 하나에 근거하여 제어할 수 있다.
이하에서는, 사용자 입력부(123) 및 글래스타입 단말기(100)의 움직임 중 적어도 하나에 근거하여 본체를 벗어난 가상영역에 형성된 적어도 하나의 이미지를 제어하는 방법에 대하여 보다 구체적으로 살펴본다.
도 20은 본 발명의 일 실시 예에 따른 글래스타입 단말기를 이용하여 드론으로부터 전송되는 시각정보의 이미지와 글래스타입 단말기에 구비된 카메라로 수신되는 프리뷰 영상의 이미지를 제어하는 방법을 설명하기 위한 흐름도이고, 도 21a, 도 21b 및 도 21c는 도 20에서 설명한 제어방법을 설명하기 위한 개념도이다.
도 20을 참조하면, 도 16a 내지 도 16d에서 설명한 것과 같이, 본 발명에서는 글래스타입 단말기(100)의 본체를 벗어난 가상영역에 드론(1000)으로부터 수신되는 시각정보의 이미지와 글래스타입 단말기의 카메라를 통해 수신되는 프리뷰 영상의 이미지를 형성하는 단계가 진행된다(S2000).
예를 들어, 도 20a의 제1 도면에 도시된 것과 같이, 글래스타입 단말기(100)의 본체를 벗어난 가상영역에는, 드론(1000)으로부터 전송되는 시각정보의 이미지(400a) 및 글래스타입 단말기(100)의 카메라(121)를 통해 수신되는 프리뷰 영상의 이미지(400b)가 형성될 수 있다. 반면, 이에 한정되지 않고, 상기 가상영역에는, 상기 시각정보의 이미지(400a) 및 상기 프리뷰 영상의 이미지(400b) 중 어느 하나만 형성될 수도 있다.
이후 본 발명에서는, 글래스타입 단말기의 사용자 입력부에 가해지는 터치 및 글래스타입 단말기의 움직임 중 적어도 하나가 감지되는 것에 근거하여, 상기 감지 결과에 연계된 기능을 수행하는 단계가 진행된다(S2100).
여기서, 상기 터치는 다양한 종류의 터치를 포함할 수 있으며, 일 예로, 일 지점에 가해지는 터치(예를 들어, 싱글 터치) 및 적어도 두 개의 지점에 가해지는 터치(예를 들어, 멀티 터치) 등을 포함할 수 있다. 또한, 상기 터치는, 기 설정된 시간보다 짧게 가해지는 터치(예를 들어, 숏 터치), 기 설정된 시간 내에 적어도 두 번의 터치가 가해지는 터치(예를 들어, 더블 터치) 및 기 설정된 시간보다 길게 가해지는 터치(예를 들어, 롱 터치) 등을 포함할 수 있다. 또한, 상기 터치는, 상기 싱글 터치, 상기 멀티 터치와 상기 숏 터치, 상기 더블 터치, 상기 롱 터치 등이 조합된 형태로 구현될 수도 있다.
제어부(180)는 상기 터치 및 상기 글래스타입 단말기의 움직임 중 적어도 하나를 감지할 수 있다.
이 때, 제어부(180)는 상기 감지된 터치에 근거하여, 상기 감지된 터치에 연계된 기능을 수행할 수 있고, 상기 감지된 움직임에 근거하여, 상기 감지된 움직임에 연계된 기능을 수행할 수도 있다. 또한, 제어부(180)는 상기 터치와 상기 움직임이 함께 감지되는 경우(또는, 상기 터치가 유지되는 동안 상기 움직임이 감지되는 경우), 상기 감지 결과에 연계된 기능을 수행할 수도 있다.
상기 연계된 기능은 다양한 종류의 기능을 포함할 수 있다. 예를 들어, 상기 연계된 기능에는, 글래스타입 단말기의 본체를 벗어난 가상영역에 형성된 이미지들의 표시위치(또는 표시방식)을 변경하는 기능, 드론으로부터 수신되는 시각정보 및 글래스타입 단말기의 카메라를 통해 수신되는 프리뷰 영상 중 적어도 하나를 촬영하는 기능, 드론의 움직임 또는 드론에 구비된 카메라를 제어하는 기능 등을 포함할 수 있다.
예를 들어, 제어부(180)는 상기 글래스타입 단말기(100)의 사용자 입력부(123)에 터치가 유지된 상태에서 상기 글래스타입 단말기(100)가 기 설정된 방식의 움직임이 감지되는 것에 근거하여, 상기 이미지들(400a, 400b)의 표시위치를 변경할 수 있다.
도 21a의 제1 도면에 도시된 것과 같이, 사용자 입력부(123)에 터치가 유지된 상태에서, 상기 글래스타입 단말기(100)가 기 설정된 거리 이상 움직였다 돌아오는 움직임이 감지되면, 제어부(180)는, 도 21a의 제2 도면에 도시된 것과 같이, 상기 이미지들(400a, 400b)의 표시위치를 변경할 수 있다. 일 예로, 상기 이미지들(400a, 400b)이 상하로 이격되어 형성된 상태에서, 상기 사용자 입력부(123)에 터치가 유지된 상태에서, 상기 글래스타입 단말기(100)가 기 설정된 거리 이상 움직였다 돌아오는 움직임이 감지되면, 제어부(180)는 상기 이미지들(400a, 400b)을 좌우로 이격되어 형성되도록 표시위치를 변경할 수 있다.
한편, 제어부(180)는 상기 사용자 입력부(123)에 기 설정된 방식의 터치가 가해지는 것에 근거하여, 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나를 캡쳐할 수 있다. 일 예로, 제어부(180)는, 도 21b의 제1 도면에 도시된 것과 같이, 본체를 벗어난 가상영역에 시각정보의 이미지(400a) 및 프리뷰 영상의 이미지(400b) 중 적어도 하나가 형성된 상태에서, 상기 사용자 입력부(123)에 기 설정된 방식의 터치(예를 들어, 기 설정된 시간 이내에 적어도 두 개의 지점에서 함께 적어도 한 번 가해지는 터치)가 가해지면, 도 21b의 제2 도면에 도시된 것과 같이, 상기 시각정보의 이미지(400a) 및 상기 프리뷰 영상의 이미지(400b) 중 적어도 하나를 캡쳐할 수 있다.
제어부(180)는, 다양한 방식으로 캡쳐된 이미지를 확인할 수 있는 화면정보의 이미지를 본체를 벗어난 가상영역에 형성할 수 있다. 예를 들어, 도 21b의 제2 도면에 도시된 것과 같이, 제어부(180)는 상기 사용자 입력부(123)에 터치가 유지된 상태에서, 일 방향으로 상기 글래스타입 단말기(100)가 기 설정된 방향(예를 들어, 아래쪽 방향)으로 움직여지는 것이 감지되면, 도 21b의 제3 도면에 도시된 것과 같이, 캡쳐된 이미지를 확인하는 것이 가능한 화면정보의 이미지(1800)를 본체를 벗어난 가상영역에 형성할 수 있다.
상기 화면정보의 이미지(1800)에는, 도 18에서 설명한 것과 같이, 캡쳐된 이미지(또는, 상기 캡쳐된 이미지의 썸네일)(1800a, 1800b), 캡쳐된 날짜정보, 드론(1000)으로부터 전송되는 시각정보의 이미지에 대한 캡쳐인지 글래스타입 단말기의 카메라(121)를 통해 수신되는 프리뷰 영상의 이미지에 대한 캡쳐인지 여부를 나타내는 정보 등이 포함될 수 있다. 또한, 상기 화면정보의 이미지(1600)에는 날짜별, 드론(1000)의 비행별, 시각정보의 이미지에 대한 캡쳐이미지별, 프리뷰 영상의 이미지에 대한 캡쳐이미지별로 분류되어 캡쳐 이미지 등이 표시될 수 있다.
한편, 본 발명과 관련된 글래스타입 단말기(100)는 사용자 입력부(123) 및 글래스타입 단말기(100)의 움직임에 근거하여 다양한 기능을 수행할 수 있으며, 일 예로, 파노라마 촬영 기능을 수행할 수 있다.
상기 파노라마 촬영 기능을 수행하는 사용자 입력부(123)에 대한 터치 및 글래스타입 단말기(100)의 움직임은 다양한 방식으로 정의될 수 있다. 일 예로, 도 21c의 제1 도면에 도시된 것과 같이, 사용자 입력부(123)에 기 설정된 방식의 터치(예를 들어, 적어도 두 개의 지점에 가해지는 터치)가 유지되는 상태에서, 상기 글래스타입 단말기(100)가 기 설정된 방향(예를 들어, 상측, 하측, 좌측, 우측 등)으로 움직여지면, 제어부(180)는 파노라마 촬영 기능을 실행할 수 있다.
이 경우, 본체를 벗어난 가상영역에는, 파노라마 촬영 기능이 수행중임을 가이드하는 이미지(1840)가 더 형성될 수 있다. 또한, 제어부(180)는 사용자 입력부(123)에 기 설정된 방식의 터치가 유지되는 상태에서, 상기 글래스타입 단말기(100)가 기 설정된 방향(1810a)으로 움직여지면, 상기 기 설정된 방향에 대응하는 방향(1810a')으로 움직여지도록 드론(1000)을 제어할 수 있다.
이후, 제어부(180)는, 도 21c의 제3 도면에 도시된 것과 같이, 상기 기 설정된 방식의 터치가 유지되는 동안 파노라마 촬영 기능을 실행하며, 상기 기 설정된 방식의 터치가 해제되면, 상기 기 설정된 방식의 터치가 유지되는 동안 촬영된 이미지를 하나의 이미지로 캡쳐할 수 있다.
구체적으로, 제어부(180)는, 상기 사용자 입력부(123)에 기 설정된 방식의 터치가 유지되는 상태에서, 상기 기 설정된 방향으로 글래스타입 단말기(100)가 이동하는 동안 상기 드론이 기 설정된 방향에 대응하는 방향으로 이동하면서 전송하는 시각정보를 수신한다. 이후, 제어부(180)는 상기 드론(1000)이 이동하면서 전송하는 시각정보들을 연속적으로 이어 하나의 이미지를 생성한다.
이후, 제어부(180)는 상기 기 설정된 방식의 터치가 해제되면, 파노라마 촬영 기능을 종료할 수 있다. 또한, 제어부(180)는 상기 기 설정된 방식의 터치가 해제되면, 상기 해제되는 시점까지 생성된 하나의 이미지를 파노라마 캡쳐 이미지 형성할 수 있다. 상기 형성된 파노라마 캡쳐 이미지는, 글래스타입 단말기(100)의 메모리(170)에 저장될 수 있다.
한편, 이상에서 설명한 내용은, 글래스타입 단말기에 한정되지 아니함에 유의하여야 한다. 본 발명과 관련된 내용은 이동 단말기에도 동일/유사하게 유추적용할 수 있다. 예를 들어, 본 발명과 관련된 글래스타입 단말기(100)가 이동 단말기인 경우, 이동 단말기의 디스플레이부에는 드론으로부터 수신되는 시각정보가 출력될 수 있다. 이후, 이동 단말기의 제어부(180)는 상기 이동 단말기가 일 방향으로 움직여지는 것이 감지되면, 드론(1000)을 상기 일 방향에 대응하는 방향으로 움직여지도록 제어할 수 있다. 상기 이동 단말기의 디스플레이부에 기 설정된 방식의 터치가 유지되는 상태에서 상기 이동 단말기가 움직여지는 것에 따라, 드론(1000)은 다양한 방식으로 제어될 수도 있다.
이상에서 살펴본 것과 같이, 본 발명에 따르면, 본 발명은 글래스타입 단말기가 드론으로부터 전송되는 시각정보의 이미지에 대한 사용자 제스처에 근거하여 드론의 움직임 또는 드론에 구비된 카메라를 제어할 수 있다. 따라서, 본 발명은 사용자가 보다 직관적으로 드론을 제어할 수 있는 최적화된 UI/UX를 제공할 수 있다.
또한, 본 발명은 드론으로부터 전송되는 시각정보의 이미지가 가상영역에 형성된 상태에서, 상기 가상영역에 형성된 이미지를 잡는 제스처 및 이에 연속하는 제스처 중 적어도 하나에 근거하여 드론을 제어할 수 있다. 이에 따라, 본 발명은 사용자가 드론으로부터 전송되는 시각정보의 이미지를 보면서, 상기 이미지를 핸들 또는 조이스틱 처럼 조종하는 제스처를 이용하여 드론을 제어할 수 있는 새로운 사용자 인터페이스를 제공할 수 있다.
또한, 본 발명은 드론으로부터 수신되는 시각정보의 이미지 및 글래스타입 단말기에 구비된 카메라를 통해 수신되는 프리뷰 영상의 이미지에 기 설정된 방식의 제스처를 취함으로써, 상기 시각정보 및 상기 프리뷰 영상을 캡쳐할 수 있다. 따라서, 본 발명은 시각정보의 이미지 및 프리뷰 영상의 이미지 중 적어도 하나를 통해 상기 시각정보 및 프리뷰 영상 중 적어도 하나를 보다 편리하고 직관적으로 캡쳐할 수 있는 최적화된 UI/UX를 제공할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 드론과 통신을 수행하는 통신부;
    본체에 구비되며, 상기 드론으로부터 전송되는 시각정보를 출력하는 디스플레이부;
    적어도 하나의 렌즈로 이루어지며, 상기 본체를 벗어난 가상영역에 상기 시각정보의 이미지를 형성하는 광학부;
    사용자 제스처를 감지하는 감지부; 및
    상기 이미지에서 감지되는 사용자 제스처에 근거하여, 상기 드론을 제어하는 제어부를 포함하는 글래스타입 단말기.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 가상영역에 형성된 상기 이미지에 기 설정된 사용자 제스처가 가해지는 것에 근거하여, 상기 드론의 움직임 및 상기 드론에 구비된 카메라 중 적어도 하나를 제어하는 것을 특징으로 하는 글래스타입 단말기.
  3. 제 2 항에 있어서,
    상기 제어부는,
    상기 이미지에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론의 움직임을 제어하고,
    상기 이미지에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 하는 글래스타입 단말기.
  4. 제 3 항에 있어서,
    상기 제1 사용자 제스처는,
    상기 이미지를 잡는 제스처에 연속하여 가해지는 제스처이고,
    상기 제어부는,
    상기 연속하여 가해지는 제스처에 대응하여 상기 드론이 움직여지도록 상기 드론을 제어하는 것을 특징으로 하는 글래스타입 단말기.
  5. 제 4 항에 있어서,
    상기 드론은, 상기 이미지를 잡는 제스처의 방식에 따라 서로 다른 방식으로 움직여지는 것을 특징으로 하는 글래스타입 단말기.
  6. 제 5 항에 있어서,
    상기 제어부는,
    제1 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 상기 드론을 이동시키고,
    상기 제1 방식과 다른 제2 방식으로 이미지를 잡는 제스처에 연속하여 가해지는 제스처에 근거하여, 상기 드론을 회전시키는 것을 특징으로 하는 글래스타입 단말기.
  7. 제 4 항에 있어서,
    상기 이미지는,
    제1 표시방식으로 표시되는 상태에서, 상기 제1 사용자 제스처가 가해지는 것에 응답하여 상기 제1 표시방식과 다른 제2 표시방식으로 표시되는 것을 특징으로 하는 글래스타입 단말기.
  8. 제 7 항에 있어서,
    상기 제2 표시방식으로 표시되는 이미지는, 상기 제1 사용자 제스처가 해제되는 것에 근거하여 상기 제1 표시방식으로 복원되는 것을 특징으로 하는 글래스타입 단말기.
  9. 제 3 항에 있어서,
    상기 제2 사용자 제스처는,
    상기 이미지에 가해지는 핀치-인 제스처 및 핀치-아웃 제스처 중 적어도 하나이고,
    상기 제어부는,
    상기 핀치-인 제스처 및 핀치-아웃 제스처 중 어느 하나가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라가 줌-아웃 기능 및 줌-인 기능 중 어느 하나의 기능을 수행하도록 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 하는 글래스타입 단말기.
  10. 제 9 항에 있어서,
    상기 제어부는,
    상기 핀치-아웃 제스처가 상기 이미지를 벗어나도록 가해지는 경우, 상기 드론을 이동시키는 것을 특징으로 하는 글래스타입 단말기.
  11. 제 1 항에 있어서,
    카메라를 더 포함하고,
    상기 디스플레이부는, 상기 카메라를 통해 수신되는 프리뷰 영상을 출력하며,
    상기 광학부는,
    상기 프리뷰 영상의 이미지를 상기 시각정보의 이미지와 함께 형성하는 것을 특징으로 하는 글래스타입 단말기.
  12. 제 11 항에 있어서,
    상기 프리뷰 영상의 이미지와 상기 시각정보의 이미지는 서로 이격되어 형성되는 것을 특징으로 하는 글래스타입 단말기.
  13. 제 11 항에 있어서,
    상기 제어부는,
    상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지 중 적어도 하나의 이미지에 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 상기 적어도 하나의 이미지를 이동시키는 것을 특징으로 하는 글래스타입 단말기.
  14. 제 13 항에 있어서,
    상기 제어부는,
    상기 이동에 의해 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지가 서로 접촉되면, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지를 캡쳐하는 것을 특징으로 하는 글래스타입 단말기.
  15. 드론으로부터 전송되는 시각정보의 이미지를 형성하는 단계; 및
    상기 이미지에서 감지되는 사용자 제스처에 근거하여, 상기 드론을 제어하는 단계를 포함하고,
    상기 이미지는 상기 본체를 벗어난 가상영역에 형성되며,
    상기 제어하는 단계는,
    상기 가상영역에 형성된 상기 이미지에 기 설정된 사용자 제스처가 가해지는 것에 근거하여, 상기 드론의 움직임 및 상기 드론에 구비된 카메라 중 적어도 하나를 제어하는 것을 특징으로 하는 글래스타입 단말기의 제어방법.
  16. 제 15 항에 있어서,
    상기 제어하는 단계는,
    상기 이미지에 제1 사용자 제스처가 가해지는 것에 근거하여 상기 드론의 움직임을 제어하고,
    상기 이미지에 상기 제1 사용자 제스처와 다른 제2 사용자 제스처가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 하는 글래스타입 단말기의 제어방법.
  17. 제 16 항에 있어서,
    상기 제1 사용자 제스처는,
    상기 이미지를 잡는 제스처에 연속하여 가해지는 제스처이고,
    상기 제어하는 단계는,
    상기 연속하여 가해지는 제스처에 대응하여 상기 드론이 움직여지도록 상기 드론을 제어하는 것을 특징으로 하는 글래스타입 단말기의 제어방법.
  18. 제 16 항에 있어서,
    상기 제2 사용자 제스처는,
    상기 이미지에 가해지는 핀치-인 제스처 및 핀치-아웃 제스처 중 적어도 하나이고,
    상기 제어하는 단계는,
    상기 핀치-인 제스처 및 핀치-아웃 제스처 중 어느 하나가 가해지는 것에 근거하여, 상기 드론에 구비된 카메라가 줌-아웃 기능 및 줌-인 기능 중 어느 하나의 기능을 수행하도록 상기 드론에 구비된 카메라를 제어하는 것을 특징으로 하는 글래스타입 단말기의 제어방법.
  19. 제 15 항에 있어서,
    글래스타입 단말기에 구비된 카메라를 통해 수신되는 프리뷰 영상의 이미지를 상기 시각정보의 이미지와 함께 형성하는 단계를 더 포함하고,
    상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지 중 적어도 하나의 이미지는 기 설정된 방식의 제스처가 가해지는 것에 근거하여, 이동되는 것을 특징으로 하는 글래스타입 단말기의 제어방법.
  20. 제 19 항에 있어서,
    상기 이동에 의해 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지가 서로 접촉되면, 상기 프리뷰 영상의 이미지 및 상기 시각정보의 이미지를 캡쳐하는 단계를 더 포함하는 글래스타입 단말기의 제어방법.
KR1020150073139A 2015-05-26 2015-05-26 글래스타입 단말기 및 그 제어방법 KR20160138806A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020150073139A KR20160138806A (ko) 2015-05-26 2015-05-26 글래스타입 단말기 및 그 제어방법
US14/951,318 US10061391B2 (en) 2015-05-26 2015-11-24 Eyewear-type terminal and method for controlling the same
EP16000093.1A EP3098693B1 (en) 2015-05-26 2016-01-15 Eyerwear-type terminal and method for controlling the same
CN201610124368.8A CN106210253B (zh) 2015-05-26 2016-03-04 眼镜型终端及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150073139A KR20160138806A (ko) 2015-05-26 2015-05-26 글래스타입 단말기 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR20160138806A true KR20160138806A (ko) 2016-12-06

Family

ID=55177732

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150073139A KR20160138806A (ko) 2015-05-26 2015-05-26 글래스타입 단말기 및 그 제어방법

Country Status (4)

Country Link
US (1) US10061391B2 (ko)
EP (1) EP3098693B1 (ko)
KR (1) KR20160138806A (ko)
CN (1) CN106210253B (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018151358A1 (ko) * 2017-02-17 2018-08-23 김태환 선박 흘수 관측장치
KR20230030933A (ko) 2021-08-26 2023-03-07 경희대학교 산학협력단 무인 비행체를 이용한 햅틱 장치, 햅틱 시스템 및 햅틱 제어방법

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9958681B2 (en) * 2013-10-28 2018-05-01 Lg Electronics Inc. Electronic device and control method thereof
TWI562814B (en) * 2015-04-13 2016-12-21 Pegatron Corp Method for adjusting orientation of head end and remote control aircraft using the same
JP6589456B2 (ja) * 2015-08-18 2019-10-16 セイコーエプソン株式会社 搬送装置、処理物生成方法、搬送制御プログラム
DE102015122183B4 (de) * 2015-12-18 2018-12-06 Antony Pfoertzsch Vorrichtung und Verfahren für ein unbemanntes Flugobjekt
US20170214856A1 (en) * 2016-01-22 2017-07-27 Mediatek Inc. Method for controlling motions and actions of an apparatus including an image capture device having a moving device connected thereto using a controlling device
KR20170100332A (ko) * 2016-02-25 2017-09-04 삼성전자주식회사 화상 통화 방법 및 장치
WO2017201697A1 (en) * 2016-05-25 2017-11-30 SZ DJI Technology Co., Ltd. Techniques for image recognition-based aerial vehicle navigation
CN106094861B (zh) * 2016-06-02 2024-01-12 零度智控(北京)智能科技有限公司 无人机、无人机控制方法及装置
US10455215B2 (en) * 2016-06-22 2019-10-22 International Business Machines Corporation System, method, and recording medium for a closed-loop immersive viewing technology coupled to drones
JP2018036993A (ja) * 2016-09-02 2018-03-08 オリンパス株式会社 表示システム、携帯情報機器、ウエラブル型端末、情報表示方法およびプログラム
US10659279B2 (en) * 2016-10-04 2020-05-19 Htc Corporation Method and device for displaying video corresponding to physical object
CN110377053B (zh) * 2016-12-02 2023-03-31 广州亿航智能技术有限公司 无人机的飞行控制方法和装置
CN106681503A (zh) * 2016-12-19 2017-05-17 惠科股份有限公司 一种显示控制方法、终端及显示装置
JP6589902B2 (ja) * 2017-01-31 2019-10-16 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP6919222B2 (ja) * 2017-02-27 2021-08-18 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法
JP2018142764A (ja) * 2017-02-27 2018-09-13 セイコーエプソン株式会社 表示システム、表示装置、及び、表示装置の制御方法
CN106973261A (zh) * 2017-03-03 2017-07-21 湖北天专科技有限公司 以第三方视角观察无人机的设备、***和方法
US10366521B1 (en) 2017-03-15 2019-07-30 Amazon Technologies, Inc. Augmented reality assembly assistance and monitoring
CN107065884A (zh) * 2017-05-20 2017-08-18 天津市创恒机器人技术有限公司 一种高体验人机交互遥控无人车的***
CN107168315A (zh) * 2017-05-20 2017-09-15 天津市创恒机器人技术有限公司 一种高体验人机交互遥控无人车的方法
CN107331137A (zh) * 2017-05-20 2017-11-07 天津市创恒机器人技术有限公司 一种高体验人机交互遥控无人船的***
CN107264731A (zh) * 2017-05-20 2017-10-20 天津市创恒机器人技术有限公司 一种高体验人机交互遥控无人船的方法
CN107256027A (zh) * 2017-06-29 2017-10-17 北京小米移动软件有限公司 用于无人机的头盔及其控制方法
CN107272724A (zh) * 2017-08-04 2017-10-20 南京华捷艾米软件科技有限公司 一种体感飞行装置及其控制方法
US10836486B2 (en) * 2017-11-06 2020-11-17 Teal Drones, Inc. Controlling a drone through user movement
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10712901B2 (en) 2018-06-27 2020-07-14 Facebook Technologies, Llc Gesture-based content sharing in artificial reality environments
US10783712B2 (en) * 2018-06-27 2020-09-22 Facebook Technologies, Llc Visual flairs for emphasizing gestures in artificial-reality environments
TWI682878B (zh) * 2018-10-11 2020-01-21 大陸商光寶電子(廣州)有限公司 使用無人機的旅遊系統與方法
CN111045209A (zh) * 2018-10-11 2020-04-21 光宝电子(广州)有限公司 使用无人机的旅游***与方法
JP6831949B2 (ja) * 2018-11-30 2021-02-17 楽天株式会社 表示制御システム、表示制御装置及び表示制御方法
CN112119013A (zh) * 2018-11-30 2020-12-22 乐天株式会社 显示控制***、显示控制装置及显示控制方法
US10863277B2 (en) * 2019-03-07 2020-12-08 Bose Corporation Systems and methods for controlling electronic devices
JP2020155923A (ja) * 2019-03-20 2020-09-24 ソニー株式会社 リモートコントロール装置と撮像制御装置およびその方法
JP7493920B2 (ja) 2019-08-23 2024-06-03 キヤノン株式会社 表示制御装置およびその制御方法およびそのプログラムおよびその記憶媒体
CN112154402A (zh) * 2019-08-29 2020-12-29 深圳市大疆创新科技有限公司 可穿戴设备及其控制方法、识别手势的方法和控制***
JP2021184050A (ja) * 2020-05-22 2021-12-02 株式会社日立エルジーデータストレージ 映像表示装置、ヘッドマウントディスプレイ
CN111522142A (zh) * 2020-06-14 2020-08-11 深圳市安之眼科技有限公司 一种ar智能眼镜
US20230062433A1 (en) * 2021-08-30 2023-03-02 Terek Judi Eyewear controlling an uav
US20230063386A1 (en) * 2021-09-02 2023-03-02 Terek Judi Eyewear synchronized with uav image capturing system
CN114545629A (zh) * 2022-01-21 2022-05-27 广东虚拟现实科技有限公司 增强现实装置、信息显示方法及装置
CN115357053A (zh) * 2022-10-19 2022-11-18 北京亮亮视野科技有限公司 基于ar眼镜的无人机操控***及方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2827612B2 (ja) * 1991-10-07 1998-11-25 富士通株式会社 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。
US6297838B1 (en) * 1997-08-29 2001-10-02 Xerox Corporation Spinning as a morpheme for a physical manipulatory grammar
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7625287B2 (en) * 2005-10-05 2009-12-01 Nintendo Co., Ltd. Driving game steering wheel simulation method and apparatus
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8681104B2 (en) * 2007-06-13 2014-03-25 Apple Inc. Pinch-throw and translation gestures
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US20120242698A1 (en) * 2010-02-28 2012-09-27 Osterhout Group, Inc. See-through near-eye display glasses with a multi-segment processor-controlled optical layer
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
FR2957266B1 (fr) * 2010-03-11 2012-04-20 Parrot Procede et appareil de telecommande d'un drone, notamment d'un drone a voilure tournante.
US8605873B2 (en) * 2011-06-28 2013-12-10 Lifesize Communications, Inc. Accessing settings of a videoconference using touch-based gestures
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
US9389420B2 (en) * 2012-06-14 2016-07-12 Qualcomm Incorporated User interface interaction for transparent head-mounted displays
KR20140025941A (ko) * 2012-08-23 2014-03-05 삼성전자주식회사 이미지를 병합 및 공유할 수 있는 전자 장치 및 방법
CN105027030B (zh) * 2012-11-01 2018-10-23 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
TWI486629B (zh) * 2012-11-21 2015-06-01 Ind Tech Res Inst 穿透型頭部穿戴式顯示系統與互動操作方法
CN203193785U (zh) * 2012-12-14 2013-09-11 国家电网公司 一种眼镜
JP6313432B2 (ja) * 2013-06-09 2018-04-18 株式会社ソニー・インタラクティブエンタテインメント 頭部装着ディスプレイ
WO2014210502A1 (en) * 2013-06-28 2014-12-31 Chia Ming Chen Controlling device operation according to hand gestures
KR102219698B1 (ko) * 2014-04-30 2021-02-24 엘지전자 주식회사 무인 항공기 제어 장치 및 방법
CN203941453U (zh) * 2014-07-17 2014-11-12 金陵科技学院 一种可通过智能眼镜进行监控拍摄及控制的无人机
US20170102699A1 (en) * 2014-12-22 2017-04-13 Intel Corporation Drone control through imagery
KR20160133328A (ko) * 2015-05-12 2016-11-22 삼성전자주식회사 웨어러블 디바이스를 이용한 원격 제어 방법 및 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018151358A1 (ko) * 2017-02-17 2018-08-23 김태환 선박 흘수 관측장치
KR20230030933A (ko) 2021-08-26 2023-03-07 경희대학교 산학협력단 무인 비행체를 이용한 햅틱 장치, 햅틱 시스템 및 햅틱 제어방법

Also Published As

Publication number Publication date
CN106210253A (zh) 2016-12-07
US10061391B2 (en) 2018-08-28
EP3098693B1 (en) 2021-05-05
EP3098693A1 (en) 2016-11-30
US20160349849A1 (en) 2016-12-01
CN106210253B (zh) 2020-05-12

Similar Documents

Publication Publication Date Title
KR20160138806A (ko) 글래스타입 단말기 및 그 제어방법
KR102411100B1 (ko) 디바이스를 이용한 화면 처리 방법 및 장치
KR102227087B1 (ko) 글래스 타입 단말기 및 그것의 제어방법
KR102400900B1 (ko) 시스템
KR102182401B1 (ko) 이동단말기 및 그 제어방법
CN106445219B (zh) 移动终端及其控制方法
KR102184402B1 (ko) 글래스 타입의 이동 단말기
US9874998B2 (en) Mobile terminal and controlling method thereof
KR101595957B1 (ko) 이동 단말기 및 제어 시스템
KR20170126295A (ko) 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
KR102238531B1 (ko) 이동단말기 및 그 제어방법
KR102240639B1 (ko) 글래스 타입 단말기 및 그것의 제어 방법
KR20170123907A (ko) 이동단말기 및 그 제어방법
KR20180099182A (ko) 헤드 마운티드 디스플레이를 포함하는 시스템 및 그 제어 방법
KR102181208B1 (ko) 이동 단말기 및 그것의 제어 방법
KR20150146295A (ko) 헤드 마운티드 디스플레이 및 그것의 제어방법
KR20170014609A (ko) 이동 단말기 및 이의 제어방법
EP3086216B1 (en) Mobile terminal and controlling method thereof
KR20180004112A (ko) 안경형 단말기 및 이의 제어방법
KR20180103866A (ko) 이동 단말기 및 그 제어 방법
KR101695697B1 (ko) 이동 단말기 및 이의 제어방법
KR20160001229A (ko) 이동단말기 및 그 제어방법
KR20160134334A (ko) 이동 단말기 및 이의 제어방법
KR20150084485A (ko) 이동 단말기 및 이의 제어 방법
KR20190061825A (ko) Hmd 및 그 hmd의 제어 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application