KR20200076628A - 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 - Google Patents

모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 Download PDF

Info

Publication number
KR20200076628A
KR20200076628A KR1020190169449A KR20190169449A KR20200076628A KR 20200076628 A KR20200076628 A KR 20200076628A KR 1020190169449 A KR1020190169449 A KR 1020190169449A KR 20190169449 A KR20190169449 A KR 20190169449A KR 20200076628 A KR20200076628 A KR 20200076628A
Authority
KR
South Korea
Prior art keywords
mobile device
parameter
set position
frame image
current frame
Prior art date
Application number
KR1020190169449A
Other languages
English (en)
Other versions
KR102329858B1 (ko
Inventor
슈아이 양
Original Assignee
베이징 호라이즌 로보틱스 테크놀로지 리서치 앤드 디벨롭먼트 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 베이징 호라이즌 로보틱스 테크놀로지 리서치 앤드 디벨롭먼트 컴퍼니 리미티드 filed Critical 베이징 호라이즌 로보틱스 테크놀로지 리서치 앤드 디벨롭먼트 컴퍼니 리미티드
Publication of KR20200076628A publication Critical patent/KR20200076628A/ko
Application granted granted Critical
Publication of KR102329858B1 publication Critical patent/KR102329858B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G06T3/0093
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

모바일 디바이스의 위치 측정 방법 및 모바일 디바이스의 위치 측정 장치를 개시한다. 해당 모바일 디바이스의 위치 측정 방법은, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정, 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하는 단계; 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 단계; 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 단계; 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 단계; 및 다수 개의 제2 화면 좌표 집합으로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 단계를 포함한다. 본 출원의 실시예는 환경 조건이 위치 측정 정확도에 주는 영향을 최대한 감소시켜, 위치 측정의 정확도를 향상시킬 수 있고, 또한 비전 카메라에 의해 위치 측정의 원가를 최대한 감소할 수 있다.

Description

모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 {LOCATION MEASURING METHOD OF MOBILE DEVICE, LOCATION MEASURING DEVICE AND ELECTRONIC DEVICE}
본 발명은 이미지 처리 기술 분야에 관한 것으로, 구체적으로 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스에 관한 것이다.
위치 측정 기술은 스마트 과학 기술의 기본적인 기술 중의 하나로서, 그의 중요성은 더 말할 필요도 없다. 특히, 자율 주행 분야에 있어서, 위치 측정 기술의 정확성 및 신속성은 더욱이 신변 안전과 관련이 있는 중요한 요소이다. 그러나, 종래의 라이다(LiDAR) 위치 측정 기술은 정확도가 높은 반면, 원가가 높다.
상술한 기술적 과제를 해결하기 위해, 본 출원의 실시예는 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스를 제공한다.
일 측에 따르면, 본 출원의 실시예는, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정, 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하는 단계; 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 단계; 고정밀 지도에서, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 단계; 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 단계; 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 단계를 포함하는 모바일 디바이스의 위치 측정 방법을 제공한다.
다른 일 측에 따르면, 본 출원의 실시예는, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정, 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하는 제1 세트 위치 자세 파라미터 확정모듈; 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 제2 세트 위치 자세 파라미터 확정모듈; 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 점구름 데이터 확정모듈; 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 제2 화면 좌표 집합 확정모듈; 다수 개의 제2 화면 좌표 집합으로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 위치 자세 파라미터 특정모듈을 포함하는 모바일 디바이스의 위치 측정 장치를 제공한다.
본 출원의 실시예에 따른 모바일 디바이스의 위치 측정 방법은, 고정밀 지도에서의 점구름 데이터로부터 현재 프레임 이미지 중의 기설정 표시에 대응되는 직선까지의 거리 데이터에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 목적을 통해, 비전 카메라 기술에 의한 모바일 디바이스의 위치 측정을 구현할 수 있다. 종래의 라이다 위치 측정 기술에 의해 위치 측정을 수행하는 방법에 비해, 본 출원의 실시예에서 언급한 위치 측정 방법은 라이다의 실시간 반사값에 의해 위치를 측정할 필요가 없다. 따라서, 본 출원의 실시예에서 언급한 위치 측정 방법은 조도, 계절 및 동적 물체 등 환경 조건이 위치 측정 정확도에 미치는 영향을 최대한 감소할 수 있어, 위치 측정의 정확도를 향상시킬 수 있다. 또한, 본 출원의 실시예는 비전 카메라에 의해 위치 측정의 원가를 최대한 감소할 수 있다.
본 출원의 상술 및 기타 목적, 특징과 장점이 더 명확해지도록, 첨부 도면을 결합하여 본 출원의 실시예에 대해 더 자세하게 설명하기로 한다. 첨부 도면은 본 출원의 실시예에 대해 추가적인 이해를 제공하기 위한 것으로, 명세서의 일부를 구성하고, 본 출원의 실시예와 함께 본 출원을 해석하기 위한 것이며, 본 출원에 대한 제한이 아니다. 첨부 도면에 있어서, 동일한 부호는 일반적으로 동일한 부재 또는 단계를 표시한다.
도 1은 본 출원이 적용되는 시나리오를 나타내는 도면이다.
도 2는 본 출원의 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법을 나타내는 흐름도이다.
도 3은 본 출원의 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 것을 나타내는 흐름도이다.
도 4는 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하는 것을 나타내는 흐름도이다.
도 5는 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 것을 나타내는 흐름도이다.
도 6은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 것을 나타내는 흐름도이다.
도 7은 본 출원의 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 구조를 나타내는 도면이다.
도 8은 본 출원의 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 위치 자세 파라미터 특정모듈의 구조를 나타내는 도면이다.
도 9는 본 출원의 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 거리 확정유닛의 구조를 나타내는 도면이다.
도 10은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 위치 자세 파라미터 특정유닛의 구조를 나타내는 도면이다.
도 11은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 점구름 데이터 확정모듈의 구조를 나타내는 도면이다.
도 12는 본 출원의 일 예시적인 실시예에서 제공하는 전자 디바이스의 구조를 나타내는 도면이다.
이하에서 첨부 도면을 참조하여 본 출원에 따른 예시적인 실시예에 대해 자세하게 설명하기로 한다. 명확한 것은, 이에서 설명하는 실시예는 본 출원의 일부 실시예에 불과할 뿐, 본 출원의 전체 실시예가 아니며, 본 출원은 여기서 설명하는 예시적인 실시예의 제한을 받지 않는 것으로 이해해야 한다.
출원 개술
위치 측정 정확도 및 위치 측정 속도는 위치 측정 기술 성능을 평가하는 중요한 지표이다. 특히, 자율 주행 분야에 사용되는 위치 측정 기술에서, 위치 측정 정확도 및 위치 측정 속도는 더욱이 신병안전과 연관성이 있는 중요한 요소이다.
현재에 있어서, 일반적으로는 라이다 위치 측정 기술을 자율 주행 분야의 위치 측정 기술로 사용한다. 라이다 위치 측정 기술의 위치 측정 원리는: 먼저 라이다 기술에 의해 고정밀 지도를 구축하고, 다음으로 타겟으로 탐지 신호(레이저 빔)를 발사하고 타겟에 의해 반사된 신호(타겟 에코)를 수신하며, 반사된 신호와 발사된 탐지 신호를 비교하여, 구축된 고정밀 지도를 결합하여 타겟과 관련된 정보, 예를 들어 타겟의 거리, 방위, 높이, 속도, 자세 나아가 형태 등을 얻는 것이다. 그러나, 라이다 위치 측정 기술은 우수한 위치 측정 정확도를 구비하는 반면, 원가가 매우 높다.
이에 비해, 비전 카메라는 저렴한 가격으로 갈수록 많은 관심을 받고 있다. 그러나, 비전 카메라는 딥 정보를 직접적으로 얻을 수 없으므로, 비전 카메라 위치 측정 기술의 위치 측정 정확도는 라이다 위치 측정 기술과 전혀 비교할 수가 없다.
상술한 기술적 과제에 대해, 본 출원의 기본적인 사상은 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스를 제안하는 것으로, 해당 모바일 디바이스의 위치 측정 방법에 있어서, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터와 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 다음으로 대략적인 위치 자세 파라미터에 의해 다수 개의 가정된 위치 자세 파라미터를 생성하고, 고정밀 지도에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치와 대응되는 기설정 범위 내의 점구름 데이터를 획득하고, 다수 개의 가정된 위치 자세 파라미터를 결합하여, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 화면 좌표 집합을 얻고, 마직막으로 다수 개의 화면 좌표 집합으로부터 직선까지의 거리를 계산함으로써, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정한다. 이러한 방식을 통해, 상기 방법은 비전 카메라 기술에 의해 모바일 디바이스에 대한 위치 측정을 구현할 수 있다. 종래의 라이다 위치 측정 기술에 의해 위치 측정을 수행하는 방법에 비해, 본 출원의 실시예에서 제공한 위치 측정 방법은 라이다의 실시간 반사값에 의해 위치를 측정할 필요가 없다. 따라서, 본 출원의 실시예에서 제공하는 위치 측정 방법은 조도, 계절 및 동적 물체 등 환경 조건이 위치 측정 정확도에 미치는 영향을 최대한 감소할 수 있어, 위치 측정의 정확도를 향상시킬 수 있다. 또한, 본 출원의 실시예는 비전 카메라에 의해 위치 측정의 원가를 최대한 감소할 수 있다.
설명해야 할 것은, 본 출원의 적용 범위는 자율 주행 분야에 제한되는 것이 아니다. 예를 들어, 본 출원의 실시예에 따른 기술적 방안은 기타 스마트 모바일 디바이스(예를 들어 스마트 로봇)에도 적용될 수 있으며, 구체적으로는 스마트 모바일 디바이스의 주행 타입 기능에 위치 측정 기술을 제공하는 것에 사용될 수 있다.
본 출원의 기본적인 원리를 설명한 후, 이하에서는 첨부 도면을 참조하여 본 출원의 여러 가지 비제한적인 실시예에 대해 구체적으로 설명하기로 한다.
예시적인 시스템
도 1은 본 출원이 적용되는 시나리오를 나타내는 도면이다. 도 1에 도시된 바와 같이, 본 출원이 적용되는 시나리오는 모바일 디바이스의 위치 측정 시나리오로, 여기서, 해당 위치 측정 시나리오는 서버(1)와 모바일 디바이스(2)를 포함하되, 서버(1)는, 모바일 디바이스(2)가 촬영한 현재 프레임 이미지 및 고정밀 지도 데이터를 획득하고, 획득한 데이터에 의해 위치 측정 동작을 수행한다.
구체적으로, 서버(1)는, 모바일 디바이스(2)가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 다음으로 대략적인 위치 자세 파라미터에 의해 다수 개의 가정된 위치 자세 파라미터를 생성하고, 고정밀 지도에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치와 대응되는 기설정 범위 내의 점구름 데이터를 획득하고, 다수 개의 가정된 위치 자세 파라미터를 결합하여, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 화면 좌표 집합을 얻고, 마직막으로 다수 개의 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리를 계산함으로써, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정한다. 모바일 디바이스(2)는 현재 프레임 이미지를 촬영한다. 해당 시나리오를 통해, 모바일 디바이스(2)의 계산량을 낮출 수 있다.
설명해야 할 것은, 본 출원은 다른 위치 측정 시나리오에도 적용될 수 있다. 구체적으로, 해당 위치 측정 시나리오는 모바일 디바이스(2)를 포함한다. 구체적으로, 모바일 디바이스(2)는, 현재 프레임 이미지를 촬영하여 고정밀 지도 데이터를 획득하며, 모바일 디바이스(2)가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 다음으로 대략적인 위치 자세 파라미터에 의해 다수 개의 가정된 위치 자세 파라미터를 생성하고, 고정밀 지도에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치와 대응되는 기설정 범위 내의 점구름 데이터를 획득하고, 다수 개의 가정된 위치 자세 파라미터를 결합하여, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 화면 좌표 집합을 얻고, 마직막으로 다수 개의 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리를 계산함으로써, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정한다. 해당 시나리오를 통해, 모바일 디바이스(2)가 실시간 위치 측정을 구현할 수 있게 확보한다.
예시적인 방법
도 2는 본 출원의 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법을 나타내는 흐름도이다. 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법은, 자동차의 자율 주행 분야에 적용될 수 있고, 스마트 로봇의 주행 타입 기능 분야에도 적용될 수 있다. 도 2에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법은 다음의 단계를 포함한다.
단계(10): 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정, 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정한다.
설명해야 할 것은, 제1 세트 위치 자세 파라미터가 바로 모바일 디바이스가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터이다. 여기서, 위치 자세 파라미터는 위치 파라미터와 자세 파라미터를 포함하되, 위치 파라미터는 모바일 디바이스의 지리적 위치 데이터를 포함하고, 자세 파라미터는 모바일 디바이스의 방위각 데이터, 피치각 데이터와 롤각 데이터를 포함한다.
설명해야 할 것은, 현재 프레임 이미지는 모바일 디바이스가 위치하는 주위 환경과 관련되는 현재 프레임 이미지를 말한다. 예를 들어, 모바일 디바이스는 자동차로, 자동차의 운전실 또는 차체 외측에 촬영 장치가 장착되어 있고, 이로써 모바일 디바이스에 대해 위치 측정을 수행해야 할 경우, 자동차에 장착된 촬영 장치가 촬영 동작을 수행하여, 자동차가 위치하는 주위 환경과 관련된 이미지(즉 현재 프레임 이미지)를 촬영하도록 한다. 이해해야 할 것은, 촬영된 현재 프레임 이미지에 자동차 자체가 포함되는 여부에 대해서는 모두 가능하며, 본 발명의 실시예는 이에 대해 통합적으로 제한하지 않는다.
또한, 설명해야 할 것은, 단계(10)에서 언급한 현재 프레임 이미지에서 기설정 표시에 대응되는 직선은 현재 프레임 이미지에서 기설정된 특징 표시에 대응되는 직선을 말한다.
예를 들어 설명하면, 본 출원의 일 실시예에서, 모바일 디바이스의 위치 측정 방법을 자동차의 자율 주행 분야에 적용하며, 촬영된 현재 프레임 이미지에는 도로 차선이 포함된다. 이로써, 해당 도로 차선을 기설정 표시로 설정하면, 기설정 표시에 대응되는 직선이 바로 해당 도로 차선에 대응되는 직선이며, 예를 들어, 가장자리 라인 등이다. 또한, 예를 들어, 모바일 디바이스의 위치 측정 방법을 자동차의 자율 주행 분야에 적용하여, 촬영된 현재 프레임 이미지에는 도로 정지선이 포함된다. 이로써, 해당 도로 정지선을 기설정 표시로 설정하면, 기설정 표시에 대응되는 직선이 바로 해당 도로 정지선에 대응되는 직선이며, 예를 들어, 가장자리 라인 등이다. 이해해야 할 것은, 모바일 디바이스의 위치 측정 방법을 자동차의 자율 주행 분야에 적용할 경우, 기설정 표시는 기타 도로 표지일 수도 있으며, 본 출원의 실시예에서는 이에 대해 통합적으로 제한하지 않는다.
설명해야 할 것은, 도로 차선과 도로 정지선 등은 우수한 안정성을 구비하여, 조도, 계절 및 각도 등에 의한 영향이 작으므로, 기설정 표시를 안정성이 높은 도로 차선 또는 도로 정지선으로 정하는 것은, 후속의 제2 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리에 대한 계산의 정확성을 높일 수 있어, 최종적으로 정하는 모바일 디바이스의 위치 자세 파라미터의 정확도를 향상시켜, 즉 위치 측정의 정확도를 향상시킬 수 있다.
단계(20): 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정한다.
단계(30): 고정밀 지도에서, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정한다.
여기서, 고정밀 지도는 위치 측정 기술의 구현을 보조하는 지도로서, 예를 들면 라이다 기술에 의해 구축된 지도이다.
설명해야 할 것은, 점구름 데이터는 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 말하며, 즉 해당 점구름 데이터에 대응되는 지리적 위치는 모바일 디바이스가 현재 프레임 이미지 촬영 시 위치하는 지리적 위치에 대응된다.
단계(40): 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는다.
단계(40)에서, 해당 화소 평면 좌표계에는 점구름 데이터의 속성 정보와 그레이스케일 정보 등 정보가 포함된다.
단계(50): 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정한다.
실제 응용 과정에서, 먼저 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정한다. 다음으로 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하고, 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는다. 마지막으로 다수 개의 제2 화면 좌표 집합으로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정한다.
본 출원의 실시예에 따른 모바일 디바이스의 위치 측정 방법은, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터와 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 대략적인 위치 자세 파라미터에 의해 다수 개의 가정된 위치 자세 파라미터를 확정하고, 다음으로 고정밀 지도에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치와 대응되는 기설정 범위 내의 점구름 데이터를 획득하고, 다수 개의 가정된 위치 자세 파라미터를 결합하여, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 화면 좌표 집합을 얻고, 마직막으로 다수 개의 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리를 각각 계산함으로써, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 방식을 통해, 비전 카메라 기술에 의해 모바일 디바이스에 대한 위치 측정을 구현하였다. 종래의 라이다 위치 측정 기술에 의해 위치 측정을 수행하는 방법에 비해, 본 출원의 실시예에 따른 위치 측정 방법은 라이다의 실시간 반사값에 의해 위치를 측정할 필요가 없다. 본 출원의 실시예에서 제공하는 위치 측정 방법은 조도, 계절 및 동적 물체 등 환경 조건이 위치 측정 정확도에 미치는 영향을 최대한 감소할 수 있어, 위치 측정의 정확도를 향상시킬 수 있고, 또한, 본 출원의 실시예는 비전 카메라에 의해 위치 측정의 원가를 최대한 감소할 수 있다.
본 출원의 일 실시예에서는, 모바일 디바이스의 이력 이동 데이터에 의해 모바일 디바이스의 제1 세트 위치 자세 파라미터를 확정한다. 여기서, 이력 이동 데이터는 해당 모바일 디바이스가 지난 회에 성공적으로 위치 측정을 수행된 경우의 이력 위치 자세 파라미터와 이동 추세 데이터를 포함한다. 구체적으로, 이력 위치 자세 파라미터는 해당 모바일 디바이스가 지난 회에 성공적으로 위치 측정을 수행된 경우의 위치 파라미터와 자세 파라미터를 포함하고, 이동 추세 데이터는 속도 데이터 등 모바일 디바이스의 이동 추세를 표현할 수 있는 데이터를 포함한다. 이해해야 할 것은, 모바일 디바이스가 지난 회에 성공적으로 위치 측정을 수행된 경우의 이력 이동 데이터를 이용하므로, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터(즉 제1 세트 위치 자세 파라미터)를 추산할 수 있으며, 기타 대략적인 위치 자세 파라미터 확정 방식에 비해, 본 출원의 실시예에서 제공되는 모바일 디바이스의 이력 이동 데이터를 이용하여 대략적인 위치 자세 파라미터(제1 세트 위치 자세 파라미터)를 확정하는 방식은, 정확도가 더욱 높은 대략적인 위치 자세 파라미터를 획득할 수 있어, 후속의 위치 측정 단계의 정확도 향상에 전제 조건을 제공할 수 있다.
본 출원의 일 실시예에서, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 증가하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정한다. 설명해야 할 것은, 기설정 스트라이드의 구체적인 값은 실제 상황에 따라 자율적으로 설정할 수 있으며, 본 발명의 실시예에서는 이에 대해 통합적으로 제한하지 않는다.
예를 들어 설명하면, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터는 위치 자세 행렬 X이고, 제2 세트 위치 자세 파라미터는 각각 위치 자세 행렬 Y1, Y2, Y3 ...... Yn이다. 제2 세트 위치 자세 파라미터는 제1 세트 위치 자세 파라미터에 의해 정해진 것이고, 위치 자세 파라미터는 위치 파라미터와 자세 파라미터를 포함하므로, 회전 행렬(R)과 평행 이동 행렬(T)을 이용하여 제1 세트 위치 자세 파라미터와 제2 세트 위치 자세 파라미터 사이의 관계를 표시하며, 구체적인 공식은 다음과 같다.
Figure pat00001
(1)
공식 (1)에서, i=1, 2ΛΛn이며, 여기서, 회전 행렬의 기설정 스트라이드가 행렬 △R이고, 평행 이동 행렬의 기설정 스트라이드가 △T이면, Ri=Ri-1+△R, Ti=Ti-1+△T이다. 이해해야 할 것은, △R과 △T의 구체적인 결정값은 실제 상황에 따라 자율적으로 설정할 수 있으며, 본 출원의 실시예에서는 이에 대해 통합적으로 제한하지 않는다.
다시 말하자면, 상술한 공식을 이용함으로써, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 증가하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 목적을 구현할 수 있으며, 즉, 대략적인 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 증가하는 방식으로 다수 개의 가정된 위치 자세 파라미터를 확정하는 목적을 구현한다.
본 출원의 상술한 실시예를 기초로 확장하여, 본 출원의 다른 실시예를 획득할 수 있다. 본 출원의 다른 일 실시예에서는, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 감소하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정한다. 이하에서 본 출원의 실시예와 상술한 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
구체적으로, 본 출원의 실시예에서, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 감소하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정한다. 상술한 실시예에 의한 공식 (1)을 이용하여 계산할 경우, Ri=Ri-1-△R, Ti=Ti-1-△T이다. 여기서도 이해해야 할 것은, △R과 △T의 구체적인 결정값은 실제 상황에 따라 자율적으로 설정할 수 있으며, 본 출원의 실시예에서는 이에 대해 통합적으로 제한하지 않는다.
다시 말하자면, 본 출원의 실시예에 따른 제2 세트 위치 자세 파라미터를 확정하는 방안은, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 감소하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 목적을 구현할 수 있으며, 즉, 대략적인 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 감소하는 방식으로 다수 개의 가정된 위치 자세 파라미터를 확정하는 목적을 구현한다.
설명해야 할 것은, 상술한 실시예에서 언급한, 기설정 스트라이드를 순차로 증가 또는 순차로 감소하는 방식으로 다수 개의 가정된 위치 자세 파라미터를 확정하는 방안은, 가정된 위치 자세 파라미터의 정확률을 충분히 보장할 수 있다. 즉, 가정된 위치 자세 파라미터를 랜덤으로 설정하는 것에 비해, 본 출원의 상술한 실시예는 정확한 또는 거의 정확한 위치 자세 파라미터가 누락되어 가정된 위치 자세 파라미터로 선정되지 못하는 상황을 충분히 방지할 수 있어, 위치 측정 동작의 성공률을 충분히 향상시킬 수 있다.
상술한 실시예에서 언급한 기설정 스트라이드를 순차로 증가 또는 순차로 감소하는 방식으로 제2 세트 위치 자세 파라미터를 확정하는 방안에 기반하여, 기설정 스트라이드를 순차로 증가하는 방식과 기설정 스트라이드를 순차로 감소하는 방식을 결합하여 제2 세트 위치 자세 파라미터를 확정할 수도 있다. 즉, 실제 상황에 따라, 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 증가하는 방식과 기설정 스트라이드를 감소하는 방식을 결합하는 방식으로 제2 세트 위치 자세 파라미터를 정할 수 있다.
예를 들어 설명하면, 제2 세트 위치 자세 파라미터의 확정 과정에서는, 기설정 스트라이드를 순차로 증가하는 단계와 기설정 스트라이드를 순차로 감소하는 단계를 포함한다. 여기서, 기설정 스트라이드를 순차로 증가하는 단계에서는, 회전 행렬의 기설정 스트라이드를 행렬 △R1로 설정하고, 평행 이동 행렬의 기설정 스트라이드를 행렬 △T1로 설정하며; 기설정 스트라이드를 순차로 감소하는 단계에서는, 회전 행렬의 기설정 스트라이드를 행렬 △R2로 설정하고, 평행 이동 행렬의 기설정 스트라이드를 행렬 △T2로 설정한다. 이로써, 실제로 제2 세트 위치 자세 파라미터의 확정 과정에서, 먼저 제1 세트 위치 자세 파라미터에 의해 기설정 스트라이드를 순차로 증가하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 생성하고, 다음으로 다시 제1 세트 위치 자세 파라미터에 의해 기설정 스트라이드를 순차로 감소하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 생성한다.
설명해야 할 것은, 기설정 스트라이드를 순차로 증가하는 방식과 기설정 스트라이드를 순차로 감소하는 방식을 결합하는 방식으로 다수 개의 가정된 위치 자세 파라미터를 확정하는 방식은, 가정된 위치 자세 파라미터의 정확률을 추가로 향상시킬 수 있다. 예를 들어, 증가된 기설정 스트라이드와 감소된 기설정 스트라이드가 동일하지 않고, 먼저 기설정 스트라이드를 증가하고 다음으로 기설정 스트라이드를 순차로 감소할 경우, 본 출원의 실시예는 예측 밀도를 추가로 증가시킬 수 있어, 가정된 위치 자세 파라미터의 정확률을 향상시킬 수 있으며; 기설정 스트라이드의 증가와 기설정 스트라이드의 감소를 동시에 진행할 경우, 본 출원의 실시예는 대략적인 위치 자세 파라미터에 의한 쌍방향 예측을 구현할 수 있어, 가정된 위치 자세 파라미터의 정확률을 향상시킨다.
도 3은 본 출원의 다른 일 예시적인 실시예에서 제공하는, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 것을 나타내는 흐름도이다. 본 출원의 도 2에 도시된 실시예를 기초로 확장하여, 본 출원의 도 3에 도시된 실시예를 획득할 수 있다. 이하에서 도3에 도시된 실시예와 도 2에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 3에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에 있어서, 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 단계(즉 단계(50))는 다음의 단계를 포함한다.
단계(51): 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합 중에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하여, 다수 개의 거리를 얻는다.
다시 말하자면, 본 출원의 실시예에서는, 제2 상면 좌표 집합 중에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리의 합을 산출하여, 해당 제2 화면 좌표 집합으로부터 직선까지의 거리로 정한다. 설명해야 할 것은, 기설정 표시에 대응되는 화면 좌표는 제2 화면 좌표 집합에서 기설정 표시와 중첩되거나 또는 고정 거리가 있는 화면 좌표를 말한다. 예를 들어, 기설정 표시가 도로 정지선일 경우, 기설정 표시에 대응되는 화면 좌표는 제2 화면 좌표 집합에서 동일하게 해당 도로 정지선을 표시하는 화면 좌표일 수 있고, 제2 화면 좌표 집합에서 해당 도로 정지선과 고정 거리가 있는 화면 좌표일 수도 있으며, 예를 들어 해당 도로 정지선과 인접하는 횡단보도에 대응되는 화면 좌표일 수 있다.
단계(52): 다수 개의 거리의 합에 의해, 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 확정한다.
바람직하게는, 이하의 공식 (2)에 의해 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 확정한다.
Figure pat00002
(2)
공식 (2)에서, d는 해당 제2 화면 좌표 집합에서 기설정 표시에 대응되는 모든 화면 좌표로부터 기설정 표시에 대응되는 직선까지의 거리의 합을 표시하고, P는 해당 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 표시하고, c는 정규화 파라미터를 표시한다.
이로써, 상술한 단계(51)와 단계(52)에 의해 각각 다수 개의 제2 화면 좌표 집합에 대응되는 다수 개의 제2 세트 위치 자세 파라미터의 정확률을 산출할 수 있다.
단계(53): 다수 개의 제2 세트 위치 자세 파라미터의 정확률에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정한다.
다시 말하자면, 실제 응용 과정에서, 먼저 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하고, 다음으로 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하고, 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻고, 다음으로 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하여, 다수 개의 거리를 얻고, 마지막으로 다수 개의 거리의 합에 의해, 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 확정하고, 다수 개의 제2 세트 위치 자세 파라미터의 정확률에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정한다.
본 출원의 실시예에 따른 모바일 디바이스의 위치 측정 방법은, 각각의 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 계산하여, 다수 개의 거리를 얻고, 다수 개의 거리의 합에 의해, 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 확정하고, 마지막으로 다수 개의 제2 세트 위치 자세 파라미터의 정확률에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 방식을 통해, 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리 데이터에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 목적을 구현할 수 있다. 또한, 제2 화면 좌표 집합 중의 모든 화면 좌표로부터 직선까지의 거리를 계산함으로써 다수 개의 거리를 얻는 것에 비해, 본 출원의 실시예에서 언급한 제2 화면 좌표 집합 중에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 산출하는 것은, 조도 또는 계절 등 요소의 영향을 많이 받는 화면 좌표(예를 들어 나무 등)가 위치 측정 동작에 대한 간섭을 충분히 감소시킬 수 있어, 위치 측정의 정확도를 추가로 향상시킬 수 있다.
도 4는 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하는 것을 나타내는 흐름도이다. 본 출원의 도 3에 도시된 실시예를 기초로 확장하여, 본 출원의 도 4에 도시된 실시예를 획득할 수 있다. 이하에서 도 4에 도시된 실시예와 도 3에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 4에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에 있어서, 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합 중에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하여, 다수 개의 거리를 얻는 단계(즉 단계(51))는 다음의 단계를 포함한다.
단계(511): 다수 개의 제2 화면 좌표 집합으로 변환된 점구름 데이터의 속성 정보를 확정한다.
설명해야 할 것은, 점구름 데이터의 속성 정보는 해당 점구름 데이터의 속성을 표현할 수 있는 정보를 말하며, 본 출원의 실시예에서는 해당 속성 정보의 구체적인 유형에 대해 통합적으로 제한하지 않는다. 예를 들어, 기설정 표시가 도로 차선일 경우, 도로 차선에 해당되는지 여부를 표시하는 정보가 바로 대응되는 제2 화면 좌표 집합 중의 점구름 데이터의 속성 정보이다.
단계(512): 점구름 데이터의 속성 정보에 의해, 다수 개의 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표를 특정한다.
단계(513): 각각의 제2 화면 좌표 집합에 의해, 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리 데이터를 확정하여, 다수 개의 거리 데이터를 얻는다.
본 출원의 실시예에 따른 모바일 디바이스의 위치 측정 방법은, 점구름 데이터의 속성 정보에 의해 다수 개의 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표를 특정하는 방식을 통해, 확정된 기설정 표시에 대응되는 화면 좌표의 정확성을 추가로 향상시킬 수 있어, 본 출원의 실시예에 따른 위치 측정 방법에서의 위치 측정의 정확도의 향상에 전제 조건을 제공한다.
도 5는 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 것을 나타내는 흐름도이다. 본 출원의 도 3에 도시된 실시예를 기초로 확장하여, 본 출원의 도 5에 도시된 실시예를 획득할 수 있으며, 이하에서 도 5에 도시된 실시예와 도 3에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 5에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에 있어서, 다수 개의 제2 세트 위치 자세 파라미터가 각자 대응하는 정확률에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 확정하는 단계(즉 단계(53))는 다음의 단계를 포함한다.
단계(531): 다수 개의 제2 세트 위치 자세 파라미터 중 각 제2 세트 위치 자세 파라미터의 정확률을 기설정 경계모수와 비교한다.
여기서, 기설정 경계모수의 구체적인 값은 실제 상황에 따라 자율적으로 설정할 수 있으며, 본 출원의 실시예에서는 이에 대해 통합적으로 제한하지 않는다. 예를 들어, 기설정 경계모수는 [0.5, 1]일 수 있고, 즉 기설정 경계모수가 0.5 내지 1 사이의 값을 포함한다. 다른 예를 들면, 기설정 경계모수는 [0.7, 1]일 수 있고, 즉 기설정 경계모수가 0.7 내지 1 사이의 값을 포함한다.
단계(532): 기설정 경계모수 범위 내에 해당되는 가장 높은 정확률에 대응되는 제2 세트 위치 자세 파라미터를, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터로 확정한다.
단계(533): 모바일 디바이스가 현재 프레임 이미지 재촬영 시의 제3 세트 위치 자세 파라미터를 확정하고, 재촬영된 현재 프레임 이미지 및 제3 세트 위치 자세 파라미터에 의해 위치 측정 동작을 다시 시작한다.
설명해야 할 것은, 제3 세트 위치 자세 파라미터가 바로 현재 프레임 이미지 재촬영 시 모바일 디바이스의 대략적인 위치 자세 파라미터이다. 즉, 모든 제2 세트 위치 자세 파라미터의 정확률이 모두 기설정 경계모수 범위 내에 해당되지 않을 경우, 현재 프레임 이미지를 재촬영하고, 모바일 디바이스의 대략적인 위치 자세 파라미터를 다시 확정하여, 모바일 디바이스에 대한 위치 측정 동작을 다시 시작한다.
실제 응용 과정에서는, 먼저 다수 개의 제2 세트 위치 자세 파라미터 중 각 제2 세트 위치 자세 파라미터의 정확률을 기설정 경계모수와 비교하고, 적어도 하나의 제2 세트 위치 자세 파라미터의 정확률이 기설정 경계모수 범위 내에 해당될 경우, 단계(532)를 수행한다. 즉 기설정 경계모수 범위 내에 해당되는 가장 높은 정확률에 대응되는 제2 세트 위치 자세 파라미터를, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터로 확정한다. 모든 제2 세트 위치 자세 파라미터의 정확률이 모두 기설정 경계모수 범위 내에 해당되지 않을 경우, 단계(533)를 수행한다. 즉 모바일 디바이스가 현재 프레임 이미지 재촬영 시의 제3 세트 위치 자세 파라미터를 확정하고, 재촬영된 현재 프레임 이미지 및 제3 세트 위치 자세 파라미터에 의해 위치 측정 동작을 다시 시작한다.
예를 들어 설명하면, 기설정 경계모수가 [0.3, 1]이고, 총 4개의 제2 세트 위치 자세 파라미터가 있으며, 각각의 제2 세트 위치 자세 파라미터의 정확률은 순차로 0.1, 0.2, 0.3, 0.4이다. 이해해야 할 것은, 정확률이 각각 0.3과 0.4인 2개의 제2 세트 위치 자세 파라미터가 기설정 경계모수 범위 내에 해당돤다. 또한, 0.4가 0.3보다 크므로, 정확률이 0.4인 제2 세트 위치 자세 파라미터가 바로 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터이다.
본 발명의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법은, 제2 세트 위치 자세 파라미터의 정확률을 각각 기설정 경계모수와 비교하고, 비교 결과에 의해 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 방식을 통해, 기설정 경계모수를 이용하여 각 제2 세트 위치 자세 파라미터의 정확률에 대해 필터링을 진행함으로써, 위치 측정의 정확도를 향상시킬 수 있다. 또한, 본 발명의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법은, 모든 제2 세트 위치 자세 파라미터의 정확률이 모두 기설정 경계모수 범위에 해당되지 않을 경우에도 정확률이 가장 높은 제2 세트 위치 자세 파라미터를 강제적으로 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터로 선정하는 상황을 방지할 수 있어, 위치 측정의 정확도를 향상시키는 목적을 구현할 수 있다.
도 6은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 것을 나타내는 흐름도이다. 본 출원의 도 2에 도시된 실시예를 기초로 확장하여, 본 출원의 도 6에 도시된 실시예를 획득할 수 있으며, 이하에서 도 6에 도시된 실시예와 도 2에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 6에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에 있어서, 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 단계(즉 단계(30))는 다음의 단계를 포함한다.
단계(31): 모바일 디바이스의 제1 세트 위치 자세 파라미터 중의 위치 파라미터를 확정하고, 여기서, 해당 위치 파라미터는 현재 프레임 이미지 촬영 시의 지리적 위치이다.
단계(32): 고정밀 지도에서 지리적 위치의 기설정 범위 내에 위치하는 점구름 데이터를, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터로 확정한다.
설명해야 할 것은, 고정밀 지도가 라이다 기술에 의해 구축된 지도일 경우, 점구름 데이터는 라이다의 반사 데이터를 포함한다. 이로써, 해당 점구름 데이터에 포함되는 라이다의 반사 데이터를 점구름 데이터의 속성을 표시하는 속성 정보로 선정할 수 있다.
실제 응용 과정에서, 먼저 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하고, 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정한다. 다음으로 모바일 디바이스의 제1 세트 위치 자세 파라미터 중의 위치 파라미터를 확정하고, 여기서, 해당 위치 파라미터는 현재 프레임 이미지 촬영 시의 지리적 위치이며, 고정밀 지도에서 지리적 위치의 기설정 범위 내에 위치하는 점구름 데이터를 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터로 정한다. 다음으로 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻고, 마지막으로 다수 개의 제2 화면 좌표 집합으로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정한다.
다시 말하자면, 본 발명의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법은, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 대략적인 위치 자세 파라미터 중의 위치 파라머티에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치를 확정하고, 고정밀 지도에서 해당 지리적 위치의 기설정 범위 내에 위치하는 점구름 데이터를 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터로 정하는 방식을 통해, 모바일 디바이스가 현재 프레임 이미지 촬영 시 위치하는 지리적 위치의 점구름 데이터를 획득하는 목적을 구현하며, 이로써 후속의 점구름 데이터를 화소 평면 좌표계로 변환하여 화면 좌표 집합을 얻고, 화면 좌표 집합과 직선 사이의 거리에 의해 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 것에 전제 조건을 제공한다.
예시적인 장치
도 7은 본 출원의 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 구조를 나타내는 도면이다. 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치는, 자동차의 자율 주행 분야에 적용될 수 있고, 스마트 로봇의 주행 타입 기능 분야에도 적용될 수 있다. 도 7에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치는 다음의 내용을 포함한다.
제1 세트 위치 자세 파라미터 확정모듈(100): 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정, 및 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정한다.
제2 세트 위치 자세 파라미터 확정모듈(200): 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정한다.
점구름 데이터 확정모듈(300): 고정밀 지도에서, 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정한다.
제2 화면 좌표 집합 확정모듈(400): 다수 개의 제2 세트 위치 자세 파라미터에 의해, 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는다.
위치 자세 파라미터 특정모듈(500): 다수 개의 제2 화면 좌표 집합으로부터 직선까지의 거리에 의해, 다수 개의 제2 세트 위치 자세 파라미터에서 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정한다.
도 8은 본 출원의 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 위치 자세 파라미터 특정모듈의 구조를 나타내는 도면이다. 본 출원의 도 7에 도시된 실시예를 기초로 확장하여, 본 출원의 도 8에 도시된 실시예를 획득할 수 있으며, 이하에서 도 8에 도시된 실시예와 도 7에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 8에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치에 있어서, 위치 자세 파라미터 특정모듈(500)은 다음의 내용을 포함한다.
거리 확정유닛(510): 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리를 확정하여, 다수 개의 거리를 얻는다.
정확률 확정유닛(520): 다수 개의 거리의 합에 의해, 제2 화면 좌표 집합에 대응되는 제2 세트 위치 자세 파라미터의 정확률을 확정한다.
위치 자세 파라미터 특정유닛(530): 다수 개의 제2 세트 위치 자세 파라미터의 정확률에 의해, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정한다.
도 9는 본 출원의 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 거리 확정유닛의 구조를 나타내는 도면이다. 본 출원의 도 8에 도시된 실시예를 기초로 확장하여, 본 출원의 도 9에 도시된 실시예를 획득할 수 있으며, 이하에서 도 9에 도시된 실시예와 도 8에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 9에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치에 있어서, 거리 확정유닛(510)은 다음의 내용을 포함한다.
속성 정보 확정 서브유닛(5110): 다수 개의 제2 화면 좌표 집합으로 변환된 점구름 데이터의 속성 정보를 확정한다.
화면 좌표 특정 서브유닛(5120): 점구름 데이터의 속성 정보에 의해, 다수 개의 제2 화면 좌표 집합에서 기설정 표시에 대응되는 화면 좌표를 특정한다.
거리 데이터 확정 서브유닛(5130): 각각의 제2 화면 좌표 집합에 의해, 기설정 표시에 대응되는 화면 좌표로부터 직선까지의 거리 데이터를 확정하여, 다수 개의 거리 데이터를 얻는다.
도 10은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치의 위치 자세 파라미터 특정유닛의 구조를 나타내는 도면이다. 본 출원의 도 8에 도시된 실시예를 기초로 확장하여, 본 출원의 도 10에 도시된 실시예를 획득할 수 있으며, 이하에서 도 10에 도시된 실시예와 도 8에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 10에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치에 있어서, 위치 자세 파라미터 특정유닛(530)은 다음의 내용을 포함한다.
비교 서브유닛(5310): 다수 개의 제2 세트 위치 자세 파라미터 중 각 제2 세트 위치 자세 파라미터의 정확률을 기설정 경계모수와 비교한다.
확정 서브유닛(5320): 적어도 하나의 제2 세트 위치 자세 파라미터의 정확률이 기설정 경계모수 범위 내에 해당될 경우, 기설정 경계모수 범위 내에 해당되는 가장 높은 정확률에 대응되는 제2 세트 위치 자세 파라미터를, 모바일 디바이스가 현재 프레임 이미지 촬영 시의 위치 자세 파라미터로 확정한다.
위치 재측정 서브유닛(5330): 모든 제2 세트 위치 자세 파라미터의 정확률이 모두 기설정 경계모수 범위 내에 해당되지 않을 경우, 모바일 디바이스가 현재 프레임 이미지 재촬영 시의 제3 세트 위치 자세 파라미터를 확정하고, 재촬영된 현재 프레임 이미지 및 제3 세트 위치 자세 파라미터에 의해 위치 측정 동작을 다시 시작한다.
도 11은 본 출원의 또 다른 일 예시적인 실시예에서 제공하는 모바일 디바이스의 점구름 데이터 확정모듈의 구조를 나타내는 도면이다. 본 출원의 도 7에 도시된 실시예를 기초로 확장하여, 본 출원의 도 11에 도시된 실시예를 획득할 수 있으며, 이하에서 도 11에 도시된 실시예와 도 7에 도시된 실시예의 차이점에 대해 중점으로 설명하고, 동일한 부분에 대한 설명은 생략하기로 한다.
도 11에 도시된 바와 같이, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 장치에 있어서, 점구름 데이터 확정모듈(300)은 다음의 내용을 포함한다.
위치 파라미터 확정유닛(310): 모바일 디바이스의 제1 세트 위치 자세 파라미터 중의 위치 파라미터를 확정하고, 여기서, 해당 위치 파라미터는 현재 프레임 이미지 촬영 시의 지리적 위치이다.
점구름 데이터 확정유닛(320): 고정밀 지도에서 지리적 위치의 기설정 범위 내에 위치하는 점구름 데이터를 모바일 디바이스가 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터로 확정한다.
이해해야 할 것은, 도 7 내지 도 11에서 제공하는 모바일 디바이스의 위치 측정 장치에서의 제1 세트 위치 자세 파라미터(100), 제2 세트 위치 자세 파라미터(200), 점구름 데이터 확정모듈(300), 제2 화면 좌표 집합 확정모듈(400), 위치 자세 파라미터 특정모듈(500), 및 점구름 데이터 확정모듈(300)에 포함되는 위치 파라미터 확정유닛(310), 점구름 데이터 확정유닛(320), 및 위치 자세 파라미터 특정모듈(500)에 포함되는 거리 확정유닛(510), 정확률 확정유닛(520)과 위치 자세 파라미터 특정유닛(530), 및 거리 확정유닛(510)에 포함되는 속성 정보 확정 서브유닛(5110), 화면 좌표 특정 서브유닛(5120)과 거리 데이터 확정 서브유닛(5130), 및 위치 자세 파라미터 특정유닛(530)에 포함되는 비교 서브유닛(5310), 확정 서브유닛(5320)과 위치 재측정 서브유닛(5330)의 동작과 기능은, 상술한 도 2 내지 도 6에서 제공하는 모바일 디바이스의 위치 측정 방법을 참조할 수 있으며, 중복되지 않도록 이에 대한 설명은 생략하기로 한다.
예시적인 전자 디바이스
이하에서 도 12를 참조하여, 본 출원의 실시예에서 제공하는 모바일 디바이스의 위치 측정 방법에 따른 전자 디바이스를 설명하기로 한다. 도 12는 본 출원의 일 예시적인 실시예에서 제공하는 전자 디바이스의 구조를 나타내는 도면이다. 도 12에 도시된 바와 같이, 전자 디바이스는 하나 이상의 프로세서(610)와 메모리(620)를 포함한다.
프로세서(610)는 중앙처리장치(CPU) 또는 데이터 처리 능력 및/또는 명령 실행 능력을 구비하는 기타 형식의 처리 유닛일 수 있으며, 전자 디바이스 중의 기타 컴포넌트를 제어하여 희망하는 기능을 실행하도록 할 수 있다.
메모리(620)는 하나 이상의 컴퓨터 프로그램 제품을 포함할 수 있으며, 상기 컴퓨터 프로그램 제품은 예를 들어, 휘발성 메모리 및/또는 비휘발성 메모리를 포함하는 각 종 형식의 컴퓨터 판독 가능 저장 매체를 포함할 수 있다. 상기 휘발성 메모리는 예를 들어 RAM 및/또는 캐시(cache) 등을 포함할 수 있다. 상기 비휘발성 메모리는 예를 들어 ROM, 하드 디스크, 플래시 메모리 등을 포함할 수 있다. 상기 컴퓨터 판독 가능 저장 매체에는 하나 이상의 컴퓨터 프로그램 명령이 저장될 수 있고, 프로세서(610)는 상술한 프로그램 명령을 실행하여 상술한 본 출원의 각 실시예에 의한 모바일 디바이스의 위치 측정 방법 및/또는 기타 희망하는 기능을 구현하도록 할 수 있다. 상기 컴퓨터 판독 가능 저장 매체에는 예를 들어 동영상, 위치 자세 파라미터, 고정밀 지도 등 각종 내용이 저장될 수도 있다.
하나의 예시에서, 전자 디바이스는 입력 장치와 출력 장치를 더 포함할 수 있으며, 이러한 컴포넌트는 버스 시스템 및/또는 기타 형식의 연결 기구(미도시)를 통해 서로 연결된다. 여기서, 입력 장치는 키보드, 마우스 등을 포함하나, 이에 제한되지 않는다.
물론, 간략함을 위해, 도 12에서는 해당 전자 디바이스 중 본 출원과 관련된 컴포넌트에서의 일부만을 도시하였으며, 예를 들어 버스, 입력/출력 인터페이스 등의 컴포넌트를 생략하였다. 이 외에도, 전자 디바이스는 구체적인 응용 상황에 따라 임의의 기타 적절한 컴포넌트를 더 포함할 수 있다.
예시적인 컴퓨터 프로그램 제품과 컴퓨터 판독 가능 저장 매체
상술한 방법과 설비 외에도, 본 출원의 실시예는 컴퓨터 프로그램 명령을 포함하는 컴퓨터 프로그램 제품일 수도 있으며, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우, 상기 프로세서는 본 명세서의 상술한 "예시적인 방법" 부분에서 설명된 본 출원의 각종 실시예에 따른 모바일 디바이스의 위치 측정 방법 중의 단계를 수행한다.
상기 컴퓨터 프로그램 제품은 하나 이상의 프로그래밍 언어 중 임의의 조합으로, 본 출원의 실시예의 동작을 수행하는 프로그램 코드를 코딩할 수 있고, 상기 프로그래밍 언어는 예를 들어 Java, C++ 등 객체 지향 프로그래밍 언어를 포함하고, 예를 들어 "C" 언어 또는 유사한 프로그래밍 언어인 기본적인 과정식 프로그래밍 언어를 더 포함한다. 프로그램 코드는, 전체가 유저 컴퓨팅 장치에서 실행, 일부가 유저 장치에서 실행, 하나의 독립적인 소프트웨어 패키지로서 실행, 일부가 유저 컴퓨팅 장치에서 다른 일부가 원격 컴퓨팅 장치에서 실행 또는 전체가 원격 컴퓨팅 장치 또는 서버에서 실행될 수 있다.
또한, 본 출원의 실시예는 컴퓨터 프로그램 명령이 저장되어 있는 컴퓨터 판독 가능 저장 매체일 수도 있으며, 상기 컴퓨터 프로그램 명령이 프로세서에 의해 실행될 경우, 상기 프로세서가 본 명세서의 상술한 "예시적인 방법" 부분에서 설명한 본 출원의 각종 실시예에 따른 모바일 디바이스의 위치 측정 방법 중의 단계를 수행하도록 한다.
상기 컴퓨터 판독 가능 저장 매체는 하나 이상의 판독 가능 매체를 임의의 조합으로 사용할 수 있다. 판독 가능 매체는 판독 가능 신호 매체 또는 판독 가능 저장 매체일 수 있다. 판독 가능 저장 매체로는 예를 들어 전기적, 자기적, 광학적, 전자기, 적외선 또는 반도체의 시스템, 장치 또는 부품이거나, 또는 상술한 임의의 조합일 수 있으나, 이에 제한되지 않는다. 판독 가능 저장 매체로서 더욱 구체적인 예(비전면 방식의 리스트)로는, 하나 이상의 버스를 구비하는 전기적 연결, 휴대용 디스크, 하드 디스크, RAM, ROM, 소거 및 프로그래밍 가능한 판독 전용 기억장치(EPROM 또는 플래시 메모리), 광섬유, CD-ROM, 광학 기억 장치, 자기 기억 장치 또는 상술한 임의의 적절한 조합을 포함한다.
이상에서 구체적인 실시예를 결합하여 본 출원의 기본적인 원리에 대해 설명하였으나, 이해해야 할 것은, 본 출원에서 언급한 장점, 우세, 효과 등은 예시일 뿐이며, 이로 제한하는 것이 아니므로, 이러한 장점, 우세, 효과 등은 본 출원의 모든 실시예가 반드시 구비해야 하는 것으로 이해되어서는 아니된다. 또한, 상술한 구체적인 사항들은 예시적인 작용과 이해를 돕기 위한 것일 뿐이며, 이에 의해 제한되는 것이 아니므로, 상술한 사항에 의해 본 출원이 반드시 상술한 구체적인 사항에 의해 구현되는 것으로 제한되는 것이 아니다.
본 출원에 관한 컴포넌트, 장치, 디바이스, 시스템에 대한 블록도는 예시적인 예일 뿐이며, 반드시 블록도에 도시된 방식으로 연결, 분포, 배치되는 의도를 요구 또는 암시하는 것이 아니다. 본 기술 분야의 기술자에게 있어서 자명한 것은, 이러한 컴포넌트, 장치, 디바이스, 시스템은 임의의 방식으로 연결, 분포, 배치될 수 있다. 예를 들어, "포괄", "포함", "구비" 등의 용어들은 개방적인 용어들로, "포함하지만 이에 제한되지 않는" 것을 의미하며, 이와 교환하여 사용될 수 있다. 여기서 사용되는 용어 "또는"와 "및"은 용어 "및/또는"을 의미하며, 문장에 명확히 기재되어 있지 않는 한, 이와 교환하여 사용될 수 있다. 여기서 사용되는 용어 "예를 들어"는 용어 "예를 들지만 이에 제한되지 않는" 것을 의미하며, 이와 교환하여 사용될 수 있다.
추가로 이해해야 할 것은, 본 출원의 장치, 디바이스와 방법에서, 각 컴포넌트 또는 각 단계는 분해 및/또는 재조합될 수 있다. 이러한 분해 및/또는 재조합은 본 출원의 등가 방안으로 간주되어야 한다.
개시된 내용에 관한 상술한 설명을 제공함으로써, 본 기술 분야의 기술자가 본 출원을 제조 또는 사용할 수 있도록 한다. 이러한 면에 대한 각종 수정은 본 기술 분야의 기술자에게 있어서 자명한 것이며, 여기서 정의한 일반적인 원리들은 기타 측면에 적용될 수 있고, 본 출원의 범위를 벗어나지 않는다. 따라서, 본 출원은 여기에 기재된 측면에 제한되는 것으로 의도되는 것이 아니고, 이에 개시된 원리와 신규적인 특징과 일치하는 가장 넓은 범위에 따르는 것이다.
예시와 설명의 목적으로 상술한 설명을 제공하였다. 또한, 해당 설명은, 본 출원의 실시예가 여기에 개시된 형식에 제한되는 것으로 의도하지 않는다. 이상에서 다수의 예시적인 측면과 실시예를 설명하였으나, 본 기술 분야의 기술자는 그의 일부 변형, 수정, 변경, 추가와 서브 조합을 인지할 수 있다.

Claims (12)

  1. 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정하고, 상기 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하는 단계;
    상기 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 단계;
    고정밀 지도에서, 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 단계;
    상기 다수 개의 제2 세트 위치 자세 파라미터에 의해, 상기 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 단계;
    상기 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 상기 직선까지의 거리에 의해, 상기 다수 개의 제2 세트 위치 자세 파라미터에서 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 단계를 포함하는
    것을 특징으로 하는 모바일 디바이스의 위치 측정 방법.
  2. 제 1 항에 있어서,
    상기 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 상기 단계는,
    상기 제1 세트 위치 자세 파라미터에 의해, 기설정 스트라이드를 순차로 증가 및/또는 순차로 감소하는 방식으로 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 단계를 포함하는
    것을 특징으로 하는 방법.
  3. 제 1 항에 있어서,
    상기 다수 개의 제2 세트 위치 자세 파라미터에 의해, 상기 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 상기 단계는,
    상기 다수 개의 제2 세트 위치 자세 파라미터 중 각 상기 제2 세트 위치 자세 파라미터에 의해, 상기 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 투영하여, 상기 다수 개의 제2 세트 위치 자세 파라미터에 각각 대응되는 다수 개의 제2 화면 좌표 집합을 얻는 단계를 포함하는
    것을 특징으로 하는 방법.
  4. 제 1 항에 있어서,
    상기 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 상기 직선까지의 거리에 의해, 상기 다수 개의 제2 세트 위치 자세 파라미터에서 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 상기 단계는,
    상기 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합에서 상기 기설정 표시에 대응되는 화면 좌표로부터 상기 직선까지의 거리를 확정하여, 다수 개의 거리를 얻는 단계;
    상기 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 상기 다수 개의 거리의 합에 의해, 상기 제2 화면 좌표 집합에 대응되는 상기 제2 세트 위치 자세 파라미터의 정확률을 확정하는 단계;
    상기 다수 개의 제2 세트 위치 자세 파라미터의 상기 정확률에 의해, 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 단계를 포함하는
    것을 특징으로 하는 방법.
  5. 제 4 항에 있어서,
    상기 다수 개의 제2 화면 좌표 집합 중 각 제2 화면 좌표 집합에 대해, 해당 제2 화면 좌표 집합에서 상기 기설정 표시에 대응되는 화면 좌표로부터 상기 직선까지의 거리를 확정하여, 다수 개의 거리를 얻는 상기 단계는,
    상기 다수 개의 제2 화면 좌표 집합으로 변환된 상기 점구름 데이터의 속성 정보를 확정하는 단계;
    상기 점구름 데이터의 상기 속성 정보에 의해, 상기 다수 개의 제2 화면 좌표 집합에서 상기 기설정 표시에 대응되는 화면 좌표를 확정하는 단계;
    각각의 상기 제2 화면 좌표 집합에 의해, 상기 기설정 표시에 대응되는 화면 좌표로부터 상기 직선까지의 거리 데이터를 확정하여, 다수 개의 거리 데이터를 얻는 단계를 포함하는
    것을 특징으로 하는 방법.
  6. 제 4 항에 있어서,
    상기 다수 개의 제2 세트 위치 자세 파라미터의 상기 정확률에 의해, 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 상기 단계는,
    상기 다수 개의 제2 세트 위치 자세 파라미터 중 각 상기 제2 세트 위치 자세 파라미터의 상기 정확률을 기설정 경계모수와 비교하는 단계;
    적어도 하나의 상기 제2 세트 위치 자세 파라미터의 상기 정확률이 상기 기설정 경계모수 범위 내에 해당될 경우, 상기 기설정 경계모수 범위 내에 해당되는 가장 높은 상기 정확률에 대응되는 상기 제2 세트 위치 자세 파라미터를 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터로 확정하는 단계를 포함하는
    것을 특징으로 하는 방법.
  7. 제 6 항에 있어서,
    모든 상기 제2 세트 위치 자세 파라미터의 상기 정확률이 모두 상기 기설정 경계모수 범위 내에 해당되지 않을 경우, 상기 모바일 디바이스가 현재 프레임 이미지 재촬영 시의 제3 세트 위치 자세 파라미터를 확정하고, 재촬영된 상기 현재 프레임 이미지 및 상기 제3 세트 위치 자세 파라미터에 의해 위치 측정 동작을 다시 시작하는 단계를 더 포함하는
    것을 특징으로 하는 방법.
  8. 제 1 항에 있어서,
    모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정하는 상기 단계는,
    상기 모바일 디바이스의 이력 위치 자세 파라미터 또는 기설정 위치 자세 파라미터에 의해 상기 모바일 디바이스의 제1 세트 위치 자세 파라미터를 확정하는 단계를 포함하는
    것을 특징으로 하는 방법.
  9. 제 1 항에 있어서,
    고정밀 지도에서, 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 단계는,
    상기 모바일 디바이스의 상기 제1 세트 위치 자세 파라미터 중의 위치 파라미터를 확정하는 단계-상기 위치 파라미터는 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 지리적 위치임-;
    고정밀 지도에서 상기 지리적 위치의 기설정 범위 내에 위치하는 점구름 데이터를 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터로 확정하는 단계를 포함하는
    것을 특징으로 하는 방법.
  10. 모바일 디바이스가 현재 프레임 이미지 촬영 시의 제1 세트 위치 자세 파라미터를 확정하고, 상기 현재 프레임 이미지에서 기설정 표시에 대응되는 직선을 확정하는 제1 세트 위치 자세 파라미터 확정모듈;
    상기 제1 세트 위치 자세 파라미터에 의해 다수 개의 제2 세트 위치 자세 파라미터를 확정하는 제2 세트 위치 자세 파라미터 확정모듈;
    고정밀 지도에서, 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 지리적 위치의 기설정 범위 내의 점구름 데이터를 확정하는 점구름 데이터 확정모듈;
    상기 다수 개의 제2 세트 위치 자세 파라미터에 의해, 상기 기설정 범위 내의 점구름 데이터를 화소 평면 좌표계로 변환하여, 다수 개의 제2 화면 좌표 집합을 얻는 제2 화면 좌표 집합 확정모듈; 및
    상기 다수 개의 제2 화면 좌표 집합에서의 화면 좌표로부터 상기 직선까지의 거리에 의해, 상기 다수 개의 제2 세트 위치 자세 파라미터에서 상기 모바일 디바이스가 상기 현재 프레임 이미지 촬영 시의 위치 자세 파라미터를 특정하는 위치 자세 파라미터 특정모듈을 포함하는
    것을 특징으로 하는 모바일 디바이스의 위치 측정 장치.
  11. 상기 제 1 항 내지 제 9 항 중 어느 한 항에 따른 모바일 디바이스의 위치 측정 방법을 수행하는 컴퓨터 프로그램이 저장되어 있는
    것을 특징으로 하는 컴퓨터 판독 가능 저장 매체.
  12. 프로세서; 및
    상기 프로세서에 의해 수행 가능한 명령을 저장하는 메모리를 포함하며,
    상기 프로세서가 제 1 항 내지 제 9 항 중 어느 한 항에 따른 모바일 디바이스의 위치 측정 방법을 수행하는
    것을 특징으로 하는 전자 디바이스.
KR1020190169449A 2018-12-18 2019-12-18 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스 KR102329858B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811548924.X 2018-12-18
CN201811548924.XA CN111337010B (zh) 2018-12-18 2018-12-18 可移动设备的定位方法、定位装置及电子设备

Publications (2)

Publication Number Publication Date
KR20200076628A true KR20200076628A (ko) 2020-06-29
KR102329858B1 KR102329858B1 (ko) 2021-11-23

Family

ID=68944183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190169449A KR102329858B1 (ko) 2018-12-18 2019-12-18 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스

Country Status (4)

Country Link
US (1) US11244473B2 (ko)
EP (1) EP3671123A1 (ko)
KR (1) KR102329858B1 (ko)
CN (1) CN111337010B (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182914B2 (en) * 2018-05-21 2021-11-23 Facebook Technologies, Llc Dynamic structured light for depth sensing systems based on contrast in a local area
CN112683151B (zh) * 2020-11-30 2023-06-13 中车长江车辆有限公司 利用供电网络进行定位的供电***、移动设备及方法
CN115063442B (zh) * 2022-06-30 2024-05-31 山东信通电子股份有限公司 一种输电线路隐患目标跟踪方法、设备及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130139126A (ko) * 2012-06-12 2013-12-20 주식회사 인지소프트 모바일 카메라를 이용한 위치기반 플레이트 인식 방법 및 이를 제공하는 모바일 디바이스
KR20150009763A (ko) * 2013-07-17 2015-01-27 엘지이노텍 주식회사 카메라 시스템 및 카메라 시스템의 제어 방법
KR20170125716A (ko) * 2016-05-04 2017-11-15 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
KR20180112374A (ko) * 2017-04-03 2018-10-12 한국과학기술원 영상 특징점 기반의 실시간 카메라 자세 추정 방법 및 그 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103150556B (zh) * 2013-02-20 2015-09-30 西安理工大学 用于道路交通监控的安全带自动检测方法
JP6233706B2 (ja) * 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
JP2016071665A (ja) * 2014-09-30 2016-05-09 富士重工業株式会社 車両の視線誘導装置
CN107949768B (zh) * 2015-08-28 2018-10-12 日产自动车株式会社 车辆位置推定装置、车辆位置推定方法
CN106156723B (zh) * 2016-05-23 2019-02-15 北京联合大学 一种基于视觉的路口精定位方法
CN106203341B (zh) * 2016-07-11 2019-05-21 百度在线网络技术(北京)有限公司 一种无人车的车道线识别方法及装置
CN106092104B (zh) * 2016-08-26 2019-03-15 深圳微服机器人科技有限公司 一种室内机器人的重定位方法及装置
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
KR20180106417A (ko) 2017-03-20 2018-10-01 현대자동차주식회사 차량의 위치 인식 시스템 및 방법
CN107131883B (zh) * 2017-04-26 2021-02-12 中山大学 基于视觉的全自动移动终端室内定位***
US10282860B2 (en) * 2017-05-22 2019-05-07 Honda Motor Co., Ltd. Monocular localization in urban environments using road markings
CN107741224A (zh) * 2017-08-28 2018-02-27 浙江大学 一种基于视觉测量及标定的agv自动调姿定位方法
CN107714082A (zh) * 2017-09-04 2018-02-23 北京航空航天大学 一种基于光学定位的超声探头标定装置及方法
CN108413971B (zh) * 2017-12-29 2021-12-14 驭势科技(北京)有限公司 基于车道线的车辆定位技术及应用

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130139126A (ko) * 2012-06-12 2013-12-20 주식회사 인지소프트 모바일 카메라를 이용한 위치기반 플레이트 인식 방법 및 이를 제공하는 모바일 디바이스
KR20150009763A (ko) * 2013-07-17 2015-01-27 엘지이노텍 주식회사 카메라 시스템 및 카메라 시스템의 제어 방법
KR20170125716A (ko) * 2016-05-04 2017-11-15 임재형 대상물의 위치 정보 측정 장치 그리고 그 제어 방법
KR20180112374A (ko) * 2017-04-03 2018-10-12 한국과학기술원 영상 특징점 기반의 실시간 카메라 자세 추정 방법 및 그 장치

Also Published As

Publication number Publication date
US11244473B2 (en) 2022-02-08
CN111337010B (zh) 2022-05-03
US20200193636A1 (en) 2020-06-18
CN111337010A (zh) 2020-06-26
KR102329858B1 (ko) 2021-11-23
EP3671123A1 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
US20230360260A1 (en) Method and device to determine the camera position and angle
RU2768997C1 (ru) Способ, устройство и оборудование для распознавания препятствий или земли и управления полетом, и носитель данных
KR102032070B1 (ko) 깊이 맵 샘플링을 위한 시스템 및 방법
US10964054B2 (en) Method and device for positioning
EP3967972A1 (en) Positioning method, apparatus, and device, and computer-readable storage medium
US20210289141A1 (en) Control method and apparatus for photographing device, and device and storage medium
EP3627181A1 (en) Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle
CN109613543B (zh) 激光点云数据的修正方法、装置、存储介质和电子设备
KR20200076628A (ko) 모바일 디바이스의 위치 측정 방법, 위치 측정 장치 및 전자 디바이스
WO2021016854A1 (zh) 一种标定方法、设备、可移动平台及存储介质
US20200082547A1 (en) Method and apparatus for determining motion vector field, device, storage medium and vehicle
KR101880185B1 (ko) 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법
CN111307163B (zh) 可移动设备的定位方法、定位装置及电子设备
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
US20210004978A1 (en) Method for acquiring depth information of target object and movable platform
WO2022217988A1 (zh) 传感器配置方案确定方法、装置、计算机设备、存储介质及程序
CN112686951A (zh) 用于确定机器人位置的方法、装置、终端及存储介质
CN112097742B (zh) 一种位姿确定方法及装置
CN110836656B (zh) 用于单目adas的防抖测距方法、装置和电子设备
CN113066100A (zh) 目标跟踪方法、装置、设备及存储介质
CN113837385B (zh) 一种数据处理方法、装置、设备、介质及产品
JP2024037105A (ja) 電子機器、段差検出方法及びプログラム
CN115457165A (zh) 基于无人机航拍图的虚拟航道绘制方法、装置及存储介质
CN116117805A (zh) 巡逻机器人控制方法、装置、电子设备及存储介质
CN112348875A (zh) 一种标志杆的结构化参数表示确定方法及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant