KR102302241B1 - 사용자의 현재 위치로 차량을 호출하는 방법 - Google Patents

사용자의 현재 위치로 차량을 호출하는 방법 Download PDF

Info

Publication number
KR102302241B1
KR102302241B1 KR1020197019824A KR20197019824A KR102302241B1 KR 102302241 B1 KR102302241 B1 KR 102302241B1 KR 1020197019824 A KR1020197019824 A KR 1020197019824A KR 20197019824 A KR20197019824 A KR 20197019824A KR 102302241 B1 KR102302241 B1 KR 102302241B1
Authority
KR
South Korea
Prior art keywords
coordinates
vehicle
feature point
user terminal
server
Prior art date
Application number
KR1020197019824A
Other languages
English (en)
Other versions
KR20200128343A (ko
Inventor
최성환
김중항
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20200128343A publication Critical patent/KR20200128343A/ko
Application granted granted Critical
Publication of KR102302241B1 publication Critical patent/KR102302241B1/ko

Links

Images

Classifications

    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/04Billing or invoicing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0025Planning or execution of driving tasks specially adapted for specific operations
    • B60W60/00253Taxi operations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • G01C21/3881Tile-based structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3889Transmission of selected map data, e.g. depending on route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3885Transmission of map data to client devices; Reception of map data by client devices
    • G01C21/3896Transmission of map data from central databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/907Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/909Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096833Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route
    • G08G1/096844Systems involving transmission of navigation instructions to the vehicle where different aspects are considered when computing the route where the complete route is dynamically recomputed based on new data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/202Dispatching vehicles on the basis of a location, e.g. taxi dispatching
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/021Services related to particular areas, e.g. point of interest [POI] services, venue services or geofences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q2240/00Transportation facility access, e.g. fares, tolls or parking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Accounting & Taxation (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Operations Research (AREA)

Abstract

본 발명은 본 발명은 사용자 단말의 GPS 좌표에 대응하는 타일 데이터에 포함된 기준 특징점의 좌표와, 사용자 단말의 카메라에 의해 촬영된 영상 내 기준 특징점의 위치 변화에 기초하여 단말 좌표를 결정함으로써, 사용자의 현재 위치를 정확히 추정하는 방법에 관한 것이다.

Description

사용자의 현재 위치로 차량을 호출하는 방법
본 발명은 사용자 단말의 GPS 좌표와, 사용자 단말에서 촬영된 특징점의 좌표에 기초하여 사용자의 현재 위치를 정확히 추정하고, 추정된 위치로 차량을 호출하는 방법에 관한 것이다.
택시를 이용한 운송 서비스에 있어서, 종래에는 사용자가 도로변에서 우연히 마주친 택시를 잡아 목적지로 이동해야 했으나, 최근에는 사용자 단말에 설치된 어플리케이션을 통해 택시를 사용자 위치로 호출하여 목적지로 이동하는 방식이 이용되고 있다.
이러한 방식에서 사용자 위치를 결정하는 방법으로는 GPS(Global Positioning System)를 이용한 위치 기반 서비스가 이용되고 있으나, GPS 좌표는 다양한 요인(예컨대, 전파 수신 조건, 위성 신호의 굴절, 반사, 송수신기의 노이즈, 위성간의 거리)에 의해 사용자의 정확한 위치를 나타내기 어렵다는 한계가 있다.
이로 인해, 택시를 호출하였음에도 택시가 사용자를 찾지 못하거나 사용자가 택시를 인지하지 못하는 문제가 발생되고 있다. 특히 교차로에서, 택시가 사용자와 반대편 또는 대각방향에 위치한 차선에 정차하게 되는 경우 사용자가 택시에 승차하는 과정이 매우 불편해질 뿐만 아니라, 목적지까지의 경로 또한 완전히 달라질 수 있어 사용자의 만족도가 매우 저하되며 택시 요금 또한 상승하게 되는 문제가 있다.
이에 따라, 차량 호출 서비스를 이용함에 있어서 차량을 사용자의 정확한 현재 위치로 호출하기 위한 방법이 요구되고 있다.
본 발명은 차량의 호출을 위해 사용자 주변의 특징점을 이용하여 사용자의 현재 위치를 정확히 추정하는 것을 목적으로 한다.
또한, 본 발명은 사용자로 하여금 도로 상에 위치한 복수의 차량 중에서 자신이 호출한 차량을 파악하도록 하는 것을 목적으로 한다.
또한, 본 발명은 사용자로 하여금 현재 위치보다 목적지까지의 예상 주행 요금이 더 낮은 탑승 위치를 파악하도록 하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명은 사용자 단말의 GPS 좌표에 대응하는 타일 데이터에 포함된 기준 특징점의 좌표와, 사용자 단말의 카메라에 의해 촬영된 영상 내 기준 특징점의 위치 변화에 기초하여 단말 좌표를 결정함으로써, 사용자의 현재 위치를 정확히 추정할 수 있다.
또한, 본 발명은 차량 좌표를 포함하는 영역이 사용자 단말의 카메라에 의해 촬영되면 촬영 영상 내에서 운송 차량을 지시하는 증강 이미지를 표시함으로써, 사용자로 하여금 도로 상에 위치한 복수의 차량 중에서 자신이 호출한 차량을 파악하도록 할 수 있다.
또한, 본 발명은 단말 좌표와의 거리가 미리 설정된 거리 이내이고 목적지까지의 예상 주행 요금이 단말 좌표로부터 상기 목적지까지의 예상 주행 요금보다 낮은 제안 탑승 위치를 결정하고, 결정된 제안 탑승 위치를 사용자 단말에 송신함으로써, 사용자로 하여금 현재 위치보다 목적지까지의 예상 주행 요금이 더 낮은 탑승 위치를 파악하도록 할 수 있다.
본 발명은 사용자 주변의 특징점을 이용하여 사용자의 위치를 추정함으로써, 현재 사용자의 정확한 위치로 차량을 호출할 수 있고 이에 따라 운송 서비스를 제공받음에 있어서 사용자의 편의성을 극대화할 수 있다.
또한, 본 발명은 사용자로 하여금 도로 상에 위치한 복수의 차량 중에서 자신이 호출한 차량을 파악하도록 함으로써, 운송 서비스 제공을 위한 차량이 사용자 주변에 도착하였을 때 사용자가 자신이 호출한 차량을 인지하지 못하는 문제를 방지할 수 있다.
또한, 본 발명은 사용자로 하여금 현재 위치보다 목적지까지의 예상 주행 요금이 더 낮은 탑승 위치를 파악하도록 함으로써, 사용자로 하여금 보다 효율적인고 경제적인 운송 서비스를 제공받도록 할 수 있다.
상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템을 도시한 도면.
도 2는 도 1에 도시된 서버, 사용자 단말 및 차량의 내부 블록도.
도 3은 본 발명의 일 실시예에 따른 차량 호출 방법을 도시한 순서도.
도 4는 서버의 데이터베이스에 저장된 3차원 지도 및 타일 데이터의 예시를 도시한 도면.
도 5는 사용자 단말의 카메라를 이용하여 외부 영상을 촬영하는 일 실시예를 도시한 도면.
도 6은 외부 영상을 촬영할 때 카메라의 이동을 안내하는 안내 화면을 도시한 도면.
도 7는 외부 영상에 특징점이 식별되지 않을 때 표시되는 알람을 도시한 도면.
도 8은 운송 차량을 지시하는 증강 이미지의 일 예를 도시한 도면.
도 9는 제안 탑승 위치와 제안 탑승 위치까지의 경로를 안내하는 증강 이미지의 일 예를 도시한 도면.
도 10은 운송 서비스 제공을 위해 서버, 사용자 단말 및 차량이 동작하는 과정을 도시한 순서도.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
본 발명은 사용자 단말의 GPS 좌표와, 사용자 단말에서 촬영된 특징점의 좌표에 기초하여 사용자의 현재 위치를 정확히 추정하고, 추정된 위치로 차량을 호출하는 방법에 관한 것이다.
이하, 도 1 내지 도 10을 참조하여, 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템과, 이러한 시스템을 이용하여 차량을 호출하는 방법에 대해 구체적으로 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템을 도시한 도면이고, 도 2는 도 1에 도시된 서버, 사용자 단말 및 차량의 내부 블록도이다.
도 3은 본 발명의 일 실시예에 따른 차량 호출 방법을 도시한 순서도이다.
도 4는 서버의 데이터베이스에 저장된 3차원 지도 및 타일 데이터의 예시를 도시한 도면이다.
도 5는 사용자 단말의 카메라를 이용하여 외부 영상을 촬영하는 일 실시예를 도시한 도면이다.
도 6은 외부 영상을 촬영할 때 카메라의 이동을 안내하는 안내 화면을 도시한 도면이고, 도 7는 외부 영상에 특징점이 식별되지 않을 때 표시되는 알람을 도시한 도면이다.
도 8은 운송 차량을 지시하는 증강 이미지의 일 예를 도시한 도면이고, 도 9는 제안 탑승 위치와 제안 탑승 위치까지의 경로를 안내하는 증강 이미지의 일 예를 도시한 도면이다.
도 10은 운송 서비스 제공을 위해 서버, 사용자 단말 및 차량이 동작하는 과정을 도시한 순서도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 운송 서비스 제공 시스템(1)은 사용자 단말(100), 서버(200) 및 차량(300)을 포함할 수 있다. 도 1에 도시된 운송 서비스 제공 시스템(1)은 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
운송 서비스 제공 시스템(1)을 구성하는 사용자 단말(100), 서버(200) 및 차량(300)은 무선 네트워크로 연결되어 상호 데이터 통신을 수행할 수 있고, 각 구성요소는 데이터 통신을 위해 5G(5th Generation) 이동통신 서비스를 이용할 수 있다.
본 발명에서 차량(300)은 사용자를 목적지까지 이동시키기 위해 운송 서비스를 제공하는 임의의 차량으로, 현재 이용되고 있는 택시나 공유차량(shared vehicle)을 포함할 수 있다. 뿐만 아니라, 차량(300)은 최근 개발되고 있는 자율주행 차량(autonomous vehicle), 전기차(electronic vehicle), 수소연료전지차(fuel cell electric vehicle) 등을 포함하는 개념일 수 있다.
한편, 차량(300)이 자율주행 차량인 경우, 차량(300)은 임의의 인공지능(Artificial Intelligence) 모듈, 드론(drone), 무인항공기(Unmmaned Aerial Vehicle), 로봇, 증강현실(Augmented Reality; AR) 모듈, 가상현실(Virtual reality; VR) 모듈, 5G 이동통신 서비스 및 장치 등과 연계될 수 있다.
이하에서는 설명의 편의를 위해, 운송 서비스 제공 시스템(1)을 구성하는 차량(300)이 자율주행 차량인 것으로 가정하여 설명하도록 한다.
차량(300)은 운송 회사에 의해 운용될 수 있고, 후술하는 운송 서비스 제공 과정에 있어서 차량(300)에는 사용자가 탑승할 수 있다. 이러한 차량(300) 내부에는 다수의 HMI(Human Machine Interface)가 구비될 수 있다. 기본적으로 HMI는 다수의 물리적인 인터페이스(예컨대, AVN 모듈(310))를 통해 차량(300)의 정보나 상태를 운전자에게 시각적 및 청각적으로 출력하는 기능을 수행할 수 있다. 또한, 운송 서비스 제공 과정에 있어서 HMI는 운송 서비스 제공을 위해 다양한 사용자 조작을 입력받을 수 있고, 사용자에게 서비스 관련 내용을 출력할 수도 있다. 차량(300) 내부의 구성요소에 대해서는 아래에서 구체적으로 설명하도록 한다.
서버(200)는 클라우드를 기반으로 구축될 수 있고, 무선 네트워크로 연결된 사용자 단말(100) 및 차량(300)에서 수집된 정보를 저장 및 관리할 수 있다. 이와 같은 서버(200)는 차량(300)을 운용하는 운송 회사에 의해 관리될 수 있고, 무선 데이터 통신을 이용하여 차량(300)을 제어할 수 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 사용자 단말(100)은 카메라(110), 디스플레이 모듈(120), GPS 모듈(130), 특징점 추출 모듈(140) 및 단말 좌표 산출 모듈(150)을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 서버(200)는 차량 관리 모듈(210), 데이터베이스(220) 및 경로 생성 모듈(230)을 포함할 수 있다. 또한, 본 발명의 일 실시예에 따른 차량(300)은 AVN(Audio, Video, Navigation) 모듈(310), 자율주행 모듈(320), 차량용 GPS 모듈(330) 및 차량용 카메라 모듈(340)을 포함할 수 있다.
도 2에 도시된 사용자 단말(100), 서버(200) 및 차량(300)의 내부 구성요소는 예시적인 것이고, 그 구성요소들이 도 2에 도시된 예시에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다. 한편, 도 2에는 통신 모듈이 별도로 도시되지는 않았으나, 상호 데이터 통신을 위해 사용자 단말(100), 서버(200) 및 차량(300)에 통신 모듈이 포함될 수 있음은 당연하다.
사용자 단말(100), 서버(200) 및 차량(300) 내 각 모듈은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors) 중 적어도 하나의 물리적인 요소로 구현될 수 있다.
한편, 도 3을 참조하면, 본 발명의 일 실시예에 따른 차량 호출 방법은 단말의 GPS 좌표를 서버(200)로 송신하는 단계(S1110), 서버(200)로부터 단말의 GPS 좌표에 대응하는 타일(tile) 데이터를 수신하는 단계(S120)를 포함할 수 있다.
이어서, 차량 호출 방법은 외부 영상을 촬영하는 단계(S130), 촬영된 외부 영상에서 특징점을 추출하는 단계(S140), 추출된 특징점과 매칭되는 기준 특징점(11)을 타일 데이터로부터 식별하는 단계(S150)를 포함할 수 있다.
이어서, 차량 호출 방법은 기준 특징점(11)의 좌표 및 외부 영상 내 특징점의 위치 변화에 따라 단말 좌표를 결정하는 단계(S160), 서버(200)로 단말 좌표를 송신하는 단계(S170) 및 서버(200)로부터 운송 차량(300)의 차량 좌표를 수신하는 단계(S180)를 포함할 수 있다.
이와 같은 차량 호출 방법은 전술한 사용자 단말(100)에 의해 수행될 수 있으며, 사용자 단말(100)은 도 3에 도시된 각 단계의 동작을 수행하기 위해 서버(200)와 데이터 통신을 수행할 수 있다.
이하에서는 차량 호출 방법을 이루는 각 단계를 도면을 참조하여 구체적으로 설명하도록 한다.
사용자 단말(100)은 서비스 요청 신호가 입력되면 단말의 GPS 좌표를 서버(200)로 송신할 수 있다(S110).
서비스 요청 신호는 운송 서비스의 제공을 요청하는 신호로서, 차량(300)의 호출을 개시하기 위한 신호일 수 있다. 사용자 단말(100)에는 운송 서비스에 관한 어플리케이션(이하, 운송 어플리케이션)이 미리 설치될 수 있다. 운송 어플리케이션은 서비스 요청 신호의 입력을 위한 인터페이스를 디스플레이 모듈(120)을 통해 출력할 수 있고, 사용자는 해당 인터페이스를 통해 서비스 요청 신호를 입력할 수 있다.
한편, 서비스 요청 신호의 입력 여부와 관계 없이 GPS 모듈(130)은 인공위성에서 출력되는 위성신호를 해석함으로써 GPS 모듈(130)이 위치한 3차원 좌표를 획득할 수 있다. GPS 모듈(130)은 사용자 단말(100) 내부에 구비되어 있으므로 GPS 모듈(130)이 획득한 3차원 좌표는 단말의 GPS 좌표일 수 있다.
전술한 바와 같이 서비스 요청 신호가 디스플레이 모듈(120)을 통해 입력되면, 이에 응답하여 GPS 모듈(130)은 단말의 GPS 좌표를 서버(200)로 송신할 수 있다.
이어서, 특징점 추출 모듈(140)은 서버(200)로부터 단말의 GPS 좌표에 대응하는 타일(tile) 데이터를 수신할 수 있다(S120).
서버(200)는 복수의 단위 영역(10')으로 구성된 3차원 지도(10) 및 복수의 단위 영역(10') 각각에 대응하는 타일 데이터가 미리 저장된 데이터베이스(220)를 포함할 수 있다. 보다 구체적으로, 데이터베이스(220)에는 3차원 지도(10)와 3차원 지도(10)에 포함된 기준 특징점(feature point, interest point)에 대한 정보가 미리 저장될 수 있다. 이 때, 3차원 지도(10)는 단위 영역(10')으로 구성될 수 있고, 각 단위 영역(10')에 대응하는 기준 특징점에 대한 정보가 타일 데이터로 정의될 수 있다.
도 4를 참조하면, 3차원 지도(10)는 복수의 단위 영역(10')으로 이루어질 수 있다. 단위 영역(10')은 다양한 기준에 의해 구분될 수 있으나, 이하에서는 설명의 편의를 위해 단위 영역(10')이 매트릭스(matrix) 형태로 구분된 것으로 가정하여 설명하도록 한다. 즉, 도 4에 도시된 3차원 지도(10)는 6행 8열로 구성된 총 48개의 단위 영역(10')으로 구분될 수 있다.
서버(200) 내 차량 관리 모듈(210)은 사용자 단말(100)로부터 단말 GPS 좌표가 수신되면, 데이터베이스(220)를 참조하여 해당 GPS 좌표를 포함하는 단위 영역(10')을 식별할 수 있다. 데이터베이스(220)에는 3차원 지도(10) 상의 임의의 위치에 대한 3차원 좌표가 저장될 수 있다. 차량 관리 모듈(210)은 사용자 단말(100)로부터 수신된 단말 GPS 좌표와 3차원 지도(10) 상의 3차원 좌표를 비교하여 단말 GPS 좌표가 어느 단위 영역(10')에 포함되는지 판단할 수 있다.
예를 들어, 도 4에서 단말 GPS 좌표가 Sa인 경우, 차량 관리 모듈(210)은 GPS 좌표를 포함하는 단위 영역(10')을 4행 4열의 단위 영역(10')으로 식별할 수 있다. 또한, 단말 GPS 좌표가 Sb인 경우, 차량 관리 모듈(210)은 GPS 좌표를 포함하는 단위 영역(10')을 3행 8열의 단위 영역(10')으로 식별할 수 있다.
단위 영역(10')이 식별되면, 차량 관리 모듈(210)은 데이터베이스(220)로부터 해당 단위 영역(10')에 대응하는 타일 데이터를 추출할 수 있고, 추출된 타일 데이터를 사용자 단말(100)에 송신할 수 있다.
타일 데이터에는 단위 영역(10')에 포함된 각 기준 특징점(11)의 기술자(descriptor)가 포함될 수 있다. 여기서 기준 특징점(11)은 데이터베이스(220)에 저장된 특징점으로서, 구체적으로 3차원 지도(10) 내 존재하는 특징점을 의미할 수 있다. 또한, 기준 특징점(11)의 기술자는 기준 특징점(11)을 정의하는 파라미터로서, 예컨대 기준 특징점(11)의 각(angle), 자세(pose) 등을 포함할 수 있다.
이와 같은 기술자는 SIFT (Scale-Invariant Feature Transform), SURF (Speeded Up Robust Features) 등, 당해 기술분야에서 알려진 다양한 알고리즘을 통해 추출될 수 있다.
앞서 설명한 바와 같이 차량 관리 모듈(210)은 단말 GPS 좌표를 포함하는 단위 영역(10')을 식별하고, 식별된 단위 영역(10')에 대응하는 타일 데이터를 사용자 단말(100)에 송신할 수 있다. 다만, 단위 영역(10')에 기준 특징점(11)이 존재하지 않는 경우, 타일 데이터 또한 존재하지 않을 수 있다.
서버(200)는 단말 GPS 좌표를 포함하는 단위 영역(10')에 대응하는 타일 데이터가 존재하지 않으면, 해당 단위 영역(10')에 인접한 인접 영역에 대응하는 타일 데이터를 더 추출하여 사용자 단말(100)에 송신할 수 있다.
예를 들어, 도 4에 도시된 바와 같이 단말 GPS 좌표가 Sa인 경우, 해당 단위 영역(10')에 대응하는 타일 데이터는 존재하지 않을 수 있다. 이 때, 서버(200)는 해당 단위 영역(10')(4행 4열)과 인접한 3행 3열, 3행 4열, 3행 5열, 4행 3열, 4행 5열, 5행 3열, 5행 4열, 5행 5열을 인접 영역으로 결정할 수 있고, 인접 영역에 대응하는 타일 데이터를 더 추출하여 사용자 단말(100)에 송신할 수 있다.
특징점 추출 모듈(140)이 서버(200)로부터 타일 데이터를 수신하면, 사용자 단말(100)은 카메라(110)를 이용하여 외부 영상을 촬영할 수 있고(S130), 촬영된 외부 영상에서 특징점을 추출할 수 있다(S140).
보다 구체적으로, 특징점 추출 모듈(140)이 서버(200)로부터 타일 데이터를 수신하면, 사용자 모듈에 설치된 운송 어플리케이션은 특징점 촬영을 위해 카메라(110)를 실행할 수 있다. 사용자는 운송 어플리케이션에 의해 실행된 카메라(110)를 이용하여 외부 영상을 촬영할 수 있다.
특징점 추출 모듈(140)은 다양한 알고리즘을 이용하여 외부 영상에서 특징점을 추출할 수 있다. 예컨대, 특징점 추출 모듈(140)은 당해 기술분야에서 이용되는 Harris Corner, Shi-Tomasi, SIFT (Scale-Invariant Feature Transform), SURF (Speeded Up Robust Features), FAST (Features from Accelerated Segment Test), AGAST (Adaptive and Generic corner detection based on the Accelerated Segment Test), Ferns (Fast keypoint recognition in ten lines of code) 등의 알고리즘을 이용하여 특징점을 추출할 수 있다.
한편, 외부 영상은 특징점의 위치가 변화된 둘 이상의 사진일 수 있고, 특징점의 위치가 변화되는 동영상일 수도 있다.
도 5를 참조하면, 이와 같은 외부 영상의 촬영을 위해, 사용자 단말(100)은 외부 영상 내에서 특징점의 위치가 변하도록 카메라(110)를 슬라이드 이동하여 외부 영상을 촬영할 수 있다.
일 예에서, 카메라(110)는 사용자 단말(100)에서 좌우 또는 상하로 이동 가능하게 구비될 수 있다. 이 때, 운송 어플리케이션은 카메라(110)를 좌우 또는 상하로 슬라이드 이동시킬 수 있고, 카메라(110)는 슬라이드 이동하면서 외부 영상을 촬영할 수 있다.
다른 예에서, 카메라(110)는 사용자 단말(100)에 고정 구비될 수 있다. 이 때, 운송 어플리케이션은 사용자가 카메라(110)를 수동으로 슬라이드 이동시키도록 안내할 수 있고, 사용자는 안내에 따라 카메라(110)를 좌우 또는 상하로 슬라이드 이동시키면서 외부 영상을 촬영할 수 있다.
보다 구체적으로, 도 6을 참조하면, 카메라(110)가 실행된 후 운송 어플리케이션은 디스플레이 모듈(120)을 통해 카메라(110)의 이동을 안내하는 안내 화면(20)을 출력할 수 있다. 안내 화면(20)은 카메라(110)의 좌우 이동을 안내하는 안내 이미지(20a) 및 안내 텍스트(20b)를 포함할 수 있다. 사용자는 안내 화면(20)에 표시된 방향에 따라 사용자 단말(100)을 이동시킬 수 있고, 카메라(110)는 안내 화면(20)에 표시된 방향에 따라 이동하여 외부 영상을 촬영할 수 있다.
카메라(110)가 외부 영상을 촬영하는 동안, 특징점 추출 모듈(140)은 실시간으로 외부 영상 내 특징점을 식별 및 추출할 수 있다. 다만, 외부 영상에서 특징점이 식별되지 않는 경우 운송 어플리케이션은 알람을 출력할 수 있다.
다시 도 4를 참조하면, 단말 GPS 위치가 Sa인 사용자 단말(100)을 소지한 사용자는 카메라(110)를 이용하여 (A) 방향의 외부 영상을 촬영할 수 있다. 이 때, 촬영된 외부 영상에는 특징점이 포함되지 않을 수 있고, 이에 따라 특징점 추출 모듈(140)은 외부 영상 내 특징점을 식별하지 못할 수 있다.
이 때, 도 7에 도시된 바와 같이 운송 어플리케이션은 디스플레이 모듈(120)을 통해 카메라(110) 방향 전환을 안내하는 알람(30)을 출력할 수 있다. 알람(30)은 카메라(110)의 방향 전환을 안내하는 이미지(30a) 및 텍스트(30b)를 포함할 수 있다.
사용자는 알람(30)에 표시된 방향에 따라 카메라(110)의 방향을 도 4에 도시된 (B) 방향으로 전환시킬 수 있고, 카메라(110)는 (B) 방향의 외부 영상을 촬영할 수 있다. 도 4에 도시된 바와 같이 (B) 방향에는 다수의 기준 특징점(11)이 존재하므로, 외부 영상에는 특징점이 포함될 수 있고, 특징점 추출 모듈(140)은 외부 영상 내 특징점을 식별 및 추출할 수 있다.
특징점 추출 모듈(140)은 서버(200)로부터 수신된 타일 데이터에 포함된 복수의 기준 특징점(11) 중에서 외부 영상에서 추출된 특징점과 매칭되는 어느 하나의 기준 특징점(11)을 식별할 수 있다(S150).
외부 영상에서 추출된 특징점은 타일 데이터에 포함된 복수의 기준 특징점(11) 중 어느 하나일 수 있다. 특징점 추출 모듈(140)은 외부 영상에서 추출된 특징점과 타일 데이터에 포함된 복수의 기준 특징점(11)을 비교하여, 추출된 특징점과 매칭되는 어느 한 기준 특징점(11)을 식별할 수 있다.
보다 구체적으로, 특징점 추출 모듈(140)은 외부 영상에서 추출된 특징점의 기술자를 결정하고, 결정된 기술자와 매칭되는 기술자를 갖는 어느 한 기준 특징점(11)을 식별할 수 있다. 특징점 추출 모듈(140)은 외부 영상에 포함된 특징점의 기술자를 추출함으로써 특징점의 기술자를 결정할 수 있다. 기술자의 추출을 위해 이용되는 알고리즘에 대해서는 전술한 바 있으므로 여기서는 자세한 내용을 생략하도록 한다.
일 예에서, 특징점 추출 모듈(140)은 추출된 기술자와, 타일 데이터에 포함된 각 기준 특징점(11)의 기술자를 비교하여, 추출된 기술자와 동일한 기술자를 갖는 어느 하나의 기준 특징점(11)을 식별할 수 있다.
다른 예에서, 특징점 추출 모듈(140)은 추출된 기술자와, 타일 데이터에 포함된 각 기준 특징점(11)의 기술자를 비교하여, 추출된 기술자와 유사도가 가장 높은 기술자를 갖는 어느 하나의 기준 특징점(11)을 식별할 수 있다.
보다 구체적으로, 특징점 추출 모듈(140)은 추출된 각각의 기술자(예컨대, 특징점의 각(angle), 자세(pose))와 타일 데이터에 포함된 각 기준 특징점(11)의 각 기술자를 비교하여, 그 차이가 최소인 어느 하나의 기준 특징점(11)을 식별할 수 있다.
또한, 특징점 추출 모듈(140)은 추출된 기술자와 기준 특징점(11)의 기술자에 기초하여 유사성 행렬(affinity matrix)를 생성할 수 있다. 이 때, 특징점 추출 모듈(140)은 유사성 행렬의 고유값(eigenvalue)의 크기를 가장 크게 하는 어느 한 기준 특징점(11)을 식별할 수 있다.
단말 좌표 산출 모듈(150)은 전술한 방법에 의해 식별된 기준 특징점(11)의 좌표와 외부 영상 내 기준 특징점(11)의 위치 변화에 기초하여 단말 좌표를 결정할 수 있다(S160).
서버(200)로부터 수신된 타일 데이터에는 단위 영역(10') 내 기준 특징점(11)의 3차원 좌표가 포함될 수 있다. 한편, 전술한 바와 같이 외부 영상은 카메라(110)를 슬라이드 이동시킴으로써 촬영되므로, 외부 영상 내 기준 특징점(11)의 위치는 변화할 수 있다.
단말 좌표 산출 모듈(150)은, 카메라(110)의 내부 파라미터, 기준 특징점(11)의 좌표 및 외부 영상 내에서 기준 특징점(11)의 위치 변화량에 기초하여 카메라(110)와 물체 사이의 3차원 거리를 산출할 수 있다. 예컨대, 단말 산출 모듈은 다양한 SFM(Structure From Motion) 알고리즘을 이용하여 카메라(110)와 물체 사이의 3차원 거리를 산출할 수 있다.
보다 구체적으로, 단말 좌표 산출 모듈(150)은 SFM 알고리즘을 이용하여 기준 특징점(11)과 카메라(110) 사이의 상대 거리를 산출할 수 있다. 이어서, 단말 좌표 산출 모듈(150)은 산출된 상대 거리와 카메라(110)의 피치(pitch), 롤(roll), 요(yaw)에 기초하여 기준 특징점(11)과 카메라(110) 사이의 3차원 변위값을 산출하고, 기준 특징점(11)의 좌표에 3차원 변위값을 적용하여 단말 좌표를 결정할 수 있다.
예를 들어, 기준 특징점(11)의 좌표가 (X1, Y1, Z1)이고, 3차원 변위값이 (△X, △Y, △Z)로 산출되면, 단말좌표 산출 모듈은 기준 특징점(11)의 좌표에 3차원 변위값이 적용된 (X1+△X, Y1+△Y, Z1+△Z)를 단말 좌표로 결정할 수 있다.
본 명세서에서는 3차원 변위값을 산출하기 위해 다양한 SFM 알고리즘을 이용할 수 있다고 간략히 언급하였으나, SFM 알고리즘 외에도 당해 기술분야에서 이용되는 다양한 영상 분석 알고리즘이 적용될 수 있다.
상술한 바와 같이, 본 발명은 사용자 주변의 특징점을 이용하여 사용자의 위치를 추정함으로써, 후술하는 바와 같이 사용자는 현재 자신의 정확한 위치로 차량(300)을 호출할 수 있고 이에 따라 운송 서비스를 제공받음에 있어서 사용자의 편의성을 극대화할 수 있다.
단말 좌표가 결정되면, 단말 좌표 산출 모듈(150)은 단말 좌표를 서버(200)로 송신할 수 있다(S170).
서버(200)의 차량 관리 모듈(210)은 사용자 단말(100)로부터 수신된 단말 좌표에 기초하여 사용자에게 차량(300)을 배차할 수 있고, 본 명세서에서는 사용자에게 배차된 차량(300)을 운송 차량(300)으로 정의하도록 한다.
서버(200)는 현재 운행 가능한 복수의 차량(300) 중 단말 좌표까지의 거리가 가장 짧은 어느 한 차량(300)을 운송 차량(300)으로 결정할 수 있다.
일 예에서, 차량 관리 모듈(210)은 현재 운행 가능한 복수의 차량(300) 중에서 단말 좌표까지의 직선 거리가 가장 짧은 어느 한 차량(300)을 운송 차량(300)으로 결정할 수 있다.
다른 예에서, 차량 관리 모듈(210)은 현재 운행 가능한 복수의 차량(300) 중에서 단말 좌표까지의 이동 거리가 가장 짧은 어느 한 차량(300)을 운송 차량(300)으로 결정할 수 있다. 보다 구체적으로, 단말 좌표까지의 직선 거리가 가장 짧은 차량(300)이 차량 A인 경우에도, 도로의 구조에 따라 단말 좌표까지의 이동 거리가 가장 짧은 차량(300)은 차량 B일 수 있다. 이 때, 차량 관리 모듈(210)은 차량 B를 운송 차량(300)으로 결정할 수 있다.
운송 차량(300)이 결정되면, 차량 관리 모듈(210)은 운송 차량(300)에 단말 좌표 및 단말 좌표까지의 주행 경로를 송신할 수 있다.
보다 구체적으로, 경로 생성 모듈(230)은 차량(300)의 차량용 GPS 모듈(330)을 통해 차량(300)의 현재 위치를 식별하고, 식별된 현재 위치로부터 단말 좌표까지의 주행 경로를 생성할 수 있다.
경로 생성 모듈(230)은 교통 상황 정보에 기초하여 주행 경로를 생성할 수 있고, 이를 위해 경로 생성 모듈(230)은 교통 정보 서버(400)와 네트워크로 연결되어 교통 정보 서버(400)로부터 현재 교통 상황 정보를 수신할 수 있다. 여기서 교통 정보 서버(400)는 도로 정보, 교통 혼잡도, 노면의 상태 등 교통에 관련한 정보를 실시간으로 관리하는 서버로서, 국가 또는 민간에서 운영하는 서버일 수 있다.
교통 상황 정보를 반영하여 주행 경로를 생성하는 방법은 당해 기술분야에서 이용되는 임의의 방법에 따를 수 있는 바, 여기서는 자세한 설명을 생략하도록 한다.
주행 경로가 생성되면, 서버(200)는 주행 경로를 운송 차량(300)에 송신할 수 있다. 운송 차량(300) 내 자율주행 모듈(320)은 서버(200)로부터 수신된 주행 경로에 따라 자율 주행할 수 있다.
보다 구체적으로, 자율주행 모듈(320)은 주행 경로에 따라 운송 차량(300)의 운전을 제어할 수 있고, 이를 위해 차간 간격 유지, 차선 이탈 방지, 차선 트래킹, 신호등 감지, 보행자 감지, 구조물 감지, 교통상황 감지, 자율 주차 등을 위한 알고리즘이 적용될 수 있다. 이 외에도, 자율 주행을 위해 당해 기술분야에서 이용되는 다양한 알고리즘이 적용될 수 있다.
이와 같이 운송 차량(300)이 자율 주행을 시작하면 서버(200)는 운송 차량(300)의 차량 좌표를 사용자 단말(100)에 송신할 수 있고, 사용자 단말(100)은 단말 좌표에 배차된 운송 차량(300)의 차량 좌표를 수신할 수 있다(S180).
여기서 차량 좌표는 차량용 GPS 모듈(330)에서 획득된 좌표일 수 있다. 이와 달리, 차량 좌표는 전술한 단말 좌표 획득 방법과 동일한 방법으로 산출된 좌표일 수도 있다.
보다 구체적으로, 서버(200)는 차량용 GPS 모듈(330)로부터 GPS 좌표를 수신하고, 수신된 GPS 좌표에 대응하는 타일 데이터를 운송 차량(300)에 송신할 수 있다. 이어서, 운송 차량(300)은 차량용 카메라 모듈(340)을 이용하여 외부 영상을 촬영하고, 촬영된 외부 영상에서 특징점을 추출할 수 있다.
이어서, 운송 차량(300)은 타일 데이터에 포함된 복수의 기준 특징점(11) 중에서 외부 영상에서 추출된 특징점과 매칭되는 어느 하나의 기준 특징점(11)을 식별할 수 있고, 식별된 기준 특징점(11)의 좌표와 외부 영상 내 기준 특징점(11)의 위치 변화에 기초하여 차량 좌표를 결정할 수 있다.
좌표를 결정하는 방법에 대해서는 도 3을 참조하여 전술한 바 있으므로, 이하 자세한 설명은 생략하도록 한다.
차량 좌표가 수신되면, 운송 어플리케이션은 디스플레이 모듈(120)을 통해 지도를 표시할 수 있고, 지도 상에 차량 좌표를 이미지로 표시할 수 있다. 이에 따라, 사용자는 현재 운송 차량(300)의 위치를 실시간으로 파악할 수 있다.
운송 차량(300)이 단말 좌표로 이동 중일 때, 사용자 단말(100)은 카메라(110)를 이용하여 서버(200)로부터 수신된 차량 좌표를 포함하는 영역을 촬영할 수 있고, 사용자 단말(100)은 촬영된 영역 내에 위치한 운송 차량(300)을 지시하는 증강 이미지를 표시할 수 있다.
도 8을 참조하면, 카메라(110)는 차량 좌표(예컨대, 3차원 좌표)가 포함되는 영역(SA), 다시 말해 차량 좌표가 지시하는 위치를 포함하는 영역(SA)을 촬영할 수 있다. 해당 영역(SA)에는 운송 차량(300)을 포함하는 복수의 차량(300)이 위치할 수 있으므로, 카메라(110)에 의해 촬영된 차량(300)은 복수 대일 수 있다. 이 때, 사용자 단말(100)은 운송 차량(300)을 지시하는 증강 이미지(40)를 표시할 수 있다.
일 예에서, 사용자 단말(100)은 카메라(110)를 통해 운송 차량(300)에 구비된 바코드, QR 코드, 차량 번호판 등의 식별 수단을 인식하여 운송 차량(300)의 위치를 파악할 수 있고, 파악된 위치에 증강 이미지(40)를 표시할 수 있다.
다른 예에서, 사용자 단말(100)은 서버(200)로부터 수신된 차량 좌표를 2차원 좌표로 변환하고, 촬영된 영역(SA) 내에서 2차원 좌표에 대응하는 위치에 증강 이미지(40)를 표시할 수 있다. 다시 도 8을 참조하면, 사용자 단말(100)은 실제 운송 차량(300)에 대한 인식 동작 없이, 3차원 차량 좌표(xc, yc, zc)를 디스플레이 모듈(120)에 표현할 2차원 좌표(Xc, Yc)로 변환하고, 변환된 위치(Xc, Yc)에 증강 이미지(40)를 표시할 수 있다.
상술한 바와 같이, 본 발명은 사용자로 하여금 도로 상에 위치한 복수의 차량(300) 중에서 자신이 호출한 차량(300)을 파악하도록 함으로써, 운송 서비스 제공을 위한 차량(300)이 사용자 주변에 도착하였을 때 사용자가 자신이 호출한 차량(300)을 인지하지 못하는 문제를 방지할 수 있다.
한편, 사용자는 운송 어플리케이션을 통해 목적지를 입력할 수 있다. 운송 어플리케이션은 사용자로부터 입력된 목적지를 서버(200)로 송신할 수 있다. 서버(200)는 단말 좌표로부터 목적지까지의 경로를 생성할 수 있고, 해당 경로를 따라 주행 시 예상되는 주행 요금(이하, 예상 주행 요금)을 추정할 수 있다.
서버(200)는 목적지까지의 경로와 예상 주행 요금을 사용자 단말(100)에 송신할 수 있고, 운송 어플리케이션은 디스플레이 모듈(120)을 통해 표시 중인 지도 상에, 서버(200)로부터 수신된 경로를 표시할 수 있다. 또한, 운송 어플리케이션은 서버(200)로부터 수신된 예상 주행 요금을 팝업 등의 이미지를 통해 표시할 수 있다.
한편, 서버(200)는 단말 좌표와의 거리가 미리 설정된 거리 이내이고 목적지까지의 예상 주행 요금이 단말 좌표로부터 목적지까지의 예상 주행 요금보다 낮은 제안 탑승 위치(60)를 결정할 수 있다.
보다 구체적으로, 서버(200)는 단말 좌표와의 거리가 미리 설정된 거리(예컨대, 100m) 이내인 영역 중에서, 목적지까지의 예상 주행 요금이 현재의 단말 좌표로부터 목적지까지의 예상 주행 요금보다 낮은 위치를 식별할 수 있고, 식별된 영역을 제안 탑승 위치(60)로 결정할 수 있다.
다시 말해, 서버(200)는 현재 사용자가 도보로 이동할 수 있는 영역 내에서, 현재 위치보다 목적지까지의 예상 주행 금액이 더 낮은 위치를 제안 탑승 위치(60)로 결정할 수 있다. 제안 탑승 위치(60)가 결정되면, 서버(200)는 제안 탑승 위치(60)를 사용자 단말(100)에 송신할 수 있다.
운송 어플리케이션은 디스플레이 모듈(120)을 통해 표시 중인 지도 상에 서버(200)로부터 수신된 제안 탑승 위치(60)를 표시할 수 있다.
서버(200)로부터 제안 탑승 위치(60)가 수신되면, 사용자 단말(100)은 카메라(110)를 이용하여 제안 탑승 위치(60)를 포함하는 영역을 촬영할 수 있고, 사용자 단말(100)은 촬영된 영역 내 위치한 제안 탑승 위치(60)를 지시하는 증강 이미지를 표시할 수 있다.
도 9를 참조하면, 카메라(110)는 제안 탑승 위치(60)(예컨대, 3차원 좌표 영역)가 포함되는 영역(SA)을 촬영할 수 있다. 이 때, 사용자 단말(100)은 제안 탑승 위치(60)를 지시하는 증강 이미지(예컨대, Green Zone)을 표시할 수 있다.
보다 구체적으로, 사용자 단말(100)은 서버(200)로부터 수신된 제안 탑승 위치(60)의 좌표를 디스플레이 모듈(120)에 표현할 2차원 좌표로 변환하고, 촬영된 영역(SA) 내에서 2차원 좌표에 대응하는 위치에 증강 이미지를 표시할 수 있다.
또한, 사용자 단말(100)은 제안 탑승 위치(60)까지의 이동 경로(70)를 증강 이미지로 표시할 수 있다. 이 때, 이동 경로(70)는 사용자 단말(100)에서 생성될 수도 있으며, 서버(200)에서 생성되어 사용자 단말(100)로 송신될 수도 있다.
다시 도 9를 참조하면, 사용자 단말(100)의 디스플레이 모듈(120)에는 제안 탑승 위치(60)를 지시하는 증강 이미지와 제안 탑승 위치(60)까지 도보로 이동할 수 있는 이동 경로(70)가 증강 이미지로 표시될 수 있다.
또한, 디스플레이 모듈(120)에는 제안 탑승 위치(60)로 탑승 위치 변경 시 절약할 수 있는 예상 주행 요금에 대한 정보(Riding at Green Zone to save $5)가 표시될 수 있다. 뿐만 아니라, 디스플레이 모듈(120)에는 현재 운송 차량(300)의 상태(Your car is coming), 운송 차량(300)의 도착 예정 시간(12min)이 표시될 수도 있다. 이 외에도, 운송 서비스에 필요한 다양한 정보가 표시될 수 있음은 당연하다.
한편, 서버(200)로부터 제안 탑승 위치(60)가 수신되면, 운송 어플리케이션은 제안 탑승 위치(60)로 탑승 위치를 변경할 것인지에 대한 인터페이스를 출력할 수 있다. 사용자가 해당 인터페이스를 통해 탑승 위치 변경 신호를 입력하면, 운송 어플리케이션은 위치 변경 신호를 서버(200)로 송신할 수 있다.
서버(200)는 탑승 위치 변경 신호에 응답하여 운송 차량(300)에 제안 탑승 위치(60) 및 제안 탑승 위치(60)까지의 주행 경로를 송신할 수 있다.
보다 구체적으로, 서버(200) 내 경로 생성 모듈(230)은 차량(300)의 차량용 GPS 모듈(330)을 통해 단말 위치로 이동 중인 차량(300)의 현재 위치를 식별하고, 식별된 현재 위치로부터 제안 탑승 위치(60)까지의 주행 경로를 생성할 수 있다. 경로 생성 모듈(230)의 주행 경로 생성 방법에 대해서는 전술한 바 있으므로, 여기서는 자세한 설명을 생략하도록 한다.
상술한 바와 같이, 본 발명은 사용자로 하여금 현재 위치보다 목적지까지의 예상 주행 요금이 더 낮은 탑승 위치를 파악하도록 함으로써, 사용자로 하여금 보다 효율적인고 경제적인 운송 서비스를 제공받도록 할 수 있다.
도 10은 운송 서비스를 제공하거나 운송 서비스를 제공받기 위해, 사용자 단말(100), 서버(200) 및 차량(300)이 동작하는 과정을 시계열적으로 도시한 도면이다.
도 10을 참조하면, 사용자는 운성 서비스를 제공받기 위해 사용자 단말(100)에 설치된 운송 어플리케이션을 통해 서비스 요청 신호를 입력할 수 있다(S11). 서비스 요청 신호가 입력되면 사용자 단말(100)은 단말의 GPS 좌표를 서버(200)로 송신할 수 있다(S12).
서버(200)는 데이터베이스(220)를 참조하여 단말의 GPS 좌표에 대응하는 타일 데이터를 식별하고(S21), 식별된 타일 데이터를 사용자 단말(100)로 송신할 수 있다(S22).
사용자 단말(100)은 운송 어플리케이션에 의해 실행된 카메라(110)를 이용하여 외부 영상을 촬영하고(S13), 외부 영상에서 특징점을 추출할 수 있다(S14). 이어서, 사용자 단말(100)은 추출된 특징점과 매칭되는 기준 특징점(11)을 타일 데이터로부터 식별할 수 있다(S15).
이어서, 사용자 단말(100)은 기준 특징점(11)의 좌표와 외부 영상 내 기준 특징점(11)의 위치 변화에 기초하여 단말 좌표를 결정하고(S16), 결정된 단말 좌표를 서버(200)로 송신할 수 있다(S17).
서버(200)는 단말 좌표에 가장 인접한 차량(300)을 운송 차량(300)으로 결정하고(S22), 운송 차량(300)의 차량 좌표를 사용자 단말(100)에 송신할 수 있다(S23). 또한, 서버(200)는 운송 차량(300)의 현재 위치로부터 단말 좌표까지의 주행 경로를 생성하고(S24), 단말 좌표와 주행 경로를 운송 차량(300)에 송신할 수 있다(S25).
운송 차량(300)은 서버(200)로부터 수신된 주행 경로에 따라 자율 주행을 시작하여 사용자가 위치한 단말 좌표까지 이동할 수 있다(S31).
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (22)

  1. 사용자 단말의 현재 GPS 좌표를 서버로 송신하는 단계;
    상기 서버로부터 상기 사용자 단말의 현재 GPS 좌표에 해당되는 단위 영역에 대한 타일(tile) 데이터를 수신하는 단계;
    카메라를 이용하여 외부 영상을 촬영하고, 상기 촬영된 외부 영상에서 특징점을 추출하는 단계;
    상기 타일 데이터에 포함된 복수의 기준 특징점들 중에서 상기 외부 영상에서 추출된 특징점과 매칭되는 어느 하나의 기준 특징점을 식별하는 단계;
    상기 식별된 기준 특징점의 좌표와 상기 외부 영상 내 상기 기준 특징점의 위치 변화에 기초하여 상기 사용자 단말의 좌표를 결정하는 단계를 포함하며,
    상기 어느 하나의 기준 특징점을 식별하는 단계는,
    상기 추출된 특징점의 기술자를 결정하는 단계; 및
    상기 결정된 기술자와 매칭되는 기술자를 갖는 어느 하나의 기준 특징점을 식별하는 단계를 포함하는
    차량 호출 방법.
  2. 제1항에 있어서,
    상기 서버는 복수의 단위 영역들로 구성된 3차원 지도 및 상기 복수의 단위 영역들 각각에 대응하는 타일 데이터가 미리 저장된 데이터베이스를 포함하고,
    상기 타일 데이터에는 상기 단위 영역에 포함된 각 기준 특징점의 기술자(descriptor)가 포함되는 차량 호출 방법.
  3. 제1항에 있어서,
    상기 서버는
    데이터베이스를 참조하여 상기 GPS 좌표를 포함하는 단위 영역을 식별하고, 상기 식별된 단위 영역에 대응하는 타일 데이터를 추출하여 상기 사용자 단말에 송신하는 차량 호출 방법.
  4. 제3항에 있어서,
    상기 서버는,
    상기 식별된 단위 영역에 대응하는 타일 데이터가 존재하지 않으면, 상기 단위 영역에 인접한 인접 영역에 대응하는 타일 데이터를 더 추출하여 상기 사용자 단말에 송신하는 차량 호출 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 추출된 특징점의 기술자와 매칭되는 기술자를 갖는 어느 하나의 기준 특징점을 식별하는 단계는
    상기 추출된 특징점의 기술자와 유사도가 가장 높은 기술자를 갖는 어느 하나의 기준 특징점을 식별하는 단계를 포함하는 차량 호출 방법.
  7. 제1항에 있어서,
    상기 카메라를 이용하여 외부 영상을 촬영하는 단계는
    상기 외부 영상 내에서 상기 특징점의 위치가 변하도록 상기 카메라를 슬라이드 이동하여 상기 외부 영상을 촬영하는 단계를 포함하는 차량 호출 방법.
  8. 제1항에 있어서,
    상기 카메라를 이용하여 외부 영상을 촬영하는 단계는
    상기 카메라의 이동을 안내하는 안내 화면을 출력하는 단계와,
    상기 안내 화면에 표시된 방향에 따라 이동하여 상기 외부 영상을 촬영하는 단계를 포함하는 차량 호출 방법.
  9. 제1항에 있어서,
    상기 외부 영상에서 상기 특징점이 식별되지 않으면 알람을 출력하는 단계를 더 포함하는 차량 호출 방법.
  10. 제1항에 있어서,
    상기 식별된 기준 특징점의 좌표와 상기 외부 영상 내 상기 기준 특징점의 위치 변화에 기초하여 상기 사용자 단말의 좌표를 결정하는 단계는
    상기 기준 특징점의 좌표와 상기 외부 영상 내 상기 기준 특징점의 위치 변화에 기초하여 상기 기준 특징점과 상기 카메라 사이의 3차원 거리를 산출하고,
    상기 기준 특징점의 좌표에 상기 산출된 3차원 거리를 적용하여 상기 사용자 단말의 좌표를 결정하는 단계를 포함하는 차량 호출 방법.
  11. 제1항에 있어서,
    상기 서버는 상기 사용자 단말의 좌표까지의 거리가 가장 짧은 어느 한 차량을 운송 차량으로 결정하고, 상기 결정된 운송 차량에 상기 사용자 단말의 좌표 및 상기 사용자 단말의 좌표까지의 주행 경로를 송신하는 차량 호출 방법.
  12. 제11항에 있어서,
    상기 운송 차량은 상기 서버로부터 수신된 주행 경로에 따라 자율 주행하는 차량 호출 방법.
  13. 제1항에 있어서,
    상기 카메라를 이용하여 상기 서버로부터 수신된 차량 좌표를 포함하는 영역을 촬영하는 단계; 및
    상기 촬영된 영역 내에 위치한 운송 차량을 지시하는 증강 이미지를 표시하는 단계를 더 포함하는 차량 호출 방법.
  14. 제13항에 있어서,
    상기 촬영된 영역 내에 위치한 운송 차량을 지시하는 증강 이미지를 표시하는 단계는
    상기 차량 좌표를 2차원 좌표로 변환하는 단계와,
    상기 촬영된 영역 내 상기 2차원 좌표에 대응하는 위치에 상기 증강 이미지를 표시하는 단계를 포함하는 차량 호출 방법.
  15. 제1항에 있어서,
    상기 사용자 단말에 목적지가 입력되면 상기 목적지를 서버로 송신하는 단계; 및
    상기 사용자 단말의 좌표로부터 상기 목적지까지의 경로 및 예상 주행 요금을 상기 서버로부터 수신하는 단계를 더 포함하는 차량 호출 방법.
  16. 제15항에 있어서,
    상기 서버는, 상기 사용자 단말의 좌표와의 거리가 미리 설정된 거리 이내이고, 상기 목적지까지의 예상 주행 요금이 상기 단말 좌표로부터 상기 목적지까지의 예상 주행 요금보다 낮은 경우, 제안 탑승 위치를 결정하고, 상기 결정된 제안 탑승 위치를 상기 사용자 단말에 송신하는 차량 호출 방법.
  17. 제16항에 있어서,
    상기 제안 탑승 위치를 지도상에 표시하는 단계를 더 포함하는 차량 호출 방법.
  18. 제16항에 있어서,
    상기 카메라를 이용하여 상기 제안 탑승 위치를 포함하는 영역을 촬영하는 단계; 및
    상기 촬영된 영역 내 위치한 상기 제안 탑승 위치를 지시하는 증강 이미지를 표시하는 단계를 더 포함하는 차량 호출 방법.
  19. 제18항에 있어서,
    상기 제안 탑승 위치까지의 이동 경로를 증강 이미지로 표시하는 단계를 더 포함하는 차량 호출 방법.
  20. 제16항에 있어서,
    상기 제안 탑승 위치로 탑승 위치를 변경할 것인지에 대한 인터페이스를 출력하는 단계; 및
    상기 출력된 인터페이스를 통해 탑승 위치 변경 신호를 수신하고, 상기 수신된 탑승 위치 변경 신호를 상기 서버로 송신하는 단계를 더 포함하고,
    상기 서버는, 상기 탑승 위치 변경 신호의 송신에 응답하여 상기 단말 좌표에 배차된 운송 차량에 상기 제안 탑승 위치 및 상기 제안 탑승 위치까지의 주행 경로를 상기 사용자 단말에 송신하는 차량 호출 방법.
  21. 제11항에 있어서,
    상기 기준 특징점의 위치 변화에 기초하여 상기 사용자 단말의 좌표를 결정하는 단계는,
    상기 결정된 사용자 단말의 좌표를 상기 서버로 송신하는 단계; 및
    상기 사용자 단말의 좌표에 배차된 운송 차량의 차량 좌표를 상기 서버로부터 수신하는 단계를 포함하는
    차량 호출 방법.
  22. 사용자 단말에 있어서,
    카메라; 및
    프로세서를 포함하며,
    상기 프로세서는,
    상기 사용자 단말의 현재 GPS 좌표를 서버로 송신하고,
    상기 서버로부터 상기 사용자 단말의 GPS 좌표에 해당되는 단위 영역에 대한 타일(tile) 데이터를 수신하고,
    상기 카메라를 이용하여 외부 영상을 촬영하고,
    상기 촬영된 외부 영상에서 특징점을 추출하고,
    상기 타일 데이터에 포함된 복수의 기준 특징점들 중에서 상기 외부 영상에서 추출된 특징점과 매칭되는 어느 하나의 기준 특징점을 식별하고,
    상기 식별된 기준 특징점의 좌표와 상기 외부 영상 내 상기 기준 특징점의 위치 변화에 기초하여 상기 사용자 단말의 좌표를 결정하도록 설정되며,
    상기 프로세서는,
    상기 추출된 특징점의 기술자를 결정하고, 상기 결정된 기술자와 매칭되는 기술자를 갖는 어느 하나의 기준 특징점을 식별하도록 설정된 사용자 단말.
KR1020197019824A 2019-06-14 2019-06-14 사용자의 현재 위치로 차량을 호출하는 방법 KR102302241B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/007225 WO2020251099A1 (ko) 2019-06-14 2019-06-14 사용자의 현재 위치로 차량을 호출하는 방법

Publications (2)

Publication Number Publication Date
KR20200128343A KR20200128343A (ko) 2020-11-12
KR102302241B1 true KR102302241B1 (ko) 2021-09-14

Family

ID=73398788

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020197019824A KR102302241B1 (ko) 2019-06-14 2019-06-14 사용자의 현재 위치로 차량을 호출하는 방법

Country Status (3)

Country Link
US (1) US20210403053A1 (ko)
KR (1) KR102302241B1 (ko)
WO (1) WO2020251099A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058892A1 (ko) * 2021-10-09 2023-04-13 삼성전자 주식회사 위치 기반 서비스를 제공하기 위한 전자 장치 및 방법

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102540444B1 (ko) * 2020-10-23 2023-06-05 현대자동차 주식회사 승객 운송 서비스를 제공하는 서버 및 이의 동작 방법
KR102482829B1 (ko) * 2021-07-05 2022-12-29 주식회사 애니랙티브 차량용 ar 디스플레이 장치 및 ar 서비스 플랫폼
KR102589833B1 (ko) * 2022-10-04 2023-10-16 한국철도기술연구원 가상 정류장 기반의 수요응답형 모빌리티 서비스 제공방법, 장치 및 컴퓨터 프로그램

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101442703B1 (ko) 2013-04-15 2014-09-19 현대엠엔소프트 주식회사 Gps 단말기 및 gps 위치 보정 방법
KR101912241B1 (ko) * 2017-07-11 2018-10-26 부동산일일사 주식회사 부동산의 3차원 형상에 관한 증강 현실 이미지를 제공하는 증강 현실 서비스 제공 장치 및 제공 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032897A (ja) * 2000-07-18 2002-01-31 Futaba Keiki Kk タクシーの配車サービス方法及びそのシステム
KR101092104B1 (ko) * 2009-08-26 2011-12-12 주식회사 팬택 3차원 위치영상 제공 방법 및 시스템
KR101942288B1 (ko) * 2012-04-23 2019-01-25 한국전자통신연구원 위치 보정 장치 및 방법
KR101415016B1 (ko) * 2012-11-07 2014-07-08 한국과학기술연구원 영상기반 실내 위치 검출방법 및 이를 이용한 휴대용 단말기
KR101707878B1 (ko) * 2015-09-09 2017-02-17 한국과학기술연구원 복수의 영상 및 보행자 추측 항법 기술을 이용한 사용자 위치 추정 장치 및 그 방법
US11244252B2 (en) * 2017-06-21 2022-02-08 Chian Chiu Li Autonomous driving under user instructions and hailing methods
US11118930B2 (en) * 2017-07-14 2021-09-14 Lyft, Inc. Providing information to users of a transportation system using augmented reality elements

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101442703B1 (ko) 2013-04-15 2014-09-19 현대엠엔소프트 주식회사 Gps 단말기 및 gps 위치 보정 방법
KR101912241B1 (ko) * 2017-07-11 2018-10-26 부동산일일사 주식회사 부동산의 3차원 형상에 관한 증강 현실 이미지를 제공하는 증강 현실 서비스 제공 장치 및 제공 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058892A1 (ko) * 2021-10-09 2023-04-13 삼성전자 주식회사 위치 기반 서비스를 제공하기 위한 전자 장치 및 방법

Also Published As

Publication number Publication date
WO2020251099A1 (ko) 2020-12-17
KR20200128343A (ko) 2020-11-12
US20210403053A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
KR102302241B1 (ko) 사용자의 현재 위치로 차량을 호출하는 방법
US11094112B2 (en) Intelligent capturing of a dynamic physical environment
US11127162B2 (en) Method and apparatus for improved location decisions based on surroundings
EP2450667B1 (en) Vision system and method of analyzing an image
CN108693876A (zh) 目标跟踪
US11762094B2 (en) Systems and methods for object detection and motion prediction by fusing multiple sensor sweeps into a range view representation
CN110192233B (zh) 使用自主车辆在机场搭乘和放下乘客
CN111615721B (zh) 基于车辆与乘客之间进行识别的接送服务
KR102357138B1 (ko) 증강현실기반 주차 안내시스템
CN110972111B (zh) 用于由自动驾驶车辆检测呼叫者的方法
US20230138487A1 (en) An Environment Model Using Cross-Sensor Feature Point Referencing
US11377125B2 (en) Vehicle rideshare localization and passenger identification for autonomous vehicles
KR102622585B1 (ko) 실내 길안내 장치 및 그 방법
KR20200043252A (ko) 차량의 부감 영상 생성 시스템 및 그 방법
JP7233386B2 (ja) 地図更新装置、地図更新システム、及び地図更新方法
CN116601681A (zh) 基于3d地图的相关输入通过优先处理感兴趣物体估计摄像机的自动曝光值
KR102189926B1 (ko) 관심 영역 변화를 검출하는 방법 및 시스템
CN112445204A (zh) 工地中的物体移动导航方法、装置和计算机设备
KR102383567B1 (ko) 시각 정보 처리 기반의 위치 인식 방법 및 시스템
CN114708723A (zh) 轨迹预测方法和装置
KR102181032B1 (ko) 실시간 도로교통정보 제공 서버 및 이의 동작 방법
JP2022039188A (ja) 位置姿勢算出方法および位置姿勢算出プログラム
CN114674323A (zh) 一种基于图像目标检测与追踪的智能室内导航方法
CN114554391A (zh) 一种停车场寻车方法、装置、设备和存储介质
EP3223188A1 (en) A vehicle environment mapping system

Legal Events

Date Code Title Description
G15R Request for early publication
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant