WO2013089462A1 - 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템 - Google Patents

3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템 Download PDF

Info

Publication number
WO2013089462A1
WO2013089462A1 PCT/KR2012/010861 KR2012010861W WO2013089462A1 WO 2013089462 A1 WO2013089462 A1 WO 2013089462A1 KR 2012010861 W KR2012010861 W KR 2012010861W WO 2013089462 A1 WO2013089462 A1 WO 2013089462A1
Authority
WO
WIPO (PCT)
Prior art keywords
guide line
map display
map
path
reduction
Prior art date
Application number
PCT/KR2012/010861
Other languages
English (en)
French (fr)
Inventor
서정각
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to US14/365,852 priority Critical patent/US9568333B2/en
Publication of WO2013089462A1 publication Critical patent/WO2013089462A1/ko
Priority to US15/405,865 priority patent/US9959685B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3484Personalized, e.g. from learned user behaviour or user-defined profiles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2024Style variation

Definitions

  • Embodiments of the present invention relate to a three-dimensional map display method and system for enhancing the visibility of the route line in three-dimensional navigation.
  • a route line may be shown on a 3D map to guide a road to which the vehicle should go for road guidance.
  • a problem of limiting the expression of specific information may occur.
  • the route line is often hidden by an object having a height value, that is, a three-dimensional object, such as a building and other road facilities, and thus the direction of travel may not be known.
  • a three-dimensional map display method and system for selectively removing or blending a three-dimensional object covering a path line irrespective of an intersection is provided.
  • the present invention provides a three-dimensional map display method and system for reducing the amount of computation in the three-dimensional representation of the digital map, which facilitates real-time processing.
  • An object detector detecting whether an object to be displayed on a map screen intersects with a path guide line; And a display unit configured to display the object and the path guide line on the map screen, and to blend the object intersecting the path guide line.
  • the object detector may detect an object intersecting the path guide line by determining whether a polygon corresponding to the object intersects a virtual polygon with respect to the path guide line.
  • the virtual polygon may be configured by connecting the vertices constituting the polyline corresponding to the route guide line and the camera viewpoint for the map screen.
  • the polygon corresponding to the object may be a polygon consisting of a cube.
  • the object detector may set a detection area for detecting an object intersecting the route guide line according to the map scale level displayed on the map screen.
  • the 3D map display system may further include a reduction unit for reducing the data of the polyline corresponding to the route guide line.
  • the object detector may detect an object that intersects the path guideline by using the data of the reduced polyline.
  • the reduction unit may perform a calculation to reduce the number of vertices by using orthogonal distances between straight lines connecting both ends of the vertices constituting the polyline of the path guide line and internal vertices except for both ends.
  • the reduction unit may reduce the path guide line of the unit length divided by the leaf unit.
  • the reduction unit may reduce the path guide line of the portion displayed on the map screen.
  • the reduction unit may set the length of the route guide line for performing scaling according to the map scale level displayed on the map screen.
  • the visibility of the path line can be improved while maintaining the quality of map display to the maximum.
  • three-dimensional maps can be quickly represented by limiting the length of the path line for applying data reduction and the radius for inspecting three-dimensional objects intersecting the path line.
  • 1 is an exemplary screen illustrating a phenomenon in which a path line is covered by a three-dimensional object having a height.
  • FIG. 2 is a block diagram illustrating an internal configuration of a three-dimensional map display system for selectively processing a three-dimensional object covering a route line according to an embodiment of the present invention.
  • FIG. 3 is a diagram for describing a process of reducing data of a path line displayed on a screen according to one embodiment of the present invention.
  • FIG. 4 is a diagram for describing a process of determining whether a path line intersects a three-dimensional object in an embodiment of the present invention.
  • FIG. 5 is an exemplary screen of selectively blending a three-dimensional object covering a path line according to an embodiment of the present invention.
  • FIG. 6 is a table illustrating an inspection area for each map scale and a path line reduction distance according to an embodiment of the present invention.
  • FIG. 7 is a flowchart illustrating a 3D map display method of selectively processing a three-dimensional object covering a path line according to an embodiment of the present invention.
  • the present embodiments relate to a 3D map display system and a method for selectively blending surrounding objects in a process of displaying a route guide on a map screen in 3D navigation.
  • the 3D map display system and method thereof according to the present invention can be applied to a navigation system.
  • the embodiments may be implemented as an application dedicated to a mobile terminal such as a smart phone, a tablet, and the like.
  • the “route guide line” may mean a guide line shown in a linear form on a road for guiding a direction on a map screen.
  • the term 'object' may refer to any object having a height value, such as a building and other facilities displayed in three dimensions on a map screen, hereinafter, referred to as a “stereoscopic object”.
  • FIG. 2 is a block diagram illustrating an internal configuration of a three-dimensional map display system for selectively processing a three-dimensional object covering a route line according to an embodiment of the present invention.
  • the 3D map display system 200 may include a downsizing unit 210, an object detector 220, and a display unit 230.
  • the number of three-dimensional objects that must be represented on the map is basically high, and the path guides and three-dimensional objects are composed of many polygons. Therefore, a lot of operations are required in the process of expressing the digital map in three dimensions. Due to the difficulty in real-time processing, there is a fear that the performance of the navigation is reduced.
  • the amount of calculation is reduced by reducing the data of the path guide line, defining a three-dimensional object to be inspected for determining whether the path guide line intersects, and determining whether the data intersects using the reduced path guide line and the limited three-dimensional object. It can be reduced to facilitate real-time processing.
  • the reduction unit 210 plays a role of reducing the data of the polyline corresponding to the path guide line.
  • the navigation guides are data in the form of polylines in navigation.
  • polygons In order to express this in three dimensions, polygons must be created, which increases the number of vertices for the path guide by at least twice.
  • the reduction unit 210 performs an operation of reducing the number of vertices constituting the polyline by using an orthogonal distance between a straight line connecting both end points among the vertices constituting the polyline of the path guide and an inner vertex except the two end points. can do.
  • the polyline corresponding to the path guideline is composed of seven vertices v1 to v7 as shown in FIG. 3, a straight line connecting both endpoints v1 and v7 is obtained in the first step 310.
  • the second step 320 the distance from the inner vertex to the straight line obtained in the previous step 310 is lowered vertically, that is, the orthogonal distance is obtained.
  • the orthogonal distance value between the vertex and the straight line is divided into two polylines based on the vertex having the largest value.
  • the orthogonal distance between v3 and the straight line may be divided into a polyline composed of v1 to v3 and a polyline composed of v3 to v7 based on v3.
  • the above-described three steps 310 to 330 are repeated for each divided polyline, and the reduction operation is terminated when the orthogonal distance value between the vertex and the straight line is smaller than the threshold (last step 340).
  • the polyline consisting of seven vertices reduces the number of initial seven vertices to four vertices (v1, v3, v5, v7) through the above calculation process, so that the polyline of the path guideline is reduced. Can be.
  • the reduction unit 210 may determine the path guide data (hereinafter, referred to as 'unit path lines') of the unit length divided by the leaf units. Minimize operations can be performed. In addition, the reduction unit 210 may determine whether the unit path line is displayed through the map screen, and apply the reduction operation of the polyline to the unit path line of the portion displayed on the map screen.
  • the object detector 220 may detect whether or not the three-dimensional object to be displayed on the map screen intersects with the route guide line. In this case, the object detector 220 may detect a three-dimensional object intersecting the path guide line by using the data of the reduced polyline through the reduction unit 210. In addition, in the present embodiment, in order to minimize the number of polygons constituting the three-dimensional object, an optimal box including the three-dimensional object, that is, a polygon constituting the cube is used.
  • the object detector 220 configures a virtual polygon by connecting a vertex constituting a polyline corresponding to a path guide line and a camera viewpoint for a map screen, and then intersects a virtual polygon and a polygon corresponding to a three-dimensional object.
  • the stereoscopic object intersecting the path guide line can be detected.
  • the vertices constituting the polyline 401 of the path guideline are ⁇ v 1 , v 2... v n ⁇ and the camera viewpoint 405 is O
  • the imaginary polygon p i (p 1 , p 2 , p 3 ) is the two adjacent vertices of the polyline 401 and the camera viewpoint (O).
  • the object detector 220 may determine whether the virtual polygon p i and the polygon 403 constituting the three-dimensional object intersect to detect the three-dimensional object (shown in dotted line in FIG. 4) covering the path guide line.
  • the display unit 230 may display the three-dimensional object and the path guide line on the map screen, and may selectively process the three-dimensional object intersecting the path guide line.
  • 5 is an example of a map screen on which a three-dimensional object covering a path line is blended. That is, as shown in FIG. 5, in the display of the route guide line 501 on the map screen, the display unit 230 performs alpha blending on the three-dimensional object 503 covering the route guide line 501.
  • the translucent effect may be applied to represent buildings that are actually present in the vicinity of the path guide 501 and may be processed so that neighboring buildings do not block the path guide 501.
  • Navigation can be displayed on the map screen at a very long distance, and it is not too much of a problem if the path guide is obscured for a three-dimensional object located at a long distance.
  • 3D navigation may be a cause of performance degradation as the farther away from the camera point of view, the larger the visible area, the more the inspection object to determine whether the intersection with the path guide line.
  • the processing area may be defined according to the map scale level, and the unit path line and the three-dimensional object in the processing area may be limited to the processing target.
  • the object detecting unit 220 may limit the three-dimensional object to be inspected by differently setting an inspection area (radius) for detecting the three-dimensional object intersecting the route guide line according to the map scale level displayed on the map screen. .
  • the threshold length (unit length) used for the reduction operation in the reduction unit 210 is also described differently according to the map scale level, the inspection target in the calculation process may be reduced.
  • FIG. 6 shows a table of inspection areas and route line reduction distances (unit lengths) according to the map scale level, and the reduction unit 210 and the object detector 220 apply table values corresponding to the map scale level. Can be. At this time, each numerical value of a table can be obtained by experiment or experience value.
  • FIG. 7 is a flowchart illustrating a 3D map display method of selectively processing a three-dimensional object covering a path line according to an embodiment of the present invention.
  • each step may be performed by the 3D map display system described with reference to FIG. 2.
  • the 3D map display system may perform a reduction operation on data of a polyline corresponding to the route guide line. For example, the 3D map display system reduces the number of vertices constituting the polyline by using the orthogonal distance between the vertices constituting the polyline of the route guide line and the internal vertices except the two ends. can do. In this case, the 3D map display system may perform a miniaturization operation of the polyline data on the path guide lines of the unit length divided by the leaf units. In addition, the 3D map display system may set the length of the route guide line for performing the reduction operation according to the map scale level displayed on the map screen. In addition, the 3D map display system may determine whether the route guide line is displayed through the map screen, and apply a reduction operation of the polyline to the route guide line of the portion displayed on the map screen.
  • the 3D map display system may detect whether or not the three-dimensional object to be displayed on the map screen and the path guide line cross each other. For example, the 3D map display system constructs a virtual polygon by connecting the vertices constituting the polyline corresponding to the route guide line with the camera viewpoint for the map screen, and then intersects the virtual polygon and the polygon corresponding to the three-dimensional object. By determining, the stereoscopic object intersecting the path guide line can be detected. In this case, the 3D map display system may detect a three-dimensional object intersecting the path guideline by using the data of the reduced polyline through the reduction operation.
  • the 3D map display system may use a polygon corresponding to a three-dimensional object as a polygon composed of a cube to detect whether the intersection with the path guide line is performed.
  • the 3D map display system may limit the three-dimensional object to be inspected by differently setting an inspection area (radius) for detecting the intersection with the route guide line according to the map scale level displayed on the map screen.
  • the 3D map display system displays the 3D object and the path guide on the map screen, and may selectively process the 3D object intersecting the path guide. For example, in displaying a path guide on a map screen, the 3D map display system uses alpha blending on a three-dimensional object covering the path guide to express buildings that exist in the vicinity of the path guide while simultaneously surrounding buildings. It can be processed so as not to obstruct the guide line.
  • the visibility of the route line can be improved while maintaining the maximum quality of the map display.
  • the 3D map can be quickly expressed by limiting the length of the path line for applying data reduction according to the map scale level and the radius for inspecting the three-dimensional object intersecting the path line.
  • Methods according to an embodiment of the present invention may be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • the above-described file system can be recorded in a computer-readable recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)
  • Navigation (AREA)

Abstract

3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템이 개시된다. 3차원 지도 표시 방법은 지도 화면 상에 표시하고자 하는 객체와 경로 안내선의 교차 여부를 검출하는 객체 검출 단계; 및 객체와 경로 안내선을 지도 화면 상에 표시하되, 경로 안내선과 교차되는 객체를 블렌딩 처리하는 표시 단계를 포함할 수 있다.

Description

3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템
본 발명의 실시예들은 3차원 내비게이션에서 경로선의 시인성을 강화하기 위한 3차원 지도 표시 방법 및 그 시스템에 관한 것이다.
3차원 내비게이션에서는 모든 디지털 지도가 3차원으로 표현되며, 이러한 3차원 지도에서 건물이나 산, 언덕 등의 표현은 정보의 좋은 표현 수단이다. 그리고, 3차원 내비게이션에서는 경로선을 3차원 지도 위에 도시하여 길 안내를 위해 차량이 가야 할 길을 안내할 수 있다. 그러나, 표시되는 화면의 시야가 건물이나 산, 언덕 등에 가려서 제한됨으로써 특정 정보의 표현을 오히려 제한하는 문제가 발생할 수 있다. 예를 들어, 3차원 지도 상에 경로선을 도시할 경우 건물 및 기타 도로 시설물 등 높이 값을 갖는 객체, 즉 입체 객체에 의해 경로선이 가려져 진행 방향을 알 수 없는 경우가 빈번하게 발생한다.
이와 같은 현상을 개선하기 위해 3차원 내비게이션에서는 1) 교차로 부근의 입체 객체를 모두 블렌딩(blending) 하거나, 2) 교차로 부근의 입체 객체 중 경로선의 진행 방향에 존재하는 입체 객체를 블렌딩 하는 기술이 사용되고 있다. 그러나, 교차로 부근에서 대부분의 입체 객체가 블렌딩 되기 때문에 불필요한 블렌딩 처리로 인해 전체적인 지도 표출의 질이 저하되는 문제로 이어질 수 있다. 더욱이, 도 1에 도시한 바와 같이 교차로 부근 아닌, 굴곡도가 높은 도로 경우에는 여전히 경로선(101)이 주변의 높은 건물들(103)에 의해 가려져 경로선(101)에 대한 시인성이 확보되지 못하는 문제가 남아 있다.
따라서, 보다 효과적으로 입체 객체를 블렌딩 처리하는 시스템과 방법의 필요성이 절실하다.
교차로 부근과 상관 없이 경로선을 가리는 입체 객체를 선택적으로 제거하거나 블렌딩 처리하는 3차원 지도 표시 방법 및 그 시스템을 제공한다.
디지털 지도를 3차원으로 표현하는 데에 있어 계산량을 줄여 실시간 처리가 용이한 3차원 지도 표시 방법 및 그 시스템을 제공한다.
지도 화면 상에 표시하고자 하는 객체와 경로 안내선의 교차 여부를 검출하는 객체 검출부; 및 객체와 경로 안내선을 지도 화면 상에 표시하되, 경로 안내선과 교차되는 객체를 블렌딩(blending) 처리하는 표시부를 포함하는 3차원 지도 표시 시스템이 제공된다.
일 측면에 따르면, 객체 검출부는 객체에 해당되는 폴리곤과, 경로 안내선에 대한 가상 폴리곤의 교차 여부를 판단하여 경로 안내선과 교차되는 객체를 검출할 수 있다.
다른 측면에 따르면, 가상 폴리곤은 경로 안내선에 해당되는 폴리라인을 구성하는 정점과, 지도 화면에 대한 카메라 시점을 연결하여 구성될 수 있다.
또 다른 측면에 따르면, 객체에 해당되는 폴리곤은 정육면체로 구성된 폴리곤이 사용될 수 있다.
또 다른 측면에 따르면, 객체 검출부는 지도 화면에 표시되는 지도 축척 레벨에 따라 경로 안내선과 교차되는 객체를 검출하기 위한 검출 영역을 설정할 수 있다.
또 다른 측면에 따르면, 3차원 지도 표시 시스템은 경로 안내선에 해당되는 폴리라인의 데이터에 대한 축소화를 수행하는 축소화부를 더 포함할 수 있다. 이때, 객체 검출부는 축소화 된 폴리라인의 데이터를 이용하여 경로 안내선과 교차되는 객체를 검출할 수 있다.
또 다른 측면에 따르면, 축소화부는 경로 안내선의 폴리라인을 구성하는 정점 중 양 끝점을 잇는 직선과 양 끝점을 제외한 내부 정점 간의 직교 거리를 이용하여 정점의 수를 줄이는 연산을 수행할 수 있다.
또 다른 측면에 따르면, 축소화부는 도엽 단위로 구분된 단위 길이의 경로 안내선에 대하여 축소화를 수행할 수 있다.
또 다른 측면에 따르면, 축소화부는 지도 화면에 표출되는 부분의 경로 안내선에 대하여 축소화를 수행할 수 있다.
또 다른 측면에 따르면, 축소화부는 지도 화면에 표시되는 지도 축척 레벨에 따라 축척화를 수행하기 위한 경로 안내선의 길이를 설정할 수 있다.
지도 화면 상에 표시하고자 하는 객체와 경로 안내선의 교차 여부를 검출하는 객체 검출 단계; 및 객체와 경로 안내선을 지도 화면 상에 표시하되, 경로 안내선과 교차되는 객체를 블렌딩 처리하는 표시 단계를 포함하는 3차원 지도 표시 방법이 제공된다.
경로선과 입체 객체 간의 교차 여부를 판단하여 경로선을 가리고 있는 입체 객체만을 선택적으로 블렌딩 처리함으로써 지도 표출의 질을 최대로 유지하면서 경로선에 대한 시인성을 향상시킬 수 있다.
폴리곤을 구성하기 위해 사용되는 폴리라인의 데이터를 축소화 함으로써 연산 과정에서의 계산량을 줄여 실시간 처리에 효과적이다.
지도 축척 레벨에 따라 데이터의 축소화를 적용하기 위한 경로선의 길이, 그리고 경로선과 교차하는 입체 객체를 검사하기 위한 반경을 한정함으로써 3차원 지도를 신속하게 표현할 수 있다.
도 1은 높이가 있는 입체 객체에 의해 경로선이 가려지는 현상을 설명하기 위한 예시 화면이다.
도 2는 본 발명의 일실시예에 있어서, 경로선을 가리는 입체 객체를 선택적으로 처리하는 3차원 지도 표시 시스템의 내부 구성을 도시한 블록도이다.
도 3은 본 발명의 일실시예에 있어서, 화면에 보이는 경로선의 데이터를 축소화 하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 경로선과 입체 객체 간의 교차 여부를 판단하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 경로선을 가리는 입체 객체를 선택적으로 블렌딩 처리한 예시 화면이다.
도 6은 본 발명의 일실시예에 있어서, 지도 축척 별 검사 영역과 경로선 축소화 거리를 나타내는 테이블을 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 경로선을 가리는 입체 객체를 선택적으로 처리하는 3차원 지도 표시 방법을 도시한 흐름도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 실시예들은 3차원 내비게이션에서 경로 안내선을 지도 화면 상에 표시하는 과정에서 주변의 객체를 선택적으로 블렌딩 처리하는 3차원 지도 표시 시스템 및 그 방법에 관한 것이다.
본 발명에 따른 3차원 지도 표시 시스템 및 그 방법은 내비게이션 시스템에 적용될 수 있다. 본 실시예들은 스마트폰(smart phone), 태블릿(tablet) 등 모바일 단말 전용의 어플리케이션으로 구현될 수 있다.
본 명세서에서, ‘경로 안내선’함은 지도 화면에서의 방향 안내를 위해 도로 상에 선형 형태로 도시되는 안내선을 의미할 수 있다. 또한, ‘객체’는 지도 화면 상에 3차원으로 표시되는 건물 및 기타 시설물 등 높이 값을 갖는 모든 객체를 의미할 수 있으며, 이하에서는 ‘입체 객체’라 칭하기로 한다.
도 2는 본 발명의 일실시예에 있어서, 경로선을 가리는 입체 객체를 선택적으로 처리하는 3차원 지도 표시 시스템의 내부 구성을 도시한 블록도이다.
도 2에 도시한 바와 같이, 일실시예에 따른 3차원 지도 표시 시스템(200)은 축소화부(210), 객체 검출부(220), 및 표시부(230)를 포함하여 구성될 수 있다.
3차원 지도 환경의 경우 기본적으로 지도 상에 표현해야 하는 입체 객체의 수가 많고 경로 안내선과 입체 객체는 많은 폴리곤으로 구성되어 있기 때문에 디지털 지도를 3차원으로 표현하는 과정에서 많은 연산이 필요하고, 이로 인하여 실시간 처리가 어려워 내비게이션의 성능이 저하될 우려가 있다.
본 실시예에서는 경로 안내선의 데이터를 축소화하고, 경로 안내선과의 교차 여부를 판단하기 위한 검사 대상인 입체 객체를 한정하고, 데이터가 축소된 경로 안내선과 한정된 입체 객체를 이용하여 교차 여부를 판단함으로써 계산량을 줄일 수 있어 실시간 처리가 용이하다.
먼저, 축소화부(210)는 경로 안내선에 해당되는 폴리라인의 데이터에 대한 축소화를 수행하는 역할을 담당한다. 일반적으로, 내비게이션에서 경로 안내선은 폴리라인 형태로 데이터화 되어 있다. 이를 3차원으로 표현하기 위해서는 폴리곤으로 생성해야 하며, 이 때문에 경로 안내선에 대한 정점의 수는 최소 2배 이상 증가하게 된다. 폴리곤을 구성하기 위해 사용되는 폴리라인 형태의 데이터를 축소하여 기억하고 이를 입체 객체와의 교차 여부 판단 시 사용하게 되면 계산량을 현저히 줄일 수 있다.
일 예로, 축소화부(210)는 경로 안내선의 폴리라인을 구성하는 정점 중 양 끝점을 잇는 직선과 양 끝점을 제외한 내부 정점 간의 직교 거리를 이용하여 폴리라인을 구성하는 정점의 수를 줄이는 연산을 수행할 수 있다. 예컨대, 도 3에 도시한 바와 같이 경로 안내선에 해당되는 폴리라인이 7개의 정점(v1~v7)으로 구성된다고 가정할 때 첫 단계(310)에서 양 끝점인 v1과 v7을 잇는 직선을 구한다. 이어, 두 번째 단계(320)에서는 내부 정점에서 이전 단계(310)에서 구한 직선까지 수직으로 내려 이은 거리, 즉 직교 거리를 구한다. 다음으로, 세 번째 단계(330)에서 정점과 직선 간의 직교 거리 값이 가장 큰 정점을 기준으로 두 개의 폴리라인으로 구분한다. 이때, v3과 직선 간의 직교 거리가 가장 큰 경우, v3을 기준으로 v1~v3으로 구성된 폴리라인, 그리고 v3~v7로 구성된 폴리라인으로 구분될 수 있다. 구분된 각각의 폴리라인에 대해 다시 상기한 3 단계(310~330)를 반복하고, 정점과 직선 간의 직교 거리 값이 임계치 보다 작은 경우 축소화 연산을 종료한다(마지막 단계(340)). 따라서, 7개의 정점(v1~v7)으로 구성된 폴리라인이 상기한 연산 과정을 통해 초기 7개의 정점이 4개의 정점(v1, v3, v5, v7)으로 그 수가 줄어 경로 안내선의 폴리라인이 축소화 될 수 있다.
실시간 처리를 위해서는 연산량을 최소화 해야 하기 때문에, 폴리라인의 축소화 연산은 지도 화면에 보이는 경로 안내선에 대해서 처리하는 것이 바람직하다. 이에, 축소화부(210)는 경로 안내선 데이터가 도엽 단위(예컨대, 5km)로 구분되기 때문에 도엽 단위로 구분된 단위 길이의 경로 안내선 데이터(이하,‘단위 경로선’이라 칭함)에 대하여 폴리라인의 축소화 연산을 수행할 수 있다. 더욱이, 축소화부(210)는 단위 경로선이 지도 화면을 통해 표출되는지 여부를 판단하여 지도 화면에 표출되는 부분의 단위 경로선에 대해 폴리라인의 축소화 연산을 적용할 수 있다.
그리고, 객체 검출부(220)는 지도 화면 상에 표시하고자 하는 입체 객체와 경로 안내선의 교차 여부를 검출할 수 있다. 이때, 객체 검출부(220)는 축소화부(210)를 통해 축소화 된 폴리라인의 데이터를 이용하여 경로 안내선과 교차되는 입체 객체를 검출할 수 있다. 또한, 본 실시예에서는 입체 객체를 이루는 폴리곤의 수를 최소화 하기 위하여 입체 객체를 포함하는 최적의 박스, 즉 정육면체를 구성하는 폴리곤을 사용한다.
일 예로, 객체 검출부(220)는 경로 안내선에 해당되는 폴리라인을 구성하는 정점과 지도 화면에 대한 카메라 시점을 연결하여 가상의 폴리곤을 구성한 후, 가상의 폴리곤과 입체 객체에 해당되는 폴리곤의 교차 여부를 판단함으로써 경로 안내선과 교차되는 입체 객체를 검출할 수 있다. 예컨대, 도 4에 도시한 바와 같이 경로 안내선의 폴리라인(401)을 구성하는 정점이 {v1, v2 … vn}이라 하고 카메라 시점(405)을 O라 할 때, 가상의 폴리곤 pi(p1, p2, p3)는 폴리라인(401)의 정점 중 인접하는 두 개의 정점과 카메라 시점(O)이 연결되어 {vi, vi+1, O}(단, i<N)와 같이 구성된다. 이에, 객체 검출부(220)는 가상의 폴리곤 pi와 입체 객체를 이루는 폴리곤(403)의 교차 여부를 판단하여 경로 안내선을 가리는 입체 객체(도 4에 점선으로 도시됨)를 검출할 수 있다.
마지막으로, 표시부(230)는 입체 객체와 경로 안내선을 지도 화면 상에 표시하되, 경로 안내선과 교차되는 입체 객체를 선택적으로 블렌딩 처리할 수 있다. 도 5는 경로선을 가리는 입체 객체를 블렌딩 처리한 지도 화면의 일 예이다. 즉, 표시부(230)는 도 5에 도시한 바와 같이 지도 화면 상에 경로 안내선(501)을 표시함에 있어 경로 안내선(501)을 가리고 있는 입체 객체(503)에 대하여 알파 블렌딩(alpha blending)과 같이 반투명 효과를 적용하여 경로 안내선(501)의 주변에 실제 존재하는 건물들을 표현하면서 동시에 주변 건물이 경로 안내선(501)을 가리지 않도록 처리할 수 있다.
내비게이션은 상당히 먼 거리까지 지도 화면을 통해 보여줄 수 있으며, 먼 거리에 존재하는 입체 객체의 경우 경로 안내선을 가린다 해도 크게 문제되지 않는다. 한편, 3차원 내비게이션은 카메라 시점에서 멀리 떨어질수록 보이는 영역이 넓어 경로 안내선과의 교차 여부를 판단하기 위한 검사 대상 또한 증가하기 때문에 성능 저하의 원인이 될 수 있다. 이러한 상황들을 고려하기 위하여, 지도 축척 레벨에 따라 처리 영역의 범위를 정하고 처리 영역 안에 있는 단위 경로선과 입체 객체를 처리 대상으로 한정할 수 있다. 다시 말해, 객체 검출부(220)에서 지도 화면에 표시되는 지도 축척 레벨에 따라 경로 안내선과 교차되는 입체 객체를 검출하기 위한 검사 영역(반경)을 다르게 설정하여 검사 대상이 되는 입체 객체를 한정할 수 있다. 아울러, 축소화부(210)에서 축소화 연산에 사용되는 임계 길이(단위 길이) 또한 지도 축척 레벨에 따라 다르게 설명하면 연산 과정에서의 검사 대상을 줄일 수 있다. 예컨대, 도 6은 지도 축척 레벨에 따른 검사 영역과 경로선 축소화 거리(단위 길이)를 테이블 화 한 것으로, 축소화부(210)와 객체 검출부(220)는 지도 축척 레벨에 대응되는 테이블 값을 적용할 수 있다. 이때, 테이블의 각 수치는 실험이나 경험치에 의해 얻어낼 수 있다.
도 7은 본 발명의 일실시예에 있어서, 경로선을 가리는 입체 객체를 선택적으로 처리하는 3차원 지도 표시 방법을 도시한 흐름도이다. 일실시예에 따른 3차원 지도 표시 방법은 도 2를 통해 설명한 3차원 지도 표시 시스템에 의해 각각의 단계가 수행될 수 있다.
단계(710)에서 3차원 지도 표시 시스템은 경로 안내선에 해당되는 폴리라인의 데이터에 대한 축소화 연산을 수행할 수 있다. 일 예로, 3차원 지도 표시 시스템은 경로 안내선의 폴리라인을 구성하는 정점 중 양 끝점을 잇는 직선과 양 끝점을 제외한 내부 정점 간의 직교 거리를 이용하여 폴리라인을 구성하는 정점의 수를 줄이는 연산을 수행할 수 있다. 이때, 3차원 지도 표시 시스템은 도엽 단위로 구분된 단위 길이의 경로 안내선에 대하여 폴리라인 데이터의 축소화 연산을 수행할 수 있다. 또한, 3차원 지도 표시 시스템은 지도 화면에 표시되는 지도 축척 레벨에 따라 축소화 연산을 수행하기 위한 경로 안내선의 길이를 설정할 수 있다. 더욱이, 3차원 지도 표시 시스템은 경로 안내선이 지도 화면을 통해 표출되는지 여부를 판단하여 지도 화면에 표출되는 부분의 경로 안내선에 대해 폴리라인의 축소화 연산을 적용할 수 있다.
단계(720)에서 3차원 지도 표시 시스템은 지도 화면 상에 표시하고자 하는 입체 객체와 경로 안내선의 교차 여부를 검출할 수 있다. 일 예로, 3차원 지도 표시 시스템은 경로 안내선에 해당되는 폴리라인을 구성하는 정점과 지도 화면에 대한 카메라 시점을 연결하여 가상의 폴리곤을 구성한 후, 가상의 폴리곤과 입체 객체에 해당되는 폴리곤의 교차 여부를 판단함으로써 경로 안내선과 교차되는 입체 객체를 검출할 수 있다. 이때, 3차원 지도 표시 시스템은 축소화 연산을 통해 축소화 된 폴리라인의 데이터를 이용하여 경로 안내선과 교차되는 입체 객체를 검출할 수 있다. 또한, 3차원 지도 표시 시스템은 입체 객체에 해당되는 폴리곤을 정육면체로 구성된 폴리곤으로 사용하여 경로 안내선과의 교차 여부를 검출할 수 있다. 그리고, 3차원 지도 표시 시스템은 지도 화면에 표시되는 지도 축척 레벨에 따라 경로 안내선과의 교차 여부를 검출하기 위한 검사 영역(반경)을 다르게 설정하여 검사 대상이 되는 입체 객체를 한정할 수 있다.
단계(730)에서 3차원 지도 표시 시스템은 입체 객체와 경로 안내선을 지도 화면 상에 표시하되, 경로 안내선과 교차되는 입체 객체를 선택적으로 블렌딩 처리할 수 있다. 일 예로, 3차원 지도 표시 시스템은 지도 화면 상에 경로 안내선을 표시함에 있어 경로 안내선을 가리고 있는 입체 객체에 대하여 알파 블렌딩을 적용함으로써 경로 안내선의 주변에 실제 존재하는 건물들을 표현하면서 동시에 주변 건물이 경로 안내선을 가리지 않도록 처리할 수 있다.
이와 같이, 본 발명의 실시예에 따르면, 경로선을 가리고 있는 입체 객체만을 선택적으로 블렌딩 처리함으로써 지도 표출의 질을 최대로 유지하면서 경로선에 대한 시인성을 향상시킬 수 있다. 본 발명의 실시예에 따르면, 폴리곤을 구성하기 위해 사용되는 폴리라인의 데이터를 축소화 함으로써 연산 과정에서의 계산량을 줄여 실시간 처리에 효과적이다. 본 발명의 실시예에 따르면, 지도 축척 레벨에 따라 데이터의 축소화를 적용하기 위한 경로선의 길이, 그리고 경로선과 교차하는 입체 객체를 검사하기 위한 반경을 한정함으로써 3차원 지도를 신속하게 표현할 수 있다.
본 발명의 실시예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 또한, 상술한 파일 시스템은 컴퓨터 판독이 가능한 기록 매체에 기록될 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (21)

  1. 지도 화면 상에 표시하고자 하는 객체와 경로 안내선의 교차 여부를 검출하는 객체 검출부; 및
    상기 객체와 상기 경로 안내선을 상기 지도 화면 상에 표시하되, 상기 경로 안내선과 교차되는 객체를 블렌딩(blending) 처리하는 표시부
    를 포함하는 3차원 지도 표시 시스템.
  2. 제1항에 있어서,
    상기 객체 검출부는,
    상기 객체에 해당되는 폴리곤과, 상기 경로 안내선에 대한 가상 폴리곤의 교차 여부를 판단하여 상기 경로 안내선과 교차되는 객체를 검출하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  3. 제2항에 있어서,
    상기 가상 폴리곤은,
    상기 경로 안내선에 해당되는 폴리라인을 구성하는 정점과, 상기 지도 화면에 대한 카메라 시점을 연결하여 구성되는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  4. 제2항에 있어서,
    상기 객체에 해당되는 폴리곤은 정육면체로 구성된 폴리곤이 사용되는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  5. 제1항에 있어서,
    상기 객체 검출부는,
    상기 지도 화면에 표시되는 지도 축척 레벨에 따라 상기 경로 안내선과 교차되는 객체를 검출하기 위한 검출 영역을 설정하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  6. 제1항에 있어서,
    상기 3차원 지도 표시 시스템은,
    상기 경로 안내선에 해당되는 폴리라인의 데이터에 대한 축소화를 수행하는 축소화부
    를 더 포함하며,
    상기 객체 검출부는,
    상기 축소화 된 폴리라인의 데이터를 이용하여 상기 경로 안내선과 교차되는 객체를 검출하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  7. 제6항에 있어서,
    상기 축소화부는,
    상기 경로 안내선의 폴리라인을 구성하는 정점 중 양 끝점을 잇는 직선과, 상기 양 끝점을 제외한 내부 정점 간의 직교 거리를 이용하여 상기 정점의 수를 줄이는 연산을 수행하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  8. 제6항에 있어서,
    상기 축소화부는,
    도엽 단위로 구분된 단위 길이의 경로 안내선에 대하여 상기 축소화를 수행하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  9. 제6항에 있어서,
    상기 축소화부는,
    상기 지도 화면에 표출되는 부분의 경로 안내선에 대하여 상기 축소화를 수행하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  10. 제6항에 있어서,
    상기 축소화부는,
    상기 지도 화면에 표시되는 지도 축척 레벨에 따라 상기 축소화를 수행하기 위한 경로 안내선의 길이를 설정하는 것
    을 특징으로 하는 3차원 지도 표시 시스템.
  11. 지도 화면 상에 표시하고자 하는 객체와 경로 안내선의 교차 여부를 검출하는 객체 검출 단계; 및
    상기 객체와 상기 경로 안내선을 상기 지도 화면 상에 표시하되, 상기 경로 안내선과 교차되는 객체를 블렌딩 처리하는 표시 단계
    를 포함하는 3차원 지도 표시 방법.
  12. 제11항에 있어서,
    상기 객체 검출 단계는,
    상기 객체에 해당되는 폴리곤과, 상기 경로 안내선에 대한 가상 폴리곤의 교차 여부를 판단하여 상기 경로 안내선과 교차되는 객체를 검출하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  13. 제12항에 있어서,
    상기 가상 폴리곤은,
    상기 경로 안내선에 해당되는 폴리라인을 구성하는 정점과, 상기 지도 화면에 대한 카메라 시점을 연결하여 구성되는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  14. 제12항에 있어서,
    상기 객체에 해당되는 폴리곤은 정육면체로 구성된 폴리곤이 사용되는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  15. 제11항에 있어서,
    상기 객체 검출 단계는,
    상기 지도 화면에 표시되는 지도 축척 레벨에 따라 상기 경로 안내선과 교차되는 객체를 검출하기 위한 검출 영역을 설정하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  16. 제11항에 있어서,
    상기 3차원 지도 표시 방법은,
    상기 경로 안내선에 해당되는 폴리라인의 데이터에 대한 축소화를 수행하는 축소화 단계
    를 더 포함하며,
    상기 객체 검출 단계는,
    상기 축소화 된 폴리라인의 데이터를 이용하여 상기 경로 안내선과 교차되는 객체를 검출하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  17. 제16항에 있어서,
    상기 축소화 단계는,
    상기 경로 안내선의 폴리라인을 구성하는 정점 중 양 끝점을 잇는 직선과, 상기 양 끝점을 제외한 내부 정점 간의 직교 거리를 이용하여 상기 정점의 수를 줄이는 연산을 수행하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  18. 제16항에 있어서,
    상기 축소화 단계는,
    도엽 단위로 구분된 단위 길이의 경로 안내선에 대하여 상기 축소화를 수행하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  19. 제16항에 있어서,
    상기 축소화 단계는,
    상기 지도 화면에 표출되는 부분의 경로 안내선에 대하여 상기 축소화를 수행하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  20. 제16항에 있어서,
    상기 축소화 단계는,
    상기 지도 화면에 표시되는 지도 축척 레벨에 따라 상기 축소화를 수행하기 위한 경로 안내선의 길이를 설정하는 것
    을 특징으로 하는 3차원 지도 표시 방법.
  21. 제11항 내지 제20항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.
PCT/KR2012/010861 2011-12-16 2012-12-13 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템 WO2013089462A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/365,852 US9568333B2 (en) 2011-12-16 2012-12-13 Method and system for selectively blending buildings to improve route visibility in a 3D navigation system
US15/405,865 US9959685B2 (en) 2011-12-16 2017-01-13 Method and system for selectively blending buildings to improve route visibility in a 3D navigation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2011-0136385 2011-12-16
KR1020110136385A KR101331111B1 (ko) 2011-12-16 2011-12-16 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/365,852 A-371-Of-International US9568333B2 (en) 2011-12-16 2012-12-13 Method and system for selectively blending buildings to improve route visibility in a 3D navigation system
US15/405,865 Continuation US9959685B2 (en) 2011-12-16 2017-01-13 Method and system for selectively blending buildings to improve route visibility in a 3D navigation system

Publications (1)

Publication Number Publication Date
WO2013089462A1 true WO2013089462A1 (ko) 2013-06-20

Family

ID=48612831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/010861 WO2013089462A1 (ko) 2011-12-16 2012-12-13 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템

Country Status (3)

Country Link
US (2) US9568333B2 (ko)
KR (1) KR101331111B1 (ko)
WO (1) WO2013089462A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105571600A (zh) * 2014-10-15 2016-05-11 高德信息技术有限公司 一种全程概览路线生成方法及装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102232898B1 (ko) * 2014-03-13 2021-03-26 에스케이플래닛 주식회사 움직임 기반 사용자 인터페이스를 제공하는 이동통신 단말기 및 제공 방법
CN104807463B (zh) * 2015-04-13 2017-08-25 广东欧珀移动通信有限公司 一种路径规划的方法及装置
JP6521081B2 (ja) 2015-09-30 2019-05-29 日産自動車株式会社 車両用表示装置
EP3729857A1 (en) * 2017-12-19 2020-10-28 Telefonaktiebolaget LM Ericsson (publ) Radio coverage map generation
US11585672B1 (en) * 2018-04-11 2023-02-21 Palantir Technologies Inc. Three-dimensional representations of routes

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962179A (ja) * 1995-08-25 1997-03-07 Hitachi Ltd 移動体ナビゲーション装置
JP2001108458A (ja) * 1999-10-04 2001-04-20 Matsushita Electric Ind Co Ltd ナビゲーション装置と立体地図表示方法
JP2003302224A (ja) * 2002-04-08 2003-10-24 Hitachi Ltd 情報提供センタおよびカーナビゲーション装置
KR20060127135A (ko) * 2006-08-17 2006-12-11 가부시끼가이샤 히다치 세이사꾸쇼 내비게이션장치 및 경로 유도방법
JP2007255989A (ja) * 2006-03-22 2007-10-04 Navitime Japan Co Ltd ナビゲーションシステム、経路探索サーバ、端末装置および地図表示方法
JP4333704B2 (ja) * 2006-06-30 2009-09-16 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100263982B1 (ko) * 1996-04-28 2000-08-16 모리 하루오 네비게이션장치
EP1734339B1 (en) * 2004-03-29 2012-12-19 Hitachi, Ltd. Navigation system and course guiding method
JP4257661B2 (ja) * 2006-06-30 2009-04-22 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0962179A (ja) * 1995-08-25 1997-03-07 Hitachi Ltd 移動体ナビゲーション装置
JP2001108458A (ja) * 1999-10-04 2001-04-20 Matsushita Electric Ind Co Ltd ナビゲーション装置と立体地図表示方法
JP2003302224A (ja) * 2002-04-08 2003-10-24 Hitachi Ltd 情報提供センタおよびカーナビゲーション装置
JP2007255989A (ja) * 2006-03-22 2007-10-04 Navitime Japan Co Ltd ナビゲーションシステム、経路探索サーバ、端末装置および地図表示方法
JP4333704B2 (ja) * 2006-06-30 2009-09-16 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置
KR20060127135A (ko) * 2006-08-17 2006-12-11 가부시끼가이샤 히다치 세이사꾸쇼 내비게이션장치 및 경로 유도방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105571600A (zh) * 2014-10-15 2016-05-11 高德信息技术有限公司 一种全程概览路线生成方法及装置
CN105571600B (zh) * 2014-10-15 2018-08-21 高德信息技术有限公司 一种全程概览路线生成方法及装置

Also Published As

Publication number Publication date
US20140343840A1 (en) 2014-11-20
US9959685B2 (en) 2018-05-01
KR101331111B1 (ko) 2013-11-19
US9568333B2 (en) 2017-02-14
KR20130068924A (ko) 2013-06-26
US20170132847A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
WO2013089462A1 (ko) 3차원 내비게이션에서 경로선 시인성 강화를 위한 선택적 건물 블렌딩 방법 및 그 시스템
WO2022089018A1 (zh) 三维矢量地图的三维矢量数据切片方法、装置及电子设备
EP1754195A1 (en) Tile based graphics rendering
WO2012111864A1 (ko) 레이 트레이싱 코어 및 레이 트레이싱 처리 방법
CN110046212A (zh) 路况变化信息确定方法、装置、计算机设备及存储介质
KR102214906B1 (ko) 3차원 지도 표시 시스템
CN114166239A (zh) 具有新型简易模式的导航应用程序
CN115273039B (zh) 一种基于摄像头的小障碍物探测方法
CN102542267B (zh) 结合空间分布和全局对比的显著区域检测方法
CN114565908A (zh) 车道线的检测方法、装置、电子设备及存储介质
CN109300322B (zh) 引导线绘制方法、装置、设备和介质
US10580198B2 (en) System and method for optimized sparse volume rendering
WO2011159085A2 (en) Method and apparatus for ray tracing in a 3-dimensional image system
US20090128554A1 (en) Method and apparatus for determining view impact
CN111238500B (zh) 道路地图区域的道路线段的地图生成方法、装置及***
CN111862206A (zh) 一种视觉定位方法、装置、电子设备及可读存储介质
WO2009151220A2 (ko) 사용자 뷰 출력 시스템 및 방법
CN113619606B (zh) 障碍物确定方法、装置、设备以及存储介质
CN115457505A (zh) 一种摄像头的小障碍物探测方法、装置、设备及存储介质
CN110440788A (zh) 跨越单线道路的导航提示方法、服务器及计算机可读介质
CN108489506A (zh) 一种路口放大图的显示方法、装置、终端和介质
WO2022114253A1 (ko) 시뮬레이터 내의 최적화된 객체 움직임 경로 생성을 위한 교통 시뮬레이션 방법
CN109949360B (zh) 一种道路中心线的提取方法、装置、电子设备及存储介质
JP6607657B2 (ja) 新規道路推定支援装置、新規道路推定支援方法、コンピュータプログラム及びコンピュータプログラムを記録した記録媒体
WO2010016677A2 (ko) 3차원 자차마크 표시 장치 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12856753

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14365852

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 12856753

Country of ref document: EP

Kind code of ref document: A1