WO2005098792A1 - 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム - Google Patents

地図情報生成装置、地図情報生成方法、および地図情報生成プログラム Download PDF

Info

Publication number
WO2005098792A1
WO2005098792A1 PCT/JP2005/004493 JP2005004493W WO2005098792A1 WO 2005098792 A1 WO2005098792 A1 WO 2005098792A1 JP 2005004493 W JP2005004493 W JP 2005004493W WO 2005098792 A1 WO2005098792 A1 WO 2005098792A1
Authority
WO
WIPO (PCT)
Prior art keywords
map information
dimensional object
information
dimensional
shape data
Prior art date
Application number
PCT/JP2005/004493
Other languages
English (en)
French (fr)
Inventor
Hajime Adachi
Reiji Matsumoto
Shunichi Kumagai
Takuya Hirose
Masayoshi Suzuki
Original Assignee
Pioneer Corporation
Pioneer System Technologies Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corporation, Pioneer System Technologies Corporation filed Critical Pioneer Corporation
Priority to EP05726662A priority Critical patent/EP1752948A4/en
Priority to CN2005800107760A priority patent/CN1938739B/zh
Priority to US10/594,426 priority patent/US20080238914A1/en
Priority to JP2006511944A priority patent/JP4776531B2/ja
Publication of WO2005098792A1 publication Critical patent/WO2005098792A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3826Terrain data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3822Road feature data, e.g. slope data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/3867Geometry of map features, e.g. shape points, polygons or for simplified maps

Definitions

  • Map information generation device Map information generation device, map information generation method, and map information generation program
  • the present invention relates to a map information generation device, a map information generation method, and a map information generation program.
  • the use of the present invention is not limited to the above-described map information generation device, map information generation method, and map information generation program.
  • the three-dimensional model deformation operation device includes a three-dimensional model, a constraint condition table for registering a cutting permission / prohibition condition for each element of the three-dimensional model, and a deformation condition input unit for inputting a deformation condition of the three-dimensional model. And an intersection check function unit that uses the data of the 3D model and the constraint condition table to perform an intersection check between the cut plane and the element input from the deformation condition input unit, and an intersection check function unit.
  • the cutting plane changing function that changes the cutting plane when it is determined that the element has no intersection with the intersection and the intersection check function part determines that the element can be cut with the intersection and that there is no intersection
  • a deforming operation function that is executed when the operation is performed and is changed to a cuttable surface by the cutting plane changing function unit, and a deforming operation unit configured by a camera is provided (for example, see Patent Document 1 below). ).
  • an element division method for efficiently dividing the three-dimensional shape of a target object into hexahedral elements and shortening the operation time.
  • this element dividing method first, a group of shape data, which is a set of a surface element divided into a plurality of regions and a data of the height of the object when viewed from a predetermined direction in a perspective view, is used. After inputting as, a predetermined number of nodes are provided on the boundary line and Z or outline of each area, and the area within each area or outline is divided into quadrilateral elements by a group of parallel lines passing through the nodes.
  • the quadrilateral elements are grouped by height data, and the same attributes are assigned to quadrilateral elements in the same group, and then the quadrilateral elements are height-adjusted according to the attributes of the quadrilateral elements.
  • a hexahedral element is created by stretching the image by a predetermined amount and dividing the image by a predetermined number of divisions in the height direction.
  • the grouping of the hexahedral element groups belonging to each region is released and the hexahedral element groups are combined into one hexahedral element group to complete a three-dimensional FEM (finite element method) model (for example, see Patent Document 2 below). ) 0
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2000-200296
  • Patent Document 2 JP-A-10-31759
  • the map information generation device provides a map information generation device that obtains at least the width and thickness of the three-dimensional object from map information that includes a three-dimensional object having a three-dimensional shape having a width, a thickness, and a length.
  • Shape data extracting means for extracting shape data including a cross section of the following; and generating means for generating a three-dimensional object having the same shape as the three-dimensional object based on the shape data extracted by the shape data extracting means. , Is provided.
  • a map information generating method is characterized in that the map information including a three-dimensional object indicating a three-dimensional shape having a width, a thickness, and a length is obtained from the map information including the three-dimensional object.
  • a generating step of generating is characterized in that the map information including a three-dimensional object indicating a three-dimensional shape having a width, a thickness, and a length is obtained from the map information including the three-dimensional object.
  • a generating step of generating is characterized in that the map information including a three-dimensional object indicating a three-
  • a map information generation program according to the invention of claim 8 causes a computer to execute the map information generation method according to claim 7.
  • FIG. 1 is a block diagram showing a hardware configuration of a map information generating device according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a functional configuration of a map information generating device according to an embodiment of the present invention.
  • FIG. 3 is an explanatory diagram showing a part of map information stored in a map information database.
  • FIG. 4 is an explanatory diagram showing a part of road network data stored in a road network database.
  • FIG. 5 is an explanatory diagram showing a three-dimensional road object to be extracted shown in FIG. 2.
  • FIG. 6 is an explanatory diagram showing extracted shape data.
  • FIG. 7 is an explanatory diagram showing a three-dimensional road object inclined with respect to an XY plane representing a reference plane.
  • FIG. 8 is an explanatory diagram showing an example of a road surface texture drawn by a texture drawing unit.
  • FIG. 9 is an explanatory diagram showing a connected state of three-dimensional objects.
  • FIG. 10 is an explanatory diagram showing a generated complementary object.
  • FIG. 11 is a flowchart of a map information generation process procedure according to the first embodiment.
  • FIG. 12 is a flowchart of a map information generation process according to the second embodiment.
  • FIG. 13 is a flowchart of a map information generating process according to the third embodiment.
  • FIG. 14 is a flowchart illustrating a texture drawing processing procedure according to the fourth embodiment.
  • FIG. 15 is a flowchart illustrating a supplementary processing procedure according to the fifth embodiment.
  • FIG. 1 is a block diagram illustrating a hardware configuration of a map information generation device according to an embodiment of the present invention.
  • a map information generating apparatus includes a CPU 101, a graphics processor 120, a ROM 102, a RAM 103, and an HDD (node disk).
  • HD node disk
  • CDZDVD drive 106
  • CDZDVD107 as an example of a removable recording medium
  • video Z audio IZF (interface) 108 display 109
  • speaker 110 input
  • An IZF (interface) 111 display 109
  • speaker 110 input
  • An IZF (interface) 111 display 109
  • a remote control Z touch panel 112 an input button 113
  • a communication IZF (interface) 114 connected to a network 115 are provided.
  • the components 101-114, 120 are connected by a bus 116, respectively.
  • the CPU 101 governs overall control of the map information generation device.
  • the graphics processor 120 is responsible for map information drawing and display control.
  • the ROM 102 stores programs such as a boot program. Further, it may be used as a data recording medium.
  • the RAM 103 is used as a work area for the CPU 101 and the graphics processor 120. It may also be used as a data recording medium.
  • the HDD 104 controls read / write of data from / to the HD 105 under the control of the CPU 101.
  • the HD 105 stores the data written under the control of the HDD 104.
  • the CDZDVD drive 106 controls read / write of data from / to the CDZDVD 107 under the control of the CPU 101.
  • the CDZDVD 107 is a removable recording medium from which data recorded under the control of the CDZDVD drive 106 is read.
  • a writable recording medium can be used as the CDZDVD 107.
  • the removable recording media include CDZDVD107, CD-ROM (CD-R, CD-RW), DVD-ROM (DVD-R, DVD player RW, DVD-RAM), MO, and memory card. And so on.
  • the video Z audio IZF (interface) 108 is connected to a display 109 for video display and a speaker 110 (or headphones) for audio output.
  • the display 109 displays various data such as characters, images, and the like, including a cursor, icons, menus, windows, and tool boxes.
  • a CRT a CRT
  • a TFT liquid crystal display a plasma display, or the like can be employed.
  • the speaker 110 also outputs sound.
  • the input IZF 111 is used to input data transmitted from a remote control / touch panel 112 or input buttons 113 having a plurality of keys for inputting characters, numerical values, various instructions, and the like. To do.
  • the communication IZF 114 is connected to a network 115 such as the Internet via a wireless or communication line, and is connected to other devices via the network 115.
  • the communication IZF 114 manages an interface between the network 115 and the CPU 101, and controls input and output of data from external devices.
  • the network 115 includes a LAN, a WAN, a public line network and a mobile phone network.
  • FIG. 2 is a block diagram showing a functional configuration of a map information generating device according to an embodiment of the present invention.
  • a map information generation device 200 includes a map information database 201, a road network database 202, a map information extraction unit 203 (shape data extraction unit 231 and texture information extraction unit 232), and link length information extraction.
  • a part 204 and a generating part 206 are provided.
  • the map information database 201 stores map information.
  • FIG. 3 is an explanatory diagram showing a part of the map information stored in the map information database 201.
  • the map information 300 shows a state where it is drawn by the graphic processor shown in FIG.
  • a coordinate system consisting of an X axis, a Y axis orthogonal to the X axis, a Z axis orthogonal to the XY plane formed by the X axis and the Y axis, and a coordinate system are used.
  • This XY plane is a reference plane, and represents, for example, the ground surface.
  • the Z axis represents the height with respect to the reference plane.
  • the map information 300 includes a ground surface object 301 indicating the ground surface, a ground object 302 indicating a surface object such as a building existing on the ground surface, a ground object laid on the ground surface, A three-dimensional road object 303 indicating a road is included.
  • the three-dimensional road object 303 has a three-dimensional shape formed by line segments of road width, thickness, and length.
  • the three-dimensional road object 303 is not particularly limited to a road, and may be anything as long as it has a three-dimensional shape, is linear in the length direction, and has a uniform drawn texture. . For example, road crossing of tunnels, medians, pedestrian bridges Part and the like.
  • each vertex of the objects 301-303 can be specified by the coordinates of this coordinate system.
  • a line segment between vertices such as a road width, a thickness, and a length of a road can be specified by the coordinates of the coordinate system.
  • a texture corresponding to the object 301-303 is drawn on these objects 301-303, and the drawing position of this texture can be specified by the coordinates of the coordinate system described above.
  • drawing cycle information of a texture to be repeatedly drawn is stored for each object 301-303. Since other specific contents of the map information 300 are well known, the description thereof is omitted here.
  • the road network database 202 stores road network data.
  • the road network data stored in the road network database 202 will be described.
  • FIG. 4 is an explanatory diagram showing a part of the road network data stored in the road network database 202.
  • the road network data 400 is composed of an aggregate of links 401 connected by a plurality of nodes 402.
  • the above-described coordinate system is also used for the road network data 400.
  • Each node 402 has the coordinates represented by this coordinate system! /
  • the shape data extraction unit 231 extracts an ID for identifying the three-dimensional road object 303 shown in FIG. 3 and shape data including at least a cross section including a road width and a thickness.
  • shape data including at least a cross section including a road width and a thickness.
  • the ID of the road object 303a and the cubic shape data 310 composed of the cross section S and the predetermined length 1 in the length direction of the road are extracted. I do.
  • the shape data to be extracted only needs to include at least the cross section S as the force as the cubic shape data 310.
  • the link length information extraction unit 204 extracts link length information from the road network data 400. Specifically, a node coordinate information group of each link 401 and a three-dimensional road object ID assigned to each link 401 are extracted. The same three-dimensional road object 303 may be assigned to a plurality of links 401.
  • the texture information extraction unit 232 generates a three-dimensional road object from the three-dimensional road object 303.
  • the texture information is extracted from the texture drawn on the surface of the object 303, the drawing cycle information of the texture, and the information on the representative color of the arbitrary surface.
  • a road surface texture is extracted by drawing a road surface and a lane such as a center line drawn on the road surface on the upper surface.
  • the texture information may also be drawn on the side and bottom surfaces.
  • the information extracted by the texture information extraction unit 232 also includes information on a representative color of the surface. This is used when drawing with a solid color instead of a texture, or when mixing with a texture.
  • FIG. 5 is an explanatory diagram showing the outside of the three-dimensional road object to be extracted shown in FIG. 2, and FIG. 6 is an explanatory diagram showing the extracted shape data.
  • This three-dimensional road object indicates the three-dimensional road object 303a shown in FIG.
  • a three-dimensional road object 303a is an object having a road width W, a thickness H, and a length L.
  • the three-dimensional road object 303a corresponds to the link 401.
  • a road surface texture 501 is repeatedly drawn on the upper surface of the standing road object 303a.
  • cubic shape data 310 including a section S having a road width W and a thickness H force can be extracted.
  • the length 1 of the shape data 310 can be set to, for example, the length of one (one cycle) of the road surface texture 501 in the length direction of the three-dimensional road object 303a.
  • link length information (the length L of the link 401, the node coordinates, and the three-dimensional road object ID) can be extracted from the link 401.
  • FIG. 7 is an explanatory diagram showing a three-dimensional road object inclined with respect to an XY plane representing a reference plane.
  • This three-dimensional road object is the three-dimensional road object 303b shown in FIG.
  • the map information extraction unit 203 and the link length information extraction By using the information obtained from the output unit 204, general-purpose three-dimensional objects can be shared. Thereby, the data amount of the map information stored in the map information database 201 can be reduced.
  • the generation unit 206 includes a shape drawing unit 261, a texture drawing unit 262, and a detection unit 263.
  • the shape drawing unit 261 generates a three-dimensional object having the same shape as the three-dimensional road object 303 by drawing the shape data 310 extracted by the shape data extraction unit 231 so as to be stretched in a direction orthogonal to the cross section S. I do.
  • This drawing process can be performed using the vertex coordinates of the cross section S.
  • the length to be extended is determined, for example, based on link length information. Further, the stretching direction may be a direction inclined by a height difference between the node coordinates of the link length information as shown in FIG. 7 instead of the direction orthogonal to the cross section S of the shape data 310.
  • the texture drawing unit 262 generates a three-dimensional object having the same shape and the same texture as the three-dimensional road object 303 based on the texture information extracted by the texture information extraction unit 232. Specifically, the extracted texture is drawn on the surface of the three-dimensional road object 303 by the drawing period information P. For example, in the case of the road surface texture 501 shown in FIG. 5, the road surface texture 501 is repeated on the surface corresponding to the road surface of the three-dimensional road object 303 along the direction orthogonal to the cross section S of the shape data 310 by the drawing period information P. Can be drawn.
  • FIG. 8 is an explanatory diagram showing an example of the road surface texture 501 drawn by the texture drawing unit 262.
  • ten road surface textures 501 are drawn.
  • the texture drawing of the length corresponding to the fraction may be performed, for example, as a method of drawing the outermost tester pattern located at the portion of 10 for all the 0.3 sheets exceeding 10.
  • the detecting unit 263 is configured to detect the end face of one solid object generated by the generating unit 206. Is detected whether the first end face shape data indicating the intersection of the first end face shape data and the second end face shape data indicating the end face of another three-dimensional object other than the one three-dimensional object. Specifically, the detection unit 263 detects whether or not the end faces intersect, based on whether or not the vertex coordinates of the first end face shape data match the vertex coordinates of the second end face data. I do.
  • FIG. 9 is an explanatory diagram showing a connected state of three-dimensional objects.
  • first end face shape data 1011 indicating an end face of one three-dimensional object 1001
  • second end face shape data 1012 indicating an end face of another three-dimensional object 1002 other than the one three-dimensional object 1001 are included. Intersect.
  • the detection unit 263 compares the coordinates of the vertex a of the first end face shape data 1011 with the coordinates of the vertex e of the second end face shape data 1012. Further, the coordinates of the vertex b of the first end face shape data 1011 and the coordinates of the vertex f of the end face shape data 1012 are compared. The coordinates of the vertex c of the first end face shape data 1011 and the coordinates of the vertex g of the end face shape data 1012 are compared.
  • the coordinates of the vertex d of the first end face shape data 1011 and the coordinates of the vertex h of the second end face shape data 1012 are compared. Then, if they all match, the first end face shape data 1011 of one three-dimensional object 1001 and the second end face shape data 1012 of the other three-dimensional object 1002 are drawn so as to make surface contact with each other. As a result, the two-dimensional objects 1001 and 1002 are connected without any gap.
  • the force S intersects the end face shape data 1011 of one solid object 1001 and the end face shape data 1012 of another solid object 1002.
  • a gap 1000 is generated between the three-dimensional objects 1001 and 1002 to be connected. Therefore, the detecting unit 263 detects whether or not a gap 1000 is generated between the connected three-dimensional objects 1001 and 1002.
  • the shape drawing unit 261 uses the first and second end face shape data 1011, 1012 to generate one three-dimensional object 1001 and another three-dimensional object. Generate a complemented three-dimensional object that complements the objects 1002.
  • FIG. 10 is an explanatory diagram showing the generated complementary object.
  • the first end face Extract two edges A and B in the thickness direction of the shape data 1011.
  • the end side C that is not covered by one solid object 1001 is extracted.
  • vertex a and vertex b of edge A are extended to vertex e and vertex f of edge C
  • vertex c and vertex d of edge B are extended to vertex e and vertex f of edge C. It is possible to draw a supplementary three-dimensional object 1100 in the shape of a triangular prism.
  • map information database 201 and road network database 202 are realized by a recording medium such as the ROM 102, the RAM 103, the HD 105, and the CD / DVD 107 shown in FIG. .
  • map information extraction unit 203, the link length information extraction unit 204, and the generation unit 206 specifically execute a program recorded on a recording medium such as the ROM 102, the RAM 103, the HD 105, and the CDZDVD 107 shown in FIG.
  • the function is realized by the CPU 101 or the graphic processor 120 or by the input IZF 111.
  • FIG. 11 is a flowchart of the map information generating process according to the first embodiment.
  • the shape data extraction unit 231 extracts shape data 310 including the cross section S from the three-dimensional road object 303 in the map information database 201 (step S1201).
  • the texture information extraction unit 232 extracts texture information including the road surface texture 501 and the drawing cycle information P from the three-dimensional road object 303 (step S1202).
  • the shape drawing unit 261 draws the shape data 310 so as to be stretched in a direction orthogonal to the cross section S of the extracted shape data 310 (step S 1203).
  • the road surface texture 501 is drawn by the drawing period information P by the texture drawing unit 262 on the surface of the three-dimensional object having the same shape as the three-dimensional road object 303 generated by the stretching (step S1204).
  • the same shape as the three-dimensional road object 303 stored in the map information database 201 can be obtained with a small amount of data.
  • a solid object having a shape and the same road texture 501 can be generated.
  • FIG. 12 is a flowchart of a map information generation process according to the second embodiment.
  • the same steps as those shown in FIG. 11 are denoted by the same step numbers, and description thereof will be omitted.
  • step S 1201 link length information (link length) of the link 401 corresponding to the three-dimensional road object 303 from which the shape data 310 has been extracted by the shape data extracting unit 231 from the road network database 202. L) is extracted (step S1301). Then, after step S1202, based on the link length information, the shape data 310 is drawn in such a manner as to be elongated by the length L of the link 401 in a direction orthogonal to the cross section S of the shape data 310 (step S1302). Thereafter, the process proceeds to step S1204.
  • a three-dimensional object having the same shape as the three-dimensional road object 303 can be generated by extending the shape data 310 by the length L of the link 401.
  • a three-dimensional object corresponding to the road network data 400 shown can be generated.
  • a plurality of links 401 connected by a node 402 are each extended in the length direction of the link 401, so that a map information database can be obtained.
  • the three-dimensional road object 303 stored in 201 can be reproduced.
  • FIG. 13 is a flowchart of a map information generation process according to the third embodiment.
  • the same steps as those shown in FIGS. 11 and 12 are denoted by the same step numbers, and description thereof will be omitted.
  • step S 1301 height difference information indicating the direction of the link 401 is extracted from the road network database 202, specifically, the height difference is extracted from the coordinates of the nodes 402 at both ends of the link 401.
  • Step S1401 the link 401 indicated by the link length information is moved in the direction of the link 401 indicated by the height difference information.
  • the shape data 310 is drawn so as to be stretched by the length L (step S1402). Thereafter, the process proceeds to step S1204.
  • the connecting portion of a three-dimensional object such as a slope having a slope is formed so that there is no gap 1000. Objects can be drawn, and objects with shapes that match the actual road surface can be generated.
  • FIG. 14 is a flowchart illustrating a texture drawing processing procedure according to the fourth embodiment.
  • This texture drawing processing procedure is a flowchart showing an example of the processing in step S1204 shown in FIGS.
  • the texture extracted by the texture information extraction unit 232 is drawn for an integer value in the drawing cycle information P of the texture (step S1501). For example, if the drawing cycle information P is “10.3”, “10” integer values are drawn.
  • step S1502 it is determined whether or not the drawing cycle information P includes a value after the decimal point, that is, a fractional value as a fraction (step S1502). If there is no fraction (step S1502: No), that is, if the fraction is “0”, the process ends. In this case, it is indicated that the road surface texture 501 has been drawn to the other end in the length direction of the three-dimensional object in which the shape data 310 has been stretched by the shape drawing unit 261.
  • step S1502 if there is a fraction (step S1502: Yes), the texture drawing unit 262 assigns the texture in the range corresponding to the decimal value of the drawing period information P to the object generated by the shape drawing unit 261.
  • Draw step S1503. Specifically, as shown in FIG. 8, the texture of a range corresponding to the fraction, that is, a part of the texture 503 corresponding to 0.3 pieces, is cut out from the eleventh piece of the road surface texture 502 and drawn. I do.
  • the fourth embodiment it is possible to draw a texture corresponding to the decimal value according to the magnitude of the decimal value (fraction) of the rendering period information P.
  • FIG. 15 is according to the fifth embodiment. It is a flowchart which shows a complement processing procedure.
  • the detection unit 263 detects whether or not the end face shape data 1011, 1012 of the connected three-dimensional objects 1001, 1002 intersect (step S1601). If the end face shape data 1011, 1012 intersects! /, Na! / (Step S1601: No), the processing is terminated.
  • Step S1601 when the end face shape data 1011, 1012 intersect (Step S1601: Yes), the end A—C for drawing the supplementary three-dimensional object 1100 is determined (Step S1602).
  • the two end sides A and B in the thickness direction of the end face shape data 1011 of one connected three-dimensional object 1001 are extracted.
  • the end side C on the side that is not covered by one three-dimensional object 1001 is extracted. In this way, the edges A to C for drawing the supplementary solid object 1100 are determined.
  • the supplemental three-dimensional object 1100 is drawn using the determined edges A to C (step S1603). Specifically, vertex a and vertex b of edge A are stretched to vertex e and vertex f of edge C, and vertex c and vertex d of edge B are vertex e and vertex e of edge C. By drawing the image to be stretched to f, the supplementary three-dimensional object 1100 having a triangular prism shape can be drawn.
  • map information generating apparatus As described above, according to the map information generating apparatus, the map information generating method, and the map information generating program which are effective in the embodiment of the present invention, real three-dimensional map information 300 with a small data amount is used. Can be generated. This also makes it possible to employ an inexpensive memory with a small capacity that does not require the use of a large capacity memory.
  • the map information 300 within the range viewed from the input viewpoint coordinates is extracted. Pseudo three-dimensional display can be performed. Further, since a general-purpose three-dimensional object can be shared, the data amount of the map information 300 can be reduced. [0063] Further, since it is possible to reproduce realistic three-dimensional map information 300, the user intuitively recognizes that the map information 300 displayed on the display screen is a scene that is actually visually observed with the naked eye. Can be recognized. This allows the user to drive safely without the user being lost due to the mismatch between the displayed map information 300 and the scenery being viewed.
  • the map information generation method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer, a workstation, or an embedded device.
  • This program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD, a DVD, an MO, a memory card, a RAM, and a ROM, and is executed by being read out by the computer.
  • This program may be a transmission medium that can be distributed via a network such as the Internet.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

 立体道路オブジェクト(303a)は、道路幅(W)、厚さ(H)、長さ(L)を有するオブジェクトである。立体道路オブジェクト(303a)は、リンク(401)に対応する。また、立体道路オブジェクト(303a)の上面には、路面テクスチャ(501)が繰り返し描画されている。そして、地図情報生成装置では、道路幅(W)および厚さ(H)からなる断面(S)を含む立方体形状の形状データ(310)を抽出することができる。この形状データ(310)の長さ(l)は、立体道路オブジェクト(303a)の長さ方向となる路面テクスチャ(501)の1枚(1周期)分の長さにすることができる。また、1枚分の路面テクスチャ(501)と、描画周期情報P(P=(L)/(l))も抽出することができる。さらに、リンク(401)からリンク長情報(リンク(401)の長さ(L))を抽出することができる。

Description

明 細 書
地図情報生成装置、地図情報生成方法、および地図情報生成プログラム 技術分野
[0001] この発明は、地図情報生成装置、地図情報生成方法、および地図情報生成プログ ラムに関する。ただし、この発明の利用は、上述の地図情報生成装置、地図情報生 成方法、および地図情報生成プログラムには限らな 、。
背景技術
[0002] 従来から、プラント設備等の 3次元モデルの変形操作にお 、て変形操作対象外の 機器のモデル形状に影響を与えることなく信頼性の高い変形操作をする 3次元モデ ル変形操作装置が開示されている。
[0003] この 3次元モデル変形操作装置は、 3次元モデルと、 3次元モデルの各要素の切断 可否条件を登録する制約条件テーブルと、 3次元モデルの変形条件を入力する変 形条件入力部と、を備え、 3次元モデル及び制約条件テーブルのデータを用い、変 形条件入力部から入力される切断面と要素の交差チ ックを行う交差チ ック機能部 と、交差チェック機能部で「交差有りで切断否の要素」と判断されたときに切断面を変 更する切断面変更機能部と、交差チ ック機能部で「交差有りで切断可の要素」及び 「交差無し」と判断されたときに実行し、且つ切断面変更機能部で切断可の面に変更 して実行する変形操作機能と、カゝら構成される変形操作部を備える (たとえば、下記 特許文献 1を参照。)。
[0004] また、対象物の 3次元形状を 6面体要素に分割する作業を効率的に行い、作業時 間を短縮する要素分割方法が開示されている。この要素分割方法では、先ず、対象 物の 3次元形状を、所定方向から透視的に見て複数の領域に区分される面要素とそ の高さのデータとを一組みとする形状データの一群として入力した後、各領域の境界 線及び Z又は外形線に所定数の節点を設け、当該節点を通る平行線群によって各 領域又は外形線内の領域を 4角形要素に分割する。そして、 4角形要素に対して高 さデータ毎にグループ分けを行い、同一グループ内の 4角形要素に対して同一の属 性を付与した後、各 4角形要素の属性に従って 4角形要素をその高さ方向に沿って 所定量をもって引き伸ばすとともに、これを所定の分割数をもって高さ方向にぉ 、て 分割することにより 6面体要素を作成する。最後に、各領域に属する 6面体要素群の グループ分けを解除して一つの 6面体要素群にまとめ上げて 3次元 FEM (有限要素 法)モデルを完成させる(たとえば、下記特許文献 2を参照。 )0
[0005] 特許文献 1:特開 2000— 200296号公報
特許文献 2 :特開平 10-31759号公報
発明の開示
発明が解決しょうとする課題
[0006] し力しながら、立体オブジェクトを含む 3次元地図情報のデータ量が膨大であるた め、上述した従来技術では、 3次元地図情報のデータ量削減には不十分で、大容量 メモリを用いなければならな 、と 、う問題が一例として挙げられる。
[0007] 特に、車載型または携帯型ナビゲーシヨン装置では、使用できるメモリ容量が限ら れているため、このようなナビゲーシヨン装置には、上述した 3次元地図情報を使用 することができな 、と 、う問題が一例として挙げられる。
[0008] 一方、簡易な 3次元地図情報を用いる場合、データ量が膨大にならないため上記 ナビゲーシヨン装置に組み込むことができるが、描画される地図情報は粗くなり、実際 の道路などの形状に即したリアルな画像が得られないという問題が一例として挙げら れる。特に、道路のカーブや勾配などをリアルに描画することができず、ユーザが直 感的に認識することができないという問題が一例として挙げられる。
課題を解決するための手段
[0009] 請求項 1の発明にかかる地図情報生成装置は、幅、厚さおよび長さからなる立体形 状を示す立体オブジェクトを含む地図情報から、前記立体オブジェクトの少なくとも前 記幅および厚さからなる断面を含む形状データを抽出する形状データ抽出手段と、 前記形状データ抽出手段によって抽出された形状データに基づ!/、て、前記立体ォ ブジエタトと同一形状の立体オブジェクトを生成する生成手段と、を備えることを特徴 とする。
[0010] また、請求項 7の発明に力かる地図情報生成方法は、幅、厚さおよび長さからなる 立体形状を示す立体オブジェクトを含む地図情報から、前記立体オブジェクトの少な くとも前記幅および厚さからなる断面を含む形状データを抽出する形状データ抽出 工程と、前記形状データ抽出工程によって抽出された形状データに基づいて、前記 立体オブジェクトと形状が同一となる同一形状オブジェクトを生成する生成工程と、を 含んだことを特徴とする。
[0011] また、請求項 8の発明にかかる地図情報生成プログラムは、請求項 7に記載の地図 情報生成方法を、コンピュータに実行させることを特徴とする。
図面の簡単な説明
[0012] [図 1]図 1は、この発明の実施の形態に力かる地図情報生成装置のハードウェア構成 を示すブロック図である。
[図 2]図 2は、この発明の実施の形態に力かる地図情報生成装置の機能的構成を示 すブロック図である。
[図 3]図 3は、地図情報データベースに記憶されている地図情報の一部を示す説明 図である。
[図 4]図 4は、道路ネットワークデータベースに記憶されている道路ネットワークデータ の一部を示す説明図である。
[図 5]図 5は、図 2に示した抽出対象となる立体道路オブジェクトを示す説明図である [図 6]図 6は、抽出された形状データを示す説明図である。
[図 7]図 7は、基準面をあらわす XY平面に対して傾斜している立体道路オブジェクト を示す説明図である。
[図 8]図 8は、テクスチャ描画部によって描画された路面テクスチャの一例を示す説明 図である。
[図 9]図 9は、立体オブジェクトどうしの連結状態を示す説明図である。
[図 10]図 10は、生成された補完オブジェクトを示す説明図である。
[図 11]図 11は、実施例 1に力かる地図情報生成処理手順を示すフローチャートであ る。
[図 12]図 12は、実施例 2にかかる地図情報生成処理手順を示すフローチャートであ る。 O
[図 13]図 13は、実施例 3にかかる地図情報生成処理手順を示すフローチャートであ る t。
[図 〇
14]図 14は、実施例 4にかかるテクスチャ描画処理手順を示すフローチャートであ る。
[図 15]図 15は、実施例 5にかかる補完処理手順を示すフローチャートである。
符号の説明
地図情報生成装置
201 地図情報 DB
202 道路ネットワーク DB
204 リンク長情報抽出部
206 生成部
231 形状データ抽出部
232 テクスチャ情報抽出部
261 形状描画部
262 テクスチャ描画部
263 検出部
310 形状データ
S 断面
発明を実施するための最良の形態
[0014] (実施の形態)
以下に添付図面を参照して、この発明の実施の形態に力かる地図情報生成装置、 地図情報生成方法、および地図情報生成プログラムの好適な実施の形態を詳細に 説明する。
[0015] (地図情報生成装置のハードウ ア構成)
まず、この発明の実施の形態に力かる地図情報生成装置のハードウェア構成につ いて説明する。図 1は、この発明の実施の形態に力かる地図情報生成装置のハード ウェア構成を示すブロック図である。図 1において、地図情報生成装置は、 CPU101 と、グラフィックスプロセッサ 120と、 ROM102と、 RAM103と、 HDD (ノヽードディスク ドライブ) 104と、 HD (ノヽードディスク) 105と、 CDZDVDドライブ 106と、着脱可能 な記録媒体の一例としての CDZDVD107と、映像 Z音声 IZF (インターフェース) 1 08と、ディスプレイ 109と、スピーカ 110と、入力 IZF (インターフェース) 111と、リモ コン Zタツチパネル 112と、入力ボタン 113と、ネットワーク 115に接続された通信 IZ F (インターフェース) 114と、を備えている。また、各構成部 101— 114、 120はバス 1 16によってそれぞれ接続されている。
[0016] ここで、 CPU101は、地図情報生成装置の全体の制御を司る。グラフィックスプロセ ッサ 120は、地図情報の描画と表示制御を司る。 ROM102は、ブートプログラムなど のプログラムを記憶している。またデータの記録媒体として用いてもよい。 RAM103 は、 CPU101とグラフィックスプロセッサ 120のワークエリアとして使用される。またデ ータの記録媒体として用いてもよい。 HDD104は、 CPU101の制御にしたがって H D105に対するデータのリード Zライトを制御する。 HD105は、 HDD104の制御で 書き込まれたデータを記憶する。
[0017] CDZDVDドライブ 106は、 CPU101の制御にしたがって CDZDVD107に対す るデータのリード Zライトを制御する。 CDZDVD107は、 CDZDVDドライブ 106の 制御にしたがって記録されたデータの読み出される着脱自在な記録媒体である。 C DZDVD107として、書き込み可能な記録媒体を利用することもできる。また、この着 脱可能な記録媒体として、 CDZDVD107のほ力、 CD— ROM (CD— R、 CD-RW) 、 DVD-ROM (DVD-R, DVD士 RW、 DVD— RAM)、 MO、メモリカードなどであ つてもよい。
[0018] また、映像 Z音声 IZF (インターフェース) 108は、映像表示用のディスプレイ 109 と音声出力用のスピーカ 110 (あるいはヘッドホン)に接続される。ディスプレイ 109に は、カーソル、アイコン、メニュー、ウィンドウ、あるいはツールボックスをはじめ、文字 や画像等の各種データが表示される。このディスプレイ 109は、たとえば、 CRT、 TF T液晶ディスプレイ、プラズマディスプレイなどを採用することができる。スピーカ 110 力もは、音声が出力される。
[0019] また、入力 IZF111は、文字、数値、各種指示等の入力のための複数のキーを備 えたリモコン/タツチパネル 112や入力ボタン 113から送信されてくるデータを入力 する。
[0020] また、通信 IZF114は、無線、あるいは通信回線を通じてインターネットなどのネッ トワーク 115に接続され、このネットワーク 115を介して他の装置に接続される。そして 、通信 IZF114は、ネットワーク 115と CPU101とのインターフェースを司り、外部装 置からのデータの入出力を制御する。ネットワーク 115には、 LAN, WAN,公衆回 線網や携帯電話網等がある。
[0021] (地図情報生成装置の機能的構成)
つぎに、この発明の実施の形態に力かる地図情報生成装置の機能的構成につい て説明する。図 2は、この発明の実施の形態に力かる地図情報生成装置の機能的構 成を示すブロック図である。図 2において、地図情報生成装置 200は、地図情報デー タベース 201と、道路ネットワークデータベース 202と、地図情報抽出部 203 (形状デ ータ抽出部 231およびテクスチャ情報抽出部 232)と、リンク長情報抽出部 204と、生 成部 206と、カゝら構成されている。
[0022] 地図情報データベース 201は、地図情報を記憶する。ここで、地図情報データべ ース 201に記憶されている地図情報について、具体的に説明する。図 3は、地図情 報データベース 201に記憶されている地図情報の一部を示す説明図である。図 3に おいて、地図情報 300は、説明上、図 1に示したグラフィックプロセッサによって描画 された状態を示している。地図情報 300には、 X軸と、 X軸に直交する Y軸と、 X軸お よび Y軸によって形成される XY平面に直交する Z軸と、カゝらなる座標系が用いられる 。この XY平面は、基準面であり、たとえば地表面をあらわしている。また、 Z軸は、基 準面に対する高さをあらわして 、る。
[0023] また、地図情報 300には、地表面を示す地表面オブジェクト 301や、地表面上に存 在する建物などの地表物を示す地表物オブジェクト 302や、地表面に敷設され、また 高架となって!/、る道路を示す立体道路オブジェクト 303が含まれて 、る。立体道路ォ ブジェクト 303は、道路の道幅、厚さおよび長さの線分によって立体的な形状を構成 している。また立体道路オブジェクト 303は、特に道路に限定されるものではなぐ立 体的な形状を構成していて、かつ長さ方向が直線的で、描画されるテクスチャなどが 均一であれば、何でも構わない。例えば、トンネル、中央分離帯、歩道橋の道路横断 部分などが挙げられる。
[0024] これらのオブジェクト 301— 303は、具体的には、上述した座標系を用いてあらわ すことができる。たとえば、オブジェクト 301— 303の各頂点は、この座標系の座標に よって特定することができる。また、道路の道幅、厚さ、長さなどの頂点間の線分も、こ の座標系の座標によって特定することができる。また、これらのオブジェクト 301— 30 3には、当該オブジェクト 301— 303に応じたテクスチャが描画されており、このテクス チヤの描画位置も、上述した座標系の座標によって特定することができる。また、ォブ ジェタト 301— 303ごとに、繰り返し描画されるテクスチャの描画周期情報も記憶され ている。なお、地図情報 300のその他具体的な内容については、周知であるため、こ こではその説明を省略する。
[0025] また、図 2において、道路ネットワークデータベース 202は、道路ネットワークデータ を記憶する。ここで、道路ネットワークデータベース 202に記憶されている道路ネット ワークデータについて説明する。図 4は、道路ネットワークデータベース 202に記憶さ れている道路ネットワークデータの一部を示す説明図である。図 4において、道路ネ ットワークデータ 400は、複数のノード 402によって連結されたリンク 401の集合体で 構成されている。この道路ネットワークデータ 400にも上述した座標系が用いられる。 各ノード 402は、この座標系によってあらわされる座標を有して!/、る。
[0026] 形状データ抽出部 231は、図 3に示した立体道路オブジェクト 303を識別するため の ID及び、少なくとも道幅および厚さからなる断面を含む形状データを抽出する。た とえば、図 3に示した道路オブジェクト 303aについて説明すると、この道路オブジェク ト 303aを示す ID及び、断面 Sと道路の長さ方向の所定長さ 1とからなる立方体形状の 形状データ 310を抽出する。ここでは、抽出される形状データは立方体形状の形状 データ 310とした力 少なくとも断面 Sが含まれていればよい。
[0027] リンク長情報抽出部 204は、道路ネットワークデータ 400からリンク長情報を抽出す る。具体的には、各リンク 401のノード座標情報群と、各リンク 401に割り当てられた 立体道路オブジェクト IDを抽出する。なお複数のリンク 401に対して、同一の立体道 路オブジェクト 303が割り当てられて 、ても構わな 、。
[0028] テクスチャ情報抽出部 232は、立体道路オブジェクト 303から、立体道路オブジェク ト 303の表面に描画されているテクスチャと、このテクスチャの描画周期情報と、前記 任意の表面の代表色の情報とからなるテクスチャ情報を抽出する。たとえば、立体道 路オブジェクト 303では、上面に路面と路面に引かれた中央線などの車線とが描か れて 、る路面テクスチャを抽出する。
[0029] 一般に道路は直線状に延在するため、路面テクスチャは、立体道路オブジェクト 30 3の長さ方向に繰り返し描画される。したがって、この繰返し周期 (描画周期)を抽出 することにより、データ量を削減することができる。またテクスチャ情報は側面、下面な どにも描画されている場合もある。またテクスチャ情報抽出部 232で抽出される情報 としては他に、表面の代表色の情報が挙げられる。これはテクスチャの代わりに単色 で塗りつぶして描画する場合、もしくはテクスチャと混ぜ合わせて描画する場合など に使用される。
[0030] ここで、地図情報抽出部 203とリンク長情報抽出部 204とを用いた立体道路ォブジ ェクト 303の抽出例について説明する。図 5は、図 2に示した抽出対象となる立体道 路オブジェ外を示す説明図であり、図 6は、抽出された形状データを示す説明図で ある。この立体道路オブジェクトは、図 3に示した立体道路オブジェクト 303aを示して いる。図 5において、立体道路オブジェクト 303aは、道路幅 W、厚さ H、長さ Lを有す るオブジェクトである。立体道路オブジェクト 303aは、リンク 401〖こ対応する。また、立 体道路オブジェクト 303aの上面には、路面テクスチャ 501が繰り返し描画されている
[0031] 図 5において、道路幅 Wおよび厚さ H力 なる断面 Sを含む立方体形状の形状デ ータ 310を抽出することができる。この形状データ 310の長さ 1は、例えば、立体道路 オブジェクト 303aの長さ方向となる路面テクスチャ 501の 1枚(1周期)分の長さにす ることができる。また、 1枚分の路面テクスチャ 501と、描画周期情報 P (P=LZ1)も抽 出することができる。さらに、リンク 401からリンク長情報(リンク 401の長さ L、ノード座 標群、立体道路オブジェクト ID)を抽出することができる。
[0032] また、図 7は、基準面をあらわす XY平面に対して傾斜している立体道路オブジェク トを示す説明図である。この立体道路オブジェクトは、図 3に示した立体道路オブジェ タト 303bを示している。また、図 2において、地図情報抽出部 203とリンク長情報抽 出部 204から得られた情報を使用することにより、汎用的な立体オブジェクトの共有 が可能になる。これにより、地図情報データベース 201に記憶されている地図情報の データ量を削減することができる。
[0033] 生成部 206は、形状描画部 261と、テクスチャ描画部 262と、検出部 263とを備え ている。形状描画部 261は、形状データ抽出部 231によって抽出された形状データ 310を、その断面 Sに直交する方向に引き伸ばして見えるように描画することによって 、立体道路オブジェクト 303と同一形状の立体オブジェクトを生成する。この引き伸ば す描画処理は、断面 Sの頂点座標を用いておこなうことができる。引き伸ばす長さは 、たとえば、リンク長情報に基づいて決定される。また、引き伸ばす方向は、形状デー タ 310の断面 Sに直交する方向ではなぐ図 7のようにリンク長情報のノード座標間の 高低差によって傾斜する方向としてもよい。
[0034] テクスチャ描画部 262は、テクスチャ情報抽出部 232によって抽出されたテクスチャ 情報に基づいて、立体道路オブジェクト 303と同一形状でかつ同一テクスチャを有す る立体オブジェクトを生成する。具体的には、抽出されたテクスチャを描画周期情報 P分、立体道路オブジェクト 303の表面に描画する。たとえば、図 5に示した路面テク スチヤ 501の場合、立体道路オブジェクト 303の路面に相当する表面に、形状データ 310の断面 Sに直交する方向に沿って描画周期情報 P分繰り返して路面テクスチャ 5 01を描画することができる。
[0035] また、描画周期情報 Pが、たとえば「10. 3」など、整数値である「10」のほか、端数と なる、小数点以下の値「0. 3」を含む場合、整数値の枚数分のテクスチャを描画する とともに、端数に対応する長さのテクスチャを描画する。図 8は、テクスチャ描画部 26 2によって描画された路面テクスチャ 501の一例を示す説明図である。図 8では、路 面テクスチャ 501が 10枚描画されている。たとえば、描画周期情報 Pが「10. 3」の場 合、そして、 11枚目のテクスチャ 502のうち、 0. 3枚の長さ分の一部の路面テクスチ ャ 503が切り出されて描画されている。また、端数に対応する長さのテクスチャ描画は 、例えば、 10を越える 0. 3枚分に関しては全て、 10の部分に位置する最も外側のテ タスチヤパターンを描画する方法としてもよ 、。
[0036] また、検出部 263は、生成部 206によって生成された一の立体オブジェクトの端面 を示す第 1の端面形状データと、一の立体オブジェクト以外の他の立体オブジェクト の端面を示す第 2の端面形状データとが交差しているかどうかを検出する。検出部 2 63は、具体的には、第 1の端面形状データの頂点座標と第 2の端面データの頂点座 標とが一致するかどうかによって、端面どうしが交差して 、るかどうかを検出する。
[0037] 図 9は、立体オブジェクトどうしの連結状態を示す説明図である。図 9において、一 の立体オブジェクト 1001の端面を示す第 1の端面形状データ 1011と、一の立体ォ ブジェクト 1001以外の他の立体オブジェクト 1002の端面を示す第 2の端面形状デ ータ 1012とが交差している。
[0038] そして、検出部 263は、第 1の端面形状データ 1011の頂点 aの座標と、第 2の端面 形状データ 1012の頂点 eの座標と、を比較する。また、第 1の端面形状データ 1011 の頂点 bの座標と、端面形状データ 1012の頂点 fの座標と、を比較する。第 1の端面 形状データ 1011の頂点 cの座標と、端面形状データ 1012の頂点 gの座標と、を比 較する。
[0039] 第 1の端面形状データ 1011の頂点 dの座標と、第 2の端面形状データ 1012の頂 点 hの座標と、を比較する。そして、すべて一致する場合は、一の立体オブジェクト 10 01の第 1の端面形状データ 1011と他の立体オブジェクト 1002の第 2の端面形状デ ータ 1012とが、互いに面接触するように描画されており、両立体オブジェクト 1001, 1002が隙間なく連結されることとなる。
[0040] 一方、いずれか一組でも異なっている場合、図 9に示したように、一の立体オブジェ タト 1001の端面形状データ 1011と他の立体オブジェクト 1002の端面形状データ 1 012と力 S交わって、連結される立体オブジェクト 1001, 1002間に隙間 1000力 S生じる こととなる。したがって、検出部 263は、この連結される立体オブジェクト 1001, 1002 間に隙間 1000が生じているかどうかを検出することとなる。
[0041] そして、形状描画部 261は、検出部 263によって検出された検出結果に基づいて、 第 1および第 2の端面形状データ 1011, 1012を用いて、一の立体オブジェクト 100 1と他の立体オブジェクト 1002どうしを補完する補完立体オブジェクトを生成する。図 10は、生成された補完オブジェクトを示す説明図である。
[0042] ここで、補完立体オブジェクト 1100の生成について説明すると、まず、第 1の端面 形状データ 1011の厚さ方向の 2つの端辺 A、端辺 Bを抽出する。一方、第 2の端面 形状データ 1012の厚さ方向の 2つの端辺 C、端辺 Dのうち、一の立体オブジェクト 1 001にかかっていない側の端辺 Cを抽出する。そして、端辺 Aの頂点 a、頂点 bを、端 辺 Cの頂点 e、頂点 fに引き伸ばし、また、端辺 Bの頂点 c、頂点 dを端辺 Cの頂点 e、 頂点 fに引き伸ばすことによって、三角柱形状の補完立体オブジェクト 1100を描画す ることがでさる。
[0043] なお、上述した地図情報データベース 201および道路ネットワークデータベース 20 2は、具体的には、たとえば、図 1に示した ROM102、 RAM103、 HD105、 CD/ DVD107などの記録媒体によってその機能を実現する。また、地図情報抽出部 203 、リンク長情報抽出部 204、および生成部 206は、具体的には、たとえば、図 1に示し た ROM102、 RAM103、 HD105、 CDZDVD107などの記録媒体に記録された プログラムを CPU101またはグラフィックプロセッサ 120に実行させることによって、ま たは入力 IZF111によって、その機能を実現する。
実施例 1
[0044] つぎに、実施例 1にかかる地図情報生成処理手順について説明する。図 11は、実 施例 1にかかる地図情報生成処理手順を示すフローチャートである。図 11にお!/、て 、まず、形状データ抽出部 231によって、地図情報データベース 201内の立体道路 オブジェクト 303から、断面 Sを含む形状データ 310を抽出する(ステップ S1201)。 また、テクスチャ情報抽出部 232によって、この立体道路オブジェクト 303から、路面 テクスチャ 501および描画周期情報 Pからなるテクスチャ情報を抽出する (ステップ S 1202)。
[0045] そして、形状描画部 261によって、抽出した形状データ 310の断面 Sに直交する方 向に、形状データ 310を引き伸ばして見えるように描画する(ステップ S 1203)。この あと、引き伸ばしたことによって生成された、立体道路オブジェクト 303と同一形状の 立体オブジェクトの表面に、テクスチャ描画部 262によって、路面テクスチャ 501を描 画周期情報 P分、描画する (ステップ S 1204)。
[0046] この実施例 1によれば、形状データ 310を引き伸ばすことによって、少ないデータ量 で、地図情報データベース 201に記憶されている立体道路オブジェクト 303と同一形 状および同一路面テクスチャ 501を有する立体オブジェクトを生成することができる。 実施例 2
[0047] つぎに、実施例 2にかかる地図情報生成処理手順について説明する。図 12は、実 施例 2にかかる地図情報生成処理手順を示すフローチャートである。なお、図 12に おいて、図 11に示したステップと同一ステップには同一ステップ番号を付し、その説 明を省略する。
[0048] 図 12において、ステップ S1201のあと、道路ネットワークデータベース 202から、形 状データ抽出部 231によって形状データ 310が抽出された立体道路オブジェクト 30 3に対応するリンク 401のリンク長情報(リンクの長さ L)を抽出する (ステップ S 1301) 。そして、ステップ S1202のあと、形状データ 310の断面 Sに直交する方向に、リンク 長情報に基づいて、リンク 401の長さ L分、形状データ 310を引き伸ばして見えるよう に描画する(ステップ S1302)。このあと、ステップ S 1204〖こ移行する。
[0049] この実施例 2によれば、リンク 401の長さ L分、形状データ 310を引き伸ばすことに よって、立体道路オブジェクト 303と同一形状の立体オブジェクトを生成することがで きるため、図 4に示した道路ネットワークデータ 400に対応した立体オブジェクトを生 成することができる。また、カーブのように、道路が 2次元的に曲がっている場合にお いても、ノード 402によって連結された複数のリンク 401をそれぞれ、当該リンク 401 の長さ方向に引き伸ばすことによって、地図情報データベース 201に記憶されて 、る 立体道路オブジェクト 303を再現することができる。
実施例 3
[0050] つぎに、実施例 3にかかる地図情報生成処理手順について説明する。図 13は、実 施例 3にかかる地図情報生成処理手順を示すフローチャートである。なお、図 13に おいて、図 11および図 12に示したステップと同一ステップには同一ステップ番号を 付し、その説明を省略する。
[0051] 図 13において、ステップ S1301のあと、道路ネットワークデータベース 202から、リ ンク 401の方向を示す高低差情報、具体的には、リンク 401の両端のノード 402の座 標から高低差を抽出する (ステップ S1401)。そして、ステップ S1202のあと、高低差 情報によって示されたリンク 401の方向に、リンク長情報によって示されたリンク 401 の長さ L分、形状データ 310を引き伸ばして見えるように描画する (ステップ S 1402) 。このあと、ステップ S 1204〖こ移行する。
[0052] この実施例 3によれば、リンク 401の高低差が示す方向に沿って、形状データ 310 を引き伸ばすことによって、勾配がある坂道などの立体オブジェクトの連結部分を、 隙間 1000がないように描画することができ、実際の路面に即した形状のオブジェクト を生成することができる。
実施例 4
[0053] つぎに、実施例 4にかかるテクスチャ描画処理手順について説明する。図 14は、実 施例 4にかかるテクスチャ描画処理手順を示すフローチャートである。このテクスチャ 描画処理手順は、図 11一図 13に示したステップ S 1204の処理の一例を示すフロー チャートである。
[0054] 図 14において、まず、テクスチャ情報抽出部 232によって抽出されたテクスチャを、 そのテクスチャの描画周期情報 Pのうち整数値分描画する (ステップ S1501)。た とえば、描画周期情報 Pが「10. 3」の場合、整数値「10」枚描画する。つぎに、描画 周期情報 Pに小数点以下の値、すなわち、端数となる小数値が含まれているかどうか を判定する (ステップ S1502)。端数がない場合 (ステップ S1502 :No)、すなわち、 端数が「0」の場合、処理を終了する。この場合は、形状描画部 261によって形状デ ータ 310を引き伸ばした立体オブジェクトの長さ方向において、一端力も他端まで路 面テクスチャ 501が描画されたことを示している。
[0055] 一方、端数がある場合 (ステップ S 1502 : Yes)、テクスチャ描画部 262は、描画周 期情報 Pの小数値に対応する範囲のテクスチャを、形状描画部 261によって生成さ れたオブジェクトに描画する(ステップ S 1503)。具体的には、図 8に示したように、 11 枚目の路面テクスチャ 502のうち、端数に応じた範囲のテクスチャ、すなわち、 0. 3枚 分に相当する一部のテクスチャ 503を切り出して描画する。
[0056] この実施例 4によれば、描画周期情報 Pの小数値 (端数)の大きさによって、小数値 に相当するテクスチャの描画をおこなうことができる。
実施例 5
[0057] つぎに、実施例 5にかかる補完処理について説明する。図 15は、実施例 5にかかる 補完処理手順を示すフローチャートである。図 15において、まず、検出部 263によつ て、連結されている立体オブジェクト 1001, 1002の端面形状データ 1011, 1012ど うしが交差しているかどうかを検出する (ステップ S1601)。端面形状データ 1011, 1 012が交差して!/、な!/、場合 (ステップ S 1601: No)、処理を終了する。
[0058] 一方、端面形状データ 1011, 1012が交差している場合 (ステップ S1601 : Yes)、 補完立体オブジェクト 1100の描画をおこなう端辺 A— Cを決定する(ステップ S1602 ) o具体的には、連結されている一方の立体オブジェクト 1001の端面形状データ 10 11の厚さ方向の 2つの端辺 A、端辺 Bを抽出する。また、他方の立体オブジェクト 10 02の端面形状データ 1012の厚さ方向の 2つの端辺 C、端辺 Dのうち、一の立体ォブ ジェタト 1001にかかっていない側の端辺 Cを抽出する。これにより、補完立体ォブジ ェクト 1100の描画をおこなう端辺 A— Cを決定する。
[0059] そして、決定された端辺 A— Cを用いて補完立体オブジェクト 1100を描画する(ス テツプ S1603)。具体的には、端辺 Aの頂点 a、頂点 bを、端辺 Cの頂点 e、頂点 fに引 き伸ばし、また、端辺 Bの頂点 c、頂点 dを端辺 Cの頂点 e、頂点 fに引き伸ばして見え るように描画することによって、三角柱形状の補完立体オブジェクト 1100を描画する ことができる。
[0060] この実施例 5によれば、カーブなどの立体オブジェクトの連結部分を、隙間 1000が な 、ように描画することができ、実際の路面に即した形状のオブジェクトを生成するこ とがでさる。
[0061] 以上説明したように、この発明の実施の形態に力かる地図情報生成装置、地図情 報生成方法、および地図情報生成プログラムによれば、少ないデータ量でリアルな 3 次元の地図情報 300を生成することができる。またこれにより、大容量メモリを用いる 必要がなぐ容量の小さい安価なメモリを採用することができる。
[0062] 特に、車載型または携帯型ナビゲーシヨン装置にも適用する場合、入力した視点座 標から眺める範囲内の地図情報 300を抽出するため、表示に必要な場合のみ、必要 な立体道路オブジェクトを擬似的に立体表示することができる。また、汎用的な立体 オブジェクトの共有が可能になるため、地図情報 300のデータ量の削減を図ることが できる。 [0063] また、リアルな 3次元の地図情報 300を再現することができるため、ユーザは、表示 画面に表示されている地図情報 300が実際に肉眼によって目視している風景である と直感的に認識することができる。これにより、表示されている地図情報 300と目視し ている風景との不一致によってユーザが迷うことがなぐユーザは安全に運転すること ができる。
[0064] なお、本実施の形態で説明した地図情報生成方法は、予め用意されたプログラム をパーソナル.コンピュータやワークステーションもしくは組み込み機器等のコンビュ ータで実行することにより実現することができる。このプログラムは、ハードディスク、フ レキシブルディスク、 CD、 DVD, MO、メモリカード、 RAM, ROM等のコンピュータ で読み取り可能な記録媒体に記録され、コンピュータによって記録媒体力 読み出さ れることによって実行される。またこのプログラムは、インターネット等のネットワークを 介して配布することが可能な伝送媒体であってもよ 、。

Claims

請求の範囲
[1] 幅、厚さおよび長さからなる立体形状を示す立体オブジェクトを含む地図情報から
、前記立体オブジェクトの少なくとも前記幅および厚さからなる断面を含む形状デー タを抽出する形状データ抽出手段と、
前記形状データ抽出手段によって抽出された形状データに基づいて、前記立体ォ ブジエタトと同一形状の立体オブジェクトを生成する生成手段と、
を備えることを特徴とする地図情報生成装置。
[2] 長さに関する情報が格納されたデータから、前記立体オブジェクトの長さ情報を抽 出する長さ情報抽出手段を備え、
前記生成手段は、
さらに、前記長さ情報抽出手段によって抽出された長さ情報に基づいて、前記立体 オブジェクトと同一形状の立体オブジェクトを生成することを特徴とする請求項 1に記 載の地図情報生成装置。
[3] 前記長さに関する情報として、複数のリンクが接続された道路のネットワークデータ 力も、リンクの長さに関するリンク長情報を抽出するリンク長情報抽出手段を備え、 前記生成手段は、
さらに、前記リンク長情報抽出手段によって抽出されたリンク長情報に基づいて、立 体道路オブジェクトと同一形状の立体オブジェクトを生成することを特徴とする請求項 1または 2に記載の地図情報生成装置。
[4] 複数のリンクが接続された前記道路のネットワークデータから、前記リンクの方向に 関するリンク方向情報を抽出するリンク方向情報抽出手段を備え、
前記生成手段は、
さらに、前記リンク方向情報抽出手段によって抽出されたリンク方向情報に基づい て、前記立体道路オブジェクトと同一形状の立体オブジェクトを生成することを特徴と する請求項 1または 2に記載の地図情報生成装置。
[5] 前記地図情報の前記立体オブジェクトから、当該立体オブジェクトの任意の表面に 描画されているテクスチャと、当該テクスチャの描画周期に関する描画周期情報と、 前記任意の表面の代表色の情報とからなるテクスチャ情報を抽出するテクスチャ情 報抽出手段を備え、
前記生成手段は、
さらに、前記テクスチャ情報抽出手段によって抽出されたテクスチャ情報に基づい て、前記地図情報の立体オブジェクトと同一形状でかつ同一テクスチャを有する立体 オブジェクトを生成することを特徴とする請求項 1または 2に記載の地図情報生成装 置。
[6] 前記生成手段は、
前記生成手段によって生成された一の立体オブジェクトの端面を示す第 1の端面 形状データと、前記一の立体オブジェクト以外の他の立体オブジェクトの端面を示す 第 2の端面形状データとが交差しているかどうかを検出する検出手段を備え、 前記検出手段によって検出された検出結果に基づいて、前記第 1および第 2の端 面形状データの頂点を引き伸ばすように描画することによって、前記一の立体ォブジ ェタトと前記他の立体オブジェクトどうしを補完する補完立体オブジェクトを生成するこ とを特徴とする請求項 1または 2に記載の地図情報生成装置。
[7] 幅、厚さおよび長さからなる立体形状を示す立体オブジェクトを含む地図情報から 、前記立体オブジェクトの少なくとも前記幅および厚さからなる断面を含む形状デー タを抽出する形状データ抽出工程と、
前記形状データ抽出工程によって抽出された形状データに基づいて、前記立体ォ ブジエタトと形状が同一となる同一形状オブジェクトを生成する生成工程と、
を含んだことを特徴とする地図情報生成方法。
[8] 請求項 7に記載の地図情報生成方法を、コンピュータに実行させることを特徴とす る地図情報生成プログラム。
PCT/JP2005/004493 2004-03-31 2005-03-15 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム WO2005098792A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP05726662A EP1752948A4 (en) 2004-03-31 2005-03-15 CARDINFORMATION GENERATION DEVICE, CARDINFORMATION GENERATION PROCESS AND CARDINFORMATION GENERATION PROGRAM
CN2005800107760A CN1938739B (zh) 2004-03-31 2005-03-15 地图信息生成装置、地图信息生成方法
US10/594,426 US20080238914A1 (en) 2004-03-31 2005-03-15 Map Information Creating Device, Map Information Creating Method, and Map Information Creating Program
JP2006511944A JP4776531B2 (ja) 2004-03-31 2005-03-15 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004108250 2004-03-31
JP2004-108250 2004-03-31
JP2004381827 2004-12-28
JP2004-381827 2004-12-28

Publications (1)

Publication Number Publication Date
WO2005098792A1 true WO2005098792A1 (ja) 2005-10-20

Family

ID=35125297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/004493 WO2005098792A1 (ja) 2004-03-31 2005-03-15 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム

Country Status (5)

Country Link
US (1) US20080238914A1 (ja)
EP (1) EP1752948A4 (ja)
JP (1) JP4776531B2 (ja)
CN (1) CN1938739B (ja)
WO (1) WO2005098792A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104063A (ja) * 2007-10-25 2009-05-14 Denso Corp 地図表示装置
JP2011007755A (ja) * 2009-06-29 2011-01-13 Victor Co Of Japan Ltd ナビゲーション装置およびナビゲーション方法
WO2012032570A1 (ja) * 2010-09-07 2012-03-15 三菱電機株式会社 道路描画装置および道路描画方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7590487B2 (en) * 2006-08-10 2009-09-15 Alpine Electronics, Inc. Method and apparatus of displaying three-dimensional arrival screen for navigation system
EP2543964B1 (en) 2011-07-06 2015-09-02 Harman Becker Automotive Systems GmbH Road Surface of a three-dimensional Landmark
CN103593872B (zh) * 2013-09-24 2016-09-07 沈阳美行科技有限公司 一种导航地图展现真实实景空间的方法
CN103559726B (zh) * 2013-11-21 2017-02-15 广东威创视讯科技股份有限公司 一种地图配色方法及着色器
CN107430403B (zh) * 2015-03-31 2021-03-23 深圳市大疆创新科技有限公司 具有地理围栏设备级别的***和方法
CN107409051B (zh) 2015-03-31 2021-02-26 深圳市大疆创新科技有限公司 用于生成飞行管制的认证***和方法
EP3152089A4 (en) 2015-03-31 2017-08-02 SZ DJI Technology Co., Ltd. Systems and methods for geo-fencing device communications
CN106197439B (zh) * 2016-06-24 2019-08-02 百度在线网络技术(北京)有限公司 道路绘制方法及装置
US10183677B2 (en) * 2016-09-20 2019-01-22 Ford Global Technologies, Llc Ice and snow detection systems and methods
CN109520513B (zh) * 2018-10-22 2020-08-07 浙江吉利汽车研究院有限公司 一种三维地图绘制方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190524A (ja) * 1996-01-10 1997-07-22 Canon Inc 図形処理装置及びその方法
JPH1196396A (ja) * 1997-09-19 1999-04-09 Matsushita Electric Ind Co Ltd 仮想物体が配された仮想空間内の光景を示す画像を表示する画像表示装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2760253B2 (ja) * 1992-07-14 1998-05-28 住友電気工業株式会社 道路の動画像作成方法及びこの方法を適用した車載ナビゲーション装置
JP3611351B2 (ja) * 1994-11-21 2005-01-19 株式会社日立製作所 立体図形データの記録方法
US6142871A (en) * 1996-07-31 2000-11-07 Konami Co., Ltd. Apparatus, method and recorded programmed medium for simulating driving using mirrors displayed in a game space
JP3375258B2 (ja) * 1996-11-07 2003-02-10 株式会社日立製作所 地図表示方法及び装置並びにその装置を備えたナビゲーション装置
US6084980A (en) * 1997-05-13 2000-07-04 3D Systems, Inc. Method of and apparatus for deriving data intermediate to cross-sectional data descriptive of a three-dimensional object
JP3419648B2 (ja) * 1997-05-27 2003-06-23 株式会社日立製作所 ナビゲーション装置
JPH1152845A (ja) * 1997-08-08 1999-02-26 Aisin Aw Co Ltd 地図表示装置及び記録媒体
GB2328744B (en) * 1997-08-28 2002-02-13 Denso Corp Route guidance apparatus
KR100362817B1 (ko) * 1997-10-27 2002-11-30 마쯔시다덴기산교 가부시키가이샤 삼차원 지도 표시장치, 그것에 사용되는 모델 변형용 데이터, 삼차원 다각형 데이터 또는 삼차원 이미지 데이터 작성장치, 그의 데이터에 기초하여 표시를 실행하는 네비게이션 장치, 삼차원 지도 표시방법, 및 모델 변형용 데이터를 기억한 매체
JP2004271901A (ja) * 2003-03-07 2004-09-30 Matsushita Electric Ind Co Ltd 地図表示装置
JP4138574B2 (ja) * 2003-05-21 2008-08-27 株式会社日立製作所 カーナビゲーション装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190524A (ja) * 1996-01-10 1997-07-22 Canon Inc 図形処理装置及びその方法
JPH1196396A (ja) * 1997-09-19 1999-04-09 Matsushita Electric Ind Co Ltd 仮想物体が配された仮想空間内の光景を示す画像を表示する画像表示装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"International Standard ISO/IEC 14772-1:1997", 1997, THE VRML CONSORTIUM INCORPORATED, article "The Virtual Reality Modelling Language (VRML97"
MUKAI T. ET AL.: "VR-Teki Kotsu Kankyo Simulation System.", TRANSACTIONS OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 39, no. 1, 15 January 1998 (1998-01-15), pages 142 - 151, XP002992650 *
See also references of EP1752948A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009104063A (ja) * 2007-10-25 2009-05-14 Denso Corp 地図表示装置
JP2011007755A (ja) * 2009-06-29 2011-01-13 Victor Co Of Japan Ltd ナビゲーション装置およびナビゲーション方法
WO2012032570A1 (ja) * 2010-09-07 2012-03-15 三菱電機株式会社 道路描画装置および道路描画方法
JP5430768B2 (ja) * 2010-09-07 2014-03-05 三菱電機株式会社 道路描画装置および道路描画方法

Also Published As

Publication number Publication date
JPWO2005098792A1 (ja) 2008-02-28
JP4776531B2 (ja) 2011-09-21
CN1938739A (zh) 2007-03-28
EP1752948A1 (en) 2007-02-14
US20080238914A1 (en) 2008-10-02
CN1938739B (zh) 2012-08-29
EP1752948A4 (en) 2010-04-28

Similar Documents

Publication Publication Date Title
JP4776531B2 (ja) 地図情報生成装置、地図情報生成方法、および地図情報生成プログラム
Galin et al. Authoring hierarchical road networks
TW201335832A (zh) 根據觸控手勢產生分割畫面之方法
JP2008542827A (ja) 非透視画法による可変縮尺の地図表示
US6449557B2 (en) Device and method for changing map information
KR100634536B1 (ko) 3차원 그래픽스 환경에서의 2차원 고가도로 데이터의 3차원 변환 방법 및 장치, 그리고 이를 이용한 3차원 그래픽스 환경에서의 2차원 고가도로 데이터의 3차원 시각화 방법 및 장치
JPH07271999A (ja) 3次元地形出力方法
JP4809683B2 (ja) 解析モデル生成装置,解析モデル生成方法および解析モデル生成プログラム
JP2837584B2 (ja) 地形データの作成方法
KR20120129627A (ko) 3차원 디자인 변환 시스템, 방법과 프로그램 기록매체 및 3차원 뷰어
KR101116733B1 (ko) 3차원 공간에서 틀린 그림 판별장치 및 방법 및 기록매체
JP3572253B2 (ja) 3次元モデル生成方法及び装置、並びにこの方法の実行プログラムを記録した記録媒体
JP3313679B2 (ja) 鳥瞰及び走行シミュレーションシステム及び記録媒体
JP2001184373A (ja) 図面生成方法およびシステムおよび3次元モデルデータから2次元図面を生成する図面生成プログラムを記録したコンピュータ読み取り可能な記録媒体
KR20020027581A (ko) 투명체의 동적 투시 변형 평가방법 및 투명체의 삼차원형상 설계 지원 방법
Otero et al. An application of computer graphics for landscape impact assessment
CN117576255B (zh) 作业区域确定方法、装置、计算机设备和存储介质
CN114283441B (zh) 适用于铁路客站的二维图纸识别建模方法和装置
Henneman et al. Augmented Reality for Sculpture Stability Analysis and Conservation
TWI312476B (ja)
JP2006260119A (ja) 3次元形状処理装置、3次元形状処理方法、プログラムおよび記録媒体
JPH0644350A (ja) 平面表示による6面体を主とした有限要素法の固体要素生成方法
Cartwright Using 3D models for visualizing “The city as it might be”
CN115761279A (zh) 空间布局相似性检测方法、设备、存储介质及装置
TWI245233B (en) Method for locating a position in a computer terrain model

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006511944

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2005726662

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10594426

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580010776.0

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2005726662

Country of ref document: EP