WO2004042675A1 - 視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム - Google Patents

視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム Download PDF

Info

Publication number
WO2004042675A1
WO2004042675A1 PCT/JP2003/014118 JP0314118W WO2004042675A1 WO 2004042675 A1 WO2004042675 A1 WO 2004042675A1 JP 0314118 W JP0314118 W JP 0314118W WO 2004042675 A1 WO2004042675 A1 WO 2004042675A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
dimensional
degree
point sequence
coordinate
Prior art date
Application number
PCT/JP2003/014118
Other languages
English (en)
French (fr)
Inventor
Tatsuro Chiba
Original Assignee
Asia Air Survey Co.,Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co.,Ltd. filed Critical Asia Air Survey Co.,Ltd.
Priority to CN2003801027529A priority Critical patent/CN1711568B/zh
Priority to AU2003277561A priority patent/AU2003277561A1/en
Priority to US10/533,675 priority patent/US7764282B2/en
Priority to JP2004549616A priority patent/JP3670274B2/ja
Publication of WO2004042675A1 publication Critical patent/WO2004042675A1/ja
Priority to US12/786,718 priority patent/US7876319B2/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/12Relief maps

Definitions

  • the present invention relates to a visualization processing system, a visualization processing method, and a visualization processing program.
  • the present invention relates to a three-dimensional vector (for example, three-dimensional terrain data) or a multi-dimensional vector in which substantially three components are collectively displayed.
  • a vector field for example, a set of topographic data representing the ground surface
  • three-dimensional vectors are distributed for specific three components in a dimensional vector (for example, data having both three-dimensional topographic data and geological data)
  • the present invention can provide a three-dimensional effect visually by expressing the height and inclination of the unevenness of the terrain based on a large amount of digital image data represented by three-dimensional coordinates by using a color tone instead of a contour line.
  • the present invention relates to a visualization processing system, a visualization processing method, and a visualization processing program for generating an inclined reddish three-dimensional image.
  • the two components are converted to coordinate values, the intersection is plotted on a two-dimensional plane, and the attribute of the third component remaining at each intersection is added (eg, For example, a town map is known, but this does not make it easy to grasp the difference between the third component.
  • attribute characteristics of the third component are also displayed graphically (for example, city street maps), the localization of information cannot be avoided, and continuous changes in attributes are not possible. I do not understand.
  • the terrain is divided into grids, and elevation values are added to the data to obtain DEM (Digital Elavation Model) data. Then, for example, the parameters related to the terrain's altitude, slope angle, slope direction, Laplacian, basin classification, water system, etc. can be calculated, and the calculation results distributed on the surface can be converted to corresponding images.
  • DEM Digital Elavation Model
  • Aircraft laser measurement provides data with more detailed information. Not all of these days are included in topographic maps.
  • the terrain image displayed in gray scale (brightness stage) or rainbow color (hue stage) allows intuitive visual recognition of the geometric features of the terrain and its distribution, and is useful but effective.
  • the stereoscopic effect cannot be obtained.
  • a three-dimensional image is an image viewed from a specific direction, in which the shadow is not visible, and the distance is small, and the resolution is insufficient near. Moreover, it takes time to create an image.
  • Contour lines are suitable for expressing the topography of mountains, but on steep slopes (for example, steep cliffs) or gently sloping or flat terrain (plains), the contours that are gradually assigned heights are extremely aggregated and discrete. It takes time to interpret the terrain.
  • the angle and direction of the slope will be inferred from the change in the interval between the contour lines, so that it will not be adapted to simple enlargement or reduction, and may need to be remade. If the contour lines are crowded, there will be no gaps and replace with cliff symbols. This is time-consuming and an obstacle to vectorization.
  • the present invention provides a visualization processing system for visualizing a vector field on a substantially two-dimensional visual field in an intuitively visible manner, including its local three-dimensional attribute. It is an object to provide a method and a visualization processing program.
  • the present invention also provides a visualization processing system, a visualization processing method, and a visualization processing program for generating an inclined reddish three-dimensional image that allows a user to grasp the height and gradient of the terrain three-dimensionally at a glance. Is the task. Summary of the invention
  • a visualization processing system comprises: a first operation unit for mapping a vector field to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence; A second operator for calculating a levitation degree in a local area of a plane connecting the columns, a third operator for calculating a squat degree in a local area of the plane connecting the coordinate point sequences, the levitation degree and the squat degree A fourth operator for obtaining the degree of floating / sinking in a local region of the plane connecting the coordinate point sequence by combining the above and a coordinate point map onto a two-dimensional surface, and A fifth operator for performing a gradation display corresponding to the degree of floating in a two-dimensional area corresponding to the divided area.
  • a vector field is mapped to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence, and the degree of levitation in a local region of a surface connecting the coordinate point sequence, that is, the degree of swelling ( For example, the degree of ridge of the topographic map) and the degree of subsidence, that is, the degree of subduction (for example, the degree of valley of the topographic map) are determined, and these are weighted purposefully (in a broad range including the difference).
  • the degree of swelling For example, the degree of ridge of the topographic map
  • the degree of subsidence that is, the degree of subduction
  • the degree of floating and sinking in the local area that is, the degree of swelling and sinking (for example, the degree of ridge and valley in the topographic map) is obtained, and this is expressed in a gradation table in the corresponding area on the two-dimensional plane. Therefore, the vector field can be visualized on a substantial two-dimensional surface in an intuitively visible manner, including its local three-dimensional attributes.
  • the levitation is preferably represented by a solid angle on one side in a local region of a plane connecting the coordinate point sequence.
  • the squat degree is preferably represented by a solid angle on the other surface side in a local region of the surface connecting the coordinate point sequence.
  • the visualization processing system preferably further includes a sixth operator for obtaining a gradient distribution of a surface connecting the coordinate point sequence, and the fifth operation is preferably performed on the two-dimensional surface.
  • the gradient distribution is displayed in a color tone (more preferably in a red color), that is, a saturation display, and the gradation display is performed with respect to the brightness.
  • the visualization processing system further comprises: a seventh operator that obtains attribute isolines by connecting coordinate points having the same attribute in the vector field in the coordinate point sequence, and the gradation display. And an eighth operation for mapping the attribute isolines on the two-dimensional plane on which the processing has been performed.
  • the visualization processing method includes: a first step of mapping a vector field to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence; and a floating process in a local area of a surface connecting the coordinate point sequence.
  • a second step of determining the degree of squat a third step of determining the degree of squat in a local region of a plane connecting the coordinate point sequence,
  • a visualization processing program includes: a first process of mapping a vector field to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence; and a levitation degree in a local region of a surface connecting the coordinate point sequence.
  • the fifth processing for displaying the gradation of the floating / sinking degree is performed so as to be performed in a convenience store.
  • a visualization processing system for generating a tilted red stereoscopic image according to the present invention is characterized by comprising a database storing a large number of digital data provided with three-dimensional coordinates, and a computer.
  • a means for generating an inclined reddish image assigned to the mesh having the point of interest and a means for generating a grayscale image having lightness changed according to the ridge-valley degree of the mesh having the point of interest.
  • a visualization processing method for generating a tilted red-colored stereoscopic image includes the steps of: generating a stereoscopic contour image having contour lines connecting three-dimensional coordinates having the same Z value of digital data; and A step of allocating points of interest to each mesh and calculating an average of the difference in Z values between the meshes adjacent to the mesh having the point of interest, and a step of calculating the magnitude of the difference between the averages.
  • a visualization processing program for generating a tilted red-colored stereoscopic image includes: a computer for reading a large number of digital data provided with three-dimensional coordinates; Means for generating a three-dimensional contour image having contour lines connecting the dimensional coordinates; means for meshing the contour lines; assigning a point of interest to each mesh; A means for obtaining an average of the difference between the Z values; a means for generating an inclined red-colored image in which a red gradation corresponding to the degree of the magnitude of the average difference is assigned to a mesh having the point of interest; Means for generating a grayscale image having lightness changed in accordance with the degree of ridge and valley of the mesh, and multiplying and synthesizing the inclined reddish image with the grayscale image
  • a computer for reading a large number of digital data provided with three-dimensional coordinates
  • FIG. 1 is a block diagram of a visualization processing system according to a first embodiment of the present invention
  • Figure 2 is a flow chart showing the processing procedure and processing results of the visualization processing system of Figure 1;
  • FIG. 3 is a detailed view of part A of the flowchart of Figure 2;
  • Fig. 4 is a detailed view of part B of the flowchart of Fig. 2;
  • FIG. 5 is a detailed view of part C of the flowchart of Figure 2;
  • Fig. 6 is a detailed view of part D of the flowchart of Fig. 2;
  • Fig. 7 is a detailed view of part E of the flowchart of Fig. 2;
  • Fig. 8 is a detailed view of part F of the flowchart of Fig. 2;
  • Fig. 9 is a detailed view of part G of the flowchart of Fig. 2;
  • FIG. 10 is a detailed view of a part H of the flowchart of FIG. 2;
  • FIG. 11 is a block diagram of a visualization processing system for generating a tilted red stereoscopic image according to the second embodiment of the present invention.
  • Figure 12 is an illustration of laser measurement in the visualization processing system of Figure 11;
  • Figure 13 is an illustration of the 8-way array in the visualization processing system of Figure ;
  • Fig. 14 is an illustration of the principle of the ground opening and the basement opening in the visualization processing system of Fig. 11;
  • Figure 15 is an illustration of the main pattern of the above-ground and underground openings in the visualization processing system of Figure 11;
  • Fig. 16 is a three-dimensional illustration of the above-ground opening and underground opening in the visualization processing system of Fig. 11;
  • Figure 17 is an illustration of the sampling points and distances of the above-ground and underground openings in the visualization processing system of Figure 11;
  • Fig. 18 is an explanatory diagram of grace case assignment in the visualization processing system of Fig. 11;
  • FIG. 19 is a block diagram of a projection-enhanced image generation unit, a depression-enhanced image generation unit, and a first synthesis unit of the visualization processing system of FIG. 11;
  • FIG. 20 is a block diagram of a gradient-enhanced image creation unit and a second synthesis unit of the visualization processing system of FIG. 11;
  • Fig. 21 is an illustration of the generation process of the ground opening image, the ground opening image and the composite image in the visualization processing system of Fig. 11;
  • FIG. 22 is a diagram illustrating a process of generating a tilted reddish stereoscopic image in the visualization processing system of FIG. 11;
  • Fig. 23 shows a stereoscopic image of Mt. Aokigahara obtained by the visualization processing system of Fig. 11;
  • Figure 24 is a topographic map with contour lines based on aerial photogrammetry of the area south of Tenjinyama Ski Resort in Mt. Aokigahara, Mt. Fuji;
  • Figure 25 is a topographic map with contour lines based on laser survey data in the same area;
  • Figure 26 is an enlarged view showing a stereoscopic image of the same area;
  • Figure 27 is an enlarged view showing a stereoscopic image of another area
  • Figure 28 is an enlarged view showing a stereoscopic image of another area
  • Figure 29 is a fluoroscopic view of the human body
  • FIG. 30 is a step slice image of the perspective view of FIG. 29;
  • Fig. 31 is a red gradation floating / sinking distribution image obtained by processing the perspective view of Fig. 29 with the visualization processing system of Fig. 1;
  • FIG. 32 is a composite image obtained by superimposing the image of FIG. 31 on the image of FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram of the visualization processing system VPS1 according to the present embodiment
  • FIG. 2 is a flowchart showing the processing procedures ⁇ to ⁇ 8 and the processing results ⁇ to of the system VPS1
  • FIG. 7 is a diagram showing processing results ⁇ to ⁇ in detail.
  • the visualization processing system VPS1 consists of a central information processing unit (CPU) 51 composed of an appropriate combination of workstations, processors, microcomputers, logic, registers, etc., and a central information processing unit 5 Control required for 1 ⁇ Keyboard (KB) for inputting operation information, information input section 54 including mouse, interactive soft switch, external communication channel, etc., and information output from central information processing device 51 Display in a broad sense-An information output unit 55 including a display, a printer, and an external communication channel to be transmitted, and a ROM (R) storing information such as the operating system and application programs read by the central information processing unit 51.
  • CPU central information processing unit
  • OM OM
  • OM OM
  • a second storage unit 3 of the ram (RAM) or the like that stores information to be written can.
  • the first and second storage units 52, 53 may be integrated and subdivided as appropriate.
  • the first storage unit 52 stores a visualization processing program 60 that operates on a predetermined application.
  • the first to eighth processing files 6 1 to 6 including programs that can be read into the central information processing device 51 and execute the eight visualization processes P 1 to P 8 shown in FIG.
  • the classification and deployment of these programs can be freely set.
  • the second storage unit 53 stores a vector field 70 to be processed by the visual processing program 60.
  • This vector field 70 may be a finite set (total N) of information vectors having one or more components capable of extracting substantially three or more types of information. For a point of interest representing a small finite divided area on the surface of the mountainous area of Fuji, an identification (Id) number whose longitude information and latitude information can be confirmed in a reference table, and an altitude difference from an adjacent point of interest or a triangular reference point.
  • the first processing file 61 further includes a curved surface S that connects a sequence ⁇ Q n : n ⁇ N ⁇ of coordinate points with Id of an appropriate number less than or equal to the total number N in the coordinate space 80 with a required smoothness. Is calculated by the least squares method, etc., divided into a total of M (M ⁇ N) microscopic surface areas ⁇ S m : m ⁇ M ⁇ , each point of interest Q ffl is determined, and related information is stored in the storage unit. 5 Store in 3.
  • the second processing file 6 2 is located from the point of interest Q m for each surface area S ses.
  • Fig. 3 shows an image in which this levitation is displayed in gradation over the entire curved surface S as the processing result A. This image A clearly shows the ridge side of the terrain, that is, the convexity (of the curved surface S) like a convexity.
  • Third processing file 6 3 relates to the aforementioned surface area S m, the local region of the back side (Z- side) of the target point Q m curved located within the predetermined radius from the S - Verify, which thereby defined openness around focused point Q m that (i.e., sight solid angle or equivalent second order differential value against the land side) m - asking (processing of FIG. 2 P3), stored as a subsidence of the surface area S m I do.
  • Fig. 5 shows an image in which this degree of squat is displayed in gradation over the entire curved surface S as the processing result C.
  • This image C clearly shows the valley side of the terrain, that is, the concave portion (of the curved surface S), like a concave portion. It should be noted that this image C is not a simple inversion of the image ⁇ .
  • the fourth processing file 6 4 is for the surface area S m , the distribution in which the levitation V m + and the subsidence m — are determined purposefully (that is, according to which of the ridges and valleys is more important).
  • ratio w +: w- (w + + w- 0) by weighting synthesis (w + ⁇ m + + w - ⁇ m) , the front and back of a local region of the surface S is located in said predetermined radius within alpha, - ) is determined three-dimensional effect to bring about a focused point Q m (processing in FIG. 2 P4), stored as floating-sinking degree m of surface area.
  • FIG. 4 shows the processing result B of an image in which the degree of floating m is displayed gradationally over the entire curved surface S.
  • This image B emphasizes the ridges and valleys of the terrain and enhances the visual stereoscopic effect by clearly showing the convex portions (of the curved surface S) as convex portions and the concave portions as concave portions.
  • This file 66 obtains the maximum gradient (or equivalent differential value) G m of the above-mentioned surface area S m directly or indirectly through the least square method (the processing in FIG. 2).
  • P 6 is stored as the gradient G m of the surface area S m .
  • Fig. 6 shows an image (achromatic display image) in which this gradient G m is displayed in red tones R over the entire curved surface S as the processing result D.
  • This image D also has the effect of visually creating a three-dimensional appearance of the terrain (that is, the curved surface S).
  • the fifth processing file 65 is obtained by mapping the three-dimensional coordinate space 80 together with its related information ( m , G ⁇ R) onto the two-dimensional surface 90 of the information output unit 55 (processing P5 in FIG. 2).
  • the R tone of the gradient G m is displayed and the R tone is displayed.
  • a gradation display corresponding to the floating / sinking degree m is performed.
  • This image (achromatic display image) is shown in Fig. 8 as the processing result F.
  • the terrain that is, the curved surface S
  • Image E in FIG. 7 the information of image D (i.e. R color indicating the inclination G m) floating-sinking degree corresponding to the image A (i.e. floating degree m +) processes the information file I le 6 5 in two
  • the result of mapping (process P5) to the 90-dimensional plane is shown, with the ridge being emphasized.
  • Image G of FIG. 9 the image D information and sink-float degree corresponding to the image C (inclination G m a R color shown) (i.e. subsidence degree m _) and information on the processing file 6 5 two-dimensional surface 9
  • the result of mapping to 0 (processing P5) is shown, with the valleys highlighted.
  • the seventh processing file 67 includes an attribute extracted from the component of the vector V n of the vector 70 in the column of the coordinate points Q n (in this embodiment, Calculate the attribute isolines (in this embodiment, contour lines and outlines of the terrain) Ea connecting the coordinate points Q n having the same altitude z n ), store them, and store or output or display them as necessary.
  • Figure 1 shows the display processing result I. As a result, I also contributes to grasping the three-dimensional shape of the terrain (that is, curved surface S).
  • the visualization processing system VPS1 includes a first operator (6 1) that maps the vector field 70 into a three-dimensional coordinate space 80 to obtain a corresponding coordinate point sequence Qm; A second operator (62) for obtaining a levitation degree V m + in a local region of a surface S connecting the coordinate system, and a third operator for obtaining a squat degree in a local region of the surface S connecting the coordinate point sequence
  • the operator means an element or a set or means for executing an arithmetic processing function or an arithmetic processing instruction that has been set or programmed in advance.
  • the visual processing system VPS1 further includes a sixth operator for obtaining the inclination G m distribution surface S connecting the sequence of coordinate points (6 6), the fifth The operator (65) displays the gradient distribution on the two-dimensional surface 90 with a red color R, and performs the gradation display on the brightness.
  • the visualization processing system VP S 1 further obtains an attribute isoline E a by connecting coordinate points having the same attribute in the vector 70 field in the sequence of coordinate points to obtain an attribute isoline E a. 67), and an eighth operator (68) for mapping the attribute isolines E a onto the two-dimensional surface 90 on which the gradation is displayed.
  • the vector field 70 can be visualized on the substantial two-dimensional surface 90 in a manner intuitively visible including its local three-dimensional attribute.
  • the visualization processing method includes: a first step P 1 of mapping a vector field to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence; and A second step P2 for obtaining a levitation degree in a region, a third step P3 for obtaining a squat degree in a local area of a plane connecting the coordinate sequence, and the levitation degree and the squat degree A fourth step P4 for obtaining the degree of floating / sinking in a local region of the surface connecting the coordinate point sequence by weighting and combining, and dividing the surface connecting the coordinate point sequence by mapping the coordinate space on a two-dimensional surface.
  • the visualization processing program 60 connects a first process P1 that maps a vector field to a three-dimensional coordinate space to obtain a corresponding coordinate point sequence, and the coordinate point sequence.
  • a second process P2 for calculating a levitation degree in a local region of a surface a third process P3 for obtaining a squat degree in a local region of a surface connecting the coordinate point sequence; and the levitation and the squat
  • Fig. 11 is a block diagram of the entire visualization processing system VPS2 including the inclined red-colored stereoscopic image generation device 4 according to the present embodiment
  • Fig. 12 is an explanatory diagram of laser measurement in the system VPS2
  • Figs. Fig. 14 is an explanatory diagram of the principle of opening above ground and underground
  • Fig. 15 is an explanatory diagram of main patterns of opening above ground and underground
  • Fig. 16 is a diagram of opening of above ground and underground.
  • Three-dimensional explanatory diagram Fig. 17 is an explanatory diagram of sample points and distances of the above-ground opening and underground opening
  • Fig. 18 is an explanatory diagram of grace case allocation
  • Fig. 11 is a block diagram of the entire visualization processing system VPS2 including the inclined red-colored stereoscopic image generation device 4 according to the present embodiment
  • Fig. 12 is an explanatory diagram of laser measurement in the system VPS2
  • Figs. Fig. 14 is an explanatory diagram of the principle of opening above
  • FIG. 19 is a convex-emphasized image generating unit, concave-part emphasis Block diagram of the image generation unit and the first synthesis unit
  • Fig. 20 is a block diagram of the gradient-enhanced image generation unit and the second synthesis unit
  • Fig. 21 is a ground opening image, underground opening image, and synthesized image.
  • FIG. 22 is an explanatory diagram of the generation process of the inclined reddish stereoscopic image.
  • Fig. 23 is a stereoscopic image of Mt.Aokigahara obtained by the visualization processing system VPS2, and Fig.24 is a topographic map with contour lines based on aerial photogrammetry in the area south of Tenjinyama Ski Resort at Mt.Aokigahara.
  • 25 is a topographic map with contour lines based on the laser survey data in the same area
  • Figure 26 is an enlarged view showing a stereoscopic image of the same area
  • Figure 27 is an enlarged view showing a stereoscopic image of another area
  • FIG. 28 is an enlarged view showing a stereoscopic image of another area.
  • This embodiment is based on DEM (Digital Elavation Model) data and corresponds to the gradient corresponding to the gradient Gm of the first embodiment and the levitation m + of the first embodiment. and ground opening, the three parameters Isseki the first embodiment underground opening be equivalent to subsidence of m _ Determination, and saves the planar distribution as Grayscale images.
  • DEM Digital Elavation Model
  • the difference image of the above-ground opening and the underground opening is gray, and the slope is the red channel
  • ridges and peaks are rendered whitish, valleys and depressions are rendered darker, and steeper parts are rendered redder.
  • the three-dimensional representation method of the three-dimensional map according to the present embodiment is that a mesh is formed between the contour lines, and the difference between each adjacent mesh, that is, the gradient, is expressed in a red color tone.
  • V m of the first embodiment in this embodiment, referred to as the ridge valleys of higher more brighter as compared with the periphery (ridge basis), more darker in comparison to surrounding It suggests that it is low (valley-like), and a three-dimensional effect is created by multiplying and combining the light and dark.
  • FIG. 11 shows a schematic configuration of an inclined red-colored stereoscopic image creating device 4 according to the present embodiment.
  • the inclined red-colored stereoscopic image creating device 4 of the present embodiment has a computer function described below.
  • various databases are connected to the inclined red-colored three-dimensional image creating device 4.
  • the database 1 stores the laser data Ri. This laser
  • the laser launcher (Z, not shown) can fire 330,000 times per second and captures elevation points (R x, R y, R z) at a density of 1 point every 80 cm Is possible. If multiple reflected pulses are measured for one laser firing, the data of the final reflection is adopted and stored.
  • the database 2 stores at least a contour map H i (1/5000: contour lines are numbered) of the digital camera shooting range.
  • the coordinates of the feature points of this contour map (Hx, Hy, Hz: contour map data) are added.
  • stereo matching data Mi is stored.
  • This stereo matching image Mi generates a stereoscopic image from two aerial photographs taken of the same area. For example, a surface of a known building is extracted from two photographs, and a Z value is given to the surface of the building to make it three-dimensional (Mx, My, Mz). Give values.
  • the DEM data creation unit 6 reads the laser data Ri of the database 1, generates a contour map connecting the same elevation values, creates a TIN with respect to the contour map, and Restore. Then, the height of a point at which the TIN intersects with each grid point is determined, and DEM data (DEM: Digita1ElavationeMode1) is created.
  • the DEM data creation unit 6 reads the contour map Hi stored in the database 2, generates a TIN connecting the contour lines, and converts this to the above-described DEM data.
  • DEM data used in the present embodiment will be described.
  • “digital map 50 m mesh (elevation)” is 1 Z2 5
  • the inclined red-colored three-dimensional image creating apparatus 4 includes a ground opening data creating unit 9, an underground opening it. It includes a convex portion emphasized image creating unit 11, a concave portion emphasized image creating unit 12, a gradient emphasizing unit 13, a first combining unit 14, and a second combining unit 15.
  • the degree of opening is a quantification of the extent to which the point protrudes above the ground and digs into the underground compared to the surrounding area.
  • the above-ground opening represents the size of the sky that can be seen within a distance L from the target sample point, as shown in Fig. 14.
  • the degree of opening depends on the distance L and the surrounding terrain.
  • Figure 15 shows the terrain and underground octagons for nine types of basic terrain in an octagonal graph of the ground angle and underground angle for each direction.
  • the above-ground opening becomes larger at points protruding higher from the surroundings, and is large at the summits and ridges and small at depressions and valleys.
  • the degree of underground opening becomes larger as it penetrates lower into the basement, and is large at depressions and valleys and small at peaks and ridges.
  • the octagon graph of the ground angle and the underground angle is often deformed and the opening degree also takes various values.
  • This angle vector was calculated in eight directions, and the average of these was called the ground opening ⁇ i, and the air layer was pressed onto a certain range of DEM data (ground surface: solid).
  • Point C which is the maximum apex when looking at one of the eight directions from point A in the inverted DEM image ((c) in Fig. 16) in which the solid ((b) in Fig. 16) is inverted. (Corresponding to the deepest point) and the angle between the straight line L2 and the horizontal line. The angle obtained over eight directions and averaged is called the underground opening i.
  • the ground opening data creation unit 9 generates topographical cross sections for each of the eight directions on the DEM data included in the range from the point of interest to a certain distance, and creates a line connecting each point and the point of interest (Fig. 16 Find the maximum value (as viewed from the vertical direction) of the inclination of L1) in (a) of (6). Such processing is performed in eight directions.
  • the angle of inclination is the angle from the zenith (90 degrees for flat, 90 degrees or more for ridges and peaks, 90 degrees or less for valleys and depressions).
  • the underground opening data creation unit 10 uses inverted DEM data A topographic section is generated for each of the eight directions within a certain distance from the point of interest, and the maximum value of the slope of the line connecting each point and the point of interest (Fig. 16 (a): In the figure, find L2 from the vertical direction (the minimum value). Such processing is performed in eight directions.
  • the angle i when viewing L2 from the vertical direction is 90 degrees for flat, 90 degrees or less for ridges and peaks, and 90 degrees for valleys and depressions. Degrees or more.
  • the ground opening and the base opening consider two basic points A (iA, jA, HA) and B (iB, jB, HB). Since the sample interval is 1 m, the distance between A and B is
  • FIG. 17 shows the relationship between A and B at the sample point based on the altitude Om.
  • the elevation angle ⁇ of sample point A with respect to sample point B is
  • DSL The set of sample points within the range of the azimuth D distance L from the target sample point is described as DSL, and this is referred to as the “D-L set of target sample points”.
  • DB L Maximum value of elevation angles for each DSL element at the sample point of interest
  • means the maximum zenith angle at which the sky in azimuth D can be seen within a distance L from the target sample point.
  • the horizon angle is equivalent to the ground angle when L is infinite.
  • D and L are focused It means the maximum nadir angle that allows you to see underground in direction D within a distance L from the sample point.
  • high angle in surveying is a concept defined on the basis of the horizontal plane passing through the sample point of interest, and does not exactly match 0.
  • definition 1 is not always an accurate description. Definition 1 is a concept defined on the premise that terrain analysis is performed using DEM.
  • the above-ground opening indicates the size of the sky that can be seen within a distance L from the sample point of interest, and the underground opening indicates the size of the underground within the range of L when the hand stands upside down and looks over the ground. (See Figure 14).
  • the slope calculator 8 meshes the DEM data into a square, and obtains the average slope of the square of the square adjacent to the point of interest on this mesh. There are four adjacent squares, one of which is the square of interest. And The height and average inclination of the four corners of this square of interest are determined. The average slope is the slope of the surface approximated from four points using the least squares method.
  • the convex part emphasized image creating unit 11 has a first gray scale for expressing the ridge and valley bottom with brightness, and the ground opening data evening creating unit 9 Each time the opening (the average angle when viewing the range of L from the point of interest in eight directions: an index for determining whether or not the person is at a higher position) is calculated, the brightness corresponding to the value of the ground opening S i ( Lightness) is calculated.
  • the value of the ground opening falls within the range of about 40 degrees to about 120 degrees, assign 50 degrees to 110 degrees to the first gray scale. .
  • the color of the ridge part becomes white because the value of the ground opening is larger in the part.
  • the convex-portion emphasizing image creating unit 11 reads the ground opening image data Da by the convex-portion emphasizing color assigning process 20 and generates a mesh having a point of interest (coordinates).
  • the first grayscale color is used for the area (when contour lines connecting the same Z value of the DEM data are meshed with a square (for example, lm) and any of the four corners of this mesh is used as the point of interest). Allocate the data and save it in the ground opening file 21 (ground opening image data D pa).
  • the gradation complement section 22 stores the ground opening layer Dp in which the color gradation of the ground opening image data D pa is inverted in the file 23.
  • the recess extraction unit 12 includes a second gray scale for expressing the valley bottom and the ridge by brightness, and the underground opening data creation unit 10 performs the underground opening i Every time (average in 8 directions from the point of interest) is calculated, the brightness corresponding to the value of the ground opening degree i is calculated.
  • the concave portion emphasizing image creating unit 12 reads the underground opening image data D b and performs the concave region emphasizing color assignment processing 25 on the mesh region (DEM data) having the point of interest (coordinates).
  • the contour lines connecting the same Z values are meshed in a square (for example, lm), and if any of the four corners of this mesh is set as the point of interest, color data based on the second gray scale is assigned.
  • gradation correction processing 27 corrects the color gradation of the underground opening image data Db.
  • the gradient emphasizing unit 13 has a third gray scale for expressing the degree of the inclination in accordance with the brightness, and the inclination calculating unit 8 performs the inclination calculation.
  • the degree average in four directions from the point of interest
  • the brightness (brightness) of the third gray scale corresponding to the value of the slope is calculated.
  • 0 to 50 degrees is made to correspond to the third gray scale and assigned to 255 gradations. That is, 0 degrees is white, and 50 degrees or more is black. The color becomes black at the point where the slope is large.
  • the gradient emphasizing image creation unit 13 performs the gradient emphasizing color assignment process 30 by using a difference image between the underground opening image data Db and the ground opening image data Da. Save as gradient image D ra in file 31.
  • the mesh area point of the DEM data
  • the contour lines connecting the same Z values are meshed in a square (for example, lm), and color data based on the third Dale scale is assigned to the case where any one of the four corners of this mesh is set as a point of interest.
  • the red color processing emphasizes R with the RGB color mode function. In other words, a tilt-emphasized image Dr in which red is emphasized as the tilt becomes larger is obtained in the file 33.
  • the ground opening becomes light.
  • the value of the underground opening should also be considered.
  • the ridge of the terrain can be emphasized or arbitrarily changed.
  • the second synthesizing unit obtains a three-dimensional red-colored image Ki in which the ridge synthesized with the tilt-enhanced image Dr of the file and the synthesized image Dh obtained by the first synthesizing unit is emphasized in red. And display it on the display.
  • a composite image D h of a gray gradation expression obtained by multiplying and combining the above-ground opening layer D p (white emphasis on the ridge) and the underground opening layer DQ (black emphasis on the bottom) , And an inclination-enhanced image Dr in which the red is enhanced as the inclination increases with respect to the inclination image Dra.
  • FIG. 23 is a three-dimensional map of the whole area of Aokigahara using the processing of the present embodiment.
  • the row of ice craters just south of Tenjinyama Ski Resort is one of the craters that drained the Aokigahara lava flow.
  • Aerial photography is hindered by deep forests, making it difficult to identify its location.
  • Fig. 27 and Fig. 28 are magnified views, showing the lava flow, the slope of the road, and the unevenness visually.
  • the method of the above embodiment can be applied to the terrain of Venus and the terrain of Mars. Further, the present invention can be applied to visualization of unevenness measured by an electron microscope. Also, if applied to game consoles, a three-dimensional effect can be obtained without wearing glasses.
  • DEM Digital Elavation Based on the data, the three parameters of inclination, opening above ground, and opening below ground are obtained, and the plane distribution is saved as a grayscale image.
  • the difference image between the above-ground opening and the underground opening is gray, the slope is in the red channel, and a pseudo color is created.
  • the ridges and peaks appear white
  • the valleys and depressions appear black
  • the slope is The steeper part is expressed in red.
  • Fig. 29 shows the X-ray fluoroscopy of the human body
  • Fig. 30 shows the step slice image of the fluoroscopy
  • Fig. 31 shows the red gradation float-sink obtained by processing the fluoroscopy with the above visualization processing system VPS1.
  • the distribution image, and FIG. 32 is a composite image obtained by overlapping the image of FIG. 31 with the image of FIG.
  • the step-color slice image in FIG. 30 is an image obtained by slicing the hue of each pixel in the X-ray fluoroscopic view in FIG. 29 according to its brightness and performing step-coloring.
  • the position information and the brightness of the pixel are used as components.
  • the red gradation floating / sinking degree distribution image of FIG. 31 is displayed on the information output unit 55 as a result of the processing P5 by the fifth processing file 65 of the visualization processing program 60.
  • the synthesized image in Fig. 32 is the 8th processing file of the visualization processing program 60. This is displayed on the information output unit 55 as a result of the processing P8 by the aisle 68.
  • a visualization processing system and a visualization processing that can visualize a vector field including its local three-dimensional attribute in a substantially two-dimensional visual field in an intuitively visible manner
  • a visualization processing system for generating a tilted red-colored stereoscopic image that allows a user to grasp the height and gradient of the terrain three-dimensionally at a glance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)

Abstract

ベクトル場(70)をその局所的な立体的属性も含め直感的に視認可能な仕方で実質的に二次元の視野上に視覚化(P5,P8)するため、ベクトル場(70)を三次元の座標空間(80)に写像して対応する座標点列を得(P1)、前記座標点列を連結する面の局所領域での浮上度(A)を求め(P2)、前記座標点列を連結する面の局所領域での沈下度(C)を求め(P3)、前記浮上度(A)と前記沈下度(C)とを重み付け合成して前記座標点列を連結する面の局所領域での浮沈度(B)を求め(P4)、前記座標空間(80)を二次元面(90)に写像し、前記座標点列を連結する面の局所領域に対応する二次元面(90)上の領域に前記浮沈度に対応する諧調表示(F)を行う(P5)。

Description

P T/JP2003/014118
1 明 細 書 視覚化処理システム、 視覚化処理方法、 及び視覚化処理プログラム 技術分野
本発明は、 視覚化処理システム、 視覚化処理方法、 及び視覚化処理プ ログラムに関し、 特に、 実質的に三つの成分をまとめて表示した三次元 ベクトル (例えば、 立体的地形デ一夕) 或いは多次元ベクトル(例えば、 立体的地形データと地質データとを併有するデータ)中の特定の三成分 に関する三次元ベクトルが分布するベクトル場(例えば, 地表面を表す 地形データの集合)を、 直感的に視認可能な仕方 (例えば、 視覚的立体 感を与える仕方) で、 実質的に二次元の視野 (例えば、 平面又は曲面) 上に視覚化するための視覚化処理システム、 視覚化処理方法、 及び視覚 化処理プログラムに関する。
本発明は、 また、 3次元座標で表された大量のデジタル画像データに 基づく地形の凹凸部の高低及び傾斜を、 等高線に代えて、 色調で表現す ることにより視覚的に立体感を付与可能な傾斜赤色化立体画像を生成す るための視覚化処理システム、 視覚化処理方法、 及び視覚化処理プログ ラムに関する。 背景技術
三次元べクトル場の二次元面上での視覚化は、 古来より多くの試みが なされている。
最も典型的には, 2つの成分を座標値に変換して、 その交点を二次元 面上にプロットし、 各交点に残る第 3の成分の属性を付記する仕方(例 えば、 町内案内図)が知られているが、 これだと第 3の成分の違いを簡 単に把握できない。
この点、 第 3の成分の属性的特徴を図形表示すること (例えば、 市 街案内図) もなされているが、 それでも情報の局在化を免れることはで きず、 属性の連続的な変化が分からない。
そこで、 二成分の連続的特徴 (例えば、 海岸、 河川、 湖沼等の外形 線) と、 第 3の成分の属性等値線(例えば、 等高線)を記入する仕方が 汎用されているが、 やはり、 属性の変化状態を直感的に視認することが 難しい。
ここで、 より具体的に, 地形図を考えてみる。
解析図化機によるメッシュ測量では、 地形を格子状に分割し、 それに 標高値を付与して D EM (デジタルエレべイシヨンモデル ("Digital Elavation Model」 ) のデータを得る。 これを計算機で処理して、 例 えば地形の高度、 傾斜角、 斜面方位、 ラプラシアン、 流域区分、 水系等 に関するパラメータを計算し、 面上に分布する計算結果を対応する画像 に変換できる。
航空機レーザ一計測では、 更に詳細な情報を含むデータが得られる。 これらのデ一夕は、 地形図にすべて盛り込まれる訳ではない。
例えば, 高低及び傾斜に関する情報を取り出し、 等高線として地図に 記入する。 だが、 そこから立体的な地形を想像することは容易でない。 斜め上方から光を当てた陰影図として立体感を出す画像もあるが、 こ れだと特定方向の傾斜が強調される。
この点, グレイスケール (明度の段階) あるいはレインボウカラー (色相の段階) で表示した地形画像は、 地形の幾何的特徴とその分布状 態を直感的に視認でき、 有用であるが、 効果的な立体視感が得られない。
文献 1 : 「特開平 1一 4 6 9 0 2号公報」 地上開度又は地下開度のいずれかをメガフィルタとして用い、 これ により画像を処理することもあり、 これだと比較的大域での地形の特徴 を補足できるが、 立体視感の点で物足りず、 特に局所的な立体視感に不 満が残る。
文献 2 : 「岩手大論文:横山隆三 · 白沢道生 ·菊地祐 ( 1 9 9 9 ) 開 度による地形特徴の表示, 写真測量とリモートセンシング, v o . 3 8 , n o . 4 , 2 6 - 34」
ここで、 地形図に立体視感を与える従来方法について述べる。
(ステレオマッチング画像、 三次元画像)
基本的に視差を使用した画像で、 2枚の写真を用いる。 赤/青フィル 夕一、 偏光フィルター、 回折格子、 又はレンティキユラ一レンズによる 場合など様々な方法があるが、 いずれも特定の方向から見る必要があり、 また眼鏡を必要とする。 しかも、 拡大、 縮小が難しい。
三次元画像は、 特定方向から見下ろした画像で、 影の部分が見えず, また遠くが小さく、 近くは解像度が不足するので、 判読に不向きである。 しかも画像作成に時間を要する。
(等高線による表現)
等高線は山地の地形表現に好適だが、 急傾斜 (例えば、 急崖部) 或い は緩傾斜もしくは平坦地 (平野部) で、 段階的に高さを割り当てられた 等高線が極度に集合、 離散し、 地形の判読に時間がかかる。
傾斜の角度及び向きを等高線の間隔の変化から推測することになり、 従って単純な拡大、 縮小に馴染まず、 場合により作り直しが必要になる。 等高線が混み合うと隙間がなくなり、 崖記号で置換する。 この作業は 手間を要し、 またベクトル化の障害になる。
小さな凹凸は、 各等高線に高さを付与しないと判読できない。
(二次元的な標高値を有する画像データの集合) 航空写真測量による図化作業では、 特定の高度を連ねた等高線情報を 直接取得し、 等高線間の高度は与えない。
航空機レーザー計測或いは解析図化機によるメッシュ測量の場合に は、 D E Mデ一夕を取得し、 それに基づき等高線の二次元的な分布を求 め、 必要に応じ等高線のスムージングを行うが、 最終的に等高線に含ま れない情報、 例えば、 等高線間の三次元的幾何情報が使用されずに残る。 本発明は以上の点に鑑みなされた。
従って、 本発明は、 ベクトル場をその局所的な立体的属性も含め直 感的に視認可能な仕方で実質的に二次元の視野上に視覚化するための視 覚化処理システム, 視覚化処理方法、 及び視覚化処理プログラムを提供 することをその課題とする。
本発明は、 また、 地形の高低及び勾配の度合いを一目で立体的に把 握できる傾斜赤色化立体画像を生成するための視覚化処理システム、 視 覚化処理方法、 及び視覚化処理プログラムを提供することをその課題と する。 発明の要旨
前記課題を解決すべく、 本発明に係る視覚化処理システムは、 べクト ル場を三次元の座標空間に写像して対応する座標点列を得る第 1 のォ ペレ一夕と、 前記座標点列を連結する面の局所領域での浮上度を求める 第 2 のオペレータと、 前記座標点列を連結する面の局所領域での沈下 度を求める第 3のオペレータと、 前記浮上度と前記沈下度とを重み付け 合成して前記座標点列を連結する面の局所領域での浮沈度を求める第 4 のオペレータと、 前記座標空間を二次元面に写像し、 前記座標点列を連 結する面の分割領域に対応する二次元面上の領域に前記浮沈度に対応す る諧調表示を行う第 5のオペレータとを備えることを特徴とする。 本発明によれば、 ベクトル場を三次元の座標空間に写像して、 対応す る座標点列を得るとともに、 前記座標点列を連結する面の局所領域での 浮上度、 つまり盛り上がりの度合い(例えば、 地形図の尾根度)と、 沈 下度、 つまり沈み込みの度合い(例えば、 地形図の谷度)とを求め、 そ れらを (差分も含む広義な範囲で) 合目的的に重み付け合成して、 局所 領域での浮沈度、 つまり、 盛り上がり及び沈み込みの度合い (例えば、 地形図の尾根谷度) を求め、 これを二次元面上の対応する領域に諧調表 示するようにしているので、 べクトル場をその局所的な立体的属性も含 め直感的に視認可能な仕方で、 実質的な二次元面上に視覚化できる。 前記浮上度は、 好ましくは、 前記座標点列を連結する面の局所領域に おける片面側の立体角で表される。
前記沈下度は、 好ましくは、 前記座標点列を連結する面の局所領域に おける他面側の立体角で表される。
前記視覚化処理システムは、 好ましくは、 更に、 前記座標点列を連結 する面の斜度分布を求める第 6 のオペレータを備え、 前記第 5 のオペ レ一夕は、 好ましくは、 前記二次元面上に前記斜度分布を(より好まし くは赤色系の色で)色調表示, 即ち彩度表示し、 その明度に関し、 前記 諧調表示を行う。
前記視覚化処理システムは、 好ましくは、 更に、 前記座標点列のうち 前記べクトル場での属性が等値な座標点を連結して属性等値線を得る第 7のオペレータと、 前記諧調表示がなされた二次元面上に前記属性等値 線を写像する第 8のォペレ一夕とを備える。
本発明に係る視覚化処理方法は、 べクトル場を三次元の座標空間に 写像して対応する座標点列を得る第 1 の工程と、 前記座標点列を連結 する面の局所領域での浮上度を求める第 2 の工程と、 前記座標点列を 連結する面の局所領域での沈下度を求める第 3の工程と、 前記浮上度と 前記沈下度とを重み付け合成して前記座標点列を連結する面の局所領域 での浮沈度を求める第 4 の工程と、 前記座標空間を二次元面に写像し、 前記座標点列を連結する面の分割領域に対応する二次元面上の領域に前 記浮沈度を諧調表示する第 5の工程とを備えることを特徴とする。
本発明に係る視覚化処理プログラムは、 ベクトル場を三次元の座標 空間に写像して対応する座標点列を得る第 1 の処理と、 前記座標点列 を連結する面の局所領域での浮上度を求める第 2 の処理と、 前記座標 点列を連結する面の局所領域での沈下度を求める第 3の処理と、 前記浮 上度と前記沈下度とを重み付け合成して前記座標点列を連結する面の局 所領域での浮沈度を求める第 4 の処理と、 前記座標空間を二次元面に 写像し、 前記座標点列を連結する面の分割領域に対応する二次元面上の 領域に前記浮沈度を諧調表示する第 5 の処理とをコンビュ一夕に行わ せるべく機能することを特徴とする。
本発明に係る傾斜赤色化立体画像を生成するための視覚化処理システ ムは、 3次元座標が付与されている多数のデジタルデータを記憶したデ 一夕ベースと、 コンピュータとからなることを特徴とし、 前記コンビュ 一夕は、 前記デジタルデ一夕の同じ Z値を有する 3次元座標を繋いだ等 高線を有する立体等高線画像を生成する手段と、 前記等高線の間をメッ シュ化する手段と、 それぞれのメッシュに着目点を割り付け、 この着目 点を有するメッシュの隣同士のメッシュとの Z値の差の平均を求める手 段と、 この平均の差の大きさの度合いに応じた赤の諧調を前記着目点を 有するメッシュに割り当てた傾斜赤色化画像を生成する手段と、 前記着 目点を有するメッシュの尾根谷度に応じて明度を変えたグレイスケール 画像を生成する手段と、 前記傾斜赤色化画像と前記グレイスケール画像 とを乗算合成することで、 傾斜の度合い及び高低の度合いを色で表現し た傾斜赤色化立体画像を画面に表示する手段とを備えることを特徴とす る。
本発明に係る傾斜赤色化立体画像を生成するための視覚化処理方法は、 デジタルデータの同じ Z値を有する 3次元座標を繋いだ等高線を有する 立体等高線画像を生成する工程と、 前記等高線の間をメッシュ化するェ 程と、 それぞれのメッシュに着目点を割り付け、 該着目点を有するメッ シュの隣同士のメッシュとの Z値の差の平均を求める工程と、 この平均 の差の大きさの度合いに応じた赤の諧調を前記着目点を有するメッシュ に割り当てた傾斜赤色化画像を生成する工程と、 前記着目点を有するメ ッシュの尾根谷度に応じて明度を変えたグレイスケール画像を生成する 工程と、 前記傾斜赤色化画像と前記グレイスケール画像とを乗算合成す ることで、 傾斜の度合い及び高低の度合いを色で表現した傾斜赤色化立 体画像を画面に表示する工程とを備えることを特徴とする。
本発明に係る傾斜赤色化立体画像を生成するための視覚化処理プログ ラムは、 コンピュータを、 3次元座標が付与されている多数のデジタル データを読み出す手段、 前記デジタルデータの同じ Z値を有する 3次元 座標を繋いだ等高線を有する立体等高線画像を生成する手段、 前記等高 線の間をメッシュ化する手段、 それぞれのメッシュに着目点を割り付け、 該着目点を有するメッシュの隣同士のメッシュとの Z値の差の平均を求 める手段、 この平均の差の大きさの度合いに応じた赤の諧調を前記着目 点を有するメッシュに割り当てた傾斜赤色化画像を生成する手段、 前記 着目点を有するメッシュの尾根谷度に応じて明度を変えたグレイスケ一 ル画像を生成する手段、 及び前記傾斜赤色化画像と前記グレイスケール 画像とを乗算合成することで、 傾斜の度合い及び高低の度合いを色で表 現した傾斜赤色化立体画像を画面に表示する手段として機能させること を特徴とする。 図面の簡単な説明
本発明の上記及びその他の特徴、 作用、 及び効果は、 以下に添付図面 を参照してなされる本発明を実施するための最適な形態の説明を読むこ とにより明らかとなる。 添付図面中 :
図 1 は、 本発明の第 1 の実施の形態に係る視覚化処理システムのブ ロック図;
図 2 は、 図 1 の視覚化処理システムの処理手順及び処理結果を示す 流れ図;
図 3は、 図 2の流れ図の A部詳細図;
図 4は、 図 2の流れ図の B部詳細図;
図 5は、 図 2の流れ図の C部詳細図;
図 6は、 図 2の流れ図の D部詳細図;
図 7は、 図 2の流れ図の E部詳細図;
図 8は、 図 2の流れ図の F部詳細図;
図 9は、 図 2の流れ図の G部詳細図;
図 1 0は、 図 2の流れ図の H部詳細図;
図 1 1は、 本発明の第 2の実施の形態に係る傾斜赤色化立体画像を 生成するための視覚化処理システムのブロック図;
図 1 2は、 図 1 1 の視覚化処理システムにおけるレーザ計測の説明 図;
図 1 3は、 図 Π の視覚化処理システムにおける 8方向配列の説明 図;
図 1 4は、 図 1 1 の視覚化処理システムにおける地上開度及び地下開 度の原理説明図;
図 1 5は、 図 1 1 の視覚化処理システムにおける地上開度及び地下開 度の主要パターン説明図; 図 1 6は、 図 1 1 の視覚化処理システムにおける地上開度及び地下開 度の立体的説明図;
図 1 7は、 図 1 1 の視覚化処理システムにおける地上開度及び地下開 度の標本地点及び距離の説明図;
図 1 8は、 図 1 1 の視覚化処理システムにおけるグレイスケースの割 当て説明図;
図 1 9は、 図 1 1 の視覚化処理システムの凸部強調画像生成部、 凹部 強調画像生成部、 及び第 1の合成部のブロック図;
図 2 0は、 図 1 1 の視覚化処理システムの斜度強調画像作成部及び第 2の合成部のブロック図;
図 2 1は、 図 1 1 の視覚化処理システムにおける地上開度画像及び地 下開度画像と合成画像との生成過程説明図;
図 2 2は、 図 1 1 の視覚化処理システムにおける傾斜赤色化立体画像 の生成過程説明図; .
図 2 3は、 図 1 1 の視覚化処理システムにより得られた富士山青木ケ 原の立体視化画像を示す図;
図 2 4は、 富士山青木ケ原の天神山スキー場南方地域の航空写真測量 に基づく等高線付地形図;
図 2 5は、 同上地域のレーザ測量データに基づく等高線付地形図; 図 2 6は、 同上地域の立体視化画像を示す拡大図;
図 2 7は、 別の地域の立体視化画像を示す拡大図;
図 2 8は、 別の地域の立体視化画像を示す拡大図;
図 2 9は、 人体の X線透視図;
図 3 0は、 図 29の透視図の段彩スライス画像;
図 3 1は、 図 29 の透視図を図 1 の視覚化処理システムで処理して得 た赤色諧調浮沈度分布画像;そして 図 3 2は、 図 31の画像を図 30の画像に重ねた合成画像である。 発明を実施するための最適な形態
以下に、 本発明を実施するための最適な形態を例示的に説明する。
(第 1 の実施の形態)
先ず、 図 1〜図 10 を参照して、 本発明の第 1 の実施の形態を説明す る。 図 1 は本実施形態に係る視覚化処理システム VPS1 のブロック図、 図 2 は同システム VPS1 の処理手順 Π〜Ρ8及ぴ処理結果 Α〜Ι を示す 流れ図、 そして図 3〜図 10はそれぞれ主要な処理結果 Α〜Ηを詳細に示 す図である。
図 1 に示すように、 視覚化処理システム VPS1 は、 ワークステーショ ン、 プロセッサ、 マイクロコンピュータ、 ロジック、 レジスタ等の適宜 な組み合わせからなる中央情報処理装置 (CPU) 5 1と、 この中央情報 処理装置 5 1に必要な制御 ·操作情報を入力するキ一ボード (KB) 、 マウス、 対話型ソフトスィッチ、 外部通信チャネル等を含む情報入力部 5 4と、 中央情報処理装置 5 1から出力された情報を広義な意味で表 示 -伝送するディスプレイ、 プリンタ、 外部通信チャネル等を含む情報 出力部 5 5と、 中央情報処理装置 5 1に読み込まれるオペレーティング システム、 アプリケーションプログラム等の情報が格納されたロム (R OM) 等の第 1 の記憶部 5 2と、 中央情報処理装置 5 1で随時処理す べき情報及び中央情報処理装置 5 1から随時書き込まれる情報を格納す るラム (RAM) 等の第 2 の記憶部 5 3とを備える。 第 1 及び第 2 の 記憶部 5 2 , 5 3を適宜統合、細分化することは差し支えない。
第 1 の記憶部 5 2には、 所定のアプリケーション上で動作する視覚 化処理プログラム 6 0が格納され、 この視覚化処理プログラム 6 0は、 11 本実施形態では、 中央情報処理装置 5 1に読み込まれて図 I に示す 8 つの視覚化処理 P 1〜P 8をそれぞれ実行可能なプログラム群を含む第 1〜第 8 処理ファイル 6 1〜 6 8により構成されるが、 それらプロダラ ム群の分類 >配備は自由に設定可能である。
第 2 の記憶部 5 3には、 視覚処理プログラム 6 0の処理対象となる ベクトル場 7 0が格納される。 このベクトル場 7 0は、 実質的に 3 種 以上の情報を抽出可能な 1つ以上の成分を有する情報べクトルの有限集 合 (総数 N 個) であればよく、 本実施形態の各ベクトルは、 富士山地 表面の微小な有限分割領域を代表する着目点に関し、 その経度情報及び 緯度情報を参照テーブルで確認可能な識別 (Id) 番号と、 隣接する着 目点又は三角基準点に対する高度差とを含む 2成分べクトルである。 第 1 処理ファイル 6 1は、 n番目(n=l〜N)に処理した 1 成分べクト ル „の識別番号 Idnと高度差とから、 その経度 xn、緯度 yn、及び海抜 高度 z nを算出し、 その値を第 2 の記憶部 5 3に格納された仮想的な三 次元 ( 3 D) の X— Y— Z直交座標空間 80 内の対応する座標点 Qn = {Xn = xn、 Yn = yn、 Z n= z n} に対応付けることにより、 つまり、 記憶部 53 内の座標点 Qnに対応した記憶領域にべクトル Vnの識別番号 Idnを格納することにより、 ベクトル Vnを座標空間 80 に写像し、 これ を総数 N 個のべク トルについて行うことにより、 べクトル場 7 0を座 標空間 80に写像する (図 2の処理 P1) 。
第 1処理ファイル 6 1は、 更に、座標空間 80 内の総数 N 個又はそれ 未満の適宜な個数の Id 付き座標点の列 {Qn : n≤N} を必要な滑らか さで連結する曲面 Sを最小二乗法等で求めて、 これを総数 M個 {M≤ N} の微小な面領域 {Sm : m≤M} に分割し、 それぞれ着目点 Qfflを定 め、 関連情報を記憶部 5 3に格納する。
第 2 処理ファイル 6 2は、 各面領域 S„に関し、その着目点 Qmから所 定半径内に位置する曲面 S の表側 (Z +側) の局所領域 +を確認し、 そ れにより画成される着目点 Qn周りの開放度 (即ち、 天側に対する見通 し立体角又はそれと等価な二回微分値) m+を求め(図 2 の処理 P2)、 面領域 Smの浮上度として記憶する。 この浮上度 を曲面 S全体に渡 り諧調表示した画像を処理結果 A として図 3 に示す。 この画像 A は、 地形の尾根側、つまり (曲面 Sの) 凸部をいかにも凸部らしく明瞭に示 す。
第 3処理ファイル 6 3は、 上記面領域 Smに関し、その着目点 Qmから 上記所定半径内に位置する曲面 S の裏側 (Z-側) の局所領域 —を確認 し、 それにより画成される着目点 Qm周りの開放度 (即ち、 地側に対す る見通し立体角又はそれと等価な二回微分値) m—を求め(図 2 の処理 P3)、面領域 Smの沈下度として記憶する。 この沈下度 を曲面 S 全体 に渡り諧調表示した画像を処理結果 C として図 5に示す。 この画像 C は、 地形の谷側、 つまり (曲面 Sの) 凹部をいかにも凹部らしく明瞭に 示す。 この画像 C が前記画像 Α の単純な反転にならない点に留意する 必要がある。
第 4 処理ファイル 6 4は、 上記面領域 Smに関し、その浮上度 Vm+と 沈下度 m—とを合目的的に (つまり、 尾根と谷のどちらを重視するかに 従い) 定めた配分割合 w+: w— (w+ + w— = 0 ) で重み付け合成 (w +Ψm + + w-ψm ) することにより、 前記所定半径内に位置する曲面 S の表裏の局所領域 α , —) が着目点 Qm周りにもたらす立体的効 果を求め(図 2 の処理 P4)、面領域 の浮沈度 mとして記憶する。 こ の浮沈度 mを曲面 S 全体に渡り諧調表示した画像を処理結果 Bとして 図 4に示す。 この画像 Bは、 (曲面 Sの) の凸部を凸部らしくまた凹部 を凹部らしく明瞭に示すことにより、 地形の尾根と谷とを際立たせ、 視 覚的立体感を増強する。 なお、 画像 Bは、 上記合成の重み付けが w + = _w_ = 1になっている。
ここで、 第 6処理ファイル 6 6を説明する。 このファイル 6 6は、 上 記面領域 Smに関し、その最大傾斜度 (又はそれと等価な一回微分値) G mを、 直接的に又は最小二乗法を介し間接的に求め (図 2の処理 P 6 ) 、 上記面領域 Smの斜度 Gmとして記憶する。 この斜度 Gmを曲面 S 全体に 渡り赤系統の色 Rで色調表示した画像 (の無彩色表示画像) を処理結果 Dとして図 6に示す。 この画像 Dも、 地形 (つまり曲面 S) の立体感を 視覚的に醸成する効果を持つ。
第 5処理ファイル 6 5は、 三次元座標空間 8 0をその関連情報 ( m、 G^ R) と共に、 情報出力部 5 5の二次元面 9 0に写像 (図 2 の処理 P5) することにより、 前記座標点 Qfflの列を連結する面 S の分割領域 Sm に対応する二次元面 9 0上の領域 9 0mに、 前記斜度 Gmの R色調表示を 行うとともに、 その R色調の明度について、 前記浮沈度 mに対応する 諧調表示を行う。 この画像 (の無彩色表示画像) を処理結果 F として 図 8に示す。 この画像 F は、 地形 (つまり曲面 S) に視覚的立体感が 付与されている。
図 7の画像 E は、 前記画像 Dの情報 (つまり斜度 Gmを示す R色調) と画像 A に対応する浮沈度 (つまり浮上度 m + ) の情報とを処理ファ ィル 6 5で二次元面 9 0に写像 (処理 P5) した結果を示し、 尾根部が 強調されている。
図 9の画像 Gは、 前記画像 Dの情報 (斜度 Gmを示す R色調) と画像 C に対応する浮沈度 (つまり沈下度 m_) の情報とを処理ファイル 6 5 で二次元面 9 0に写像 (処理 P5) した結果を示し、 谷部が強調されて いる。
第 7 処理ファイル 6 7は、 前記座標点 Qnの列のうち、 前記べクトル 7 0場のべクトル Vnの成分から抽出される属性 (本実施形態では海抜 高度 z n) が等値な座標点 Qnを連結した属性等値線 (本実施形態では 地形の等高線及び外形線) Ea を求めて、 これを記憶し、 必要に応じ、 出力ないしは表示する (図 2 の処理 P 7) 。 図 1 にその表示処理結果 Iを示す。 この結果 Iも、 地形 (つまり曲面 S) の立体形状の把握に寄 与する。
第 8 処理ファイル 6 8は、 前記二次元面 9 0上に、 前記三次元座標 空間 8 0をその関連情報 ( m、 Gm, R) と共に写像ないしは出力表示す るとともに、 上記属性等値線 Ea を写像ないしは出力表示する (図 2 の 処理 P8) 。 その表示画像 (の無彩色表示画像) を処理結果 Hとして図 1 0に示す。 この画像 Hも、 地形 (つまり曲面. S) に視覚的立体感が付 与されている。
従って本実施形態に係る視覚化処理システム VPS1 は、 ベクトル場 70 を三次元の座標空間 8 0に写像して対応する座標点列 Qmを得る第 1 のオペレータ (6 1 ) と、 前記座標点列を連結する面 S の局所領域 での浮上度 Vm +を求める第 2 のオペレータ(62)と、 前記座標点列を連 結する面 S の局所領域 での沈下度 を求める第 3のオペレータ
(6 3) と、 前記浮上度と前記沈下度とを重み付け合成して前記座標点 列を連結する面 S の局所領域 Lmでの浮沈度 mを求める第 4 のォペレ —夕 (6 4) と、 前記座標空間 8 0を二次元面 9 0に写像し、 前記座標 点列を連結する面 S の分割領域 Sraに対応する二次元面 9 0上の領域 9 0mに前記浮沈度に対応する諧調表示を行う第 5 のオペレータ (6 5) とを備える。 ここにオペレータとは、 あらかじめ設定もしくはプロダラ ムされた演算処理機能もしくは演算処理命令を実行する要素もしくはそ の集合又は手段を意味する。
前記視覚化処理システム VPS1 は、 更に、 前記座標点列を連結する面 S の斜度 Gm分布を求める第 6 のオペレータ (6 6) を備え、 前記第 5 のオペレータ (6 5 ) は、 前記二次元面 9 0上に前記斜度分布を赤色系 の色 Rで色調表示し、 その明度に関し、 前記諧調表示を行う。
前記視覚化処理システム VP S 1 は、 更に、 前記座標点列のうち前記べ クトル 7 0場での属性が等値な座標点を連結して属性等値線 E a を得る 第 7のオペレータ (6 7 ) と、 前記諧調表示がなされた二次元面 9 0上 に前記属性等値線 E a を写像する第 8 のオペレータ (6 8 ) とを備える。 本実施形態によれば、 ベクトル場 7 0をその局所的な立体的属性も含 め直感的に視認可能な仕方で、 実質的な二次元面 9 0上に視覚化できる。 本実施形態に係る視覚化処理方法は、 べクトル場を三次元の座標空 間に写像して対応する座標点列を得る第 1 の工程 P 1 と、 前記座標点列 を連結する面の局所領域での浮上度を求める第 2 の工程 P 2 と、 前記座 標点列を連結する面の局所領域での沈下度を求める第 3の工程 P 3 と、 前記浮上度と前記沈下度とを重み付け合成して前記座標点列を連結する 面の局所領域での浮沈度を求める第 4 の工程 P 4 と、 前記座標空間を二 次元面に写像し、 前記座標点列を連結する面の分割領域に対応する二次 元面上の領域に前記浮沈度を諧調表示する第 5の工程 P 5 とを備える。 本実施形態に係る視覚化処理プログラム 6 0は、 べク トル場を三次 元の座標空間に写像して対応する座標点列を得る第 1 の処理 P 1 と、 前 記座標点列を連結する面の局所領域での浮上度を求める第 2 の処理 P 2 と、 前記座標点列を連結する面の局所領域での沈下度を求める第 3の処 理 P 3 と、 前記浮上度と前記沈下度とを重み付け合成して前記座標点列 を連結する面の局所領域での浮沈度を求める第 4 の処理 P 4 と、 前記座 標空間を二次元面に写像し、 前記座標点列を連結する面の分割領域に対 応する二次元面上の領域に前記浮沈度を諧調表示する第 5 の処理 P 5 と を中央情報処理装置 5 1に行わせるべく機能する。 (第 2の実施の形態)
次に、 図 11〜図 2 8を参照して、 本発明の第 2の実施の形態を説明 する。
図 1 1は本実施形態に係る傾斜赤色化立体画像生成装置 4を含む視 覚化処理システム VPS2 全体のブロック図、 図 1 2は同システム VPS2 におけるレーザ計測の説明図、 図 1 3は 8方向配列の説明図、 図 1 4は 地上開度及び地下開度の原理説明図、 図 1 5は地上開度及び地下開度の 主要パターン説明図、 図 1 6は地上開度及び地下開度の立体的説明図、 図 1 7は地上開度及び地下開度の標本地点及び距離の説明図、 図 1 8は グレイスケースの割当て説明図、 図 1 9は凸部強調画像生成部、 凹部強 調画像生成部、 及び第 1の合成部のブロック図、 図 2 0は斜度強調画像 作成部及び第 2の合成部のブロック図、 図 2 1は地上開度画像及び地下 開度画像と合成画像との生成過程説明図、 そして図 2 2は傾斜赤色化立 体画像の生成過程説明図である。
また図 2 3は視覚化処理システム VPS2 により得られた富士山青木ケ 原の立体視化画像、 図 2 4は富士山青木ケ原の天神山スキー場南方地域 の航空写真測量に基づく等高線付地形図、 図 2 5は同上地域のレーザ測 量データに基づく等高線付地形図、 図 2 6は同上地域の立体視化画像を 示す拡大図、 図 2 7は別の地域の立体視化画像を示す拡大図、 そして 図 2 8は別の地域の立体視化画像を示す拡大図である。
本実施形態は、 D EM (Digital Elavation Model) デ一夕をもと に、 第 1 実施形態の斜度 Gmに対応する斜度と、 第 1 の実施の形態の浮 上度 m+に相当する地上開度と、 第 1 の実施の形態の沈下度 m_に相 当する地下開度との 3つのパラメ一夕を求め、 その平面分布をグレイス ケール画像として保存する。
地上開度と地下開度の差分画像をグレイに、 傾斜を赤のチャンネル にいれて、 擬似カラー画像を作成することにより、 尾根や山頂部分を白 っぽく、 また谷や窪地を黒っぽく表現し、 傾斜が急な部分ほど赤く表現 する。 このような表現の組み合わせにより、 1枚でも立体感のある画像 (以下立体赤色化マップともいう) が生成される。
つまり、 本実施形態の立体化マップの立体表現手法は、 等高線の間を メッシュ化し、 それぞれの隣のメッシュとの差すなわち傾斜は赤の色調 で表現し、 周辺に比べて高いか低いかはグレイスケールで表現する。 こ れは第 1 の実施の形態の浮沈度 V mに相当し、 本実施形態では、 尾根谷 度と呼ばれ、 より明るいほうが周辺に比べて高く (尾根的) 、 より暗い ほうが周辺に比べて低い (谷的) ことを示唆し、 その明暗を乗算合成す ることにより立体感が生じる。
図 1 1に、 本実施形態に係る傾斜赤色化立体画像作成装置 4の概略構 成を示す。 図 1 1に示すように、 本実施形態の傾斜赤色化立体画像作成 装置 4は、 以下に説明するコンピュータ機能を備えている。 また、 この 傾斜赤色化立体画像作成装置 4には、 各種デ一タベースが接続される。 データベース 1には、 レーザデ一夕 R iが保存される。 このレーザデ
—夕 (R x、 R y、 R z : レ一ザデータによる座標であることを示すた めに Rを付加) は、 図 1 2に示すように対象地域上空 (デジタルカメラ 撮影範囲が好ましい) を水平飛行する航空機により、 下方にレーザ光を 発射し、 往復に要した時間と、 航空機の位置、 姿勢、 発射角度から計算 (コンピュータ) によって、 地表面の x、 y、 zを求めて保存している。 前述の飛行位置の把握には G P S (図示せず) 、 姿勢の把握には I M U を用いる。
レーザ発射器 (図示せず Z ) は、 毎秒 3 3 0 0 0回発射することが可 能であり、 8 0 c mに 1点の密度で標高点 (R x、 R y、 R z ) の取得 が可能である。 1回のレーザ発射について複数の反射パルスが測定された場合には、 最終反射のデータを採用して保存する。
また、 受信したレーザデータの分布傾向を検討し、 周辺よりもスパイ ク状が高い点は、 通過できなかった樹木のレーザデータと認定して取り 除き、 さらに樹木以外に家屋や、 自動車、 橋等のレーザデータも取り除 く。 従ってデ一夕べ一ス 1には、 地表面のレ一ザデータ R iのみが保存 される。
データベース 2には、 少なくともデジタルカメラ撮影範囲の等高線地 図 H i ( 2万 5 0 0 0分の 1 :等高線に番号を付している) を格納する。 また、 この等高線図の特徴点の座標 (Hx、 Hy、 H z :等高線図デー 夕) を付加している。
また、 データべ一ス 3にはステレオマッチングデータ M iを保存して いる。 このステレオマッチングデ一夕 M iは、 同じエリアを撮影した 2 枚の航空写真から立体画像を生成する。 例えば、 2枚の写真の内で既知 の建物の面を抽出し、 この建物の面に Z値を与えて立体化 (Mx、 My、 M z ) し、 これを基準として他の地物に Z値を与えて行く。
DEMデ一タ作成部 6は、 データべ一ス 1のレーザデータ R iを読み 込み、 それぞれの同じ標高値を結んだ等高線図を生成し、 この等高線図 に対して T I Nを作成して地面を復元する。 そして、 T I Nと各格子点 の交わる点の高さを求め D EMデータ (DEM: D i g i t a 1 E l a v a t i o n Mo d e 1 ) を作成する。
また、 DEMデータ作成部 6は、 データベース 2に保存されている等 高線地図 H iを読み、 等高線同士を結んだ T I Nを生成し、 これを前述 の D EMデータにコンバートしている。
次に、 本実施形態で用いる D EMデータについて説明する。 例えば、 「数値地図 5 0 mメッシュ (標高) 」 は 1 Z2 5 , 0 0 0地形図の縦 · 横を各々 2 0 0等分したメッシュ (メッシュ間隔は緯線方向が 2 . 2 5 秒、 経線方向が 1 . 5 0秒となっている) の中心の標高を 1 m刻みで読 み出して 2次元配列とする。
また、 本実施形態の傾斜赤色化立体画像作成装置 4は、 図 1 1 に示す ように地上開度データ作成部 9と、 地下開 it.デ一夕作成部 1 0と、 傾斜 算出部 8と、 凸部強調画像作成部 1 1と、 凹部強調画像作成部 1 2と、 斜度強調部 1 3と、 第 1の合成部 1 4と、 第 2の合成部 1 5とを備えて いる。
本実施形態では、 開度という概念を用いている。 開度は当該地点が周 囲に比べて地上に突き出ている程度及び地下に食い込んでいる程度を数 量化したものである。 つまり、 地上開度は、 図 1 4に示すように、 着目 する標本地点から距離 Lの範囲内で見える空の広さを表しており、 また 地下開度は逆立ちをして地中を見渡す時、 距離 Lの範囲における地下の 広さを表している。
開度は距離 Lと周辺地形に依存している。 図 1 5は 9種の基本地形に ついての地上開度及び地下開度を、 方位毎の地上角及び地下角の 8角形 グラフで示したものである。 一般に地上開度は周囲から高く突き出てい る地点ほど大きくなり、 山頂や尾根では大きな値をとり窪地や谷底では 小さい。 逆に地下開度は地下に低く食い込んでいる地点ほど大きくなり、 窪地や谷底では大きな値をとり山頂や尾根では小さい。 実際には、 距離 Lの範囲内でも種々の基本地形が混在しているために、 地上角及び地下 角の 8角形グラフは変形され開度も種々の値をとることが多い。
前述のように D ( 及び D ^ ) L が Lに対して非増加特性をもってい ることから、 i> L 及び Ψ ί もまた Lに対して非増加特性を持っている。 また、 開度図は計算距離の指定によって、 地形規模に適合した情報抽 出が可能であり、 方向性及び局所ノイズに依存しない表示が可能である。 つまり、 尾根線及び谷線の抽出に優れており、 豊富な地形 ·地質情報 が判読できるものであり、 図 1 6に示すように、 一定範囲の DEMデ一 夕上 (地表面:立体: 図 1 6の (a) ) において、 設定した当該地点 A から 8方向のいずれか一方を見たときに最大頂点となる点 Bを結ぶ直線 L 1と、 水平線とがなす角度ベクトル 0 iを求める。 この角度ベクトル の求め方を 8方向に渡って実施し、 これらを平均化したものを地上開度 Θ i と称し、 一定範囲の DEMデータ上 (地表面:立体) に空気層を押 し当てた立体 (図 1 6の (b) ) を裏返した反転 DEMデ一夕 (図 1 6 の (c ) ) の当該地点 Aから 8方向のいずれか一方を見たときに最大頂 点となる点 C (一番深い所に相当する) を結ぶ直線 L 2と、 水平線とが なす角度を求める。 この角度を 8方向に渡って求めて平均化したのを地 下開度 i と称している。
すなわち、 地上開度データ作成部 9は、 着目点から一定距離までの範 囲に含まれる D EMデータ上において、 8方向毎に地形断面を生成し、 それぞれの地点と着目点を結ぶ線 (図 1 6の (a) の L 1) の傾斜の最 大値 (鉛直方向から見たとき) を求める。 このような処理を 8方向に対 して行う。 傾斜の角度は天頂からの角度 (平坦なら 9 0度、 尾根や山頂 では 9 0度以上、 谷底や窪地では 9 0度以下) また、 地下開度データ 作成部 1 0は、 反転 DEMデ一夕の着目点から一定距離までの範囲にお いて、 8方向毎に地形断面を生成し、 それぞれの地点と着目点を結ぶ線 の傾斜の最大値 (図 1 6の (a) の地表面の立体図において鉛直方向か ら L 2を見たときには最小値) を求める。 このような処理を 8方向に対 して行う。
図 1 6の (a) の地表面の立体図において鉛直方向から L 2を見たと きの角度ゆ iは、 平坦なら 9 0度、 尾根や山頂では 9 0度以下、 谷底や 窪地では 9 0度以上である。 つまり、 地上開度と地下開度は、 図 1 7に示すように、 2つの基本地 点 A ( i A, j A, HA) と B ( i B, j B, HB) を考える。 標本間隔が 1 mであることから Aと Bの距離は
P = {(iA - iB" + (jA - jB)2l1/2 ...(1)
となる。
図 1 7の (a) は標高 Omを基準として、 標本地点の Aと Bの関係を 示したものである。 標本地点 Aの標本地点 Bに対する仰角 Θは
Θ = t a n-1 { (HB —HA ) ZP
で与えられる。 0の符号は① HA<HB の場合には正となり、 ② HA〉 HB の場合には負となる。
着目する標本地点から方位 D距離 Lの範囲内にある標本地点の集合を DSL と記述して、 これを 「着目する標本地点の D— L集合」 を呼ぶこ とにする。 ここで、
DB L :着目する標本地点の DSL の各要素に対する仰角のうち の最大値
D δ L :着目する標本地点の DSL の各要素に対する仰角のうち の最小値
として (図 1 7の (b) 参照) 、 次の定義をおこなう。
定義 1 :着目する標本地点の D— L集合の地上角及び地下角とは、 各々 Όφί = 9 0 - Di3L
及び
Όφί = 9 0 + Β δί
を意味するものとする。
ϋφΐ は着目する標本地点から距離 L以内で方位 Dの空を見ることが できる天頂角の最大値を意味している。 一般に言われる地平線角とは L を無限大にした場合の地上角に相当している。 また、 Dゆ L は着目する 標本地点から距離 L以内で方位 Dの地中を見ることができる天底角の最 大値を意味している。 Lを増大させると、 DSL に属する標本地点の 数は増加することから、 D)SL に対して非減少特性を持ち、 逆に D5L は非増加特性を持つ。 したがって D(i>L 及び ϋφί .は共に Lに対して 非増加特性を持つことになる。
測量学における高角度とは、 着目する標本地点を通過する水平面を基 準にして定義される概念であり、 0とは厳密には一致しない。 また地上 角及び地下角を厳密に議論しょうとすれば、 地球の曲率も考慮しなけれ ばならず、 定義 1は必ずしも正確な記述ではない。 定義 1はあくまでも DEMを用いて地形解析をおこなうことを前提として定義された概念で ある。
地上角及び地下角は指定された方位 Dについての概念であつたが、 こ れを拡張したものとして、 次の定義を導入する。
定義 II :着目する標本地点の距離 Lの地上開度及び地下開度とは、 各々 L= (0 +45 φί +90 L +135 ΐ +180φί + 225 φ L + 270 (i)L +315 ί ) / 8
及び
Ψ1= ( 0 +45 +90 +135 L +180 L + 225ゆ L + 270 t)L +315ゆ L ) / 8
を意味するものとする。
地上開度は着目する標本地点から距離 Lの範囲内で見える空の広さを 表しており、 また地下開度は逆立ちをして地中を見渡す時、 距離 Lの範 囲における地下の広さを表している (図 1 4参照) 。
傾斜算出部 8は、 DEMデータを正方形にメッシュ化し、 このメッシ ュ上の着目点と隣接する正方形の面の平均傾斜を求める。 隣接する正方 形は 4通り存在しており、 いずれか一つを着目正方形とする。 そして、 この着目正方形の 4隅の高度と平均傾斜とを求める。 平均傾斜は最小二 乗法を用いて 4点から近似した面の傾きである。
凸部強調画像作成部 1 1は、 図 1 8 ( a ) に示すように、 尾根、 谷底 を明るさで表現するための第 1のグレイスケールを備え、 地上開度デー 夕作成部 9が地上開度 (着目点から Lの範囲を 8方向見たときの、 平均 角度:高いところにいるかを判定するための指標) を求める毎に、 この 地上開度 S iの値に対応する明るさ (明度) を算出する。
例えば、 地上開度の値が 4 0度から 1 2 0度程度の範囲に収まる場合 は、 5 0度から 1 1 0度を第 1のグレイスケール【こ対応させ、 2 5 5諧 調に割り当てる。
つまり、 尾根の部分 (凸部) の部分ほど地上開度の値が大きいので、 色 が白くなる。
そして、 図 1 9に示すように、 凸部強調画像作成部 1 1の凸部強調用 色割当処理 2 0が地上開度画像デ一夕 D aを読み、 着目点 (座標) を有 するメッシュ領域 (D E Mデータの同じ Z値を繋いだ等高線を正方形で メッシュ化し (例えば l m) 、 このメッシュの 4隅のいずれかの点を着 目点としている場合) に、 第 1のグレイスケールに基づく色データを割 り付け、 これを地上開度ファイル 2 1に保存 (地上開度画像データ D p a ) する。 次に、 諧調補部 2 2がこの地上開度画像データ D p aの色諧 調を反転させた地上開度レイヤ一 D pをファイル 2 3に保存する。 つま り、 尾根が白くなるように調整した地上開度レイヤー D pを得ている。 凹部抽出部 1 2は、 図 1 8 ( b ) に示すように、 谷底、 尾根を明るさ で表現するための第 2のグレイスケールを備え、 地下開度データ作成部 1 0が地下開度 i (着目点から 8方向の平均) を求める毎に、 この地 上開度 iの値に対応する明るさを算出する。
例えば、 地下開度の値が 4 0度から 1 2 0度程度の範囲に収まる場合 は、 5 0度から 1 1 0度を第 2のグレイスケールに対応させ、 2 5 5諧 調に割り当てる。
つまり、 谷底の部分 (凹部) の部分ほど地下開度の値が大きいので、 色 が黒くなることになる。
そして、 図 1 9に示すように、 凹部強調画像作成部 1 2の凹部強調用 色割当処理 2 5は、 地下開度画像データ D bを読み、 着目点 (座標) を 有するメッシュ領域 (D E Mデータの同じ Z値を繋いだ等高線を正方形 でメッシュ化し (例えば l m) 、 このメッシュの 4隅のいずれかの点を 着目点としている場合) に、 第 2のグレイスケールに基づく色データを 割り付け、 これを地下開度ファイル 2 6に保存する。 次に、 諧調補正処 理 2 7が地下開度画像データ D bの色諧調を補正する。
色が黒くなり過ぎた場合は、 トーンカーブを補正した度合いの色にする。 これを地下開度レイヤー D Qと称してファイル 2 8に保存する。
斜度強調部 1 3は、 図 1 8 ( c ) に示すように、 傾斜の度合いを明る さで表現するに応じたで表現するための第 3のグレイスケールを備え、 傾斜算出部 8が傾斜度 (着目点から 4方向の平均) を求める毎に、 この 傾斜度の値に対応する第 3のグレイスケールの明るさ (明度) を算出す る。
例えば、 斜度 a; iの値が 0度から 7 0度程度の範囲に収まる場合は、 0度から 5 0度を第 3のグレイスケールに対応させ、 2 5 5諧調に割り 当てる。 つまり、 0度が白、 5 0度以上が黒。 傾斜ひの大きい地点ほど 色が黒くなる。
そして、 図 2 0に示すように、 斜度強調画像作成部 1 3の斜度強調用 色割当処理 3 0は、 地下開度画像データ D bと地上開度画像データ D a との差画像を斜度画像 D r aとしてファイル 3 1に保存する。
このとき、 着目点 (座標) を有するメッシュ領域 (D E Mデータの同 じ Z値を繋いだ等高線を正方形でメッシュ化し (例えば lm) 、 このメ ッシュの 4隅のいずれかの点を着目点としている場合) に、 第 3のダレ ィスケールに基づく色データを割り付ける。 次に、 赤色処理が RGB力 ラ一モード機能で Rを強調する。 つまり、 傾斜が大きいほど赤が強調さ れた傾斜強調画像 D rをファイル 3 3に得る。
第 1の合成部 1 4は、 地上開度レイヤ一 D pと地下開度レイヤー D Q とを乗算して合成した合成画像 D h (D h=D p +Dl ) を得る。 こ のとき、 谷の部分が潰れないように両方のバランスを調整する。
前述の 「乗算」 というのは、 フォトショップ (Photoshop) 上のレイ ャ一モードの用語で、 数値処理上は OR演算となる。
Figure imgf000027_0001
このバランス調整は、 地上開度と地下開度の値の配分は、 ある地点を 地点を中心として一定の半径 (L/2) の地表面を切り取る。
空全体が一様な明るさの場合に地表面から見上げる空の広さが地面の 明るさを与える。
つまり、 地上開度が明るさとなる。 しかし、 光が回り込むことまで考 えると、 地下開度の値も考慮するべきである。
この両者の比をどのようにするべきかで、 地形の尾根の部分を強調し たり、 任意に変化させることができる。 谷の中の地形を強調したいとき は bの値を大きくする。
明るさの指標 a X地上開度— b X地下開度
但し、 a + b = 1
すなわち、 図 2 1に示すように、 地上開度レイヤー D p (尾根を白強 調) と地下開度レイヤ一 D Q (底を黒く強調) と乗算合成した灰色の諧 調表現の合成画像を得る (Dh=D p +Dl ) 。
一方、 第 2の合成部は、 ファイルの傾斜強調画像 D rと第 1の合成部 で合成して得た合成画像 Dhと合成した尾根が赤色で強調された立体赤 色化画像 K iを得て、 表示部に表示する。
すなわち、 図 2 2に示すように、 地上開度レイヤー D p (尾根を白強 調) と地下開度レイヤ一 D Q (底を黒く強調) と乗算合成した灰色の諧 調表現の合成画像 D hを得ると共に、 斜度画像 D r aに対して傾斜が多 きほど赤が強調された傾斜強調画像 D rを得る。
そして、 この傾斜強調画像 D rと合成画像 D hとを合成する。
図 2 3は、 本実施形態の処理を用いた青木ケ原一帯の立体地図である。 図 2 3に示すよう、 天神山スキー場の直ぐ南にある氷穴火口列は青木ケ 原溶岩流を流出させた火口の一つである。 空中写真では深い樹林に阻害 され、 その位置を確認することが困難である。 また、 航空測量による等 高線地図では氷穴火口列は表現することが困難 (図 2 4参照) であった が、 レーザデータによる地図 (図 2 5参照) では氷穴火口列らしいこと が分かる。
これに対して、 本実施形態の立体映像によれば、 図 2 6に示すように 氷穴火口列であることがハッキリ分かると共に、 溶岩流が作る凹凸や登 山道も分かる。
また、 図 2 7及び図 2 8は拡大図であり、 溶岩流れ、 道路の傾斜、 凹凸が視覚的に分かる。
なお、 上記実施の形態の手法は、 金星の地形や火星の地形に適用でき る。 さらに、 電子顕微鏡で測定された凹凸の可視化にも適用できる。 ま た、 ゲーム機器に適用すれば、 めがねをかけなくとも立体感が得られる。 以上のように、 本実施形態によれば、 D EM (Digital Elavation Mo d e l ) データをもとに、 傾斜、 地上開度、 地下開度の 3つのパラメ一 夕を求め、 平面分布をグレイスケール画像として保存。 地上開度と地下 開度の差分画像をグレイに、 傾斜を赤のチャンネルにいれて、 擬似カラ —画像を作成することによって、 尾根や山頂部分が白っぽく、 谷や窪地 が黒っぽく表現し、 傾斜が急な部分ほど赤く表現する。 このような表現 の組み合わせにより、 1枚でも立体感のある画像が生成できる。 このた め、 一目で凹凸の高低の度合い及び傾斜の度合いを把握させることがで きる。 (第 3の実施の形態)
次に、 図 2 9〜図 32 を参照して、 図 1 の視覚化処理システム VP S 1 を援用した本発明の第 3の実施の形態を説明する。
図 2 9は人体の X 線透視図、 図 3 0は同透視図の段彩スライス画像、 図 3 1は同透視図を上記視覚化処理システム VP S 1 で処理して得た赤色 諧調浮沈度分布画像、 そして図 3 2は図 3 1の画像を図 3 0の画像に重 ねた合成画像である。
図 3 0の段彩スライス画像は、 図 29 の X線透視図の各画素の色相を その明度に応じスライスし段彩化した画像で、 本実施形態では、 上記画 素の位置情報と明度とを成分とするべクトルの場を視覚化処理システム VP S 1 のベクトル場 7 0として記憶部 5 3に格納し、 視覚化処理プログ ラム 6 0の第 7処理ファイル 6 7による処理 P 7の結果として情報出力 部 5 5に表示される。 .
また図 3 1 の赤色諧調浮沈度分布画像が、 視覚化処理プログラム 6 0 の第 5処理ファイル 6 5による処理 P 5の結果として情報出力部 5 5に 表示される。
そして図 32 の合成画像が、 視覚化処理プログラム 6 0の第 8処理フ アイル 6 8による処理 P 8の結果として情報出力部 5 5に表示される。 産業上の利用可能性
本発明によれば、 べクトル場その局所的な立体的属性も含め直感的 に視認可能な仕方で実質的に二次元の視野上に視覚化することが可能な 視覚化処理システム, 視覚化処理方法、 及び視覚化処理プログラムが提 供される。
また、 地形の高低及び勾配の度合いを一目で立体的に把握できる傾 斜赤色化立体画像を生成する視覚化処理システム、 視覚化処理方法、 及 び視覚化処理プログラムが提供される。

Claims

請求の範囲
1. ベク トル場 ( 7 0 ) を三次元の座標空間 ( 8 0 ) に写像して対応 する座標点列を得る第 1 のオペレータ (6 1 ) と、
前記座標点列を連結する面の局所領域での浮上度 (A) を求める第 1 のオペレータ (6 2 ) と、
前記座標点列を連結する面の局所領域での沈下度 (C) を求める第 3 のオペレータ (6 3 ) と、
前記浮上度 (A) と前記沈下度 (C) とを重み付け合成して前記座標 点列を連結する面の局所領域での浮沈度 (B) を求める第 4 のオペレー タ ( 6 4) と、
前記座標空間 ( 8 0 ) を二次元面 ( 9 0 ) に写像し、 前記座標点列 を連結する面の局所領域に対応する二次元面 (9 0 ) 上の領域に前記浮 沈度に対応する諧調表示 (F) を行う第 5のオペレータ (6 5 ) と を備えることを特徴とする視覚化処理システム (VPS1 ;VPS2) 。
2. 前記浮上度 (B) は、 前記座標点列を連結する面の局所領域におけ る片面側の立体角で表されることを特徴とする請求項 1に記載の視覚化 処理システム (VPS1 ;VPS2) 。
3. 前記沈下度 (C) は、 前記座標点列を連結する面の局所領域におけ る他面側の立体角で表されることを特徴とする請求項 2に記載の視覚化 処理システム (VPS1 ;VPS2) 。
4. 更に、 前記座標点列を連結する面の斜度分布 (D) を求める第 6 の オペレータ (6 6 ) を備え、
前記第 5 のオペレータ (6 5 ) は、 前記二次元面 (9 0 ) 上に前記 斜度分布 (D) を色調表示 (F) し、 その明度に関し前記諧調表示 (F) を行う
こ と を特徴とする請求項 1 に記載の視覚化処理システム (VPS1 ;VPS2)
5. 前記第 5 のオペレータ (6 5 ) は、 前記斜度分布 (D) を赤色系の 色で色調表示 (F) することを特徴とする請求項 4に記載の視覚化処理 システム (VPS1 ;VPS2) 。
6. 更に、 前記座標点列のうち前記ベクトル楊 (7 0 ) での属性が等値 な座標点を連結して属性等値線 (I) を得る第 7のオペレータ (6 7 ) と、 .
前記諧調表示 (F) がなされた二次元面 (9 0 ) 上に前記属性等値線 (I) を写像する第 8のオペレータ (6 8) と
を備えることを特徴とする請求項 1 に記載の視覚化処理システム (VPS1 ;VPS2) 。
7. ベクトル場 (7 0 ) を三次元の座標空間 (8 0 ) に写像して対応 する座標点列を得る第 1 の手段 (6 1 ) と、
前記座標点列を連結する面の局所領域での浮上度 (A) を求める第 1 の手段 (6 2 ) と、
前記座標点列を連結する面の局所領域での沈下度 (C) を求める第 3 の手段 (6 3 ) と、
前記浮上度 (A) と前記沈下度 (C) とを重み付け合成して前記座標 点列を連結する面の局所領域での浮沈度 (B) を求める第 4 の手段 (6 4) と、 前記座標空間 (8 0 ) を二次元面 ( 9 0 ) に写像し、 前記座標点列 を連結する面の局所領域に対応する二次元面 (9 0) 上の領域に前記浮 沈度 (B) に対応する諧調表示 (F) を行う第 5 の手段 (6 5 ) と
を備えることを特徴とする視覚化処理システム (VPS1 ;VPS2) 。
8. ベクトル場 (7 0 ) を三次元の座標空間 (8 0) に写像して対応す る座標点列を得る第 1 の工程 (P1) と、
前記座標点列を連結する面の局所領域での浮上度 (A) を求める第 2 の工程 (P2) と、
前記座標点列を連結する面の局所領域での沈下度 (C) を求める第 3 の工程 (P3) と、
前記浮上度 (A) と前記沈下度 (C) とを重み付け合成して前記座標 点列を連結する面の局所領域での浮沈度 (B) を求める第 4 の工程 (P4) と、
前記座標空間 ( 8 0 ) を二次元面 ( 9 0 ) に写像し、 前記座標点列 を連結する面の局所領域に対応する二次元面 (9 0) 上の領域に前記浮 沈度 (B) を諧調表示 (F) する第 5 の工程 (P5) と
を備えることを特徴とする視覚化処理方法。
9. ベクトル場 (7 0 ) を三次元の座標空間 (8 0 ) に写像して対応す る座標点列を得る第 1 の処理 1) と、
前記座標点列を連結する面の局所領域での浮上度 (A) を求める第 2 の処理 (P2) と、
前記座標点列を連結する面の局所領域での沈下度 (C) を求める第 3 の処理 3) と、
前記浮上度 (A) と前記沈下度 (C) とを重み付け合成して前記座標 点列を連結する面の局所領域での浮沈度 (B ) を求める第 4 の処理 (P 4) と、
前記座標空間 (8 0 ) を二次元面 ( 9 0 ) に写像し、 前記座標点列 を連結する面の局所領域に対応する二次 面 (9 0 ) 上の領域に前記浮 沈度 (B) を諧調表示 (F) する第 5の処.理 (P 5 ) と
をコンピュータ ( 5 1 ) に行わせるべく機能することを特徴とする 視覚化処理プログラム (6 0 ) 。
1 0 . 3次元座標が付与されている多数のデジタルデータを記憶したデ —夕ベースと、
コンピュータとからなり、
前記コンピュータは、
前記デジタルデータの同じ Z値を有する 3次元座標を繋いだ等高線 を有する立体等高線画像を生成する手段と、
前記等高線の間をメッシュ化する手段と、
それぞれのメッシュに着目点を割り付け、 該着目点を有するメッシ ュの隣同士のメッシュとの Z値の差の平均を求める手段と、
この平均の差の大きさの度合いに応じた赤の諧調を前記着目点を有 するメッシュに割り当てた傾斜赤色化画像を生成する手段と、
前記着目点を有するメッシュの尾根谷度に応じて明度を変えたダレ ィスケール画像を生成する手段と、
前記傾斜赤色化画像と前記グレイスケール画像とを乗算合成するこ とで、 傾斜の度合い及び高低の度合いを色で表現した傾斜赤色化立体画 像を画面に表示する手段と
を備える
ことを特徴とする傾斜赤色化立体画像を生成するための視覚化処理 システム (VP S 1 ) 。
1 1 . デジタルデ一夕の同じ Z値を有する 3次元座標を繋いだ等高線を 有する立体等高線画像を生成する工程と、
前記等高線の間をメッシュ化する工程と、
それぞれのメッシュに着目点を割り付け、 該着目点を有するメッシ ュの隣同士のメッシュとの Z値の差の平均を求める工程と、
この平均の差の大きさの度合いに応じた赤の諧調を前記着目点を有 するメッシュに割り当てた傾斜赤色化画像を生成する工程と、
前記着目点を有するメッシュの尾根谷度に応じて明度を変えたダレ ィスケール画像を生成する工程と、
前記傾斜赤色化画像と前記グレイスケール画像とを乗算合成するこ とで、 傾斜の度合い及び高低の度合いを色で表現した傾斜赤色化立体画 像を画面に表示する工程と
を備えることを特徴とする傾斜赤色化立体画像を生成するための視 覚化処理方法。
1 2 . コンピュータを、
3次元座標が付与されている多数のデジタルデータを読み出す手段、 前記デジタルデータの同じ Z値を有する 3次元座標を繋いだ等高線 を有する立体等高線画像を生成する手段、
前記等高線の間をメッシュ化する手段、
それぞれのメッシュに着目点を割り付け、 該着目点を有するメッシ ュの隣同士のメッシュとの Z値の差の平均を求める手段、
この平均の差の大きさの度合いに応じた赤の諧調を前記着目点を有 するメッシュに割り当てた傾斜赤色化画像を生成する手段、 前記着目点を有するメッシュの尾根谷度に応じて明度を変えたダレ ィスケール画像を生成する手段、 及び
前記傾斜赤色化画像と前記グレイスケール画像とを乗算合成するこ とで、 傾斜の度合い及び高低の度合いを色で表現した傾斜赤色化立体画 像を画面に表示する手段
として機能させることを特徴とする傾斜赤色化立体画像を生成する ための視覚化処理プログラム。
PCT/JP2003/014118 2002-11-05 2003-11-05 視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム WO2004042675A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2003801027529A CN1711568B (zh) 2002-11-05 2003-11-05 视觉化处理***、视觉化处理方法
AU2003277561A AU2003277561A1 (en) 2002-11-05 2003-11-05 Visualizing system, visualizing method, and visualizing program
US10/533,675 US7764282B2 (en) 2002-11-05 2003-11-05 Visualizing system, visualizing method, and visualizing program
JP2004549616A JP3670274B2 (ja) 2002-11-05 2003-11-05 視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム
US12/786,718 US7876319B2 (en) 2002-11-05 2010-05-25 Stereoscopic image generator and system for stereoscopic image generation

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002321634 2002-11-05
JP2002/321634 2002-11-05

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10533675 A-371-Of-International 2003-11-05
US12/786,718 Division US7876319B2 (en) 2002-11-05 2010-05-25 Stereoscopic image generator and system for stereoscopic image generation

Publications (1)

Publication Number Publication Date
WO2004042675A1 true WO2004042675A1 (ja) 2004-05-21

Family

ID=32310368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/014118 WO2004042675A1 (ja) 2002-11-05 2003-11-05 視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム

Country Status (6)

Country Link
US (2) US7764282B2 (ja)
JP (1) JP3670274B2 (ja)
CN (2) CN102214410B (ja)
AU (1) AU2003277561A1 (ja)
TW (1) TWI285852B (ja)
WO (1) WO2004042675A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048185A (ja) * 2005-08-12 2007-02-22 Kokusai Kogyo Co Ltd カラー標高傾斜図作成システムおよびカラー標高傾斜図作成方法
JP2008111724A (ja) * 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The 樹木頂点認識方法及び樹木頂点認識のプログラム並びに樹木頂点認識装置
JP2012003400A (ja) * 2010-06-15 2012-01-05 Nakanihon Koku Kk 地形起伏画像生成方法及び地形起伏画像生成装置
JP2018173519A (ja) * 2017-03-31 2018-11-08 株式会社パスコ 地形特性表現装置及び地形特性表現プログラム
JP2019127818A (ja) * 2018-01-22 2019-08-01 国立大学法人京都大学 土砂災害予測装置、コンピュータプログラム、土砂災害予測方法及び地図情報
JP2021082112A (ja) * 2019-11-21 2021-05-27 アジア航測株式会社 等高線生成システム及びそのプログラム
JP7129536B1 (ja) 2021-11-19 2022-09-01 株式会社パスコ 差分処理方法、差分処理装置及びプログラム

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8442280B2 (en) * 2004-01-21 2013-05-14 Edda Technology, Inc. Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
US8295554B2 (en) * 2006-09-19 2012-10-23 Telecom Italia S.P.A. Method of deriving digital terrain models from digital surface models
CN102160087B (zh) * 2007-01-05 2013-09-18 兰德马克绘图国际公司,哈里伯顿公司 用于实时可视化多卷数据集的方法及***
CN101578636A (zh) * 2007-01-10 2009-11-11 通腾科技股份有限公司 从数字地图显示高程信息
CN101226643B (zh) * 2007-01-17 2010-05-19 财团法人资讯工业策进会 可依水面实际高度绘制3d水面的装置及方法
US8065200B2 (en) * 2007-11-26 2011-11-22 International Business Machines Corporation Virtual web store with product images
US8019661B2 (en) * 2007-11-26 2011-09-13 International Business Machines Corporation Virtual web store with product images
US8379021B1 (en) * 2008-01-30 2013-02-19 Adobe Systems Incorporated System and methods for rendering height-field images with hard and soft shadows
US20090225073A1 (en) * 2008-03-04 2009-09-10 Seismic Micro-Technology, Inc. Method for Editing Gridded Surfaces
US8253727B2 (en) * 2008-03-14 2012-08-28 International Business Machines Corporation Creating a web store using manufacturing data
US8369184B2 (en) * 2009-01-26 2013-02-05 Shotspotter, Inc. Systems and methods with improved three-dimensional source location processing including constraint of location solutions to a two-dimensional plane
TW201114245A (en) * 2009-10-08 2011-04-16 Chunghwa Picture Tubes Ltd Method for forming three-dimension images and related display module
FR2959828B1 (fr) * 2010-05-05 2013-07-12 Astrium Sas Dispositif de mesure altimetrique
JP6070192B2 (ja) * 2010-12-03 2017-02-01 ソニー株式会社 3dデータ解析装置および3dデータ解析方法ならびに3dデータ解析プログラム
CN102682480A (zh) * 2012-05-18 2012-09-19 北京地拓科技发展有限公司 一种准确计算地表长度的方法和装置
US9299191B2 (en) 2012-06-04 2016-03-29 Google Inc. Adaptive artifact removal
JP6120687B2 (ja) 2012-06-14 2017-04-26 アジア航測株式会社 ラスター画像立体化処理装置及びラスター画像立体化方法並びにラスター画像立体化プログラム
CN104143198A (zh) * 2013-05-08 2014-11-12 北大方正集团有限公司 一种图像描述方法和装置
JP5862635B2 (ja) * 2013-10-11 2016-02-16 カシオ計算機株式会社 画像処理装置、立体データ生成方法、及びプログラム
CN103544735A (zh) * 2013-10-22 2014-01-29 浙江浙大万维科技有限公司 Dem数据的配色与制图方法和装置
AU2014202959B2 (en) * 2014-05-30 2020-10-15 Caterpillar Of Australia Pty Ltd Illustrating elevations associated with a mine worksite
CN104484577B (zh) * 2014-12-30 2017-06-16 华中科技大学 一种基于山脊能量校正的山地中带状地下目标的探测方法
US11172005B2 (en) 2016-09-09 2021-11-09 Nokia Technologies Oy Method and apparatus for controlled observation point and orientation selection audiovisual content
CN106780733A (zh) * 2016-12-28 2017-05-31 广西东方道迩科技有限公司 一种基于人眼视觉特性显示和生产地形图的方法
TWI627602B (zh) * 2017-06-23 2018-06-21 3D terrain map and manufacturing method thereof
KR102415768B1 (ko) * 2017-12-08 2022-06-30 아시아코소쿠 가부시키가이샤 지물 지반 높이별 컬러 화상 생성 장치 및 지물 높이별 컬러 화상 생성 프로그램
WO2019111955A1 (ja) 2017-12-08 2019-06-13 アジア航測株式会社 地物高別色付画像生成装置及び地物高別色付画像生成プログラム
CN110400252B (zh) * 2019-06-28 2022-09-06 中科航宇(北京)自动化工程技术有限公司 料场等高线数字化方法及***
JP6692984B1 (ja) * 2019-09-20 2020-05-13 アジア航測株式会社 超解像度立体視化処理システム及びそのそのプログラム
CN111192366B (zh) * 2019-12-30 2023-04-07 重庆市勘测院 用于建筑高度三维控制的方法及装置、服务器
CN111383337B (zh) * 2020-03-20 2023-06-27 北京百度网讯科技有限公司 用于识别对象的方法和装置
CN113713353B (zh) * 2021-05-12 2022-05-31 北京冰锋科技有限责任公司 一种跳台滑雪运动员的技术动作获取方法及***

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4357660A (en) * 1973-05-01 1982-11-02 Schlumberger Technology Corporation Formation dip and azimuth processing technique
US4467461A (en) * 1981-01-05 1984-08-21 Conoco Inc. Interactive color analysis of geophysical data
US4645459A (en) * 1982-07-30 1987-02-24 Honeywell Inc. Computer generated synthesized imagery
US4965582A (en) * 1984-11-24 1990-10-23 Hellsten Hans O Method for radar mapping an area and a radar equipment to carry out the method
US5067098A (en) * 1989-03-31 1991-11-19 The Ohio State University Research Foundation Slope-aspect color shading for parametric surfaces
US5619593A (en) * 1991-09-12 1997-04-08 Fuji Photo Film Co., Ltd. Method for extracting object images and method for detecting movements thereof
US5452406A (en) * 1993-05-14 1995-09-19 Microsoft Corporation Method and system for scalable borders that provide an appearance of depth
US5357484A (en) * 1993-10-22 1994-10-18 The United States Of America As Represented By The Secretary Of The Navy Method and apparatus for locating an acoustic source
EP0663645A3 (en) * 1994-01-13 1996-07-03 Eastman Kodak Co Bitmap registration through gradient descent.
JP2623449B2 (ja) * 1994-10-29 1997-06-25 雅治 石井 地形モデル作成方法
US5552787A (en) * 1995-10-10 1996-09-03 The United States Of America As Represented By The Secretary Of The Navy Measurement of topography using polarimetric synthetic aperture radar (SAR)
US5671136A (en) * 1995-12-11 1997-09-23 Willhoit, Jr.; Louis E. Process for seismic imaging measurement and evaluation of three-dimensional subterranean common-impedance objects
US5923278A (en) * 1996-07-11 1999-07-13 Science Applications International Corporation Global phase unwrapping of interferograms
US6011505A (en) * 1996-07-11 2000-01-04 Science Applications International Corporation Terrain elevation measurement by interferometric synthetic aperture radar (IFSAR)
US5825188A (en) * 1996-11-27 1998-10-20 Montgomery; Jerry R. Method of mapping and monitoring groundwater and subsurface aqueous systems
US6208347B1 (en) * 1997-06-23 2001-03-27 Real-Time Geometry Corporation System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture
US6073079A (en) * 1998-02-17 2000-06-06 Shield Petroleum Incorporated Method of maintaining a borehole within a multidimensional target zone during drilling
US6456288B1 (en) * 1998-03-31 2002-09-24 Computer Associates Think, Inc. Method and apparatus for building a real time graphic scene database having increased resolution and improved rendering speed
US6539126B1 (en) * 1998-04-17 2003-03-25 Equinox Corporation Visualization of local contrast for n-dimensional image data
US20030026762A1 (en) * 1999-05-05 2003-02-06 Malmros Mark K. Bio-spectral imaging system and methods for diagnosing cell disease state
US6778698B1 (en) * 1999-06-11 2004-08-17 Pts Corporation Method and apparatus for digital image segmentation
US6288721B1 (en) * 1999-07-07 2001-09-11 Litton Systems, Inc. Rendering process and method for digital map illumination intensity shading
US6735557B1 (en) * 1999-10-15 2004-05-11 Aechelon Technology LUT-based system for simulating sensor-assisted perception of terrain
US6578706B2 (en) * 2000-10-31 2003-06-17 Kimberly Ann Thompson Folding portfolio organizer
US7164883B2 (en) * 2001-02-14 2007-01-16 Motorola. Inc. Method and system for modeling and managing terrain, buildings, and infrastructure
US6989841B2 (en) * 2001-05-29 2006-01-24 Fairfield Industries, Inc. Visualization method for the analysis of prestack and poststack seismic data
US6985606B1 (en) * 2002-03-08 2006-01-10 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for identifying sedimentary bodies from images and its application to mineral exploration
US6915310B2 (en) * 2002-03-28 2005-07-05 Harris Corporation Three-dimensional volumetric geo-spatial querying
US7355597B2 (en) * 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
US7095423B2 (en) * 2002-07-19 2006-08-22 Evans & Sutherland Computer Corporation System and method for combining independent scene layers to form computer generated environments
US7619626B2 (en) * 2003-03-01 2009-11-17 The Boeing Company Mapping images from one or more sources into an image for display
US7148861B2 (en) * 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US7151545B2 (en) * 2003-08-06 2006-12-19 Landmark Graphics Corporation System and method for applying accurate three-dimensional volume textures to arbitrary triangulated surfaces

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KIKUKAWA MAKOTO ET AL.: "Solid texturing o riyo shita 3-jigen nin'i gamenjo ni okeru sensekibun tatamikomiho", THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS, vol. 29, no. 4, 25 July 2000 (2000-07-25), pages 283 - 291, XP002980101 *
SHINOHARA KATSUYUKI ET AL.: "Vector-jo o mochiita gazo kaiseki", ITE TECHNICAL REPORT, vol. 17, no. 28, 20 May 1993 (1993-05-20), pages 11 - 16, XP002979200 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007048185A (ja) * 2005-08-12 2007-02-22 Kokusai Kogyo Co Ltd カラー標高傾斜図作成システムおよびカラー標高傾斜図作成方法
JP2008111724A (ja) * 2006-10-30 2008-05-15 Tokyo Electric Power Co Inc:The 樹木頂点認識方法及び樹木頂点認識のプログラム並びに樹木頂点認識装置
JP2012003400A (ja) * 2010-06-15 2012-01-05 Nakanihon Koku Kk 地形起伏画像生成方法及び地形起伏画像生成装置
JP2018173519A (ja) * 2017-03-31 2018-11-08 株式会社パスコ 地形特性表現装置及び地形特性表現プログラム
JP2019127818A (ja) * 2018-01-22 2019-08-01 国立大学法人京都大学 土砂災害予測装置、コンピュータプログラム、土砂災害予測方法及び地図情報
JP7153330B2 (ja) 2018-01-22 2022-10-14 国立大学法人京都大学 土砂災害予測装置、コンピュータプログラム、土砂災害予測方法及び地図情報
JP2021082112A (ja) * 2019-11-21 2021-05-27 アジア航測株式会社 等高線生成システム及びそのプログラム
JP7129536B1 (ja) 2021-11-19 2022-09-01 株式会社パスコ 差分処理方法、差分処理装置及びプログラム
JP2023075394A (ja) * 2021-11-19 2023-05-31 株式会社パスコ 差分処理方法、差分処理装置及びプログラム

Also Published As

Publication number Publication date
JP3670274B2 (ja) 2005-07-13
CN1711568A (zh) 2005-12-21
US7764282B2 (en) 2010-07-27
US7876319B2 (en) 2011-01-25
TW200415526A (en) 2004-08-16
AU2003277561A1 (en) 2004-06-07
CN1711568B (zh) 2010-05-12
US20060262117A1 (en) 2006-11-23
TWI285852B (en) 2007-08-21
US20100231584A1 (en) 2010-09-16
CN102214410B (zh) 2014-01-01
CN102214410A (zh) 2011-10-12
JPWO2004042675A1 (ja) 2006-03-09

Similar Documents

Publication Publication Date Title
WO2004042675A1 (ja) 視覚化処理システム、視覚化処理方法、及び視覚化処理プログラム
Horn Hill-shading and the reflectance map
JP4771459B2 (ja) カラー標高傾斜図作成システムおよびカラー標高傾斜図作成方法
TWI526985B (zh) 掃描線圖像立體化處理裝置及掃描線圖像立體化方法以及掃描線圖像立體化程式
MX2009002339A (es) Imagenes oblicuas en mosaico y metodos de elaboracion y uso de las mismas.
US20090225073A1 (en) Method for Editing Gridded Surfaces
CN111433820B (zh) 按地物高度着色图像生成装置以及计算机可读介质
JP6692984B1 (ja) 超解像度立体視化処理システム及びそのそのプログラム
WO2019111956A1 (ja) 地物地盤高別色付画像生成装置及び地物高別色付画像生成プログラム
JP5281518B2 (ja) 立体画像生成装置
JP5587677B2 (ja) 地形起伏画像生成方法及び地形起伏画像生成装置
Lai et al. Visual enhancement of 3D images of rock faces for fracture mapping
JP4272146B2 (ja) 立体画像作成装置及び立体画像作成プログラム
JP5795283B2 (ja) 数値標高モデルの可視化画像作成方法及び可視化画像作成装置
Jenny et al. Introducing plan oblique relief
JP5671184B1 (ja) 断層図作成装置及び断層図作成方法並びに断層図作成プログラム
JP2004533678A (ja) 立方根スケーリングを使用することによりポリゴンデータに対する空間的階層を決定するシステム及び方法
JP6995912B2 (ja) 地形図出力装置、地形図出力方法及びプログラム
Konnelly GIS applications to historical cartographic methods to improve the understanding and visualization of contours
JP2021149059A (ja) 地形図出力装置、地形図出力方法及びプログラム
JP6995913B2 (ja) 地形図出力装置、地形図出力方法及びプログラム
Lütjens Immersive Virtual Reality Visualisation of the Arctic Clyde Inlet on Baffin Island (Canada) by Combining Bathymetric and Terrestrial Terrain Data
WO2024128249A1 (ja) 高速超解像度画像立体視化処理システム及び高速超解像度画像立体視化処理プログラム
Keely et al. Desktop Exploration of Remote Terrain (DERT)
Wang et al. Raster mapping of topographic parameters derived from high resolution Digital Elevation Models

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2004549616

Country of ref document: JP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 20038A27529

Country of ref document: CN

122 Ep: pct application non-entry in european phase
WWE Wipo information: entry into national phase

Ref document number: 2006262117

Country of ref document: US

Ref document number: 10533675

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10533675

Country of ref document: US