JP6212398B2 - Landscape quantification device - Google Patents

Landscape quantification device Download PDF

Info

Publication number
JP6212398B2
JP6212398B2 JP2014005394A JP2014005394A JP6212398B2 JP 6212398 B2 JP6212398 B2 JP 6212398B2 JP 2014005394 A JP2014005394 A JP 2014005394A JP 2014005394 A JP2014005394 A JP 2014005394A JP 6212398 B2 JP6212398 B2 JP 6212398B2
Authority
JP
Japan
Prior art keywords
viewpoint image
landscape
target
visibility
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014005394A
Other languages
Japanese (ja)
Other versions
JP2015133075A (en
Inventor
佐藤 大樹
大樹 佐藤
佐藤 康弘
康弘 佐藤
史彦 斎藤
史彦 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Taisei Corp
Original Assignee
Taisei Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Taisei Corp filed Critical Taisei Corp
Priority to JP2014005394A priority Critical patent/JP6212398B2/en
Publication of JP2015133075A publication Critical patent/JP2015133075A/en
Application granted granted Critical
Publication of JP6212398B2 publication Critical patent/JP6212398B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、仮想的な三次元空間を用いて対象物の景観の定量的な値を算出する景観定量化装置に関し、特に、建設により景観に大きな変化を与える大規模施設の建設地を検討する場合に、この大規模施設の建設後の見え方を仮想的な三次元空間(仮想三次元空間)を用いて定量的な値として算出する技術に関する。   The present invention relates to a landscape quantification apparatus that calculates a quantitative value of a landscape of an object using a virtual three-dimensional space, and in particular, examines a construction site of a large-scale facility that greatly changes the landscape by construction. In this case, the present invention relates to a technique for calculating the appearance after the construction of the large-scale facility as a quantitative value using a virtual three-dimensional space (virtual three-dimensional space).

地熱発電、メガソーラー、風力発電等の大規模な再生エネルギー施設や大規模な再開発施設(以下、まとめて「大規模施設」と称する)が知られている。この種の大規模施設は、自然環境の中に孤立して建設されることがあり、景観に大きな影響(インパクト)を与える場合が多い。その為、これらの大規模施設は、周辺住民の生活空間から可能な限り見えにくい場所を選定して建設されることが望ましい。したがって、これらの大規模施設の建設地を検討するにあたり、建設後の景観を事前に評価する必要がある。   Large-scale renewable energy facilities such as geothermal power generation, mega solar, and wind power generation, and large-scale redevelopment facilities (hereinafter collectively referred to as “large-scale facilities”) are known. This type of large-scale facility is sometimes isolated in the natural environment and often has a large impact on the landscape. For this reason, it is desirable that these large-scale facilities be constructed by selecting places that are as difficult to see as possible from the living spaces of the surrounding residents. Therefore, it is necessary to evaluate the landscape after construction before considering the construction site of these large-scale facilities.

従来の景観評価は、コンピュータグラフィックス(CG:Computer Graphics)ソフト等の汎用ソフトウェアで作成されたモデル空間(仮想三次元空間)の中に大規模施設に対応するオブジェクトを配置し、設定した特定の視点(地点)からのオブジェクトの見え方をパース化するものである。ここで、特定の視点は、幹線道路や観光スポット、住居密集地等、大規模施設の見え方が特に「大切そう」な位置を、設計者のカンや試行錯誤で決めている。これにより「観光スポットからは大規模施設が見えるが、住居密集地からは大規模施設が見えない」のように、「ある特定の視点から見た場合の大規模施設の見え方」を定性的に評価することは可能である。しかし、以下のような問題が存在する。   Conventional landscape evaluation is performed by placing objects corresponding to large-scale facilities in a model space (virtual three-dimensional space) created by general-purpose software such as computer graphics (CG) software. It parses how an object looks from a viewpoint (point). Here, a specific point of view is determined by the designer's can and trial and error where the appearance of a large-scale facility is particularly “important” such as a main road, a tourist spot, and a densely populated area. Qualitatively, “Looking at large-scale facilities from a specific viewpoint”, such as “Large-scale facilities can be seen from tourist spots but large-scale facilities cannot be seen from densely populated areas” It is possible to evaluate. However, there are the following problems.

第1に、評価結果の問題がある。上記の通り、従来の景観評価は、設計者が任意に視点を設定し、その見え方をパース化するので、「観光スポットからの大規模施設の見える割合は60%で、住居密集地からの大規模施設の見える割合は5%」のように、視点ごとに定量的な評価結果を得ることができない。また、設計者が任意に視点を設定するので、景観上重要な視点を見落す虞がある。   First, there is a problem with the evaluation results. As mentioned above, in the conventional landscape evaluation, the designer arbitrarily sets the viewpoint and parses the way it is seen. Therefore, “The percentage of large-scale facilities that can be seen from tourist spots is 60%. A quantitative evaluation result cannot be obtained for each viewpoint, such as “the ratio of visible large-scale facilities is 5%”. In addition, since the designer arbitrarily sets the viewpoint, there is a possibility that an important viewpoint on the landscape may be overlooked.

第2に、作業時間の問題がある。大規模施設は数キロ先からも見えるため、視点設定の対象となる領域は広範にわたる。その為、従来の方法でこの全域をチェックすることは、視点数も多数になることから膨大な作業時間を要する。   Secondly, there is a problem of working time. Since large-scale facilities can be seen from several kilometers away, the scope of setting the viewpoint is wide. Therefore, checking the entire area by the conventional method requires a large amount of work time because the number of viewpoints is large.

一方、景観評価の従来研究として、経路探索のために、特定の経路上(計算点)での評価対象物の可視率を算出する技術が提案されている(非特許文献1参照)。また、従来研究として、地形を構成するある面上の計算点から、他の地形面(評価対象物)の可視・不可視を解析する技術が提案されている(非特許文献2ないし非特許文献4参照)。これらの技術は、計算点から評価対象物までのライン上に他の地形面や障害物面があるかどうかを判定するものである。なお、非特許文献2ないし非特許文献4に記載された技術は、地形の景観特性の分類・類型化が目的であり、特定の評価対象物の評価とは異なるものである。   On the other hand, as a conventional study of landscape evaluation, a technique for calculating the visibility of an evaluation object on a specific route (calculation point) for route search has been proposed (see Non-Patent Document 1). Further, as a conventional research, a technique for analyzing the visible / invisible of other terrain surfaces (objects to be evaluated) from calculation points on a certain surface constituting the terrain has been proposed (Non-Patent Document 2 to Non-Patent Document 4). reference). These techniques determine whether there are other topographical surfaces or obstacle surfaces on the line from the calculation point to the evaluation object. The technique described in Non-Patent Document 2 to Non-Patent Document 4 is intended to classify and classify landscape characteristics of terrain, and is different from the evaluation of a specific evaluation object.

河野亜希、外4名、「景観の可視性を考慮したルート探索システムの提案」、情報科学技術レターズ、社団法人情報処理学会、2007年、第6巻、p.351−p.354Aki Kono and 4 others, “Proposal of Route Search System Considering Landscape Visibility”, Information Science and Technology Letters, Information Processing Society of Japan, 2007, Vol. 6, p.351-p.354 合澤憲陵、外3名、「地形と土地利用データを用いた景観構成条件による地区類型に関する研究」、日本建築学会大会学術講演梗概集、一般社団法人日本建築学会、1998年、p.701−p.702Noriyoshi Aizawa, 3 others, “Study on district type by landscape composition using topography and land use data”, Summary of Academic Lectures of Architectural Institute of Japan, Architectural Institute of Japan, 1998, p.701− p.702 李衝馥、外5名、「高密都市空間におけるCGを用いた地理的スケールのエリア別景観分析〜ソウル市における地形データの解析〜」、日本建築学会大会学術講演梗概集、一般社団法人日本建築学会、1999年、p.481−p.482Lee Jun-hyun, 5 others, “Analysis of landscapes by area of geographical scale using CG in high-density urban space -Analysis of topographic data in Seoul city-”, Summaries of Annual Conferences of Architectural Institute of Japan, Architectural Institute of Japan, 1999, p.481-p.482 姫野由香、外3名、「大規模景観構成要素の視覚構造による景観Potentialに関する研究」、日本建築学会大会学術講演梗概集、一般社団法人日本建築学会、1998年、p.625−p.626Yuka Himeno, 3 others, “Study on landscape potential by visual structure of large-scale landscape components”, Summary of Academic Lectures of Architectural Institute of Japan, Architectural Institute of Japan, 1998, p.625-p.626

非特許文献1ないし非特許文献4に記載された技術では、上記従来の景観評価の問題点を解決するまでに至らない。すなわち、非特許文献1に記載された技術では、特定経路上(計算点)のみを計算対象としているので、全域を定量的に評価することができない。その為、景観上重要な地点を見落す可能性があり、広域景観の検討には不十分である(評価結果の問題)。   The techniques described in Non-Patent Literature 1 to Non-Patent Literature 4 do not lead to solving the problems of the conventional landscape evaluation. That is, in the technique described in Non-Patent Document 1, since the calculation target is only on a specific route (calculation point), the entire area cannot be quantitatively evaluated. Therefore, there is a possibility of overlooking an important point on the landscape, which is insufficient for studying a wide-area landscape (problem of the evaluation result).

また、非特許文献1ないし特許文献4に記載された技術では、評価対象物をいくつかの代表点に置き換えて、その点が見えるか否かを判定する。ここで、可視率の精度を確保するためには、評価対象物に対して充分に多数の可視・不可視を判定するためのライン(例えば100本)を生成して計算する必要があり、1つの視点につきその本数分の可視・不可視の判定計算が必要になる。その為、数キロ先からも見える大規模施設を評価対象物として全域の景観評価を行う場合には、計算点が広域(100万メッシュ以上の地形)となることから、計算負荷(計算所要時間)が膨大となる(作業時間の問題)。   In the techniques described in Non-Patent Documents 1 to 4, the evaluation object is replaced with some representative points, and it is determined whether or not the points are visible. Here, in order to ensure the accuracy of the visibility rate, it is necessary to generate and calculate a sufficiently large number of lines (for example, 100 lines) for determining whether the object is evaluated. Visibility / invisible judgment calculation is required for each viewpoint. For this reason, when performing landscape assessment of the entire area using a large-scale facility that can be seen from several kilometers away, the calculation points will be a wide area (topography of 1 million mesh or more). ) Becomes enormous (working time issue).

本発明は、前記問題に鑑みてなされたものであり、対象物の景観の評価を定量的、かつ全域を効率的に行うことができる、景観定量化装置を提供することを課題とする。   This invention is made | formed in view of the said problem, and makes it a subject to provide the landscape quantification apparatus which can perform the evaluation of the landscape of a target object quantitatively and the whole area efficiently.

前記課題を解決するため、本発明に係る景観定量化装置は、仮想的な三次元空間を用いて、対象物の景観の定量的な値を算出する景観定量化装置であって、前記対象物の形状を複数のポリゴンで表した対象物オブジェクトおよび前記対象物以外の形状を複数のポリゴンで表した非対象物オブジェクトが記憶される記憶手段と、前記対象物オブジェクトに設定される視点から前記非対象物オブジェクトを第1仮想スクリーンに投影した第1視点画像を作成する第1視点画像作成手段と、前記第1視点画像を走査することにより、前記第1視点画像に描画される前記非対象物オブジェクトのポリゴンを判別する有効計算点判別手段と、前記有効計算点判別手段が判別したポリゴンの各々を新たな視点とし、前記新たな視点から前記対象物オブジェクトを第2仮想スクリーンに投影した第2視点画像を作成する第2視点画像作成手段と、前記第2視点画像を走査することにより、少なくとも1つの前記新たな視点から前記対象物を観察した場合の景観の定量的な値を算出する定量値算出手段と、を備えることを特徴とする。   In order to solve the above problem, a landscape quantification device according to the present invention is a landscape quantification device that calculates a quantitative value of a landscape of an object using a virtual three-dimensional space, and the object Storage means for storing a target object in which the shape of the object is represented by a plurality of polygons and a non-object object in which a shape other than the target is represented by a plurality of polygons, and a non-object object from the viewpoint set for the target object. First viewpoint image creation means for creating a first viewpoint image obtained by projecting a target object onto a first virtual screen, and the non-object drawn on the first viewpoint image by scanning the first viewpoint image Effective calculation point determination means for determining the polygon of the object, and each polygon determined by the effective calculation point determination means as a new viewpoint, and the object object A second viewpoint image creating means for creating a second viewpoint image obtained by projecting the image on the second virtual screen, and the object is observed from at least one of the new viewpoints by scanning the second viewpoint image. And a quantitative value calculating means for calculating a quantitative value of the scenery.

ここで、対象物オブジェクトは、構造物の形状の他に、構造物以外の形状および三次元ポリゴン化された各種物理量の分布形状も含むものである。
また、景観の定量的な値は、例えば「可視率」である。「可視率」とは、三次元形状モデルを用いて、ある地点(計算点)から評価対象物を観察したときに、障害物(例えば、丘、山、建物、樹木等)が何もないと仮定した場合の評価対象物の見付面積に対する実際の評価対象物の見付面積(障害物があることにより遮蔽される分を差し引いた面積)の割合(%)である。
Here, the target object includes not only the shape of the structure but also a shape other than the structure and a distribution shape of various physical quantities converted into three-dimensional polygons.
The quantitative value of the landscape is, for example, “visible rate”. “Visibility” means that there is no obstacle (eg, hill, mountain, building, tree, etc.) when an evaluation object is observed from a certain point (calculation point) using a 3D shape model. This is the ratio (%) of the actual area to be found (the area obtained by subtracting the portion shielded by the obstacle) from the assumption area of the object to be evaluated.

本発明によれば、対象物の景観の評価を定量的、かつ全域を効率的に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, the landscape evaluation of a target object can be performed quantitatively and the whole area can be performed efficiently.

実施形態に係る景観定量化装置のブロック図である。It is a block diagram of the landscape quantification apparatus concerning an embodiment. 実施形態に係る景観定量化装置が算出する可視率を説明するための図である。It is a figure for demonstrating the visibility which the landscape quantification apparatus which concerns on embodiment calculates. 実施形態に係る仮想の三次元空間の水平面を区域に分割する処理を説明するための図である。It is a figure for demonstrating the process which divides | segments the horizontal surface of the virtual three-dimensional space which concerns on embodiment. 実施形態に係る区域で階層化したデータ構造を説明するための図である。It is a figure for demonstrating the data structure hierarchized in the area which concerns on embodiment. 実施形態に係る景観定量化装置が行う描画判定処理を説明するための図である。It is a figure for demonstrating the drawing determination process which the landscape quantification apparatus which concerns on embodiment performs. 実施形態に係る景観定量化装置が作成する第1視点画像を例示したものである。The 1st viewpoint image which the landscape quantification apparatus which concerns on embodiment creates is illustrated. 実施形態に係る景観定量化装置が描画範囲を計算する処理を説明するための図(1)である。It is figure (1) for demonstrating the process which the landscape quantification apparatus which concerns on embodiment calculates a drawing range. 実施形態に係る景観定量化装置が描画範囲を計算する処理を説明するための図(2)である。It is a figure (2) for demonstrating the process which the landscape quantification apparatus which concerns on embodiment calculates a drawing range. 実施形態に係る景観定量化装置が作成する第2視点画像を説明するための図であり、図9(a)は非対象物なし第2視点画像を示し、図9(b)は障害物となる非対象物オブジェクトを示し、図9(c)は非対象物あり第2視点画像を示す。It is a figure for demonstrating the 2nd viewpoint image which the landscape quantification apparatus which concerns on embodiment creates, Fig.9 (a) shows a 2nd viewpoint image without a non-object, FIG.9 (b) shows an obstruction. FIG. 9C shows a second viewpoint image with non-objects. 実施形態に係る景観定量化装置が記憶する三次元形状データの例示であり、図10(a)は評価対象領域全域を示し、図10(b)は評価対象物が配置される近辺の領域(拡大)を示す。It is an illustration of the three-dimensional shape data memorize | stored in the landscape quantification apparatus which concerns on embodiment, Fig.10 (a) shows the whole evaluation object area | region, FIG.10 (b) shows the area | region (where the evaluation object is arrange | positioned) ( Magnification). 実施形態に係る景観定量化装置が作成する可視率分布の例示であり、図11(a)は評価対象領域全域を示し、図11(b)は評価対象物が配置される近辺の領域(拡大)を示す。It is an illustration of the visibility distribution created by the landscape quantification apparatus according to the embodiment, FIG. 11A shows the entire evaluation target region, and FIG. 11B is a region in the vicinity where the evaluation target is arranged (enlarged) ). 実施形態に係る景観定量化方法のフローチャートである。It is a flowchart of the landscape quantification method concerning an embodiment. 変形例に係る景観定量化装置が記憶する三次元形状データの例示であり、図13(a)は評価対象領域全域を示し、図13(b)は評価対象物(煙を排出していない状態)が配置される近辺の領域(拡大)を示し、図13(c)は評価対象物(煙を排出している状態)が配置される近辺の領域(拡大)を示す。It is illustration of the three-dimensional shape data which the landscape quantification apparatus which concerns on a modification memorize | stores, FIG.13 (a) shows the whole evaluation object area | region, FIG.13 (b) is the evaluation object (The state which is not discharging | emitting smoke) ) Shows a region (enlarged) in the vicinity, and FIG. 13 (c) shows a region (enlarged) in the vicinity where the evaluation object (a state where smoke is discharged) is arranged. 変形例に係る景観定量化装置が作成する可視率分布の例示であり、図14(a)は評価対象物(煙を排出していない状態)の評価対象領域全域を示し、図14(b)は評価対象物(煙を排出している状態)の評価対象領域全域を示す。It is an illustration of the visibility distribution created by the landscape quantification apparatus according to the modification, and FIG. 14A shows the entire evaluation target region of the evaluation target (a state where smoke is not discharged), and FIG. Indicates the entire evaluation target area of the evaluation target (the state in which smoke is discharged). 実施形態に係る景観定量化装置が、複数の区域にまたがるポリゴン(区域の境界上に位置するポリゴン)を別グループとして登録する処理を説明するための図である。It is a figure for demonstrating the process which the landscape quantification apparatus which concerns on embodiment registers as a separate group the polygon (polygon located on the boundary of an area) over a some area. 実施形態に係る景観定量化装置が、バウンダリーボックスを凸包含境界エリアとして算出する処理を説明するための図であり、図16(a)はオブジェクトの例示であり、図16(b)はオブジェクトを含む凸包形状の例示であり、図16(c)はバウンダリーボックスの例示である。FIGS. 16A and 16B are diagrams for explaining processing in which the landscape quantification apparatus according to the embodiment calculates a boundary box as a convex inclusion boundary area, FIG. 16A is an example of an object, and FIG. 16B is an object. FIG. 16C is an illustration of a boundary box.

以下、本発明の実施をするための形態を、適宜図面を参照しながら詳細に説明する。
各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、参照する図面において、本発明を構成する部材の寸法は、説明を明確にするために誇張して表現されている場合がある。なお、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings as appropriate.
Each figure is only schematically shown so that the invention can be fully understood. Therefore, the present invention is not limited to the illustrated example. In the drawings to be referred to, dimensions of members constituting the present invention may be exaggerated for clarity of explanation. In addition, in each figure, about the same component or the same component, the same code | symbol is attached | subjected and those overlapping description is abbreviate | omitted.

[実施形態]
≪実施形態に係る景観定量化装置の構成≫
図1は、実施形態に係る景観定量化装置1のブロック図である。
景観定量化装置1は、CG(Computer Graphics)を用いて、評価対象物(以下、省略して「対象物」と呼ぶ場合がある)である大規模施設等が見える可能性がある範囲(以下、「評価対象領域」と呼ぶ)全域で、評価対象物の景観の定量的な値を算出し、算出した定量的な値を用いて分布図を作成するものである。以下では、景観の定量的な値を計算する各地点を「計算点」と呼ぶ。
[Embodiment]
≪Configuration of landscape quantification apparatus according to embodiment≫
FIG. 1 is a block diagram of a landscape quantification apparatus 1 according to the embodiment.
The landscape quantification apparatus 1 uses CG (Computer Graphics), a range in which a large-scale facility or the like that is an evaluation object (hereinafter sometimes referred to as “object”) may be seen (hereinafter referred to as “object”). , Which is called “evaluation target area”), the quantitative value of the landscape of the evaluation target is calculated, and a distribution map is created using the calculated quantitative value. Below, each point which calculates the quantitative value of a landscape is called a "calculation point."

また、本実施形態では、景観の定量的な値として「可視率」を用いる。「可視率」は、以下のように定義する。「可視率」とは、三次元形状モデルを用いて、ある地点(計算点)から評価対象物を観察したときに、障害物(例えば、丘、山、建物、樹木等)が何もないと仮定した場合の評価対象物の見付面積に対する実際の評価対象物の見付面積(障害物があることにより遮蔽される分を差し引いた面積)の割合(%)である。   In the present embodiment, “visibility” is used as a quantitative value of the landscape. “Visibility” is defined as follows. “Visibility” means that there is no obstacle (eg, hill, mountain, building, tree, etc.) when an evaluation object is observed from a certain point (calculation point) using a 3D shape model. This is the ratio (%) of the actual area to be found (the area obtained by subtracting the portion shielded by the obstacle) from the assumption area of the object to be evaluated.

図2を参照して可視率を具体的に説明する。図2では、障害物が何もないと仮定した場合の計算点での評価対象物の見付面積Aに対する実際の見付面積Aの割合である「A/A」が可視率となる。「可視率0%」とは、計算点において対象物が全く見えないことを意味する。また、「可視率100%」とは、計算点において対象物が全て見えることを意味する。また、「可視率50%」とは、計算点において対象物が半分だけ見えることを意味する。 The visibility is specifically described with reference to FIG. In FIG. 2, “A 2 / A 1 ”, which is the ratio of the actual found area A 2 to the found area A 1 of the evaluation object at the calculation point when it is assumed that there are no obstacles, is the visibility rate. It becomes. “Visibility 0%” means that no object is visible at the calculation point. “Visibility of 100%” means that all objects can be seen at the calculation point. “Visibility 50%” means that only half of the object is visible at the calculation point.

続いて、実施形態に係る景観定量化装置1の構成について説明する。
景観定量化装置1は、記憶手段10と、描画用データ構築手段20と、第1視点画像作成手段30と、有効計算点判別手段40と、第2視点画像作成手段50と、定量値算出手段60と、可視率分布作成手段70とを備えて構成される。ここで、記憶手段10は、図示しないRAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体から構成される。また、描画用データ構築手段20、第1視点画像作成手段30、有効計算点判別手段40、第2視点画像作成手段50、定量値算出手段60、および可視率分布作成手段70は、CPU(Central Processing Unit)が図示しないROM等に格納されたプログラムをRAM(Random Access Memory)に展開することにより実現するプログラム実行処理や、専用回路等により実現される。
Then, the structure of the landscape quantification apparatus 1 which concerns on embodiment is demonstrated.
The landscape quantification apparatus 1 includes a storage means 10, a drawing data construction means 20, a first viewpoint image creation means 30, an effective calculation point determination means 40, a second viewpoint image creation means 50, and a quantitative value calculation means. 60 and a visibility distribution creating means 70. Here, the storage unit 10 includes a storage medium such as a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and a flash memory (not shown). The drawing data construction means 20, the first viewpoint image creation means 30, the effective calculation point determination means 40, the second viewpoint image creation means 50, the quantitative value calculation means 60, and the visibility distribution creation means 70 are CPU (Central The processing unit is realized by a program execution process realized by developing a program stored in a ROM (not shown) or the like in a RAM (Random Access Memory), a dedicated circuit, or the like.

(記憶手段)
記憶手段10は、評価対象物である大規模施設の形状データと、評価対象領域全域の地形データと、建物や樹木等の形状データとが記憶されている。本実施形態では、評価対象物の形状データ、地形データおよび建物や樹木等の形状データは、仮想の三次元空間において形状モデリングされたデータである。具体的には、人が見得る表面形状の範囲を複数のポリゴン(例えば、多角形ポリゴン)で示した三次元形状モデル(例えば、サーフェイスモデル)である。
(Memory means)
The storage means 10 stores shape data of a large-scale facility that is an evaluation target, topographic data of the entire evaluation target region, and shape data of buildings, trees, and the like. In the present embodiment, the shape data of the evaluation object, the terrain data, and the shape data of buildings, trees, and the like are data modeled in a virtual three-dimensional space. Specifically, it is a three-dimensional shape model (for example, a surface model) in which a range of surface shapes that can be seen by a person is indicated by a plurality of polygons (for example, polygonal polygons).

なお、これらのデータは、ポリゴンを用いた三次元形状モデルとして表現できるもので形式は特に限定されない。例えば、三次元形状モデルを表現できる形式として、VRML(Virtual Reality Modeling Language)、OBJ(Wavefront OBJ)、FBX(Filebox)、3DS(3ds Max,3D Studio Max)、STL(Stereo Lithography)などがある。   These data can be expressed as a three-dimensional shape model using polygons, and the format is not particularly limited. For example, there are VRML (Virtual Reality Modeling Language), OBJ (Wavefront OBJ), FBX (Filebox), 3DS (3ds Max, 3D Studio Max), STL (Stereo Lithography), and the like as formats that can represent a three-dimensional shape model.

以下では、評価対象物に対して、地形および建物や樹木等の評価対象物以外の物を「非対象物」と呼ぶ場合がある。また、評価対象物の形状データを「対象物オブジェクト」と呼び、非対象物の形状データを「非対象物オブジェクト」と呼ぶ場合がある。非対象物オブジェクトには、ポリゴンの各頂点を可視率の算出を行う計算点となる地形などの計算点オブジェクトと、障害物として扱われる障害物オブジェクトとがある。計算点オブジェクトは、それ自身が障害物にもなる。なお、実際の計算点は、計算点オブジェクトの各頂点に観察点高さのオフセットを加えた位置となる。   Below, things other than evaluation objects, such as topography and a building, a tree, etc. may be called "non-object" with respect to an evaluation object. Further, the shape data of the evaluation target object may be referred to as “target object”, and the shape data of the non-target object may be referred to as “non-target object”. Non-object objects include calculation point objects such as terrain, which are calculation points for calculating the visibility of each vertex of a polygon, and obstacle objects handled as obstacles. The calculation point object itself becomes an obstacle. The actual calculation point is a position obtained by adding an offset of the observation point height to each vertex of the calculation point object.

(描画用データ構築手段)
描画用データ構築手段20は、記憶手段10に記憶される評価対象物の形状データ(対象物オブジェクト)および非対象物の形状データ(非対象物オブジェクト)の投影画像を効率的に作成するために、描画処理用の階層型のデータ構造を構築するものである。描画用データ構築手段20は、CGソフト、BIMソフト、3次元CADソフト、ソリッドモデリングソフト等の汎用ソフトウェアで実現されてもよい。
(Drawing data construction means)
The drawing data constructing unit 20 efficiently creates projection images of the shape data (target object) of the evaluation target and the shape data (non-target object) of the non-target stored in the storage unit 10. A hierarchical data structure for drawing processing is constructed. The drawing data construction means 20 may be realized by general-purpose software such as CG software, BIM software, three-dimensional CAD software, and solid modeling software.

描画用データ構築手段20には、記憶手段10から対象物の形状データおよび非対象物の形状データが入力される。描画用データ構築手段20は、仮想の三次元空間のXZ平面(水平面)をM×N個の区域に分割する(図3参照)。そして、描画用データ構築手段20は、入力された対象物の形状データ(対象物オブジェクト)および非対象物の形状データ(非対象物オブジェクト)を構成するポリゴン(多角形平面)を、分割したXZ平面の平面的な位置に応じて各区域に振り分ける。複数の区域にまたがるポリゴン(区域の境界上に位置するポリゴン)はいずれかの区域に属させるか、または、別グループとしてもよい。別グループとする場合については、後記する変形例で説明を行う。   The drawing data construction means 20 receives the shape data of the object and the shape data of the non-object from the storage means 10. The drawing data construction unit 20 divides the XZ plane (horizontal plane) of the virtual three-dimensional space into M × N areas (see FIG. 3). Then, the drawing data construction unit 20 divides the polygons (polygonal planes) constituting the input object shape data (object object) and non-object shape data (non-object object) into XZ. It distributes to each area according to the planar position of the plane. Polygons extending over a plurality of areas (polygons located on the boundaries of the areas) may belong to any area, or may be a separate group. The case of making another group will be described in a modification example to be described later.

続いて、描画用データ構築手段20は、各区域を親ノードとし、各区域内のポリゴンをその子ノードとして関連付けたシーングラフとして記憶手段10に登録する(図4参照)。なお、この関連付けは、区域を多段で階層化してもよい。具体的には、一つの区域(例えば、区域「00」)内をさらに複数の区域(例えば、区域「0000」、区域「0001」、区域「0002」、区域「0003」)とし、区域「00」の子ノードとして区域「0000」、区域「0001」、区域「0002」、区域「0003」を関連付けてもよい。   Subsequently, the drawing data construction unit 20 registers each area as a parent node and registers the polygon in each area as a child node in the storage unit 10 as a scene graph (see FIG. 4). In this association, the areas may be hierarchized in multiple stages. Specifically, one area (for example, area “00”) is further divided into a plurality of areas (for example, area “0000”, area “0001”, area “0002”, area “0003”), and area “00” As a child node, “0000”, “0001”, “0002”, and “0003” may be associated.

景観定量化装置1は、オブジェクトの描画に際し、描画用データ構築手段20で登録した区域毎に「ビュー・フラスタム・カリング(ビューカリング)」を行う。「ビュー・フラスタム・カリング(ビューカリング)」は、仮想の三次元空間に配置する視点カメラの視野角内を示す四角錘台(視錘台、フラスタム)に、対象が一部でも含まれていなければ描画しないと判定する描画判定処理である(図5参照)。これにより、視点カメラの視野角に含まれないオブジェクトを描画しないので、描画処理を高速化することができる。   The landscape quantification apparatus 1 performs “view / frustum / culling (view culling)” for each area registered by the drawing data construction means 20 when drawing an object. “View frustum culling (view culling)” means that a square frustum (view frustum, frustum) that shows the viewing angle of the viewpoint camera placed in a virtual three-dimensional space must include any part of the object. This is a drawing determination process for determining that drawing is not performed (see FIG. 5). Thereby, since an object not included in the viewing angle of the viewpoint camera is not drawn, the drawing process can be speeded up.

また、描画用データ構築手段20は、各区域に属するポリゴンにより形成される評価対象物の対象物オブジェクト、および地形、建物や樹木等の非対象物オブジェクトのバウンダリーボックス(バウンディングボックス)を算出する。ここで、バウンダリーボックスとは、オブジェクトを含む、座標軸に沿った直方体エリアのことである。算出したバウンダリーボックスは、各オブジェクトに対応づけて記憶手段10に登録しておく。これにより、オブジェクトを含む領域をボックスとして扱うことが可能になり、そのオブジェクトの高さや幅が容易に割り出せる。   The drawing data construction means 20 also calculates the boundary object (bounding box) of the object object of the evaluation object formed by the polygons belonging to each area and the non-object object such as terrain, building, or tree. . Here, the boundary box is a rectangular parallelepiped area along the coordinate axis including the object. The calculated boundary box is registered in the storage unit 10 in association with each object. As a result, the area including the object can be handled as a box, and the height and width of the object can be easily determined.

(第1視点画像作成手段)
第1視点画像作成手段30は、対象物オブジェクトから周囲(全周)を望んだ画像(第1視点画像)を作成するものである。第1視点画像作成手段30には、記憶手段10から対象物の形状データおよび非対象物の形状データが入力される。
(First viewpoint image creation means)
The first viewpoint image creation means 30 creates an image (first viewpoint image) in which the periphery (all circumferences) is desired from the target object. The first viewpoint image creation means 30 receives the shape data of the object and the shape data of the non-object from the storage means 10.

最初に、第1視点画像作成手段30は、計算点オブジェクトを構成する各々のポリゴンに対して特定の色を割り当てる。つまり、ここでは、非対象物オブジェクトの内で計算対象ではない障害物オブジェクト、及び対象物オブジェクトを構成する各々のポリゴンに対して特定の色を割り当てない。ポリゴンに対する色の割り当ては、例えば、ポリゴンのID番号(「1」以上の整数)とRGB値(24ビットの場合の範囲は「1」〜「2の24乗−1」=「16,777,215」)とを対応付けることにより行う。仮に、RGB値として表現可能な色の総数に対してポリゴンの総数が多い場合(表現可能な色の総数<ポリゴンの総数)には、いくつかのポリゴン(例えば、隣り合うポリゴン)をグループ化して、そのグループに対して特定の色を割り当てるのがよい。なお、計算対象でない障害物オブジェクトおよび対象物オブジェクトには、例えば、RGB値として「0(ゼロ)」を設定する。   First, the first viewpoint image creation means 30 assigns a specific color to each polygon constituting the calculation point object. That is, here, a specific color is not assigned to an obstacle object that is not a calculation target among the non-target objects and each polygon constituting the target object. For example, the polygon ID number (integer greater than or equal to “1”) and the RGB value (range in the case of 24 bits are “1” to “2 to the 24th power −1” = “16,777, 215 "). If the total number of polygons is larger than the total number of colors that can be expressed as RGB values (total number of colors that can be expressed <total number of polygons), several polygons (for example, adjacent polygons) are grouped together. A specific color may be assigned to the group. For example, “0 (zero)” is set as an RGB value for obstacle objects and target objects that are not calculation targets.

続いて、第1視点画像作成手段30は、対象物オブジェクト上に代表点を設定し、この代表点に仮想的な視点カメラ(視点)を配置する。代表点は、周囲から見やすい場所(例えば、バウンダリーボックスの表面など)に設定するのがよい。視点カメラは、評価対象領域全域を撮影可能になるように、視点カメラの仰角、方位角および方向を設定する。各々の方向を向いた複数の視点カメラを代表点に配置するようにしてもよい。そして、第1視点画像作成手段30は、ID番号に対応づけたRGB値で色付けされたポリゴンで表されるオブジェクトを、代表点に配置した視点カメラを用いて撮影する(レンダリング)。   Subsequently, the first viewpoint image creation unit 30 sets a representative point on the target object, and arranges a virtual viewpoint camera (viewpoint) at the representative point. The representative point is preferably set at a place that is easy to see from the surroundings (for example, the surface of a boundary box). The viewpoint camera sets the elevation angle, azimuth angle, and direction of the viewpoint camera so that the entire evaluation target area can be photographed. A plurality of viewpoint cameras facing each direction may be arranged at the representative point. Then, the first viewpoint image creating means 30 captures (renders) an object represented by a polygon colored with an RGB value associated with the ID number using a viewpoint camera arranged at a representative point.

第1視点画像作成手段30により撮影された第1視点画像Pを図6に例示する。図6に示す第1視点画像Pは、オブジェクトを二次元座標の仮想スクリーン(例えば、鉛直の二次元平面)に投影した画像である。なお、図6では、色の表示及び計算点の表示を一部省略している。また、第1視点画像Pは、パノラマ画像であってもよく、その場合の仮想スクリーンは、対象物オブジェクトを囲む三次元座標のものであってもよい。そして、第1視点画像作成手段30は、作成した第1視点画像Pを有効計算点判別手段40に出力する。 The first viewpoint image P 1 taken by the first viewpoint image forming means 30 illustrated in FIG. First viewpoint image P 1 shown in FIG. 6, the virtual screen of the two-dimensional coordinates an object (e.g., vertical two-dimensional plane) is an image projected on. In FIG. 6, the display of colors and the display of calculation points are partially omitted. The first viewpoint image P 1 may be a panoramic image, the virtual screen in this case may be of the three-dimensional coordinates surrounding the subject object. Then, the first viewpoint image creation means 30 outputs the created first viewpoint image P 1 to the effective calculation point determination means 40.

(有効計算点判別手段)
有効計算点判別手段40は、評価対象領域全域の中から評価対象物が見える可能性がない計算点(可視率が「0%」の計算点)を事前に判別するものである。有効計算点判別手段40には、第1視点画像作成手段30から第1視点画像Pが入力される。
(Effective calculation point discrimination means)
The effective calculation point discriminating means 40 discriminates in advance a calculation point (a calculation point with a visibility of “0%”) from which there is no possibility of seeing the evaluation object in the entire evaluation target region. The effective viewpoint determination unit 40 receives the first viewpoint image P 1 from the first viewpoint image creation unit 30.

有効計算点判別手段40は、入力された第1視点画像Pに描画されているポリゴンを特定し、特定したポリゴンを構成する頂点(計算点)を有効計算点とする。つまり、第1視点画像Pに描画されていないポリゴンを構成する頂点(計算点)を非計算点とする。ここで、有効計算点は、当該計算点に視点カメラを配置した場合に評価対象物が見える可能性がある地点(可視率「0%」以外)である。一方、非計算点は、当該計算点に視点カメラを配置した場合に評価対象物が見える可能性がない地点(可視率「0%」)である。 Effective calculation point determination unit 40 specifies the polygon drawn on the first viewpoint image P 1 which is input, as an active calculation points vertices (calculation points) that make up a particular polygon. That is, the vertices constituting the polygons are not drawn to the first viewpoint image P 1 (calculated point) and the non-calculation points. Here, the effective calculation point is a point (other than the visibility “0%”) where the evaluation object may be seen when the viewpoint camera is arranged at the calculation point. On the other hand, the non-calculation point is a point (visibility rate “0%”) where the evaluation object is not likely to be seen when the viewpoint camera is arranged at the calculation point.

具体的には、有効計算点判別手段40は、入力された第1視点画像Pのピクセルを全て走査し、RGB値として含まれるポリゴンのID番号を検出する。次に、有効計算点判別手段40は、検出したID番号に対応するポリゴンについて、その頂点(計算点)を有効計算点として記憶手段10に登録する。なお、ある頂点(計算点)に関して、第1のポリゴンの判別では有効計算点とされ、第2のポリゴンの判別では非計算点とされる場合も考えられるが、その場合には、有効計算点とする判別を優先させる。 Specifically, the effective calculation point determination unit 40 scans all first viewpoint image P 1 of the pixel that is input, detects the ID number of polygons included as RGB values. Next, the effective calculation point discriminating means 40 registers the vertex (calculation point) of the polygon corresponding to the detected ID number in the storage means 10 as an effective calculation point. It should be noted that a certain vertex (calculation point) may be considered as an effective calculation point in the determination of the first polygon and non-calculation point in the determination of the second polygon. Priority is given to discrimination.

この有効計算点判別手段40による有効計算点の判別は、地形が平地であれば可視率を算出する計算点を削減できる効果がそれほど大きくはないが、地形が凹凸のある山岳部や、計算対象地形以外の他の障害物が数多く存在する場合は、計算点を大幅に削減できる。   The discrimination of the effective calculation points by the effective calculation point discriminating means 40 is not so effective that the calculation points for calculating the visibility rate can be reduced if the terrain is flat. If there are many obstacles other than the terrain, the calculation points can be greatly reduced.

(第2視点画像作成手段)
第2視点画像作成手段50は、有効計算点から対象物オブジェクトを観察した画像(第2視点画像)を作成するものである。第2視点画像作成手段50には、有効計算点が設定された対象物の形状データおよび非対象物の形状データが記憶手段10から入力される。
(Second viewpoint image creation means)
The second viewpoint image creation means 50 creates an image (second viewpoint image) obtained by observing the target object from the effective calculation point. The second viewpoint image creation means 50 receives from the storage means 10 the shape data of the object for which the effective calculation points are set and the shape data of the non-object.

第2視点画像作成手段50は、非対象物オブジェクトを投影する対象とするか否かに応じて二つの手段で構成される。その為、本実施形態における第2視点画像作成手段50は、対象物オブジェクトのみを投影する対象とし、非対象物オブジェクトを投影する対象としない第1対象画像作成手段51と、非対象物オブジェクトを含めて投影する対象とする第2対象画像作成手段52とを備えて構成される。   The second viewpoint image creation means 50 is composed of two means depending on whether or not a non-object object is to be projected. For this reason, the second viewpoint image creating means 50 in the present embodiment is a target for projecting only a target object and a first target image creating means 51 that is not a target for projecting a non-target object, and a non-target object. And a second target image creating means 52 that is a target to be projected.

(第1対象画像作成手段)
第1対象画像作成手段51は、有効計算点に視点カメラを配置し、対象物オブジェクトの見かけの角度領域を求めることで、描画範囲(描画エリア)を計算する(図7参照)。図8を参照してより具体的に説明すると、第1対象画像作成手段51は、有効計算点から対象物オブジェクトのバウンダリーボックス(図8(a))のコーナー点への仰角、方位角を求め、その最大値および最小値(図8(b))を用いて縦横の視野角とその方向を算出する。そして、第1対象画像作成手段51は、算出した縦横の視野角とその方向を、その有効計算点に配置した視点カメラを用いて描画する場合のカメラパラメータとする。
(First target image creation means)
The first target image creation unit 51 calculates a drawing range (drawing area) by placing a viewpoint camera at an effective calculation point and obtaining an apparent angle area of the target object (see FIG. 7). More specifically, with reference to FIG. 8, the first target image creating means 51 calculates the elevation angle and azimuth angle from the effective calculation point to the corner point of the boundary box (FIG. 8A) of the target object. Using the maximum value and the minimum value (FIG. 8B), the vertical and horizontal viewing angles and their directions are calculated. Then, the first target image creation unit 51 uses the calculated vertical and horizontal viewing angles and directions as camera parameters when drawing using a viewpoint camera arranged at the effective calculation point.

なお、対象物オブジェクトの極近傍の有効計算点では、視野角が180度近く、あるいは180度を超える場合が想定される。その場合、視野角に上限(例えば、150度)を設け、上限を超えたものについては、視野角を上限値で統一する処理や、計算から除外して可視率を一律で100%とする処理などを行うことが考えられる。   It is assumed that the effective calculation point in the immediate vicinity of the target object has a viewing angle close to 180 degrees or exceeding 180 degrees. In that case, an upper limit is set for the viewing angle (for example, 150 degrees), and for those exceeding the upper limit, the processing for unifying the viewing angle at the upper limit value, or the processing for uniformly setting the visibility to 100% by excluding the calculation. Etc.

続いて、第1対象画像作成手段51は、対象物オブジェクトのみを特定の色で表し、決定したカメラパラメータ(方向、視野角)で対象物オブジェクトを撮影する(レンダリング)。第1対象画像作成手段51により撮影された非対象物なし第2視点画像P2Aを図9(a)に例示する。図9(a)に示す第2視点画像P2Aは、特定の色で色付けされた対象物オブジェクト(図9(a)での斜線部分)を二次元座標の仮想スクリーン(例えば、鉛直の二次元平面)に投影した画像である。そして、第1対象画像作成手段51は、作成した第2視点画像P2Aを定量値算出手段60に出力する。 Subsequently, the first target image creating unit 51 represents only the target object with a specific color, and captures the target object with the determined camera parameters (direction and viewing angle) (rendering). A non-object-free second viewpoint image P2A photographed by the first target image creating means 51 is illustrated in FIG. Second viewpoint image P 2A shown in FIG. 9 (a), the virtual screen of the two-dimensional coordinates (hatched portion in to FIG. 9 (a)) colored object object specific color (for example, vertical two-dimensional This is an image projected on a plane. Then, the first target image creation unit 51 outputs the created second viewpoint image P2A to the quantitative value calculation unit 60.

(第2対象画像作成手段)
第2対象画像作成手段52は、第2視点画像P2Aを描画したカメラパラメータ(方向、視野角)で決定される視点カメラの視野角内に存在する(障害物となる)非対象物オブジェクトを特定の色以外で表し(図9(b)参照)、対象物オブジェクトおよび非対象物オブジェクトを撮影する(レンダリング)。第2対象画像作成手段52により撮影された非対象物あり第2視点画像P2Bを図9(c)に例示する。図9(c)に示す第2視点画像P2Bは、特定の色で色付けされた対象物オブジェクト(図9(c)での斜線部分)に特定の色以外で色付けされた非対象物オブジェクトを二次元座標の仮想スクリーン(例えば、鉛直の二次元平面)に重ねて投影した画像である。そして、第2対象画像作成手段52は、作成した第2視点画像P2Bを定量値算出手段60に出力する。
(Second target image creation means)
The second target image creating means 52 selects a non-target object that exists (becomes an obstacle) within the viewing angle of the viewpoint camera determined by the camera parameters (direction and viewing angle) on which the second viewpoint image P2A is drawn. The object object and the non-object object are photographed (rendering), expressed in a color other than a specific color (see FIG. 9B). FIG. 9C illustrates a second viewpoint image P2B with a non-object photographed by the second target image creating unit 52. Second viewpoint image P 2B shown in FIG. 9 (c), the non-target objects that have been colored in other than the specific color to colored objects object specific color (hatched portion in to FIG. 9 (c)) It is an image projected on a virtual screen (for example, a vertical two-dimensional plane) of two-dimensional coordinates. Then, the second target image creating unit 52 outputs the created second viewpoint image P2B to the quantitative value calculating unit 60.

(定量値算出手段)
定量値算出手段60は、有効計算点における可視率を算出するものである。定量値算出手段60には、第1対象画像作成手段51から非対象物なし第2視点画像P2Aが入力される。また、第2対象画像作成手段52から非対象物あり第2視点画像P2Bが入力される。
(Quantitative value calculation means)
The quantitative value calculation means 60 calculates the visibility at the effective calculation point. A non-object-free second viewpoint image P2A is input to the quantitative value calculating unit 60 from the first target image creating unit 51. Further, a second viewpoint image P2B with a non-object is input from the second target image creating means 52.

定量値算出手段60は、第2視点画像P2A(図9(a)参照)に描画されている対象物オブジェクトの領域に対する第2視点画像P2B(図9(c)参照)に描画されている対象物オブジェクトの領域の割合を可視率として算出する。具体的には、定量値算出手段60は、第2視点画像P2Aおよび第2視点画像P2Bを走査し、特定の色のピクセルを画像毎にカウントする。次に、定量値算出手段60は、以下の式(1)により可視率を計算する。 The quantitative value calculation means 60 is drawn on the second viewpoint image P 2B (see FIG. 9C) for the region of the target object drawn on the second viewpoint image P 2A (see FIG. 9A). The ratio of the area of the target object is calculated as the visibility. Specifically, the quantitative value calculation means 60 scans the second viewpoint image P2A and the second viewpoint image P2B , and counts pixels of a specific color for each image. Next, the quantitative value calculating means 60 calculates the visibility by the following formula (1).

・可視率(%)=C2/C1×100 ・・・・・・式(1)
ここで、「C1」は第2視点画像P2Aにおける特定の色のピクセル数であり、「C2」は第2視点画像P2Bにおける特定の色のピクセル数であり、「AP」は描画範囲(描画エリア)の総ピクセル数である。
そして、定量値算出手段60は、評価対象領域全域に存在する有効計算点の可視率を全て算出し、有効計算点と可視率とを対応づけた情報を可視率分布作成手段70に出力する。
・ Visibility (%) = C2 / C1 × 100 Expression (1)
Here, “C1” is the number of pixels of a specific color in the second viewpoint image P 2A , “C2” is the number of pixels of a specific color in the second viewpoint image P 2B , and “AP” is the drawing range ( This is the total number of pixels in the drawing area.
Then, the quantitative value calculation means 60 calculates all the visible rates of the effective calculation points existing in the entire evaluation target region, and outputs information associating the effective calculation points and the visibility to the visibility distribution creating means 70.

(可視率分布作成手段)
可視率分布作成手段70は、評価対象領域全域における可視率の分布を作成する。可視率分布作成手段70には、評価対象領域全域に存在する全ての有効計算点の可視率が定量値算出手段60から入力される。具体的には、可視率分布作成手段70は、可視率を青〜緑〜赤などの配色のカラーバーにマップし、頂点カラー付三次元形状データ等として出力する。
(Visibility distribution creation means)
The visibility distribution creating means 70 creates a visibility distribution over the entire evaluation target region. Visibility of all effective calculation points existing in the entire evaluation target area is input from the quantitative value calculation means 60 to the visibility distribution creating means 70. Specifically, the visibility distribution creating means 70 maps the visibility to a color bar of a color scheme such as blue to green to red, and outputs it as three-dimensional shape data with vertex colors.

図10および図11を参照して、可視率分布作成手段70の処理を例示する。
図10は、三次元形状データの例示であり、図10(a)は評価対象領域全域を示し、図10(b)は評価対象物が配置される近辺の領域(拡大)を示す。図10(a)の評価対象領域は5km四方であり、図10(b)に示す破線の丸で囲まれているのが評価対象物である。
With reference to FIGS. 10 and 11, the processing of the visibility distribution creating means 70 is illustrated.
FIG. 10 is an example of three-dimensional shape data. FIG. 10A shows the entire evaluation target region, and FIG. 10B shows a region (enlarged) in the vicinity where the evaluation target is arranged. The area to be evaluated in FIG. 10A is 5 km square, and the object to be evaluated is surrounded by a broken-line circle shown in FIG.

図11は、可視率分布の例示であり、図11(a)は評価対象領域全域を示し、図11(b)は評価対象物が配置される近辺の領域(拡大)を示す。図11では計算点の間隔を約10mとし、約130万の計算点数で可視率を算出している。そして、評価対象物が全て見える可視率100%を色が濃い領域Kで表し、評価対象物が約半分見える可視率50%を色が薄い領域Kで表し、評価対象物が全く見えない可視率0%を色が無い領域Kで表している。なお、図11では、説明の便宜上、可視率を3段階の色の濃さで表示しているが、例えば、「可視率0%」を「青色」で表示し、「可視率25%」を「水色」で表示し、「可視率50%」を「緑色」で表示し、「可視率75%」を「黄色」で表示し、「可視率100%」を「赤色」で表示することも可能である。
以上で、実施形態に係る景観定量化装置1の構成についての説明を終了する。
FIG. 11 is an illustration of the visibility distribution, FIG. 11A shows the entire evaluation target region, and FIG. 11B shows a region (enlarged) in the vicinity where the evaluation target is arranged. In FIG. 11, the interval between calculation points is about 10 m, and the visibility is calculated with about 1.3 million calculation points. The evaluation object represents a 100% visible rate seen everything darker region K 1, represents the visible of 50% to evaluate the object is visible about half light color region K 2, invisible evaluation object at all it represents the visible 0% in a region K 3 color no. In FIG. 11, for the sake of convenience of explanation, the visibility is displayed in three levels of color intensity. For example, “visibility 0%” is displayed in “blue” and “visibility 25%” is displayed. Display in “light blue”, “visible 50%” in “green”, “visible 75%” in “yellow”, “visible 100%” in “red” Is possible.
Above, description about the structure of the landscape quantification apparatus 1 which concerns on embodiment is complete | finished.

≪実施形態に係る景観定量化方法≫
以下では、図12を参照して、景観定量化装置1を用いた景観定量化方法について説明する。図12は、景観定量化方法のフローチャートである。
≪Landscape quantification method according to embodiment≫
Below, with reference to FIG. 12, the landscape quantification method using the landscape quantification apparatus 1 is demonstrated. FIG. 12 is a flowchart of the landscape quantification method.

景観定量化装置1は、まず形状データの読み込み処理を行う(ステップS10)。具体的には、描画用データ構築手段20が、記憶手段10から評価対象物である大規模施設の形状データ(対象物オブジェクト)と、評価対象領域全域の地形データおよび建物や樹木等の形状データ(非対象物オブジェクト)とを読み込む(ステップS11)。続いて、描画用データ構築手段20が、仮想の三次元空間のXZ平面(水平面)をM×N個の区域に、読み込んだオブジェクトを構成するポリゴンを振り分ける(ステップS12)。そして、描画用データ構築手段20が、描画用データとして区域と区域内のポリゴンとを関連付けたシーングラフを構築する(ステップS13)。   The landscape quantification apparatus 1 first performs shape data reading processing (step S10). Specifically, the drawing data constructing unit 20 stores the shape data (target object) of the large-scale facility that is the evaluation target from the storage unit 10, the topographic data of the entire evaluation target region, and the shape data such as buildings and trees. (Non-object object) is read (step S11). Subsequently, the drawing data construction unit 20 assigns the polygons constituting the read object to the M × N areas of the XZ plane (horizontal plane) of the virtual three-dimensional space (step S12). Then, the drawing data construction unit 20 constructs a scene graph in which the area and the polygons in the area are associated as the drawing data (step S13).

次に、景観定量化装置1は、計算点事前判別処理を行う(ステップS20)。具体的には、第1視点画像作成手段30が、各ポリゴンのID番号をカラー化し、対象物オブジェクトに配置した視点カメラから評価対象領域全域を撮影することで、第1視点画像Pを描画する(ステップS21)。続いて、有効計算点判別手段40が、第1視点画像Pのピクセルを走査し、RGB値として含まれるポリゴンのID番号を検出する(ステップS22)。そして、有効計算点判別手段40が、検出したID番号に対応するポリゴンについて、その頂点(計算点)を有効計算点としてマーク(登録)する(ステップS23)。 Next, the landscape quantification apparatus 1 performs a calculation point prior discrimination process (step S20). Specifically, the first viewpoint image creating means 30 renders the first viewpoint image P 1 by colorizing the ID number of each polygon and photographing the entire evaluation target area from the viewpoint camera arranged on the target object. (Step S21). Subsequently, the effective calculation point determination means 40, to scan the first viewpoint image P 1 of the pixel, to detect the ID number of polygons included as RGB value (step S22). Then, the effective calculation point discriminating means 40 marks (registers) the vertex (calculation point) of the polygon corresponding to the detected ID number as an effective calculation point (step S23).

次に、景観定量化装置1は、対象物の景観を定量化するための計算処理を行う(ステップS30)。具体的には、第2視点画像作成手段50が、有効計算点に視点カメラを配置して対象物オブジェクトの見かけの角度領域を求めることで、評価対象物のカメラ方向および視野角を計算する(ステップS31)。続いて、第2視点画像作成手段50が、特定の色で色付けされた対象物オブジェクトを計算した視野角で描画した第2視点画像P2Aおよび特定の色で色付けされた対象物オブジェクトに特定の色以外で色付けされた非対象物オブジェクトを計算した視野角で描画した第2視点画像P2Bを作成する。そして、定量値算出手段60が、それぞれの画像の特定の色のピクセルをカウントする(ステップS32)。 Next, the landscape quantification apparatus 1 performs a calculation process for quantifying the landscape of the object (step S30). Specifically, the second viewpoint image creation means 50 calculates the camera direction and the viewing angle of the evaluation object by arranging the viewpoint camera at the effective calculation point and obtaining the apparent angle area of the object. Step S31). Subsequently, the second viewpoint image forming means 50, the particular to colored objects object in the second view image P 2A and specific color drawn at a viewing angle of calculating the object object colored with a specific color A second viewpoint image P2B is generated in which a non-object object colored with a color other than a color is drawn with a calculated viewing angle. Then, the quantitative value calculation means 60 counts pixels of a specific color in each image (step S32).

続いて、定量値算出手段60が、有効計算点における可視率を、「可視率(%)=C2/C1×100」として算出する(ステップS33)。ここで、「C1」は第2視点画像P2Aにおける特定の色のピクセル数であり、「C2」は第2視点画像P2Bにおける特定の色のピクセル数であり、「AP」は描画エリア(描画範囲)の総ピクセル数である。そして、ステップS31〜ステップS33の処理を、全有効計算点の計算が終了するまで繰り返し行う(ステップS34)。 Subsequently, the quantitative value calculation means 60 calculates the visibility at the effective calculation point as “visible rate (%) = C2 / C1 × 100” (step S33). Here, “C1” is the number of pixels of a specific color in the second viewpoint image P 2A , “C2” is the number of pixels of a specific color in the second viewpoint image P 2B , and “AP” is the drawing area ( The total number of pixels in the drawing range. And the process of step S31-step S33 is repeated until the calculation of all the effective calculation points is complete | finished (step S34).

次に、可視率分布作成手段70が、可視率を「青〜緑〜赤」などの配色のカラーバーにマップし、頂点カラー付三次元形状データ等として可視率分布データを出力する(ステップS41)。
以上で、実施形態に係る景観定量化方法についての説明を終了する。
Next, the visibility distribution creating means 70 maps the visibility to a color bar of a color scheme such as “blue to green to red”, and outputs the visibility distribution data as vertex color-added three-dimensional shape data or the like (step S41). ).
Above, description about the landscape quantification method which concerns on embodiment is complete | finished.

≪実施形態に係る景観定量化方法の処理速度および可視率の精度について≫
(処理速度)
上記説明した実施形態に係る景観定量化方法の処理速度について説明する。
1つの有効計算点における処理は、ステップS32で説明したように、「(1)対象物オブジェクトの描画処理+(2)第2視点画像P2Aのピクセルカウント+(3)非対象物オブジェクトの描画処理+(4)第2視点画像P2Bのピクセルカウント」となる。ここで、有効計算点における処理の中で「(3)非対象物オブジェクトの描画処理」が処理時間の約9割を占めると考えられる。
≪About processing speed and visibility accuracy of landscape quantification method according to embodiment≫
(processing speed)
The processing speed of the landscape quantification method according to the embodiment described above will be described.
As described in step S32, the processing at one effective calculation point is as follows: “(1) Rendering process of target object + (2) Pixel count of second viewpoint image P 2A + (3) Rendering of non-target object" treatment + (4) the pixel count "of the second viewpoint image P 2B. Here, it is considered that “(3) drawing process of non-object object” occupies about 90% of the processing time in the process at the effective calculation point.

つまり、データ量とハードウェア性能にもよるが、例えば1秒間に60回描画することを仮定すると、100万個の有効計算点で可視度の算出を行う場合に、所要計算時間が約4.6時間となる。なお、実施形態に係る景観定量化方法は、実際には描画処理を可視化する必要がないため、フレーム同期やダブルバッファ処理の必要がない。また、描画エリアを全体よりも小さくすることができる。その為、前記した所要計算時間からさらに短くすることも可能である。その為、実施形態に係る景観定量化方法は、市販のPCグラフィックハードウェア上での高速化が期待できる手法である。   That is, depending on the amount of data and hardware performance, assuming that, for example, drawing is performed 60 times per second, when the visibility is calculated with 1 million effective calculation points, the required calculation time is about 4. It will be 6 hours. In addition, since the landscape quantification method according to the embodiment does not actually need to visualize the drawing process, there is no need for frame synchronization or double buffer processing. Also, the drawing area can be made smaller than the whole. For this reason, it is possible to further shorten the required calculation time. Therefore, the landscape quantification method according to the embodiment is a technique that can be expected to increase the speed on commercially available PC graphic hardware.

(可視率の精度)
次に上記説明した実施形態に係る景観定量化方法の可視率の精度について説明する。
第2視点画像P2Aにおける特定の色のピクセル数を「C1」とし、描画エリア(描画範囲)の総ピクセル数を「AP」とした場合に、「障害物なしの評価対象物の可視度」は「C1/AP」と定義する。また、「障害物ありの評価対象物の可視度」は「C2/AP」と定義する。通常、「障害物なしの評価対象物の可視度」は10%(0.1)を下回ることはほぼ無い。その為、可視率の精度は、概算で下記式(2)を保持できる。
(Visibility accuracy)
Next, the accuracy of the visibility of the landscape quantification method according to the embodiment described above will be described.
When the number of pixels of a specific color in the second viewpoint image P2A is “C1” and the total number of pixels in the drawing area (drawing range) is “AP”, “visibility of the evaluation object without an obstacle” Is defined as “C1 / AP”. Further, “visibility of an evaluation object with an obstacle” is defined as “C2 / AP”. Usually, the “visibility of the evaluation object without an obstacle” is hardly less than 10% (0.1). For this reason, the accuracy of the visibility can be approximated by the following formula (2).

・可視率の精度(%)={1/(AP×0.1)}×100 ・・・・・・式(2)
例えば、描画エリア(描画範囲)の総ピクセル数「AP」を「128×128(個)」とし、障害物なしの評価対象物の可視度「C1/AP」が「10(%)」の場合、可視率の精度は、下記式(3)となる。
・可視率の精度(%)={1/(128×128×0.1)}×100=0.061% ・・・・・・式(3)
・ Visibility accuracy (%) = {1 / (AP × 0.1)} × 100 (2)
For example, when the total number of pixels “AP” in the drawing area (drawing range) is “128 × 128 (pieces)” and the visibility “C1 / AP” of the evaluation object without an obstacle is “10 (%)” The accuracy of the visibility is represented by the following formula (3).
・ Visibility accuracy (%) = {1 / (128 × 128 × 0.1)} × 100 = 0.061% (Equation 3)

以上のように、本実施形態に係る景観定量化装置1は、各ポリゴンのID番号をカラー化し、対象物オブジェクトに配置した視点カメラから評価対象領域全域を撮影することで第1視点画像Pを描画する。そして、第1視点画像Pのピクセルを走査することで、RGB値として含まれるポリゴンのID番号を検出し、検出したID番号に対応するポリゴンについて、その頂点(計算点)を有効計算点として可視率(景観の定量値)を算出する。
その為、本実施形態に係る景観定量化装置1は、評価対象領域全域の内で評価対象物が見える可能性がない地点(可視率「0%」)を事前に判別することが可能であり、可視率を算出する計算点を大幅に削減することができる(効率的である)。
As described above, the landscape quantification apparatus 1 according to the present embodiment colorizes the ID number of each polygon, and captures the entire evaluation target region from the viewpoint camera arranged on the target object, thereby capturing the first viewpoint image P 1. Draw. Then, by scanning the first viewpoint image P 1 of the pixel, to detect the ID number of polygons included as RGB values, for polygon corresponding to the detected ID number, the vertex (calculated point) as the active calculation points Calculate the visibility (quantitative value of the landscape).
Therefore, the landscape quantification apparatus 1 according to the present embodiment can discriminate in advance a point (visibility rate “0%”) where the evaluation object is not likely to be seen within the entire evaluation target region. , The calculation point for calculating the visibility can be greatly reduced (efficient).

また、本実施形態に係る景観定量化装置1は、評価対象領域全域のそれぞれ有効計算点に視点カメラを配置し、特定の色で色付けされた対象物オブジェクトを計算した視野角で描画した第2視点画像P2Aおよび特定の色で色付けされた対象物オブジェクトに特定の色以外で色付けされた非対象物オブジェクトを計算した視野角で描画した第2視点画像P2Bを描画する。そして、それぞれの第2視点画像P2A、P2Bの特定の色のピクセルをカウントし、第2視点画像P2Aにおける特定の色のピクセル数に対する第2視点画像P2Bにおける特定の色のピクセル数の割合を可視率(景観の定量値)として算出する。
その為、本実施形態に係る景観定量化装置1は、計算点毎に対象物の景観を定量的に評価することができる。
In addition, the landscape quantification apparatus 1 according to the present embodiment places a viewpoint camera at each effective calculation point in the entire evaluation target region, and draws a target object colored with a specific color at a calculated viewing angle. drawing the viewpoint images P 2A and certain second viewpoint image P 2B drawn at a viewing angle of calculating the non-target objects that have been colored in other than the specific color to colored objects object color. Then, the pixels of a specific color in each of the second viewpoint images P 2A and P 2B are counted, and the number of pixels of a specific color in the second viewpoint image P 2B with respect to the number of pixels of the specific color in the second viewpoint image P 2A Is calculated as the visibility (quantitative value of the landscape).
Therefore, the landscape quantification apparatus 1 according to the present embodiment can quantitatively evaluate the landscape of the object for each calculation point.

また、本実施形態に係る景観定量化装置1は、評価対象領域全域の可視率を「青〜緑〜赤」などの配色のカラーバーにマップし、頂点カラー付三次元形状データ等として可視率分布データを作成する。
その為、本実施形態に係る景観定量化装置1は、評価対象領域全域の中で見えがかり上インパクトが大きい場所がどこであるかを定量的に評価できる。その結果、どの位置から見たパースを作成して重点検討すればよいか、優先順位を明確化することが可能である。
In addition, the landscape quantification apparatus 1 according to the present embodiment maps the visibility of the entire evaluation target region to a color bar of a color scheme such as “blue to green to red”, and the visibility as 3D shape data with a vertex color or the like. Create distribution data.
Therefore, the landscape quantification apparatus 1 according to the present embodiment can quantitatively evaluate where there is a visible and large impact in the entire evaluation target area. As a result, the priority order can be clarified as to which perspective should be created from which position to be considered.

[変形例]
以上、本発明の実施形態について説明したが、本発明はこれに限定されるものではなく、特許請求の範囲の趣旨を変えない範囲で実施することができる。実施形態の変形例を以下に示す。
[Modification]
As mentioned above, although embodiment of this invention was described, this invention is not limited to this, It can implement in the range which does not change the meaning of a claim. The modification of embodiment is shown below.

(評価対象物)
実施形態に係る景観定量化装置1は、評価対象物(対象物オブジェクト)として大規模施設の建物本体を想定していた。しかしながら、評価対象として建物の煙突から排出される煙等も含め、この可視率分布を作成してもよい。つまり、評価対象物(対象物オブジェクト)は、構造物以外の形状および三次元ポリゴン化された各種物理量の分布形状でもよい。図13および図14を参照して、評価対象として建物の煙突から排出される煙等も含めた可視率分布の作成について説明する。
(Object to be evaluated)
The landscape quantification apparatus 1 according to the embodiment assumes a building body of a large-scale facility as an evaluation object (object object). However, this visibility distribution may be created including the smoke discharged from the chimney of the building as an evaluation target. That is, the evaluation object (object object) may have a shape other than the structure and a distribution shape of various physical quantities converted into a three-dimensional polygon. With reference to FIG. 13 and FIG. 14, creation of a visibility distribution including smoke discharged from a chimney of a building as an evaluation target will be described.

図13は、三次元形状データの例示であり、図13(a)は評価対象領域全域を示し、図13(b)は評価対象物(煙を排出していない状態)が配置される近辺の領域(拡大)を示し、図13(c)は評価対象物(煙を排出している状態)が配置される近辺の領域(拡大)を示す。図13の評価対象領域は10km四方であり、図13(a)に示す破線の丸で囲まれているのが評価対象となる建物である。図13(c)に示す建物からは、煙Sが排出されている。   FIG. 13 is an example of the three-dimensional shape data, FIG. 13A shows the entire evaluation target region, and FIG. 13B shows the vicinity of where the evaluation target (a state where smoke is not discharged) is arranged. An area (enlarged) is shown, and FIG. 13C shows an area (enlarged) in the vicinity where an evaluation object (a state where smoke is discharged) is arranged. The evaluation target area in FIG. 13 is 10 km square, and a building to be evaluated is surrounded by a broken-line circle shown in FIG. Smoke S is discharged from the building shown in FIG.

図14は、可視率分布の例示であり、図14(a)は評価対象物(煙を排出していない状態)の評価対象領域全域を示し、図14(b)は評価対象物(煙を排出している状態)の評価対象領域全域を示す。図14では計算点の間隔を約10mとし、約430万の計算点数で可視率を算出している。そして、評価対象物が全て見える可視率100%を色が濃い領域Kで表し、評価対象物が約半分見える可視率50%を色が薄い領域Kで表し、評価対象物が全く見えない可視率0%を色が無い領域Kで表している。評価対象物として煙を含めた場合(図14(b)参照)の方が、煙を含めない場合(図14(a)参照)に比べて、全体的に可視率が高くなっているのが判る。 FIG. 14 is an example of the visibility distribution, FIG. 14 (a) shows the entire evaluation target region of the evaluation object (the state where smoke is not discharged), and FIG. 14 (b) shows the evaluation object (smoke). The entire evaluation target area is shown. In FIG. 14, the interval between calculation points is about 10 m, and the visibility is calculated with about 4.3 million calculation points. The evaluation object represents a 100% visible rate seen everything darker region K 1, represents the visible of 50% to evaluate the object is visible about half light color region K 2, invisible evaluation object at all it represents the visible 0% in a region K 3 color no. When smoke is included as an evaluation object (see FIG. 14B), the overall visibility is higher than when smoke is not included (see FIG. 14A). I understand.

(計算点)
実施形態に係る景観定量化装置1は、オブジェクトを構成する各ポリゴンの頂点を計算点としていたが、それ以外の点を計算点にしてもよい。例えば、ポリゴンの重心位置を計算点としてもよい。また、地上からの指定高さでの見え方が重要であれば、地上1.5m等の高さを指定した計算点を設定してもよい。
(Calculation points)
Although the landscape quantification apparatus 1 according to the embodiment uses the vertices of the polygons constituting the object as calculation points, other points may be used as calculation points. For example, the position of the center of gravity of the polygon may be used as the calculation point. In addition, if the appearance from the specified height from the ground is important, a calculation point specifying a height of 1.5 m above the ground may be set.

(描画範囲)
実施形態に係る景観定量化装置1は、対象物オブジェクトの見かけの角度領域を求めることで描画範囲(描画エリア)を計算していた。しかしながら、描画範囲を要求される可視率の精度に合わせて決定することもできる(例えば、128×128ピクセル)。また、実施形態では描画範囲の縦横比を自由に変えていたが、描画範囲を正方形に固定化し、縦横の視野角の大きい方に合わせて描画してもよい。
(Drawing range)
The landscape quantification apparatus 1 according to the embodiment calculates a drawing range (drawing area) by obtaining an apparent angle region of the target object. However, the drawing range can be determined in accordance with the required accuracy of the visibility rate (for example, 128 × 128 pixels). In the embodiment, the aspect ratio of the drawing range is freely changed. However, the drawing range may be fixed to a square, and the drawing range may be drawn in accordance with the larger viewing angle.

(可視率分布)
実施形態に係る景観定量化装置1は、可視率を青〜緑〜赤などの配色のカラーバーにマップし、頂点カラー付三次元形状データとして出力していた。しかしながら、可視率を単色の透明度(0〜100%)として表し、頂点透明度付3次元形状データとして出力してよい。
(Visibility distribution)
The landscape quantification apparatus 1 according to the embodiment maps the visibility to a color bar of a color scheme such as blue to green to red, and outputs it as three-dimensional shape data with vertex colors. However, the visibility may be expressed as single-color transparency (0 to 100%), and output as three-dimensional shape data with vertex transparency.

(複数の区域にまたがるポリゴンに対する処理)
描画用データ構築手段20が、複数の区域にまたがるポリゴン(区域の境界上に位置するポリゴン)を別グループとして登録する場合を、図15を参照して説明する。ここでは、複数の区域にまたがる各ポリゴン101,102,103を3つのグループに振り分ける場合を想定する。
(Processing for polygons that span multiple areas)
A case in which the drawing data construction unit 20 registers polygons over a plurality of areas (polygons located on the boundary of the areas) as another group will be described with reference to FIG. Here, a case is assumed in which each of the polygons 101, 102, and 103 extending over a plurality of areas is divided into three groups.

描画用データ構築手段20は、X座標にまたがらないが、Z座標にまたがるポリゴン101を区域「100XX」(第1グループ)に振り分ける。ここで、「XX」はX座標の区域インデックスを示し、Z座標の範囲はZmin〜Zmaxである。第1グループは、仮想の三次元空間のXZ平面をM×N個の区域に分割した場合を想定すると、含まれる区域数が「M」個(例えば、区域「10001」〜区域「1000M」)となる。 The drawing data construction means 20 distributes the polygon 101 that does not span the X coordinate but spans the Z coordinate into the area “100XX” (first group). Here, “XX” indicates an area index of the X coordinate, and the range of the Z coordinate is Z min to Z max . In the first group, assuming that the XZ plane of the virtual three-dimensional space is divided into M × N areas, the number of areas included is “M” (for example, areas “10001” to “1000M”). It becomes.

また、描画用データ構築手段20は、Z座標にまたがらないが、X座標にまたがるポリゴン102を区域「2ZZ00」(第2グループ)に振り分ける。ここで、「ZZ」はZ座標の区域インデックスを示し、X座標の範囲はXmin〜Xmaxである。第2グループは、仮想の三次元空間のXZ平面をM×N個の区域に分割した場合を想定すると、含まれる区域数が「N」個(例えば、区域「20100」〜区域「20N00」)となる。 In addition, the drawing data construction unit 20 distributes the polygon 102 that does not span the Z coordinate but spans the X coordinate to the area “2ZZ00” (second group). Here, “ZZ” indicates a zone coordinate of the Z coordinate, and the range of the X coordinate is X min to X max . Assuming that the XZ plane of the virtual three-dimensional space is divided into M × N areas, the second group includes “N” areas (for example, areas “20100” to “20N00”). It becomes.

また、描画用データ構築手段20は、X座標およびZ座標にまたがるポリゴン103を区域「30000」(第3グループ)に振り分ける。ここで、X座標の範囲はXmin〜Xmaxであり、Z座標の範囲はZmin〜Zmaxである(全領域)。第3グループは、含まれる区域数が「1」個となる。 In addition, the drawing data construction unit 20 assigns the polygon 103 spanning the X coordinate and the Z coordinate to the area “30000” (third group). Here, the range of the X coordinate is X min to X max , and the range of the Z coordinate is Z min to Z max (all regions). The number of areas included in the third group is “1”.

つまり、仮想の三次元空間のXZ平面をM×N個の区域に分割した場合の合計区域数は、X座標およびZ座標を共にまたがないポリゴンが振り分けられる区域の数「M×N」(個)と、第1グループに含まれる区域の数「M」個と、第2グループに含まれる区域の数「N」個と、第3グループに含まれる区域の数「1」個との合計となる(「(M×N)+M+N+1」個)。   That is, when the XZ plane of the virtual three-dimensional space is divided into M × N areas, the total number of areas is the number of areas “M × N” where polygons that do not straddle both the X coordinate and the Z coordinate are distributed. 1), the number of areas included in the first group “M”, the number of areas included in the second group “N”, and the number of areas included in the third group “1” (“(M × N) + M + N + 1” pieces).

(バウンダリーボックス)
実施形態に係る景観定量化装置1は、バウンダリーボックスを「オブジェクトを含む、座標軸に沿った直方体エリア」として算出していた。しかしながら、バウンダリーボックスを凸包含境界エリアとして算出してもよい。ここで、凸包含境界エリアとは、オブジェクトを含んだ凸包形状を水平面(XZ平面)において算出し、高さをオブジェクトの最大値で立ち上げたエリアのことである。図16に示す具体例を参照し、バウンダリーボックスを凸包含境界エリアとして算出する処理について説明する。
(Boundary box)
The landscape quantification apparatus 1 according to the embodiment calculates the boundary box as “a rectangular parallelepiped area along the coordinate axis including the object”. However, the boundary box may be calculated as the convex inclusion boundary area. Here, the convex inclusion boundary area is an area in which a convex hull shape including an object is calculated on a horizontal plane (XZ plane) and the height is raised at the maximum value of the object. With reference to the specific example shown in FIG. 16, the process of calculating the boundary box as a convex inclusion boundary area will be described.

図16(a)に示す、3つの構造体が組み合わさってできているオブジェクト201のバウンダリーボックスを凸包含境界エリアとして算出する場合を想定する。描画用データ構築手段20は、オブジェクト201を含む凸包形状202を水平面(XZ平面)において算出する(図16(b)参照)。そして、描画用データ構築手段20は、凸包形状202を底面とし、高さをオブジェクト201の最大高さとする凸包含境界エリア203をバウンダリーボックスとして算出する(図16(c)参照)。   Assume that a boundary box of an object 201 formed by combining three structures shown in FIG. 16A is calculated as a convex inclusion boundary area. The drawing data construction unit 20 calculates the convex hull shape 202 including the object 201 on the horizontal plane (XZ plane) (see FIG. 16B). Then, the drawing data construction unit 20 calculates the convex inclusion boundary area 203 having the convex hull shape 202 as the bottom surface and the height as the maximum height of the object 201 as a boundary box (see FIG. 16C).

このように、描画用データ構築手段20が、バウンダリーボックスを直方体エリアに替えて凸包含境界エリアとして算出すると、次のような効果を奏する。
第1視点画像を撮影する場合に、実施形態に示すように直方体エリアの表面に仮想的な視点カメラ(視点)を配置する代表点を設定するようも、変形例に示すように凸包含境界エリアの表面に代表点を設定した方が、より正確な有効計算点を求めることができる。
As described above, when the drawing data construction unit 20 calculates the boundary area by replacing the boundary box with a rectangular parallelepiped area, the following effects are obtained.
When shooting the first viewpoint image, the convex inclusion boundary area as shown in the modification may be used to set a representative point for arranging the virtual viewpoint camera (viewpoint) on the surface of the rectangular parallelepiped area as shown in the embodiment. If a representative point is set on the surface, a more accurate effective calculation point can be obtained.

また、有効計算点から第2視点画像を撮影する場合に、実施形態に示すように有効計算点から直方体エリアのコーナー点への仰角、方位角の最大値および最小値を用いて視野角の範囲を算出するよりも、変形例に示すように凸包含境界エリアのコーナー点への仰角、方位角の最大値および最小値を用いて視野角の範囲を算出した方が、より正確な描画範囲(描画エリア)を計算することができる。さらに、オブジェクトの極近傍に有効計算点がある場合に、視野角を上限値で統一する処理や計算から除外して可視率を一律で100%とする処理などを行う場合においても、より正確な処理を行うことができる。   Further, when the second viewpoint image is taken from the effective calculation point, the range of the viewing angle using the elevation angle from the effective calculation point to the corner point of the rectangular parallelepiped area, the maximum value and the minimum value of the azimuth as shown in the embodiment. Rather than calculating, it is more accurate to draw the range of viewing angle by calculating the viewing angle range using the maximum and minimum values of the elevation angle and azimuth of the convex inclusion boundary area as shown in the modification example ( (Drawing area) can be calculated. Furthermore, when there is an effective calculation point in the very vicinity of the object, more accurate processing is possible even when processing that unifies the viewing angle at the upper limit value or processing that makes the visibility 100% uniform by excluding it from the calculation. Processing can be performed.

1 景観定量化装置
10 記憶手段
20 描画用データ構築手段
30 第1視点画像作成手段
40 有効計算点判別手段
50 第2視点画像作成手段
51 第1対象画像作成手段
52 第2対象画像作成手段
60 定量値算出手段
70 可視率分布作成手段
第1視点画像
2A,P2B 第2視点画像
DESCRIPTION OF SYMBOLS 1 Landscape quantification apparatus 10 Memory | storage means 20 Drawing data construction means 30 1st viewpoint image creation means 40 Effective calculation point discrimination means 50 2nd viewpoint image creation means 51 1st target image creation means 52 2nd target image creation means 60 Quantification Value calculation means 70 Visibility distribution creation means P 1 first viewpoint image P 2A , P 2B second viewpoint image

Claims (3)

仮想的な三次元空間を用いて、対象物の景観の定量的な値を算出する景観定量化装置であって、
前記対象物の形状を複数のポリゴンで表した対象物オブジェクトおよび前記対象物以外の形状を複数のポリゴンで表した非対象物オブジェクトが記憶される記憶手段と、
前記対象物オブジェクトに設定される視点から前記非対象物オブジェクトを第1仮想スクリーンに投影した第1視点画像を作成する第1視点画像作成手段と、
前記第1視点画像を走査することにより、前記第1視点画像に描画される前記非対象物オブジェクトのポリゴンを判別する有効計算点判別手段と、
前記有効計算点判別手段が判別したポリゴンの各々を新たな視点とし、前記新たな視点から前記対象物オブジェクトを第2仮想スクリーンに投影した第2視点画像を作成する第2視点画像作成手段と、
前記第2視点画像を走査することにより、少なくとも1つの前記新たな視点から前記対象物を観察した場合の景観の定量的な値を算出する定量値算出手段と、
を備えることを特徴とする景観定量化装置。
A landscape quantification device that calculates a quantitative value of a landscape of an object using a virtual three-dimensional space,
Storage means for storing a target object in which the shape of the target is represented by a plurality of polygons and a non-target object in which a shape other than the target is represented by a plurality of polygons;
First viewpoint image creation means for creating a first viewpoint image obtained by projecting the non-target object on a first virtual screen from the viewpoint set for the target object;
Effective calculation point determination means for determining polygons of the non-object object drawn on the first viewpoint image by scanning the first viewpoint image;
A second viewpoint image creating means for creating each of the polygons determined by the effective calculation point determining means as a new viewpoint and generating a second viewpoint image obtained by projecting the object object on a second virtual screen from the new viewpoint;
Quantitative value calculating means for calculating a quantitative value of a landscape when the object is observed from at least one of the new viewpoints by scanning the second viewpoint image;
A landscape quantification device characterized by comprising:
前記第2視点画像作成手段は、
所定の視野角で前記対象物オブジェクトのみを前記第2仮想スクリーンに投影した第1の第2視点画像を作成する第1対象画像作成手段と、
前記非対象物なし第2視点画像を作成したのと同一の視野角を用いて、前記対象物オブジェクトおよび前記非対象物オブジェクトを前記第2仮想スクリーンに投影した第2の第2視点画像を作成する第2対象画像作成手段と、をさらに備え、
前記定量値算出手段は、
前記第1の第2視点画像に描画される前記対象物オブジェクトの領域に対する前記第2の第2視点画像に描画される前記対象物オブジェクトの領域の割合を可視率として算出する、
ことを特徴とする請求項1に記載の景観定量化装置。
The second viewpoint image creation means includes
First target image creating means for creating a first second viewpoint image obtained by projecting only the target object on the second virtual screen at a predetermined viewing angle;
A second second viewpoint image is created by projecting the object object and the non-object object onto the second virtual screen, using the same viewing angle as the non-object second viewpoint image. A second target image creating means for performing,
The quantitative value calculating means includes:
Calculating a ratio of the area of the target object drawn in the second second viewpoint image to the area of the target object drawn in the first second viewpoint image as a visibility rate;
The landscape quantification apparatus according to claim 1, wherein:
前記可視率に基づいて、可視率分布を作成する可視率分布作成手段をさらに備える、
ことを特徴とする請求項2に記載の景観定量化装置。
Visibility distribution creating means for creating a visibility distribution based on the visibility is further provided.
The landscape quantification apparatus according to claim 2, wherein:
JP2014005394A 2014-01-15 2014-01-15 Landscape quantification device Expired - Fee Related JP6212398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014005394A JP6212398B2 (en) 2014-01-15 2014-01-15 Landscape quantification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014005394A JP6212398B2 (en) 2014-01-15 2014-01-15 Landscape quantification device

Publications (2)

Publication Number Publication Date
JP2015133075A JP2015133075A (en) 2015-07-23
JP6212398B2 true JP6212398B2 (en) 2017-10-11

Family

ID=53900197

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014005394A Expired - Fee Related JP6212398B2 (en) 2014-01-15 2014-01-15 Landscape quantification device

Country Status (1)

Country Link
JP (1) JP6212398B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6782108B2 (en) * 2016-07-19 2020-11-11 大成建設株式会社 Visible rate calculation device
KR102246841B1 (en) * 2016-10-05 2021-05-03 매직 립, 인코포레이티드 Surface modeling systems and methods
JP6752470B2 (en) * 2016-12-16 2020-09-09 清水建設株式会社 Landscape visible / invisible analysis system, landscape visible / invisible analysis method and program
KR102463274B1 (en) * 2022-05-30 2022-11-07 주식회사 텐일레븐 Architecture design system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3682993B2 (en) * 1994-12-06 2005-08-17 アジア航測株式会社 How to create a clearance map to be used for landscape protection etc.
JP4803581B2 (en) * 2006-01-27 2011-10-26 独立行政法人農業・食品産業技術総合研究機構 Landscape analysis method, computer program for executing the method, and medium storing the program

Also Published As

Publication number Publication date
JP2015133075A (en) 2015-07-23

Similar Documents

Publication Publication Date Title
Yabuki et al. An invisible height evaluation system for building height regulation to preserve good landscapes using augmented reality
WO2020192355A1 (en) Method and system for measuring urban mountain viewing visible range
KR20100136604A (en) Real-time visualization system of 3 dimension terrain image
JP6212398B2 (en) Landscape quantification device
CN111798562B (en) Virtual building space building and roaming method
CN104778744A (en) Establishing technique of visualized scenes of large-scale three-dimension forests based on Lidar data
Yang et al. VR panoramic technology in urban rail transit vehicle engineering simulation system
Cristie et al. CityHeat: visualizing cellular automata-based traffic heat in Unity3D
JP6782108B2 (en) Visible rate calculation device
CN115409957A (en) Map construction method based on illusion engine, electronic device and storage medium
CN115937461A (en) Multi-source fusion model construction and texture generation method, device, medium and equipment
Borisov et al. An automated process of creating 3D city model for monitoring urban infrastructures
Rougeron et al. Optimal positioning of terrestrial LiDAR scanner stations in complex 3D environments with a multiobjective optimization method based on GPU simulations
Singh et al. Image based 3D city modeling: Comparative study
KR102046112B1 (en) Apparatus for providing 3d terrain and facility data using online map open api and method thereof
CN117934705A (en) Building model batch generation method and device, readable storage medium and electronic equipment
Pyka et al. LiDAR-based method for analysing landmark visibility to pedestrians in cities: case study in Kraków, Poland
Puspitasari et al. A reliable method for visibility analysis of tall buildings and skyline: A case study of tall buildings cluster in Jakarta
Alshawabkeh et al. A new true ortho‐photo methodology for complex archaeological application
CN115409962B (en) Method for constructing coordinate system in illusion engine, electronic device and storage medium
CN115409960A (en) Model construction method based on illusion engine, electronic device and storage medium
Neuville et al. Towards a normalised 3D Geovisualisation: The viewpoint management
Gore et al. Photo-modeling for construction site space planning
Gore et al. Photo-modeling for construction site space planning
Erving et al. Data integration from different sources to create 3D virtual model

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160506

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170915

R150 Certificate of patent or registration of utility model

Ref document number: 6212398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees