JP2015008432A - Information output device, image processing device, information output method, image processing method, and program - Google Patents

Information output device, image processing device, information output method, image processing method, and program Download PDF

Info

Publication number
JP2015008432A
JP2015008432A JP2013133124A JP2013133124A JP2015008432A JP 2015008432 A JP2015008432 A JP 2015008432A JP 2013133124 A JP2013133124 A JP 2013133124A JP 2013133124 A JP2013133124 A JP 2013133124A JP 2015008432 A JP2015008432 A JP 2015008432A
Authority
JP
Japan
Prior art keywords
photographing
evaluation
information
accepting
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013133124A
Other languages
Japanese (ja)
Inventor
大西 元大
Motohiro Onishi
元大 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013133124A priority Critical patent/JP2015008432A/en
Publication of JP2015008432A publication Critical patent/JP2015008432A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To output an appropriate photographic image corresponding to a request from a user, without needing an operation by the user.SOLUTION: An information output device comprises: request receiving means which receives a request to display a photographic image of a point included in map information; device information receiving means for receiving the installation positions, photographing directions and photographing field angles of plural photographing devices capable of photographing a point designated by the display request; evaluation means which, on the basis of the installation positions, photographing directions and photographing field angles of the photographing devices, calculates evaluation values for evaluating the aptitude of each of the photographing devices as a device for photographing the designated point; and output means for outputting list information in which the photographing devices are arranged in the order of the evaluation values.

Description

本発明は、情報出力装置、画像処理装置、情報出力方法、画像処理方法及びプログラムに関する。   The present invention relates to an information output device, an image processing device, an information output method, an image processing method, and a program.

従来、複数の地点に設置された複数のネットワークカメラ(ライブカメラ)から、ユーザの所望の画像を撮影することのできるネットワークカメラを検索するサービスが知られている。
例えば、特許文献1には、地図上にカメラの設置位置又はカメラの撮影対象となる場所を表すリンクを表示し、リンクがクリックされた場合に、選択されたカメラのライブ映像を表示する技術が開示されている。
Conventionally, a service for searching for a network camera that can capture a user's desired image from a plurality of network cameras (live cameras) installed at a plurality of points is known.
For example, Patent Document 1 discloses a technique for displaying a link representing a camera installation position or a location to be photographed on a map on a map, and displaying a live video of the selected camera when the link is clicked. It is disclosed.

特開2012−43391号公報JP 2012-43391 A

閲覧したい地点を複数のカメラで撮影することができる場合において、ユーザが、その地点を良好な状態で撮影できるカメラを探したい、というケースがある。このような場合には、ユーザは、各カメラにより撮影された映像を1つずつ確認のために閲覧する必要があり、面倒であるという問題があった。   When a point to be browsed can be photographed with a plurality of cameras, there is a case where the user wants to find a camera that can photograph the point in a good state. In such a case, there is a problem that the user needs to browse videos taken by each camera for confirmation one by one, which is troublesome.

本発明はこのような問題点に鑑みなされたもので、ユーザによる操作を要することなく、ユーザの要求に応じた適切な撮影画像を出力することのできる仕組みを提供することを目的とする。   The present invention has been made in view of such problems, and an object of the present invention is to provide a mechanism that can output an appropriate captured image according to a user's request without requiring an operation by the user.

そこで、本発明は、情報出力装置であって、地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、前記評価値の順に、複数の撮影装置を配列した一覧情報を出力する出力手段とを備える。   Therefore, the present invention is an information output device, a request accepting unit that accepts a display request for a photographed image of a point included in map information, and a plurality of photographing devices capable of photographing a designated point specified in the display request. Device information receiving means for receiving an installation position, a shooting direction, and a shooting angle of view, and a designated point of each of the plurality of shooting devices based on the installation position, the shooting direction, and the shooting angle of view of the shooting apparatus. Evaluation means for calculating an evaluation value for evaluating suitability as a photographing apparatus, and output means for outputting list information in which a plurality of photographing apparatuses are arranged in the order of the evaluation values.

本発明によれば、ユーザによる操作を要することなく、ユーザの要求に応じた適切な撮影画像を出力することができる。   According to the present invention, it is possible to output an appropriate captured image according to a user's request without requiring an operation by the user.

画像処理システムを示す図である。It is a figure which shows an image processing system. ビューワ端末を示す図である。It is a figure which shows a viewer terminal. カメラテーブルの一例を示す図である。It is a figure which shows an example of a camera table. アクセステーブルの一例を示す図である。It is a figure which shows an example of an access table. 障害物テーブルの一例を示す図である。It is a figure which shows an example of an obstacle table. 天気テーブルの一例を示す図である。It is a figure which shows an example of a weather table. 地図上の位置を説明するための図である。It is a figure for demonstrating the position on a map. 地図表示処理を示すフローチャートである。It is a flowchart which shows a map display process. ライブ映像表示処理を示すフローチャートである。It is a flowchart which shows a live video display process. カメラ候補表示画面を示す図である。It is a figure which shows a camera candidate display screen. 評価値算出処理を示すフローチャートである。It is a flowchart which shows an evaluation value calculation process. アクセス管理処理を示すフローチャートである。It is a flowchart which shows an access management process. ライブ映像表示画面の一例を示す図である。It is a figure which shows an example of a live video display screen.

以下、本発明の実施形態について図面に基づいて説明する。
図1は、情報出力システムあるいは画像処理システムを示す図である。このシステムは、ビューワ端末100と、管理サーバ装置110と、地図サーバ装置120と、天気サーバ装置130と、撮像装置としての複数のカメラ140とを備えている。なお、このシステムが備えるカメラ140の数は、任意であり、実施形態に限定されるものではない。ビューワ端末100と、管理サーバ装置110と、地図サーバ装置120と、天気サーバ装置130と、カメラ140は、ネットワーク10を介して互いに接続している。
カメラ140は、例えばネットワークカメラ(ライブカメラ)である。複数のカメラ140は、異なる地点に設定されており、異なる領域を撮影することができる。カメラ140は、撮影対象となる領域を撮影し、撮影により得られた撮影画像を管理サーバ装置110に送信する。なお、本実施形態においては、撮影画像は、動画、より詳しくはライブ映像であるものとする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an information output system or an image processing system. This system includes a viewer terminal 100, a management server device 110, a map server device 120, a weather server device 130, and a plurality of cameras 140 as imaging devices. Note that the number of cameras 140 provided in this system is arbitrary and is not limited to the embodiment. The viewer terminal 100, the management server device 110, the map server device 120, the weather server device 130, and the camera 140 are connected to each other via the network 10.
The camera 140 is, for example, a network camera (live camera). The plurality of cameras 140 are set at different points, and can photograph different areas. The camera 140 captures an area to be captured and transmits a captured image obtained by capturing to the management server apparatus 110. In the present embodiment, the captured image is a moving image, more specifically, a live image.

管理サーバ装置110は、カメラ140により撮影されたライブ映像を受信する。管理サーバ装置110はまた、各カメラ140に関するカメラ情報や、各カメラ140へのユーザアクセスに関するアクセス情報を格納している。管理サーバ装置110は、ライブ映像など各種情報をビューワ端末100に送信する。
地図サーバ装置120は、地図情報を格納している。地図サーバ装置120は、さらに障害物情報を記憶している。ここで、障害物情報とは、地図情報に示される地図上に存在するビルなど、カメラ140による撮影時に障害物となり得るオブジェクトに関する情報である。天気サーバ装置130は、天気情報を記憶している。ここで、天気情報とは、各地の天気や、明度等の情報である。
ビューワ端末100は、ユーザからライブ映像の表示要求の入力を受け付ける。そして、ビューワ端末100は、表示要求において指定される指定地点を撮影可能なカメラ140の中から、指定地点を撮影するのに適したカメラ140を選択し、選択したカメラ140によるライブ映像を表示する。
The management server device 110 receives live video captured by the camera 140. The management server device 110 also stores camera information regarding each camera 140 and access information regarding user access to each camera 140. The management server device 110 transmits various information such as live video to the viewer terminal 100.
The map server device 120 stores map information. The map server device 120 further stores obstacle information. Here, the obstacle information is information related to an object that can be an obstacle at the time of shooting by the camera 140, such as a building existing on the map indicated by the map information. The weather server device 130 stores weather information. Here, the weather information is information such as the weather and brightness of each place.
The viewer terminal 100 receives an input of a live video display request from the user. Then, the viewer terminal 100 selects a camera 140 suitable for photographing the designated spot from the cameras 140 that can photograph the designated spot designated in the display request, and displays a live video by the selected camera 140. .

図2は、情報出力装置であるビューワ端末100のハードウェア構成を示す図である。ビューワ端末100は、CPU101と、記憶部102と、通信部103と、表示部104と、操作部105とを備えている。CPU101は、ビューワ端末100の全体を制御する。記憶部102は、各種情報を記憶する。通信部103は、ネットワーク10を介して他の装置と通信を行う。表示部104は、各種情報を表示する。操作部105は、ユーザ操作を受け付ける。
なお、後述するビューワ端末100の機能や処理は、CPU101が記憶部102に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
FIG. 2 is a diagram illustrating a hardware configuration of the viewer terminal 100 which is an information output device. The viewer terminal 100 includes a CPU 101, a storage unit 102, a communication unit 103, a display unit 104, and an operation unit 105. The CPU 101 controls the entire viewer terminal 100. The storage unit 102 stores various information. The communication unit 103 communicates with other devices via the network 10. The display unit 104 displays various information. The operation unit 105 receives a user operation.
Note that the functions and processing of the viewer terminal 100 described later are realized by the CPU 101 reading out a program stored in the storage unit 102 and executing the program.

管理サーバ装置110、地図サーバ装置120、天気サーバ装置130及びカメラ140のハードウェア構成は、ビューワ端末100のハードウェア構成とほぼ同様である。なお、管理サーバ装置110、地図サーバ装置120及び天気サーバ装置130は、表示部104及び操作部105を備えなくともよい。また、カメラ140は、ビューワ端末100のハードウェア構成に加え、不図示の撮影部を備えている。
ビューワ端末100は、CPU101の機能として、ビューワ部と評価値算出部とを備えている。ビューワ部は、表示部104への表示を制御する。評価値算出部は、表示要求にかかる指定地点を撮影可能なカメラ140の評価値を算出する。ここで、評価値は、カメラ140の、指定地点を撮影する装置としての適性を評価する値である。すなわち、評価値は、カメラ140が、指定地点を撮影する装置として、どの程度適しているかを評価する値である。
The hardware configuration of the management server device 110, the map server device 120, the weather server device 130, and the camera 140 is almost the same as the hardware configuration of the viewer terminal 100. The management server device 110, the map server device 120, and the weather server device 130 do not have to include the display unit 104 and the operation unit 105. In addition to the hardware configuration of the viewer terminal 100, the camera 140 includes a photographing unit (not shown).
The viewer terminal 100 includes a viewer unit and an evaluation value calculation unit as functions of the CPU 101. The viewer unit controls display on the display unit 104. The evaluation value calculation unit calculates an evaluation value of the camera 140 that can shoot the designated point related to the display request. Here, the evaluation value is a value for evaluating the suitability of the camera 140 as an apparatus for photographing a designated point. That is, the evaluation value is a value for evaluating how much the camera 140 is suitable as an apparatus for photographing a designated point.

管理サーバ装置110は、記憶部102にカメラテーブルを記憶している。図3は、カメラテーブルの一例を示す図である。図3に示すカメラテーブル300は、カメラ情報として、カメラ名と、設置位置と、撮影方向と、撮影画角と、画像サイズと暗視機能の有無とを対応付けて記憶している。
カメラ名は、カメラ140の識別情報である。設置位置は、カメラ140が設置された位置を示す情報であり、具体的には、緯度、経度及び標高の情報である。撮影方向は、カメラ140が、パン、チルト及びズームを制御可能なPTZカメラである場合の、カメラ140の仰角及び方向角の範囲を示す情報である。撮影画角は、カメラ140の画角の範囲を示す情報である。撮影画角には、例えば「8.00〜80.00」のように撮影画角の最小値と最大値の情報が記憶される。
画像サイズは、カメラ140が撮影可能な画像サイズである。ここで、画像サイズは、画像の解像度やアスペクト比を示す情報である。1つのカメラ140が複数の画像サイズで撮影可能な場合には、画像サイズには、「640×480,320×240」のように撮影可能な複数の画像サイズが記憶される。
The management server device 110 stores a camera table in the storage unit 102. FIG. 3 is a diagram illustrating an example of a camera table. The camera table 300 shown in FIG. 3 stores camera name, installation position, shooting direction, shooting angle of view, image size, and presence / absence of the night vision function as camera information.
The camera name is identification information of the camera 140. The installation position is information indicating the position where the camera 140 is installed, and specifically, information on latitude, longitude, and altitude. The shooting direction is information indicating the range of the elevation angle and the direction angle of the camera 140 when the camera 140 is a PTZ camera capable of controlling pan, tilt, and zoom. The shooting angle of view is information indicating the range of the angle of view of the camera 140. In the shooting angle of view, information on the minimum value and the maximum value of the shooting angle of view is stored, for example, “8.00 to 80.00”.
The image size is an image size that can be captured by the camera 140. Here, the image size is information indicating the resolution and aspect ratio of the image. When one camera 140 can shoot with a plurality of image sizes, a plurality of shootable image sizes such as “640 × 480, 320 × 240” are stored in the image size.

管理サーバ装置110はまた、記憶部102にアクセステーブルを記憶している。図4は、アクセステーブルの一例を示す図である。アクセステーブル400は、各地点へのユーザによるアクセス情報として、地図上の地点を識別する地点名と、地点の位置と、カメラ名と、ユーザ評価値と、アクセス時間と、アクセス数とを対応付けて記憶している。
地点名は、地点の識別情報である。ユーザ評価値は、各カメラ140により撮影された、各地点のライブ映像に対するユーザによる評価値である。本実施形態においては、評価値は、5段階とする。なお、評価値には、ユーザにより入力された複数の評価値の平均値が記憶されている。
アクセス時間は、各地点のライブ映像への、ユーザのアクセス時間(累積時間)である。アクセス数は、各地点のライブ映像への、ユーザによるアクセス数(累積数)である。
The management server device 110 also stores an access table in the storage unit 102. FIG. 4 is a diagram illustrating an example of an access table. The access table 400 associates a point name for identifying a point on the map, a position of the point, a camera name, a user evaluation value, an access time, and the number of accesses as access information by the user to each point. I remember.
The point name is point identification information. The user evaluation value is an evaluation value by the user with respect to the live video of each point taken by each camera 140. In the present embodiment, the evaluation value has five levels. The evaluation value stores an average value of a plurality of evaluation values input by the user.
The access time is a user access time (cumulative time) to a live video at each point. The number of accesses is the number of accesses (cumulative number) by the user to the live video at each point.

地図サーバ装置120は、記憶部102に地図情報と、障害物テーブルとを記憶している。図5は、障害物テーブルの一例を示す図である。障害物テーブル500は、障害物情報として、障害物名と、障害物の位置と、障害物の半径と、障害物の高さとを対応付けて記憶している。
天気サーバ装置130は、記憶部102に天気テーブルを記憶している。図6は、天気テーブルの一例を示す図である。天気テーブル600は、地点名と、地点の位置と、対応する地点の明度と、天気とを記憶している。なお、本実施形態においては、明度には、「明るい」及び「暗い」の2段階の情報が記憶されている。また、天気には、予め設定された特定天気であるか否かを示す情報が記憶されている。ここで、特定天気は、雨、雪又は霧とする。なお、天気テーブル600には、リアルタイムの明度及び天気が記憶されているものとする。
The map server device 120 stores map information and an obstacle table in the storage unit 102. FIG. 5 is a diagram illustrating an example of the obstacle table. The obstacle table 500 stores, as obstacle information, an obstacle name, an obstacle position, an obstacle radius, and an obstacle height in association with each other.
The weather server device 130 stores a weather table in the storage unit 102. FIG. 6 is a diagram illustrating an example of a weather table. The weather table 600 stores the spot name, the position of the spot, the brightness of the corresponding spot, and the weather. In the present embodiment, information of two levels of “bright” and “dark” is stored as the brightness. In addition, information indicating whether or not the specific weather is set in advance is stored in the weather. Here, the specific weather is assumed to be rain, snow or fog. It is assumed that the weather table 600 stores real-time brightness and weather.

図7は、地図上の位置を説明するための図である。このシステムは、地図700をグリッド分割し、グリッド701単位で、地図上の位置を特定する。
また、ユーザは、表示要求を入力する際に、例えば図7に示すように、ある程度の面積を有する領域を指定地点として指定することもできる。図7に示す指定地点枠710のように、指定地点が複数のグリッドにまたがる場合には、このシステムは、指定地点枠710の中心に対応するグリッドの位置を指定地点として処理を行うこととする。
FIG. 7 is a diagram for explaining a position on a map. In this system, the map 700 is divided into grids, and the position on the map is specified in units of the grid 701.
In addition, when the user inputs a display request, the user can also designate an area having a certain area as a designated spot as shown in FIG. 7, for example. When the designated point spans a plurality of grids as in the designated point frame 710 shown in FIG. 7, the system performs processing using the position of the grid corresponding to the center of the designated point frame 710 as the designated point. .

図8は、ビューワ端末100による地図表示処理を示すフローチャートである。S100において、CPU101は、操作部105を介して、ユーザから、表示部104に表示すべき地域の指定を受け付ける。次に、S101において、CPU101は、通信部103を介して、指定地域の地図情報と、障害物情報とを地図サーバ装置120から受信する。ここで、障害物情報は、障害物の位置、形状及び大きさを示す情報である。S101の処理は、障害物情報を受け付ける障害物情報受付処理の一例である。
次に、S102において、CPU101は、障害物情報に基づいて、地図情報に示される地図上の、障害物の位置に、障害物を示す障害物シンボルを重畳する。なお、CPU101は、障害物情報に示される障害物の半径及び高さに基づいて、地図の縮尺に合わせたサイズの障害物シンボルを生成し、これを重畳する。なお、他の例としては、CPU101は、予め設定されたシンボルサイズの障害物シンボルを生成し、これを地図上に重畳することとしてもよい。
FIG. 8 is a flowchart showing map display processing by the viewer terminal 100. In S <b> 100, the CPU 101 accepts designation of an area to be displayed on the display unit 104 from the user via the operation unit 105. Next, in S <b> 101, the CPU 101 receives map information of the designated area and obstacle information from the map server device 120 via the communication unit 103. Here, the obstacle information is information indicating the position, shape, and size of the obstacle. The process of S101 is an example of an obstacle information reception process that receives obstacle information.
Next, in S102, the CPU 101 superimposes an obstacle symbol indicating an obstacle on the position of the obstacle on the map indicated by the map information based on the obstacle information. Note that the CPU 101 generates an obstacle symbol having a size matching the scale of the map based on the radius and height of the obstacle indicated in the obstacle information, and superimposes the obstacle symbol. As another example, the CPU 101 may generate an obstacle symbol having a preset symbol size and superimpose it on a map.

さらに、S103において、CPU101は、通信部103を介して管理サーバ装置110からカメラ情報を受信する。ここで、カメラ情報は、カメラの設置位置、撮影方向、撮影画角及び画像サイズを示す情報である。S103の処理は、装置情報を受け付ける装置情報受付処理及び画像サイズを受け付ける画像サイズ受付処理の一例である。
次に、S104において、CPU101は、カメラ情報に基づいて、地図情報に示される地図上の、カメラの設置位置に、カメラを示すカメラシンボルと、各カメラの撮影方向とを重畳する。
次に、S105において、CPU101は、障害物シンボル、カメラシンボル及びカメラの撮影方向が重畳された地図を表示部104に表示する。以上で、地図表示処理が終了する。地図表示処理により、表示部104には、例えば図10に示すような地図が表示される。なお、地図表示処理においては、表示部104の全面に地図が表示される。
In step S <b> 103, the CPU 101 receives camera information from the management server apparatus 110 via the communication unit 103. Here, the camera information is information indicating a camera installation position, a shooting direction, a shooting angle of view, and an image size. The process of S103 is an example of a device information receiving process that receives device information and an image size receiving process that receives an image size.
Next, in S104, based on the camera information, the CPU 101 superimposes the camera symbol indicating the camera and the shooting direction of each camera on the installation position of the camera on the map indicated by the map information.
In step S <b> 105, the CPU 101 displays a map on which the obstacle symbol, the camera symbol, and the shooting direction of the camera are superimposed on the display unit 104. This is the end of the map display process. By the map display process, a map as shown in FIG. 10 is displayed on the display unit 104, for example. In the map display process, a map is displayed on the entire surface of the display unit 104.

図9は、情報出力装置であるビューワ端末100によるライブ映像表示処理を示すフローチャートである。S200において、CPU101は、操作部105を介して、ユーザから、地図情報に含まれる地点(指定地点)を指定した表示要求を受け付ける(要求受付処理)。なお、ユーザは、例えばマウス操作により、希望の地点を指定する。なお、ユーザは、指定地点として、面積を有する希望の領域を指定してもよい。
次に、S201において、CPU101は、カメラ情報に含まれる各カメラの設置位置、撮影方向及び撮影画角に基づいて、指定地点を撮影可能なカメラ、すなわち指定地点を撮影可能領域とするカメラを抽出する。次に、S202において、CPU101は、通信部103を介して、天気サーバ装置130から、指定地点の天気及び明度を含む天気情報を受信する。次に、S203において、CPU101は、通信部103を介して、管理サーバ装置110からアクセス情報を受信する。ここで、S202の処理は、天気を受け付ける天気受付処理及び明度を受け付ける明度受付処理の一例である。また、S203の処理は、アクセス情報を受け付けるアクセス情報受付処理の一例である。
FIG. 9 is a flowchart showing live video display processing by the viewer terminal 100 which is an information output device. In S <b> 200, the CPU 101 receives a display request specifying a point (specified point) included in the map information from the user via the operation unit 105 (request receiving process). Note that the user designates a desired point by, for example, operating the mouse. Note that the user may designate a desired area having an area as the designated point.
In step S <b> 201, the CPU 101 extracts a camera that can shoot the designated point, that is, a camera that uses the designated point as a shootable region, based on the installation position, shooting direction, and shooting angle of view of each camera included in the camera information. To do. Next, in S <b> 202, the CPU 101 receives weather information including the weather and brightness of the designated spot from the weather server device 130 via the communication unit 103. Next, in S <b> 203, the CPU 101 receives access information from the management server device 110 via the communication unit 103. Here, the process of S202 is an example of a weather reception process for receiving weather and a lightness reception process for receiving lightness. Further, the process of S203 is an example of an access information receiving process for receiving access information.

次に、S204において、CPU101は、S201において抽出された各カメラ140のカメラ情報に含まれる設置位置、撮影方向及び撮影画角に基づいて、S201において抽出された各カメラ140により撮影される撮影画像を推定する。ここで、S204の処理は、撮影画像推定処理の一例である。なお、カメラ140がPTZカメラの場合には、CPU101は、指定地点が最も大きく撮影されるような撮影方向及び撮影画角において撮影される撮影画像を推定する。
次に、S205において、CPU101は、S204において得られた撮影画像(以下、推定画像と称する)に基づいて、S201において抽出された各カメラ140の評価値を算出する(評価処理)。なお、S205の処理については、図11を参照しつつ後に詳述する。
Next, in S <b> 204, the CPU 101 captures a captured image captured by each camera 140 extracted in S <b> 201 based on the installation position, shooting direction, and shooting angle of view included in the camera information of each camera 140 extracted in S <b> 201. Is estimated. Here, the process of S204 is an example of a captured image estimation process. When the camera 140 is a PTZ camera, the CPU 101 estimates a captured image that is captured in a capturing direction and a capturing angle of view so that the specified point is captured most greatly.
Next, in S205, the CPU 101 calculates an evaluation value of each camera 140 extracted in S201 based on the captured image (hereinafter referred to as an estimated image) obtained in S204 (evaluation process). The process of S205 will be described in detail later with reference to FIG.

次に、S206において、CPU101は、S205において算出された評価値に基づいて、指定地点の撮影に最も適したカメラ140を選択する。ここで、S206の処理は、評価結果に基づいて一のカメラを選択する選択処理の一例である。次に、S207において、CPU101は、評価値順に抽出されたカメラ140のカメラ名を配列した一覧情報を生成する。
次に、S208において、CPU101は、表示部104に一覧情報と、S206において選択されたカメラ140によるライブ映像とを含むカメラ候補表示情報を生成する。次に、S209において、CPU101は、一覧情報とライブ映像とを含むカメラ候補表示情報を表示部104に表示(出力)する。ここで、S209の処理は、出力処理の一例である。
Next, in S206, the CPU 101 selects the camera 140 that is most suitable for shooting at the designated point based on the evaluation value calculated in S205. Here, the process of S206 is an example of a selection process for selecting one camera based on the evaluation result. Next, in S207, the CPU 101 generates list information in which camera names of the cameras 140 extracted in order of evaluation values are arranged.
Next, in S208, the CPU 101 generates camera candidate display information including list information on the display unit 104 and live video from the camera 140 selected in S206. In step S <b> 209, the CPU 101 displays (outputs) camera candidate display information including list information and live video on the display unit 104. Here, the process of S209 is an example of an output process.

図10は、カメラ候補表示画面の一例を示す図である。図3に示すカメラ候補表示画面1000には、カメラ候補表示情報が表示されている。具体的には、カメラ候補表示画面1000は、地図領域1010と、カメラ一覧領域1050を含んでいる。
地図領域1010に示される地図上には、ユーザにより指定された指定地点を示す指定地点枠1011と、カメラ140の設置位置に配置され、カメラ140の位置を示すカメラシンボル1040a〜1040fとが表示される。さらに、地図上の障害物の位置には、障害物の位置を示す障害物シンボル1021〜1023が重畳されている。さらに、地図情報上には、各カメラ140の撮影方向を示す方向表示1041a〜1041fが重畳されている。
FIG. 10 is a diagram illustrating an example of a camera candidate display screen. Camera candidate display information is displayed on the camera candidate display screen 1000 shown in FIG. Specifically, the camera candidate display screen 1000 includes a map area 1010 and a camera list area 1050.
On the map shown in the map area 1010, a designated point frame 1011 indicating a designated point designated by the user and camera symbols 1040a to 1040f arranged at the installation position of the camera 140 and indicating the position of the camera 140 are displayed. The Further, obstacle symbols 1021 to 1023 indicating the position of the obstacle are superimposed on the position of the obstacle on the map. Furthermore, direction indications 1041a to 1041f indicating the shooting direction of each camera 140 are superimposed on the map information.

さらに、カメラ一覧領域1050には、表示要求にかかる指定地点を撮影可能なカメラ140のカメラ名1051〜1054が評価値順に一覧表示されている。カメラ名1051〜1054には、対応するカメラ140のライブ映像表示画面へのリンクが設定されている。ユーザにより、カメラ名1051〜1054の何れかがマウスクリックされると、表示部104には、選択されたカメラ140のライブ映像が表示される。さらに、カメラ一覧領域1050には、最も高い評価値が得られたカメラ140によるライブ映像1055が表示されている。
このように、ビューワ端末100は、ライブ映像表示処理により、ユーザにより指定された指定地点を撮影可能なカメラの評価値を算出し、評価値順に撮影可能なカメラのカメラ名を一覧表示することができる。さらに、ビューワ端末100は、指定地点の撮影に最も適したカメラ140を選択し、選択したカメラ140によるライブ映像を表示することができる。
Further, in the camera list area 1050, camera names 1051 to 1054 of the cameras 140 that can shoot the designated point for the display request are listed in the order of evaluation values. In the camera names 1051 to 1054, a link to the live video display screen of the corresponding camera 140 is set. When the user clicks one of the camera names 1051 to 1054 with the mouse, the live image of the selected camera 140 is displayed on the display unit 104. Further, the camera list area 1050 displays a live video 1055 obtained by the camera 140 having the highest evaluation value.
As described above, the viewer terminal 100 can calculate the evaluation value of the camera that can shoot the designated point designated by the user by the live video display process, and display a list of camera names of the cameras that can shoot in the order of the evaluation value. it can. Furthermore, the viewer terminal 100 can select a camera 140 that is most suitable for shooting at a designated point, and can display a live video from the selected camera 140.

次に、図11を参照しつつ、評価値算出処理(S205)について説明する。まず、S300において、CPU101は、推定画像全体の面積に対する、指定地点の面積の比率を算出し、算出された比率に応じた評価値を算出する。CPU101は具体的には、比率が予め定めた比率閾値以上である場合に、評価値として予め定めた最大点を割り当てる。一方で、比率が比率閾値未満である場合には、CPU101は、比率の値に比例する評価値を割り当てる。
次に、S301において、CPU101は、障害物情報に基づいて、障害物による指定地点の被覆率を算出する。そして、CPU101は、算出した被覆率に基づいて、各カメラ140の評価値を調整する。ここで、被覆率は、推定画像に示される指定地点の領域に対する、障害物により被覆される領域の割合を示す値である。CPU101は具体的には、被覆率が100%の場合には、評価値を0に変更し、被覆率が0%の場合には評価値を変更しない。CPU101はまた、0%より大きく100%未満の被覆率に対しては、被覆率に比例して評価値を変更する。
Next, the evaluation value calculation process (S205) will be described with reference to FIG. First, in S300, the CPU 101 calculates the ratio of the area of the designated point to the area of the entire estimated image, and calculates an evaluation value corresponding to the calculated ratio. Specifically, the CPU 101 assigns a predetermined maximum point as an evaluation value when the ratio is equal to or greater than a predetermined ratio threshold. On the other hand, when the ratio is less than the ratio threshold, the CPU 101 assigns an evaluation value proportional to the ratio value.
Next, in S <b> 301, the CPU 101 calculates the coverage of the designated point by the obstacle based on the obstacle information. Then, the CPU 101 adjusts the evaluation value of each camera 140 based on the calculated coverage. Here, the coverage is a value indicating the ratio of the area covered by the obstacle to the area of the designated point indicated in the estimated image. Specifically, the CPU 101 changes the evaluation value to 0 when the coverage is 100%, and does not change the evaluation value when the coverage is 0%. The CPU 101 also changes the evaluation value in proportion to the coverage with respect to a coverage of greater than 0% and less than 100%.

次に、S302において、CPU101は、画像サイズに基づいて、評価値を調整する。CPU101は具体的には、S201において抽出されたカメラ、すなわち処理対象とするカメラの画像サイズの最大値を特定し、最大値を基準サイズとして定める。そして、CPU101は、画像サイズの基準サイズに対する割合に応じて、評価値を減少させる。例えば、CPU101は、画像サイズ(面積)が基準サイズ(面積)の半分である場合に評価値が20%減少するように評価値を変更する。
次に、S303において、CPU101は、天気情報に含まれる明度と、明度閾値とを比較する。ここで、明度閾値は、記憶部102に予め登録されているものとする。明度が明度閾値未満である場合には(S303でNo)、CPU101は、処理をS304へ進める。
Next, in S302, the CPU 101 adjusts the evaluation value based on the image size. Specifically, the CPU 101 specifies the maximum value of the image size of the camera extracted in S201, that is, the camera to be processed, and sets the maximum value as the reference size. Then, the CPU 101 decreases the evaluation value according to the ratio of the image size to the reference size. For example, the CPU 101 changes the evaluation value so that the evaluation value is reduced by 20% when the image size (area) is half of the reference size (area).
Next, in S303, the CPU 101 compares the lightness included in the weather information with the lightness threshold. Here, it is assumed that the brightness threshold is registered in the storage unit 102 in advance. If the brightness is less than the brightness threshold (No in S303), the CPU 101 advances the process to S304.

S304において、CPU101は、処理対象のカメラ140のカメラ情報に含まれる暗視機能の有無に基づいて、評価値を調整する。CPU101は具体的には、暗視機能ありのカメラ140の評価値を50%増加させる。なお、CPU101は、暗視機能なしのカメラ140の評価値は変更しない。
S303において、明度が、明度閾値以上である場合には(S303でYes)、CPU101は、処理をS305へ進める。すなわち、この場合、CPU101は、暗視機能に応じた評価値の調整は行わない。
明度が低い場合、暗視機能を有さないカメラ140によるライブ映像において、指定地点を視認するのは困難である。したがって、本実施形態にかかるビューワ端末100においては、明度が明度未満である場合には、暗視機能の有無に応じて評価値を調整することとする。
In S <b> 304, the CPU 101 adjusts the evaluation value based on the presence or absence of the night vision function included in the camera information of the camera 140 to be processed. Specifically, the CPU 101 increases the evaluation value of the camera 140 with the night vision function by 50%. Note that the CPU 101 does not change the evaluation value of the camera 140 without the night vision function.
If the brightness is equal to or greater than the brightness threshold in S303 (Yes in S303), the CPU 101 advances the process to S305. That is, in this case, the CPU 101 does not adjust the evaluation value according to the night vision function.
When the brightness is low, it is difficult to visually recognize the designated point in the live video by the camera 140 that does not have the night vision function. Therefore, in the viewer terminal 100 according to the present embodiment, when the brightness is less than the brightness, the evaluation value is adjusted according to the presence or absence of the night vision function.

S305において、CPU101は、天気情報に含まれる天気が特定天気か否かを判定する。特定天気である場合には(S305でYes)、CPU101は、処理をS306へ進める。S306において、CPU101は、地図情報に基づいて、指定地点と処理対象のカメラ140の間のカメラ距離を算出する(距離算出処理)。そして、CPU101は、カメラ距離に基づいて、評価値を調整する。
CPU101は、具体的には、算出された複数のカメラ距離の中から最小値を特定する。そして、CPU101は、最小値と各カメラ距離の差に応じて、評価値を調整する。CPU101は、例えば、カメラ距離が最小値の2倍になった場合に、評価値が20%減少するように評価値を調整する。
一方、S305において、天気が特定天気でない場合には(S305でNo)、CPU101は、処理をS306へ進める。すなわち、この場合、CPU101は、カメラ距離に応じた評価値の調整は行わない。
In step S305, the CPU 101 determines whether the weather included in the weather information is a specific weather. When it is specific weather (Yes in S305), the CPU 101 advances the process to S306. In S306, the CPU 101 calculates the camera distance between the designated point and the processing target camera 140 based on the map information (distance calculation processing). Then, the CPU 101 adjusts the evaluation value based on the camera distance.
Specifically, the CPU 101 specifies the minimum value from the calculated plurality of camera distances. Then, the CPU 101 adjusts the evaluation value according to the difference between the minimum value and each camera distance. For example, when the camera distance becomes twice the minimum value, the CPU 101 adjusts the evaluation value so that the evaluation value is reduced by 20%.
On the other hand, if the weather is not the specific weather in S305 (No in S305), the CPU 101 advances the process to S306. That is, in this case, the CPU 101 does not adjust the evaluation value according to the camera distance.

次に、S307において、CPU101は、アクセス情報に含まれるアクセス数及びアクセス時間に基づいて、評価値を調整する。CPU101は、具体的には、処理対象の各カメラ140のアクセス数の最大値を特定し、特定した最大値とアクセス数の差に応じて、評価値を算出する。CPU101は例えば、アクセス数が最大値の半分になった場合に、評価値が10%減少するように、評価値を調整する。
また、CPU101は、処理対象の各カメラのアクセス時間の最大値を特定し、特定した最大値とアクセス時間の差に応じて、評価値を算出する。CPU101は例えば、アクセス時間が最大値の半分になった場合に、評価値が10%減少するように、評価値を調整する。次に、S308において、CPU101は、S307の処理後の評価値に、アクセス情報に含まれるユーザ評価値に所定の係数をかけた値を加算する。以上で、評価値算出処理が終了する。
Next, in S307, the CPU 101 adjusts the evaluation value based on the number of accesses and the access time included in the access information. Specifically, the CPU 101 specifies the maximum number of accesses of each camera 140 to be processed, and calculates an evaluation value according to the difference between the specified maximum value and the number of accesses. For example, the CPU 101 adjusts the evaluation value so that the evaluation value decreases by 10% when the number of accesses becomes half of the maximum value.
Further, the CPU 101 specifies the maximum access time of each camera to be processed, and calculates an evaluation value according to the difference between the specified maximum value and the access time. For example, when the access time becomes half of the maximum value, the CPU 101 adjusts the evaluation value so that the evaluation value is reduced by 10%. Next, in S308, the CPU 101 adds a value obtained by multiplying the user evaluation value included in the access information by a predetermined coefficient to the evaluation value after the processing in S307. This is the end of the evaluation value calculation process.

図12は、ビューワ端末100による、アクセス管理処理を示すフローチャートである。アクセス管理処理は、カメラ映像表示処理により表示されたカメラ候補表示画面(図10)において、カメラ一覧から、いずれかのカメラが選択された場合や、地図上のカメラシンボルが選択された場合に実行される。
カメラが選択カメラ一覧又は地図上においてカメラが選択されると、S401において、ビューワ端末100のCPU101は、操作部105を介してカメラ選択を受け付ける。そして、CPU101は、選択されたカメラ140によるライブ映像を表示部104に表示する。
FIG. 12 is a flowchart showing access management processing by the viewer terminal 100. The access management process is executed when any camera is selected from the camera list or when a camera symbol on the map is selected on the camera candidate display screen (FIG. 10) displayed by the camera video display process. Is done.
When the camera is selected on the selected camera list or the map, the CPU 101 of the viewer terminal 100 accepts camera selection via the operation unit 105 in S401. Then, the CPU 101 displays a live video from the selected camera 140 on the display unit 104.

次に、S402において、CPU101は、アクセステーブル400において、選択されたカメラ140による指定地点のアクセス数に1を加算する。具体的には、CPU101は、アクセス数に1を加算する旨を示す加算指示を管理サーバ装置110に送信する。そして、管理サーバ装置110は、加算指示にしたがい、アクセステーブル400の指定されたアクセス数を1加算する。
次に、S403において、CPU101は、選択されたカメラ140へのアクセス時間のカウントを開始する。次に、S404において、CPU101は、カメラ140への接続が終了したか否かを確認する。なお、CPU101は、ユーザにより、ライブ映像の画面がクローズされた場合に、接続が終了したと判断する。
Next, in S <b> 402, the CPU 101 adds 1 to the number of accesses at the designated point by the selected camera 140 in the access table 400. Specifically, the CPU 101 transmits an addition instruction indicating that 1 is added to the number of accesses to the management server device 110. Then, the management server apparatus 110 adds 1 to the number of accesses specified in the access table 400 according to the addition instruction.
Next, in S <b> 403, the CPU 101 starts counting the access time to the selected camera 140. In step S <b> 404, the CPU 101 confirms whether the connection to the camera 140 has ended. Note that the CPU 101 determines that the connection is completed when the screen of the live video is closed by the user.

S404において、接続が終了していない場合には(S404でNo)、CPU101は、アクセス時間のカウントを継続する。S404において、接続が終了した場合には(S404でYes)、CPU101は、処理をS405へ進める。S405において、CPU101は、指定地点における、選択されたカメラ140に対するユーザ評価値をユーザ入力に応じて更新する。具体的には、CPU101は、ユーザ評価値の更新指示を管理サーバ装置110に送信する。そして、管理サーバ装置110は、更新指示にしたがい、アクセステーブル400の、指定されたユーザ評価値を更新する。
次に、S406において、CPU101は、アクセス時間のカウントを終了する(S406)。次に、S407において、CPU101は、アクセステーブル400において、選択されたカメラ140のアクセス時間に今回カウントされたアクセス時間を加算する。具体的には、CPU101は、アクセス時間の加算指示を管理サーバ装置110に送信する。そして、管理サーバ装置110は、加算指示にしたがい、アクセステーブル400の指定されたアクセス時間に指示された時間を加算する。
If the connection has not ended in S404 (No in S404), the CPU 101 continues to count the access time. If the connection is completed in S404 (Yes in S404), the CPU 101 advances the process to S405. In step S <b> 405, the CPU 101 updates the user evaluation value for the selected camera 140 at the designated point according to the user input. Specifically, the CPU 101 transmits a user evaluation value update instruction to the management server device 110. Then, the management server apparatus 110 updates the specified user evaluation value in the access table 400 according to the update instruction.
Next, in S406, the CPU 101 finishes counting the access time (S406). In step S <b> 407, the CPU 101 adds the access time counted this time to the access time of the selected camera 140 in the access table 400. Specifically, the CPU 101 transmits an access time addition instruction to the management server device 110. Then, according to the addition instruction, the management server apparatus 110 adds the designated time to the designated access time of the access table 400.

図13は、ライブ映像表示画面の一例を示す図である。ライブ映像表示画面1300には、ライブ映像1310と、ユーザ評価値入力部1320としてのスライダーが表示される。ユーザは、ユーザ評価値入力部1320のつまみを右にスライドさせることにより、より高いユーザ評価値を指定することができる。スライドが操作されると、ビューワ端末100のCPU101は、操作部105を介して、スライド位置に応じたユーザ評価値を受け付ける。   FIG. 13 is a diagram illustrating an example of a live video display screen. On the live video display screen 1300, a live video 1310 and a slider as the user evaluation value input unit 1320 are displayed. The user can specify a higher user evaluation value by sliding the knob of the user evaluation value input unit 1320 to the right. When the slide is operated, the CPU 101 of the viewer terminal 100 receives a user evaluation value corresponding to the slide position via the operation unit 105.

以上のように、本実施形態にかかるシステムにおいて、ビューワ端末100は、ユーザにより指定された指定地点を撮影可能なカメラの評価値を算出し、評価値順に撮影可能なカメラのカメラ名を一覧表示することができる。さらに、ビューワ端末100は、指定地点の撮影に最も適したカメラ140を選択し、選択したカメラ140によるライブ映像を表示することができる。したがって、本実施形態にかかるシステムは、ユーザによる操作を要することなく、ユーザの要求に応じた適切な撮影画像を出力することができる。   As described above, in the system according to the present embodiment, the viewer terminal 100 calculates the evaluation values of the cameras that can shoot the designated spot designated by the user, and displays a list of camera names of the cameras that can shoot in the order of the evaluation values. can do. Furthermore, the viewer terminal 100 can select a camera 140 that is most suitable for shooting at a designated point, and can display a live video from the selected camera 140. Therefore, the system according to the present embodiment can output an appropriate captured image according to the user's request without requiring an operation by the user.

次に、本実施形態の第1の変更例について説明する。本実施形態においては、ビューワ端末100は、複数地点にまたがる指定地点枠が設定された場合には、指定地点枠の中心に対応する地点に対する評価値を算出することとしたが、これに限定されるものではない。
他の例としては、複数地点にまたがる指定地点枠が設定された場合には、ビューワ端末100は、指定地点枠に含まれる各グリッドに対する評価値の合計値を評価値として算出してもよい。また、この場合、ビューワ端末100のCPU101は、アクセス管理処理において、指定地点枠に含まれるすべての地点のアクセス時間、アクセス数及びユーザ評価値を更新することとする。
Next, a first modification of the present embodiment will be described. In the present embodiment, the viewer terminal 100 calculates the evaluation value for the point corresponding to the center of the designated point frame when the designated point frame extending over a plurality of points is set. However, the present invention is not limited to this. It is not something.
As another example, when a designated point frame extending over a plurality of points is set, the viewer terminal 100 may calculate a total value of evaluation values for each grid included in the designated point frame as an evaluation value. In this case, the CPU 101 of the viewer terminal 100 updates the access time, the number of accesses, and the user evaluation value at all points included in the designated point frame in the access management process.

第2の変更例としては、ライブ映像表示処理(図9)は、本システムが備えるいずれかの装置が行えばよく、その主体は、ビューワ端末100に限定されるものではない。例えば、ライブ映像表示処理の全部又はその一部を管理サーバ装置110が行うこととしてもよい。
管理サーバ装置110がライブ映像を含む表示情報を生成した場合には、管理サーバ装置110は、表示情報をビューワ端末100に送信する。そして、ビューワ端末100は、受信した表示情報を表示部104に表示する。
As a second modification, live video display processing (FIG. 9) may be performed by any device provided in the present system, and its main body is not limited to the viewer terminal 100. For example, the management server device 110 may perform all or part of the live video display processing.
When the management server device 110 generates display information including live video, the management server device 110 transmits the display information to the viewer terminal 100. Then, the viewer terminal 100 displays the received display information on the display unit 104.

第3の変更例としては、ビューワ端末100は、表示要求に替えて、指定地点の撮影に適したカメラの提示要求を受信してもよい。この場合には、ビューワ端末100は、ライブ映像表示処理(図9)のS200〜S205の処理を行い、S206の処理を行うことなく、S207において、一覧表示情報を生成し、S209において、ライブ映像を含まない一覧表示情報を表示すればよい。
また、他の例としては、ビューワ端末100は、一覧表示情報を含まない、評価値の最も高いカメラ140のライブ映像のみを表示してもよい。
As a third modification, the viewer terminal 100 may receive a request for presenting a camera suitable for shooting at a designated point, instead of the display request. In this case, the viewer terminal 100 performs the processes of S200 to S205 of the live video display process (FIG. 9), generates the list display information in S207 without performing the process of S206, and in S209, the live video is displayed. What is necessary is just to display the list display information which does not contain.
As another example, the viewer terminal 100 may display only the live video of the camera 140 having the highest evaluation value that does not include the list display information.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.

以上、上述した各実施形態によれば、ユーザによる操作を要することなく、ユーザの要求に応じた適切な撮影画像を出力することができる。   As described above, according to each embodiment described above, it is possible to output an appropriate captured image according to a user's request without requiring an operation by the user.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 ビューワ端末、101 CPU、102 記憶部、103 通信部、104 表示部、105 操作部、110 管理サーバ装置、120 地図サーバ装置、130 天気サーバ装置 DESCRIPTION OF SYMBOLS 100 Viewer terminal, 101 CPU, 102 Memory | storage part, 103 Communication part, 104 Display part, 105 Operation part, 110 Management server apparatus, 120 Map server apparatus, 130 Weather server apparatus

Claims (16)

地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価値の順に、複数の撮影装置を配列した一覧情報を出力する出力手段と
を備える情報出力装置。
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
An information output device comprising: output means for outputting list information in which a plurality of photographing devices are arranged in the order of the evaluation values.
前記評価手段による評価結果に基づいて、複数の撮影装置の中から、一の撮影装置を選択する選択手段をさらに備え、
前記出力手段は、さらに前記選択手段により選択された前記撮影装置により撮影された前記撮影画像を出力する請求項1に記載の情報出力装置。
Based on the evaluation result by the evaluation means, further comprising a selection means for selecting one imaging device from a plurality of imaging devices;
The information output device according to claim 1, wherein the output unit further outputs the photographed image photographed by the photographing device selected by the selection unit.
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、前記撮影装置により撮影される撮影画像を推定する推定手段をさらに備え、
前記評価手段は、推定された前記撮影画像に基づいて、前記評価値を算出する請求項1又は2に記載の情報出力装置。
Based on the installation position of the imaging device, the imaging direction, and the imaging angle of view, the imaging device further includes an estimation unit that estimates a captured image captured by the imaging device,
The information output device according to claim 1, wherein the evaluation unit calculates the evaluation value based on the estimated captured image.
前記評価手段は、推定された前記撮影画像に含まれる前記指定地点の画像の面積の、前記撮影画像の全体の面積に対する割合に基づいて、前記評価値を算出する請求項3に記載の情報出力装置。   The information output according to claim 3, wherein the evaluation unit calculates the evaluation value based on a ratio of an area of the image of the designated point included in the estimated captured image to an entire area of the captured image. apparatus. 前記撮影装置により撮影される撮影画像の画像サイズを受け付けるサイズ受付手段をさらに備え、
前記評価手段は、さらに前記画像サイズに基づいて、前記評価値を算出する請求項1乃至4何れか1項に記載の情報出力装置。
Size receiving means for receiving an image size of a photographed image photographed by the photographing device;
5. The information output apparatus according to claim 1, wherein the evaluation unit further calculates the evaluation value based on the image size. 6.
前記指定地点を基準とした範囲に存在する障害物の位置、形状及び大きさを受け付ける障害物情報受付手段をさらに備え、
前記評価手段は、さらに前記障害物の前記位置、前記形状及び前記大きさに基づいて、前記評価値を算出する請求項1乃至5何れか1項に記載の情報出力装置。
It further comprises obstacle information receiving means for receiving the position, shape and size of the obstacle present in the range with the designated point as a reference,
The information output device according to claim 1, wherein the evaluation unit further calculates the evaluation value based on the position, the shape, and the size of the obstacle.
前記指定地点の明度を受け付ける明度受付手段をさらに備え、
前記装置情報受付手段は、前記撮影装置の暗視機能をさらに受け付け、
前記評価手段は、さらに前記撮影装置の前記明度及び前記暗視機能に基づいて、前記評価値を算出する請求項1乃至6何れか1項に記載の情報出力装置。
A lightness accepting means for accepting the lightness of the designated point;
The device information receiving means further receives a night vision function of the photographing device,
The information output apparatus according to claim 1, wherein the evaluation unit further calculates the evaluation value based on the brightness and the night vision function of the photographing apparatus.
前記指定地点の天気を受け付ける天気受付手段と、
前記撮影装置と前記指定地点の間の距離を算出する距離算出手段と
をさらに備え、
前記評価手段は、さらに前記天気及び前記距離に基づいて、前記評価値を算出する請求項1乃至7何れか1項に記載の情報出力装置。
Weather reception means for receiving the weather at the designated point;
A distance calculating means for calculating a distance between the imaging device and the designated point;
The information output apparatus according to claim 1, wherein the evaluation unit further calculates the evaluation value based on the weather and the distance.
前記撮影装置のアクセス数及びアクセス時間のうち少なくとも一方を受け付けるアクセス情報受付手段をさらに備え、
前記評価手段は、さらに前記撮影装置のアクセス数及び前記アクセス時間のうち少なくとも一方に基づいて、前記評価値を算出する請求項1乃至8何れか1項に記載の情報出力装置。
An access information receiving means for receiving at least one of the number of accesses and the access time of the photographing apparatus;
The information output device according to claim 1, wherein the evaluation unit further calculates the evaluation value based on at least one of the number of accesses and the access time of the imaging device.
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価手段による評価結果に基づいて、一の撮影装置を選択する選択手段と、
選択された前記撮影装置により撮影された前記撮影画像を出力する出力手段と
を備える画像処理装置。
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
Selection means for selecting one photographing device based on the evaluation result by the evaluation means;
An image processing apparatus comprising: output means for outputting the photographed image photographed by the selected photographing apparatus.
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価値の順に、複数の撮影装置を配置した一覧情報を表示する表示手段と
を備える情報出力システム。
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
An information output system comprising: display means for displaying list information in which a plurality of photographing devices are arranged in the order of the evaluation values.
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価手段による評価結果に基づいて、一の撮影装置を選択する選択手段と、
選択された前記撮影装置により撮影された前記撮影画像を表示する表示手段と
を備える画像処理システム。
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
Selection means for selecting one photographing device based on the evaluation result by the evaluation means;
An image processing system comprising: display means for displaying the photographed image photographed by the selected photographing device.
情報出力装置が実行する情報出力方法であって、
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付工程と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付工程と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価工程と、
前記評価値の順に、複数の撮影装置を配置した一覧情報を出力する出力工程と
を含む情報出力方法。
An information output method executed by the information output device,
A request accepting step for accepting a display request for a captured image of a point included in the map information;
A device information receiving step for receiving installation positions, shooting directions, and shooting angles of view of a plurality of shooting devices capable of shooting a designated point specified in the display request;
An evaluation step for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as a device for photographing the designated point, based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
And an output step of outputting list information in which a plurality of imaging devices are arranged in the order of the evaluation values.
画像処理装置が実行する画像処理方法であって、
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付工程と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付工程と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価工程と、
前記評価ステップにおける評価結果に基づいて、一の撮影装置を選択する選択工程と、
選択された前記撮影装置により撮影された前記撮影画像を出力する出力工程と
を含む画像処理方法。
An image processing method executed by an image processing apparatus,
A request accepting step for accepting a display request for a captured image of a point included in the map information;
A device information receiving step for receiving installation positions, shooting directions, and shooting angles of view of a plurality of shooting devices capable of shooting a designated point specified in the display request;
An evaluation step for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as a device for photographing the designated point, based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
A selection step of selecting one imaging device based on the evaluation result in the evaluation step;
And an output step of outputting the photographed image photographed by the selected photographing device.
コンピュータを、
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価値の順に、複数の撮影装置を配置した一覧情報を出力する出力手段と
して機能させるためのプログラム。
Computer
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
A program for functioning as output means for outputting list information in which a plurality of photographing devices are arranged in the order of the evaluation values.
コンピュータを、
地図情報に含まれる地点の撮影画像の表示要求を受け付ける要求受付手段と、
前記表示要求において指定される指定地点を撮影可能な、複数の撮影装置の設置位置、撮影方向及び撮影画角を受け付ける装置情報受付手段と、
前記撮影装置の前記設置位置、前記撮影方向及び前記撮影画角に基づいて、複数の前記撮影装置それぞれの、前記指定地点を撮影する装置としての適性を評価する評価値を算出する評価手段と、
前記評価手段による評価結果に基づいて、一の撮影装置を選択する選択手段と、
選択された前記撮影装置により撮影された前記撮影画像を出力する出力手段と
して機能させるためのプログラム。
Computer
Request accepting means for accepting a display request for a captured image of a point included in the map information;
Device information accepting means for accepting installation positions, photographing directions and photographing angles of view of a plurality of photographing devices capable of photographing a designated point designated in the display request;
Evaluation means for calculating an evaluation value for evaluating the suitability of each of the plurality of photographing devices as the device for photographing the designated point based on the installation position of the photographing device, the photographing direction, and the photographing angle of view;
Selection means for selecting one photographing device based on the evaluation result by the evaluation means;
The program for functioning as an output means which outputs the said picked-up image image | photographed with the selected said imaging device.
JP2013133124A 2013-06-25 2013-06-25 Information output device, image processing device, information output method, image processing method, and program Pending JP2015008432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013133124A JP2015008432A (en) 2013-06-25 2013-06-25 Information output device, image processing device, information output method, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013133124A JP2015008432A (en) 2013-06-25 2013-06-25 Information output device, image processing device, information output method, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2015008432A true JP2015008432A (en) 2015-01-15

Family

ID=52338441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013133124A Pending JP2015008432A (en) 2013-06-25 2013-06-25 Information output device, image processing device, information output method, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2015008432A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115598A1 (en) * 2015-12-28 2017-07-06 日本電気株式会社 Image transmission device, image transmission method, and program
JP2022166158A (en) * 2019-12-23 2022-11-01 キヤノンマーケティングジャパン株式会社 Recording medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017115598A1 (en) * 2015-12-28 2017-07-06 日本電気株式会社 Image transmission device, image transmission method, and program
JPWO2017115598A1 (en) * 2015-12-28 2018-11-22 日本電気株式会社 Video transmission device, video transmission method, and program
US10721435B2 (en) 2015-12-28 2020-07-21 Nec Corporation Video transmission apparatus, video transmission method, and program
US10721434B2 (en) 2015-12-28 2020-07-21 Nec Corporation Video transmission apparatus, video transmission method, and program
US10728495B2 (en) 2015-12-28 2020-07-28 Nec Corporation Video transmission apparatus, video transmission method, and program
US10785442B2 (en) 2015-12-28 2020-09-22 Nec Corporation Video transmission apparatus, video transmission method, and program
JP2022166158A (en) * 2019-12-23 2022-11-01 キヤノンマーケティングジャパン株式会社 Recording medium
JP7464871B2 (en) 2019-12-23 2024-04-10 キヤノンマーケティングジャパン株式会社 Information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
CN102148965B (en) Video monitoring system for multi-target tracking close-up shooting
JP4195991B2 (en) Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server
JP5740884B2 (en) AR navigation for repeated shooting and system, method and program for difference extraction
JP2024032829A (en) Monitoring system, monitoring method, and monitoring program
US20110063457A1 (en) Arrangement for controlling networked PTZ cameras
WO2013185617A1 (en) Video acquisition method, device and system
WO2013168387A1 (en) Display image formation device and display image formation method
KR20130130544A (en) Method and system for presenting security image
JP2014042160A (en) Display terminal, setting method of target area of moving body detection and program
KR20160078724A (en) Apparatus and method for displaying surveillance area of camera
CN111046121A (en) Environment monitoring method, device and system
JP5183152B2 (en) Image processing device
WO2011096343A1 (en) Photographic location recommendation system, photographic location recommendation device, photographic location recommendation method, and program for photographic location recommendation
KR20230035299A (en) Method and apparatus for processing wide angle image
TWI556651B (en) 3d video surveillance system capable of automatic camera dispatching function, and surveillance method for using the same
JP2015008432A (en) Information output device, image processing device, information output method, image processing method, and program
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
JP2012119971A (en) Monitoring video display unit
KR102168110B1 (en) Camera system
CN110636204B (en) Face snapshot system
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
KR101317428B1 (en) Spatial information system controlling cctv and operating method thereof
KR20110001842A (en) Apparatus and method for automatic area enlargement control in ptz camera using sift
JP2005268972A (en) Video display system and video display method
KR101135525B1 (en) Method for updating panoramic image and location search service using the same