JP7508271B2 - IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD - Google Patents

IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD Download PDF

Info

Publication number
JP7508271B2
JP7508271B2 JP2020091058A JP2020091058A JP7508271B2 JP 7508271 B2 JP7508271 B2 JP 7508271B2 JP 2020091058 A JP2020091058 A JP 2020091058A JP 2020091058 A JP2020091058 A JP 2020091058A JP 7508271 B2 JP7508271 B2 JP 7508271B2
Authority
JP
Japan
Prior art keywords
image
information
camera
captured
shooting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020091058A
Other languages
Japanese (ja)
Other versions
JP2021190729A (en
Inventor
健司 尾崎
朋美 菱沼
優弥 西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2020091058A priority Critical patent/JP7508271B2/en
Publication of JP2021190729A publication Critical patent/JP2021190729A/en
Application granted granted Critical
Publication of JP7508271B2 publication Critical patent/JP7508271B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、画像特定システムおよび画像特定方法に関する。 Embodiments of the present invention relate to an image identification system and an image identification method.

従来、画像により所定の情報の漏洩を防止する技術がある。例えば、美術館などの展示物の盗撮妨害を目的とした技術が知られている。また、飛行ロボットに取り付けたカメラで監視場所を撮影するときに許可された場所以外での撮影を禁止する技術が知られている。また、撮影許可または撮影禁止の対象物を自動で判定し、この対象物が写る画像の保存可否を制御する技術が知られている。また、撮影が禁止されている部分が写っている場合にマスク処理を施す技術が知られている。 Conventionally, there are techniques for preventing the leakage of specific information using images. For example, there is known a technique aimed at preventing the surreptitious photography of exhibits in museums, etc. There is also known a technique for prohibiting photography in places other than permitted when photographing a surveillance location with a camera attached to an aerial robot. There is also known a technique for automatically determining which objects are permitted or prohibited from being photographed, and controlling whether or not images in which these objects appear can be saved. There is also known a technique for applying a masking process when an area that is prohibited from being photographed is included in the image.

特開2011-257759号公報JP 2011-257759 A 特開2014-177162号公報JP 2014-177162 A 特開2014-192753号公報JP 2014-192753 A 特許第5731083号公報Patent No. 5731083 特開2009-135597号公報JP 2009-135597 A 特開2006-339818号公報JP 2006-339818 A 特開2014-192784号公報JP 2014-192784 A

撮影許可または撮影禁止の対象物を自動で判定し、この対象物が写る画像の保存可否を制御する技術では、撮影者に秘匿情報を含む対象物の場所を知らしめてしまうおそれがある。例えば、撮影者が対象物を肉眼で確認しただけでは、それが秘匿情報を含むものであることが分からなくても、その画像の保存が拒否されることにより、それが秘匿情報を含むものであることが分かってしまう。また、撮影禁止の対象物が写っている部分が判別できなくなるように画像にモザイク処理またはマスク処理を行っても、その処理を行った部分に対象物があることが分かってしまう。また、撮影禁止の対象物が写った画像が外部に持ち出されないように、人手により画像を選別して除外することもできるが、見落としなどのミスが発生するおそれがある。なお、撮影方位および撮影位置などの撮影情報に基づいて、撮影された画像に写っている被写体の名称を抽出する技術もあるが、被写体の秘匿性を保つための技術ではない。 In a technology that automatically determines whether an object is permitted or prohibited from being photographed, and controls whether an image showing this object can be saved, there is a risk that the location of the object containing confidential information may be revealed to the photographer. For example, even if the photographer does not know that the object contains confidential information just by checking it with the naked eye, the fact that the image contains confidential information will be revealed if the image is refused to be saved. In addition, even if the image is pixelated or masked so that the part showing the prohibited object cannot be identified, it will be obvious that the object is in the processed part. In addition, images can be manually selected and removed to prevent images showing prohibited objects from being taken outside, but there is a risk of overlooking or other mistakes. There is also a technology that extracts the name of the object shown in a photographed image based on shooting information such as the shooting direction and shooting position, but this is not a technology for maintaining the confidentiality of the subject.

本発明の実施形態は、このような事情を考慮してなされたもので、撮影制限の対象となっている対象部分が写った画像を正確に選別し、その画像が外部に漏洩されてしまうことを抑制することができる画像特定技術を提供することを目的とする。 The embodiment of the present invention has been made in consideration of these circumstances, and aims to provide an image identification technology that can accurately select images that include target areas that are subject to photography restrictions, and prevent those images from being leaked to the outside.

本発明の実施形態に係る画像特定システムは、移動可能な端末に搭載され、画像を撮影するカメラと、前記カメラによる前記画像の撮影時の位置を特定可能な位置情報を取得する位置情報取得部と、前記カメラによる前記画像の撮影時の方向を特定可能な方向情報を取得する方向情報取得部と、前記カメラによる前記画像の撮影時の画角を特定可能な画角情報を取得する画角情報取得部と、前記位置情報と前記方向情報と前記画角情報とを含む撮影情報を前記画像に対応付けて記録する撮影情報記録部と、を備え、前記撮影情報に基づいて、撮影制限の対象となっている対象部分が写った前記画像を公開の対象から除外する An image identification system according to an embodiment of the present invention is mounted on a mobile terminal and comprises a camera that captures images, a position information acquisition unit that acquires position information capable of identifying the position at which the image was captured by the camera, a direction information acquisition unit that acquires directional information capable of identifying the direction at which the image was captured by the camera, an angle of view information acquisition unit that acquires angle of view information capable of identifying the angle of view at which the image was captured by the camera, and a shooting information recording unit that records shooting information including the position information, the directional information, and the angle of view information in association with the image, and excludes images that include target areas that are subject to shooting restrictions from being made public based on the shooting information .

本発明の実施形態により、撮影制限の対象となっている対象部分が写った画像を正確に選別し、その画像が外部に漏洩されてしまうことを抑制することができる画像特定技術が提供される。 Embodiments of the present invention provide an image identification technology that can accurately select images that include areas subject to photography restrictions and prevent those images from being leaked to the outside.

第1実施形態の画像特定システムを示すシステム構成図。1 is a system configuration diagram showing an image specifying system according to a first embodiment. 第1実施形態の画像特定システムを示すブロック図。1 is a block diagram showing an image specifying system according to a first embodiment; 画像特定システムが用いられる作業現場を示す平面図。1 is a plan view showing a work site in which an image identification system is used; 現場端末を用いて撮影している状態を示す斜視図。FIG. 13 is a perspective view showing a state in which an image is captured using a field terminal. 基準点管理テーブルを示す説明図。FIG. 4 is an explanatory diagram showing a reference point management table. 対象機器管理テーブルを示す説明図。FIG. 4 is an explanatory diagram showing a target device management table. 端末管理テーブルを示す説明図。FIG. 4 is an explanatory diagram showing a terminal management table. 撮影情報の記録態様を示す説明図。FIG. 4 is an explanatory diagram showing a recording mode of shooting information. 管理コンピュータに表示される画像判定結果を示す画面図。FIG. 13 is a screen diagram showing the image judgment result displayed on the management computer. 管理コンピュータが実行する管理制御処理を示すフローチャート。6 is a flowchart showing a management control process executed by a management computer. 管理コンピュータが実行する画像判定処理を示すフローチャート。10 is a flowchart showing an image determination process executed by the management computer. 現場端末が実行する端末制御処理を示すフローチャート。11 is a flowchart showing a terminal control process executed by a field terminal. 現場端末が実行するマーカ認識処理を示すフローチャート。11 is a flowchart showing a marker recognition process executed by the field terminal. 現場端末が実行する自己位置推定処理を示すフローチャート。11 is a flowchart showing a self-position estimation process executed by a field terminal. 現場端末が実行する撮影制御処理を示すフローチャート。11 is a flowchart showing a shooting control process executed by the on-site terminal. 第2実施形態の画像特定システムを示すブロック図。FIG. 11 is a block diagram showing an image specifying system according to a second embodiment. 管理コンピュータが実行する画像判定処理を示すフローチャート。10 is a flowchart showing an image determination process executed by the management computer. 現場端末が実行する撮影制御処理を示すフローチャート。11 is a flowchart showing a shooting control process executed by the on-site terminal. 第3実施形態の画像特定システムで用いるレイアウト図面を示す説明図。FIG. 13 is an explanatory diagram showing a layout drawing used in the image specifying system of the third embodiment. 第4実施形態の画像特定システムで用いる動画編集画面を示す画面図。FIG. 13 is a screen diagram showing a video editing screen used in the image specifying system of the fourth embodiment. 変形例の動画像のフレームと判定情報との関係を示す概念図。FIG. 11 is a conceptual diagram showing the relationship between frames of a moving image and determination information in a modified example.

(第1実施形態)
以下、図面を参照しながら、画像特定システムおよび画像特定方法の実施形態について詳細に説明する。まず、第1実施形態の画像特定システムおよび画像特定方法について図1から図15を用いて説明する。
First Embodiment
Hereinafter, embodiments of an image identification system and an image identification method will be described in detail with reference to the drawings. First, an image identification system and an image identification method according to a first embodiment will be described with reference to FIGS.

図1の符号1は、第1実施形態の画像特定システムである。この画像特定システム1は、作業現場に居る作業者Wが所持する現場端末2と、作業者Wの監視または支援を行う管理者Mが扱う管理コンピュータ3とを備える。 Reference numeral 1 in FIG. 1 denotes an image identification system according to a first embodiment. This image identification system 1 includes an on-site terminal 2 carried by a worker W at a work site, and a management computer 3 operated by a manager M who monitors or supports the worker W.

本実施形態の作業現場としては、発電プラント、化学プラント、工場などがある。これらの作業現場には、機密に関する情報または忌避すべき情報などを含む秘匿情報が管理されている場合がある。秘匿情報には、この管理エリア内に設けられる施設または機器に関する情報が含まれる。例えば、対象部分としての監視カメラなどの対象機器4(図4参照)の設置場所などの情報が含まれる。 Worksites in this embodiment include power plants, chemical plants, factories, and the like. These worksites may manage confidential information, including confidential information or information to be avoided. The confidential information includes information about facilities or equipment installed within this management area. For example, it includes information such as the installation location of target equipment 4 (see FIG. 4), such as a surveillance camera as the target part.

保安上のリスク低減または技術情報の漏洩防止を目的として、秘匿情報に関するものを管理エリア内の所定の撮影場所にて撮影したときに、その画像を管理エリア外へ持ち出すことを禁止している場合がある。特に、撮影機材を持ち出す際には、内部メモリをチェックして情報管理をしている。 In order to reduce security risks or prevent leaks of technical information, when images related to confidential information are taken at designated locations within a controlled area, it may be prohibited to take those images outside the controlled area. In particular, when taking out filming equipment, the internal memory is checked to manage the information.

しかしながら、作業者Wが作業現場にて点検作業などを行っているときに、現場端末2で撮影した画像に秘匿情報に関するものが写り込んでしまう場合がある。そこで、画像特定システム1では、管理コンピュータ3を用いて、秘匿情報に関するものが写っている画像ファイルと、秘匿情報に関するものが写っていない画像ファイルとを選別(スクリーニング)する。そして、秘匿情報に関するものが写っている画像ファイルを公開の対象から除外し、秘匿情報に関するものが写っていない画像のみを他者に公開できるようにする。 However, when worker W is performing an inspection task at a work site, there are cases where confidential information is captured in the image captured by the on-site terminal 2. Therefore, the image identification system 1 uses the management computer 3 to select (screen) image files that contain confidential information and image files that do not contain confidential information. Then, image files that contain confidential information are excluded from the list of images to be made public, and only images that do not contain confidential information can be made public to others.

管理コンピュータ3は、画像をチェックするチェックエリアに設けられる。そして、管理者Mが管理コンピュータ3を操作して、画像ファイルの選別を行う。なお、管理者Mを置かずに管理コンピュータ3が自動的に画像ファイルの選別をしても良い。 The management computer 3 is provided in a check area for checking images. Then, the administrator M operates the management computer 3 to select image files. Note that the management computer 3 may automatically select image files without the administrator M being present.

なお、本実施形態では、撮影制限の対象(非公開の対象)となっている対象部分としての対象機器4を監視カメラとして例示しているが、その他の態様であっても良い。例えば、対象部分としての対象機器4は、計器でも良いし、操作スイッチでも良いし、バルブでも良いし、配管でも良いし、装置でも良いし、センサでも良い。 In this embodiment, the target device 4 as the target part that is subject to the shooting restriction (subject to non-disclosure) is exemplified as a surveillance camera, but other forms are also possible. For example, the target device 4 as the target part may be an instrument, an operating switch, a valve, a pipe, a device, or a sensor.

また、本実施形態では、対象部分として対象機器4を例示しているが、対象部分は建物の所定の部分、例えば、窓、扉、壁、天井、床、通路、壁の開口部、室内空間の一部の範囲であっても良い。また、巨大な1つの装置の一部が対象部分であっても良い。さらに、1つの装置の複数箇所が対象部分であっても良い。 In addition, in this embodiment, the target device 4 is exemplified as the target part, but the target part may be a specific part of a building, for example, a window, a door, a wall, a ceiling, a floor, a passageway, a wall opening, or a part of an interior space. Also, a part of a single large device may be the target part. Furthermore, multiple parts of a single device may be the target part.

画像特定システム1では、対象機器4の位置が予め特定されている。そして、現場端末2の位置と撮影方向と画角とに基づいて、撮影された画像に対象機器4が写っているか否かを管理コンピュータ3により判定するようにしている。このようにすれば、管理者Mが目視で画像を選別する必要がなく、見落としなどのミスを防ぐことができる。また、画像に対象機器4が明りょうに写っていなくても、対象機器4が写っている可能性がある場合には、その画像を選別することができる。 In the image identification system 1, the position of the target device 4 is identified in advance. Then, based on the position of the on-site terminal 2, the shooting direction, and the angle of view, the management computer 3 determines whether or not the target device 4 is captured in the captured image. In this way, the manager M does not need to visually select the images, and mistakes such as oversights can be prevented. Even if the target device 4 is not clearly visible in the image, if there is a possibility that the target device 4 is captured, the image can be selected.

なお、作業者Wは、現場端末2を用いて作業現場で撮影を行い、その画像が管理コンピュータ3に送信される。本実施形態の画像は、いわゆる映像であって、ビデオ映像(動画像)または静止画像のいずれでも良い。また、「画像ファイル」には、静止画像を含むファイルのみならず、動画像を含むファイルが含まれるものとして説明する。 The worker W takes pictures at the work site using the on-site terminal 2, and the images are sent to the management computer 3. The images in this embodiment are so-called images, and may be either video images (moving images) or still images. In addition, the term "image file" will be explained as including not only files containing still images, but also files containing moving images.

作業者Wが扱う移動可能な現場端末2は、例えば、ディスプレイ6(図2参照)を備えるスマートフォン7で構成されている。このスマートフォン7には、現場の状況を撮影するためのカメラ8(図2参照)が搭載されている。なお、スマートフォン7のディスプレイ6は、画像を表示する装置であるとともに、入力装置としてのタッチパネルを兼ねる。本実施形態の入力操作には、タッチパネルを用いたタッチ操作が含まれる。 The mobile on-site terminal 2 handled by the worker W is, for example, configured as a smartphone 7 equipped with a display 6 (see FIG. 2). This smartphone 7 is equipped with a camera 8 (see FIG. 2) for photographing the on-site situation. The display 6 of the smartphone 7 is a device for displaying images and also serves as a touch panel as an input device. The input operation in this embodiment includes a touch operation using the touch panel.

また、他の作業者Wが扱う異なるタイプの現場端末2は、この作業者Wが装着する透過型ヘッドマウントディスプレイ9を備えるウェアラブルコンピュータ10(スマートグラス)で構成されている。このウェアラブルコンピュータ10は、透過型ヘッドマウントディスプレイ9と分離した構造でも良い。このウェアラブルコンピュータ10にも現場の状況を撮影するカメラが搭載されている。 A different type of on-site terminal 2 handled by another worker W is configured with a wearable computer 10 (smart glasses) equipped with a see-through head-mounted display 9 worn by the worker W. This wearable computer 10 may be structured separately from the see-through head-mounted display 9. This wearable computer 10 is also equipped with a camera that captures the situation at the site.

なお、現場端末2は、タブレット型PCまたはノートPCで構成されても良い。その他、撮影機能、通話機能、通信機能を持つ機器で構成されるものであり、それぞれの機能を持つ複数の機器で構成されるものでも良い。 The on-site terminal 2 may be configured as a tablet PC or a notebook PC. It may also be configured as a device with a photographing function, a calling function, and a communication function, or may be configured as multiple devices with each of these functions.

スマートフォン7およびウェアラブルコンピュータ10のシステム構成は、ほぼ同一であるため、以下の説明では、スマートフォンで構成される現場端末2を例示する。なお、本実施形態は、ウェアラブルコンピュータ10にも適用可能である。 The system configurations of the smartphone 7 and the wearable computer 10 are almost the same, so in the following explanation, we will use an on-site terminal 2 that is configured as a smartphone as an example. Note that this embodiment can also be applied to the wearable computer 10.

管理者Mが扱う管理コンピュータ3は、例えば、デスクトップPC、ノートPC、またはタブレット型PCなどの所定のコンピュータで構成される。本実施形態では、デスクトップPCを例示する。管理コンピュータ3は、コンピュータ本体11と、管理者Mが視認を行うディスプレイ12と、現場端末2と無線通信を行う無線通信装置13を備える。ここでは、無線通信を行う例を記載しているが、有線での通信とすることも可能である。なお、ディスプレイ12はコンピュータ本体11と別体であっても良いし、一体であっても良い。 The management computer 3 used by the manager M is composed of a specific computer such as a desktop PC, notebook PC, or tablet PC. In this embodiment, a desktop PC is used as an example. The management computer 3 includes a computer main body 11, a display 12 that is visually confirmed by the manager M, and a wireless communication device 13 that performs wireless communication with the on-site terminal 2. Here, an example of wireless communication is described, but wired communication is also possible. The display 12 may be separate from the computer main body 11, or may be integrated with it.

本実施形態において、現場端末2は、自位置および自姿勢を特定することができる。例えば、GPS(Global Positioning System)などの位置測定システムを有していても良い。 In this embodiment, the on-site terminal 2 can determine its own position and attitude. For example, it may have a position measurement system such as a Global Positioning System (GPS).

また、現場端末2の自位置および自姿勢の変位の算出に用いる位置推定技術には、SLAM(Simultaneous Localization and Mapping)、SfM(Structure from Motion)などの公知の技術を用いることができる。 In addition, the position estimation technology used to calculate the displacement of the on-site terminal 2's own position and attitude can be known technologies such as SLAM (Simultaneous Localization and Mapping) and SfM (Structure from Motion).

本実施形態の現場端末2は、VSLAM(Visual Simultaneous Localization and Mapping)を用いて、現場端末2で撮影された画像に基づいて、その位置および姿勢の変位を算出する。つまり、現場端末2は、例えば、屋内などのGPSが使用できない場所でも自己位置を推定することができる。 The on-site terminal 2 of this embodiment uses VSLAM (Visual Simultaneous Localization and Mapping) to calculate the displacement of its position and attitude based on an image captured by the on-site terminal 2. In other words, the on-site terminal 2 can estimate its own position even in a place where GPS cannot be used, such as indoors.

VSLAM技術では、現場端末2のカメラ8およびセンサなどの所定のデバイスで取得した情報を用いて、周囲の物体の特徴点を抽出する。そして、カメラ8で撮影した動画像を解析し、物体の特徴点(例えば、角などの物体の部分)をリアルタイムに追跡する。そして、現場端末2の位置または姿勢の3次元情報を推定する。 In VSLAM technology, information acquired by specific devices such as the camera 8 and sensors of the on-site terminal 2 is used to extract feature points of surrounding objects. Then, video images captured by the camera 8 are analyzed to track feature points of the objects (e.g., parts of the objects such as corners) in real time. Then, three-dimensional information about the position or orientation of the on-site terminal 2 is estimated.

図3に示すように、作業者Wが作業を行う作業現場として所定の建物14を例示する。例えば、発電プラントにおける所定の区画に設けられた建物14が作業現場となっている。この作業現場は、壁で囲まれた複数の部屋15がある。これら複数の部屋15のうち、1つの部屋15が作業現場として予め設定される。つまり、この部屋15が、現場端末2が画像の取得が許可されている許可エリア16として予め設定される。なお、許可エリア16以外では、画像の取得が許可されていないもの(非許可エリア)として説明する。 As shown in FIG. 3, a specific building 14 is exemplified as a work site where a worker W performs work. For example, a building 14 located in a specific section of a power generation plant serves as the work site. This work site has multiple rooms 15 surrounded by walls. Of these multiple rooms 15, one room 15 is set in advance as the work site. In other words, this room 15 is set in advance as an allowed area 16 in which the on-site terminal 2 is permitted to acquire images. Note that areas other than the allowed area 16 will be described as areas in which image acquisition is not permitted (non-allowed areas).

建物14の出入口17は、現場端末2の位置を推定する基準となる基準点として設定される。この建物14の出入口17には、本実施形態の特定被写体としてのマーカ5が配置される。また、それぞれの部屋15の出入口18も、現場端末2の位置を推定する基準となる基準点として設定される。これらの部屋15の出入口18にも、マーカ5が配置される。なお、マーカ5は、出入口17,18の近傍の壁面に設けられても良いし、出入口17,18の扉面に設けられても良い。 The entrance/exit 17 of the building 14 is set as a reference point that serves as a reference for estimating the position of the on-site terminal 2. A marker 5 is placed at the entrance/exit 17 of the building 14 as a specific subject of this embodiment. The entrances/exits 18 of each room 15 are also set as reference points that serve as a reference for estimating the position of the on-site terminal 2. Markers 5 are also placed at the entrances/exits 18 of these rooms 15. The markers 5 may be provided on the wall surfaces near the entrances 17, 18, or on the door surfaces of the entrances 17, 18.

作業者Wは、作業を開始するときに、まず、建物14の出入口17でマーカ5を撮影する。ここで、現場端末2は、マーカ5が写った撮影画像に基づいて、自位置および自姿勢を推定する。なお、建物14の出入口17でマーカ5の撮影を開始し、移動中も撮影を継続することで、基準点から現場端末2が移動した移動経路19を推定できる。 When worker W starts work, he first photographs marker 5 at entrance/exit 17 of building 14. The on-site terminal 2 then estimates its own position and attitude based on the photographed image in which marker 5 appears. By starting to photograph marker 5 at entrance/exit 17 of building 14 and continuing to photograph while moving, it is possible to estimate the path 19 traveled by the on-site terminal 2 from the reference point.

なお、マーカ5は、画像認識が可能な図形である。例えば、マトリックス型2次元コード、所謂QRコード(登録商標)をマーカ5として用いる。また、建物14または建物14に設置されている対象機器4などの場所を特定できる情報を特定被写体(マーカ)として用いても良い。例えば、出入口17の銘板、部屋15の銘板、対象機器4の機器番号または名称を記載した銘板などを特定被写体として用いても良い。銘板とは、小型の平板に銘柄を表示したものである。マーカ5および銘板は、所定の位置に固定された状態で設けられている。 The marker 5 is a figure that can be recognized by image recognition. For example, a matrix type two-dimensional code, a so-called QR code (registered trademark), is used as the marker 5. Also, information that can identify the location of the building 14 or the target device 4 installed in the building 14 may be used as the specific subject (marker). For example, a nameplate at the entrance/exit 17, a nameplate in the room 15, or a nameplate with the device number or name of the target device 4 may be used as the specific subject. A nameplate is a small flat plate that displays the brand name. The marker 5 and the nameplate are provided in a fixed state at a predetermined position.

また、マーカ5には、対応するマーカ5を個々に識別可能なマーカIDを示す情報が含まれる。このようにすれば、複数のマーカ5をそれぞれ識別することができる。なお、銘板には、番号(例えば、シリアル番号)または名称などの銘板を個々に識別可能な情報が記載されている。銘板の形状または記載されている文字などを画像認識させることで、個々の銘板を識別することができる。さらに、それぞれの銘板に対応して銘板IDが予め付与されている。 The markers 5 also contain information indicating a marker ID that can identify each corresponding marker 5. In this way, multiple markers 5 can be identified individually. The nameplates are marked with information that can identify each nameplate, such as a number (e.g., a serial number) or a name. Individual nameplates can be identified by performing image recognition of the shape of the nameplate or the characters written on it. Furthermore, a nameplate ID is assigned in advance to correspond to each nameplate.

管理コンピュータ3には、例えば、それぞれの部屋15の出入口18に設けられたマーカ5のマーカIDに対応して対象機器4に関する情報が登録される。なお、部屋15の出入口18のマーカ5を撮影して基準点を取得しなければ、部屋15の内部で画像の撮影を行えないように制御しても良い。 In the management computer 3, for example, information on the target devices 4 is registered corresponding to the marker IDs of the markers 5 provided at the entrances 18 of the rooms 15. Note that control may be performed so that images cannot be captured inside the rooms 15 unless the markers 5 at the entrances 18 of the rooms 15 are photographed to obtain the reference point.

作業者Wは、部屋15の出入口18に到着したら、まず、現場端末2でマーカ5を読み取る。そして、マーカ5に基づいて取得される基準点の座標と、部屋15に対応して予め設定されている基準点の座標とを一致させる。そして、現場端末2で画像の保存をした場合に、その撮影時の位置情報と方向情報とを、基準点の座標に基づいて取得する。 When worker W arrives at the entrance 18 of room 15, he first reads the marker 5 with the on-site terminal 2. Then, the coordinates of the reference point obtained based on the marker 5 are matched with the coordinates of a reference point that has been set in advance for room 15. Then, when the image is saved in the on-site terminal 2, the position information and direction information at the time of shooting are obtained based on the coordinates of the reference point.

例えば、読み込んだマーカ5の座標と現場端末2の座標との相対位置を特定し、現場端末2の撮影時の位置情報と方向情報とを取得する。つまり、現場端末2の座標は、マーカ5の座標を原点としたもので示される。本実施形態では、それぞれの部屋15の出入口18に設けられたマーカ5を原点として現場端末2の座標(相対座標)を取得する。つまり、現場端末2の座標は、部屋15ごとに取得されるものとなっている。なお、建物14の出入口17に設けられた1つのマーカ5を原点として、それぞれの部屋15の内部における現場端末2の座標(絶対座標)を取得しても良い。 For example, the relative position between the coordinates of the read marker 5 and the coordinates of the on-site terminal 2 is identified, and position information and direction information at the time of photographing the on-site terminal 2 are obtained. That is, the coordinates of the on-site terminal 2 are indicated with the coordinates of the marker 5 as the origin. In this embodiment, the coordinates (relative coordinates) of the on-site terminal 2 are obtained with the marker 5 provided at the entrance/exit 18 of each room 15 as the origin. That is, the coordinates of the on-site terminal 2 are obtained for each room 15. Note that the coordinates (absolute coordinates) of the on-site terminal 2 inside each room 15 may be obtained with one marker 5 provided at the entrance/exit 17 of the building 14 as the origin.

本実施形態では、マーカ5または銘板の少なくともいずれか一方を用いて現場端末2の座標を取得する。なお、マーカ5による現場端末2の座標の取得と、銘板による現場端末2の座標の取得との両態様を混在させても良い。 In this embodiment, the coordinates of the on-site terminal 2 are acquired using at least one of the marker 5 and the nameplate. Note that both acquisition of the coordinates of the on-site terminal 2 using the marker 5 and acquisition of the coordinates of the on-site terminal 2 using the nameplate may be mixed.

マーカ5を設ける態様としては、例えば、マーカ5が印刷されたパネルを作成し、このパネルを、作業開始前に作業現場の壁面などに配置しておく。なお、壁面などにマーカ5を直接印刷しても良い。また、銘板は、装置などに取り付けられている既存のものを利用することができる。このようにすれば、既に部屋15または装置などに設けられている銘板により基準点を取得することができるため、マーカ5を設置する手間を省略することができる。なお、予め銘板を撮影し、画像認識ができるように銘板の画像の特徴量を取得しておく。マーカ5または銘板に関する情報は、管理コンピュータ3に記憶される。 One way of providing the markers 5 is, for example, to create a panel on which the markers 5 are printed, and place this panel on a wall or the like at the work site before work begins. The markers 5 may also be printed directly on a wall or the like. An existing nameplate attached to a device or the like can be used. In this way, a reference point can be obtained using a nameplate that is already installed in the room 15 or device, and the effort of installing the markers 5 can be eliminated. The nameplate is photographed in advance, and the feature values of the image of the nameplate are obtained so that image recognition can be performed. Information regarding the markers 5 or the nameplate is stored in the management computer 3.

また、現場端末2を制御する端末制御部28(図2参照)は、現場端末2で画像の保存をした場合に、撮影時のカメラ8の設定情報を取得する。この設定情報は、絞り値情報とシャッタースピード情報とISO感度情報と画角情報と倍率情報との少なくともいずれかを含む。ここで、絞り値情報は、カメラ8による画像の撮影時の絞り値を特定可能な情報である。シャッタースピード情報は、カメラ8による画像の撮影時のシャッタースピードを特定可能な情報である。ISO感度情報は、カメラ8による画像の撮影時のISO感度(明度)を特定可能な情報である。画角情報は、カメラ8による画像の撮影時の画角を特定可能な情報である。倍率情報は、カメラ8による画像の撮影時の倍率(拡大率)を特定可能な情報である。 Furthermore, when an image is saved in the on-site terminal 2, the terminal control unit 28 (see FIG. 2) that controls the on-site terminal 2 acquires setting information of the camera 8 at the time of shooting. This setting information includes at least one of aperture value information, shutter speed information, ISO sensitivity information, angle of view information, and magnification information. Here, the aperture value information is information that can identify the aperture value when the image was shot by the camera 8. The shutter speed information is information that can identify the shutter speed when the image was shot by the camera 8. The ISO sensitivity information is information that can identify the ISO sensitivity (brightness) when the image was shot by the camera 8. The angle of view information is information that can identify the angle of view when the image was shot by the camera 8. The magnification information is information that can identify the magnification (magnification ratio) when the image was shot by the camera 8.

図4に示すように、許可エリア16において、作業者Wが現場端末2を用いて様々な撮影を行う。このときに撮影された画像は、画像ファイルとして現場端末2に記憶される。なお、現場端末2にて記憶される画像ファイルには、撮影時の現場端末2の位置(座標)と撮影方向と撮影時のカメラ8の設定情報とを含む撮影情報(図8参照)が対応付けられる。 As shown in FIG. 4, in the permitted area 16, a worker W uses the on-site terminal 2 to take various photographs. The images taken at this time are stored in the on-site terminal 2 as image files. The image files stored in the on-site terminal 2 are associated with photographing information (see FIG. 8) including the position (coordinates) of the on-site terminal 2 at the time of photographing, the photographing direction, and the setting information of the camera 8 at the time of photographing.

ここで、撮影時の現場端末2の位置は、建物14またはマーカ5を基準とする3次元座標に基づいて特定される。撮影方向は、撮影時の位置での水平面内の方位(ヨー角)と現場端末2のピッチ角、ロール角に基づいて求められる。また、画角は、現場端末2のカメラ8の撮影角(実際に写る範囲を角度で表したもの)であり、拡大率を含んでいる。なお、撮影情報には、その他の情報が含まれていても良い。例えば、端末ID、撮影者の情報、撮影日時などの情報が含まれていても良い。 The position of the on-site terminal 2 at the time of shooting is identified based on three-dimensional coordinates with the building 14 or marker 5 as the reference. The shooting direction is determined based on the orientation (yaw angle) in the horizontal plane at the position at the time of shooting and the pitch angle and roll angle of the on-site terminal 2. The angle of view is the shooting angle of the camera 8 of the on-site terminal 2 (the actual range captured expressed as an angle), and includes the magnification rate. Note that the shooting information may also include other information. For example, it may include information such as the terminal ID, information about the photographer, and the shooting date and time.

また、現場端末2で撮影された画像を含む画像ファイルは、管理コンピュータ3に送信される。なお、管理コンピュータ3に対する画像の送信タイミングは、作業中であっても良いし、作業終了後であっても良い。また、管理コンピュータ3に送信を完了したときに、現場端末2に記憶されている画像を消去しても良い。 In addition, an image file including the image taken by the on-site terminal 2 is transmitted to the management computer 3. The image may be transmitted to the management computer 3 during work or after work is completed. Furthermore, when transmission to the management computer 3 is completed, the image stored in the on-site terminal 2 may be erased.

本実施形態では、撮影情報が画像を含む画像ファイルの属性として記録される。このようにすれば、画像ファイルと撮影情報とを直接的に対応付けることができる。例えば、画像をExif(Exchangeable image file format)の形式で保存した場合には、そのプロパティ(属性)として撮影情報を記録することができる。画像ファイルを移動しても一緒に撮影情報も移動されるため、画像ファイルの管理が容易になる。 In this embodiment, the shooting information is recorded as an attribute of the image file that contains the image. In this way, the image file and the shooting information can be directly associated with each other. For example, if an image is saved in the Exif (Exchangeable image file format) format, the shooting information can be recorded as its properties (attributes). When an image file is moved, the shooting information is also moved along with it, making it easier to manage image files.

例えば、図8に示すように、画像ファイルのプロパティには、ファイル名(画像ID)と端末IDとユーザIDと撮影日時(撮影時刻)と撮影ID(撮影情報)と対象機器ID(対象情報)と基準点IDとマーカIDと位置情報(座標数値)と方向情報(角度数値)と絞り値情報とシャッタースピード情報とISO感度情報と画角情報(角度数値)と倍率情報とが記録される。 For example, as shown in FIG. 8, the properties of an image file include the file name (image ID), device ID, user ID, shooting date and time (shooting time), shooting ID (shooting information), target device ID (target information), reference point ID, marker ID, position information (coordinate values), direction information (angle values), aperture value information, shutter speed information, ISO sensitivity information, angle of view information (angle values), and magnification information.

なお、管理コンピュータ3において、画像に撮影制限の対象となっている対象機器4が写っているか否かの判定が行われた場合には、その判定結果を示す判定情報も記録される。この判定情報は、外部への公開が制限される制限ファイルであるか、外部への公開が制限されない非制限ファイルであるかを示すものである。このように、画像ファイルのプロパティには、各種情報が追記可能となっている。さらに、その他の情報を画像ファイルのプロパティに追記しても良い。 When the management computer 3 determines whether or not an image contains a target device 4 that is subject to photography restrictions, determination information indicating the result of the determination is also recorded. This determination information indicates whether the file is a restricted file whose disclosure to the outside is restricted, or an unrestricted file whose disclosure to the outside is not restricted. In this way, various information can be added to the properties of the image file. Furthermore, other information may be added to the properties of the image file.

図8では、静止画像の画像ファイルのプロパティを例示している。ここで、ファイル名は、画像ファイルの名称である。端末IDは、複数の現場端末2を個々に識別可能な識別情報である。画像ファイルのプロパティには、作業現場で撮影に用いた現場端末2の端末IDが記録される。 Figure 8 shows an example of the properties of an image file for a still image. Here, the file name is the name of the image file. The terminal ID is identification information that can individually identify multiple on-site terminals 2. The properties of the image file record the terminal ID of the on-site terminal 2 used to take the image at the work site.

ユーザIDは、複数の作業者Wを個々に識別可能な識別情報である。なお、ユーザIDは、現場端末2にログインするときに使用するものであっても良いし、それぞれの作業者Wが所持するIDカードに登録されるものであっても良い。画像ファイルのプロパティには、作業現場で撮影を行った作業者WのユーザIDが記録される。 The user ID is identification information that can individually identify multiple workers W. The user ID may be used when logging in to the on-site terminal 2, or may be registered on an ID card held by each worker W. The user ID of the worker W who took the photo at the work site is recorded in the properties of the image file.

撮影日時(時間情報)は、現場端末2で撮影を行った日付と時刻である。なお、動画像の画像ファイルの撮影日時は、録画の開始時でも良いし、録画の終了時でも良い。 The shooting date and time (time information) is the date and time when the image was captured by the on-site terminal 2. Note that the shooting date and time of the image file of the moving image may be the start or end of recording.

撮影IDは、現場端末2を用いた撮影態様を個々に識別可能な撮影態様識別情報である。1つの撮影IDは、1つの位置情報と1つの方向情報とに対応付けられる。カメラ8で取得した画像が静止画像である場合には、1つの撮影IDが対応付けられる。また、カメラ8で取得した画像が動画像である場合には、1フレームごとに1つの撮影IDが対応付けられる。なお、動画像のトラックに撮影IDを対応付けても良い。 The shooting ID is shooting mode identification information that can individually identify the shooting mode using the on-site terminal 2. One shooting ID is associated with one piece of location information and one piece of direction information. If the image acquired by the camera 8 is a still image, one shooting ID is associated with it. Also, if the image acquired by the camera 8 is a moving image, one shooting ID is associated with each frame. Note that the shooting ID may also be associated with the track of the moving image.

例えば、動画像の撮影時にカメラ8が移動または動作している場合には、現場端末2の位置およびカメラ8の向きが変化するため、1つの画像ファイルに複数の撮影IDが対応付けられる。一方、動画像の撮影時にカメラ8が固定されている場合には、現場端末2の位置およびカメラ8の向きが変化することがないため、1つの画像ファイルに対応付けられる撮影IDが1つでも良い。なお、カメラ8で取得した画像が動画像である場合には、1フレームごとに絞り値情報とシャッタースピード情報とISO感度情報と画角情報と倍率情報とが対応付けられる。 For example, if the camera 8 is moving or operating when capturing a moving image, the position of the on-site terminal 2 and the orientation of the camera 8 change, and therefore multiple shooting IDs are associated with one image file. On the other hand, if the camera 8 is fixed when capturing a moving image, the position of the on-site terminal 2 and the orientation of the camera 8 do not change, and therefore only one shooting ID may be associated with one image file. Note that, if the image captured by the camera 8 is a moving image, aperture value information, shutter speed information, ISO sensitivity information, angle of view information, and magnification information are associated with each frame.

また、撮影情報は、予め規定された識別子として生成しても良い。識別子とは、例えば、所定の計算関数に撮影情報のそれぞれの値を入力すると、所定の数式として出力されるものである。そして、識別子に基づいて撮影情報を再現できるようにする。このようにすれば、撮影情報を識別子という規定化された態様で記録することができる。例えば、画像ファイルの属性に識別子を記録しても良い。 The photographic information may also be generated as a predefined identifier. The identifier is, for example, a predetermined mathematical formula that is output when each value of the photographic information is input into a predetermined calculation function. Then, the photographic information can be reproduced based on the identifier. In this way, the photographic information can be recorded in a defined form as an identifier. For example, the identifier may be recorded in the attributes of the image file.

また、識別子を画像に含ませる態様で記録しても良い。このようにすれば、画像そのものに撮影情報を含ませることができる。そのため、画像の管理が容易になる。なお、識別子を画像に含ませる態様とは、例えば、識別子をマトリックス型2次元コードとして生成し、この2次元コードを画像に合成する態様でも良い。また。識別子を電子透かしとして画像に含める態様でも良い。 The image may also be recorded in such a manner that the identifier is included in the image. In this way, the image itself can contain the shooting information. This makes it easier to manage the images. Including the identifier in the image may involve, for example, generating the identifier as a matrix type two-dimensional code and synthesizing this two-dimensional code with the image. Also, the identifier may be included in the image as a digital watermark.

また、撮影情報が、画像を含む画像ファイルとは異なる記録ファイルに記録されても良い。例えば、画像ファイル20と同一のファイル名を有する記録ファイル21を生成し(図9参照)、この記録ファイル21に撮影情報を記録しても良い。このようにすれば、撮影情報のデータ量が多くなる場合であっても、その記録を行うことができる。例えば、動画の場合には、撮影情報のデータ量が多くなるが、この場合でも撮影情報を記録することができる。 The shooting information may also be recorded in a recording file that is different from the image file that contains the image. For example, a recording file 21 having the same file name as the image file 20 may be generated (see FIG. 9), and the shooting information may be recorded in this recording file 21. In this way, even if the amount of shooting information data is large, it can be recorded. For example, in the case of a moving image, the amount of shooting information data is large, but the shooting information can still be recorded in this case.

なお、本実施形態では、ファイル名により画像ファイル20と記録ファイル21とを対応付けているが、その他の態様であっても良い。例えば、画像ファイル20を特定可能な特定IDを生成し、この特定IDを記録ファイル21に記録することで、画像ファイル20と対応付けても良い。また、コンピュータのファイルシステムを用いて画像ファイル20と記録ファイル21とを対応付けても良い。 In this embodiment, the image file 20 and the recording file 21 are associated with each other by the file name, but other configurations are also possible. For example, the image file 20 may be associated with the recording file 21 by generating a specific ID that can identify the image file 20 and recording this specific ID in the recording file 21. The image file 20 and the recording file 21 may also be associated with each other using the computer's file system.

次に、画像特定システム1のシステム構成を図2に示すブロック図を参照して説明する。 Next, the system configuration of the image identification system 1 will be explained with reference to the block diagram shown in Figure 2.

本実施形態の現場端末2および管理コンピュータ3は、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の画像特定方法は、各種プログラムをコンピュータに実行させることで実現される。 The on-site terminal 2 and management computer 3 of this embodiment are configured as computers having hardware resources such as a CPU, ROM, RAM, and HDD, and in which software-based information processing is realized using the hardware resources as the CPU executes various programs. Furthermore, the image identification method of this embodiment is realized by having the computer execute various programs.

現場端末2は、カメラ8と加速度センサ22と角速度センサ23と3次元測定センサ24とディスプレイ6と操作入力部25と通信部26と画像記憶部27と端末制御部28とを備える。 The on-site terminal 2 includes a camera 8, an acceleration sensor 22, an angular velocity sensor 23, a three-dimensional measurement sensor 24, a display 6, an operation input unit 25, a communication unit 26, an image storage unit 27, and a terminal control unit 28.

カメラ8は、現場端末2に搭載され、現場端末2の周辺の物体を可視光により撮影する。例えば、カメラ8は、レンズ付きの撮像素子を備えている。なお、カメラ8で撮影された画像は、端末制御部28に入力される。 The camera 8 is mounted on the on-site terminal 2 and captures images of objects around the on-site terminal 2 using visible light. For example, the camera 8 includes an image sensor with a lens. The images captured by the camera 8 are input to the terminal control unit 28.

加速度センサ22は、現場端末2に搭載され、この現場端末2が移動したときに生じる加速度を検出する。また、この加速度センサ22により重力加速度の検出も行える。例えば、3軸の加速度センサ22とすることで、現場端末2の姿勢に応じた各軸の加速度を検出することが可能となる。なお、この加速度センサ22で検出された加速度の値を示す加速度情報は、端末制御部28に入力される。 The acceleration sensor 22 is mounted on the on-site terminal 2 and detects the acceleration that occurs when the on-site terminal 2 moves. The acceleration sensor 22 can also detect gravitational acceleration. For example, by using a three-axis acceleration sensor 22, it is possible to detect the acceleration of each axis according to the attitude of the on-site terminal 2. The acceleration information indicating the acceleration value detected by the acceleration sensor 22 is input to the terminal control unit 28.

角速度センサ23(ジャイロセンサ)は、現場端末2に搭載され、この現場端末2の筐体の姿勢が変化したときに生じる角速度を検出する。この角速度センサ23の値と加速度センサ22の値とを合わせて、この現場端末2の筐体の姿勢を特定することで、カメラ8の撮影方向を把握することができる。なお、この角速度センサ23で検出された角速度の値を示す角速度情報は、端末制御部28に入力される。 The angular velocity sensor 23 (gyro sensor) is mounted on the on-site terminal 2 and detects the angular velocity that occurs when the attitude of the housing of the on-site terminal 2 changes. By combining the value of the angular velocity sensor 23 with the value of the acceleration sensor 22 to identify the attitude of the housing of the on-site terminal 2, it is possible to determine the shooting direction of the camera 8. The angular velocity information indicating the value of the angular velocity detected by the angular velocity sensor 23 is input to the terminal control unit 28.

撮影方向は、例えば、現場端末2の水平方向および垂直方向の傾きの測定に基づいて取得される。また、現場端末2の筐体に向きが異なる2つ以上のカメラ8が搭載されている場合には、撮影に使用するカメラ8の筐体における位置および向きを設定し、このカメラ8の撮影方向を取得する。 The shooting direction is obtained, for example, based on measuring the horizontal and vertical tilt of the on-site terminal 2. In addition, if the housing of the on-site terminal 2 is equipped with two or more cameras 8 with different orientations, the position and orientation on the housing of the camera 8 used for shooting is set, and the shooting direction of this camera 8 is obtained.

なお、慣性センサ(3軸加速度センサと3軸角速度センサ)と3軸地磁気センサを組み合わせた9軸センサであるモーションセンサを現場端末2に搭載しても良い。 The on-site terminal 2 may also be equipped with a motion sensor, which is a nine-axis sensor that combines an inertial sensor (a three-axis acceleration sensor and a three-axis angular velocity sensor) and a three-axis geomagnetic sensor.

3次元測定センサ24は、現場端末2の周辺の物体の3次元形状を測定する。3次元測定センサ24としては、例えば、深度センサが用いられる。なお、3次元測定センサ24として赤外線センサまたはLiDARなどのレーザセンサを用いても良い。 The three-dimensional measurement sensor 24 measures the three-dimensional shape of an object in the vicinity of the on-site terminal 2. For example, a depth sensor is used as the three-dimensional measurement sensor 24. Note that an infrared sensor or a laser sensor such as LiDAR may also be used as the three-dimensional measurement sensor 24.

3次元測定センサ24は、現場端末2の筐体において、カメラ8が設けられている背面側に設けられる。この3次元測定センサ24は、例えば、物体にレーザを投光してその反射光を受光素子により受光することで、現場端末2から物体までの距離を測定することができる。本実施形態では、3次元測定センサ24は、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、現場端末2から周辺の物体までの距離を測定して3次元点群化する。なお、カメラ8による撮像方向と3次元測定センサ24による測定方向は一致している。 The three-dimensional measurement sensor 24 is provided on the rear side of the housing of the on-site terminal 2 where the camera 8 is provided. This three-dimensional measurement sensor 24 can measure the distance from the on-site terminal 2 to an object, for example, by projecting a laser onto the object and receiving the reflected light with a light receiving element. In this embodiment, the three-dimensional measurement sensor 24 uses a ToF (Time of Flight) method that converts the delay time between the projected pulse and the received pulse into distance to measure the distance from the on-site terminal 2 to surrounding objects and create a three-dimensional point cloud. Note that the imaging direction of the camera 8 and the measurement direction of the three-dimensional measurement sensor 24 are the same.

現場端末2のディスプレイ6は、カメラ8で撮影された撮影画像を表示する。なお、その他の所定の情報をディスプレイ6に表示させても良い。 The display 6 of the on-site terminal 2 displays the images captured by the camera 8. Other specified information may also be displayed on the display 6.

操作入力部25は、作業者Wにより操作され、所定の情報の入力操作が行えるようにしたデバイスである。本実施形態では、操作入力部25がディスプレイ6と一体的に設けられるタッチパネルで構成される。なお、現場端末2としてウェアラブルコンピュータ10を用いる場合は、操作入力部25が作業者Wの手元に配置され、入力操作が適宜可能となっている。 The operation input unit 25 is a device that is operated by the worker W to allow the worker W to input predetermined information. In this embodiment, the operation input unit 25 is configured as a touch panel that is integral with the display 6. When a wearable computer 10 is used as the on-site terminal 2, the operation input unit 25 is placed at the worker W's hand, allowing the worker W to perform input operations as appropriate.

通信部26は、通信回線を介して管理コンピュータ3と通信を行う。本実施形態の通信部26には、ネットワーク機器、例えば、無線LANのアンテナが含まれる。その他にも、LANケーブルまたはUSBケーブルを用いて通信を行う場合もある。この通信部26を介して現場端末2は、管理コンピュータ3にアクセスする。 The communication unit 26 communicates with the management computer 3 via a communication line. In this embodiment, the communication unit 26 includes a network device, for example, a wireless LAN antenna. In some cases, communication may also be performed using a LAN cable or a USB cable. The on-site terminal 2 accesses the management computer 3 via this communication unit 26.

画像記憶部27は、カメラ8で撮影した画像を含む画像ファイルを記憶する。なお、画像記憶部27に記憶される画像は、動画像であっても良いし、静止画像であっても良い。また、画像ファイルとともに、画像ファイルに対応付けられた記録ファイルを記憶しても良い。さらに、画像ファイルに関連する所定のデータを記憶しても良い。 The image storage unit 27 stores image files including images captured by the camera 8. The images stored in the image storage unit 27 may be moving images or still images. In addition to the image files, recording files associated with the image files may also be stored. Furthermore, predetermined data related to the image files may also be stored.

端末制御部28は、現場端末2を統括的に制御する。この端末制御部28は、位置姿勢推定部29と基準取得部30とエリア識別部31と画像取得制御部32と位置情報取得部33と方向情報取得部34と画角情報取得部35と撮影情報記録部36と識別子生成部37とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The terminal control unit 28 controls the on-site terminal 2 in an integrated manner. The terminal control unit 28 includes a position and orientation estimation unit 29, a reference acquisition unit 30, an area identification unit 31, an image acquisition control unit 32, a position information acquisition unit 33, a direction information acquisition unit 34, an angle of view information acquisition unit 35, a shooting information recording unit 36, and an identifier generation unit 37. These are realized by the CPU executing a program stored in the memory or HDD.

位置姿勢推定部29は、撮影画像と加速度情報と角速度情報とに基づいて現場端末2の位置および姿勢を推定する制御を行う。つまり、現場端末2に搭載されたデバイスにより得られた情報に基づいて現場端末2の位置および姿勢を推定する。この位置姿勢推定部29は、現場端末2の位置および姿勢の推定と同時に現場端末2の周辺環境の情報を含む環境地図の作成を行う。つまり、位置姿勢推定部29では、VSLAM技術を用いている。このようにすれば、画像の撮影時の位置および方向の取得精度を向上させることができる。 The position and orientation estimation unit 29 performs control to estimate the position and orientation of the on-site terminal 2 based on the captured image, acceleration information, and angular velocity information. That is, it estimates the position and orientation of the on-site terminal 2 based on information obtained by a device mounted on the on-site terminal 2. This position and orientation estimation unit 29 creates an environmental map including information on the surrounding environment of the on-site terminal 2 while estimating the position and orientation of the on-site terminal 2. That is, the position and orientation estimation unit 29 uses VSLAM technology. In this way, it is possible to improve the accuracy of acquiring the position and direction when an image is captured.

VSLAM技術では、現場端末2のカメラ8および3次元測定センサ24で取得した情報を用いて、現場端末2の周辺の物体の特徴点を抽出することができる。なお、現場端末2のカメラ8で取得した情報のみを用いて、現場端末2の周辺の物体の特徴点を抽出する場合もある。このような特徴点の集合させたものを3次元特徴点群データと称する。そして、カメラ8で撮影した撮影画像(動画像)を解析し、物体の特徴点(例えば、箱状の物体の辺または角の部分)をリアルタイムに追跡する。この3次元特徴点群データに基づいて、現場端末2の位置および姿勢の3次元情報を推定することができる。 With VSLAM technology, feature points of objects in the vicinity of the on-site terminal 2 can be extracted using information acquired by the camera 8 and three-dimensional measurement sensor 24 of the on-site terminal 2. Note that there are also cases where feature points of objects in the vicinity of the on-site terminal 2 are extracted using only information acquired by the camera 8 of the on-site terminal 2. A collection of such feature points is called three-dimensional feature point cloud data. Then, the captured images (moving images) taken by the camera 8 are analyzed, and the feature points of the objects (for example, the sides or corners of a box-shaped object) are tracked in real time. Based on this three-dimensional feature point cloud data, three-dimensional information on the position and attitude of the on-site terminal 2 can be estimated.

また、現場端末2の周辺の物体の3次元特徴点群データを所定の時間毎に検出し、時系列において前後する3次元特徴点群データ間の変位に基づいて、現場端末2の位置および姿勢の変位を算出することができる。また、時系列に得られる一連の自位置および自姿勢から、現在位置および現在姿勢に先立つ現場端末2の移動経路19が得られる。 In addition, it is possible to detect three-dimensional feature point group data of objects around the on-site terminal 2 at predetermined time intervals, and calculate the displacement of the position and attitude of the on-site terminal 2 based on the displacement between successive three-dimensional feature point group data in a time series. In addition, a movement path 19 of the on-site terminal 2 preceding the current position and current attitude can be obtained from a series of own positions and attitudes obtained in a time series.

つまり、位置姿勢推定部29は、基準点から現場端末2が移動するときに連続的に撮影された撮影画像に基づいて、現場端末2の位置および姿勢を推定する制御を行う。このようにすれば、基準点から現場端末2が移動した経路19(図3参照)を画像により推定できるので、現場端末2の位置および姿勢の推定精度を向上させることができる。 In other words, the position and attitude estimation unit 29 performs control to estimate the position and attitude of the on-site terminal 2 based on images captured continuously as the on-site terminal 2 moves from the reference point. In this way, the path 19 (see FIG. 3) that the on-site terminal 2 has taken from the reference point can be estimated from the images, thereby improving the estimation accuracy of the position and attitude of the on-site terminal 2.

なお、本実施形態では、カメラ8および3次元測定センサ24で取得した情報に基づいて、現場端末2の位置および姿勢を推定するVSLAM技術を例示しているが、その他の態様であっても良い。例えば、ステレオカメラ、魚眼カメラ、ジャイロセンサ、赤外線センサで取得した情報に基づいて、現場端末2の位置および姿勢を推定するVSLAM技術を用いても良い。このVSLAM技術は、屋内での位置計測が可能であり、ビーコンまたは歩行者自律航法(PDR:Pedestrian Dead Reckoning)などの屋内で使用可能な位置情報計測技術の中で、最も精度よく3次元座標を算出することができる。 In this embodiment, the VSLAM technique is exemplified, which estimates the position and attitude of the on-site terminal 2 based on information acquired by the camera 8 and the three-dimensional measurement sensor 24, but other aspects may be used. For example, the VSLAM technique may be used, which estimates the position and attitude of the on-site terminal 2 based on information acquired by a stereo camera, a fish-eye camera, a gyro sensor, and an infrared sensor. This VSLAM technique is capable of measuring position indoors, and can calculate three-dimensional coordinates with the highest accuracy among position information measurement techniques that can be used indoors, such as beacons or pedestrian dead reckoning (PDR).

なお、現場端末2の位置および姿勢は、それぞれ算出または更新された時点の時刻と対応付けて記録される。 The position and attitude of the on-site terminal 2 are recorded in association with the time when they were calculated or updated.

基準取得部30は、撮影場所(対象機器4)に対応して予め設けられたマーカ5をカメラ8で撮影したときに3次元空間の基準点を取得する。なお、マーカ5の位置を基準点としても良いし、マーカ5から離れた所定の位置を基準点としても良い。このようにすれば、作業現場にマーカ5を設ける簡便な作業、およびマーカ5を撮影する簡素な処理で取得精度を向上させることができる。 The reference acquisition unit 30 acquires a reference point in three-dimensional space when the camera 8 captures an image of a marker 5 that has been set up in advance to correspond to the shooting location (target device 4). The position of the marker 5 may be set as the reference point, or a predetermined position away from the marker 5 may be set as the reference point. In this way, the acquisition accuracy can be improved by the simple task of setting up the marker 5 at the work site and the simple process of photographing the marker 5.

エリア識別部31は、現場端末2の現在位置に基づいて、現場端末2が画像の取得が許可されている許可エリア16にあるか否かを識別する。なお、現場端末2に対応付けられた許可エリア16は、作業開始前に予め管理コンピュータ3にアクセスすることで設定される。 The area identification unit 31 identifies whether the on-site terminal 2 is in an allowed area 16 in which image acquisition is permitted, based on the current position of the on-site terminal 2. The allowed area 16 associated with the on-site terminal 2 is set in advance by accessing the management computer 3 before work begins.

画像取得制御部32は、現場端末2が撮影許可エリア16にある場合に画像の取得を許可し、現場端末2が撮影許可エリア16にない場合に画像の取得を許可しない制御を行う。つまり、作業現場において、撮影機能を限定する制御を行う。なお、撮影機能とは、現場端末2のカメラ8を用いて撮影した画像を画像記憶部27に記憶させる機能をいう。 The image acquisition control unit 32 controls to permit image acquisition when the on-site terminal 2 is in the image capture permitted area 16, and to not permit image acquisition when the on-site terminal 2 is not in the image capture permitted area 16. In other words, it controls to limit the image capture function at the work site. The image capture function refers to the function of storing images captured using the camera 8 of the on-site terminal 2 in the image storage unit 27.

例えば、現場端末2が撮影許可エリア16にあるときに、現場端末2のカメラ8で撮影をした場合には、その画像はディスプレイ6に表示され、画像記憶部27に記憶されることがない。なお、画像は、動画像を例示する。ここで、作業者Wがディスプレイ6に表示された撮影ボタン(録画ボタン)をタッチ操作すると、そのときにカメラ8で撮影されていた画像が画像記憶部27に記憶される。例えば、静止画像の撮影の場合には、撮影ボタンをタッチ操作した時点の画像が画像記憶部27に記憶される。また、動画像の撮影の場合には、撮影ボタン(録画ボタン)をタッチ操作した時点から録画が開始され、その動画像が画像記憶部27に記憶される。 For example, when the on-site terminal 2 is in the photography-permitted area 16 and an image is taken by the camera 8 of the on-site terminal 2, the image is displayed on the display 6 and is not stored in the image storage unit 27. Note that the image is an example of a moving image. Here, when the worker W touches the photography button (recording button) displayed on the display 6, the image taken by the camera 8 at that time is stored in the image storage unit 27. For example, when a still image is taken, the image at the time the photography button is touched is stored in the image storage unit 27. Also, when a moving image is taken, recording starts from the time the photography button (recording button) is touched, and the moving image is stored in the image storage unit 27.

一方、現場端末2が撮影許可エリア16にないときに、作業者Wが撮影操作を行った場合には、「このエリアで撮影は禁止されています。」などの撮影禁止メッセージがディスプレイ6に表示され、画像が画像記憶部27に記憶されることがない。 On the other hand, if the worker W performs a photographing operation when the on-site terminal 2 is not in the photographing-permitted area 16, a photographing-prohibited message such as "Photographing is prohibited in this area" is displayed on the display 6, and the image is not stored in the image storage unit 27.

このようにすれば、撮影制限の対象となっている対象機器4が写った画像の取得を制限することができる。そのため、不必要な画像の取得を防止し、管理コンピュータ3で判定しなければならない画像の枚数を低減させることができる。 In this way, it is possible to restrict the acquisition of images that include the target device 4 that is subject to the photography restriction. This makes it possible to prevent the acquisition of unnecessary images and reduce the number of images that must be evaluated by the management computer 3.

本実施形態において、「画像の取得」という用語には、「画像の保存」または「画像の転送」という意味とが含まれる。また、「画像の取得を許可しない」という用語には、「画像の保存(記憶)を禁止すること」または「画像の撮影を禁止すること」の意味が含まれる。さらに、画像の取得は、現場端末2が行うものでも良いし、管理コンピュータ3が行うものでも良い。 In this embodiment, the term "image acquisition" includes the meanings of "save image" and "transfer image." Furthermore, the term "not permit image acquisition" includes the meanings of "prohibit image saving (storage)" and "prohibit image capture." Furthermore, image acquisition may be performed by the on-site terminal 2 or the management computer 3.

なお、撮影ボタンの表示の有無により、撮影機能の可否の切り換えを行っても良い。例えば、現場端末2が撮影許可エリア16にあるときには、ディスプレイ6に撮影ボタンを表示し、現場端末2が撮影許可エリア16にないときには、ディスプレイ6に撮影ボタンを表示しないようにしても良い。 The availability of the photography function may be switched depending on whether or not the photography button is displayed. For example, when the on-site terminal 2 is in the photography-permitted area 16, the photography button may be displayed on the display 6, and when the on-site terminal 2 is not in the photography-permitted area 16, the photography button may not be displayed on the display 6.

位置情報取得部33は、カメラ8による画像の撮影時の位置を特定可能な位置情報を取得する。例えば、位置姿勢推定部29がVSLAM技術を用いて作成した環境地図に基づいて、位置情報取得部33が画像の撮影時の位置の取得を行うことができる。また、基準取得部30が取得した基準点に基づいて、位置情報取得部33が画像の撮影時の位置の取得を行うことができる。 The position information acquisition unit 33 acquires position information that can identify the position at the time the image was captured by the camera 8. For example, the position information acquisition unit 33 can acquire the position at the time the image was captured based on an environmental map created by the position and orientation estimation unit 29 using VSLAM technology. In addition, the position information acquisition unit 33 can acquire the position at the time the image was captured based on a reference point acquired by the reference acquisition unit 30.

方向情報取得部34は、カメラ8による画像の撮影時の方向を特定可能な方向情報を取得する。例えば、位置姿勢推定部29がVSLAM技術を用いて作成した環境地図に基づいて、方向情報取得部34が画像の撮影時の方向の取得を行うことができる。また、基準取得部30が取得した基準点に基づいて、方向情報取得部34が画像の撮影時の方向の取得を行うことができる。 The direction information acquisition unit 34 acquires direction information that can identify the direction when the image was captured by the camera 8. For example, the direction information acquisition unit 34 can acquire the direction when the image was captured based on an environmental map created by the position and orientation estimation unit 29 using VSLAM technology. In addition, the direction information acquisition unit 34 can acquire the direction when the image was captured based on a reference point acquired by the reference acquisition unit 30.

なお、環境地図に基づく位置情報または方向情報と、基準点に基づく位置情報または方向情報とに誤差がある場合には、基準点に基づく位置情報または方向情報を優先的に適用しても良い。このようにすれば、作業者Wが作業現場にてマーカ5を撮影することで、情報の補正を行うことができる。VSLAM技術は、相対的な移動量を算出する手法であるため、長時間の使用により誤差が蓄積されてしまう場合がある。そこで、基準点となるマーカ5を現場端末2で読み込むことで、エリア16における位置情報を正確に把握することができる。 If there is an error between the position information or direction information based on the environmental map and the position information or direction information based on the reference point, the position information or direction information based on the reference point may be applied preferentially. In this way, the worker W can correct the information by photographing the marker 5 at the work site. Because VSLAM technology is a method for calculating the relative amount of movement, errors may accumulate over long periods of use. Therefore, by reading the marker 5, which serves as the reference point, with the on-site terminal 2, the position information in the area 16 can be accurately grasped.

画角情報取得部35は、カメラ8による画像の撮影時の画角を特定可能な画角情報を取得する。画角情報は、カメラ8の設定に基づいて取得される。また、画角情報には、拡大率(スケール)などの情報も含まれる。 The angle of view information acquisition unit 35 acquires angle of view information that can identify the angle of view when an image is captured by the camera 8. The angle of view information is acquired based on the settings of the camera 8. The angle of view information also includes information such as the magnification ratio (scale).

撮影情報記録部36は、位置情報と方向情報と画角情報とを含む撮影情報を画像に対応付けて記録する。撮影情報は、画像ファイルの属性として記録しても良いし、画像ファイルとは異なる記録ファイルに記録しても良い。なお、作業者Wは、いずれの方式で記録するかを事前に設定することができる。 The shooting information recording unit 36 records shooting information including position information, direction information, and angle of view information in association with the image. The shooting information may be recorded as an attribute of the image file, or may be recorded in a recording file separate from the image file. The worker W can set in advance which method to use for recording.

管理コンピュータ3は、画像に対応付けて記録された撮影情報に基づいて、撮影制限の対象となっている対象機器4が写った画像を正確に選別することができる。そのため、その画像が外部に漏洩されてしまうことを抑制することができる。 The management computer 3 can accurately select images that show the target device 4 that is subject to the photography restriction, based on the photography information recorded in association with the image. This makes it possible to prevent the image from being leaked to the outside.

識別子生成部37は、撮影情報に基づいて、識別子を生成する。なお、作業者Wは、撮影情報を識別子として記録するか否かを事前に設定することができる。識別子が生成される設定の場合には、撮影情報記録部36が識別子を画像に対応付けて記録する。なお、撮影情報記録部36が識別子を画像に含ませる態様で記録しても良い。 The identifier generating unit 37 generates an identifier based on the photographing information. The worker W can set in advance whether or not to record the photographing information as an identifier. When the setting is set to generate an identifier, the photographing information recording unit 36 records the identifier in association with the image. The photographing information recording unit 36 may record the identifier in a manner that includes it in the image.

図2に示すように、管理コンピュータ3は、対象情報データベース38とディスプレイ12と操作入力部39と通信部40と画像記憶部41と管理制御部42とを備える。 As shown in FIG. 2, the management computer 3 includes a target information database 38, a display 12, an operation input unit 39, a communication unit 40, an image storage unit 41, and a management control unit 42.

本実施形態の管理コンピュータ3のシステム構成は、必ずしも1つのコンピュータに設ける必要はない。例えば、ネットワークで互いに接続された複数のコンピュータを用いて1つのシステムを実現しても良い。例えば、対象情報データベース38を管理コンピュータ3とは異なる他のコンピュータに設けても良い。 The system configuration of the management computer 3 in this embodiment does not necessarily have to be provided on a single computer. For example, a single system may be realized using multiple computers connected to each other via a network. For example, the target information database 38 may be provided on a computer other than the management computer 3.

対象情報データベース38は、メモリまたはHDDに記憶され、検索または蓄積ができるよう整理された情報の集まりである。対象情報データベース38には、撮影制限の対象となっている対象機器4の3次元位置を特定可能な対象情報が予め記憶されている。また、作業現場となるプラントの設計情報が記憶されている。例えば、設計情報に関する3D-CADデータが予め記憶されている。この3D-CADデータには、対象機器4が配置されている位置(座標)に関する情報が含まれている。さらに、対象機器4の形状または寸法に関する情報も含まれている。また、建物14の部屋15の配置に関する情報も含まれている。 The target information database 38 is a collection of information stored in memory or HDD and organized so that it can be searched or accumulated. The target information database 38 pre-stores target information that can identify the three-dimensional position of the target equipment 4 that is subject to shooting restrictions. It also stores design information for the plant that will be the work site. For example, 3D-CAD data related to the design information is pre-stored. This 3D-CAD data includes information regarding the position (coordinates) where the target equipment 4 is located. It also includes information regarding the shape or dimensions of the target equipment 4. It also includes information regarding the layout of the rooms 15 in the building 14.

なお、撮影制限の対象となる対象機器4は、3D-CADデータを用いて設定しても良いし、管理コンピュータ3のディスプレイ12にデータを表示して個々に選択または指定しても良い。さらに、3D-CADデータが有している対象機器4の名称または型式などの情報に基づいて、自動的に選択または指定しても良い。 The target devices 4 that are subject to the photography restriction may be set using 3D-CAD data, or may be individually selected or designated by displaying the data on the display 12 of the management computer 3. Furthermore, they may be automatically selected or designated based on information such as the name or model of the target devices 4 contained in the 3D-CAD data.

ディスプレイ12は、画像判定結果(図9参照)などの出力を行う装置である。つまり、管理コンピュータ3は、ディスプレイ12に表示される画像の制御を行う。なお、ネットワークを介して接続される他のコンピュータが備えるディスプレイに表示される画像の制御を管理コンピュータ3が行っても良い。 The display 12 is a device that outputs image judgment results (see FIG. 9) and the like. In other words, the management computer 3 controls the images displayed on the display 12. Note that the management computer 3 may also control the images displayed on a display of another computer connected via a network.

なお、本実施形態では、画像を表示する装置としてディスプレイ12を例示するが、その他の態様であっても良い。例えば、プロジェクタを用いて情報の表示を行っても良い。さらに、紙媒体に情報を印字するプリンタをディスプレイ12の替りとして用いても良い。つまり、管理コンピュータ3が制御する対象としてプロジェクタまたはプリンタが含まれても良い。 In this embodiment, the display 12 is exemplified as a device for displaying images, but other configurations are also possible. For example, a projector may be used to display information. Furthermore, a printer that prints information on paper media may be used instead of the display 12. In other words, a projector or a printer may be included as an object controlled by the management computer 3.

操作入力部39は、管理者Mの操作に応じて所定の情報を入力するために用いられるマウスまたはキーボードなどの入力装置などで構成される。本実施形態の入力操作には、マウスを用いたクリック操作、またはタッチパネルを用いたタッチ操作が含まれる。つまり、これら入力装置の操作に応じて所定の情報が管理コンピュータ3に入力される。 The operation input unit 39 is composed of input devices such as a mouse or a keyboard that are used to input predetermined information in response to operations by the administrator M. In this embodiment, the input operations include clicking operations using a mouse or touching operations using a touch panel. In other words, predetermined information is input to the management computer 3 in response to operations of these input devices.

通信部40は、通信回線を介して現場端末2と通信を行う。この通信部40は、無線通信装置13に搭載されている。また、通信部40は、所定のネットワーク機器、例えば、無線LANアクセスポイントまたはアンテナに搭載されても良い。なお、通信部40は、WAN(Wide Area Network)、インターネット回線、または携帯通信網を介して現場端末2と通信を行っても良い。その他にも、LANケーブルまたはUSBケーブルにより現場端末2と接続して通信を行っても良い。 The communication unit 40 communicates with the on-site terminal 2 via a communication line. This communication unit 40 is mounted on the wireless communication device 13. The communication unit 40 may also be mounted on a specific network device, for example, a wireless LAN access point or antenna. The communication unit 40 may also communicate with the on-site terminal 2 via a WAN (Wide Area Network), an Internet line, or a mobile communication network. Alternatively, the communication unit 40 may be connected to the on-site terminal 2 via a LAN cable or USB cable to communicate.

画像記憶部41は、現場端末2から受信した画像ファイルを記憶する。なお、画像記憶部41に記憶される画像は、動画像であっても良いし、静止画像であっても良い。また、画像ファイルとともに、画像ファイルに対応付けられた記録ファイルを記憶しても良い。さらに、画像ファイルに関連する所定のデータを記憶しても良い。 The image storage unit 41 stores image files received from the on-site terminal 2. The images stored in the image storage unit 41 may be moving images or still images. In addition to the image files, a recording file associated with the image files may also be stored. Furthermore, predetermined data related to the image files may also be stored.

管理制御部42は、管理コンピュータ3を統括的に制御する。この管理制御部42は、画像判定部43と判定情報記録部44と判定結果表示部45と対象情報設定部46とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。 The management control unit 42 controls the management computer 3. This management control unit 42 includes an image judgment unit 43, a judgment information recording unit 44, a judgment result display unit 45, and a target information setting unit 46. These are realized by the CPU executing a program stored in the memory or HDD.

画像判定部43は、画像ファイルに対応付けられた撮影情報と、対象情報データベース38に記憶された対象情報とに基づいて、画像に対象機器4(対象部分)が写っているか否かを判定する。このようにすれば、カメラ8による画像の撮影時の位置、方向、画角により撮影された範囲を特定し、対象機器4の3次元位置との関係により、画像に対象部分が写っているか否を判定することができる。また、カメラ8と対象部分との3次元的な位置関係により判定を行えるため、画像の選別を正確に行うことができる。画像に写っている対象機器を人手または人工知能などを用いて識別させる場合と比較して、より高い精度で判定を行うことができる。 The image determination unit 43 determines whether or not the target device 4 (target portion) is captured in the image based on the shooting information associated with the image file and the target information stored in the target information database 38. In this way, the captured range can be specified based on the position, direction, and angle of view when the image was captured by the camera 8, and whether or not the target portion is captured in the image can be determined based on the relationship with the three-dimensional position of the target device 4. Furthermore, since the determination can be made based on the three-dimensional positional relationship between the camera 8 and the target portion, the images can be accurately selected. A determination can be made with higher accuracy compared to when the target device captured in the image is identified manually or using artificial intelligence, etc.

現場端末2では、画像の撮影時に基準点の座標に基づいて位置情報と方向情報とを取得する。ここで、位置情報、方向情報、画角に基づいて撮影範囲を算出する。例えば、対象情報データベース38の3D-CADデータを参照し、部屋15の中における現場端末2の位置(座標)と対象機器4の位置(座標)を算出する。現場端末2の位置を算出したら、その地点で現場端末2の撮影方向を計算し、その方位におけるカメラ8の画角を考慮して撮影範囲を計算する。この撮影範囲内に対象機器4が含まれるか否かを判定する。なお、この判定結果に基づいて、画像ファイルごとに制限の可否を表示しても良いし、画像ファイルの保存場所を分けても良い。 When an image is captured, the on-site terminal 2 acquires position information and direction information based on the coordinates of the reference point. The capturing range is then calculated based on the position information, direction information, and angle of view. For example, the 3D-CAD data in the target information database 38 is referenced to calculate the position (coordinates) of the on-site terminal 2 and the position (coordinates) of the target device 4 in the room 15. Once the position of the on-site terminal 2 is calculated, the capturing direction of the on-site terminal 2 at that point is calculated, and the capturing range is calculated taking into account the angle of view of the camera 8 in that direction. It is determined whether the target device 4 is included within this capturing range. Based on the result of this determination, the possibility of restriction may be displayed for each image file, or the image files may be stored in different locations.

なお、カメラ8の撮影範囲に対象機器4が含まれているが、対象機器4の手前に所定の構造物(遮蔽物)がある場合は、対象機器4が構造物に隠れてしまって、カメラ8で撮影された画像に写り込まないことが想定される。このような撮影範囲と対象機器4と構造物の位置関係に対応するために、対象情報データベース38の3D-CADデータに構造物の設計情報(位置、形状および寸法を示す情報を含む)を登録しておいても良い。そして、この3D-CADデータを参照し、対象機器4の手前の構造物の位置関係に基づいて、画像に対象機器4が映り込んでいるか否かを判定するようにしても良い。 Note that if the target device 4 is included in the shooting range of the camera 8, but there is a specific structure (obstruction) in front of the target device 4, it is assumed that the target device 4 will be hidden by the structure and will not appear in the image captured by the camera 8. In order to accommodate such shooting ranges and the positional relationship between the target device 4 and the structure, design information of the structure (including information indicating the position, shape, and dimensions) may be registered in the 3D-CAD data of the target information database 38. Then, by referring to this 3D-CAD data, it may be determined whether or not the target device 4 is reflected in the image based on the positional relationship of the structure in front of the target device 4.

判定情報記録部44は、画像判定部43による判定結果を特定可能な判定情報を画像ファイルに対応付けて記録する。本実施形態では、判定情報として、外部への公開が制限される制限ファイルであるか、外部への公開が制限されない非制限ファイルであるかを示す情報が記録される(図8参照)。 The judgment information recording unit 44 records judgment information that can identify the judgment result by the image judgment unit 43 in association with the image file. In this embodiment, the judgment information recorded is information indicating whether the file is a restricted file whose disclosure to the outside is restricted, or an unrestricted file whose disclosure to the outside is not restricted (see FIG. 8).

このようにすれば、画像ファイルに撮影制限の対象となっている対象機器4(対象部分)が写っているか否かを判定情報により特定することができる。例えば、管理コンピュータ3以外のコンピュータで画像ファイルを参照する場合であっても、その画像ファイルに対象機器4(対象部分)が写っているか否かを、判定情報に基づいて把握することができる。 In this way, it is possible to determine whether or not the target device 4 (target portion) that is subject to the shooting restriction is included in the image file using the determination information. For example, even when the image file is referenced on a computer other than the management computer 3, it is possible to determine whether or not the target device 4 (target portion) is included in the image file based on the determination information.

判定結果表示部45は、画像判定部43による判定結果を識別可能にディスプレイ12に表示させる。例えば、図9に示すように、管理コンピュータ3のディスプレイ12には、画像判定結果画面47が表示される。この画像判定結果画面47には、制限ファイル表示領域48と非制限ファイル表示領域49とが並べて設けられている。 The judgment result display unit 45 displays the judgment result by the image judgment unit 43 on the display 12 in an identifiable manner. For example, as shown in FIG. 9, an image judgment result screen 47 is displayed on the display 12 of the management computer 3. On this image judgment result screen 47, a restricted file display area 48 and a non-restricted file display area 49 are provided side by side.

制限ファイル表示領域48には、対象機器4が写っている画像を含む画像ファイル20であって、外部への公開が制限される制限ファイルのファイル名が表示される。非制限ファイル表示領域49には、対象機器4が写っていない画像を含む画像ファイル20であって外部への公開が制限されない非制限ファイルのファイル名が表示される。 The restricted file display area 48 displays the file names of image files 20 that contain images of the target device 4 and are restricted from being made publicly available. The non-restricted file display area 49 displays the file names of non-restricted image files 20 that contain images that do not contain the target device 4 and are not restricted from being made publicly available.

このようにすれば、制限ファイル表示領域48と非制限ファイル表示領域49とが分けられ、かつ同時に並べて表示されることで、画像ファイル20の管理者Mが、対象機器4が写っている画像ファイル20と対象機器4が写っていない画像ファイル20とを容易に識別することができる。 In this way, the restricted file display area 48 and the non-restricted file display area 49 are separated and displayed side-by-side at the same time, so that the manager M of the image file 20 can easily distinguish between image files 20 that include the target device 4 and image files 20 that do not include the target device 4.

なお、画像ファイル20をアイコンで表示する場合に、画像ファイル20の表示色を制限ファイルと非制限ファイルとで異なるものとしても良い。また、画像ファイル20の拡張子を制限ファイルと非制限ファイルとで異なるものとしても良い。 When the image file 20 is displayed as an icon, the display color of the image file 20 may be different between restricted files and non-restricted files. Also, the extension of the image file 20 may be different between restricted files and non-restricted files.

なお、管理者Mがファイル名をマウスカーソル50によりクリックすることで、画像ファイルに含まれる画像を表示させることができる。そして、管理者Mが目視で対象機器4が写っているか否かを確認することができる。 The administrator M can display the image contained in the image file by clicking the file name with the mouse cursor 50. The administrator M can then visually check whether the target device 4 is included in the image.

管理者Mは、制限ファイルを制限ファイル表示領域48から非制限ファイル表示領域49にドラッグすることができる。非制限ファイル表示領域49にドラッグされた制限ファイルは、非制限ファイルとして判定情報が書き換えられる。また、管理者Mは、非制限ファイルを非制限ファイル表示領域49から制限ファイル表示領域48にドラッグすることができる。制限ファイル表示領域48にドラッグされた非制限ファイルは、制限ファイルとして判定情報が書き換えられる。なお、画像ファイル20に対応する記録ファイル21がある場合には、画像ファイル20の移動とともに記録ファイル21も移動される。 The administrator M can drag a restricted file from the restricted file display area 48 to the non-restricted file display area 49. The judgment information of a restricted file dragged to the non-restricted file display area 49 is rewritten as a non-restricted file. The administrator M can also drag a non-restricted file from the non-restricted file display area 49 to the restricted file display area 48. The judgment information of a non-restricted file dragged to the restricted file display area 48 is rewritten as a restricted file. Note that if there is a recording file 21 corresponding to the image file 20, the recording file 21 is also moved together with the movement of the image file 20.

図2に示すように、対象情報設定部46は、対象情報データベース38に対象情報を記憶させる設定を行う。例えば、基準点を管理する基準点管理テーブルと、対象機器4を管理する対象機器管理テーブルと、現場端末2を管理する端末管理テーブルとに、各種情報を記憶させる設定を行う。 As shown in FIG. 2, the target information setting unit 46 performs settings to store target information in the target information database 38. For example, settings are performed to store various information in a reference point management table that manages reference points, a target device management table that manages the target devices 4, and a terminal management table that manages the on-site terminals 2.

図5に示すように、基準点管理テーブルには、基準点IDに対応付けて、3D位置情報とマーカIDと対象機器IDとが登録されている。 As shown in FIG. 5, the reference point management table stores 3D position information, a marker ID, and a target device ID in association with a reference point ID.

基準点IDは、複数の基準点を個々に識別可能な識別情報である。なお、1つの基準点に対して1つの基準点IDが付与される。 The reference point ID is identification information that can individually identify multiple reference points. Each reference point is assigned a single reference point ID.

基準点管理テーブルに登録される3D位置情報は、基準点が設けられた位置を指定する3次元座標の情報である。なお、座標の情報には、水平方向(X軸,Y軸)と垂直方向(Z軸)の位置を指定する情報を含む。また、この3D位置情報には、基準点の姿勢または向きに関する情報が含まれる。 The 3D position information registered in the reference point management table is three-dimensional coordinate information specifying the position where the reference point is located. The coordinate information includes information specifying the position in the horizontal direction (X-axis, Y-axis) and the vertical direction (Z-axis). This 3D position information also includes information regarding the attitude or orientation of the reference point.

本実施形態では、例えば、建物14の出入口17に設けられた1つのマーカ5を基準点(原点、起点)として座標を設定する。また、部屋15の出入口18に設けられた1つのマーカ5を基準点として座標を設定しても良いし、出入口17の銘板、部屋15の銘板、対象機器4の銘板を基準点として座標を設定しても良い。なお、座標は、マーカ5または銘板を基準点としなくても良く、建物14の所定の位置を座標の基準点としても良い。また、3D位置情報は、建物14の設計段階で作成された3次元CADに基づいて構成されても良い。 In this embodiment, for example, coordinates are set with one marker 5 provided at the entrance 17 of the building 14 as the reference point (origin, starting point). Coordinates may also be set with one marker 5 provided at the entrance 18 of the room 15 as the reference point, or with the nameplate at the entrance 17, the nameplate of the room 15, and the nameplate of the target device 4 as the reference points. Note that the coordinates do not have to use the marker 5 or the nameplate as the reference point, and a specified position on the building 14 may be used as the reference point for the coordinates. Also, the 3D position information may be configured based on 3D CAD created at the design stage of the building 14.

基準点管理テーブルに登録されるマーカID(銘板ID)は、複数のマーカ5(銘板)を個々に識別可能な識別情報である。なお、1つのマーカ5に対して1つのマーカIDが付与される。さらに、基準点管理テーブルでは、1つの基準点に対して1つのマーカIDが付与される。 The marker IDs (nameplate IDs) registered in the reference point management table are identification information that can individually identify multiple markers 5 (nameplates). One marker ID is assigned to one marker 5. Furthermore, in the reference point management table, one marker ID is assigned to one reference point.

対象機器IDは、複数の対象機器4を個々に識別可能な識別情報である。なお、1つの対象機器4に対して1つの対象機器IDが付与される。 The target device ID is identification information that can individually identify multiple target devices 4. Note that one target device ID is assigned to one target device 4.

基準点管理テーブルでは、1つの基準点IDに対応して複数の対象機器IDが登録されても良い。例えば、建物14の出入口17のマーカ5のマーカIDに対応付けて、その建物14の内部に配置された全ての対象機器4の対象機器IDが登録されても良い。また、部屋15の出入口18のマーカ5のマーカIDに対応付けて、その部屋15の内部に配置された全ての対象機器4の対象機器IDが登録されても良い。 In the reference point management table, multiple target device IDs may be registered in correspondence with one reference point ID. For example, the target device IDs of all target devices 4 placed inside a building 14 may be registered in correspondence with the marker ID of the marker 5 at the entrance/exit 17 of the building 14. Also, the target device IDs of all target devices 4 placed inside a room 15 may be registered in correspondence with the marker ID of the marker 5 at the entrance/exit 18 of the room 15.

図6に示すように、対象機器管理テーブルには、対象機器IDに対応付けて、3D位置情報が登録されている。なお、対象機器管理テーブルには、対象機器4の形状または寸法に関する情報が登録されても良い。 As shown in FIG. 6, the target device management table stores 3D position information in association with the target device ID. Information regarding the shape or dimensions of the target device 4 may also be stored in the target device management table.

対象機器管理テーブルに登録される3D位置情報は、対象機器4の位置を指定する座標を示す位置情報である。なお、水平方向(X軸,Y軸)と垂直方向(Z軸)の位置を指定する情報を含む。また、この3D位置情報には、対象機器4の姿勢または向きに関する情報が含まれる。 The 3D position information registered in the target device management table is position information indicating the coordinates specifying the position of the target device 4. It includes information specifying the position in the horizontal direction (X axis, Y axis) and the vertical direction (Z axis). This 3D position information also includes information regarding the attitude or orientation of the target device 4.

このように、対象情報データベース38には、対象機器4に対応付けて作業現場(撮影場所)の建物14に予め設けられたマーカ5に関する位置情報が登録される。さらに、対象機器4の位置情報も登録される。このようにすれば、対象情報データベース38を用いて対象機器4に関する対象情報を一元的に管理できる。 In this way, the target information database 38 registers location information for the markers 5 that are pre-installed on the building 14 at the work site (photography location) in association with the target devices 4. In addition, the location information for the target devices 4 is also registered. In this way, the target information for the target devices 4 can be managed in a unified manner using the target information database 38.

図7に示すように、端末管理テーブルには、端末IDに対応付けて、ユーザIDと許可エリアとが登録されている。 As shown in FIG. 7, the terminal management table stores user IDs and permitted areas in association with terminal IDs.

端末IDは、複数の現場端末2を個々に識別可能な識別情報である。対象機器管理テーブルには、対象機器IDに対応付けて、対応する対象機器4のサポート情報の提供が許可されている現場端末2の端末IDが登録される。 The terminal ID is identification information that can individually identify multiple on-site terminals 2. In the target device management table, the terminal ID of the on-site terminal 2 that is permitted to provide support information for the corresponding target device 4 is registered in association with the target device ID.

ユーザIDは、複数の作業者Wを個々に識別可能な識別情報である。対象機器管理テーブルには、端末IDに対応付けて、対応する現場端末2の使用が許可されている作業者WのユーザIDが登録される。なお、ユーザIDは、現場端末2にログインするときに使用するものであっても良いし、それぞれの作業者Wが所持するIDカードに登録されるものであっても良い。 The user ID is identification information that can individually identify multiple workers W. In the target device management table, the user IDs of the workers W who are permitted to use the corresponding on-site terminal 2 are registered in association with the terminal ID. The user ID may be the one used when logging in to the on-site terminal 2, or may be registered on the ID card held by each worker W.

許可エリアの項目には、端末IDに対応する現場端末2により画像の取得が許可されているエリア名が登録される。管理者Mは、作業計画などの情報に基づいて、許可エリアの項目を設定することで、それぞれの現場端末2を一元的に管理できる。現場端末2は、作業開始前に予め管理コンピュータ3にアクセスすることで許可エリアが設定される。なお、許可エリアに対応する作業時刻を設定しても良い。このようにすれば、作業者Wが作業とは関係のない不必要な場所で画像を取得することを抑制できる。そのため、画像の持ち出し管理を効率的に行うことができる。 The permitted area field contains the name of the area where image acquisition is permitted by the on-site terminal 2 corresponding to the terminal ID. The manager M can centrally manage each on-site terminal 2 by setting the permitted area field based on information such as a work plan. The permitted area is set for the on-site terminal 2 by accessing the management computer 3 in advance before work begins. Work times corresponding to the permitted areas may also be set. In this way, it is possible to prevent the worker W from acquiring images in unnecessary locations unrelated to the work. This allows for efficient management of image take-out.

管理コンピュータ3では、基準点ID、対象機器ID、端末ID、マーカIDに基づいて、対象情報データベース38に登録された各種データを検索することができる。 The management computer 3 can search for various data registered in the target information database 38 based on the reference point ID, target device ID, terminal ID, and marker ID.

図2に示すように、画像判定部43は、機械学習部51を備える。機械学習部51は、対象機器4が写った画像と対象機器4が写っていない画像とを機械学習により識別することができる。つまり、本実施形態では、撮影情報に基づく画像の判定のみならず、この判定に重畳して、機械学習部51を用いて画像を解析することができる。このようにすれば、カメラ8による画像の撮影時の撮影情報のみならず、画像に対象機器4が写っているか否かを機械学習により補助的に識別するため、より高い精度で判定を行うことができる。なお、作業者Wは、機械学習部51で画像を解析するか否かを事前に設定することができる。 As shown in FIG. 2, the image determination unit 43 includes a machine learning unit 51. The machine learning unit 51 can distinguish between images that include the target device 4 and images that do not include the target device 4 through machine learning. In other words, in this embodiment, not only is an image determined based on the shooting information, but the image can also be analyzed using the machine learning unit 51 in addition to the determination. In this way, not only is the shooting information at the time the image is captured by the camera 8 used, but machine learning can also be used to auxiliarily identify whether or not the target device 4 is included in the image, allowing for a more accurate determination. The worker W can set in advance whether or not the image is to be analyzed by the machine learning unit 51.

機械学習部51は、人工知能(AI:Artificial Intelligence)を備えている。本実施形態のコンピュータを用いた解析には、人工知能の学習に基づく解析技術を用いることができる。例えば、ニューラルネットワークによる機械学習により生成された学習モデル、その他の機械学習により生成された学習モデル、深層学習アルゴリズム、回帰分析などの数学的アルゴリズムを用いることができる。また、機械学習の形態には、クラスタリング、深層学習などの形態が含まれる。 The machine learning unit 51 includes artificial intelligence (AI). For the analysis using the computer of this embodiment, an analysis technique based on learning of artificial intelligence can be used. For example, a learning model generated by machine learning using a neural network, a learning model generated by other machine learning, a deep learning algorithm, a mathematical algorithm such as regression analysis, etc. Forms of machine learning include clustering, deep learning, etc.

本実施形態の画像特定システム1は、機械学習を行う人工知能を備えるコンピュータを含む。例えば、ニューラルネットワークを備える1台のコンピュータで画像特定システム1を構成しても良いし、ニューラルネットワークを備える複数台のコンピュータで画像特定システム1を構成しても良い。 The image identification system 1 of this embodiment includes a computer equipped with artificial intelligence that performs machine learning. For example, the image identification system 1 may be configured with one computer equipped with a neural network, or the image identification system 1 may be configured with multiple computers equipped with neural networks.

ここで、ニューラルネットワークとは、脳機能の特性をコンピュータによるシミュレーションによって表現した数学モデルである。例えば、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようになるモデルを示す。さらに、ニューラルネットワークは、深層学習(Deep Learning)により問題解決能力を取得する。 Here, a neural network is a mathematical model that represents the characteristics of brain functions through computer simulation. For example, this model shows that artificial neurons (nodes) that form a network through synaptic connections change the strength of synaptic connections through learning, and acquire problem-solving abilities. Furthermore, neural networks acquire problem-solving abilities through deep learning.

例えば、ニューラルネットワークには、6層のレイヤーを有する中間層が設けられる。この中間層の各レイヤーは、300個のユニットで構成されている。また、多層のニューラルネットワークに学習用データを用いて予め学ばせておくことで、回路またはシステムの状態の変化のパターンの中にある特徴量を自動で抽出することができる。なお、多層のニューラルネットワークは、ユーザインターフェース上で、任意の中間層数、任意のユニット数、任意の学習率、任意の学習回数、任意の活性化関数を設定することができる。 For example, a neural network is provided with an intermediate layer having six layers. Each intermediate layer is made up of 300 units. Furthermore, by having the multi-layered neural network learn in advance using training data, it is possible to automatically extract features from patterns of changes in the state of a circuit or system. Note that for the multi-layered neural network, the number of intermediate layers, number of units, learning rate, number of times of training, and activation function can be set on the user interface.

なお、学習対象となる各種情報項目に報酬関数が設定されるとともに、報酬関数に基づいて価値が最も高い情報項目が抽出される深層強化学習をニューラルネットワークに用いても良い。 In addition, deep reinforcement learning may be used in the neural network, in which a reward function is set for each information item to be learned, and the information item with the highest value is extracted based on the reward function.

例えば、画像認識で実績のあるCNN(Convolution Neural Network)を用いる。このCNNでは、中間層が畳み込み層とプーリング層で構成される。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施すことで特徴マップを取得する。プーリング層は、畳込み層から出力された特徴マップを、さらに縮小して新たな特徴マップとする。この際に特徴マップにおいて着目する領域に含まれる画素の最大値を得ることで、特徴量の位置の多少のずれも吸収することができる。 For example, we use a CNN (Convolution Neural Network), which has a proven track record in image recognition. In this CNN, the intermediate layer is composed of a convolution layer and a pooling layer. The convolution layer obtains a feature map by applying filtering to nearby nodes in the previous layer. The pooling layer further reduces the feature map output from the convolution layer to create a new feature map. At this time, by obtaining the maximum value of the pixels contained in the area of interest in the feature map, it is possible to absorb slight deviations in the position of the feature amount.

畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴をまとめる処理を行う。これらの処理では、入力画像の特徴を維持しながら画像を縮小処理する。つまり、CNNでは、画像の持つ情報量を大幅に圧縮(抽象化)することができる。そして、ニューラルネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識し、画像の分類を行うことができる。 The convolutional layer extracts local features from an image, and the pooling layer consolidates local features. These processes reduce the size of the input image while maintaining its features. In other words, CNN can significantly compress (abstract) the amount of information contained in an image. Then, the input image can be recognized and classified using the abstracted image image stored in the neural network.

なお、深層学習には、オートエンコーダ、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GAN(Generative Adversarial Network)などの各種手法がある。これらの手法を本実施形態の深層学習に適用しても良い。 Note that there are various methods for deep learning, such as autoencoder, recurrent neural network (RNN), long short-term memory (LSTM), and generative adversarial network (GAN). These methods may be applied to the deep learning of this embodiment.

本実施形態では、予め機械学習部51に様々なパターンの対象機器4が写った画像と対象機器4が写っていない画像とを大量に学習させる。これらの学習用の画像は、実際にカメラ8で撮影した画像でも良いし、コンピュータグラフィックス(CG)で合成した画像でも良い。このように対象機器4の形状などを識別可能な状態になるまで、大量の画像を機械学習部51に予め学習させておく。 In this embodiment, the machine learning unit 51 is trained in advance on a large number of images that include various patterns of the target device 4 and images that do not include the target device 4. These learning images may be images that have actually been captured by the camera 8, or may be images that have been synthesized using computer graphics (CG). In this way, the machine learning unit 51 is trained in advance on a large number of images until it becomes possible to identify the shape, etc., of the target device 4.

本実施形態の機械学習の方法は、大きく2つの処理に分けられる。まず、学習用画像を生成する第1処理を行う。この第1処理では、学習用画像を取得し、その学習用画像に含まれる対象機器4の像を特徴ごとに分類する。そして、1つの学習用画像を、種類の異なる像が1つ以上含まれるように調整する。次に、学習モデルを作成する第2処理を行う。この第2処理では、学習用画像をニューラルネットワークに学習させて、画像学習モデルを作成する。この学習用モデルを画像の判定用にセットする。 The machine learning method of this embodiment is roughly divided into two processes. First, a first process is performed to generate learning images. In this first process, learning images are acquired, and the images of the target device 4 contained in the learning images are classified by feature. Then, one learning image is adjusted so that it contains one or more different types of images. Next, a second process is performed to create a learning model. In this second process, the learning images are trained in a neural network to create an image learning model. This learning model is set for image judgment.

次に、画像特定システム1が実行する処理について図10から図15のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。 Next, the processing executed by the image identification system 1 will be described with reference to the flowcharts in Figs. 10 to 15. Note that the block diagram in Fig. 2 will also be referred to as appropriate.

管理コンピュータ3は、図10に示す管理制御処理を実行する。現場端末2は、図12に示す端末制御処理を実行する。これら処理は、一定時間毎に繰り返される処理である。これらの処理が繰り返されることで、画像特定システム1で画像特定方法が実行される。 The management computer 3 executes the management control process shown in FIG. 10. The on-site terminal 2 executes the terminal control process shown in FIG. 12. These processes are repeated at regular intervals. By repeating these processes, the image identification method is executed in the image identification system 1.

管理コンピュータ3が実行する管理制御処理について図10のフローチャートを用いて説明する。 The management control process executed by the management computer 3 is explained using the flowchart in FIG. 10.

まず、ステップS11において、管理制御部42は、メイン制御処理を実行する。このメイン制御処理では、管理コンピュータ3のディスプレイ12などの各種デバイスを制御する処理が行われる。また、現場端末2からアクセスがあった場合に所定の情報の送受信を行う。例えば、現場端末2から画像ファイルの送信があった場合には、その画像ファイルを画像記憶部41に記憶する処理を行う。 First, in step S11, the management control unit 42 executes a main control process. In this main control process, a process is performed to control various devices such as the display 12 of the management computer 3. In addition, when there is access from the on-site terminal 2, the management control unit 42 transmits and receives predetermined information. For example, when an image file is transmitted from the on-site terminal 2, the management control unit 42 performs a process to store the image file in the image storage unit 41.

次のステップS12において、管理制御部42は、操作受付処理を実行する。この操作受付処理では、操作入力部39により所定の入力操作を受け付ける処理が行われる。 In the next step S12, the management control unit 42 executes an operation reception process. In this operation reception process, a process of receiving a predetermined input operation is performed by the operation input unit 39.

次のステップS13において、対象情報設定部46は、事前登録処理を実行する。この事前登録処理では、対象情報データベース38に対象情報を記憶させる処理が行われる。例えば、基準点管理テーブル(図5参照)に基準点に関する情報の登録が行われる。また、対象機器管理テーブル(図6参照)に対象機器4に関する情報の登録が行われる。さらに、端末管理テーブル(図7参照)に現場端末2に関する情報の登録が行われる。 In the next step S13, the target information setting unit 46 executes a pre-registration process. In this pre-registration process, a process is performed to store the target information in the target information database 38. For example, information about the reference point is registered in the reference point management table (see FIG. 5). Information about the target device 4 is registered in the target device management table (see FIG. 6). Information about the on-site terminal 2 is registered in the terminal management table (see FIG. 7).

次のステップS14において、画像判定部43は、後述する画像判定処理(図11参照)を実行する。この画像判定処理では、現場端末2から受信した画像に対象機器4(対象部分)が写っているか否かを判定する。 In the next step S14, the image determination unit 43 executes the image determination process (see FIG. 11) described below. In this image determination process, it is determined whether or not the target device 4 (target portion) is shown in the image received from the on-site terminal 2.

次のステップS15において、判定結果表示部45は、画像判定結果表示処理を実行する。この画像判定結果表示処理では、画像判定部43による判定結果を識別可能にディスプレイ12に表示させる処理(図9参照)が行われる。そして、管理制御処理を終了する。 In the next step S15, the judgment result display unit 45 executes an image judgment result display process. In this image judgment result display process, a process (see FIG. 9) is performed in which the judgment result by the image judgment unit 43 is displayed on the display 12 in an identifiable manner. Then, the management control process is terminated.

次に、現場端末2が実行する端末制御処理について図12のフローチャートを用いて説明する。 Next, the terminal control process executed by the on-site terminal 2 will be explained using the flowchart in FIG. 12.

まず、ステップS31において、端末制御部28は、メイン制御処理を実行する。このメイン制御処理では、現場端末2に搭載されるディスプレイ6などの各種デバイスを制御する処理が行われる。 First, in step S31, the terminal control unit 28 executes a main control process. In this main control process, processing is performed to control various devices such as the display 6 mounted on the on-site terminal 2.

次のステップS32において、端末制御部28は、操作受付処理を実行する。この操作受付処理では、操作入力部25により所定の入力操作を受け付ける処理が行われる。 In the next step S32, the terminal control unit 28 executes an operation reception process. In this operation reception process, a process of receiving a predetermined input operation is performed by the operation input unit 25.

次のステップS33において、端末制御部28は、データベースアクセス処理を実行する。このデータベースアクセス処理では、管理コンピュータ3の対象情報データベース38にアクセスし、各種データのダウンロード処理が行われる。例えば、基準点管理テーブルのデータがダウンロードされる。 In the next step S33, the terminal control unit 28 executes a database access process. In this database access process, the target information database 38 of the management computer 3 is accessed, and various data is downloaded. For example, data of the reference point management table is downloaded.

次のステップS34において、端末制御部28は、後述するマーカ認識処理(図13参照)を実行する。このマーカ認識処理では、カメラ8で撮影された撮影画像に基づいて、マーカ5を認識する処理が行われる。 In the next step S34, the terminal control unit 28 executes a marker recognition process (see FIG. 13) described below. In this marker recognition process, a process of recognizing the marker 5 is performed based on the image captured by the camera 8.

次のステップS35において、端末制御部28は、後述する自己位置推定処理(図14参照)を実行する。この自己位置推定処理では、撮影画像と加速度情報と角速度情報とに基づいて現場端末2の位置および姿勢を推定する処理が行われる。この自己位置推定処理が実行されるときには、カメラ8が起動して撮影が開始される。 In the next step S35, the terminal control unit 28 executes a self-position estimation process (see FIG. 14) described below. In this self-position estimation process, a process is performed to estimate the position and attitude of the on-site terminal 2 based on the captured image, acceleration information, and angular velocity information. When this self-position estimation process is executed, the camera 8 is activated and capture is started.

次のステップS36において、端末制御部28は、後述する撮影制御処理(図15参照)を実行する。この撮影制御処理では、カメラ8による撮影の制御を行う。 In the next step S36, the terminal control unit 28 executes the image capture control process (see FIG. 15) described below. In this image capture control process, image capture by the camera 8 is controlled.

次のステップS37において、端末制御部28は、画像送信処理を実行する。この画像送信処理では、画像記憶部27に記憶されている画像ファイルを管理コンピュータ3に送信する処理が行われる。なお、画像ファイルを送信する処理は、作業者Wの操作に基づいて行っても良いし、一定時間ごとに自動的に行っても良い。そして、端末制御処理を終了する。 In the next step S37, the terminal control unit 28 executes an image transmission process. In this image transmission process, the image file stored in the image storage unit 27 is transmitted to the management computer 3. The image file transmission process may be performed based on the operation of the worker W, or may be performed automatically at regular intervals. Then, the terminal control process is terminated.

次に、現場端末2が実行するマーカ認識処理について図13のフローチャートを用いて説明する。 Next, the marker recognition process executed by the on-site terminal 2 will be explained using the flowchart in FIG. 13.

まず、ステップS41において、端末制御部28は、カメラ8により撮影された撮影画像を取得する。 First, in step S41, the terminal control unit 28 acquires an image captured by the camera 8.

次のステップS42において、端末制御部28は、取得した撮影画像にマーカ5が写っているか否かを判定する。ここで、撮影画像にマーカ5が写っていない場合(ステップS42にてNOの場合)は、マーカ認識処理を終了する。一方、撮影画像にマーカ5が写っている場合(ステップS42にてYESの場合)は、ステップS43に進む。 In the next step S42, the terminal control unit 28 determines whether or not the marker 5 is present in the acquired captured image. If the marker 5 is not present in the captured image (NO in step S42), the marker recognition process ends. On the other hand, if the marker 5 is present in the captured image (YES in step S42), the process proceeds to step S43.

次のステップS43において、端末制御部28は、マーカ5の図形に含まれるマーカIDを読み取る。 In the next step S43, the terminal control unit 28 reads the marker ID contained in the figure of the marker 5.

次のステップS44において、基準取得部30は、予め管理コンピュータ3の対象情報データベース38からダウンロードされた基準点管理テーブルのデータに基づいて、読み取ったマーカIDに対応する基準点IDの3D位置情報を特定する。この基準点の3D位置情報に基づいて、現場端末2の位置情報の取得または補正を行う。そして、マーカ認識処理を終了する。 In the next step S44, the reference acquisition unit 30 identifies the 3D position information of the reference point ID corresponding to the read marker ID based on the data of the reference point management table previously downloaded from the target information database 38 of the management computer 3. Based on this 3D position information of the reference point, it acquires or corrects the position information of the on-site terminal 2. Then, the marker recognition process ends.

次に、現場端末2が実行する自己位置推定処理について図14のフローチャートを用いて説明する。 Next, the self-location estimation process executed by the on-site terminal 2 will be explained using the flowchart in FIG. 14.

まず、ステップS51において、位置姿勢推定部29は、座標の原点となる基準点の設定に基づく座標の確認処理を行う。例えば、建物14の出入口17に設けられた1つのマーカ5を原点として基準点を設定する。また、部屋15の出入口18に設けられた1つのマーカ5を原点として基準点を設定しても良い。なお、マーカ5の撮影画像が取得されるまでの間、ディスプレイ6にマーカ5の撮影を促す旨の表示を行っても良い。 First, in step S51, the position and orientation estimation unit 29 performs a coordinate confirmation process based on the setting of a reference point that serves as the origin of the coordinates. For example, the reference point is set with one marker 5 provided at the entrance/exit 17 of the building 14 as the origin. Alternatively, the reference point may be set with one marker 5 provided at the entrance/exit 18 of the room 15 as the origin. Note that until a captured image of the marker 5 is acquired, a message may be displayed on the display 6 encouraging the user to capture the image of the marker 5.

次のステップS52において、端末制御部28は、カメラ8により撮影された撮影画像を取得する。 In the next step S52, the terminal control unit 28 acquires the image captured by the camera 8.

次のステップS53において、位置姿勢推定部29は、加速度センサ22で検出された加速度の値を示す加速度情報を取得する。 In the next step S53, the position and orientation estimation unit 29 acquires acceleration information indicating the acceleration value detected by the acceleration sensor 22.

次のステップS54において、位置姿勢推定部29は、角速度センサ23で検出された角速度の値を示す角速度情報を取得する。 In the next step S54, the position and orientation estimation unit 29 acquires angular velocity information indicating the value of the angular velocity detected by the angular velocity sensor 23.

次のステップS55において、位置姿勢推定部29は、カメラ8の撮影画像に基づいて現場端末2の周辺の物体の3次元形状を測定する。また、3次元測定センサ24の測定に基づいて現場端末2の周辺の物体の3次元形状を取得しても良い。 In the next step S55, the position and orientation estimation unit 29 measures the three-dimensional shapes of objects around the on-site terminal 2 based on the images captured by the camera 8. The three-dimensional shapes of objects around the on-site terminal 2 may also be obtained based on measurements by the three-dimensional measurement sensor 24.

次のステップS56において、位置姿勢推定部29は、現場端末2の周辺環境の情報を含む環境地図を作成する。 In the next step S56, the position and orientation estimation unit 29 creates an environmental map including information about the surrounding environment of the on-site terminal 2.

次のステップS57において、位置姿勢推定部29は、基準点から現場端末2が移動するときに連続的に撮影された撮影画像に基づいて、現場端末2の位置および姿勢を推定する。この移動中の現場端末2の位置および姿勢を時刻情報とともに記録することで、現場端末2の移動経路19(図3参照)が記録される。また、部屋15の内部における移動経路が記録されても良い。 In the next step S57, the position and orientation estimation unit 29 estimates the position and orientation of the on-site terminal 2 based on images captured continuously as the on-site terminal 2 moves from the reference point. The position and orientation of the on-site terminal 2 during this movement are recorded together with time information, thereby recording the movement path 19 (see FIG. 3) of the on-site terminal 2. The movement path within the room 15 may also be recorded.

次のステップS58において、位置姿勢推定部29は、現場端末2の現在の位置および姿勢を推定する。そして、自己位置推定処理を終了する。 In the next step S58, the position and orientation estimation unit 29 estimates the current position and orientation of the on-site terminal 2. Then, the self-position estimation process ends.

次に、現場端末2が実行する撮影制御処理について図15のフローチャートを用いて説明する。 Next, the shooting control process executed by the on-site terminal 2 will be explained using the flowchart in FIG. 15.

まず、ステップS61において、端末制御部28は、カメラ8が既に起動しているか否かを判定する。ここで、カメラ8が起動中でない場合(ステップS61にてNOの場合)は、撮影制御処理を終了する。一方、カメラ8が起動中である場合(ステップS61にてYESの場合)は、ステップS62に進む。 First, in step S61, the terminal control unit 28 determines whether the camera 8 is already activated. If the camera 8 is not activated (NO in step S61), the shooting control process ends. On the other hand, if the camera 8 is activated (YES in step S61), the process proceeds to step S62.

次のステップS62において、端末制御部28は、カメラ8により撮影された画像をディスプレイ6に表示する。 In the next step S62, the terminal control unit 28 displays the image captured by the camera 8 on the display 6.

次のステップS63において、画像取得制御部32は、カメラ8により撮影された画像を画像記憶部27に保存する操作である、撮影操作を受け付けたか否かを判定する。なお、撮影操作とは、例えば、撮影ボタンをタッチ操作することである。ここで、撮影操作を受け付けていない場合(ステップS63にてNOの場合)は、撮影制御処理を終了する。一方、撮影操作を受け付けた場合(ステップS63にてYESの場合)は、ステップS64に進む。 In the next step S63, the image acquisition control unit 32 determines whether or not a shooting operation, which is an operation for saving an image captured by the camera 8 in the image storage unit 27, has been accepted. Note that a shooting operation is, for example, a touch operation of the shooting button. Here, if a shooting operation has not been accepted (NO in step S63), the shooting control process ends. On the other hand, if a shooting operation has been accepted (YES in step S63), the process proceeds to step S64.

次のステップS64において、エリア識別部31は、位置姿勢推定部29が推定した現場端末2の現在位置に基づいて、現場端末2が画像の取得が許可されている許可エリア内にあるか否かを判定する。ここで、許可エリア内にない場合(ステップS64にてNOの場合)は、ステップS65に進む。一方、許可エリア内である場合(ステップS64にてYESの場合)は、ステップS66に進む。 In the next step S64, the area identification unit 31 determines whether or not the on-site terminal 2 is within an allowed area in which image acquisition is permitted, based on the current position of the on-site terminal 2 estimated by the position and orientation estimation unit 29. If the on-site terminal 2 is not within the allowed area (NO in step S64), the process proceeds to step S65. On the other hand, if the on-site terminal 2 is within the allowed area (YES in step S64), the process proceeds to step S66.

ステップS65において、画像取得制御部32は、ディスプレイ6に撮影禁止メッセージを表示する。そして、撮影制御処理を終了する。 In step S65, the image acquisition control unit 32 displays a message prohibiting photography on the display 6. Then, the photography control process ends.

ステップS66において、位置情報取得部33は、カメラ8による画像の撮影時の位置を特定可能な位置情報を取得する。 In step S66, the location information acquisition unit 33 acquires location information that can identify the location at the time the image was captured by the camera 8.

次のステップS67において、方向情報取得部34は、カメラ8による画像の撮影時の方向を特定可能な方向情報を取得する。 In the next step S67, the direction information acquisition unit 34 acquires direction information that can identify the direction when the image was captured by the camera 8.

次のステップS68において、画角情報取得部35は、カメラ8による画像の撮影時の画角を特定可能な画角情報を取得する。 In the next step S68, the field of view information acquisition unit 35 acquires field of view information that can identify the field of view when the image was captured by the camera 8.

次のステップS69において、撮影情報記録部36は、位置情報と方向情報と画角情報とを含む撮影情報を画像に対応付けて記録する。なお、識別子生成部37が撮影情報に基づいて識別子を生成し、この識別子を画像に対応付けて記録しても良い。ここで、画像ファイルは、画像記憶部27に記憶される。そして、撮影制御処理を終了する。 In the next step S69, the shooting information recording unit 36 records the shooting information including the position information, direction information, and angle of view information in association with the image. Note that the identifier generating unit 37 may generate an identifier based on the shooting information and record this identifier in association with the image. Here, the image file is stored in the image storage unit 27. Then, the shooting control process ends.

次に、管理コンピュータ3が実行する画像判定処理について図11のフローチャートを用いて説明する。 Next, the image determination process executed by the management computer 3 will be explained using the flowchart in FIG. 11.

まず、ステップS21において、管理制御部42は、画像記憶部41に未判定の画像ファイルがあるか否かを判定する。ここで、未判定の画像ファイルがない場合(ステップS21にてNOの場合)は、画像判定処理を終了する。一方、未判定の画像ファイルがある場合(ステップS21にてYESの場合)は、ステップS22に進む。 First, in step S21, the management control unit 42 determines whether or not there is an undetermined image file in the image storage unit 41. If there is no undetermined image file (NO in step S21), the image determination process ends. On the other hand, if there is an undetermined image file (YES in step S21), the process proceeds to step S22.

次のステップS22において、画像判定部43は、未判定の画像ファイルに対応付けられた撮影情報に含まれる位置情報に基づいて、カメラ8による画像の撮影位置を特定する。 In the next step S22, the image determination unit 43 identifies the position at which the image was captured by the camera 8 based on the position information included in the shooting information associated with the undetermined image file.

次のステップS23において、画像判定部43は、未判定の画像ファイルに対応付けられた撮影情報に含まれる方向情報に基づいて、カメラ8による画像の撮影方向を特定する。 In the next step S23, the image determination unit 43 identifies the direction in which the image was captured by the camera 8 based on the direction information included in the shooting information associated with the undetermined image file.

次のステップS24において、画像判定部43は、未判定の画像ファイルに対応付けられた撮影情報に含まれる画角情報に基づいて、カメラ8による画像の撮影時の画角を特定する。 In the next step S24, the image determination unit 43 determines the angle of view when the image was captured by the camera 8 based on the angle of view information included in the shooting information associated with the undetermined image file.

次のステップS25において、画像判定部43は、画像ファイルに対応付けられた撮影情報と、対象情報データベース38に記憶された対象情報とに基づいて、画像に対象機器4(対象部分)が写っているか否かを判定する。ここで、画像に対象機器4が写っている場合(ステップS25にてYESの場合)は、ステップS26に進む。一方、画像に対象機器4が写っていない場合(ステップS25にてNOの場合)は、ステップS27に進む。 In the next step S25, the image determination unit 43 determines whether or not the target device 4 (target portion) is shown in the image based on the shooting information associated with the image file and the target information stored in the target information database 38. Here, if the target device 4 is shown in the image (YES in step S25), the process proceeds to step S26. On the other hand, if the target device 4 is not shown in the image (NO in step S25), the process proceeds to step S27.

ステップS26において、画像判定部43は、画像ファイルを制限ファイルに設定する。そして、ステップS28に進む。 In step S26, the image determination unit 43 sets the image file as a restricted file. Then, the process proceeds to step S28.

ステップS27において、画像判定部43は、画像ファイルを非制限ファイルに設定する。 In step S27, the image determination unit 43 sets the image file as a non-restricted file.

次のステップS28において、判定情報記録部44は、判定結果を示す判定情報を画像ファイルに対応付けて記録する。 In the next step S28, the judgment information recording unit 44 records judgment information indicating the judgment result in association with the image file.

次のステップS29において、画像判定部43は、機械学習部51により画像の判定を行う設定がなされているか否かを判定する。ここで、機械学習部51による判定の設定中でない場合(ステップS29にてNOの場合)は、画像判定処理を終了する。一方、機械学習部51による判定の設定中である場合(ステップS29にてYESの場合)は、ステップS30に進む。 In the next step S29, the image judgment unit 43 judges whether or not the machine learning unit 51 is set to judge the image. If the machine learning unit 51 is not set to judge the image (NO in step S29), the image judgment process ends. On the other hand, if the machine learning unit 51 is set to judge the image (YES in step S29), the process proceeds to step S30.

次のステップS30において、画像判定部43は、機械学習部51により画像の判定を行う機械学習判定処理を行う。この機械学習判定処理では、画像に対象機器4が写っているか否かを機械学習部51により解析する。なお、機械学習部51による判定結果と前述のステップS25における判定結果とが一致する場合には、画像判定処理を終了する。一方、一致しない場合には、機械学習部51による判定結果を優先して、判定情報を更新しても良いし、管理者Mに目視で確認するようにメッセージを表示しても良い。そして、画像判定処理を終了する。 In the next step S30, the image determination unit 43 performs a machine learning determination process in which the machine learning unit 51 determines the image. In this machine learning determination process, the machine learning unit 51 analyzes whether or not the target device 4 is shown in the image. If the determination result by the machine learning unit 51 matches the determination result in the above-mentioned step S25, the image determination process is terminated. On the other hand, if there is no match, the determination result by the machine learning unit 51 may be given priority, and the determination information may be updated, or a message may be displayed to the administrator M to visually check. Then, the image determination process is terminated.

(第2実施形態)
次に、第2実施形態の画像特定システム1Aおよび画像特定方法について図16から図18を用いて説明する。なお、前述した実施形態に示される構成部分と同一構成部分については同一符号を付して重複する説明を省略する。
Second Embodiment
Next, an image identification system 1A and an image identification method according to a second embodiment will be described with reference to Fig. 16 to Fig. 18. Note that components that are the same as those in the above-described embodiment will be denoted by the same reference numerals and will not be described again.

図16に示すように、第2実施形態の画像特定システム1Aでは、第1実施形態の場合(図2参照)と異なり、現場端末2Aに画像記憶部27と撮影情報記録部36と識別子生成部37とが設けられていない。その替りに、管理コンピュータ3Aに撮影情報記録部52と識別子生成部53とが設けられている。 As shown in FIG. 16, in the image identification system 1A of the second embodiment, unlike the first embodiment (see FIG. 2), the on-site terminal 2A does not have an image storage unit 27, a photographing information recording unit 36, and an identifier generating unit 37. Instead, the management computer 3A has a photographing information recording unit 52 and an identifier generating unit 53.

第2実施形態では、現場端末2Aが管理コンピュータ3Aと常時接続が可能な通信環境に設けられている。そして、作業者Wが、現場端末2Aを用いて撮影操作を行った場合に、取得された画像がリアルタイムで管理コンピュータ3Aに転送される。なお、撮影時の位置情報と方向情報と画角情報とを含む撮影情報も同時に転送される。そして、管理コンピュータ3Aの画像記憶部41に記憶される。このように第2実施形態では、現場端末2Aには、画像が保存されないため、現場端末2Aが外部に持ち出された場合であっても、画像が持ち出されないで済む。 In the second embodiment, the on-site terminal 2A is provided in a communication environment that allows constant connection to the management computer 3A. When the worker W performs a photographing operation using the on-site terminal 2A, the acquired image is transferred in real time to the management computer 3A. Note that photographing information including position information, direction information, and angle of view information at the time of photographing is also transferred at the same time. The image is then stored in the image storage unit 41 of the management computer 3A. Thus, in the second embodiment, since the image is not saved in the on-site terminal 2A, the image does not need to be taken out even if the on-site terminal 2A is taken outside.

管理コンピュータ3Aの撮影情報記録部52は、現場端末2Aから画像を受信したときに、位置情報と方向情報と画角情報とを含む撮影情報を画像に対応付けて記録する。撮影情報は、画像ファイルの属性として記録しても良いし、画像ファイルとは異なる記録ファイルに記録しても良い。なお、管理者Mは、いずれの方式で記録するかを事前に設定することができる。 When the image is received from the on-site terminal 2A, the image capture information recording unit 52 of the management computer 3A records the image capture information including the position information, direction information, and angle of view information in association with the image. The image capture information may be recorded as an attribute of the image file, or may be recorded in a recording file separate from the image file. The manager M can set in advance which method to use for recording.

管理コンピュータ3Aの識別子生成部53は、受信した撮影情報に基づいて、識別子を生成する。なお、管理者Mは、撮影情報を識別子として記録するか否かを事前に設定することができる。識別子が生成される設定の場合には、撮影情報記録部52が識別子を画像に対応付けて記録する。なお、撮影情報記録部52が識別子を画像に含ませる態様で記録しても良い。 The identifier generating unit 53 of the management computer 3A generates an identifier based on the received photographic information. The administrator M can set in advance whether or not to record the photographic information as an identifier. If the setting is such that an identifier is generated, the photographic information recording unit 52 records the identifier in association with the image. The photographic information recording unit 52 may record the identifier in a manner that includes it in the image.

次に、現場端末2Aが実行する撮影制御処理について図18のフローチャートを用いて説明する。なお、第2実施形態の撮影制御処理は、ステップS69Aのみが、第1実施形態の撮影制御処理(図15参照)と異なり、ステップS61からステップS68までは、第1実施形態の撮影制御処理と同様である。 Next, the shooting control process executed by the on-site terminal 2A will be described with reference to the flowchart in FIG. 18. Note that the shooting control process of the second embodiment differs from the shooting control process of the first embodiment (see FIG. 15) only in step S69A, and steps S61 to S68 are the same as the shooting control process of the first embodiment.

図18に示すように、ステップS68の次に進むステップS69Aにおいて、端末制御部28は、カメラ8で撮影した画像、および位置情報と方向情報と画角情報とを含む撮影情報を、管理コンピュータ3Aに送信する。そして、撮影制御処理を終了する。 As shown in FIG. 18, in step S69A following step S68, the terminal control unit 28 transmits the image captured by the camera 8 and the capture information including the position information, direction information, and angle of view information to the management computer 3A. Then, the capture control process ends.

次に、管理コンピュータ3Aが実行する画像判定処理について図17のフローチャートを用いて説明する。なお、第2実施形態の画像判定処理は、ステップS21AとステップS21Bのみが、第1実施形態の画像判定処理(図11参照)と異なり、ステップS22からステップS30までは、第1実施形態の画像判定処理と同様である。 Next, the image determination process executed by the management computer 3A will be described with reference to the flowchart in FIG. 17. Note that the image determination process of the second embodiment differs from the image determination process of the first embodiment (see FIG. 11) only in steps S21A and S21B, and steps S22 to S30 are the same as the image determination process of the first embodiment.

図17に示すように、まず、ステップS21Aにおいて、管理制御部42は、現場端末2Aから画像を受信したか否かを判定する。ここで、画像を受信していない場合(ステップS21AにてNOの場合)は、画像判定処理を終了する。一方、画像を受信した場合(ステップS21AにてYESの場合)は、ステップS21Bに進む。 As shown in FIG. 17, first, in step S21A, the management control unit 42 determines whether or not an image has been received from the on-site terminal 2A. If an image has not been received (NO in step S21A), the image determination process ends. On the other hand, if an image has been received (YES in step S21A), the process proceeds to step S21B.

次のステップS21Bにおいて、撮影情報記録部52は、現場端末2Aから画像とともに受信した撮影情報を、画像に対応付けて記録する。なお、識別子生成部53が撮影情報に基づいて識別子を生成し、この識別子を画像に対応付けて記録しても良い。ここで、画像ファイルは、画像記憶部41に記憶される。そして、ステップS22に進む。 In the next step S21B, the image capture information recording unit 52 records the image capture information received from the on-site terminal 2A together with the image in association with the image. Note that the identifier generating unit 53 may generate an identifier based on the image capture information and record this identifier in association with the image. Here, the image file is stored in the image storage unit 41. Then, the process proceeds to step S22.

(第3実施形態)
次に、第3実施形態の画像特定システム1および画像特定方法について図19を用いて説明する。なお、前述した実施形態に示される構成部分と同一構成部分については同一符号を付して重複する説明を省略する。さらに、図2のブロック図を参照する。
Third Embodiment
Next, the image identification system 1 and the image identification method according to the third embodiment will be described with reference to Fig. 19. Note that the same components as those shown in the above-mentioned embodiment are denoted by the same reference numerals and will not be described again. Furthermore, the block diagram of Fig. 2 will be referred to.

図19に示すように、第3実施形態の画像特定システム1では、第1実施形態の場合と異なり、レイアウト図面54のような2D-CADデータに基づいて、画像に対象機器4(対象部分)が写っているか否かを判定する。レイアウト図面54は、例えば、それぞれの部屋15の平面図でも良いし、建物14のそれぞれのフロアの平面図でも良い。 As shown in FIG. 19, unlike the first embodiment, the image identification system 1 of the third embodiment determines whether or not the target device 4 (target portion) is shown in the image based on 2D-CAD data such as a layout drawing 54. The layout drawing 54 may be, for example, a plan view of each room 15 or a plan view of each floor of the building 14.

第3実施形態の対象情報には、撮影場所のレイアウト図面54(平面図)が含まれている。そして、レイアウト図面54におけるカメラ8(現場端末2)と対象機器4(対象部分)の2次元の座標情報に基づいて、対象機器4が写った画像を特定する。なお、現場端末2の機能は、前述の第1実施形態と同じであり、現場端末2により記録された画像には、撮影位置、方位、画角に関する情報が記録されている。 The target information in the third embodiment includes a layout drawing 54 (plan view) of the shooting location. Then, based on the two-dimensional coordinate information of the camera 8 (on-site terminal 2) and the target device 4 (target portion) in the layout drawing 54, an image in which the target device 4 is captured is identified. Note that the function of the on-site terminal 2 is the same as in the first embodiment described above, and the image recorded by the on-site terminal 2 includes information on the shooting position, orientation, and angle of view.

対象情報データベース38に登録されている設計情報には、レイアウト図面54が含まれている。レイアウト図面54には、対象機器4の位置、形状または寸法に関する情報が含まれている。さらに、対象機器4の周囲に配置される所定の構造物55の位置、形状または寸法に関する情報も含まれている。なお、構造物55は、部屋15に設置されている装置でも良いし、壁または柱などの建物14の一部でも良い。また、基準点管理テーブルに登録される位置情報は、基準点が設けられた位置を指定する2次元座標の情報である。この座標の情報には、水平方向(X軸,Y軸)の位置を指定する情報を含む。 The design information registered in the target information database 38 includes a layout drawing 54. The layout drawing 54 includes information about the position, shape, or dimensions of the target device 4. It also includes information about the position, shape, or dimensions of a specific structure 55 that is placed around the target device 4. The structure 55 may be a device installed in the room 15, or may be part of the building 14, such as a wall or a pillar. The position information registered in the reference point management table is two-dimensional coordinate information that specifies the position where the reference point is located. This coordinate information includes information that specifies the position in the horizontal direction (X axis, Y axis).

画像判定部43(図2参照)は、画像ファイルに対応付けられた撮影情報と、対象情報データベース38に記憶された対象情報および設計情報とに基づいて、画像に対象機器4(対象部分)が写っているか否かを判定する。第3実施形態では、カメラ8の水平方向の撮影方向のみに基づいて、対象機器4が写っているか否かの判定を行う。つまり、カメラ8の上下方向の傾きを考慮する必要がなく、大凡の撮影範囲56が把握できれば良い。 The image determination unit 43 (see FIG. 2) determines whether or not the target device 4 (target portion) is captured in the image based on the shooting information associated with the image file and the target information and design information stored in the target information database 38. In the third embodiment, the determination of whether or not the target device 4 is captured is made based only on the horizontal shooting direction of the camera 8. In other words, it is not necessary to take into account the vertical tilt of the camera 8, and it is sufficient to grasp the approximate shooting range 56.

なお、カメラ8の撮影範囲56に対象機器4が含まれているが、対象機器4の手前に所定の構造物55(遮蔽物)がある場合は、対象機器4が構造物55に隠れてしまって、カメラ8で撮影された画像に写り込まないことが想定される。そこで、レイアウト図面54(2D-CADデータ)を参照し、対象機器4の手前の構造物55の位置関係に基づいて、画像に対象機器4が映り込んでいるか否かを判定する。 Note that if the target device 4 is included in the shooting range 56 of the camera 8, but there is a specific structure 55 (obstruction) in front of the target device 4, it is assumed that the target device 4 will be hidden by the structure 55 and will not appear in the image captured by the camera 8. Therefore, by referring to the layout drawing 54 (2D-CAD data), it is determined whether or not the target device 4 is reflected in the image based on the positional relationship of the structure 55 in front of the target device 4.

第3実施形態では、2次元の座標情報を用いて処理を行うため、3次元の座標情報の処理を行う場合と比較して、画像に撮影制限の対象となっている対象機器4が写っているか否かを判定する処理を簡素化することができる。つまり、情報量の少ない2D-CADデータを用いて判定が行えるため、情報量の多い3D-CADデータを準備せずに済むようになる。 In the third embodiment, since processing is performed using two-dimensional coordinate information, the process of determining whether or not a target device 4 subject to shooting restrictions is captured in an image can be simplified compared to processing three-dimensional coordinate information. In other words, since the determination can be made using 2D-CAD data with a small amount of information, it becomes unnecessary to prepare 3D-CAD data with a large amount of information.

また、対象情報データベース38には、対象機器4以外の構造物55の位置を特定可能な情報を含む設計情報が記憶されており、撮影情報と対象情報と設計情報に基づいて、対象機器4が写った画像を特定する。このようにすれば、カメラ8の撮影範囲56に対象機器4が含まれていても、対象機器4が構造物55に隠れてしまって画像に写り込まない場合に、その判定を行うことができる。 The target information database 38 also stores design information including information capable of identifying the positions of structures 55 other than the target device 4, and identifies an image in which the target device 4 appears based on the shooting information, target information, and design information. In this way, even if the target device 4 is included in the shooting range 56 of the camera 8, it can be determined that the target device 4 is hidden by the structure 55 and does not appear in the image.

(第4実施形態)
次に、第4実施形態の画像特定システム1および画像特定方法について図20から図21を用いて説明する。なお、前述した実施形態に示される構成部分と同一構成部分については同一符号を付して重複する説明を省略する。
Fourth Embodiment
Next, the image identification system 1 and the image identification method according to the fourth embodiment will be described with reference to Fig. 20 and Fig. 21. Note that the same components as those shown in the above-mentioned embodiment are denoted by the same reference numerals and the duplicated description will be omitted.

第4実施形態では、動画像を対象とした処理を説明する。動画像の撮影の場合は、撮影中にカメラ8の位置が移動する場合がある。撮影開始時に、対象部分としての対象機器4が写り込んでいない場合であっても、撮影中にカメラ8が移動することにより対象機器4が動画像に写り込んでしまう場合がある。このような場合でも、動画像中に対象機器4が写り込んでいるか否かを判定する。 In the fourth embodiment, processing targeting moving images will be described. When capturing moving images, the position of the camera 8 may move during capture. Even if the target device 4 is not captured as a target part at the start of capture, the target device 4 may end up appearing in the moving image due to the camera 8 moving during capture. Even in such cases, it is determined whether the target device 4 is captured in the moving image.

まず、動画像の撮影時の時刻、位置、方位、画角など撮影情報を、静止画像におけるExifと同様に、動画ファイルの属性情報として記録する。動画像の場合には、決められた時間間隔で連続的に映像を記録するため、撮影情報も動画像のそれぞれのフレームに対応付けて記録する必要がある。例えば、それぞれのフレームに対応する撮影情報を動画ファイルとは別のファイルに記録しても良い。また、動画像の音声またはテキストデータを記録するトラックに撮影情報を記録しても良い。 First, shooting information such as the time, position, orientation, and angle of view when the video was shot is recorded as attribute information of the video file, similar to Exif for still images. In the case of video, because video is recorded continuously at a set time interval, shooting information must also be recorded in association with each frame of the video. For example, shooting information corresponding to each frame may be recorded in a file separate from the video file. Also, shooting information may be recorded on a track that records audio or text data for the video.

第4実施形態の画像判定部43(図2参照)の判定においては、記録された動画像の属性に記録された画角情報とそれぞれのフレームにおける撮影位置と撮影方向に基づいて、カメラ8の撮影範囲を算出する。次に、対象情報データベース38に登録された対象情報に基づいて、カメラ8と対象機器4の位置関係から対象機器4が動画像に写り込んでいるか否かを判定する。この判定結果を示す判定情報は、動画像のフレームまたはトラックに記録する。 In the judgment of the image judgment unit 43 (see FIG. 2) of the fourth embodiment, the shooting range of the camera 8 is calculated based on the angle of view information recorded in the attributes of the recorded video and the shooting position and shooting direction in each frame. Next, based on the target information registered in the target information database 38, it is judged whether the target device 4 is captured in the video from the positional relationship between the camera 8 and the target device 4. Judgment information indicating this judgment result is recorded in the frame or track of the video.

管理者Mが動画を編集する際には、例えば、図20に示すように、管理コンピュータ3のディスプレイ12に動画編集画面57が表示される。この動画編集画面57には、動画ファイルを表示させるファイル表示領域58と、編集中の動画像が表示されるプレビュー領域59と、動画像のトラックの内容を表示させる複数のトラック表示領域60とが設けられている。 When the administrator M edits a video, for example, as shown in FIG. 20, a video editing screen 57 is displayed on the display 12 of the management computer 3. This video editing screen 57 is provided with a file display area 58 that displays the video file, a preview area 59 that displays the video being edited, and a number of track display areas 60 that display the contents of the video tracks.

所定のトラックには、動画像のそれぞれの場面が記録される。そして、この動画像のトラックに対応して、音声を記録するトラック、テキストデータを記録するトラックが設けられる。さらに、画像判定部43の判定結果を示す判定情報を記録するトラックが設けられる。 Each scene of the video is recorded on a specific track. Corresponding to the video tracks, a track for recording audio and a track for recording text data are provided. In addition, a track is provided for recording judgment information indicating the judgment result of the image judgment unit 43.

判定情報のトラックには、動画像のいずれの時刻の場面(所定の再生期間)またはフレームに対象機器4が写り込んでいるか否かを示す情報が記録される。例えば、対象機器4が写り込んでいる場面またはフレームに対応して、外部への公開が制限されている旨を示す制限情報61が記録される。この制限情報61は、動画編集画面57のトラック表示領域60に表示される。なお、管理者Mは、動画編集画面57を用いて任意に制限情報61を設定しても良い。なお、公開が制限されていない場面またはフレームに対応して、非制限情報を記録しても良い。 In the track of the determination information, information is recorded indicating whether or not the target device 4 appears in a scene (specified playback period) or frame of the video at a certain time. For example, restriction information 61 indicating that disclosure to the outside is restricted is recorded corresponding to a scene or frame in which the target device 4 appears. This restriction information 61 is displayed in the track display area 60 of the video editing screen 57. Note that the administrator M may arbitrarily set the restriction information 61 using the video editing screen 57. Note that non-restriction information may be recorded corresponding to a scene or frame in which disclosure is not restricted.

動画像を再生するときには、制限情報61に対応する場面、つまり、対象機器4が写り込んでいる場面がカット(削除)された状態で再生される。なお、対象機器4が写り込んでいるフレームをモザイク処理またはマスク処理して再生しても良い。 When playing back a video, the scene corresponding to the restriction information 61, i.e., the scene in which the target device 4 appears, is cut (deleted) before being played back. Note that the frame in which the target device 4 appears may be pixelated or masked before being played back.

第4実施形態の撮影情報記録部36(図2参照)は、動画像のトラックとフレームの少なくともいずれか一方に撮影情報を対応付けて記録する。このようにすれば、動画像に撮影制限の対象となっている対象機器4が写っているか否かを選別することができる。 The shooting information recording unit 36 of the fourth embodiment (see FIG. 2) records shooting information in association with at least one of the tracks and frames of a video. In this way, it is possible to determine whether or not a target device 4 that is subject to shooting restrictions is captured in a video.

また、動画像を再生するときに、撮影制限の対象となっている対象機器4が写っている場面を再生の対象から除外するようにしている。対象機器4をマスクで隠すなどの処理をした場合には、マスクの部分に対象機器4が存在することが分かってしまうが、対象機器4が写っている場面を再生しないようにすることで、対象機器4の存在を秘匿にすることができる。 In addition, when playing back a video, scenes that include the target device 4 that is subject to shooting restrictions are excluded from the playback. If the target device 4 is masked, for example, it will be obvious that the target device 4 is present in the masked area, but by not playing back scenes that include the target device 4, the presence of the target device 4 can be kept secret.

なお、制限情報を記録する態様は、その他の態様でも良い。例えば、図21の変形例に示すように、動画像のそれぞれのトラックには、フレーム(画像)と音声とテキストデータと判定情報とが記録される。ここで、判定情報のトラックには、それぞれのフレームごとに制限情報62が記録される。 Note that the restriction information may be recorded in other ways. For example, as shown in the modified example of FIG. 21, frames (images), audio, text data, and judgment information are recorded in each track of a moving image. Here, restriction information 62 is recorded for each frame in the judgment information track.

制限情報62は、対象機器4が写り込んでいるフレームに対応付けて記録される。なお、対象機器4が写り込んでいないフレーム、つまり、公開が制限されていないフレーム(または場面)に対応付けて、疑似的な制限情報63を記録しても良い。この疑似的な制限情報63が対応付けられるフレームは、判定情報記録部44(図2参照)がランダムに設定しても良いし、管理者Mが任意に設定しても良い。そして、動画像を再生するときには、制限情報62および疑似的な制限情報63が対応付けられたフレーム(場面)を再生の対象から除外するようにする。 The restriction information 62 is recorded in association with a frame in which the target device 4 appears. Note that pseudo restriction information 63 may be recorded in association with a frame in which the target device 4 does not appear, i.e., a frame (or scene) whose publication is not restricted. The frame to which this pseudo restriction information 63 is associated may be set randomly by the determination information recording unit 44 (see FIG. 2), or may be set arbitrarily by the administrator M. Then, when playing back a video, the frames (scenes) to which the restriction information 62 and pseudo restriction information 63 are associated are excluded from the playback targets.

動画像の再生中に所定の場面がカットされて再生されると、そのカットされた部分に対象機器4が存在することが推測されてしまう。そこで、疑似的な制限情報63を記録して、公開が制限されていない場面についても部分的(ランダム)にカットして再生することで、対象機器4の存在が推測されないようにできる。 When a specific scene is cut during playback of a video, it is possible to infer that the target device 4 is present in the cut portion. Therefore, by recording pseudo restriction information 63 and partially (randomly) cutting and playing back scenes that are not restricted from being made public, it is possible to prevent the presence of the target device 4 from being inferred.

本実施形態に係る画像特定システムおよび画像特定方法を第1実施形態から第4実施形態に基づいて説明したが、いずれか1の実施形態において適用された構成を他の実施形態に適用しても良いし、各実施形態において適用された構成を組み合わせても良い。 The image identification system and image identification method according to this embodiment have been described based on the first to fourth embodiments, but the configuration applied in any one of the embodiments may be applied to the other embodiments, and the configurations applied in each embodiment may be combined.

なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。 In the flowchart of this embodiment, an example is shown in which each step is executed in series, but the order of steps is not necessarily fixed, and the order of some steps may be reversed. Also, some steps may be executed in parallel with other steps.

本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。 The system of this embodiment includes a control device with a highly integrated processor such as a dedicated chip, FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), or CPU (Central Processing Unit), a storage device such as ROM (Read Only Memory) or RAM (Random Access Memory), an external storage device such as HDD (Hard Disk Drive) or SSD (Solid State Drive), a display device such as a display, an input device such as a mouse or keyboard, and a communication interface. This system can be realized with a hardware configuration that uses a normal computer.

なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。 The program executed by the system of this embodiment is provided in advance in a ROM or the like. Alternatively, this program may be provided stored in an installable or executable file format on a non-transitory computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD).

また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。 The programs executed by this system may also be stored on a computer connected to a network such as the Internet and provided by downloading them via the network. This system may also be configured by combining separate modules that independently perform the functions of the components and connect them together via a network or dedicated lines.

なお、本実施形態では、VSLAM技術を用いて現場端末2の位置情報を取得しているが、その他の態様であっても良い。例えば、GPSを利用して位置情報を取得しても良い。Wi-Fi(登録商標)などの無線通信を利用して位置情報を取得しても良い。加速度センサなどを利用するPDRにより位置情報を取得しても良い。 In this embodiment, the location information of the on-site terminal 2 is acquired using VSLAM technology, but other methods may be used. For example, the location information may be acquired using GPS. The location information may be acquired using wireless communication such as Wi-Fi (registered trademark). The location information may be acquired by a PDR that uses an acceleration sensor or the like.

なお、現場端末2が魚眼レンズ付カメラを備えても良い。例えば、2つの魚眼レンズ付カメラを用いて作業者Wの上下左右全方位の360度パノラマ画像である全天球画像の同時撮影を行っても良い。そして、全天球画像に対象機器4が写っているか否かを判定しても良い。その場合には、撮影方向および設定情報を参照せずに、位置情報のみに基づいて判定を行っても良い。 The on-site terminal 2 may be equipped with a camera with a fisheye lens. For example, two cameras with fisheye lenses may be used to simultaneously capture a spherical image, which is a 360-degree panoramic image of the worker W in all directions, up, down, left, and right. Then, it may be determined whether the target device 4 is captured in the spherical image. In this case, the determination may be made based only on the position information, without referring to the shooting direction and setting information.

なお、本実施形態の現場端末2は、作業者が持運びできる大きさおよび重さであれば良い。例えば、作業現場において、三脚などの固定器具を用いて現場端末2を固定的に設置して使用しても良い。 The on-site terminal 2 of this embodiment may be of a size and weight that allows the worker to carry it around. For example, the on-site terminal 2 may be fixedly installed at the work site using a fixture such as a tripod.

なお、本実施形態のカメラ8は、ステレオカメラであっても良い。例えば、カメラ8がレンズ付きの2つの撮像素子を備えていても良い。このステレオカメラは、物体を複数の異なる2つの方向から同時に撮影することにより、その物体までの奥行き方向の情報が取得可能となっている。また、ステレオカメラのそれぞれの撮像素子により取得される画像は2次元画像であるが、これら2つの2次元画像に写る像の差異に基づいて、立体的な空間把握が可能な立体写真の生成が可能になっている。なお、ディスプレイ6には、レンズ付きの2つの画像素子のうち、いずれか一方の画像素子で撮影した撮影画像を表示すれば良い。 The camera 8 of this embodiment may be a stereo camera. For example, the camera 8 may be equipped with two image sensors with lenses. This stereo camera can acquire information on the depth direction of an object by simultaneously capturing images of the object from two different directions. The images captured by each image sensor of the stereo camera are two-dimensional images, but a stereoscopic photograph that allows a three-dimensional understanding of space can be generated based on the difference between the images captured in these two two-dimensional images. The display 6 may display an image captured by either one of the two image sensors with lenses.

以上説明した少なくとも1つの実施形態によれば、位置情報と方向情報と画角情報とを含む撮影情報を画像に対応付けて記録する撮影情報記録部を備えることにより、撮影制限の対象となっている対象部分が写った画像を正確に選別し、その画像が外部に漏洩されてしまうことを抑制することができる。 According to at least one of the embodiments described above, by providing a shooting information recording unit that records shooting information including position information, direction information, and angle of view information in association with an image, it is possible to accurately select images that include target areas that are subject to shooting restrictions, and to prevent those images from being leaked to the outside.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, substitutions, modifications, and combinations can be made without departing from the spirit of the invention. These embodiments and their modifications are within the scope of the invention and its equivalents as set forth in the claims, as well as the scope and spirit of the invention.

1(1A)…画像特定システム、2(2A)…現場端末、3(3A)…管理コンピュータ、4…対象機器、5…マーカ、6…ディスプレイ、7…スマートフォン、8…カメラ、9…透過型ヘッドマウントディスプレイ、10…ウェアラブルコンピュータ、11…コンピュータ本体、12…ディスプレイ、13…無線通信装置、14…建物、15…部屋、16…許可エリア、17,18…出入口、19…移動経路、20…画像ファイル、21…記録ファイル、22…加速度センサ、23…角速度センサ、24…3次元測定センサ、25…操作入力部、26…通信部、27…画像記憶部、28…端末制御部、29…位置姿勢推定部、30…基準取得部、31…エリア識別部、32…画像取得制御部、33…位置情報取得部、34…方向情報取得部、35…画角情報取得部、36…撮影情報記録部、37…識別子生成部、38…対象情報データベース、39…操作入力部、40…通信部、41…画像記憶部、42…管理制御部、43…画像判定部、44…判定情報記録部、45…判定結果表示部、46…対象情報設定部、47…画像判定結果画面、48…制限ファイル表示領域、49…非制限ファイル表示領域、50…マウスカーソル、51…機械学習部、52…撮影情報記録部、53…識別子生成部、54…レイアウト図面、55…構造物、56…撮影範囲、57…動画編集画面、58…ファイル表示領域、59…プレビュー領域、60…トラック表示領域、61,62,63…制限情報、M…管理者、W…作業者。 1 (1A)...Image identification system, 2 (2A)...On-site terminal, 3 (3A)...Management computer, 4...Target device, 5...Marker, 6...Display, 7...Smartphone, 8...Camera, 9...Transparent head-mounted display, 10...Wearable computer, 11...Computer main body, 12...Display, 13...Wireless communication device, 14...Building, 15...Room, 16...Allowed area, 17, 18...Entrance/exit, 19...Movement path, 20...Image file, 21...Recording file, 22...Acceleration sensor, 23...Angular velocity sensor, 24...3D measurement sensor, 25...Operation input unit, 26...Communication unit, 27...Image memory unit, 28...Terminal control unit, 29...Position and orientation estimation unit, 30...Reference acquisition unit, 31...Area identification unit, 32...Image acquisition control unit, 33...Position Information acquisition unit, 34...direction information acquisition unit, 35...angle of view information acquisition unit, 36...shooting information recording unit, 37...identifier generation unit, 38...target information database, 39...operation input unit, 40...communication unit, 41...image storage unit, 42...management control unit, 43...image judgment unit, 44...judgment information recording unit, 45...judgment result display unit, 46...target information setting unit, 47...image judgment result screen, 48...restricted file display area, 49...unrestricted file display area, 50...mouse cursor, 51...machine learning unit, 52...shooting information recording unit, 53...identifier generation unit, 54...layout drawing, 55...structure, 56...shooting range, 57...video editing screen, 58...file display area, 59...preview area, 60...track display area, 61, 62, 63...restriction information, M...administrator, W...worker.

Claims (15)

移動可能な端末に搭載され、画像を撮影するカメラと、
前記カメラによる前記画像の撮影時の位置を特定可能な位置情報を取得する位置情報取得部と、
前記カメラによる前記画像の撮影時の方向を特定可能な方向情報を取得する方向情報取得部と、
前記カメラによる前記画像の撮影時の画角を特定可能な画角情報を取得する画角情報取得部と、
前記位置情報と前記方向情報と前記画角情報とを含む撮影情報を前記画像に対応付けて記録する撮影情報記録部と、
を備え、
前記撮影情報に基づいて、撮影制限の対象となっている対象部分が写った前記画像を公開の対象から除外する、
画像特定システム。
A camera mounted on a mobile terminal for taking images;
a position information acquisition unit that acquires position information capable of identifying a position at which the image was captured by the camera;
a direction information acquisition unit that acquires direction information capable of identifying a direction at which the image was captured by the camera;
a view angle information acquisition unit that acquires view angle information capable of identifying a view angle at the time when the image was captured by the camera;
an imaging information recording unit that records imaging information including the position information, the direction information, and the angle of view information in association with the image;
Equipped with
excluding the image showing the portion subject to the photography restriction from the images to be made public based on the photography information;
Image Identification System.
移動可能な端末に搭載され、画像を撮影するカメラと、
前記カメラによる前記画像の撮影時の位置を特定可能な位置情報を取得する位置情報取得部と、
前記カメラによる前記画像の撮影時の方向を特定可能な方向情報を取得する方向情報取得部と、
前記カメラによる前記画像の撮影時の画角を特定可能な画角情報を取得する画角情報取得部と、
前記位置情報と前記方向情報と前記画角情報とを含む撮影情報を前記画像に対応付けて記録する撮影情報記録部と、
を備え、
前記画像が動画像であり、前記動画像のトラックとフレームの少なくともいずれか一方に対応付けて、撮影制限の対象となっている対象部分が写っているか否かを示す情報を記録する、
画像特定システム。
A camera mounted on a mobile terminal for taking images;
a position information acquisition unit that acquires position information capable of identifying a position at which the image was captured by the camera;
a direction information acquisition unit that acquires direction information capable of identifying a direction at which the image was captured by the camera;
a view angle information acquisition unit that acquires view angle information capable of identifying a view angle at the time when the image was captured by the camera;
an imaging information recording unit that records imaging information including the position information, the direction information, and the angle of view information in association with the image;
Equipped with
the image is a moving image, and information indicating whether or not a target part that is subject to photography restriction is included is recorded in association with at least one of a track and a frame of the moving image;
Image Identification System.
前記撮影情報に基づいて、前記対象部分が写った前記画像を選別する、
請求項1または請求項2に記載の画像特定システム。
selecting the image in which the target portion is captured based on the shooting information;
3. The image identification system according to claim 1 or 2 .
前記撮影情報に基づいて、前記画像に前記対象部分が写っているか否かを判定する画像判定部を備える、
請求項1から請求項3のいずれか1項に記載の画像特定システム。
an image determination unit that determines whether or not the target portion is included in the image based on the shooting information;
The image identification system according to any one of claims 1 to 3.
前記画像判定部による判定結果を識別可能な情報をディスプレイに表示する判定結果表示部を備える、
請求項4に記載の画像特定システム。
A determination result display unit is provided that displays information on a display that allows the determination result by the image determination unit to be identified.
The image identification system of claim 4.
前記判定結果表示部は、前記対象部分が写っている前記画像を含む画像ファイルが表示される制限ファイル表示領域と前記対象部分が写っていない前記画像を含む前記画像ファイルが表示される非制限ファイル表示領域とを表示する、
請求項5に記載の画像特定システム。
the determination result display unit displays a restricted file display area in which an image file including the image in which the target portion is displayed and a non-restricted file display area in which an image file including the image in which the target portion is not displayed is displayed.
The image identification system of claim 5 .
前記判定結果表示部は、前記制限ファイル表示領域と前記非制限ファイル表示領域とを並べて表示する、
請求項6に記載の画像特定システム。
the determination result display unit displays the restricted file display area and the non-restricted file display area side by side;
The image identification system of claim 6.
前記画像が動画像であり、前記対象部分が写っている場面を再生の対象から除外する、
請求項1から請求項のいずれか1項に記載の画像特定システム。
the image is a moving image, and a scene in which the target portion is shown is excluded from the playback target;
The image identification system according to any one of claims 1 to 7 .
前記対象部分の位置を特定可能な対象情報が記憶された対象情報データベースを備え、
前記撮影情報と前記対象情報とに基づいて、前記対象部分が写った前記画像を特定する、
請求項1から請求項のいずれか1項に記載の画像特定システム。
an object information database in which object information capable of identifying a position of the object portion is stored ;
Identifying the image in which the target portion is captured based on the shooting information and the target information.
The image identification system according to any one of claims 1 to 8 .
前記対象情報データベースには、前記対象部分以外の構造物の位置を特定可能な情報を含む設計情報が記憶されており、
前記撮影情報と前記対象情報と前記設計情報に基づいて、前記対象部分が写った前記画像を特定する、
請求項に記載の画像特定システム。
The target information database stores design information including information capable of identifying a position of a structure other than the target portion,
Identifying the image in which the target portion is captured based on the shooting information, the target information, and the design information.
The image identification system of claim 9 .
撮影場所に設けられている特定被写体を前記カメラで撮影して前記撮影場所の基準点を取得する基準取得部を備え、
前記基準点に基づいて、前記位置情報取得部が前記画像の撮影時の位置の取得を行い、かつ前記方向情報取得部が前記画像の撮影時の方向の取得を行う、
請求項1から請求項10のいずれか1項に記載の画像特定システム。
a reference acquisition unit that acquires a reference point of a photographing location by photographing a specific subject provided at the photographing location with the camera;
The position information acquisition unit acquires a position at the time of photographing the image based on the reference point, and the direction information acquisition unit acquires a direction at the time of photographing the image.
The image identification system according to any one of claims 1 to 10.
前記特定被写体は、画像認識が可能な図形として描かれたマーカを含む、
請求項11に記載の画像特定システム。
The specific subject includes a marker drawn as a figure capable of image recognition.
The image identification system of claim 11 .
前記特定被写体は、銘柄を表示した銘板を含む、
請求項11または請求項12に記載の画像特定システム。
The specific subject includes a nameplate showing a brand name.
The image identification system according to claim 11 or 12 .
移動可能な端末に搭載されたカメラにより画像を撮影するステップと、
前記カメラによる前記画像の撮影時の位置を特定可能な位置情報を取得するステップと、
前記カメラによる前記画像の撮影時の方向を特定可能な方向情報を取得するステップと、
前記カメラによる前記画像の撮影時の画角を特定可能な画角情報を取得するステップと、
前記位置情報と前記方向情報と前記画角情報とを含む撮影情報を前記画像に対応付けて記録するステップと、
を含
前記撮影情報に基づいて、撮影制限の対象となっている対象部分が写った前記画像を公開の対象から除外する、
画像特定方法。
Taking an image with a camera mounted on a mobile terminal;
acquiring position information capable of identifying a position at the time when the image was captured by the camera;
acquiring direction information capable of identifying a direction at which the camera captured the image;
acquiring angle-of-view information capable of identifying an angle of view at the time when the image was captured by the camera;
recording shooting information including the position information, the direction information, and the angle of view information in association with the image;
Including ,
excluding the image showing the portion subject to the photography restriction from the images to be made public based on the photography information;
Image identification method.
移動可能な端末に搭載されたカメラにより画像を撮影するステップと、
前記カメラによる前記画像の撮影時の位置を特定可能な位置情報を取得するステップと、
前記カメラによる前記画像の撮影時の方向を特定可能な方向情報を取得するステップと、
前記カメラによる前記画像の撮影時の画角を特定可能な画角情報を取得するステップと、
前記位置情報と前記方向情報と前記画角情報とを含む撮影情報を前記画像に対応付けて記録するステップと、
を含
前記画像が動画像であり、前記動画像のトラックとフレームの少なくともいずれか一方に対応付けて、撮影制限の対象となっている対象部分が写っているか否かを示す情報を記録する、
画像特定方法。
Taking an image with a camera mounted on a mobile terminal;
acquiring position information capable of identifying a position at the time when the image was captured by the camera;
acquiring direction information capable of identifying a direction at which the camera captured the image;
acquiring angle-of-view information capable of identifying an angle of view at the time when the image was captured by the camera;
recording shooting information including the position information, the direction information, and the angle of view information in association with the image;
Including ,
the image is a moving image, and information indicating whether or not a target part that is subject to photography restriction is included is recorded in association with at least one of a track and a frame of the moving image;
Image identification method.
JP2020091058A 2020-05-26 2020-05-26 IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD Active JP7508271B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020091058A JP7508271B2 (en) 2020-05-26 2020-05-26 IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020091058A JP7508271B2 (en) 2020-05-26 2020-05-26 IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD

Publications (2)

Publication Number Publication Date
JP2021190729A JP2021190729A (en) 2021-12-13
JP7508271B2 true JP7508271B2 (en) 2024-07-01

Family

ID=78847775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020091058A Active JP7508271B2 (en) 2020-05-26 2020-05-26 IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD

Country Status (1)

Country Link
JP (1) JP7508271B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7417656B2 (en) * 2022-05-06 2024-01-18 株式会社サイバーリンクス River water level observation system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339818A (en) 2005-05-31 2006-12-14 Sony Corp Imaging apparatus, method for processing pick-up image data
JP2009135597A (en) 2007-11-28 2009-06-18 Nikon Corp Electronic camera, information processing apparatus, and information processing method and program
JP2014121065A (en) 2012-12-19 2014-06-30 Konica Minolta Inc Data management device, data management program, data management system, and data management method
JP2014200006A (en) 2013-03-29 2014-10-23 キヤノン株式会社 Imaging apparatus and control method
WO2017221659A1 (en) 2016-06-20 2017-12-28 マクセル株式会社 Image capturing device, display device, and image capturing and displaying system
JP2019124849A (en) 2018-01-18 2019-07-25 セイコーエプソン株式会社 Head-mount display device, display system, and method for controlling head-mount display device
JP2020077898A (en) 2018-11-05 2020-05-21 株式会社東芝 Image processing device and image processing method
JP6725736B1 (en) 2019-08-29 2020-07-22 株式会社東芝 Image specifying system and image specifying method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006339818A (en) 2005-05-31 2006-12-14 Sony Corp Imaging apparatus, method for processing pick-up image data
JP2009135597A (en) 2007-11-28 2009-06-18 Nikon Corp Electronic camera, information processing apparatus, and information processing method and program
JP2014121065A (en) 2012-12-19 2014-06-30 Konica Minolta Inc Data management device, data management program, data management system, and data management method
JP2014200006A (en) 2013-03-29 2014-10-23 キヤノン株式会社 Imaging apparatus and control method
WO2017221659A1 (en) 2016-06-20 2017-12-28 マクセル株式会社 Image capturing device, display device, and image capturing and displaying system
JP2019124849A (en) 2018-01-18 2019-07-25 セイコーエプソン株式会社 Head-mount display device, display system, and method for controlling head-mount display device
JP2020077898A (en) 2018-11-05 2020-05-21 株式会社東芝 Image processing device and image processing method
JP6725736B1 (en) 2019-08-29 2020-07-22 株式会社東芝 Image specifying system and image specifying method

Also Published As

Publication number Publication date
JP2021190729A (en) 2021-12-13

Similar Documents

Publication Publication Date Title
US11165959B2 (en) Connecting and using building data acquired from mobile devices
Zollmann et al. Augmented reality for construction site monitoring and documentation
CN107836012B (en) Projection image generation method and device, and mapping method between image pixel and depth value
JP7337654B2 (en) Maintenance activity support system and maintenance activity support method
JP7041551B2 (en) Construction process management system and construction process management method
CN109658435A (en) The unmanned plane cloud for capturing and creating for video
CN113196208A (en) Automated control of image acquisition by using an acquisition device sensor
US11657085B1 (en) Optical devices and apparatuses for capturing, structuring, and using interlinked multi-directional still pictures and/or multi-directional motion pictures
JP6725736B1 (en) Image specifying system and image specifying method
US10838515B1 (en) Tracking using controller cameras
CA3069813C (en) Capturing, connecting and using building interior data from mobile devices
CN110168615A (en) Information processing equipment, information processing method and program
US11395102B2 (en) Field cooperation system and management device
JP2021136017A (en) Augmented reality system using visual object recognition and stored geometry to create and render virtual objects
JP7508271B2 (en) IMAGE IDENTIFICATION SYSTEM AND IMAGE IDENTIFICATION METHOD
US20220051048A1 (en) Determining visual overlap of images by using box embeddings
TWI764366B (en) Interactive method and system based on optical communication device
TWI750821B (en) Navigation method, system, equipment and medium based on optical communication device
US20180350216A1 (en) Generating Representations of Interior Space
JP7467206B2 (en) Video management support system and video management support method
TWI759764B (en) Superimpose virtual object method based on optical communitation device, electric apparatus, and computer readable storage medium
JP2005258792A (en) Apparatus, method and program for generating image
JP7293057B2 (en) Radiation dose distribution display system and radiation dose distribution display method
KR102551212B1 (en) Method and apparatus for providing augmented reality
JP7452768B2 (en) Imaging system and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240619

R150 Certificate of patent or registration of utility model

Ref document number: 7508271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150